JP7396861B2 - Display control device, display control method, and display control program - Google Patents

Display control device, display control method, and display control program Download PDF

Info

Publication number
JP7396861B2
JP7396861B2 JP2019201031A JP2019201031A JP7396861B2 JP 7396861 B2 JP7396861 B2 JP 7396861B2 JP 2019201031 A JP2019201031 A JP 2019201031A JP 2019201031 A JP2019201031 A JP 2019201031A JP 7396861 B2 JP7396861 B2 JP 7396861B2
Authority
JP
Japan
Prior art keywords
display control
pet
absorbent article
image
wearing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019201031A
Other languages
Japanese (ja)
Other versions
JP2021076945A (en
Inventor
勝己 水谷
洋貴 大池
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Unicharm Corp
Original Assignee
Unicharm Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Unicharm Corp filed Critical Unicharm Corp
Priority to JP2019201031A priority Critical patent/JP7396861B2/en
Publication of JP2021076945A publication Critical patent/JP2021076945A/en
Application granted granted Critical
Publication of JP7396861B2 publication Critical patent/JP7396861B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)
  • Image Processing (AREA)

Description

本発明は、表示制御装置、表示制御方法および表示制御プログラムに関する。 The present invention relates to a display control device, a display control method, and a display control program.

従来、情報処理の進歩に従い、様々な態様で利用者に情報を提供する技術が提案されている。このような情報提供技術の一例として、犬の撮像画像に、犬用の服画像を重ねることで、犬が服を仮想的に装着している画像を提供するAR(Augmented Reality)の技術が提案されている。 BACKGROUND ART Conventionally, as information processing advances, techniques for providing information to users in various ways have been proposed. As an example of such information provision technology, an AR (Augmented Reality) technology has been proposed that provides an image of the dog wearing the clothes virtually by superimposing an image of clothes for the dog on a captured image of the dog. has been done.

特開2006-285563号公報Japanese Patent Application Publication No. 2006-285563

しかしながら、上述した従来技術では、適切なペット用の吸収性物品の情報を提供することができないという問題がある。 However, the above-mentioned conventional technology has a problem in that it is unable to provide information on appropriate absorbent articles for pets.

例えば、ペットの排泄物を吸収するための吸収性物品は、漏れを防ぐため、ペットの身体の大きさに合った製品を利用する必要がある。しかしながら、犬や猫等のペットは、毛量により見た目の大きさと実際の身体の大きさに差があり、毛量が季節や種別により変化するため、外見のみから適切な製品を特定するのが困難である。 For example, absorbent articles for absorbing pet excrement need to be made to fit the pet's body size to prevent leakage. However, for pets such as dogs and cats, there is a difference between the apparent size and the actual body size depending on the amount of hair, and the amount of hair changes depending on the season and type, so it is difficult to identify the appropriate product based only on the appearance. Have difficulty.

本願は、上記に鑑みてなされたものであって、ペット用の吸収性物品の情報を適切に提供することを目的とする。 This application was made in view of the above, and aims to appropriately provide information on absorbent articles for pets.

本願に係る表示制御装置は、所定の装着具が装着されたペットが撮影された撮影画像を取得する取得部と、前記撮影画像に撮影された装着具と対応する種別の吸収性物品を特定する特定部と、前記ペットが前記特定部により特定された吸収性物品を仮想的に装着した態様で、前記撮影画像に当該吸収性物品の画像を重畳した状態で表示させる表示制御部とを有することを特徴とする。 The display control device according to the present application includes an acquisition unit that acquires a photographed image of a pet wearing a predetermined wearing device, and a device that identifies an absorbent article of a type corresponding to the wearing device photographed in the photographed image. The pet has a specifying section and a display control section that displays an image of the absorbent article superimposed on the photographed image in a state in which the pet virtually wears the absorbent article specified by the specifying section. It is characterized by

実施形態の一態様によれば、適切なペット用の吸収性物品の情報を提供することができる。 According to one aspect of the embodiment, information on suitable absorbent articles for pets can be provided.

図1は、実施形態に係る表示制御装置が実行する表示制御処理の一例を示す図である。FIG. 1 is a diagram illustrating an example of display control processing executed by a display control device according to an embodiment. 図2は、実施形態に係る装着具を概念的に説明する説明図である。FIG. 2 is an explanatory diagram conceptually explaining the mounting tool according to the embodiment. 図3は、吸収性物品の外観変更の一例を示す図である。FIG. 3 is a diagram illustrating an example of changing the appearance of an absorbent article. 図4は、実施形態に係る表示制御装置が他の利用者に画像を提供する処理の流れの一例を説明する図である。FIG. 4 is a diagram illustrating an example of a process flow in which the display control device according to the embodiment provides an image to another user. 図5は、実施形態に係る画像コンテンツの投稿画面の一例を示す図である。FIG. 5 is a diagram illustrating an example of an image content posting screen according to the embodiment. 図6は、実施形態に係る共有コンテンツの一例を示す図である。FIG. 6 is a diagram illustrating an example of shared content according to the embodiment. 図7は、実施形態に係る表示制御システムの構成例を示す図である。FIG. 7 is a diagram illustrating a configuration example of a display control system according to an embodiment. 図8は、実施形態に係る識別情報記憶部の一例を示す図である。FIG. 8 is a diagram illustrating an example of an identification information storage unit according to the embodiment. 図9は、実施形態に係る共有コンテンツ記憶部の一例を示す図である。FIG. 9 is a diagram illustrating an example of a shared content storage unit according to the embodiment. 図10は、実施形態に係る表示制御処理手順を示すフローチャートである。FIG. 10 is a flowchart showing a display control processing procedure according to the embodiment. 図11は、ハードウェア構成の一例を示す図である。FIG. 11 is a diagram showing an example of the hardware configuration.

本明細書及び添付図面の記載により、少なくとも以下の事項が明らかとなる。 From the description of this specification and the attached drawings, at least the following matters will become clear.

(請求項1)
所定の装着具が装着されたペットが撮影された撮影画像を取得する取得部と、前記撮影画像に撮影された装着具と対応する種別の吸収性物品を特定する特定部と、前記ペットが前記特定部により特定された吸収性物品を仮想的に装着した態様で、前記撮影画像に当該吸収性物品の画像を重畳した状態で表示させる表示制御部とを有することを特徴とする表示制御装置。
(Claim 1)
an acquisition unit that acquires a photographed image of a pet wearing a predetermined wearing device; a specifying unit that identifies an absorbent article of a type corresponding to the wearing device photographed in the photographed image; A display control device comprising: a display control unit that displays an image of the absorbent article specified by the identification unit in a state in which the absorbent article is virtually worn and superimposed on the photographed image.

このような表示制御装置によれば、所定の装着具が装着されたペットが撮影された撮影画像から、この装着具と対応する種別の吸収性物品を特定し、特定した吸収性物品をこのペットが仮想的に装着した態様となるよう、撮影画像に当該吸収性物品の画像を重畳した状態で表示させる。これにより、表示制御装置は、適切なペット用の吸収性物品の情報を提供することができる。 According to such a display control device, an absorbent article of a type corresponding to a predetermined attachment device is identified from a captured image of a pet wearing a predetermined attachment device, and the identified absorbent article is attached to the pet. The image of the absorbent article is displayed superimposed on the photographed image so that the absorbent article appears to be virtually worn. Thereby, the display control device can provide information on appropriate absorbent articles for pets.

(請求項2)
また、表示制御装置は、前記装着具として、胴回りに巻く装着具が装着されたペットが撮影され撮影画像を取得する。
(Claim 2)
Further, the display control device acquires a photographed image of a pet wearing a wearing tool that is wrapped around the body as the wearing tool.

このような表示制御装置によれば、毛量により見た目の大きさと実際の身体の大きさに差があるペットを対象とする場合であっても、実際の身体の大きさに合った状態で吸収性物品が仮想的に装着された態様の撮影画像を提供することができるため、利用者に対して適切な製品(吸収性物品)を特定させることができる。 According to such a display control device, even when targeting a pet whose apparent size differs from its actual body size due to the amount of hair, it can be absorbed in a state that matches the actual body size. Since it is possible to provide a photographed image of a state in which the sexual article is virtually worn, it is possible to allow the user to specify an appropriate product (absorbent article).

(請求項3)
例えば、表示制御装置は、前記装着具として、胴回りの大きさごとに異なる装着具が装着されたペットが撮影された撮影画像を取得する。
(Claim 3)
For example, the display control device acquires a photographed image of a pet equipped with a different wearing tool for each size of the body girth as the wearing tool.

このような表示制御装置によれば、毛量により見た目の大きさと実際の身体の大きさに差があるペットを対象とする場合であっても、実際の身体の大きさに合った状態で吸収性物品が仮想的に装着された態様の撮影画像を提供することができるため、利用者に対して適切な製品(吸収性物品)を特定させることができる。 According to such a display control device, even when targeting a pet whose apparent size differs from its actual body size due to the amount of hair, it can be absorbed in a state that matches the actual body size. Since it is possible to provide a photographed image of a state in which the sexual article is virtually worn, it is possible to allow the user to specify an appropriate product (absorbent article).

(請求項4)
また、表示制御装置は、前記装着具と対応する大きさの吸収性物品を特定する。
(Claim 4)
Further, the display control device specifies an absorbent article having a size corresponding to the wearing tool.

このような表示制御装置によれば、毛量により見た目の大きさと実際の身体の大きさに差があるペットを対象とする場合であっても、実際の身体の大きさに合った状態で吸収性物品が仮想的に装着された態様の撮影画像を提供することができるため、利用者に対して適切な製品(吸収性物品)を特定させることができる。 According to such a display control device, even when targeting a pet whose apparent size differs from its actual body size due to the amount of hair, it can be absorbed in a state that matches the actual body size. Since it is possible to provide a photographed image of a state in which the sexual article is virtually worn, it is possible to allow the user to specify an appropriate product (absorbent article).

(請求項5)
また、表示制御装置は、前記装着具として、前記ペットの性別に応じて異なる装着具が装着されたペットが撮影された撮影画像を取得する。
(Claim 5)
Further, the display control device acquires a captured image of a pet wearing a different attachment device depending on the gender of the pet as the attachment device.

このような表示制御装置によれば、ペットの性別に合わせて形状や機能が異なる吸収性物品が存在する場合であっても、これら吸収性物品のうち、利用者のペットの性別に応じた形状や機能の吸収性物品が仮想的に装着された態様の撮影画像を提供することができるため、利用者に対して適切な製品(吸収性物品)を特定させることができる。 According to such a display control device, even if there are absorbent articles with different shapes and functions depending on the gender of the pet, among these absorbent articles, the shape according to the gender of the user's pet can be selected. Since it is possible to provide a captured image in which an absorbent article with different functions is virtually worn, it is possible to allow a user to specify an appropriate product (absorbent article).

(請求項6)
また、表示制御装置は、前記装着具と対応する性別用の吸収性物品を特定する。
(Claim 6)
Further, the display control device identifies an absorbent article for a gender corresponding to the wearing tool.

このような表示制御装置によれば、ペットの性別に合わせて形状や機能が異なる吸収性物品が存在する場合、これら吸収性物品のうち、利用者のペットの性別に応じた形状や機能の吸収性物品が仮想的に装着された態様の撮影画像を提供することができるため、利用者に対して適切な製品(吸収性物品)を特定させることができる。 According to such a display control device, when there are absorbent articles that have different shapes and functions depending on the gender of the pet, among these absorbent articles, absorbent articles that have shapes and functions that correspond to the gender of the user's pet can be used. Since it is possible to provide a photographed image of a state in which the sexual article is virtually worn, it is possible to allow the user to specify an appropriate product (absorbent article).

(請求項7)
また、表示制御装置は、前記吸収性物品の種別ごとに予め準備された複数の装着具のうちいずれかの装着具が装着されたペットの撮影画像を取得する。
(Claim 7)
Further, the display control device acquires a photographed image of the pet wearing one of the plurality of wearing devices prepared in advance for each type of the absorbent article.

このような表示制御装置によれば、利用者のペットの実際の身体の大きさや、利用者のペットの性別に応じた態様で吸収性物品が仮想的に装着された撮影画像を提供することができるため、利用者に対して適切な製品(吸収性物品)を特定させることができる。 According to such a display control device, it is possible to provide a photographed image in which an absorbent article is virtually attached in a manner according to the actual body size of the user's pet and the gender of the user's pet. This allows the user to specify an appropriate product (absorbent article).

(請求項8)
また、表示制御装置は、前記装着具の装着態様に基づいて、前記ペットの前後方向をさらに特定し、特定した前後方向に基づいて、前記撮影画像に当該吸収性物品の画像を重畳した状態で表示させる。
(Claim 8)
Further, the display control device further specifies the front-back direction of the pet based on the wearing manner of the wearing device, and superimposes the image of the absorbent article on the photographed image based on the specified front-back direction. Display.

このような表示制御装置によれば、吸収性物品にはペットに装着させる際の正しい向きが定められている場合、正しい向きで吸収性物品が仮想的に装着された態様の撮影画像を提供することができるため、利用者に対して適切な製品(吸収性物品)を特定させることができる。 According to such a display control device, when the correct orientation of the absorbent article when it is worn on a pet is determined, a photographed image of the absorbent article virtually worn in the correct orientation is provided. This allows the user to specify an appropriate product (absorbent article).

(請求項9)
例えば、表示制御装置は、前記装着具として、前記ペットの前後方向を示す表示が付与された装着具が装着されたペットが撮影された撮影画像を取得する。
(Claim 9)
For example, the display control device acquires a photographed image of a pet wearing a wearing tool provided with a display indicating the front and back direction of the pet as the wearing tool.

このような表示制御装置によれば、吸収性物品にはペットに装着させる際の正しい向きが定められている場合、正しい向きで吸収性物品が仮想的に装着された態様の撮影画像を提供することができるため、利用者に対して適切な製品(吸収性物品)を特定させることができる。 According to such a display control device, when the correct orientation of the absorbent article when it is worn on a pet is determined, a photographed image of the absorbent article virtually worn in the correct orientation is provided. This allows the user to specify an appropriate product (absorbent article).

(請求項10)
また、表示制御装置は、利用者からの操作に従って、仮想的に装着させた吸収性物品の外観を変更させる。
(Claim 10)
Further, the display control device changes the appearance of the virtually worn absorbent article according to the user's operation.

このような表示制御装置によれば、吸収性物品には外観(例えば、色や模様等)にバリエーションが存在する場合、利用者に対して自身のペットにはどの外観の吸収性物品が合っているかを容易にイメージさせることができる。 According to such a display control device, if there are variations in the appearance (for example, color or pattern) of absorbent articles, the user can be informed which appearance of the absorbent article is suitable for his or her pet. You can easily imagine what it is like.

(請求項11)
また、表示制御装置は、対応する吸収性物品の種別に応じた識別情報が付与された装着具が装着されたペットの撮影画像を取得し、前記撮影画像に撮影された装着具に付与された識別情報と対応する種別の吸収性物品を特定する。
(Claim 11)
The display control device also acquires a photographed image of a pet wearing a wearing device that has been given identification information according to the type of the corresponding absorbent article, and acquires a photographed image of a pet wearing a wearing device that has been given identification information according to the type of the corresponding absorbent article, and is configured to acquire the photographed image of a pet wearing a wearing device that has been given identification information according to the type of the corresponding absorbent article, and to obtain identification information that has been given to the wearing device photographed in the photographed image. Identify the type of absorbent article that corresponds to the identification information.

このような表示制御装置によれば、吸収性物品には、例えば、性別に応じて複数の種別が存在する場合、撮影画像に重畳させる対象の吸収性物品を高精度に特定することができる。 According to such a display control device, when there are multiple types of absorbent articles depending on gender, for example, it is possible to specify with high precision the absorbent article to be superimposed on a photographed image.

(請求項12)
また、表示制御装置は、対応する吸収性物品の種別に応じた複数の識別情報であって、それぞれ前記装着具を装着したペットの前後方向若しくは胴回り方向に応じて異なる複数の識別情報が付与された装着具が装着されたペットの撮影画像を取得し、前記撮影画像に撮影された装着具に付与された識別情報と対応する種別の吸収性物品を特定するとともに、前記ペットの前後方向若しくは胴回り方向を特定し、前記ペットの前後方向若しくは胴回り方向に基づいて、前記ペットが前記特定部により特定された種別の吸収性物品を仮想的に装着した態様で、前記撮影画像に当該吸収性物品の画像を重畳した状態で表示させる。
(Claim 12)
Further, the display control device is provided with a plurality of pieces of identification information according to the type of the corresponding absorbent article, each of which is different depending on the front-rear direction or waist circumference direction of the pet wearing the attachment device. Obtain a photographed image of a pet wearing a fitted device, identify the type of absorbent article that corresponds to the identification information given to the fitted device photographed in the photographed image, and identify the type of absorbent article that corresponds to the identification information given to the fitted device photographed in the photographed image. The direction is specified, and based on the front-rear direction or waist circumference direction of the pet, the absorbent article is displayed in the photographed image in such a manner that the pet is virtually wearing an absorbent article of the type specified by the specifying section. Display images in a superimposed state.

このような表示制御装置によれば、ペット大きさ、ペットの向きに応じて、不自然がないようより最適な態様で吸収性物品が仮想的に装着された撮影画像を提供することができるため、利用者に対して適切な製品(吸収性物品)を特定させることができる。 According to such a display control device, it is possible to provide a photographed image in which the absorbent article is virtually attached in a more optimal manner without any unnaturalness, depending on the pet size and orientation of the pet. , the user can specify an appropriate product (absorbent article).

(請求項13)
また、表示制御装置は、利用者が利用する端末装置が撮影した撮影画像を取得し、前記利用者が利用する端末装置に前記撮影画像を表示させる。
(Claim 13)
Further, the display control device acquires a photographed image taken by a terminal device used by a user, and displays the photographed image on the terminal device used by the user.

このような表示制御装置によれば、当該表示制御装置は、例えば、利用者が利用する端末装置と協働するサーバ装置であるため、撮影画像に吸収性物品の画像を重畳した状態で表示させる表示制御処理の処理速度を向上させることができる。 According to such a display control device, since the display control device is, for example, a server device that cooperates with a terminal device used by a user, it is possible to display an image of an absorbent article superimposed on a photographed image. The processing speed of display control processing can be improved.

(請求項14)
また、表示制御装置は、前記端末装置が実行するアプリケーションであって、ウェブコンテンツを表示させるためのアプリケーションを介して前記端末装置が撮影した撮影画像を取得し、前記アプリケーションを介して、前記利用者が利用する端末装置に前記撮影画像を表示させる。
(Claim 14)
Further, the display control device is an application executed by the terminal device, and acquires a photographed image taken by the terminal device through an application for displaying web content, and transmits the image to the user through the application. The photographed image is displayed on a terminal device used by the user.

このような表示制御装置によれば、吸収性物品の画像(仮想的な画像)として、より高度な画像を端末装置に表示させることができる。 According to such a display control device, a more sophisticated image can be displayed on the terminal device as an image (virtual image) of the absorbent article.

(請求項15)
また、表示制御装置は、画像を表示させた端末装置の位置と、端末装置に表示させた画像とを対応付けて記憶する。そして、表示制御装置は、他の端末装置から所定の施設が撮影された撮影画像と、撮影画像が撮影された位置とを受付けた場合は、受付けた位置と対応付けて記憶された画像を撮影画像に重畳したコンテンツを他の端末装置に提供する。
(Claim 15)
Further, the display control device stores the position of the terminal device that displayed the image and the image displayed on the terminal device in association with each other. When the display control device receives a captured image of a predetermined facility and the location where the captured image was captured from another terminal device, the display control device captures the image stored in association with the accepted location. The content superimposed on the image is provided to other terminal devices.

このような表示制御装置によれば、ある地域に居住する利用者が撮影した画像であって、吸収性物品を仮想的に装着したペットの画像を、同じ地域に所在する他の利用者に対して提供することができるので、吸収性物品の広告効果を向上させることができる。 According to such a display control device, an image of a pet virtually wearing an absorbent article, which is taken by a user residing in a certain area, can be displayed to other users located in the same area. Therefore, the advertising effect of the absorbent article can be improved.

以下に、表示制御装置、表示制御方法および表示制御プログラムを実施するための形態(以下、「実施形態」と記載する)の一例について図面を参照しつつ詳細に説明する。なお、この実施形態により表示制御装置、表示制御方法および表示制御プログラムが限定されるものではない。また、以下の実施形態において同一の部位には同一の符号を付し、重複する説明は省略する。 Below, an example of a display control device, a display control method, and a mode for implementing a display control program (hereinafter referred to as an "embodiment") will be described in detail with reference to the drawings. Note that the display control device, display control method, and display control program are not limited to this embodiment. In addition, in the following embodiments, the same parts are given the same reference numerals, and redundant explanations will be omitted.

[実施形態]
〔1.表示制御処理の概要〕
まず、実施形態に係る表示制御処理の概要を前提に基づいて説明する。また、説明に当たって、本実施態では、表示制御処理の対象とするペットは「犬」であるものとする。しかしながら、実施形態に係る表示制御処理を適用可能なペットの種別は「犬」だけに限定されるものではない。
[Embodiment]
[1. Overview of display control processing]
First, an overview of the display control processing according to the embodiment will be explained based on the premise. Furthermore, for the purpose of explanation, it is assumed in this embodiment that the pet targeted for display control processing is a "dog." However, the types of pets to which the display control processing according to the embodiment can be applied are not limited to "dogs".

ここで、ペットの排泄物を吸収するための吸収性物品は、「高齢犬等を対象とした介助目的の製品」というイメージを強く持たれているが、実際には、介助目的以外にも様々な目的で使用されるものである。例えば、吸収性物品の中には、野外でのマーキングを防止するために利用されるマーキング防止用の製品が存在する。このようなマーキング防止用の吸収性物品は、例えば、犬が高齢であるか否か、要介助の犬であるか否かに拘わらず利用されることがある。しかしながら、上記の通り、吸収性物品自体には、「高齢犬等を対象とした介助目的の製品」というネガティブなイメージを持たれている傾向があるため、吸収性物品が浸透しにくいという問題がある。このようなことから、実施形態に係る表示制御処理は、吸収性物品に対するネガティブなイメージを払拭させることで、より多くの利用者を獲得することを目的になされるものである。 Here, absorbent products for absorbing pet excrement have a strong image of being ``products for assistance purposes for elderly dogs, etc.'', but in reality, they are used for various purposes other than assistance purposes. It is used for a specific purpose. For example, some absorbent articles include anti-marking products that are utilized to prevent marking in the field. Such marking-preventing absorbent articles may be used, for example, regardless of whether the dog is elderly or requires assistance. However, as mentioned above, absorbent products themselves tend to have a negative image as ``products for assistance purposes such as elderly dogs'', so there is a problem that absorbent products are difficult to penetrate. be. For this reason, the display control processing according to the embodiment is performed for the purpose of gaining more users by dispelling negative images of absorbent articles.

また、吸収性物品に対するネガティブなイメージを払拭させて、より多くの利用者を獲得できるようにするには、利用者に対して吸収性物品を身近に触れさせることで、吸収性物品はペットに対してファション感覚でおしゃれに身に着けさせる製品であるとのライトなイメージを抱かせることも重要である。例えば、利用者に対して、端末装置(例えば、スマートフォン)を介して、着せ替え感覚で吸収性物品をペットに装着させることができれば、吸収性物品をより身近に捉えさせることができる。 In addition, in order to dispel the negative image of absorbent products and gain more users, we would like to encourage users to come in close contact with absorbent products, so that absorbent products can be used by pets. On the other hand, it is also important to create a light image of the product as a fashionable product that can be worn stylishly. For example, if a user can attach an absorbent article to a pet via a terminal device (for example, a smartphone) as if it were a dress-up, the user can feel more familiar with the absorbent article.

実施形態に係る表示制御処理は、以上のような前提を踏まえて行われるものである。例えば、実施形態に係る表示制御処理は、図1に示す表示制御装置100によって行われる。具体的には、表示制御装置100は、実施形態に係る表示制御処理として、所定の装着具が装着されたペットが撮影された撮影画像を取得し、この撮影画像に撮影された装着具と対応する種別の吸収性物品を特定し、この吸収性物品をペットが仮想的に装着した態様で、撮影画像に当該吸収性物品の画像を重畳した状態で表示させる、という表示制御処理を行う。 The display control process according to the embodiment is performed based on the above premise. For example, the display control process according to the embodiment is performed by the display control device 100 shown in FIG. Specifically, as display control processing according to the embodiment, the display control device 100 acquires a captured image of a pet wearing a predetermined attachment, and assigns correspondence to the attachment attached to this captured image. A display control process is performed in which an absorbent article of the type is specified, and an image of the absorbent article is displayed superimposed on a photographed image with the absorbent article virtually worn by the pet.

例えば、表示制御装置100は、対応する吸収性物品の種別に応じた複数の識別情報であって、それぞれ装着具を装着したペットの前後方向若しくは胴回り方向に応じて異なる複数の識別情報が付与された装着具が装着されたペットの撮影画像を取得する。このような状態において、表示制御装置100は、撮影画像に撮影された装着具に付与された識別情報と対応する種別の吸収性物品を特定するとともに、ペットの前後方向若しくは胴回り方向を特定する。そして、表示制御装置100は、ペットの前後方向若しくは胴回り方向に基づいて、ペットが吸収性物品(特定した吸収性物品)を仮想的に装着した態様で、撮影画像に当該吸収性物品の画像を重畳した状態で表示させる。 For example, the display control device 100 may provide a plurality of pieces of identification information according to the type of the corresponding absorbent article, each of which is different depending on the front-rear direction or waist circumference direction of the pet wearing the attachment. Capture an image of a pet wearing a fitted device. In such a state, the display control device 100 specifies the type of absorbent article that corresponds to the identification information given to the wearing tool photographed in the photographed image, and also specifies the front-back direction or the girth direction of the pet. Then, the display control device 100 displays an image of the absorbent article in the photographed image in a manner in which the pet virtually wears the absorbent article (the specified absorbent article) based on the pet's front-rear direction or waist circumference direction. Display in superimposed state.

〔2.表示制御処理について〕
以下では、実施形態に係る表示制御装置100が実行する表示制御処理について説明する。また、実施形態に係る吸収性物品には、ペットの性別に合わせて複数種別が存在する。また、実施形態に係る吸収性物品は、製品として販売されるものである。
[2. Regarding display control processing]
Below, display control processing executed by the display control device 100 according to the embodiment will be described. Furthermore, there are multiple types of absorbent articles according to the embodiments depending on the gender of the pet. Further, the absorbent article according to the embodiment is sold as a product.

〔2-1.装着具について〕
実施形態に係る表示制御装置100が実行する表示制御処理の一例を説明する前に、図2を用いて、ペットに装着させる装着具について説明する。図2は、実施形態に係る装着具を概念的に説明する説明図である。図2に示すように、実施形態に係る装着具は、ペットの胴回りに巻きつけることでペットに装着させるものでる。このようなことから、実施形態に係る装着具は、図2に示すように、帯状の物体である。実施形態に係る装着具は、如何なる素材であってもよく、例えば、耐久性の高いエナメル、綿、あるいは麻等が一例として挙げられる。
[2-1. About attachment equipment]
Before describing an example of display control processing executed by the display control device 100 according to the embodiment, a mounting tool to be worn on a pet will be described using FIG. 2. FIG. 2 is an explanatory diagram conceptually explaining the mounting tool according to the embodiment. As shown in FIG. 2, the attachment device according to the embodiment is attached to the pet by being wrapped around the pet's torso. For this reason, the mounting tool according to the embodiment is a band-shaped object, as shown in FIG. 2. The mounting device according to the embodiment may be made of any material, such as highly durable enamel, cotton, linen, or the like.

また、ペットを犬とすると、犬は、性別、年齢、犬種によってサイズ(例えば、胴回りサイズ)は様々である。したがって、実施形態に係る装着具は、性別毎の複数の異なる胴回りサイズに合わせて、各サイズに合った大きさ(長さ)のものが用意されている。例えば、実施形態に係る装着具は、雄および雌それぞれの性別に毎に、胴回りサイズ「Sサイズ」、胴回りサイズ「Mサイズ」、胴回りサイズ「Lサイズ」、といった3つの大きさ(サイズ)のものが用意されている。図2の例では、「雄用」かつ「Sサイズ」の装着具として「装着具PTS1」、「雄用」かつ「Mサイズ」の装着具として「装着具PTS2」、「雄用」かつ「Lサイズ」の装着具として「装着具PTS3」が例示されている。また、図2の例では、「雌用」かつ「Sサイズ」の装着具として「装着具PTS4」、「雌用」かつ「Mサイズ」の装着具として「装着具PTS5」、「雌用」かつ「Lサイズ」の装着具として「装着具PTS6」が例示されている。 Further, when a pet is a dog, the size (for example, the girth size) of the dog varies depending on gender, age, and breed. Therefore, the mounting device according to the embodiment is prepared in a size (length) suitable for a plurality of different waist circumference sizes for each gender. For example, the mounting device according to the embodiment has three sizes (sizes) for each sex, male and female, such as "S size", "M size", and "L size" waist circumference. Things are provided. In the example of FIG. 2, "wearing tool PTS1" is the mounting tool for "male" and "S size", "wearing tool PTS2" is the mounting tool for "male" and "M size", and "wearing tool PTS2" is the mounting tool for "male" and "M size". ``Wearing tool PTS3'' is illustrated as an example of the ``L size'' wearing tool. In addition, in the example of FIG. 2, "wearing tool PTS4" is a mounting tool for "female" and "S size", "wearing tool PTS5" is a mounting tool for "female" and "M size", and "wearing tool PTS5" is "for female". In addition, "wearing tool PTS6" is illustrated as an "L size" wearing tool.

また、このようなことから、製品としての吸収性物品には、例えば、「雄用Sサイズ」、「雄用Mサイズ」、「雄用Lサイズ」、「雌用Sサイズ」、「雌用Mサイズ」、「雌用Lサイズ」といった種別が存在する。 For this reason, absorbent articles as products include, for example, "Male S size", "Male M size", "Male L size", "Female S size", "Female size There are two types: "M size" and "L size for females."

また、図2に示すように、装着具には、矢印マークDMと、ARマーカとが予め付与されている。矢印マークDMは、ペットの前後方向を示す表示であって、ペットに対して装着具を装着する際の装着方向を規定する情報である。例えば、ペットの飼い主(利用者の一例)は、矢印マークDMが示す矢印の方向をペットの頭に向けるかたちで、装着具をペットの胴に巻きつける。このようなことから、矢印マークDMが示す矢印の方向に従って、正しい向きで装着具が装着された場合、矢印マークDMが示す矢印の方向は、ペットの前後方向のうち前方向を示し、矢印マークDMが示す矢印とは反対方向は、ペットの前後方向のうち後ろ方向を示す。なお、前方向とは、例えば、ペットの胴体あるいは足が向いている方向である。 Further, as shown in FIG. 2, an arrow mark DM and an AR marker are provided in advance on the mounting tool. The arrow mark DM is a display indicating the front-back direction of the pet, and is information that defines the mounting direction when the mounting tool is mounted on the pet. For example, the pet owner (an example of a user) wraps the attachment around the pet's torso in such a way that the arrow mark DM points toward the pet's head. For this reason, if the attachment device is attached in the correct direction according to the direction of the arrow mark DM, the direction of the arrow mark DM will indicate the front direction of the front and rear directions of the pet, and the arrow mark DM will indicate the front direction of the pet. The direction opposite to the arrow indicated by DM indicates the rear direction of the pet's front and rear directions. Note that the front direction is, for example, the direction in which the pet's torso or legs are facing.

ARマーカは、後述する識別情報記憶部121における「識別情報」に対応し、吸収性物品の種別の特定、ペットが撮影された撮影画像に対して重畳させる画像であって、当該ペットに対して仮想的に装着させる吸収性物品の画像の特定、ペットの前後方向もしくは胴回り方向の特定に利用される。 The AR marker corresponds to "identification information" in the identification information storage unit 121, which will be described later, and is an image that specifies the type of absorbent article and is superimposed on a photographed image of a pet. It is used to identify the image of the absorbent article to be virtually worn, and to identify the front-back direction or waist circumference direction of the pet.

ここで、装着具PTS1を例に、ARマーカについてより詳細に説明する。なお、図2において、装着具PTS1以外の5つの装着具に付与される各ARマーカについても、以下に説明する内容と同様のことがいえるため、装着具PTS1以外の5つの装着具に付与されるARマーカについては説明を省略する。図2の例では、装着具PTS1には、ARマーカARM1、ARマーカARM2、ARマーカARM3といった3つのARマーカが付与されている。そして、装着具PTS1が矢印マークDMに従って装着された場合、ARマーカARM1はペットの胴体の右側に位置し、ARマーカARM2はペットの胴体の上部(背中)に位置し、ARマーカARM3はペットの胴体の左側に位置することになる。 Here, the AR marker will be explained in more detail using the mounting tool PTS1 as an example. In addition, in FIG. 2, the same thing as described below can be said about each AR marker attached to the five fittings other than the fitting PTS1, so the AR markers attached to the five fittings other than the fitting PTS1 are A description of the AR marker will be omitted. In the example of FIG. 2, three AR markers, such as an AR marker ARM1, an AR marker ARM2, and an AR marker ARM3, are attached to the mounting tool PTS1. When the attachment device PTS1 is attached according to the arrow mark DM, the AR marker ARM1 is located on the right side of the pet's torso, the AR marker ARM2 is located on the upper part (back) of the pet's torso, and the AR marker ARM3 is located on the pet's torso. It will be located on the left side of the torso.

このようなことから、後述する識別情報記憶部121において、ARマーカと方向情報とが対応付けられることにより、表示制御装置100は、ペットの胴におけるどの位置のARマーカが検出されたかに応じて、撮影画像中のペットの前後がどの方向であるかを特定することができるようになる。例えば、識別情報記憶部121において、ARマーカARM1と、方向情報♯1がとが対応付けられており、方向情報♯1は「左方向」を示すものとする。このような状態において、表示制御装置100は、撮影画像からARマーカARM1を検出した場合、識別情報記憶部121を参照することで、当該撮影画像に写されるペットの胴体は「左方向」を向いていることを特定することができる。また、例えば、識別情報記憶部121において、ARマーカARM3と、方向情報♯3がとが対応付けられており、方向情報♯3は「右方向」を示すものとする。このような状態において、表示制御装置100は、撮影画像からARマーカARM3を検出した場合、識別情報記憶部121を参照することで、当該撮影画像に写されるペットの胴体は「右方向」を向いていることを特定することができる。また、表示制御装置100は、ペットの胴におけるどの位置のARマーカが検出されたかに応じて、撮影画像中のペットの胴回り方向も特定することもできる。 For this reason, by associating an AR marker with direction information in the identification information storage unit 121, which will be described later, the display control device 100 can determine the position of the AR marker on the pet's torso. , it becomes possible to specify which direction is the front and back of the pet in the photographed image. For example, in the identification information storage unit 121, it is assumed that the AR marker ARM1 and the direction information #1 are associated with each other, and the direction information #1 indicates "to the left." In such a state, when the display control device 100 detects the AR marker ARM1 from the photographed image, by referring to the identification information storage unit 121, the display control device 100 determines that the body of the pet shown in the photographed image is oriented “to the left”. You can identify what is suitable for you. Further, for example, in the identification information storage unit 121, the AR marker ARM3 and the direction information #3 are associated with each other, and the direction information #3 indicates "rightward". In such a state, when the display control device 100 detects the AR marker ARM3 from the photographed image, by referring to the identification information storage unit 121, the display control device 100 determines that the body of the pet shown in the photographed image is oriented “to the right”. You can identify what is suitable for you. Furthermore, the display control device 100 can also specify the direction of the pet's waist circumference in the photographed image, depending on the position on the pet's torso where the AR marker is detected.

このように、表示制御装置100は、ペットの前後方向もしくは胴回り方向を特定することで、吸収性物品が正しい向きで仮想的に装着されている態様で、撮影画像に対して吸収性物品の画像を重畳させることができる。 In this way, the display control device 100 can display an image of the absorbent article relative to the photographed image in a manner in which the absorbent article is virtually worn in the correct direction by specifying the front-rear direction or waist circumference direction of the pet. can be superimposed.

〔2-2.記憶部について〕
実施形態に係る表示制御装置100は、記憶部を有する。例えば、表示制御装置100は、識別情報に関して記憶する識別情報記憶部121を有する。ここで、図8を用いて、実施形態に係る識別情報記憶部121の一例を示す。図8の例では、実施形態に係る識別情報記憶部121は、「製品ID」と、「製品情報」と、「柄情報」と、「識別情報」と、「AR情報」と、「方向情報」といった項目を有する。
[2-2. About the storage section]
The display control device 100 according to the embodiment includes a storage unit. For example, the display control device 100 includes an identification information storage unit 121 that stores identification information. Here, an example of the identification information storage unit 121 according to the embodiment is shown using FIG. 8. In the example of FIG. 8, the identification information storage unit 121 according to the embodiment stores "product ID", "product information", "pattern information", "identification information", "AR information", and "direction information". It has items such as ”.

「製品ID」は、製品としての吸収性物品を識別する識別情報を示す。例えば、製品ID「♯1」によって識別される製品は、吸収性物品♯1と言い換えることができる。「製品情報」は、対応する「製品ID」によって識別される製品に関する製品情報を示す。例えば、「製品情報」は、対応する「製品ID」によって識別される製品が対象とするサイズに関する情報を示す。図8の例では、製品ID「♯1」によって識別される製品に対して、製品情報「雄用Sサイズ」が対応付けられている。係る例は、吸収性物品♯1は、「雄用Sサイズ」に分類される種別の製品であることを示す。 "Product ID" indicates identification information that identifies an absorbent article as a product. For example, the product identified by product ID "#1" can be rephrased as absorbent article #1. "Product information" indicates product information regarding the product identified by the corresponding "product ID." For example, "product information" indicates information regarding the target size of the product identified by the corresponding "product ID." In the example of FIG. 8, product information "Male S size" is associated with the product identified by product ID "#1". Such an example indicates that absorbent article #1 is a product classified as "male S size".

「柄情報」は、対応する「製品ID」によって識別される製品の柄(例えば、色や模様)を示す情報である。図8の例では、製品ID「♯1」によって識別される製品に対して、柄情報「柄情報♯1~♯3」が対応付けられている。係る例は、吸収性物品♯1には、柄情報♯1で示されるデザインと、柄情報♯2で示されるデザインと、柄情報♯3で示されるデザインとが存在することを示す。 “Pattern information” is information indicating the pattern (for example, color or pattern) of the product identified by the corresponding “product ID”. In the example of FIG. 8, pattern information “pattern information #1 to #3” is associated with the product identified by the product ID “#1”. This example shows that absorbent article #1 includes a design indicated by pattern information #1, a design indicated by pattern information #2, and a design indicated by pattern information #3.

「識別情報」は、吸収性物品の種別を特定するための情報である。また、「識別情報」は、ペットが撮影された撮影画像に対して重畳させる画像であって、当該ペットに対して仮想的に装着させる吸収性物品の画像を特定するための情報である。また、「識別情報」は、ペットの前後方向もしくは胴回り方向を特定するための情報である。先に、図2で説明した装着具に付与されるARマーカは、この識別情報の一例である。 "Identification information" is information for specifying the type of absorbent article. Moreover, "identification information" is an image superimposed on a photographed image of a pet, and is information for specifying an image of an absorbent article to be virtually worn on the pet. Moreover, "identification information" is information for specifying the pet's front-rear direction or waist circumference direction. The AR marker given to the mounting tool described above with reference to FIG. 2 is an example of this identification information.

「AR情報」は、ペットが撮影された撮影画像に対して重畳させる画像であって、当該ペットに対して仮想的に装着させる吸収性物品の画像を示す情報である。図8の例では、製品ID「♯1」および製品情報「雄用Sサイズ」に対して、AR情報「AR♯1」、「AR♯2」および「AR♯3」が紐付けられている。係る例は、AR情報「AR♯1」が示す画像である画像AR♯1、AR情報「AR♯2」が示す画像である画像AR♯2、および、AR情報「AR♯3」が示す画像である画像AR♯3は、吸収性物品♯1のうち、「雄用Sサイズ」に分類される吸収性物品♯1を示す画像情報であることを示す。より具合的には、画像AR♯1、画像AR♯2、および、画像AR♯3は、吸収性物品♯1のうち、「雄用Sサイズ」のサイズや形状に応じた見た目の画像情報であることを示す。 "AR information" is an image superimposed on a photographed image of a pet, and is information indicating an image of an absorbent article to be virtually worn on the pet. In the example of FIG. 8, AR information "AR#1", "AR#2", and "AR#3" are linked to the product ID "#1" and the product information "Male S size". . Such examples include image AR#1, which is an image indicated by AR information "AR#1," image AR#2, which is an image indicated by AR information "AR#2," and image indicated by AR information "AR#3." The image AR#3 indicates that it is image information indicating the absorbent article #1 classified as "male S size" among the absorbent articles #1. More specifically, image AR#1, image AR#2, and image AR#3 are image information of the appearance according to the size and shape of "male S size" of absorbent article #1. Show that something is true.

「方向情報」は、ペットの方向を示す情報である。図8の例では、識別情報「ARM1」によって識別されるARマーカであるARマーカARM1に対して、方向情報♯1が対応付けられている。このような対応付けにより、図2で説明したように、表示制御装置100は、例えば、撮影画像からARマーカARM1を検出した場合には、当該撮影画像に写されるペットの胴体は方向情報♯1で規定される方向(例えば、左方向)を向いているということを特定することができる。また、図8の例では、識別情報「ARM3」によって識別されるARマーカであるARマーカARM3に対して、方向情報♯3が対応付けられている。このような対応付けにより、図2で説明したように、表示制御装置100は、例えば、撮影画像からARマーカARM3を検出した場合には、当該撮撮影画像に写されるペットの胴体は方向情報♯3で規定される方向(例えば、右方向)を向いているということを特定することができる。 "Direction information" is information indicating the direction of the pet. In the example of FIG. 8, direction information #1 is associated with AR marker ARM1, which is an AR marker identified by identification information "ARM1." With such correspondence, as explained in FIG. 2, for example, when the display control device 100 detects the AR marker ARM1 from a photographed image, the body of the pet shown in the photographed image is assigned direction information #. 1 (for example, to the left). Further, in the example of FIG. 8, direction information #3 is associated with AR marker ARM3, which is an AR marker identified by identification information “ARM3”. With such a correspondence, as explained in FIG. 2, for example, when the display control device 100 detects the AR marker ARM3 from a photographed image, the body of the pet shown in the photographed image has direction information. It can be specified that the object is facing the direction specified by #3 (for example, to the right).

〔2-3.表示制御処理の一例について〕
ここまで、実施形態に係る装着具および記憶部について説明してきた。以下では、図1を用いて、実施形態に係る表示制御装置100が実行する表示制御処理の一例について説明する。図1は、実施形態に係る表示制御装置100が実行する表示制御処理の一例を示す図である。また、図1に示すペット(犬)の性別は雄であり、このペットの飼い主(利用者の一例)は、飼い主Uであるものとする。
[2-3. Regarding an example of display control processing]
Up to this point, the mounting tool and storage unit according to the embodiment have been described. An example of display control processing executed by the display control device 100 according to the embodiment will be described below with reference to FIG. FIG. 1 is a diagram illustrating an example of display control processing executed by the display control device 100 according to the embodiment. Further, it is assumed that the gender of the pet (dog) shown in FIG. 1 is male, and the owner (an example of a user) of this pet is owner U.

図2に示すように、雄用の装着具としては、Sサイズの装着具PTS1、Mサイズの装着具PTS2、Lサイズの装着具PTS3が存在する。したがって、飼い主Uは、例えば、この3つの装着具それぞれをペットの胴回りに装着させる(巻きつける)ことにより(ステップS1)、ペット実際の身体の大きさに合った装着具を選択する。ペットは、毛量により見た目の大きさと実際の身体の大きさに差がある。このため、図2に示すように、サイズが異なり、かつ帯状の装着具をそれぞれ装着させることで、ペットの実際の身体の大きさに合った装着具が選択されれば、表示制御装置100は、結果的に、ペットの実際の身体の大きさに合った吸収性物品の画像を表示制御させることができる。図1の例では、飼い主Uは、装着具PTS1、Mサイズの装着具PTS2、Lサイズの装着具PTS3のうち、装着具PTS1を選択したものとする。 As shown in FIG. 2, as male fittings, there are S size fitting PTS1, M size fitting PTS2, and L size fitting PTS3. Therefore, the owner U selects the fitting that matches the pet's actual body size, for example, by attaching (wrapping) each of these three fittings around the pet's torso (step S1). There is a difference in the apparent size of a pet and its actual body size depending on the amount of hair. Therefore, as shown in FIG. 2, if a fitting that matches the pet's actual body size is selected by attaching band-shaped fittings of different sizes, the display control device 100 As a result, it is possible to control the display of an image of an absorbent article that matches the pet's actual body size. In the example of FIG. 1, it is assumed that the owner U has selected the wearing tool PTS1 from among the wearing tool PTS1, the M size wearing tool PTS2, and the L size wearing tool PTS3.

次に、飼い主Uが自身の端末装置10(例えば、スマートフォン)を用いて、装着具PTS1が装着されたペットの撮影画像を撮影した場合、端末装置10は、画面内に撮影画像を表示する(ステップS2)。なお、かかる撮影画像は、撮影画像として端末装置10内のメモリに登録された画像であってもよく、撮影画像を撮影する際にプレビューとして表示される画像であってもよい。ここで、飼い主Uは、単にペットを撮影するのではなく、装着具PTS1のに付与される3つのARマーカのうち、少なくとも1つを含める形でペットを撮影する必要がある。図1の例では、飼い主Uは、胴体の左側に位置するARマーカARM3が撮影画像に含まれるよう、ペットの胴体が自身に対して左を向いている状態でペットを撮影したものとする。 Next, when the owner U uses his/her own terminal device 10 (for example, a smartphone) to take a photographed image of the pet fitted with the wearing device PTS1, the terminal device 10 displays the photographed image on the screen ( Step S2). Note that such a photographed image may be an image registered as a photographed image in the memory within the terminal device 10, or may be an image displayed as a preview when the photographed image is photographed. Here, the owner U needs to photograph the pet not only to photograph the pet but also to include at least one of the three AR markers provided on the wearing tool PTS1. In the example of FIG. 1, it is assumed that the owner U photographs the pet with the pet's body facing to the left with respect to the owner U so that the AR marker ARM3 located on the left side of the body is included in the photographed image.

そうすると、表示制御装置100は、端末装置10が実行するアプリケーションであって、ウェブコンテンツを表示させるためのアプリケーション、すなわちブラウザを介して端末装置10が撮影した撮影画像を取得する(ステップS3)。次に、表示制御装置100は、ステップS3で取得した撮影画像からARマーカを検出する(ステップS4)。図1の例では、表示制御装置100は、ARマーカARM3を検出することになる。 Then, the display control device 100 acquires a photographed image photographed by the terminal device 10 via an application executed by the terminal device 10 for displaying web content, that is, a browser (step S3). Next, the display control device 100 detects an AR marker from the captured image acquired in step S3 (step S4). In the example of FIG. 1, the display control device 100 detects the AR marker ARM3.

次に、表示制御装置100は、検出したARマーカに基づいて、このARマーカに対応する種別の吸収性物品(製品)を特定するとともに、特定した種別の吸収性物品をペットに装着させる際の装着方向を特定する特定処理を行う(ステップS5)。 Next, based on the detected AR marker, the display control device 100 specifies the type of absorbent article (product) corresponding to this AR marker, and also determines the type of absorbent article (product) that corresponds to the type of absorbent article when the pet is fitted with the specified type of absorbent article. A specifying process for specifying the mounting direction is performed (step S5).

例えば、表示制御装置100は、識別情報記憶部121を参照し、検出したARマーカに対応する種別の吸収性物品を特定する。図1の例では、表示制御装置100は、識別情報記憶部121を参照し、ARマーカARM3に対応する種別の吸収性物品を特定する。図8に示す識別情報記憶部121例を用いると、表示制御装置100は、ARマーカARM3に対応する種別の吸収性物品として、「雄用Sサイズ」の吸収性物品♯1(以下、「吸収性物品♯1-MS」と表記する)を特定する。これは、今回検出されたARマーカARM3が付与される装着具PTS1は、「雄用」かつ「Sサイズ」の装着具である(図2より)ことに対応している。 For example, the display control device 100 refers to the identification information storage unit 121 and identifies the type of absorbent article corresponding to the detected AR marker. In the example of FIG. 1, the display control device 100 refers to the identification information storage unit 121 and identifies the type of absorbent article corresponding to the AR marker ARM3. Using the example of the identification information storage unit 121 shown in FIG. ``Sexual Product #1-MS''). This corresponds to the fact that the wearing tool PTS1 to which the AR marker ARM3 detected this time is attached is a "male" and "S size" wearing tool (see FIG. 2).

また、例えば、表示制御装置100は、識別情報記憶部121を参照し、検出したARマーカに対応する前後方向であって、ペットの前後方向を特定することにより、吸収性物品をペットに装着させる際の装着方向を特定する。図1の例では、表示制御装置100は、識別情報記憶部121を参照し、ARマーカARM3に対応する前後方向を特定することにより、吸収性物品をペットに装着させる際の装着方向を特定する。図8に示す識別情報記憶部121例を用いると、ARマーカARM3には方向情報♯3が対応付けられている。したがって、表示制御装置100は、ARマーカARM3に対応する前後方向として、方向情報♯3で示される前後方向を特定する。言い換えれば、表示制御装置100は、ステップS3で取得した画像情報中のペットの前後方向として、方向情報♯3で示される前後方向を特定する。そして、表示制御装置100は、この特定した前後方向から、画像情報中のペットに対して、吸収性物品♯1-MSを仮想的に装着させる装着方向を特定する。図1の例では、表示制御装置100は、画像情報中のペットに対して、吸収性物品♯1-MSを仮想的に装着させる装着方向として、装着方向DMX1を特定したものとする。 For example, the display control device 100 refers to the identification information storage unit 121 and specifies the front-back direction of the pet that corresponds to the detected AR marker, thereby causing the pet to wear the absorbent article. Specify the mounting direction. In the example of FIG. 1, the display control device 100 refers to the identification information storage unit 121 and specifies the front-rear direction corresponding to the AR marker ARM3, thereby specifying the wearing direction when the absorbent article is placed on the pet. . Using the example of identification information storage unit 121 shown in FIG. 8, direction information #3 is associated with AR marker ARM3. Therefore, the display control device 100 identifies the front-back direction indicated by the direction information #3 as the front-back direction corresponding to the AR marker ARM3. In other words, the display control device 100 identifies the front-back direction indicated by the direction information #3 as the front-back direction of the pet in the image information acquired in step S3. Then, the display control device 100 identifies the mounting direction in which the absorbent article #1-MS is virtually mounted on the pet in the image information from the specified front-back direction. In the example of FIG. 1, it is assumed that the display control device 100 specifies the wearing direction DMX1 as the wearing direction for virtually wearing the absorbent article #1-MS on the pet in the image information.

ここで、吸収性物品には、ぺットの前後方向または胴回り方向に合わせて、使用上正しい装着方向が決められている。このため、ここで特定される装着方向は、装着具が矢印マークDMに応じて正しい向きで装着されていることを条件として、使用上正しい装着方向ということになる。 Here, the absorbent article has a correct mounting direction determined in accordance with the front-rear direction or the waist circumference direction of the pet. Therefore, the mounting direction specified here is the correct mounting direction for use, provided that the mounting tool is mounted in the correct direction according to the arrow mark DM.

次に、表示制御装置100は、ステップS5で特定した情報に基づいて、ペットに対して、仮想的に装着させる画像コンテンツ(拡張現実画像、あるいは、AR画像)を生成する(ステップS6)。例えば、表示制御装置100は、識別情報記憶部121を参照し、検出したARマーカに対応するAR情報を抽出し、ステップS5で特定した情報に基づいて、この抽出したAR情報を制御することにより、画像コンテンツを生成する。図1の例では、表示制御装置100は、識別情報記憶部121を参照し、ARマーカARM3に対応するAR情報「AR♯3」が示す画像である画像AR♯3を抽出する。そして、表示制御装置100は、吸収性物品♯1-MSのサイズ(Mサイズ)に合わせて画像AR♯3のサイズを制御するとともに、装着方向DMX1が示す向きに画像AR♯3が向くよう画像AR♯3を制御する。 Next, the display control device 100 generates image content (augmented reality image or AR image) to be virtually worn on the pet based on the information specified in step S5 (step S6). For example, the display control device 100 refers to the identification information storage unit 121, extracts AR information corresponding to the detected AR marker, and controls the extracted AR information based on the information specified in step S5. , generate image content. In the example of FIG. 1, the display control device 100 refers to the identification information storage unit 121 and extracts the image AR#3, which is the image indicated by the AR information "AR#3" corresponding to the AR marker ARM3. Then, the display control device 100 controls the size of the image AR#3 according to the size (M size) of the absorbent article #1-MS, and displays the image so that the image AR#3 faces in the direction indicated by the mounting direction DMX1. Controls AR#3.

なお、図8で説明したように、吸収性物品♯1-MSには、柄情報♯1で示されるデザインと、柄情報♯2で示されるデザインと、柄情報♯3で示されるデザインとが存在する。したがって、表示制御装置100は、この3つのデザインの中から任意の手法で1つのデザインを選択し、画像AR♯3の外観が選択したデザインとなるようさらに制御してもよい。ここでは、表示制御装置100は、柄情報♯1を選択することにより、画像AR♯3の外観を柄情報♯1で示されるデザインへと変更したものとする。なお、ステップS6において、画像AR♯3から生成された画像コンテンツを、画像コンテンツAR3とする。 As explained in FIG. 8, the absorbent article #1-MS has a design indicated by pattern information #1, a design indicated by pattern information #2, and a design indicated by pattern information #3. exist. Therefore, display control device 100 may select one design from these three designs using any method and further control so that the appearance of image AR#3 becomes the selected design. Here, it is assumed that display control device 100 changes the appearance of image AR#3 to the design indicated by pattern information #1 by selecting pattern information #1. Note that in step S6, the image content generated from image AR#3 is assumed to be image content AR3.

最後に、表示制御装置100は、端末装置10に対して、ステップS6で生成した画像コンテンツを表示させる(ステップS7)。具体的には、表示制御装置100は、端末装置10が現在表示している撮影画像に対して、ステップS6で生成した画像コンテンツを重畳した状態で表示させる。図1の例では、表示制御装置100は、端末装置10が現在表示している撮影画像に対して、画像コンテンツAR3を重畳した状態で表示させる。端末装置10が現在表示している撮影画像では、装着具PTS1を装着されたペットが撮影されている。したがって、表示制御装置100は、装着具PTS1の位置に画像コンテンツAR3が位置するよう、画像コンテンツAR3を重畳した状態で表示させる。これにより、端末装置10は、図1に示すように、柄情報♯1で示されるデザイン(荒い網目模様)の吸収性物品♯1-MSを示す画像コンテンツAR3を、撮影画像中のぺットに重畳した状態で表示させる。これにより、撮影画像中のぺットは、吸収性物品♯1-MSを仮想的に装着しているように見える。 Finally, the display control device 100 causes the terminal device 10 to display the image content generated in step S6 (step S7). Specifically, the display control device 100 causes the image content generated in step S6 to be displayed in a superimposed state on the captured image currently displayed by the terminal device 10. In the example of FIG. 1, the display control device 100 causes the image content AR3 to be displayed in a superimposed state on the photographed image currently displayed by the terminal device 10. In the photographed image currently displayed by the terminal device 10, a pet wearing the wearing tool PTS1 is photographed. Therefore, the display control device 100 displays the image content AR3 in a superimposed state so that the image content AR3 is located at the position of the wearing tool PTS1. As a result, the terminal device 10, as shown in FIG. Displayed in a superimposed state. As a result, the pet in the photographed image appears to be virtually wearing absorbent article #1-MS.

さて、ここまで説明してきたように、表示制御装置100は、装着具が装着されたペットが撮影された撮影画像を取得し、この撮影画像に撮影された装着具と対応する種別の吸収性物品を特定し、この吸収性物品をペットが仮想的に装着した態様で、撮影画像に当該吸収性物品の画像を重畳した状態で表示させる。これにより、利用者は、わざわざ実物の吸収性物品をペットに装着させることで、ペットに合ったサイズの吸収性物品を探す手間が無くなり、非常に簡便に、ペットに合ったサイズの吸収性物品を特定することができるようになる。このようなことから、実施形態に係る表示制御装置100は、適切なペット用の吸収性物品の情報を提供することができる。 Now, as described so far, the display control device 100 acquires a photographed image of a pet wearing an attachment, and displays an absorbent article of the type corresponding to the attachment attached to this photographed image. is identified, and an image of the absorbent article is displayed superimposed on a photographed image with the pet virtually wearing the absorbent article. As a result, users no longer have to go through the trouble of searching for an absorbent article that is the right size for their pet by putting the actual absorbent article on their pet, and can very easily use absorbent articles that are the right size for their pet. be able to identify. For this reason, the display control device 100 according to the embodiment can provide information on appropriate absorbent articles for pets.

また、利用者は、端末装置10さえあれば、吸収性物品を仮想的に着せ替えさせることができるため、吸収性物品に対して身近に接触することができるようになる。このようなことから、実施形態に係る表示制御装置100は、吸収性物品に対するネガティブなイメージを払拭させて、より多くの利用者を獲得することができるようになる。 In addition, since the user can virtually change the appearance of the absorbent article as long as the user has the terminal device 10, the user can come into close contact with the absorbent article. For this reason, the display control device 100 according to the embodiment can eliminate negative images of absorbent articles and gain more users.

なお、図1では、飼い主Uのペット(犬)の性別は雄である例を示したが、性別は雌であり、また、雌用の装着具PTS4を装着させた状態でペットが撮影されたとする。例えば、飼い主Uは、胴体の左側に位置するARマーカARM12が撮影画像に含まれるよう、ペットの胴体が自身に対して左を向いている状態でペットを撮影したものとする。係る場合、表示制御装置100は、例えば、図2に示すように、画像コンテンツAR12を生成することで、端末装置10が現在表示している撮影画像に対して、画像コンテンツAR12を重畳した状態で表示させる。そして、図2の例によると、雌用の吸収性物品の形状と、雄用の吸収性物品とでは、形状が異なることが明らかとなっている。 In addition, although FIG. 1 shows an example in which the gender of owner U's pet (dog) is male, the gender is female, and the pet is photographed with the female wearing device PTS4 attached. do. For example, assume that the owner U photographs the pet with the pet's torso facing to the left so that the AR marker ARM 12 located on the left side of the torso is included in the photographed image. In such a case, the display control device 100 generates the image content AR12 as shown in FIG. 2, so that the image content AR12 is superimposed on the captured image currently displayed by the terminal device 10. Display. According to the example of FIG. 2, it is clear that the shape of the absorbent article for women is different from the shape of the absorbent article for men.

例えば、雄用の吸収性物品は、胴体に巻きつけるだけでよい形状となっている。このため、図2の例によると、雄用の吸収性物品に対応する画像コンテンツAR3もこの雄用の吸収性物品の形状を示す態様となっている。一方、雌用の吸収性物品は、尻尾穴と足穴とがあり、人用のおむつと同様に、臀部を包み込む形状となっている。このため、図2の例によると、雌用の吸収性物品に対応する画像コンテンツAR12もこの雌用の吸収性物品の形状を示す態様となっている。このように、表示制御装置100は、ペットの性別に応じて、画像コンテンツの出し分けを行うことができるため、利用者のペットの性別に合った最適な吸収性物品の情報を提供することができる。 For example, absorbent articles for men are shaped so that they can be simply wrapped around the torso. Therefore, according to the example of FIG. 2, the image content AR3 corresponding to the male absorbent article is also in a form that shows the shape of this male absorbent article. On the other hand, absorbent articles for women have tail holes and leg holes, and are shaped to wrap around the buttocks, similar to human diapers. Therefore, according to the example of FIG. 2, the image content AR12 corresponding to the absorbent article for women is also in a mode that shows the shape of the absorbent article for women. In this way, the display control device 100 can display image content according to the gender of the pet, and therefore can provide information on the optimal absorbent article that matches the gender of the user's pet. can.

〔2-4.表示制御処理のバリエーションについて〕
上記実施形態に係る表示制御装置100は、上記実施形態以外にも種々の異なる形態にて実施されてよい。そこで、以下では、表示制御装置100の他の実施形態について説明する。
[2-4. Regarding variations in display control processing]
The display control device 100 according to the embodiment described above may be implemented in various different forms other than the embodiment described above. Therefore, other embodiments of the display control device 100 will be described below.

〔2-4-1.方向特定〕
上記実施例では、表示制御装置100が、取得した撮影画像からARマーカを検出し、検出したARマーカに基づいて、ペットの前後方向(または胴回り方向)を特定する例を示した。しかしながら、表示制御装置100は、装着具の装着態様に基づいて、ペットの前後方向を特定してもよく、この特定した前後方向に基づいて、撮影画像に吸収性物品の画像を重畳した状態で表示させてもよい。例えば、表示制御装置100は、装着具の装着態様として、ペットの前後方向を示す表示に基づいて、ペットの前後方向を特定する。
[2-4-1. Specification of direction]
In the above embodiment, an example was shown in which the display control device 100 detects an AR marker from an acquired captured image and identifies the front-rear direction (or waist circumference direction) of the pet based on the detected AR marker. However, the display control device 100 may specify the front-rear direction of the pet based on the manner in which the attachment is worn, and may superimpose the image of the absorbent article on the photographed image based on the specified front-rear direction. It may be displayed. For example, the display control device 100 identifies the front-rear direction of the pet based on the display indicating the front-rear direction of the pet as the manner in which the attachment is worn.

図1の例では、矢印マークDMがペットの前後方向を示す表示に対応する。したがって、図1の例を用いて説明すると、表示制御装置100は、取得した撮影画像から矢印マークDMを検出し、検出した矢印マークDMに基づいて、ペットの前後方向(または胴回り方向)を特定する。また、表示制御装置100は、特定した前後方向から最終的には装着具の装着方向を特定する。 In the example of FIG. 1, the arrow mark DM corresponds to the display indicating the front and back direction of the pet. Therefore, to explain using the example of FIG. 1, the display control device 100 detects the arrow mark DM from the acquired photographed image, and identifies the front-rear direction (or waist circumference direction) of the pet based on the detected arrow mark DM. do. Further, the display control device 100 ultimately identifies the mounting direction of the mounting tool from the specified front-back direction.

〔2-4-2.模様の変更〕
また、表示制御装置100は、利用者からの操作に従って、仮想的に装着させた吸収性物品の外観を変更させてもよい。この点について、図3の例を用いて説明する。また、適宜、図1および図8の例も用いる。図3は、吸収性物品の外観変更の一例を示す図である。例えば、表示制御装置100は、外観の候補を利用者に提示し、提示した外観の候補のうち、利用者に選択された外観へと変更することができる。
[2-4-2. Change of pattern]
Further, the display control device 100 may change the appearance of the virtually worn absorbent article according to an operation from the user. This point will be explained using the example of FIG. The examples of FIGS. 1 and 8 are also used as appropriate. FIG. 3 is a diagram illustrating an example of changing the appearance of an absorbent article. For example, the display control device 100 can present appearance candidates to the user, and change the appearance to one selected by the user from among the presented appearance candidates.

まず、図1の例では、表示制御装置100は、ARマーカARM3を検出したことで、ARマーカARM3と識別情報記憶部121とを照らし合わせて特定した情報に基づいて、画像コンテンツAR3の生成および重畳表示を行っている。そして、図1の例では、画像コンテンツAR3によって仮想的に示される吸収性物品♯1-MSの模様は、柄情報♯1に対応する模様である。このような状況は、図3(a)に対応する。ここで、図8の例によると、ARマーカARM3には、「柄情報」として、柄情報♯1、柄情報♯2、柄情報♯3が対応付けられている。 First, in the example of FIG. 1, upon detecting the AR marker ARM3, the display control device 100 generates and generates the image content AR3 based on the information specified by comparing the AR marker ARM3 and the identification information storage unit 121. Superimposed display is being performed. In the example of FIG. 1, the pattern of absorbent article #1-MS virtually shown by image content AR3 is a pattern corresponding to pattern information #1. Such a situation corresponds to FIG. 3(a). Here, according to the example of FIG. 8, the AR marker ARM3 is associated with pattern information #1, pattern information #2, and pattern information #3 as "pattern information."

このため、表示制御装置100は、例えば、図3(a)の状態のときに、現在の外観から変更可能な外観の候補として、柄情報♯2を示す情報および柄情報♯3を示す情報を表示させる。このような状態において、飼い主Uは、柄情報♯2を示す情報を選択したとする。そうすると、表示制御装置100は、図3(b)に示すように、現在の柄情報♯1に対応する模様から、柄情報♯2に対応する模様へと変更さることで、吸収性物品♯1-MSの外観を変更させる。 Therefore, for example, in the state shown in FIG. 3A, the display control device 100 selects information indicating pattern information #2 and information indicating pattern information #3 as candidates for an appearance that can be changed from the current appearance. Display. In such a state, it is assumed that the owner U selects information indicating pattern information #2. Then, as shown in FIG. 3B, the display control device 100 changes the pattern corresponding to the current pattern information #1 to the pattern corresponding to the pattern information #2, thereby changing the pattern of the absorbent article #1. - Change the appearance of the MS.

例えば、表示制御装置100は、柄情報♯2の模様の画像コンテンツAR3を新たに生成することで、端末装置10が現在表示している撮影画像に対して、新たに生成した画像コンテンツAR3を重畳した状態で表示させてもよい。あるいは、表示制御装置100は、柄情報♯2を示す情報を端末装置10に送信することで、端末装置10に対して柄情報♯1から柄情報♯2へと変更させてもよい。 For example, by newly generating image content AR3 of the pattern of pattern information #2, the display control device 100 superimposes the newly generated image content AR3 on the photographed image currently displayed by the terminal device 10. It may also be displayed in the same state. Alternatively, the display control device 100 may cause the terminal device 10 to change the pattern information #1 to the pattern information #2 by transmitting information indicating the pattern information #2 to the terminal device 10.

また、表示制御装置100は、例えば、図3(b)の状態のときに、現在の外観から変更可能な外観の候補として、柄情報♯1を示す情報および柄情報♯3を示す情報を表示させる。このような状態において、飼い主Uは、柄情報♯3を示す情報を選択したとする。そうすると、表示制御装置100は、図3(c)に示すように、現在の柄情報♯2に対応する模様から、柄情報♯3に対応する模様へと変更させることで、吸収性物品♯1-MSの外観を変更させる。 For example, in the state shown in FIG. 3B, the display control device 100 displays information indicating pattern information #1 and information indicating pattern information #3 as candidates for an appearance that can be changed from the current appearance. let In such a state, it is assumed that the owner U selects information indicating pattern information #3. Then, as shown in FIG. 3(c), the display control device 100 changes the pattern corresponding to the current pattern information #2 to the pattern corresponding to the pattern information #3, so that the absorbent article #1 - Change the appearance of the MS.

例えば、表示制御装置100は、柄情報♯3の模様の画像コンテンツAR3を新たに生成することで、端末装置10が現在表示している撮影画像に対して、新たに生成した画像コンテンツAR3を重畳した状態で表示させてもよい。あるいは、表示制御装置100は、柄情報♯3を示す情報を端末装置10に送信することで、端末装置10に対して柄情報♯2から柄情報♯3へと変更させてもよい。 For example, by newly generating image content AR3 of the pattern of pattern information #3, the display control device 100 superimposes the newly generated image content AR3 on the photographed image currently displayed by the terminal device 10. It may also be displayed in the same state. Alternatively, the display control device 100 may cause the terminal device 10 to change the pattern information #2 to the pattern information #3 by transmitting information indicating the pattern information #3 to the terminal device 10.

また、表示制御装置100は、利用者からの操作に従って、仮想的に装着させた吸収性物品の外観を変更させることで、利用者に対して自身のペットにはどの外観の吸収性物品が合っているかを容易にイメージさせることができる。 In addition, the display control device 100 allows the user to change the appearance of the virtually worn absorbent article according to the user's operation, so that the user can know which appearance of the absorbent article is suitable for his or her pet. You can easily visualize what is going on.

〔2-4-3.テキストを表示制御〕
上記実施例では、表示制御装置100が、ペットが吸収性物品を仮想的に装着した態様で、撮影画像に当該吸収性物品の画像を重畳した状態で表示させる例を示した。しかし、表示制御装置100は、撮影画像に対して所定のテキスト情報をさらに重畳した状態で表示させてもよい。例えば、表示制御装置100は、所定のテキスト情報として、吸収性物品の性能や用途例について説明するテキスト情報をさらに重畳した状態で表示させてもよい。一例としては、表示制御装置100は、撮影画像のペットが吸収性物品の性能や用途例について説明いているかのごとく、例えば、ペットの口元付近に、上記テキスト情報を含む吹き出し画像を表示させる。これにより、表示制御装置100は、吸収性物品への親近感や、興味・関心をより高めることができる。
[2-4-3. Text display control]
In the embodiment described above, an example was shown in which the display control device 100 displays an image of the absorbent article superimposed on a photographed image in a state where the pet virtually wears the absorbent article. However, the display control device 100 may display the photographed image in a state in which predetermined text information is further superimposed on the photographed image. For example, the display control device 100 may display text information that describes the performance and usage examples of the absorbent article in a superimposed state as the predetermined text information. As an example, the display control device 100 displays a balloon image containing the text information, for example, near the pet's mouth, as if the pet in the photographed image is explaining the performance and usage examples of the absorbent article. Thereby, the display control device 100 can further increase the sense of familiarity and interest in the absorbent article.

なお、テキスト情報の一例としては、「ドライブに使えそうだワン!」、「6時間もつらしいワン!」といった親近感を高める態様のものが望ましい。 Note that, as an example of the text information, it is desirable to have a form that increases a sense of familiarity, such as "This one looks like it can be used for a drive!" or "It looks like it will last 6 hours!".

〔2-4-4.識別情報について〕
上述した例では、表示制御装置100は、撮影画像からARマーカを検出し、検出したARマーカと対応する種別の吸収性物品を仮想的に装着した態様で、撮影画像に吸収性物品の画像を重畳した状態で表示させた。しかしながら、実施形態は、これに限定されるものではない。例えば、表示制御装置100は、ARマーカのみならず、例えば、QRコード(登録商標)やバーコード等の識別情報をARマーカに代えて検出し、検出した識別情報と対応する種別の吸収性物品を仮想的に装着した態様で、撮影画像に吸収性物品の画像を重畳した状態で表示させてもよい。また、表示制御装置100は、識別情報を用いて、ペットの向きやサイズ等を特定し、特定結果に応じて、吸収性物品の画像を重畳させてもよい。
[2-4-4. Regarding identification information]
In the above-mentioned example, the display control device 100 detects an AR marker from a photographed image, and displays an image of the absorbent article in the photographed image in such a manner that an absorbent article of the type corresponding to the detected AR marker is virtually worn. Displayed in a superimposed state. However, embodiments are not limited thereto. For example, the display control device 100 detects not only an AR marker but also identification information such as a QR code (registered trademark) or a barcode instead of the AR marker, and detects the type of absorbent article corresponding to the detected identification information. An image of the absorbent article may be displayed in a state in which the absorbent article is virtually worn, with an image of the absorbent article superimposed on the photographed image. The display control device 100 may also use the identification information to specify the orientation, size, etc. of the pet, and may superimpose an image of the absorbent article according to the identification results.

〔2-4-5.共有処理について〕
ここで、表示制御装置100は、ペットが吸収性物品を仮想的に装着した画像を他の利用者と共有させる共有処理を実行してもよい。例えば、図4は、実施形態に係る表示制御装置が他の利用者に画像を提供する処理の流れの一例を説明する図である。図4の例では、飼い主の一例として、利用者U1、利用者U2および利用者U3が例示されている。また、図4の例では、利用者U1の端末装置10を端末装置10-1、利用者U2の端末装置10を端末装置10-2、利用者U3の端末装置10を端末装置10-3、とする。また、例えば、図4に示す例では、フォトブースP1が第1の地域に所在する商店やホームセンターなどの施設に設置されており、フォトブースP2が第2の地域に所在する施設に設置されているものとする。また、各フォトブースP1、P2には、図1に示す表示制御処理を実行するため、各サイズの装着具PTSが設置されているものとする。
[2-4-5. About sharing process]
Here, the display control device 100 may perform a sharing process to share an image of a pet virtually wearing an absorbent article with other users. For example, FIG. 4 is a diagram illustrating an example of the flow of processing in which the display control device according to the embodiment provides an image to another user. In the example of FIG. 4, a user U1, a user U2, and a user U3 are illustrated as examples of owners. In the example of FIG. 4, the terminal device 10 of the user U1 is the terminal device 10-1, the terminal device 10 of the user U2 is the terminal device 10-2, the terminal device 10 of the user U3 is the terminal device 10-3, and the terminal device 10 of the user U3 is the terminal device 10-3. shall be. For example, in the example shown in FIG. 4, the photo booth P1 is installed at a facility such as a store or home center located in a first region, and the photo booth P2 is installed at a facility located in a second region. It is assumed that there is Furthermore, it is assumed that mounting tools PTS of various sizes are installed in each of the photo booths P1 and P2 in order to execute the display control process shown in FIG.

例えば、図4に示す場合、飼い主である利用者U1は、フォトブースP1に設置された装着具を用いて、ペットが仮想的に吸収性物品を装着した対応の画像コンテンツを取得する(ステップS11)。このような場合、利用者U1の端末装置10-1は、画像コンテンツを他の利用者と共有するか否かの問合せを行う。そして、端末装置10-1は、共有する旨の許諾を利用者U1から受付けた場合は、端末装置10-1の位置情報とと共に、画像コンテンツを表示制御装置100へと投稿する(ステップS12)。なお、端末装置10-1は、例えば、画像コンテンツの元となった撮影画像を撮影した位置を示す位置情報を画像コンテンツとともに投稿してもよい。このような場合、表示制御装置100は、位置情報と画像コンテンツとを対応付けて、所定の記憶装置(例えば、後述する共有コンテンツ記憶部122)に記憶する(ステップS13)。 For example, in the case shown in FIG. 4, the user U1, who is the owner, uses the wearing device installed in the photo booth P1 to obtain image content corresponding to the pet wearing the absorbent article virtually (step S11). ). In such a case, the terminal device 10-1 of the user U1 makes an inquiry as to whether or not to share the image content with other users. If the terminal device 10-1 receives permission for sharing from the user U1, the terminal device 10-1 posts the image content to the display control device 100 along with the location information of the terminal device 10-1 (step S12). . Note that the terminal device 10-1 may, for example, post location information indicating the location where the photographed image that is the source of the image content was taken together with the image content. In such a case, the display control device 100 stores the position information and the image content in a predetermined storage device (for example, the shared content storage unit 122 described later) in association with each other (step S13).

例えば、図5は、実施形態に係る画像コンテンツの投稿画面の一例を示す図である。例えば、端末装置10-1は、表示制御装置100から画像コンテンツを取得した場合、図5に示すように、画像コンテンツPCを画面上に表示させるとともに、吸収性物品の模様を適宜選択させる模様コンテンツDCを表示させる。また、端末装置10-1は、例えば、あたかも撮影されたペットがしゃべっている態様で「ドライブに便利だワン」といった所定の文字列を含む吹き出しコンテンツCCを画像コンテンツPCに重畳してもよい。そして、端末装置10-1は、利用者U1が投稿ボタンSCを選択した場合は、コンテンツCCを含む画像コンテンツPCと共に、端末装置10-1の位置を示す位置情報を表示制御装置100へと送信する。 For example, FIG. 5 is a diagram illustrating an example of an image content posting screen according to the embodiment. For example, when the terminal device 10-1 acquires image content from the display control device 100, as shown in FIG. Display DC. Further, the terminal device 10-1 may, for example, superimpose a speech bubble content CC including a predetermined character string such as "Convenient for driving, dog" as if the photographed pet were talking on the image content PC. Then, when the user U1 selects the post button SC, the terminal device 10-1 transmits position information indicating the position of the terminal device 10-1 to the display control device 100 along with the image content PC including the content CC. do.

図4に戻り、説明を続ける。ここで、利用者U2が端末装置10-2を用いて、フォトブースP1を撮影したものとする。このような場合、端末装置10-2は、フォトブースP1の撮影画像を表示する(ステップS14)。そして、端末装置10-2は、端末装置10-2の位置を示す位置情報と共に、撮影画像を表示制御装置100へと送信する(ステップS15)。 Returning to FIG. 4, the explanation will be continued. Here, it is assumed that the user U2 uses the terminal device 10-2 to photograph the photo booth P1. In such a case, the terminal device 10-2 displays the photographed image of the photo booth P1 (step S14). Then, the terminal device 10-2 transmits the photographed image to the display control device 100 along with the position information indicating the position of the terminal device 10-2 (step S15).

一方、表示制御装置100は、撮影画像にフォトブースP1が撮影されているか否かを判定する。例えば、表示制御装置100は、フォトブースP1に配置されたARマーカや、各種の画像認識技術を用いて、撮影画像にフォトブースP1が撮影されているか否かを判定する。そして、表示制御装置100は、撮影画像にフォトブースP1が撮影されていると判定した場合、撮影画像と共に取得した位置情報と対応付けられた画像コンテンツを特定する(ステップS16)。すなわち、表示制御装置100は、フォトブースP1の近傍で撮影された撮影画像に基づく画像コンテンツを特定する。 On the other hand, the display control device 100 determines whether the photo booth P1 is photographed in the photographed image. For example, the display control device 100 uses an AR marker placed in the photo booth P1 and various image recognition techniques to determine whether the photo booth P1 is captured in the captured image. When the display control device 100 determines that the photo booth P1 is photographed in the photographed image, the display control device 100 specifies the image content associated with the position information acquired together with the photographed image (step S16). That is, the display control device 100 specifies image content based on a photographed image taken near the photo booth P1.

そして、表示制御装置100は、特定した画像コンテンツがフォトブースP1に張り付けられている態様の共有コンテンツを生成し、生成した共有コンテンツを端末装置10-2に表示させる(ステップS17)。すなわち、表示制御装置100は、フォトブースP1の近傍で撮影された撮影画像に吸収性物品の画像を重ねた画像コンテンツが、あたかもフォトブースP1に張り付けられているといった態様のARコンテンツを表示させる。 Then, the display control device 100 generates shared content in which the identified image content is pasted on the photo booth P1, and displays the generated shared content on the terminal device 10-2 (step S17). In other words, the display control device 100 displays the AR content in such a manner that image content in which an image of the absorbent article is superimposed on a photographed image taken in the vicinity of the photo booth P1 is pasted on the photo booth P1.

例えば、図6は、実施形態に係る共有コンテンツの一例を示す図である。例えば、表示制御装置100は、撮影画像からフォトブースP1が撮影された範囲を特定する。そして、表示制御装置100は、あたかもフォトブースP1上に、各利用者が撮影した画像コンテンツPC1-1~PC1-4が張り付けられているといった態様の共有コンテンツSCを生成する。そして、表示制御装置100は、生成した共有コンテンツSCを端末装置10-2に表示させる。このような処理の結果、表示制御装置100は、利用者U2に対し、例えば、近所に在住している利用者U1のペットが吸収性物品を装着している画像コンテンツを提供できるので、利用者U2に吸収性物品の購入を促す等、広告効果を向上させることができる。 For example, FIG. 6 is a diagram illustrating an example of shared content according to the embodiment. For example, the display control device 100 identifies the range in which the photo booth P1 was photographed from the photographed image. Then, the display control device 100 generates the shared content SC as if the image contents PC1-1 to PC1-4 taken by each user were pasted on the photo booth P1. Then, the display control device 100 displays the generated shared content SC on the terminal device 10-2. As a result of such processing, the display control device 100 can provide the user U2 with, for example, an image content in which the pet of the user U1 who lives in the neighborhood is wearing an absorbent article. Advertising effects can be improved, such as encouraging U2 to purchase absorbent articles.

図4に戻り、説明を続ける。一方、利用者U3が端末装置10-3を用いて、フォトブースP2を撮影したものとする。このような場合、端末装置10-3は、フォトブースP2の撮影画像を表示する(ステップS18)。そして、端末装置10-3は、端末装置10-3の位置を示す位置情報と共に、撮影画像を表示制御装置100へと送信する(ステップS19)。 Returning to FIG. 4, the explanation will be continued. On the other hand, it is assumed that the user U3 uses the terminal device 10-3 to photograph the photo booth P2. In such a case, the terminal device 10-3 displays the photographed image of the photo booth P2 (step S18). Then, the terminal device 10-3 transmits the photographed image to the display control device 100 along with the position information indicating the position of the terminal device 10-3 (step S19).

このような場合、表示制御装置100は、撮影画像からフォトブースP2が撮影されているかを判定し、撮影されていると判定した場合、撮影画像と共に取得した位置情報と対応付けられた画像コンテンツを特定する(ステップS20)。すなわち、表示制御装置100は、フォトブースP2の近傍で撮影された撮影画像に基づく画像コンテンツを特定する。そして、表示制御装置100は、特定した画像コンテンツがフォトブースP2に張り付けられている態様の共有コンテンツを生成し、生成した共有コンテンツを端末装置10-3に表示させる(ステップS21)。 In such a case, the display control device 100 determines whether the photo booth P2 is being photographed from the photographed image, and if it is determined that the photo booth P2 is being photographed, the display control device 100 displays the image content associated with the position information acquired together with the photographed image. Specify (step S20). That is, the display control device 100 specifies image content based on a photographed image taken near the photo booth P2. Then, the display control device 100 generates shared content in which the identified image content is pasted on the photo booth P2, and displays the generated shared content on the terminal device 10-3 (step S21).

このような処理の結果、表示制御装置100は、利用者U3に対し、例えば、近所に在住していない利用者U1のペットが吸収性物品を装着している画像コンテンツを提供せずに、利用者U3の近所に所在する他の利用者のペットに関する画像コンテンツを提供する。このため、表示制御装置100は、利用者U1のプライバシー等を適切に保護しつつも、吸収性物品の広告効果を向上させることができる。 As a result of such processing, the display control device 100 does not provide the user U3 with the image content in which the pet of the user U1, who does not live in the neighborhood, is wearing an absorbent article. Image content regarding pets of other users located in the neighborhood of person U3 is provided. Therefore, the display control device 100 can improve the advertising effectiveness of the absorbent article while appropriately protecting the privacy of the user U1.

〔3.表示制御システムの構成〕
次に、図7を用いて、実施形態に係る表示制御システム1の構成について説明する。図7は、実施形態に係る表示制御システム1の構成例を示す図である。図7に示すように、表示制御システム1は、端末装置10と、表示制御装置100とを含む。端末装置10、表示制御装置100は、ネットワークNを介して有線又は無線により通信可能に接続される。なお、図7に示す表示制御システム1には、複数台の端末装置10や、複数台の表示制御装置100が含まれてもよい。
[3. Display control system configuration]
Next, the configuration of the display control system 1 according to the embodiment will be described using FIG. 7. FIG. 7 is a diagram showing a configuration example of the display control system 1 according to the embodiment. As shown in FIG. 7, the display control system 1 includes a terminal device 10 and a display control device 100. The terminal device 10 and the display control device 100 are connected via a network N so that they can communicate by wire or wirelessly. Note that the display control system 1 shown in FIG. 7 may include a plurality of terminal devices 10 and a plurality of display control devices 100.

端末装置10は、利用者(例えば、ペットの飼い主)によって利用される情報処理端末である。端末装置10は、例えば、スマートフォンや、タブレット型端末や、ノート型PC(Personal Computer)や、デスクトップPCや、携帯電話機や、PDA(Personal Digital Assistant)等である。また、例えば、端末装置10は、カメラ機能を有する。このため、端末装置10は、利用者の操作に従って、撮影を行う。また、端末装置10は、表示制御装置100からのアクセスに応じて、ブラウザを介して撮影画像を送信する。また、端末装置10は、表示制御装置100から受け付けた画像コンテンツ(AR画像)を、現在表示画面に表示している撮影画像に重ねて表示させる。 The terminal device 10 is an information processing terminal used by a user (for example, a pet owner). The terminal device 10 is, for example, a smartphone, a tablet terminal, a notebook PC (Personal Computer), a desktop PC, a mobile phone, a PDA (Personal Digital Assistant), or the like. Further, for example, the terminal device 10 has a camera function. Therefore, the terminal device 10 performs shooting according to the user's operation. Further, the terminal device 10 transmits a photographed image via a browser in response to an access from the display control device 100. Furthermore, the terminal device 10 causes the image content (AR image) received from the display control device 100 to be displayed superimposed on the photographed image currently displayed on the display screen.

表示制御装置100は、図1で説明した表示制御処理を行う情報処理装置であり、例えば、サーバ装置等により実現される。 The display control device 100 is an information processing device that performs the display control processing described in FIG. 1, and is realized by, for example, a server device.

〔4.表示制御装置の構成〕
次に、図7を用いて、実施形態に係る表示制御装置100について説明する。図7は、実施形態に係る表示制御装置100の構成例を示す図である。図7に示すように、表示制御装置100は、通信部110と、記憶部120と、制御部130とを有する。
[4. Configuration of display control device]
Next, the display control device 100 according to the embodiment will be described using FIG. 7. FIG. 7 is a diagram illustrating a configuration example of the display control device 100 according to the embodiment. As shown in FIG. 7, the display control device 100 includes a communication section 110, a storage section 120, and a control section 130.

(通信部110について)
通信部110は、例えば、NIC(Network Interface Card)等によって実現される。そして、通信部110は、ネットワークNと有線または無線で接続され、例えば、端末装置10との間で情報の送受信を行う。
(About communication department 110)
The communication unit 110 is realized by, for example, a NIC (Network Interface Card). The communication unit 110 is connected to the network N by wire or wirelessly, and transmits and receives information to and from the terminal device 10, for example.

(記憶部120について)
記憶部120は、例えば、RAM(Random Access Memory)、フラッシュメモリ等の半導体メモリ素子またはハードディスク、光ディスク等の記憶装置によって実現される。記憶部120は、識別情報記憶部121および共有コンテンツ記憶部122を有する。識別情報記憶部121は、図5に示す例に限らず、例えば、テキスト情報をさらに記憶してもよい。
(About storage unit 120)
The storage unit 120 is realized by, for example, a semiconductor memory device such as a RAM (Random Access Memory) or a flash memory, or a storage device such as a hard disk or an optical disk. The storage unit 120 includes an identification information storage unit 121 and a shared content storage unit 122. The identification information storage unit 121 is not limited to the example shown in FIG. 5, and may further store text information, for example.

(共有コンテンツ記憶部122について)
ここで、図9を用いて、実施形態に係る共有コンテンツ記憶部122の一例を示す。図9の例では、実施形態に係る共有コンテンツ記憶部122は、「共有情報ID」と、「画像コンテンツ」と、「位置情報」といった項目を有する。
(About the shared content storage unit 122)
Here, an example of the shared content storage unit 122 according to the embodiment is shown using FIG. 9. In the example of FIG. 9, the shared content storage unit 122 according to the embodiment has items such as "shared information ID", "image content", and "location information".

「共有情報ID」は、他の利用者に共有される情報、すなわち、共有対象となる画像コンテンツを示す識別情報を示す。「画像コンテンツ」は、対応する「共有情報ID」によって識別される画像コンテンツであり、例えば、各種形式の画像データである。「位置情報」は、対応する「共有情報ID」によって識別される「画像コンテンツ」の元となる撮影画像が撮影された位置や、フォトブースが設置された位置等を示す位置情報であり、例えば、各種測位システムにより取得された緯度や経度等である。 "Shared information ID" indicates information to be shared with other users, that is, identification information indicating image content to be shared. “Image content” is image content identified by a corresponding “shared information ID”, and is, for example, image data in various formats. "Location information" is location information that indicates the location where the photographed image that is the source of the "image content" identified by the corresponding "shared information ID" was taken, the location where the photo booth was installed, etc. , latitude and longitude obtained by various positioning systems.

(制御部130について)
制御部130は、CPU(Central Processing Unit)やMPU(Micro Processing Unit)等によって、表示制御装置100内部の記憶装置に記憶されている各種プログラムがRAMを作業領域として実行されることにより実現される。また、制御部130は、例えば、ASIC(Application Specific Integrated Circuit)やFPGA(Field Programmable Gate Array)等の集積回路により実現される。
(About the control unit 130)
The control unit 130 is realized by a CPU (Central Processing Unit), an MPU (Micro Processing Unit), or the like executing various programs stored in a storage device inside the display control device 100 using the RAM as a work area. . Further, the control unit 130 is realized by, for example, an integrated circuit such as an ASIC (Application Specific Integrated Circuit) or an FPGA (Field Programmable Gate Array).

図7に示すように、制御部130は、取得部131と、検出部132と、特定部133と、表示制御部134と、提供部135とを有し、以下に説明する情報処理の機能や作用を実現または実行する。なお、制御部130の内部構成は、図7に示した構成に限られず、後述する情報処理を行う構成であれば他の構成であってもよい。また、制御部130が有する各処理部の接続関係は、図7に示した接続関係に限られず、他の接続関係であってもよい。 As shown in FIG. 7, the control unit 130 includes an acquisition unit 131, a detection unit 132, a specification unit 133, a display control unit 134, and a provision unit 135, and includes information processing functions and functions described below. accomplish or carry out an action. Note that the internal configuration of the control unit 130 is not limited to the configuration shown in FIG. 7, and may be any other configuration as long as it performs information processing to be described later. Further, the connection relationship between the respective processing units included in the control unit 130 is not limited to the connection relationship shown in FIG. 7, and may be other connection relationships.

(取得部131について)
取得部131は、所定の装着具が装着されたペットが撮影された撮影画像を取得する。取得部131は、装着具として、胴回りに巻く装着具が装着されたペットが撮影され撮影画像を取得する。また、取得部131は、装着具として、胴回りの大きさごとに異なる装着具が装着されたペットが撮影された撮影画像を取得する。また、取得部131は、装着具として、ペットの性別に応じて異なる装着具が装着されたペットが撮影された撮影画像を取得する。また、取得部131は、装着具として、ペットの前後方向を示す表示が付与された装着具が装着されたペットが撮影された撮影画像を取得する。
(About the acquisition unit 131)
The acquisition unit 131 acquires a captured image of a pet wearing a predetermined attachment. The acquisition unit 131 acquires a photographed image of a pet wearing a wearing device that is wrapped around the body. In addition, the acquisition unit 131 acquires a captured image of a pet wearing different attachments for different waist circumference sizes. The acquisition unit 131 also acquires captured images of pets wearing different attachments depending on the gender of the pet. The acquisition unit 131 also acquires a photographed image of a pet wearing a wearing device that is provided with an indication indicating the front and back direction of the pet.

また、取得部131は、吸収性物品の種別毎に予め準備された複数の装着具のうちいずれかの装着具が装着されたペットの撮影画像を取得する。また、取得部131は、対応する吸収性物品の種別に応じた識別情報が付与された装着具が装着されたペットの撮影画像を取得する。例えば、取得部131は、対応する吸収性物品の種別に応じた複数の識別情報であって、それぞれ装着具を装着したペットの前後方向若しくは胴回り方向に応じて異なる複数の識別情報が付与された装着具が装着されたペットの撮影画像を取得する。 The acquisition unit 131 also acquires a captured image of a pet wearing one of a plurality of attachments prepared in advance for each type of absorbent article. Further, the acquisition unit 131 acquires a photographed image of a pet wearing a wearing device provided with identification information according to the type of the corresponding absorbent article. For example, the acquisition unit 131 assigns a plurality of pieces of identification information according to the type of the corresponding absorbent article, each of which differs depending on the front-rear direction or waist circumference direction of the pet wearing the attachment device. Acquire a photographed image of a pet wearing an attachment device.

また、取得部131は、利用者が利用する端末装置10が撮影した撮影画像を取得する。また、取得部131は、端末装置10が実行するアプリケーションであって、ウェブコンテンツを表示させるためのアプリケーションを介して端末装置10が撮影した撮影画像を取得する。 Further, the acquisition unit 131 acquires a captured image captured by the terminal device 10 used by the user. Further, the acquisition unit 131 is an application executed by the terminal device 10 and acquires a captured image captured by the terminal device 10 via an application for displaying web content.

(検出部132について)
検出部132は、装着具に付与される識別情報(例えば、ARマーカ)を検出する。例えば、検出部132は、取得部131により取得された撮影画像から識別情報を検出する。
(About the detection unit 132)
The detection unit 132 detects identification information (for example, an AR marker) given to the mounting tool. For example, the detection unit 132 detects identification information from the captured image acquired by the acquisition unit 131.

(特定部133について)
特定部133は、取得部131により取得された撮影画像に撮影された装着具と対応する種別の吸収性物品を特定する。また、特定部133は、装着具と対応する大きさの吸収性物品を特定する。また、特定部133は、取得部131により取得された撮影画像において撮影されている装着具と対応する大きさの吸収性物品を特定する。
また、特定部133は、取得部131により取得された撮影画像において撮影されている装着具と対応する性別用の吸収性物品を特定する。
(About the specific part 133)
The identifying unit 133 identifies the type of absorbent article that corresponds to the wearing tool photographed in the captured image acquired by the acquiring unit 131. Further, the specifying unit 133 specifies an absorbent article of a size corresponding to the wearing tool. Further, the identifying unit 133 identifies an absorbent article having a size corresponding to the wearing tool photographed in the photographed image acquired by the acquiring unit 131.
Further, the identifying unit 133 identifies the absorbent article for the gender corresponding to the wearing tool photographed in the photographed image acquired by the acquiring unit 131.

また、特定部133は、取得部131により取得された撮影画像において撮影されている装着具の装着態様に基づいて、ペットの前後方向をさらに特定する。また、特定部133は、取得部131により取得された撮影画像において撮影されている装着具に付与された識別情報と対応する種別の吸収性物品を特定する。例えば、特定部133は、撮影画像に撮影された装着具に付与された識別情報と対応する種別の吸収性物品を特定するとともに、ペットの前後方向若しくは胴回り方向を特定する。例えば、特定部133は、図1のステップS5で説明した特定処理を行う。 Further, the specifying unit 133 further specifies the front-rear direction of the pet based on the wearing manner of the wearing tool photographed in the photographed image acquired by the acquiring unit 131. Further, the identifying unit 133 identifies the type of absorbent article that corresponds to the identification information given to the wearing tool photographed in the photographed image acquired by the acquiring unit 131. For example, the specifying unit 133 specifies the type of absorbent article that corresponds to the identification information given to the wearing tool photographed in the photographed image, and also specifies the front-back direction or the girth direction of the pet. For example, the specifying unit 133 performs the specifying process described in step S5 of FIG.

(表示制御部134について)
表示制御部134は、ペットが特定部133により特定された吸収性物品を仮想的に装着した態様で、撮影画像に当該吸収性物品の画像を重畳した状態で表示させる。例えば、表示制御部134は、特定部133により特定された前後方向に基づいて、撮影画像に当該吸収性物品の画像を重畳した状態で表示させる。例えば、表示制御部134は、ペットの前後方向若しくは胴回り方向に基づいて、ペットが特定部133により特定された種別の吸収性物品を仮想的に装着した態様で、前記撮影画像に当該吸収性物品の画像を重畳した状態で表示させる。例えば、表示制御部134は、図1のステップS6およびS7で説明した特定処理を行う。
(About the display control unit 134)
The display control unit 134 displays an image of the absorbent article identified by the identifying unit 133 in a state in which the pet is virtually wearing the absorbent article, with the image of the absorbent article superimposed on the photographed image. For example, the display control unit 134 displays the image of the absorbent article superimposed on the photographed image based on the front-rear direction specified by the specifying unit 133. For example, the display control unit 134 may display the absorbent article in the photographed image in a state in which the pet is virtually wearing an absorbent article of the type specified by the specifying unit 133 based on the pet's front-rear direction or waist circumference direction. Display the images in a superimposed state. For example, the display control unit 134 performs the specific processing described in steps S6 and S7 of FIG.

また、表示制御部134は、利用者からの操作に従って、仮想的に装着させた吸収性物品の外観を変更させる。 Further, the display control unit 134 changes the appearance of the virtually worn absorbent article according to the user's operation.

また、表示制御部134は、端末装置10が実行するアプリケーションであって、ウェブコンテンツを表示させるためのアプリケーションを介して、端末装置10に前撮影画像を表示させる。 Furthermore, the display control unit 134 causes the terminal device 10 to display the previously photographed image via an application that is executed by the terminal device 10 and is for displaying web content.

(提供部135について)
提供部135は、所定の施設が撮影された撮影画像と、撮影画像が撮影された位置とを受付けた場合は、位置と対応付けて記憶された画像を撮影画像に重畳したコンテンツを提供する。すなわち、提供部135は、利用者によって撮影された撮影画像を、当該利用者とは異なる他の利用者の間で共有させる。例えば、提供部135は、利用者によって撮影された撮影画像の投稿を当該利用者から受け付け、投稿された撮影画像を、当該利用者とは異なる他の利用者のうち所定の条件情報を満たす利用者に対して共有させる。例えば、提供部135は、所定の条件情報を満たす利用者として、投稿された撮影画像が撮影された場所に位置する他の利用者に対して、この撮影画像を共有させる。この点について、図1に示す飼い主Uと、飼い主Uとは異なる他の飼い主U12を例に挙げて説明する。
(About the provision section 135)
When receiving a photographed image of a predetermined facility and a position where the photographed image was taken, the providing unit 135 provides content in which the image stored in association with the position is superimposed on the photographed image. That is, the providing unit 135 allows the captured images captured by the user to be shared among other users different from the user. For example, the providing unit 135 receives a posting of a photographed image taken by the user, and uses the posted photographed image to be used by other users who are different from the user and who satisfy predetermined condition information. share it with others. For example, the providing unit 135 allows other users who are located at the location where the posted photographed image was taken to share the photographed image as a user who satisfies predetermined condition information. This point will be explained by taking as an example the owner U shown in FIG. 1 and another owner U12 different from the owner U.

まず、実施形態に係る表示制御装置100は、識別情報(ARマーカ)を含めて撮影された撮影画像の投稿を受け付けることが可能となっている。したがって、利用者は、例えば、吸収性物品が販売される店舗に設けられるフォトブースP1やP2等の展示コーナーであって、吸収性物品が展示(販売)される展示コーナーにおいて、図1で説明したような撮影を行うことができる。また、利用者は、撮影画像とともに、撮影を行った店舗の店舗情報(例えば、店舗名)、ペットの名前、一言コメントを投稿することができる。 First, the display control device 100 according to the embodiment can accept submissions of captured images including identification information (AR marker). Therefore, users can, for example, use the photo booths P1 and P2 provided in stores where absorbent articles are sold, and in the exhibition corners where absorbent articles are displayed (sold), as shown in FIG. You can take pictures like this. Additionally, the user can post the store information (for example, store name) of the store where the photo was taken, the name of the pet, and a one-word comment along with the photographed image.

このようなことから、図1の例では、飼い主Uは、画像コンテンツAR3が重畳された状態の撮影画像であって、例えば、静止画像として端末装置10に一旦保存した撮影画像を表示制御装置100に投稿したとする。また、飼い主Uは、店舗情報、ペットの名前、一言コメントも投稿したとする。さらに、飼い主Uが撮影を行った場所は、店舗ST1の展示コーナーCN1であったとする。 For this reason, in the example of FIG. 1, the owner U uses the display control device 100 to display a photographed image with the image content AR3 superimposed thereon, which has been temporarily saved in the terminal device 10 as a still image, for example. Suppose that you posted on. It is also assumed that owner U has also posted store information, the pet's name, and a one-word comment. Furthermore, it is assumed that the location where the owner U took the photo was the exhibition corner CN1 of the store ST1.

そうすると、提供部135は、飼い主Uから投稿情報を受け付ける。係る投稿情報には、画像コンテンツAR3が重畳された状態の撮影画像、店舗情報、ペットの名前、一言コメントが含まれる。提供部135は、受け付けた投稿情報を所定の記憶部に格納しておく。なお、提供部135は、投稿情報とともに、投稿情報を送信した送信元の端末装置10から位置情報を取得してもよく、位置情報を取得した場合には、この位置情報を投稿情報に紐付けた状態で記憶部に格納する。 Then, the providing unit 135 receives posted information from the owner U. The posted information includes a photographed image on which the image content AR3 is superimposed, store information, the pet's name, and a one-word comment. The providing unit 135 stores the received posted information in a predetermined storage unit. In addition, the providing unit 135 may acquire location information from the terminal device 10 of the transmission source that transmitted the posted information together with the posted information, and when the providing unit 135 acquires the location information, it links this location information to the posted information. The data is stored in the storage unit in the same state as before.

このような状態において、飼い主Uとは異なる他の飼い主U12が、店舗ST1の展示コーナーCN1に訪れ、端末装置10で展示コーナーCN1を撮影したとする。係る場合、取得部131は、端末装置10のブラウザを介して、展示コーナーCN1での撮影画像を取得する。展示コーナーCN1には、予めARマーカが付与されているため、検出部132は、展示コーナーCN1での撮影画像からARマーカを検出する。 In such a state, it is assumed that another owner U12 different from the owner U visits the exhibition corner CN1 of the store ST1 and photographs the exhibition corner CN1 with the terminal device 10. In this case, the acquisition unit 131 acquires images taken at the exhibition corner CN1 via the browser of the terminal device 10. Since the exhibition corner CN1 is provided with an AR marker in advance, the detection unit 132 detects the AR marker from the photographed image at the exhibition corner CN1.

提供部135は、検出部132によりARマーカが検出された場合には、飼い主U12の端末装置10から位置情報を取得する。そして、提供部135は、取得した位置情報と、店舗情報とのマッチングを行うことで、各店舗情報によって示される店舗のうち、取得した位置情報が示す位置に所在する店舗が存在するか否かを判定する。上記例によると、飼い主U12は、飼い主Uが撮影を行った場所と同じ場所、すなわち店舗ST1の展示コーナーCN1で撮影を行っている。したがって、提供部135は、マッチングにより、取得した位置情報が示す位置には店舗ST1が存在すると判定する。そして、このように判定した場合、提供部135は、記憶部において記憶される投稿情報のうち、店舗ST1を示す店舗情報が含まれる投稿情報を抽出する。係る例では、提供部135は、飼い主Uによって投稿された投稿情報を抽出する。 The providing unit 135 acquires position information from the terminal device 10 of the owner U12 when the detecting unit 132 detects the AR marker. Then, by matching the acquired location information with the store information, the providing unit 135 determines whether or not there is a store located at the location indicated by the acquired location information among the stores indicated by each store information. Determine. According to the above example, the owner U12 is taking the photo at the same place where the owner U took the photo, that is, at the exhibition corner CN1 of the store ST1. Therefore, by matching, the providing unit 135 determines that the store ST1 exists at the location indicated by the acquired location information. When it is determined in this way, the providing unit 135 extracts posted information that includes store information indicating the store ST1 from among the posted information stored in the storage unit. In such an example, the providing unit 135 extracts posted information posted by the owner U.

そして、提供部135は、抽出した投稿情報を飼い主U12の端末装置10に送信することにより、現在の撮影画像に対して投稿情報を重畳させる形で表示させる。これにより、飼い主U12は、端末装置10で展示コーナーCN1を撮影している間は、飼い主Uの投稿情報を閲覧することができる。そして、この結果、表示制御装置100は、例えば、展示コーナーCN1に端末装置10をかざした利用者に対して、吸収性物品は様々な飼い主がにより様々なペットに利用されているという集団的真理(安心感)を与えることができるため、吸収性物品の訴求力を高めることができる。 Then, the providing unit 135 transmits the extracted posted information to the terminal device 10 of the owner U12, thereby displaying the posted information in a superimposed manner on the currently captured image. Thereby, the owner U12 can view the information posted by the owner U while photographing the exhibition corner CN1 with the terminal device 10. As a result, the display control device 100 displays, for example, a collective truth to the user who holds the terminal device 10 up to the exhibition corner CN1 that absorbent articles are used by various owners and by various pets. (feeling of security), the appeal of the absorbent article can be increased.

〔5.処理手順〕
次に、図10を用いて、実施形態に係る表示制御処理の手順について説明する。図10は、実施形態に係る表示制御処理手順を示すフローチャートである。
[5. Processing procedure]
Next, the procedure of display control processing according to the embodiment will be described using FIG. 10. FIG. 10 is a flowchart showing a display control processing procedure according to the embodiment.

まず、取得部131は、端末装置10から撮影画像を取得できたか否かを判定する(ステップ101)。取得部131は、撮影画像を取得できていない間は(ステップ101;No)、撮影画像を取得できるまで待機する。 First, the acquisition unit 131 determines whether a photographed image could be acquired from the terminal device 10 (step 101). The acquisition unit 131 waits until the captured image can be acquired while the captured image cannot be acquired (step 101; No).

一方、検出部132は、取得部131により撮影画像が取得された場合には(ステップ101;Yes)、取得された撮像画像に含まれる識別情報(ARマーカ)を検出する(ステップ102)。 On the other hand, when the captured image is acquired by the acquisition unit 131 (Step 101; Yes), the detection unit 132 detects identification information (AR marker) included in the acquired captured image (Step 102).

次に、特定部133は、検出部132により検出された識別情報と対応する種別の吸収性物品を特定する(ステップS103)。また、特定部133は、識別情報に基づき撮像画像中のペットの前後方向を特定し、特定した前後方向から吸収性物品の装着方向を特定する(ステップS104)。 Next, the specifying unit 133 specifies the type of absorbent article corresponding to the identification information detected by the detecting unit 132 (step S103). Further, the specifying unit 133 specifies the front-back direction of the pet in the captured image based on the identification information, and specifies the wearing direction of the absorbent article from the specified front-back direction (step S104).

次に、表示制御部134は、ステップ103で特定した種別の吸収性物品と、ステップS104で特定した装着方向とに基づいて、画像コンテンツを生成する(ステップS106)。そして、表示制御部134は、端末装置10に対して、ステップS6で生成した画像コンテンツを表示させる(ステップS107)。具体的には、表示制御装置100は、撮影画像が取得された端末装置10が現在表示している撮影画像に対して、ステップS6で生成した画像コンテンツを重畳した状態で表示させる。 Next, the display control unit 134 generates image content based on the type of absorbent article specified in step 103 and the wearing direction specified in step S104 (step S106). Then, the display control unit 134 causes the terminal device 10 to display the image content generated in step S6 (step S107). Specifically, the display control device 100 causes the image content generated in step S6 to be displayed in a superimposed state on the captured image currently displayed by the terminal device 10 from which the captured image was acquired.

〔6.その他〕
上記した各処理のうち、自動的に行われるものとして説明した処理の全部または一部は、手動的に行われてもよい。また、手動的に行われるものとして説明した処理の全部または一部は、公知の方法で自動的に行われてもよい。この他、上記文書中や図面中で示した処理手順、具体的名称、各種のデータやパラメータを含む情報については、特記する場合を除いて任意に変更することができる。例えば、各図に示した各種情報は、図示した情報に限られるものではない。
[6. others〕
Among the above-described processes, all or part of the processes described as being performed automatically may be performed manually. Further, all or part of the processing described as being performed manually may be performed automatically by a known method. In addition, information including the processing procedures, specific names, and various data and parameters shown in the above documents and drawings may be changed arbitrarily, unless otherwise specified. For example, the various information shown in each figure is not limited to the illustrated information.

また、図示した各装置の各構成要素は機能概念的なものであり、必ずしも物理的に図示の如く構成されなくともよい。すなわち、各装置の分散・統合の具体的形態は図示のものに限られない。また、各構成要素は、その全部または一部を、各種の負荷や使用状況などに応じて、任意の単位で機能的または物理的に分散・統合して構成してもよい。また、上記してきた各処理は、矛盾しない範囲で適宜組み合わせて実行されてもよい。 Furthermore, each component of each device shown in the drawings is functionally conceptual, and does not necessarily have to be physically configured as shown in the drawings. That is, the specific form of distributing and integrating each device is not limited to what is illustrated. In addition, all or part of each component may be functionally or physically distributed and integrated in arbitrary units depending on various loads and usage conditions. Furthermore, the above-described processes may be executed in combination as appropriate to the extent that they do not contradict each other.

〔7.ハードウェア構成〕
また、上述した実施形態に係る表示制御装置100は、例えば図11に示すような構成のコンピュータ1000によって実現される。図11は、ハードウェア構成の一例を示す図である。コンピュータ1000は、出力装置1010、入力装置1020と接続され、演算装置1030、キャッシュ1040、メモリ1050、出力IF(Interface)1060、入力IF1070、ネットワークIF1080がバス1090により接続される。
[7. Hardware configuration]
Further, the display control device 100 according to the embodiment described above is realized by, for example, a computer 1000 having a configuration as shown in FIG. 11. FIG. 11 is a diagram showing an example of the hardware configuration. The computer 1000 is connected to an output device 1010 and an input device 1020, and is connected to an arithmetic device 1030, a cache 1040, a memory 1050, an output IF (Interface) 1060, an input IF 1070, and a network IF 1080 via a bus 1090.

演算装置1030は、キャッシュ1040やメモリ1050に格納されたプログラムや入力装置1020から読み出したプログラム等に基づいて動作し、各種の処理を実行する。キャッシュ1040は、RAM等、演算装置1030が各種の演算に用いるデータを一次的に記憶するキャッシュである。また、メモリ1050は、演算装置1030が各種の演算に用いるデータや、各種のデータベースが登録される記憶装置であり、ROM(Read Only Memory)、HDD(Hard Disk Drive)、フラッシュメモリ等により実現されるメモリである。 The arithmetic unit 1030 operates based on programs stored in the cache 1040 and memory 1050, programs read from the input device 1020, and performs various processes. The cache 1040 is a cache, such as a RAM, that temporarily stores data used by the arithmetic unit 1030 for various calculations. Further, the memory 1050 is a storage device in which data used by the arithmetic unit 1030 for various calculations and various databases are registered, and is realized by ROM (Read Only Memory), HDD (Hard Disk Drive), flash memory, etc. It is a memory that

出力IF1060は、モニタやプリンタといった各種の情報を出力する出力装置1010に対し、出力対象となる情報を送信するためのインタフェースであり、例えば、USB(Universal Serial Bus)やDVI(Digital Visual Interface)、HDMI(登録商標)(High Definition Multimedia Interface)といった規格のコネクタにより実現されてよい。一方、入力IF1070は、マウス、キーボード、およびスキャナ等といった各種の入力装置1020から情報を受信するためのインタフェースであり、例えば、USB等により実現される。 The output IF 1060 is an interface for transmitting information to be output to an output device 1010 that outputs various information such as a monitor or a printer, and is, for example, a USB (Universal Serial Bus), a DVI (Digital Visual Interface), It may be realized by a connector of a standard such as HDMI (registered trademark) (High Definition Multimedia Interface). On the other hand, the input IF 1070 is an interface for receiving information from various input devices 1020 such as a mouse, a keyboard, and a scanner, and is realized by, for example, a USB or the like.

例えば、入力装置1020は、CD(Compact Disc)、DVD(Digital Versatile Disc)、PD(Phase change rewritable Disk)等の光学記録媒体、MO(Magneto-Optical disk)等の光磁気記録媒体、テープ媒体、磁気記録媒体、または半導体メモリ等から情報を読み出す装置により実現されてもよい。また、入力装置1020は、USBメモリ等の外付け記憶媒体により実現されてもよい。 For example, the input device 1020 may be an optical recording medium such as a CD (Compact Disc), a DVD (Digital Versatile Disc), or a PD (Phase change rewritable disk), a magneto-optical recording medium such as an MO (Magneto-Optical disk), a tape medium, It may be realized by a device that reads information from a magnetic recording medium, a semiconductor memory, or the like. Further, the input device 1020 may be realized by an external storage medium such as a USB memory.

ネットワークIF1080は、ネットワークNを介して他の機器からデータを受信して演算装置1030へ送り、また、ネットワークNを介して演算装置1030が生成したデータを他の機器へ送信する機能を有する。 The network IF 1080 has a function of receiving data from other devices via the network N and sending it to the computing device 1030, and also transmitting data generated by the computing device 1030 to the other devices via the network N.

ここで、演算装置1030は、出力IF1060や入力IF1070を介して、出力装置1010や入力装置1020の制御を行うこととなる。例えば、演算装置1030は、入力装置1020やメモリ1050からプログラムをキャッシュ1040上にロードし、ロードしたプログラムを実行する。例えば、コンピュータ1000が表示制御装置100として機能する場合、コンピュータ1000の演算装置1030は、キャッシュ1040上にロードされたプログラムを実行することにより、制御部130の機能を実現することとなる。 Here, the arithmetic device 1030 controls the output device 1010 and the input device 1020 via the output IF 1060 and the input IF 1070. For example, the arithmetic device 1030 loads a program from the input device 1020 or the memory 1050 onto the cache 1040, and executes the loaded program. For example, when the computer 1000 functions as the display control device 100, the arithmetic unit 1030 of the computer 1000 realizes the functions of the control unit 130 by executing a program loaded onto the cache 1040.

以上、本願の実施形態を図面に基づいて詳細に説明した。しかしながら、これらは例示であり、本願の実施形態は、発明の開示の欄に記載の態様を始めとして、所謂当業者の知識に基づいて種々の変形、改良を施した他の形態で実施することが可能である。また、上述してきた「部(section、module、unit)」は、「手段」や「回路」などに読み替えることができる。 The embodiments of the present application have been described above in detail based on the drawings. However, these are merely examples, and the embodiments of the present application may be implemented in other forms with various modifications and improvements based on the knowledge of those skilled in the art, including the embodiments described in the disclosure section of the invention. is possible. Further, the above-mentioned "section, module, unit" can be read as "means", "circuit", etc.

1 表示制御システム
10 端末装置
100 表示制御装置
120 記憶部
121 識別情報記憶部
130 制御部
131 取得部
132 検出部
133 特定部
134 表示制御部
135 提供部
1 Display control system 10 Terminal device 100 Display control device 120 Storage section 121 Identification information storage section 130 Control section 131 Acquisition section 132 Detection section 133 Specification section 134 Display control section 135 Provision section

Claims (17)

所定の装着具が装着されたペットが撮影された撮影画像を取得する取得部と、
前記撮影画像に撮影された装着具と対応する種別の吸収性物品を特定する特定部と、
前記ペットが前記特定部により特定された吸収性物品を仮想的に装着した態様で、前記撮影画像に当該吸収性物品の画像を重畳した状態で表示させる表示制御部と
を有することを特徴とする表示制御装置。
an acquisition unit that acquires a captured image of a pet wearing a predetermined attachment device;
an identification unit that identifies an absorbent article of a type corresponding to the wearing device photographed in the photographed image;
and a display control unit that displays an image of the absorbent article superimposed on the photographed image in a state in which the pet virtually wears the absorbent article specified by the identification unit. Display control device.
前記取得部は、前記装着具として、胴回りに巻く装着具が装着されたペットが撮影され撮影画像を取得する
ことを特徴とする請求項1に記載の表示制御装置。
The display control device according to claim 1, wherein the acquisition unit acquires a photographed image of a pet wearing a wearing device that is wrapped around the body as the wearing device.
前記取得部は、前記装着具として、胴回りの大きさごとに異なる装着具が装着されたペットが撮影された撮影画像を取得する
ことを特徴とする請求項2に記載の表示制御装置。
The display control device according to claim 2, wherein the acquisition unit acquires a photographed image of a pet wearing different attachments for different waist circumference sizes as the attachment.
前記特定部は、前記装着具と対応する大きさの吸収性物品を特定する
ことを特徴とする請求項3に記載の表示制御装置。
The display control device according to claim 3, wherein the specifying unit specifies an absorbent article having a size corresponding to the wearing tool.
前記取得部は、前記装着具として、前記ペットの性別に応じて異なる装着具が装着されたペットが撮影された撮影画像を取得する
ことを特徴とする請求項1~4のうちいずれか1つに記載の表示制御装置。
Any one of claims 1 to 4, wherein the acquisition unit acquires a captured image of a pet wearing a different attachment device depending on the gender of the pet as the attachment device. The display control device described in .
前記特定部は、前記装着具と対応する性別用の吸収性物品を特定する
ことを特徴とする請求項5に記載の表示制御装置。
The display control device according to claim 5, wherein the specifying unit specifies an absorbent article for a gender corresponding to the wearing tool.
前記取得部は、前記吸収性物品の種別ごとに予め準備された複数の装着具のうちいずれかの装着具が装着されたペットの撮影画像を取得する
ことを特徴とする請求項1~6のうちいずれか1つに記載の表示制御装置。
7. The acquisition unit acquires a captured image of a pet wearing one of a plurality of attachment devices prepared in advance for each type of the absorbent article. The display control device according to any one of them.
前記特定部は、前記装着具の装着態様に基づいて、前記ペットの前後方向をさらに特定し、
前記表示制御部は、前記特定部により特定された前後方向に基づいて、前記撮影画像に当該吸収性物品の画像を重畳した状態で表示させる
ことを特徴とする請求項1~7のうちいずれか1つに記載の表示制御装置。
The specifying unit further specifies the front and back direction of the pet based on the wearing manner of the wearing tool,
Any one of claims 1 to 7, wherein the display control unit displays an image of the absorbent article superimposed on the photographed image based on the front-rear direction specified by the identification unit. 1. The display control device according to item 1.
前記取得部は、前記装着具として、前記ペットの前後方向を示す表示が付与された装着具が装着されたペットが撮影された撮影画像を取得する
ことを特徴とする請求項8に記載の表示制御装置。
The display according to claim 8, wherein the acquisition unit acquires a photographed image of a pet wearing a wearing device that is provided with an indication indicating the front and back direction of the pet as the wearing device. Control device.
前記表示制御部は、利用者からの操作に従って、仮想的に装着させた吸収性物品の外観を変更させる
ことを特徴とする請求項1~9のうちいずれか1つに記載の表示制御装置。
The display control device according to any one of claims 1 to 9, wherein the display control unit changes the appearance of the virtually worn absorbent article according to an operation from a user.
前記取得部は、対応する吸収性物品の種別に応じた識別情報が付与された装着具が装着されたペットの撮影画像を取得し、
前記特定部は、前記撮影画像に撮影された装着具に付与された識別情報と対応する種別の吸収性物品を特定する
ことを特徴とする請求項1~10のうちいずれか1つに記載の表示制御装置。
The acquisition unit acquires a photographed image of a pet wearing a wearing device to which identification information according to the type of the corresponding absorbent article is attached;
The identifying unit identifies an absorbent article of a type corresponding to identification information given to the wearing tool photographed in the photographed image. Display control device.
前記取得部は、対応する吸収性物品の種別に応じた複数の識別情報であって、それぞれ前記装着具を装着したペットの前後方向若しくは胴回り方向に応じて異なる複数の識別情報が付与された装着具が装着されたペットの撮影画像を取得し、
前記特定部は、前記撮影画像に撮影された装着具に付与された識別情報と対応する種別の吸収性物品を特定するとともに、前記ペットの前後方向若しくは胴回り方向を特定し、
前記表示制御部は、前記ペットの前後方向若しくは胴回り方向に基づいて、前記ペットが前記特定部により特定された種別の吸収性物品を仮想的に装着した態様で、前記撮影画像に当該吸収性物品の画像を重畳した状態で表示させる
ことを特徴とする請求項1~11のうちいずれか1つに記載の表示制御装置。
The acquisition unit is configured to acquire a plurality of pieces of identification information according to the type of the corresponding absorbent article, each of which is provided with a plurality of pieces of identification information that differs depending on the front-rear direction or waist circumference direction of the pet wearing the fitting. Obtain a photographed image of the pet with the device attached,
The identification unit identifies an absorbent article of a type that corresponds to identification information given to the wearing device photographed in the photographed image, and also identifies a front-back direction or a waist circumference direction of the pet;
The display control unit displays the absorbent article in the photographed image in a state in which the pet is virtually wearing an absorbent article of the type specified by the identification unit based on the front-rear direction or waist circumference direction of the pet. The display control device according to any one of claims 1 to 11, wherein the display control device displays images in a superimposed state.
前記取得部は、利用者が利用する端末装置が撮影した撮影画像を取得し、
前記表示制御部は、前記利用者が利用する端末装置に前記撮影画像を表示させる
ことを特徴とする請求項1~12のうちいずれか1つに記載の表示制御装置。
The acquisition unit acquires a photographed image taken by a terminal device used by a user,
The display control device according to any one of claims 1 to 12, wherein the display control unit displays the photographed image on a terminal device used by the user.
前記取得部は、前記端末装置が実行するアプリケーションであって、ウェブコンテンツを表示させるためのアプリケーションを介して前記端末装置が撮影した撮影画像を取得し、
前記表示制御部は、前記アプリケーションを介して、前記利用者が利用する端末装置に前記撮影画像を表示させる
ことを特徴とする請求項13に記載の表示制御装置。
The acquisition unit is an application executed by the terminal device, and acquires a photographed image taken by the terminal device via an application for displaying web content,
The display control device according to claim 13, wherein the display control unit displays the captured image on a terminal device used by the user via the application.
前記表示制御部が前記画像を表示させた端末装置の位置と、当該端末装置に表示させた画像とを対応付けて記憶する記憶部と、
他の端末装置から所定の施設が撮影された撮影画像と、当該撮影画像が撮影された位置とを受付けた場合は、当該位置と対応付けて記憶された画像を当該撮影画像に重畳したコンテンツを当該他の端末装置に提供する提供部と
を有することを特徴とする請求項1~14のうちいずれか1つに記載の表示制御装置。
a storage unit that stores the position of a terminal device on which the display control unit has displayed the image in association with the image displayed on the terminal device;
When a captured image of a predetermined facility and the location where the captured image was captured are received from another terminal device, content in which the image stored in association with the location is superimposed on the captured image is displayed. The display control device according to any one of claims 1 to 14, further comprising: a providing unit that provides the information to the other terminal device.
表示制御装置が実行する表示制御方法であって、
所定の装着具が装着されたペットが撮影された撮影画像を取得する取得工程と、
前記撮影画像に撮影された装着具と対応する種別の吸収性物品を特定する特定工程と、
前記ペットが前記特定工程により特定された吸収性物品を仮想的に装着した態様で、前記撮影画像に当該吸収性物品の画像を重畳した状態で表示させる表示制御工程と
を含むことを特徴とする表示制御方法。
A display control method executed by a display control device, comprising:
an acquisition step of acquiring a captured image of a pet wearing a predetermined attachment;
a identifying step of identifying an absorbent article of a type corresponding to the wearing device photographed in the photographed image;
and a display control step of displaying an image of the absorbent article superimposed on the photographed image in a manner in which the pet virtually wears the absorbent article specified in the specifying step. Display control method.
所定の装着具が装着されたペットが撮影された撮影画像を取得する取得手順と、
前記撮影画像に撮影された装着具と対応する種別の吸収性物品を特定する特定手順と、
前記ペットが前記特定手順により特定された吸収性物品を仮想的に装着した態様で、前記撮影画像に当該吸収性物品の画像を重畳した状態で表示させる表示制御手順と
をコンピュータに実行させるための表示制御プログラム。
an acquisition procedure for acquiring a captured image of a pet wearing a predetermined attachment;
an identification procedure for identifying an absorbent article of a type corresponding to the wearing device photographed in the photographed image;
a display control procedure for causing a computer to execute a display control procedure for displaying an image of the absorbent article superimposed on the photographed image in a manner in which the pet virtually wears the absorbent article identified by the identifying procedure; Display control program.
JP2019201031A 2019-11-05 2019-11-05 Display control device, display control method, and display control program Active JP7396861B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019201031A JP7396861B2 (en) 2019-11-05 2019-11-05 Display control device, display control method, and display control program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019201031A JP7396861B2 (en) 2019-11-05 2019-11-05 Display control device, display control method, and display control program

Publications (2)

Publication Number Publication Date
JP2021076945A JP2021076945A (en) 2021-05-20
JP7396861B2 true JP7396861B2 (en) 2023-12-12

Family

ID=75900082

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019201031A Active JP7396861B2 (en) 2019-11-05 2019-11-05 Display control device, display control method, and display control program

Country Status (1)

Country Link
JP (1) JP7396861B2 (en)

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006285563A (en) 2005-03-31 2006-10-19 Arcadia:Kk Simulation device
JP2007175032A (en) 2005-12-28 2007-07-12 Daiichi Eizai Kk Pants for animal
WO2011004608A1 (en) 2009-07-09 2011-01-13 頓智ドット株式会社 System capable of displaying visibility information to which virtual information is added
JP2011186533A (en) 2010-03-04 2011-09-22 Nifty Corp Information processing apparatus and program
JP2013101529A (en) 2011-11-09 2013-05-23 Sony Corp Information processing apparatus, display control method, and program
JP3192413U (en) 2014-06-02 2014-08-14 株式会社トンボ Pet walking assist harness
JP2014207586A (en) 2013-04-13 2014-10-30 脇田真紀子 Photograph generation method, photograph generated by the method, and photograph generation system
JP2017136110A (en) 2016-02-01 2017-08-10 ユニ・チャーム株式会社 Method, system, and program for evaluating wearing state of disposable diaper

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006285563A (en) 2005-03-31 2006-10-19 Arcadia:Kk Simulation device
JP2007175032A (en) 2005-12-28 2007-07-12 Daiichi Eizai Kk Pants for animal
WO2011004608A1 (en) 2009-07-09 2011-01-13 頓智ドット株式会社 System capable of displaying visibility information to which virtual information is added
JP2011186533A (en) 2010-03-04 2011-09-22 Nifty Corp Information processing apparatus and program
JP2013101529A (en) 2011-11-09 2013-05-23 Sony Corp Information processing apparatus, display control method, and program
JP2014207586A (en) 2013-04-13 2014-10-30 脇田真紀子 Photograph generation method, photograph generated by the method, and photograph generation system
JP3192413U (en) 2014-06-02 2014-08-14 株式会社トンボ Pet walking assist harness
JP2017136110A (en) 2016-02-01 2017-08-10 ユニ・チャーム株式会社 Method, system, and program for evaluating wearing state of disposable diaper

Also Published As

Publication number Publication date
JP2021076945A (en) 2021-05-20

Similar Documents

Publication Publication Date Title
US10747991B2 (en) People stream analysis method, people stream analysis apparatus, and people stream analysis system
US20180232799A1 (en) Exhibition device, display control device and exhibition system
KR102102571B1 (en) System and method for providing online shopping platform
WO2021014993A1 (en) Information processing device, information processing method, and program
JP7318321B2 (en) Information processing device, information processing method, person search system, and person search method
WO2017221868A1 (en) Server device, terminal device, and information processing method
KR102580009B1 (en) Clothes Fitting System And Operation Method of Threof
KR20200139766A (en) A virtual wearing method and apparatus for clothing based on augmented reality with multiple detection
JP7396861B2 (en) Display control device, display control method, and display control program
KR20210130953A (en) Method and system for creating virtual image based deep-learning
JP2019139321A (en) Customer behavior analysis system and customer behavior analysis method
JP4427714B2 (en) Image recognition apparatus, image recognition processing method, and image recognition program
JP6855501B2 (en) Information management system and information management method
JP2008003850A (en) Fit feeling judgment support system
KR20160038258A (en) System and method for preventing losing pets
US10679587B2 (en) Display of supplemental information
JP2006313433A (en) Electronic equipment
JP7458362B2 (en) Information processing device, information processing method, and information processing program
JP7459038B2 (en) Information processing device, information processing method, and information processing program
JP7458363B2 (en) Information processing device, information processing method, and information processing program
KR20240067170A (en) Pet loss countermeasure system
JP2020067986A (en) Determination device, determination method, and determination program
JP7335850B2 (en) High fever detection method, high fever detection device, and high fever detection system
KR102555450B1 (en) system that operates a parallel import platform that generates customs document information
Bonala et al. Raspberry Pi Based Crowd and Facemask Detection with Email and Message Alert

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20221026

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20231023

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20231114

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20231130

R150 Certificate of patent or registration of utility model

Ref document number: 7396861

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150