WO2023089816A1 - 情報処理装置、情報処理システム、情報処理方法、及び非一時的なコンピュータ可読媒体 - Google Patents

情報処理装置、情報処理システム、情報処理方法、及び非一時的なコンピュータ可読媒体 Download PDF

Info

Publication number
WO2023089816A1
WO2023089816A1 PCT/JP2021/042764 JP2021042764W WO2023089816A1 WO 2023089816 A1 WO2023089816 A1 WO 2023089816A1 JP 2021042764 W JP2021042764 W JP 2021042764W WO 2023089816 A1 WO2023089816 A1 WO 2023089816A1
Authority
WO
WIPO (PCT)
Prior art keywords
user
information
display
mirror
product
Prior art date
Application number
PCT/JP2021/042764
Other languages
English (en)
French (fr)
Inventor
ほなみ 幸
Original Assignee
日本電気株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 日本電気株式会社 filed Critical 日本電気株式会社
Priority to PCT/JP2021/042764 priority Critical patent/WO2023089816A1/ja
Publication of WO2023089816A1 publication Critical patent/WO2023089816A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/02Marketing; Price estimation or determination; Fundraising
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/06Buying, selling or leasing transactions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast

Definitions

  • the present disclosure relates to an information processing device, an information processing system, an information processing method, and a non-temporary computer-readable medium, and particularly an information processing device, an information processing system, an information processing method, and a non-temporary computer-readable medium that provide recommendation information to users. It relates to computer readable media.
  • a method for recommending cosmetics suitable for the user has been proposed. For example, in Japanese Unexamined Patent Application Publication No. 2002-100000, when the identity of the first user is successfully authenticated, a similar user is selected based on the preference of the first user, and cosmetic information related to cosmetics used in makeup of the similar user is displayed on a display device.
  • a makeup aid device is disclosed.
  • An object of the present disclosure is to provide an information processing device, an information processing system, an information processing method, and a non-temporary computer-readable medium that can improve sales promotion effects in view of the above-described problems.
  • An information processing device includes: When a user is positioned in front of a mirror, a matching result is obtained between facial feature information extracted from a photographed image in which at least the face of the user is photographed and facial feature information of a plurality of persons registered in advance.
  • authentication control means for selecting at least one product from a plurality of products as a recommended product based on pre-registered user information related to the user when the matching result indicates that the face authentication was successful; and display control means for outputting display information related to the recommended product to a display device provided in association with the mirror.
  • An information processing system includes: an information processing device; Equipped with a face recognition device and The information processing device is When a user is positioned in front of a display device having a mirror attached to the user side, facial feature information extracted from a photographed image in which at least the face of the user is photographed, and the faces of a plurality of persons registered in advance.
  • authentication control means for acquiring a result of matching with the feature information from the face authentication device; selection means for selecting at least one product from a plurality of products as a recommended product based on pre-registered user information related to the user when the matching result indicates that the face authentication was successful; and display control means for outputting display information related to the recommended product to the display device.
  • An information processing method includes: When a user is positioned in front of a mirror, a matching result is obtained between facial feature information extracted from a photographed image in which at least the face of the user is photographed and facial feature information of a plurality of persons registered in advance. , selecting at least one product from a plurality of products as a recommended product based on pre-registered user information related to the user when the matching result indicates that the face authentication was successful; Display information related to the recommended product is output to a display device provided in association with the mirror.
  • a non-transitory computer-readable medium comprising: When a user is positioned in front of a mirror, a matching result is obtained between facial feature information extracted from a photographed image in which at least the face of the user is photographed and facial feature information of a plurality of persons registered in advance. a procedure; a step of selecting at least one product from a plurality of products as a recommended product based on pre-registered user information related to the user when the matching result indicates that the face authentication was successful; A program for causing a computer to execute a procedure for outputting display information related to the recommended product to a display device provided in association with the mirror is stored.
  • products can be recommended without requiring a user's special intention, so it is possible to provide an information processing device, an information processing system, an information processing method, and a non-temporary computer-readable medium that can improve sales promotion effects.
  • FIG. 1 is a block diagram showing the configuration of an information processing apparatus according to a first embodiment
  • FIG. 4 is a flow chart showing the flow of an information processing method according to the first embodiment
  • 2 is a block diagram showing the overall configuration of an information processing system according to a second embodiment
  • FIG. 7 is a block diagram showing the configuration of a mirror signage according to a second embodiment
  • FIG. 2 is a block diagram showing the configuration of a face authentication device according to a second embodiment
  • FIG. 9 is a flowchart showing the flow of face information registration processing according to the second embodiment
  • 9 is a flow chart showing the flow of face authentication processing according to the second embodiment
  • FIG. 8 is a block diagram showing the configuration of a user terminal according to the second embodiment
  • FIG. 7 is a block diagram showing the configuration of a server according to the second embodiment
  • FIG. FIG. 11 is a sequence diagram showing an example of the flow of user registration processing according to the second embodiment
  • FIG. 12 is a sequence diagram showing an example of the flow of information provision processing according to the second embodiment
  • FIG. 10 is a diagram showing an example of display on the mirror signage display device according to the second embodiment
  • FIG. 10 is a diagram showing an example of display on the mirror signage display device according to the second embodiment
  • FIG. 10 is a diagram showing an example of display on the mirror signage display device according to the second embodiment
  • FIG. 11 is a block diagram showing the configuration of a server according to a third embodiment
  • FIG. FIG. 12 is a sequence diagram showing a modification of the flow of information provision processing according to the third embodiment
  • FIG. 12 is a diagram showing an example of a photographed image according to the third embodiment
  • FIG. FIG. 11 is a diagram showing an example of display on the mirror signage display device according to the third embodiment
  • FIG. 12 is a diagram showing an example of a photographed image according to the third embodiment
  • User ID is information for identifying a user.
  • a “user ID” may be a user name, or the user's phone number, credit card number, or other identification number.
  • User information is information related to the user.
  • User information includes user attribute information.
  • the “user information” may also include a user's usage history and user input information.
  • a “merchandise” is any merchandise sold in a physical store or online store.
  • Items are preferably cosmetics, clothes, hats, accessories, bags, shoes, or other items that can be worn by the user.
  • the "product” may be a product that the user cannot wear.
  • “Usage history” indicates at least one of the fact that the user has used a physical store that handles products, ordered or purchased a product at a physical store or online, and requested delivery of a free sample.
  • FIG. 1 is a block diagram showing the configuration of an information processing apparatus 10 according to the first embodiment.
  • the information processing device 10 is a computer device that recommends products to a user positioned in front of a mirror. Being in front of a mirror may be standing in front of a mirror or sitting in front of a mirror. For example, a user stands in front of a mirror to groom himself.
  • the information processing device 10 is connected to a network (not shown).
  • a network may be wired or wireless.
  • a display device (not shown) associated with the mirror may be connected to the network.
  • the information processing device 10 includes an authentication control unit 13 , a selection unit 14 and a display control unit 15 .
  • the authentication control unit 13 is also called authentication control means.
  • the authentication control unit 13 determines the difference between the facial feature information extracted from the captured image in which at least the face of the user is captured and the facial feature information of a plurality of persons registered in advance. Get matching results. That is, the authentication control unit 13 acquires the face authentication result of the user positioned in front of the mirror. Thereby, the authentication control unit 13 identifies the user. For example, the authentication control unit 13 identifies a user ID.
  • the selection unit 14 is also called selection means.
  • the selection unit 14 selects at least one product from a plurality of products as a recommended product based on the user information.
  • the user information is registered in advance in a user database (DB) (not shown) in association with the user.
  • Information on a plurality of products is registered in advance in a product database (DB) (not shown).
  • the display control unit 15 is also called display control means.
  • the display control unit 15 outputs display information related to the recommended product selected by the selection unit 14 to the display device provided in association with the mirror described above.
  • the display information may be product information of the recommended product, information indicating the purchaser of the recommended product, or information for receiving a delivery or ordering of a sample of the recommended product. .
  • the display information may also be a simulation image when the user uses the recommended product. To output may be to transmit, or to transmit and display.
  • FIG. 2 is a flow chart showing the flow of the information processing method according to the first embodiment.
  • the authentication control unit 13 of the information processing device 10 determines whether or not the user is positioned in front of the mirror (S10). For example, the authentication control unit 13 may determine that the user is positioned in front of the mirror when a person area of a predetermined size or larger is detected from an image captured by a camera (not shown) that captures the scenery around the mirror. Further, the authentication control unit 13 may determine that the user is positioned in front of the mirror when a person area of a predetermined size or more is detected from the image for a predetermined time or longer. Further, the authentication control unit 13 may determine that the user is positioned in front of the mirror when a predetermined input operation is performed or when a human sensor detects a person.
  • the authentication control unit 13 collects the facial feature information extracted from the captured image of the user and the facial feature information of a plurality of persons registered in advance. (S11). For example, the authentication control unit 13 may obtain a collation result (that is, a face authentication result) by performing face authentication using a photographed image of the user. Further, for example, the authentication control unit 13 transmits a photographed image of the user or facial feature information extracted from the photographed image to a face authentication device (not shown) connected via a network, and receives a matching result from the face authentication device. By doing so, the matching result may be obtained.
  • a collation result that is, a face authentication result
  • the authentication control unit 13 determines whether or not face authentication has succeeded (S12).
  • Successful face authentication indicates that the facial feature information of the user matches that of any registered user. Matching may indicate that the degree of matching of facial feature information is equal to or greater than a predetermined value.
  • the information processing device 10 ends the process.
  • the selection unit 14 selects recommended products based on pre-registered user information (S13).
  • the selection unit 14 analyzes the user's preference or orientation based on user information from among a plurality of predetermined products, and selects products having product attributes that match the user's preference or orientation as recommended products. do.
  • the selection unit 14 analyzes the user's preference or orientation based on the user information among a plurality of predetermined products, and selects products of manufacturers and brands that match the preference or orientation as recommended products. select.
  • the selection unit 14 selects a product having a product attribute that matches the skin type or skin color of the user included in the user information from among a plurality of predetermined products as a recommended product.
  • the display control unit 15 outputs display information related to recommended products to the display device (S14).
  • the information processing apparatus 10 performs face authentication and identity verification when the user uses the mirror, and provides the user with personalized recommended product information.
  • the user does not need any special intention or operation, such as intentionally logging in, in order to obtain information on recommended products. This can enhance the sales promotion effect. Also, the user does not need to perform special operations such as inputting information each time. This can also enhance the sales promotion effect.
  • FIG. 3 is a block diagram showing the overall configuration of an information processing system 1000 according to the second embodiment.
  • the information processing system 1000 is a computer system that recommends products to a user standing in front of a mirror signage including a mirror.
  • the "product" is cosmetics as an example.
  • the information processing system 1000 includes a face authentication device 100 , an information processing device (hereinafter referred to as a server) 200 , a user terminal 300 and a mirror signage 400 . Each device and terminal are connected to each other via a network N.
  • the network N is a wired or wireless communication line.
  • the user terminal 300 is an information terminal used by the user.
  • User terminal 300 transmits a user registration request to server 200 . Thereby, the user's facial feature information is registered and a user ID is issued.
  • the user terminal 300 also transmits the user information to the server 200 and causes the server 200 to register the user information in association with the user ID.
  • Mirror signage 400 is a display device with a mirror.
  • the mirror signage 400 displays display information while functioning as a mirror.
  • the mirror signage 400 may be installed in the bathroom of the user's home.
  • the mirror signage 400 may be installed in a place used by an unspecified number of people, such as a shared space in a company, a store, a washbasin in a shared toilet (particularly a women's toilet), in an elevator, or in a waiting space.
  • the mirror signage 400 may be provided in a corner of the cosmetics section of a department store.
  • the mirror signage 400 is further provided with a camera (not shown) that captures at least the face of the user U positioned in front of the mirror.
  • Mirror signage 400 then transmits the captured image to server 200 via network N.
  • FIG. Accordingly, the server 200 starts the information providing process when the photographed image includes the person area.
  • the server 200 is an example of the information processing device 10 described above.
  • server 200 receives a captured image from mirror signage 400 and determines that a person is included in the captured image
  • server 200 performs information providing processing.
  • the server 200 determines a recommended product based on the user information of the user U identified by face authentication based on the captured image, and generates display information related to the recommended product.
  • Server 200 transmits the display information to mirror signage 400 .
  • Mirror signage 400 receives the received display information from server 200 and displays the display information.
  • the face authentication device 100 is a computer device that stores facial feature information of multiple people.
  • the face authentication device 100 has a face authentication function that, in response to a face authentication request received from the outside, compares the face image or face feature information included in the request with the face feature information of each user.
  • the face authentication device 100 registers facial feature information of the user at the time of user registration. Then, face authentication device 100 acquires the photographed image of the user standing in front of mirror signage 400 from mirror signage 400 via server 200, and performs face authentication using the face area in the photographed image. The face authentication device 100 then returns the collation result (face authentication result) to the server 200 .
  • FIG. 4 is a block diagram showing the configuration of the mirror signage 400 according to the second embodiment.
  • the mirror signage 400 has a half mirror 410, a display device 420, and a camera 440 as an example of a mirror.
  • the half mirror 410 is a half mirror. Alternatively, however, half mirror 410 may be any other beam splitter.
  • the half mirror 410 functions as a mirror because it reflects at least part of the light on the user U side located in front. Thereby, the user U can confirm his appearance. Moreover, since the half mirror 410 transmits at least part of the light from the display device 420 provided on the back side, the user U can view the display information projected on the display device 420 .
  • the camera 440 is connected to the display device 420.
  • the camera 440 is provided above the half mirror 410 so as to capture the scenery in front of the half mirror 410 .
  • the captured image includes at least the body region of the user U including the face.
  • Camera 440 supplies the captured image to display device 420 .
  • the display device 420 is a device including a display unit such as a liquid crystal display or an organic EL display. Also, the display device 420 may be a tablet terminal having a display unit. The display device 420 is provided behind the half mirror 410 . The display device 420 displays display information received from the server 200 via the network N. FIG. Further, the display device 420 may cause the mirror signage 400 to function as a mirror by displaying the photographed image of the user U positioned in front of the half mirror 410, which is acquired from the camera 440, and rotated left and right. The display device 420 may be arranged on the entire area of the half mirror 410 or may be arranged on the area above the half mirror 410 .
  • the display device 420 may be arranged in a region above 100 cm from the bottom of the half mirror 410, and the display information may be displayed on the upper half of the body. Further, the display device 420 may be arranged in a region above 180 cm from the bottom of the half mirror 410, and the display information may be displayed near the head.
  • the display device 420 may include, in addition to the display section, a communication section (not shown) that is a communication interface with the network N, and a control section (not shown) that controls the hardware of the display device 420.
  • FIG. 5 is a block diagram showing the configuration of the face authentication device 100 according to the second embodiment.
  • the face authentication device 100 includes a face information DB (DataBase) 110 , a face detection section 120 , a feature point extraction section 130 , a registration section 140 and an authentication section 150 .
  • the face information DB 110 associates and stores a user ID 111 and face feature information 112 of the user ID.
  • the facial feature information 112 is a set of feature points extracted from a facial image, and is an example of facial information.
  • the face authentication device 100 may delete the face feature information 112 in the face feature DB 110 in response to a request from the registered user of the face feature information 112 .
  • the face authentication device 100 may delete the facial feature information 112 after a certain period of time has passed since it was registered.
  • the face detection unit 120 detects a face area included in a registered image for registering face information, and supplies it to the feature point extraction unit 130 .
  • the feature point extraction unit 130 extracts feature points from the face area detected by the face detection unit 120 and supplies face feature information to the registration unit 140 .
  • the feature point extraction unit 130 also extracts feature points included in the captured image received from the server 200 and supplies facial feature information to the authentication unit 150 .
  • the registration unit 140 newly issues a user ID 111 when registering facial feature information.
  • the registration unit 140 associates the issued user ID 111 with the facial feature information 112 extracted from the registered image and registers them in the facial information DB 110 .
  • the authentication unit 150 performs face authentication using the facial feature information 112 . Specifically, the authentication unit 150 collates the facial feature information extracted from the captured image with the facial feature information 112 in the facial information DB 110 . Authentication unit 150 returns to server 200 whether or not the facial feature information matches. Whether the facial feature information matches or not corresponds to the success or failure of the authentication. Note that matching of facial feature information (matching) means a case where the degree of matching is equal to or greater than a predetermined value.
  • FIG. 6 is a flowchart showing the flow of face information registration processing according to the second embodiment.
  • the face authentication device 100 acquires the registered image of the user U included in the face registration request (S21). For example, the face authentication device 100 receives a face registration request via the network N from the server 200 that received the user registration request from the user terminal 300 . Note that the face authentication device 100 may receive a face registration request directly from the user terminal 300 without being limited to this.
  • face detection section 120 detects a face area included in the registered image (S22).
  • the feature point extraction unit 130 extracts feature points from the face area detected in step S22, and supplies face feature information to the registration unit 140 (S23).
  • the registration unit 140 issues the user ID 111, associates the user ID 111 with the facial feature information 112, and registers them in the facial information DB 110 (S24).
  • the face authentication device 100 may receive the face feature information 112 from the face registration requester and register it in the face information DB 110 in association with the user ID 111 .
  • FIG. 7 is a flow chart showing the flow of face authentication processing according to the second embodiment.
  • the feature point extraction unit 130 acquires facial feature information for authentication (S31).
  • the face authentication device 100 receives a face authentication request from the server 200 via the network N, and extracts facial feature information from the captured image included in the face authentication request in steps S21 to S23.
  • the face authentication device 100 may receive facial feature information from the server 200 .
  • the authentication unit 150 collates the acquired facial feature information with the facial feature information 112 of the facial information DB 110 (S32).
  • the authentication unit 150 identifies the user ID 111 of the user whose facial feature information matches (S34). . Then, the authenticating unit 150 replies to the server 200 that the face authentication was successful and the identified user ID 111 as the face authentication result (S35). If there is no matching facial feature information (No in S33), the authentication unit 150 returns a face authentication result to the server 200 to the effect that the face authentication has failed (S36).
  • FIG. 8 is a block diagram showing the configuration of the user terminal 300 according to the second embodiment.
  • the user terminal 300 includes a camera 310 , a storage section 320 , a communication section 330 , a display section 340 , an input section 350 and a control section 360 .
  • the camera 310 is an imaging device that performs imaging under the control of the control unit 360 .
  • the storage unit 320 is a storage device that stores programs for realizing each function of the user terminal 300 .
  • a communication unit 330 is a communication interface with the network N.
  • the display unit 340 is a display device.
  • the input unit 350 is an input device that receives input from the user.
  • the display unit 340 and the input unit 350 may be configured integrally like a touch panel.
  • the control unit 360 controls hardware of the user terminal 300 .
  • FIG. 9 is a block diagram showing the configuration of the server 200 according to the second embodiment.
  • the server 200 includes a storage unit 210 , a memory 220 , a communication unit 230 and a control unit 240 .
  • the storage unit 210 is a storage device such as a hard disk or flash memory.
  • Storage unit 210 stores program 211 , user DB 212 , and product DB 213 .
  • the program 211 is a computer program in which the processing of the information processing method according to the second embodiment is implemented.
  • the user DB 212 stores information related to users. Specifically, the user DB 212 stores user information 2122 in association with the user ID 2121 .
  • a user ID 2121 is a user ID issued by the face authentication device 100 when face information is registered.
  • the user information 2122 includes user attribute information. Attribute information may include age, address, gender, occupation and annual income.
  • the user information 2122 may also include registration information regarding the user's skin type or skin color or the user's usage history.
  • User information 2122 may also include personal information such as the user's credit card number.
  • the product DB 213 stores information on products. Specifically, the product DB 213 stores product information 2132 in association with the product ID 2131 .
  • the product ID 2131 is information that identifies the product.
  • the product ID 2131 may be a product name or product model number.
  • the product information 2132 is information about products, and may include, for example, manufacturer information, product attributes, and product images.
  • the maker information may be the maker ID of the maker that manufactures and sells the product or the ID of the maker's group company.
  • the maker ID and group ID may be their names or identification numbers.
  • a product attribute is attribute information of a product.
  • product attributes may include the type of product (for example, skin care or makeup, or foundation, cheek, or lip), the price, the part to which the product is applied (for example, skin, cheeks, or lips), or the type of product that is suitable for the product.
  • skin type or color e.g. for dry skin or fair skin.
  • product attributes may include product color information (for example, color names such as light beige or ocher, or RGB information) and texture information (for example, matte or glossy).
  • the product information 2132 may also include a free sample of the product, order information of the product, or purchaser information of the product.
  • Order destination information and purchase destination information may include, for example, the URL (Uniform Resource Locator) of an online store that accepts orders and purchases.
  • the memory 220 is a volatile storage device such as RAM (Random Access Memory), and is a storage area for temporarily holding information when the control unit 240 operates.
  • the communication unit 230 is a communication interface with the network N. FIG.
  • the control unit 240 is a processor that controls each component of the server 200, that is, a control device.
  • the control unit 240 loads the program 211 from the storage unit 210 into the memory 220 and executes the program 211 .
  • the control unit 240 realizes the functions of the registration unit 241 , the image acquisition unit 242 , the authentication control unit 243 , the selection unit 244 , the display control unit 245 and the response processing unit 246 .
  • the registration unit 241 is also called registration means.
  • the registration section 241 transmits a face registration request to the face authentication device 100 .
  • the registration unit 241 registers the user ID in the user DB 212 .
  • the registration unit 241 registers the user information of the user in the user DB 212 in association with the user ID of the user used by the user terminal 300 .
  • the image acquisition unit 242 is also called image acquisition means. When the image acquisition unit 242 receives a captured image from the mirror signage 400 , the image acquisition unit 242 supplies the captured image to the authentication control unit 243 .
  • the authentication control unit 243 is an example of the authentication control unit 13 described above.
  • the authentication control unit 243 starts the following authentication control process when detecting a person area of a predetermined size or larger from the captured image.
  • the authentication control unit 243 controls face authentication for the face area of the user U included in the captured image to identify the user. That is, the authentication control unit 243 causes the face authentication device 100 to perform face authentication on the photographed image acquired from the mirror signage 400 .
  • the authentication control unit 243 transmits a face authentication request including the acquired photographed image to the face authentication device 100 via the network N.
  • the authentication control unit 243 may extract the face area of the user U from the captured image and include the extracted image in the face authentication request.
  • the authentication control unit 243 may also extract facial feature information from the face area and include the facial feature information in the face authentication request. The authentication control unit 243 then receives the face authentication result from the face authentication device 100 . Thereby, the authentication control unit 243 identifies the user ID of the user.
  • the selection unit 244 is an example of the selection unit 14 described above.
  • the selection unit 244 refers to the user DB 212 and extracts user information associated with the user ID specified by the authentication control unit 243 in the user DB 212 . Based on the user information, the selection unit 244 selects recommended products from products of various manufacturers stored in the product DB 213 . For example, the selection unit 244 analyzes the user's preference or orientation based on the attribute information included in the user information. If the user information includes a usage history, the usage history may be included as a basis for analysis.
  • the selection unit 244 refers to the product DB 213 and selects products having product attributes that match the analysis results from products of various manufacturers stored in the product DB 213 as recommended products.
  • the user information includes the usage history
  • the purchase cycle corresponding to the product type and the purchase history of the product of the product type may be included as the basis for selection. For example, if the user U purchased teak three months ago and the purchase cycle of teak is three months, the product with the product type of teak may be preferentially selected as the recommended product.
  • the user information includes registration information regarding skin type or skin color, the selection may be based on the registration information. For example, the selection unit 244 may preferentially select products having product attributes that match the skin type or skin color of the user as recommended products.
  • the selection unit 244 generates display information based on the product information of the selected recommended product. For example, the selection unit 244 generates display information based on the product name, manufacturer name, and price information of the selected recommended product, and the product image. Further, for example, when order destination information or purchase destination information is included in the product information 2132, the selection unit 244 may generate a display image indicating the order destination or purchase destination as the display information. Alternatively, the selection unit 244 may access a website for ordering/purchasing a recommended product, acquire information on the recommended product, and generate display information based on this information.
  • the display control unit 245 is an example of the display control unit 15 described above.
  • the display control unit 245 transmits the display information generated by the selection unit 244 to the mirror signage 400 and causes the mirror signage 400 to display the information.
  • the response processing unit 246 is also called response processing means. When there is a response from the user U as a result of the display information being displayed by the mirror signage 400, the response processing unit 246 executes processing according to the response. For example, the processing in response to the response is processing for shipping samples of the recommended product using the user's personal information (credit card number and address), processing for ordering the recommended product, payment processing, or shipping processing.
  • FIG. 10 is a sequence diagram showing an example of the flow of user registration processing according to the second embodiment.
  • the user terminal 300 takes an image of the user U (S500), and transmits a user registration request including a registration image generated by the image taking to the server 200 (S501).
  • the registration unit 241 of the server 200 includes the registration image included in the received user registration request in the face registration request and transmits the face registration request to the face authentication device 100 (S502).
  • the face authentication device 100 registers face information (face feature information) of the user U based on the registration image included in the received face registration request (S503).
  • the face authentication device 100 notifies the server 200 of the issued user ID (S504).
  • the user terminal 300 accepts input of user information from the user and transmits the user information to the server 200 (S505).
  • the user information transmitted here includes user attribute information.
  • the registration unit 241 of the server 200 associates the notified user ID and user information with each other and registers them in the user DB 212 (S506).
  • FIG. 11 is a sequence diagram showing an example of the flow of information providing processing according to the second embodiment.
  • the mirror signage 400 transmits the captured image in front of the half mirror 410 captured by the camera 440 to the server 200 (S510). Accordingly, the image acquisition unit 242 of the server 200 acquires the captured image.
  • the authentication control unit 243 of the server 200 executes person detection processing for determining whether or not the photographed image includes a person area of a predetermined size or larger (S511). Here, it is assumed that the person area is included.
  • the authentication control unit 243 of the server 200 transmits a face authentication request for the face area of the user U in the captured image to the face authentication device 100 (S512).
  • the authentication control unit 243 may include the photographed image in the face authentication request, or may include an image obtained by cutting out the person region from the photographed image. Then, the face authentication device 100 performs face authentication on the face area of the user U in the face image included in the received face authentication request (S513). Here, it is assumed that there is a user ID for which face authentication has succeeded.
  • the face authentication device 100 transmits to the server 200 a face authentication result including the success of the face authentication and the user ID (S514).
  • the authentication control unit 243 of the server 200 identifies the user U based on the user ID included in the face authentication result.
  • the selection unit 244 of the server 200 extracts user information associated with the user ID in the user DB 212 (S515). Next, the selection unit 244 selects recommended products from the products stored in the product DB 213 based on the user information (S516). Next, the selection unit 244 generates display information regarding the recommended product based on at least part of the product information of the recommended product (S517).
  • the display control unit 245 of the server 200 transmits the display information to the mirror signage 400 (S518).
  • the display device 420 of the mirror signage 400 displays the display information (S519).
  • FIG. 12 is a diagram showing an example of display on the display device 420 of the mirror signage 400 according to the second embodiment.
  • Display information C ⁇ b>1 and display information C ⁇ b>2 are displayed on the display unit of the display device 420 .
  • the display information C1 includes the manufacturer name, product type, and product image of the recommended product.
  • the display information C2 includes a QR code (registered trademark) indicating the URL of the website for applying for free sample delivery.
  • the user U can use the user terminal 300 to read the QR code and request delivery of the free sample.
  • the response processing unit 246 can accept the request for delivery of the free sample. Upon receiving the request, the response processing unit 246 may use the address information associated with the user ID in the user DB 212 to process the free sample delivery. Therefore, the user does not have to enter an address to request delivery of the sample.
  • the display device 420 may display the photographed image of the user U acquired by the camera 440 in a horizontally reversed manner. However, since the user U is reflected on the mirror signage 400 by the half mirror 410, the display device 420 does not need to display the photographed image of the user U.
  • the server 200 performs face authentication and identity verification when the user uses the mirror, and provides the user with personalized recommended product information.
  • the user does not need any special intention or operation, such as intentionally logging in, in order to obtain information on recommended products.
  • the server 200 selects recommended products based on pre-registered user information (previously collected user information when the user information is a usage history), the user can input, for example, on the spot. No special operation is required. Therefore, the user can easily obtain information on products that suit him or her while he or she is taking care of his/her appearance and while waiting for a while. This can enhance the sales promotion effect.
  • Embodiment 2 can be modified as follows.
  • the display control unit 245 may cause the display device 420 of the mirror signage 400 to output the display information in a display mode according to the position of the user's U face.
  • a display mode is a display position as an example.
  • the selection unit 244 selects the type of recommended product (for example, foundation, lip, or cheek) stored in the product DB 213 or the information on the part to which the product is applied, and the part of the user U's face included in the captured image. location.
  • FIG. 13 is a diagram showing an example of display on the display device 420 of the mirror signage 400 according to the second embodiment.
  • the display position is a position corresponding to the cheek of the user U included in the captured image.
  • the display device 420 that has received the display information and the display position information from the server 200 displays the display information C3 in association with the cheek of the user U on the mirror signage 400 based on the display position information.
  • the display information C3 includes the manufacturer name, product type, and product image of the recommended product.
  • the display information may be a simulation image when the user U uses the recommended product.
  • the product DB 213 stores style data for generating a simulation image in association with the product ID.
  • style data includes color information or texture information of the product.
  • the selection unit 244 reads style data of recommended products from the product DB 213 in order to generate a simulation image. Based on the captured image of the user U and the style data, the selection unit 244 generates a simulation image in which the recommended product is applied to the position of the part of the face of the user U included in the captured image. The display control unit 245 then transmits the simulation image as display information to the mirror signage 400 for display.
  • FIG. 14 is a diagram showing an example of display on the display device 420 of the mirror signage 400 according to the second embodiment.
  • Display device 420 displays display information C4 including the manufacturer name and product type, display information C5 including the QR code indicating the URL of the website of the purchaser, and simulation image C6.
  • the simulation image C6 may include the photographed image of the user U, but it does not have to be included.
  • the simulation image C6 may be an image of the cheek when cheeks are used. In this case, the simulation image C6 of the cheek is displayed on the user's figure reflected on the half mirror 410 .
  • the user U can use the user terminal 300 to read the QR code, place an order, and make a payment. Orders and payments can be made by the response processing unit 246 .
  • the response processing unit 246 may perform order and payment processing using the credit card number associated with the user ID in the user DB 212 .
  • the response processing unit 246 may use the address information associated with the user ID to perform product delivery processing. Therefore, users are not required to enter credit card numbers or addresses for ordering, payment and delivery.
  • the display device 420 may display not only the display information described above, but also advertisements of product providers.
  • the display control unit 245 of the server 200 may transmit the advertisement data of the product provider to the mirror signage 400 and cause the display device 420 to display the advertisement data.
  • Embodiment 3 is characterized in that the server detects an operation from the user and executes processing according to the operation.
  • FIG. 15 is a block diagram showing the configuration of the server 200a according to the third embodiment.
  • the server 200 a has basically the same configuration and functions as the server 200 .
  • the server 200a differs from the server 200 in that it includes a storage unit 210a and a control unit 240a instead of the storage unit 210 and the control unit 240.
  • FIG. 15 is a block diagram showing the configuration of the server 200a according to the third embodiment.
  • the server 200 a has basically the same configuration and functions as the server 200 .
  • the server 200a differs from the server 200 in that it includes a storage unit 210a and a control unit 240a instead of the storage unit 210 and the control unit 240.
  • the storage unit 210a stores a program 211a instead of the program 211 and a user DB 212a instead of the user DB 212.
  • the program 211a is a computer program in which the processing of the information processing method according to the third embodiment is implemented.
  • the user DB 212a differs from the user DB 212 in that it stores an operation history 2123 and privilege information 2124 in association with the user ID 2121.
  • the operation history 2123 is a history of operations performed by the user in response to the display.
  • the privilege information 2124 is information on privileges acquired by the user.
  • the privilege information 2124 may be, for example, points given, coupons, or information regarding an increase in the maximum number of deliveries of free samples.
  • the privilege information 2124 may also include expiration date information of the privilege.
  • the control unit 240a differs from the control unit 240 in that it includes a display control unit 245a and a response processing unit 246a instead of the display control unit 245 and the response processing unit 246.
  • the response processing unit 246a detects user operations and executes processing according to the operations. In order to execute such processing, the response processing unit 246a may include, for example, an operation detection unit 247, an operation recording unit 248, and a privilege provision unit 249.
  • the operation detection unit 247 is also called operation detection means.
  • the operation detection unit 247 detects an operation by the user from the captured image of the user U when the display information is displayed on the mirror signage 400 .
  • the operation detection unit 247 may recognize that a selection operation has been performed when it detects that the user U has held up his hand or pointed his finger at the operation area included in the display information from the captured image.
  • a predetermined gesture for example, a finger gesture such as moving a finger from right to left
  • the operation detection unit 247 may accept execution of processing determined corresponding to the gesture. good.
  • the response processing unit 246a executes processing according to the operation. For example, in response to an operation requesting display of a simulation image, the response processing unit 246a generates a simulation image when the user uses the recommended product, and supplies the simulation image to the display control unit 245a.
  • a simulation image generation method may be the same as the method described in the second embodiment.
  • the response processing unit 246a may perform the same processing as the processing received from the user terminal 300 that has read the QR code described above.
  • the processing according to the operation is the delivery of free samples of recommended products using the user's personal information (credit card number and address). processing, order processing for recommended products, payment processing, or delivery processing.
  • the operation recording unit 248 is also called operation recording means.
  • the operation recording unit 248 records the operation history in the user DB 212a in association with the user ID. For example, the operation recording unit 248 records the operation date and operation type in the user DB 212a as an operation history. At this time, the operation recording unit 248 may calculate the total number of operations or the number of operations or the frequency of operations for each type of operation, and record the calculated numbers in the operation history. Further, the operation recording unit 248 may record the manufacturer information of the recommended product related to the operation by including it in the operation history.
  • the privilege granting unit 249 is also called privilege granting means.
  • the privilege giving unit 249 gives the user U a privilege according to the operation history. For example, the privilege granting unit 249 reads the operation history stored in the user DB 212a at a predetermined timing.
  • the benefit granting unit 249 grants a greater number of benefits to the user U as the total number of operations, the number of operations of a predetermined operation type (for example, the number of trials or the number of purchases), or the number of manufacturers of products that the user has tried or purchased. do.
  • to try may be to request display of a simulation image, or to request delivery of a free sample.
  • the user U can be urged to deliver simulations and free samples.
  • the display control unit 245a transmits the result of processing according to the operation to the mirror signage 400 and causes the display device 420 to display it.
  • FIG. 16 is a sequence diagram showing a modification of the flow of information provision processing according to the third embodiment.
  • the information processing system 1000 executes processing similar to S510 to S518. Accordingly, the display information related to the recommended product is displayed on the display device 420 of the mirror signage 400 (S519).
  • the camera 440 of the mirror signage 400 takes an image of the user U who is displaying the display information (S530), and transmits the taken image to the server 200a.
  • the operation detection unit 247 of the response processing unit 246a of the server 200a detects the operation of the user U from the captured image (S532).
  • the response processing unit 246a executes processing according to the operation (S533).
  • the operation recording unit 248 of the response processing unit 246a associates the operation history with the user ID and records it in the user DB 212a (S534).
  • the privilege granting unit 249 of the response processing unit 246a grants the user a privilege corresponding to the operation history 2123 of the user DB 212a, and records the privilege information in the user DB 212a in association with the user ID (S535).
  • the privilege granting process shown in S535 may be performed each time the operation history is updated, or may be performed when a predetermined amount of updated operation history is accumulated. Moreover, privilege provision processing may be performed periodically.
  • FIG. 17 is a diagram showing an example of a captured image 500 according to the third embodiment.
  • Display device 420 of mirror signage 400 currently displays display information C6 including the manufacturer name and product type of the recommended product, and display information C7 that is an operation area related to the recommended product.
  • the display information C7 in FIG. 17 is an operation area for requesting a virtual trial, it is not limited to this.
  • the display information C7 may be an operation area for requesting viewing of detailed product information of the recommended product, or an operation area for requesting access to the website or EC site of the recommended product. good too.
  • FIG. 17 shows the currently displayed display images C6 to C7 for explanation, these are not included in the photographed image 500.
  • the operation detection unit 247 of the response processing unit 246a of the server 200a performs an operation based on the position of the user's hand H or finger F in the captured image 500 and the display position of the display information C7 displayed on the display device 420. To detect. For example, if the distance between the position of the user's hand H or finger F in the captured image 500 and the display position of the display information C7 displayed on the display device 420 is less than a predetermined threshold, the operation detection unit 247 It may be determined that an operation for selecting information C7 has been performed.
  • the response processing unit 246a executes simulation image generation processing as processing according to the selection operation.
  • the display control unit 245a then transmits the simulation image to the mirror signage 400 and causes the display device 420 to display it.
  • the display device 420 displays a display similar to that shown in FIG.
  • the server 200a detects a simple action of the user U as an operation by image analysis. or the recommended product itself can be ordered and settled. Moreover, it is hygienic because the operation is completed without touch. Even if the mirror signage 400 is a touch panel and can detect touch operations, it is effective in that it can be easily operated.
  • the third embodiment can be modified as follows.
  • the response processing unit 246a as processing according to the operation of the user U, generates guidance data indicating the section of the recommended product to be operated. good.
  • the display control unit 245 may transmit the guidance data to the mirror signage 400 and cause the display device 420 to display the guidance data.
  • the privilege granting unit 249 grants to the user U a privilege according to the operation history, for example, a privilege according to the number of times of "simulation” or “delivery of sample”.
  • the display control unit 245 may transmit the current number of “simulation” or “free sample delivery” to the mirror signage 400 and cause the display device 420 to display it.
  • FIG. 18 is a diagram showing an example of display on the display device 420 of the mirror signage 400 according to the third embodiment. Display information C8 is displayed on the display device 420 in FIG. Display information C8 indicates the current trial count. Further, the display information C8 may indicate information as to how many trials are required before the privilege is granted. In this figure, the privilege is a coupon.
  • the privilege granting unit 249 may grant the user U a privilege corresponding to the face authentication history. For example, the privilege granting unit 249 may grant more privileges to the user U as the number of face authentications per predetermined period (that is, the number of logins) increases.
  • the privilege granting unit 249 may grant a privilege according to the operation history to the product provider.
  • a provider is, for example, a manufacturer or a store.
  • the operation recording unit 248 of the server 200a counts the number of user operations related to the recommended product for each recommended product provider, A benefit corresponding to the original number of operations may be given to the provider.
  • the benefit granting unit 249 may grant more benefits to the provider as the number of times of operation of the provider increases.
  • the privilege for the provider may be a reduction in fees for registering the product of the provider. Further, when the advertisement of the provider can be displayed on the display device 420, the privilege for the provider may be to increase the amount of the advertisement of the provider to be displayed or to reduce the advertisement fee.
  • the server 200a may switch the control mode of the recommendation to the selected control mode.
  • FIG. 19 is a diagram showing an example of a captured image 500 according to the third embodiment.
  • the display device 420 of the mirror signage 400 currently displays an operation area I-1 for selecting the business mode and an operation area I-2 for selecting the casual mode.
  • FIG. 17 shows the currently displayed operation areas I-1 and I-2 for explanation, they are not included in the captured image 500.
  • FIG. 19 shows the currently displayed operation areas I-1 and I-2 for explanation, they are not included in the captured image 500.
  • the operation detection unit 247 of the response processing unit 246a of the server 200a detects the position of the user's hand H or finger F in the captured image 500 and the display positions of the operation areas I-1 and I-2 displayed on the display device 420. and to detect selection operations. Then, the selection unit 244 of the server 200 selects a recommended product based on the user information and the selected control mode type. In this example, user U has selected the business mode. Therefore, for example, the selection unit 244 selects, from products stored in the product DB 213, products having product attributes suitable for the user's preference, orientation, skin type or skin color obtained from the user information, and having product attributes suitable for business. may be selected as recommended products.
  • the setting of the control mode does not necessarily require the selection operation by the user U, and may be set in advance according to, for example, the installation location of the mirror signage 400 (display device 420) or the date and time of face authentication.
  • the selection unit 244 preferentially selects business-oriented products as recommended products when the mirror signage 400 is installed in an office building, and selects casual-style products as recommended products when the mirror signage 400 is installed in a commercial facility.
  • the selection unit 244 preferentially selects business products as recommended products when face authentication is performed during the daytime on weekdays, and preferentially selects casual style products as recommended products when face authentication is performed on holidays. You can choose to Also by this, the improvement of the satisfaction of the user U and the improvement of the sales promotion effect can be played.
  • the hardware configuration is described, but it is not limited to this.
  • the present disclosure can also implement arbitrary processing by causing a processor to execute a computer program.
  • the program includes instructions (or software code) that, when read into a computer, cause the computer to perform one or more of the functions described in the embodiments.
  • the program may be stored in a non-transitory computer-readable medium or tangible storage medium.
  • computer readable media or tangible storage media may include random-access memory (RAM), read-only memory (ROM), flash memory, solid-state drives (SSD) or other memory technology, CDs - ROM, digital versatile disc (DVD), Blu-ray disc or other optical disc storage, magnetic cassette, magnetic tape, magnetic disc storage or other magnetic storage device.
  • the program may be transmitted on a transitory computer-readable medium or communication medium.
  • transitory computer readable media or communication media include electrical, optical, acoustic, or other forms of propagated signals.
  • the selection unit 244 selects recommended products having product attributes corresponding to preference, orientation, or skin quality or skin color estimated from user information.
  • the selection unit 244 is not limited to this, and may estimate a personal color based on user information and select recommended products having product attributes that match the personal color. By adopting such a configuration, it is possible to make a recommendation that reflects the personal color of the user U, and it is possible to give the user U the impression that the recommended product is special. As a result, the sales promotion effect is improved.
  • the selection unit 244 may add, as a basis for selecting recommended products, features of appearance such as the user U's complexion, clothes, or hairstyle on that day, which can be grasped from the photographed image for face authentication. That is, when the face authentication is successful, the selection unit 244 selects information on preferences, orientation characteristics, skin texture or skin color estimated based on the user information, and appearance estimated based on the photographed image for face authentication. Select recommended products based on characteristics. The selection unit 244 may also diagnose the above-described personal color based on the features of the appearance. By adopting such a configuration, it is possible to make a recommendation in consideration of the appearance of the day, and it is possible to give the user U the impression that the recommended product is special. As a result, the sales promotion effect is improved.
  • features of appearance such as the user U's complexion, clothes, or hairstyle on that day, which can be grasped from the photographed image for face authentication. That is, when the face authentication is successful, the selection unit 244 selects information on preferences, orientation characteristics, skin texture or skin
  • the face authentication device 100 has the face authentication function, but instead of or in addition to the face authentication device 100, the servers 200 and 200a may have the face authentication function.
  • the mirror is a half mirror
  • the information processing apparatus according to appendix 1 wherein the display device is provided on the back side of the mirror.
  • the process according to the operation is a delivery process of a sample of the recommended product, an order process of the recommended product, a payment process, or a delivery process using the user's pre-registered personal information.
  • Information processing equipment is a delivery process of a sample of the recommended product, an order process of the recommended product, a payment process, or a delivery process using the user's pre-registered personal information.
  • the process according to the operation is a process of generating a simulation image when the user uses the recommended product, 5.
  • the response processing means detects the operation based on the position of the user's hand or finger in the captured image and the display position of the operation area related to the recommended product displayed on the display device. 6.
  • Appendix 7) 7.
  • the information processing apparatus according to any one of appendices 1 to 9, wherein the selection means selects at least one product from a plurality of products as the recommended product based on the user information and the type of control mode. . (Appendix 11) 11. Any one of appendices 1 to 10, wherein, if the face authentication is successful, the selection means selects the recommended product based on the user information and appearance features estimated based on the captured image.
  • the information processing device according to .
  • (Appendix 12) an information processing device; Equipped with a face recognition device and The information processing device is When the user is positioned in front of the mirror, the matching result between the facial feature information extracted from the photographed image in which at least the face of the user is photographed and the facial feature information of a plurality of persons registered in advance is authentication control means acquired from the face authentication device; selection means for selecting at least one product from a plurality of products as a recommended product based on pre-registered user information related to the user when the matching result indicates that the face authentication was successful; An information processing system comprising display control means for outputting display information related to the recommended product to a display device provided in association with the mirror. (Appendix 13) 13. The information processing system according to appendix 12, further comprising the display device.

Landscapes

  • Business, Economics & Management (AREA)
  • Engineering & Computer Science (AREA)
  • Finance (AREA)
  • Accounting & Taxation (AREA)
  • Strategic Management (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Development Economics (AREA)
  • Physics & Mathematics (AREA)
  • Economics (AREA)
  • Marketing (AREA)
  • General Business, Economics & Management (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • Entrepreneurship & Innovation (AREA)
  • Game Theory and Decision Science (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

情報処理装置(10)は、ユーザがミラーの前に位置した場合、ユーザの少なくとも顔が撮影された撮影画像から抽出された顔特徴情報と、予め登録された複数の人物の顔特徴情報との間の照合結果を取得する認証制御部(13)と、照合結果が、顔認証が成功したことを示す場合、予め登録されたユーザに関連するユーザ情報に基づいて、複数の商品から少なくとも1つの商品を推奨商品として選択する選択部(14)と、推奨商品に関連する表示情報を、ミラーに対応付けて設けられる表示装置に出力する表示制御部(15)とを備える。

Description

情報処理装置、情報処理システム、情報処理方法、及び非一時的なコンピュータ可読媒体
 本開示は情報処理装置、情報処理システム、情報処理方法、及び非一時的なコンピュータ可読媒体に関し、特にユーザにレコメンド情報を提供する情報処理装置、情報処理システム、情報処理方法、及び非一時的なコンピュータ可読媒体に関する。
 ユーザに合った化粧品をレコメンドする方法が提案されている。例えば特許文献1では、第1ユーザの本人認証が成功した場合、第1ユーザの好みに基づいて類似ユーザを選定し、類似ユーザの化粧に使用される化粧品に関する化粧品情報を、表示装置に表示するメイクアップ支援装置が開示されている。
国際公開第2018/029963号
 ここで、ユーザが化粧品を購入する目的で意図的にログインするといったユーザの特別の意図を要せずに、ユーザに合った化粧品をレコメンドできるようにすることで、販促効果を高めたいというニーズがある。これは化粧品に限らず、その他の商品についても同様である。
 本開示の目的は、上述した課題に鑑み、販促効果を向上できる情報処理装置、情報処理システム、情報処理方法、及び非一時的なコンピュータ可読媒体を提供することにある。
 本開示の一態様にかかる情報処理装置は、
 ユーザがミラーの前に位置した場合、前記ユーザの少なくとも顔が撮影された撮影画像から抽出された顔特徴情報と、予め登録された複数の人物の顔特徴情報との間の照合結果を取得する認証制御手段と、
 前記照合結果が、顔認証が成功したことを示す場合、予め登録された前記ユーザに関連するユーザ情報に基づいて、複数の商品から少なくとも1つの商品を推奨商品として選択する選択手段と、
 前記推奨商品に関連する表示情報を、前記ミラーに対応付けて設けられる表示装置に出力する表示制御手段と
 を備える。
 本開示の一態様にかかる情報処理システムは、
 情報処理装置と、
 顔認証装置と
 を備え、
 前記情報処理装置は、
 ユーザが、前記ユーザ側にミラーが付加された表示装置の前に位置した場合、前記ユーザの少なくとも顔が撮影された撮影画像から抽出された顔特徴情報と、予め登録された複数の人物の顔特徴情報との間の照合結果を、前記顔認証装置から取得する認証制御手段と、
 前記照合結果が、顔認証が成功したことを示す場合、予め登録された前記ユーザに関連するユーザ情報に基づいて、複数の商品から少なくとも1つの商品を推奨商品として選択する選択手段と、
 前記推奨商品に関連する表示情報を、前記表示装置に出力する表示制御手段と
 を有する。
 本開示の一態様にかかる情報処理方法は、
 ユーザがミラーの前に位置した場合、前記ユーザの少なくとも顔が撮影された撮影画像から抽出された顔特徴情報と、予め登録された複数の人物の顔特徴情報との間の照合結果を取得し、
 前記照合結果が、顔認証が成功したことを示す場合、予め登録された前記ユーザに関連するユーザ情報に基づいて、複数の商品から少なくとも1つの商品を、推奨商品として選択し、
 前記推奨商品に関連する表示情報を、前記ミラーに対応付けて設けられる表示装置に出力する。
 本開示の一態様にかかる非一時的なコンピュータ可読媒体は、
 ユーザがミラーの前に位置した場合、前記ユーザの少なくとも顔が撮影された撮影画像から抽出された顔特徴情報と、予め登録された複数の人物の顔特徴情報との間の照合結果を取得する手順と、
 前記照合結果が、顔認証が成功したことを示す場合、予め登録された前記ユーザに関連するユーザ情報に基づいて、複数の商品から少なくとも1つの商品を推奨商品として選択する手順と、
 前記推奨商品に関連する表示情報を、前記ミラーに対応付けて設けられる表示装置に出力する手順と
 をコンピュータに実行させるためのプログラムが格納される。
 本開示により、ユーザの特別の意図を要せずに商品をレコメンドできるため、販促効果を向上できる情報処理装置、情報処理システム、情報処理方法、及び非一時的なコンピュータ可読媒体を提供できる。
実施形態1にかかる情報処理装置の構成を示すブロック図である。 実施形態1にかかる情報処理方法の流れを示すフローチャートである。 実施形態2にかかる情報処理システムの全体構成を示すブロック図である。 実施形態2にかかるミラーサイネージの構成を示すブロック図である。 実施形態2にかかる顔認証装置の構成を示すブロック図である。 実施形態2にかかる顔情報登録処理の流れを示すフローチャートである。 実施形態2にかかる顔認証処理の流れを示すフローチャートである。 実施形態2にかかるユーザ端末の構成を示すブロック図である。 実施形態2にかかるサーバの構成を示すブロック図である。 実施形態2にかかるユーザ登録処理の流れの一例を示すシーケンス図である。 実施形態2にかかる情報提供処理の流れの一例を示すシーケンス図である。 実施形態2にかかるミラーサイネージの表示装置の表示の一例を示す図である。 実施形態2にかかるミラーサイネージの表示装置の表示の一例を示す図である。 実施形態2にかかるミラーサイネージの表示装置の表示の一例を示す図である。 実施形態3にかかるサーバの構成を示すブロック図である。 実施形態3にかかる情報提供処理の流れの変形例を示すシーケンス図である。 実施形態3にかかる撮影画像の一例を示す図である。 実施形態3にかかるミラーサイネージの表示装置の表示の一例を示す図である。 実施形態3にかかる撮影画像の一例を示す図である。
 以下では、本開示の実施形態について、図面を参照しながら詳細に説明する。各図面において、同一又は対応する要素には同一の符号が付されており、説明の明確化のため、必要に応じて重複説明は省略される。
 <実施形態の課題>
 ここで、実施形態の課題について改めて説明する。
 百貨店などの化粧品を販売する店舗では、店員が顧客に合った化粧品を提案している。しかし感染症蔓延の影響で、対面でのサービスを避ける顧客が増えており、実店舗での化粧品の売り上げ低下が問題となっている。化粧品は、顧客1人1人の好みや肌質が深く関わるため、店頭でレコメンドすることができない場合、顧客へ効果的に遡及することが難しいという問題がある。
 そこで上述の特許文献1のように、ユーザに合った化粧品をレコメンドする方法が提案されている。しかしユーザが化粧品を購入する目的で意図的にログインしなければならない、あるいは煩雑な入力操作を要するといった、ユーザの特別の意図又は操作が必要となると、販促効果が限定的になってしまう。またユーザの特別の操作が必要となることも、販促効果を限定的にする要因となってしまう。したがって、ユーザの特別の意図又は操作を要せずに化粧品をレコメンドできるようにすることで、販促効果を高めることが求められる。
 上述の課題は、化粧品において特に顕著であるが、化粧品に限らずその他の商品についても同様である。本実施形態は、このような課題を解決するためになされたものである。
 <用語の説明>
 以下では、下記の用語を次のように定義する。
 「ユーザID」はユーザを識別する情報である。「ユーザID」は、ユーザ名であってもよいし、ユーザの電話番号、クレジットカード番号又はその他の識別番号であってもよい。
 「ユーザ情報」は、ユーザに関連する情報である。「ユーザ情報」は、ユーザの属性情報を含む。また「ユーザ情報」は、ユーザの利用履歴やユーザの入力情報を含んでもよい。
 「商品」は、実店舗又はオンライン店舗で販売されている任意の商品である。「商品」は、化粧品、衣服、帽子、アクセサリ、鞄、靴、又はユーザが身に着けることが可能なその他の商品が好ましい。しかし「商品」は、ユーザが身に着けることができない商品であってもよい。
 「利用履歴」は、ユーザが商品を取り扱う実店舗を利用したこと、実店舗又はオンラインで商品を注文若しくは購入したこと、及び試供品の配送要求をしたことの少なくとも1つを示す。
 <実施形態1>
 次に本開示の実施形態1について説明する。図1は、実施形態1にかかる情報処理装置10の構成を示すブロック図である。情報処理装置10は、ミラーの前に位置するユーザに対して商品をレコメンドするコンピュータ装置である。ミラーの前に位置することは、ミラーの前に立つこと又はミラーの前に座ることであってよい。例えばユーザは、身だしなみを整えるためにミラーの前に立つ。
 情報処理装置10は、ネットワーク(不図示)に接続される。ネットワークは、有線であっても無線であってもよい。ネットワークには、ミラーに対応付けて設けられる表示装置(不図示)が接続されていてよい。情報処理装置10は、認証制御部13と、選択部14と、表示制御部15とを備える。
 認証制御部13は、認証制御手段とも呼ばれる。認証制御部13は、ユーザがミラーの前に位置した場合、ユーザの少なくとも顔が撮影された撮影画像から抽出された顔特徴情報と、予め登録された複数の人物の顔特徴情報との間の照合結果を取得する。つまり認証制御部13は、ミラーの前に位置するユーザの顔認証結果を取得する。これにより認証制御部13は、ユーザを特定する。例えば認証制御部13はユーザIDを特定する。
 選択部14は、選択手段とも呼ばれる。選択部14は、認証制御部13が取得した照合結果が、顔認証が成功したことを示す場合、ユーザ情報に基づいて、複数の商品から少なくとも1つの商品を推奨商品として選択する。ユーザ情報は、ユーザと対応付けてユーザデータベース(DB)(不図示)に予め登録されている。また複数の商品の情報は、予め商品データベース(DB)(不図示)に登録されている。
 表示制御部15は、表示制御手段とも呼ばれる。表示制御部15は、選択部14が選択した推奨商品に関連する表示情報を、上述したミラーに対応付けて設けられる表示装置に出力する。表示情報は、推奨商品の商品情報であってもよいし、推奨商品の購入先を示す情報であってもよいし、推奨商品の試供品の配送又は注文を受け付けるための情報であってもよい。また表示情報は、ユーザが推奨商品を使用した場合のシミュレーション画像であってもよい。出力するとは、送信することであってもよいし、送信して表示させることであってもよい。
 図2は、実施形態1にかかる情報処理方法の流れを示すフローチャートである。まず情報処理装置10の認証制御部13は、ユーザがミラーの前に位置しているか否かを判定する(S10)。例えば認証制御部13は、ミラー周辺の風景を撮影するカメラ(不図示)の映像から所定サイズ以上の人物領域を検出した場合、ユーザがミラーの前に位置すると判定してよい。また認証制御部13は、上記映像から所定サイズ以上の人物領域を所定時間以上検出した場合、ユーザがミラーの前に位置すると判定してもよい。また認証制御部13は、所定の入力操作があった場合や人感センサにより人物を検出した場合に、ユーザがミラーの前に位置すると判定してもよい。
 ユーザがミラーの前に位置していると判定した場合(S10でYes)、認証制御部13は、ユーザの撮影画像から抽出された顔特徴情報と、予め登録された複数の人物の顔特徴情報との間の照合結果を取得する(S11)。例えば認証制御部13は、ユーザの撮影画像を用いて顔認証を実行することで、照合結果(つまり顔認証結果)を取得してよい。また例えば認証制御部13は、ユーザの撮影画像、又は撮影画像から抽出した顔特徴情報を、ネットワークを介して接続される顔認証装置(不図示)に送信し、顔認証装置から照合結果を受信することで、照合結果を取得してもよい。
 次に認証制御部13は、顔認証に成功したか否かを判定する(S12)。顔認証が成功したとは、ユーザといずれかの登録ユーザとの顔特徴情報が一致したことを示す。一致とは、顔特徴情報の一致度が所定値以上であったことを示してよい。
 顔認証に成功しなかった場合(S12でNo)、情報処理装置10は処理を終了する。
 一方、顔認証に成功した場合(S12でYes)、選択部14は、予め登録されたユーザ情報に基づいて推奨商品を選択する(S13)。一例として、選択部14は、予め定められた複数の商品のうち、ユーザ情報に基づいてユーザの好み又は志向性を解析し、好み又は志向性に合致した商品属性を有する商品を推奨商品として選択する。また一例として、選択部14は、予め定められた複数の商品のうち、ユーザ情報に基づいてユーザの好み又は志向性を解析し、好み又は志向性に合致したメーカやブランドの商品を推奨商品として選択する。また一例として、選択部14は、予め定められた複数の商品のうち、ユーザ情報に含まれるユーザの肌質又は肌色に適合する商品属性を有する商品を推奨商品として選択する。
 次に表示制御部15は、推奨商品に関連する表示情報を、表示装置に出力する(S14)。
 このように実施形態1によれば、情報処理装置10は、ユーザがミラーを使用することに伴って顔認証を行って本人確認を実施し、ユーザにパーソナライズした推奨商品の情報を提供する。ユーザは、推奨商品の情報を得るために、意図的にログインする等の特別の意図及び操作を要しない。これにより販促効果を高めることができる。またユーザは、その都度情報を入力する等の特別な操作を要しない。これによっても販促効果を高めることができる。
 <実施形態2>
 次に、本開示の実施形態2について説明する。図3は、実施形態2にかかる情報処理システム1000の全体構成を示すブロック図である。情報処理システム1000は、ミラーを含むミラーサイネージの前に立ったユーザに対して商品をレコメンドするコンピュータシステムである。実施形態2では、一例として「商品」は化粧品である。
 情報処理システム1000は、顔認証装置100と、情報処理装置(以下、サーバと呼ぶ)200と、ユーザ端末300と、ミラーサイネージ400とを備える。各装置及び端末は、ネットワークNを介して互いに接続されている。ネットワークNは、有線又は無線の通信回線である。
 ユーザ端末300は、ユーザが使用する情報端末である。ユーザ端末300は、サーバ200に対してユーザ登録要求を送信する。これにより、ユーザの顔特徴情報が登録され、ユーザIDが発行される。またユーザ端末300は、ユーザ情報をサーバ200に送信し、サーバ200に対して、ユーザIDに対応付けてユーザ情報を登録させる。
 ミラーサイネージ400は、ミラー付きの表示装置である。ミラーサイネージ400は、ミラーとして機能する一方で、表示情報を表示する。ミラーサイネージ400は、ユーザの自宅の洗面台に設けられてよい。またミラーサイネージ400は、不特定多数の人が利用する場所、例えば会社の共有スペース、売店、共用トイレの洗面台(特に女性用トイレ)、エレベータの中又は待合スペースに設けられてもよい。またミラーサイネージ400は、デパートの化粧品売り場の一角に設けられてもよい。
 ミラーサイネージ400には、さらにカメラ(不図示)が設けられていて、ミラーの前に位置するユーザUの少なくとも顔を撮影する。そしてミラーサイネージ400は、撮影画像を、ネットワークNを介してサーバ200に送信する。これによりサーバ200は、撮影画像に人物領域が含まれている場合は、情報提供処理を開始する。
 サーバ200は、上述した情報処理装置10の一例である。サーバ200は、ミラーサイネージ400から撮影画像を受信し、撮影画像に人物が含まれていると判定した場合に、情報提供処理を実施する。サーバ200は、情報提供処理において、撮影画像に基づいて顔認証により特定されたユーザUのユーザ情報に基づいて、推奨商品を決定し、推奨商品に関連する表示情報を生成する。そしてサーバ200は、表示情報をミラーサイネージ400に送信する。ミラーサイネージ400は、受信した表示情報をサーバ200から受信し、表示情報を表示する。
 顔認証装置100は、複数の人物の顔特徴情報を記憶するコンピュータ装置である。また、顔認証装置100は、外部から受信した顔認証要求に応じて、当該要求に含まれる顔画像又は顔特徴情報について、各ユーザの顔特徴情報と照合を行う、顔認証機能を有する。本実施形態2では、顔認証装置100は、ユーザ登録時に、ユーザの顔特徴情報を登録する。そして顔認証装置100は、ミラーサイネージ400から、サーバ200を介して、ミラーサイネージ400の前に立ったユーザの撮影画像を取得し、撮影画像中の顔領域を用いた顔認証を実行する。そして顔認証装置100は、照合結果(顔認証結果)をサーバ200へ返信する。
 図4は、実施形態2にかかるミラーサイネージ400の構成を示すブロック図である。ミラーサイネージ400は、ミラーの一例としてハーフミラー410と、表示装置420と、カメラ440とを有する。
 ハーフミラー410は、ハーフミラーである。しかしこれに代えてハーフミラー410は、その他のビームスプリッタであってもよい。ハーフミラー410は、前方に位置するユーザU側の光の少なくとも一部を反射するため、鏡として機能する。これによりユーザUは自分の姿を確認することができる。またハーフミラー410は、背面側に設けられた表示装置420からの光の少なくとも一部を透過させるため、ユーザUは表示装置420に映された表示情報を閲覧することができる。
 カメラ440は、表示装置420に接続されている。例えばカメラ440は、ハーフミラー410の上部に設けられ、ハーフミラー410の前方の風景を撮影できるように設置されている。ユーザUがハーフミラー410の前に立っている場合は、撮影画像にユーザUの少なくとも顔を含む身体領域が含まれる。カメラ440は、撮影画像を表示装置420に供給する。
 表示装置420は、液晶ディスプレイ又は有機ELディスプレイ等の表示部を含む装置である。また表示装置420は、表示部を有するタブレット端末であってもよい。表示装置420は、ハーフミラー410の背面側に設けられる。表示装置420は、ネットワークNを介してサーバ200から受信した表示情報を表示する。また表示装置420は、カメラ440から取得した、ハーフミラー410の前方に位置するユーザUの撮影画像を左右に回転させて表示することで、ミラーサイネージ400を鏡として機能させてもよい。表示装置420は、ハーフミラー410の全体の領域に配置されていてもよいし、ハーフミラー410の上部の領域に配置されていてもよい。例えば表示装置420は、ハーフミラー410の下から100cmより上の領域に配置されており、概ね、身体の上半身部分に表示情報が表示されるようにしてよい。また表示装置420は、ハーフミラー410の下から180cmより上の領域に配置されており、頭部の付近に表示情報が表示されるようにしてもよい。
 表示装置420は、表示部の他に、ネットワークNとの通信インタフェースである通信部(不図示)と、表示装置420が有するハードウェアの制御を行う制御部(不図示)とを含んでよい。
 図5は、実施形態2にかかる顔認証装置100の構成を示すブロック図である。顔認証装置100は、顔情報DB(DataBase)110と、顔検出部120と、特徴点抽出部130と、登録部140と、認証部150とを備える。顔情報DB110は、ユーザID111と当該ユーザIDの顔特徴情報112とを対応付けて記憶する。顔特徴情報112は、顔画像から抽出された特徴点の集合であり、顔情報の一例である。尚、顔認証装置100は、顔特徴情報112の登録ユーザからの要望に応じて、顔特徴DB110内の顔特徴情報112を削除してもよい。または、顔認証装置100は、顔特徴情報112の登録から一定期間経過後に削除してもよい。
 顔検出部120は、顔情報を登録するための登録画像に含まれる顔領域を検出し、特徴点抽出部130に供給する。特徴点抽出部130は、顔検出部120が検出した顔領域から特徴点を抽出し、登録部140に顔特徴情報を供給する。また、特徴点抽出部130は、サーバ200から受信した撮影画像に含まれる特徴点を抽出し、認証部150に顔特徴情報を供給する。
 登録部140は、顔特徴情報の登録に際して、ユーザID111を新規に発行する。登録部140は、発行したユーザID111と、登録画像から抽出した顔特徴情報112とを対応付けて顔情報DB110へ登録する。認証部150は、顔特徴情報112を用いた顔認証を行う。具体的には、認証部150は、撮影画像から抽出された顔特徴情報と、顔情報DB110内の顔特徴情報112との照合を行う。認証部150は、顔特徴情報の一致の有無をサーバ200に返信する。顔特徴情報の一致の有無は、認証の成否に対応する。尚、顔特徴情報が一致する(一致有)とは、一致度が所定値以上である場合をいうものとする。
 図6は、実施形態2にかかる顔情報登録処理の流れを示すフローチャートである。まず、顔認証装置100は、顔登録要求に含まれるユーザUの登録画像を取得する(S21)。例えば、顔認証装置100は、顔登録要求を、ユーザ端末300からユーザ登録要求を受けたサーバ200から、ネットワークNを介して受け付ける。尚、顔認証装置100は、これに限らず、ユーザ端末300から直接、顔登録要求を受け付けてもよい。次に、顔検出部120は、登録画像に含まれる顔領域を検出する(S22)。次に、特徴点抽出部130は、ステップS22で検出した顔領域から特徴点を抽出し、登録部140に顔特徴情報を供給する(S23)。最後に、登録部140は、ユーザID111を発行し、当該ユーザID111と顔特徴情報112とを対応付けて顔情報DB110に登録する(S24)。なお、顔認証装置100は、顔登録要求元から顔特徴情報112を受信し、ユーザID111と対応付けて顔情報DB110に登録してもよい。
 図7は、実施形態2にかかる顔認証処理の流れを示すフローチャートである。まず、特徴点抽出部130は、認証用の顔特徴情報を取得する(S31)。例えば、顔認証装置100は、サーバ200からネットワークNを介して顔認証要求を受信し、顔認証要求に含まれる撮影画像からステップS21からS23のように顔特徴情報を抽出する。または、顔認証装置100は、サーバ200から顔特徴情報を受信してもよい。次に、認証部150は、取得した顔特徴情報を、顔情報DB110の顔特徴情報112と照合する(S32)。顔特徴情報が一致した場合、つまり、顔特徴情報の一致度が所定値以上である場合(S33でYes)、認証部150は、顔特徴情報が一致したユーザのユーザID111を特定する(S34)。そして認証部150は、顔認証に成功した旨と特定したユーザID111とを、顔認証結果としてサーバ200に返信する(S35)。一致する顔特徴情報が存在しない場合(S33でNo)、認証部150は、顔認証に失敗した旨を、顔認証結果としてサーバ200に返信する(S36)。
 図8は、実施形態2にかかるユーザ端末300の構成を示すブロック図である。ユーザ端末300は、カメラ310と、記憶部320と、通信部330と、表示部340と、入力部350と、制御部360とを備える。
 カメラ310は、制御部360の制御に応じて撮影を行う撮影装置である。記憶部320は、ユーザ端末300の各機能を実現するためのプログラムが格納される記憶装置である。通信部330は、ネットワークNとの通信インタフェースである。表示部340は、表示装置である。入力部350は、ユーザからの入力を受け付ける入力装置である。表示部340及び入力部350は、タッチパネルのように一体的に構成されていてもよい。制御部360は、ユーザ端末300が有するハードウェアの制御を行う。
 図9は、実施形態2にかかるサーバ200の構成を示すブロック図である。サーバ200は、記憶部210と、メモリ220と、通信部230と、制御部240とを備える。記憶部210は、ハードディスク、フラッシュメモリ等の記憶装置である。記憶部210は、プログラム211と、ユーザDB212と、商品DB213とを記憶する。プログラム211は、本実施形態2にかかる情報処理方法の処理が実装されたコンピュータプログラムである。
 ユーザDB212は、ユーザに関連する情報を記憶する。具体的には、ユーザDB212は、ユーザID2121に対応付けて、ユーザ情報2122を記憶する。ユーザID2121は、顔情報登録時に顔認証装置100により発行されるユーザIDである。本実施形態2ではユーザ情報2122は、ユーザの属性情報を含む。属性情報は、年齢、住所、性別、職業及び年収を含んでよい。またユーザ情報2122は、ユーザの肌質又は肌色に関する登録情報又はユーザの利用履歴を含んでもよい。またユーザ情報2122は、ユーザのクレジットカード番号等の個人情報を含んでもよい。
 商品DB213は、商品に関する情報を記憶する。具体的には、商品DB213は、商品ID2131に対応付けて、商品情報2132を記憶する。商品ID2131は、商品を識別する情報である。商品ID2131は、商品名又は商品の型番であってよい。商品情報2132は、商品に関する情報であり、例えばメーカ情報、商品属性、及び商品画像を含んでよい。メーカ情報は、商品を製造販売するメーカのメーカIDや、メーカのグループ会社のIDであってよい。メーカID及びグループIDは、その名称又は識別番号であってよい。商品属性は、商品の属性情報である。例えば商品属性は、商品の種別(例えばスキンケア若しくはメイクアップの別や、ファンデーション、チーク、又はリップの別)、価格、商品を適用させる部位(例えば、肌、頬又は唇)、又は商品に適している肌質若しくは肌色(例えば、乾燥肌向けや色白向け)を含む。また例えば商品属性は、商品の色情報(例えば、ライトベージュ若しくはオークル等の色名称、又はRGB情報)や質感情報(例えばマット又は艶あり)を含んでもよい。
 また商品情報2132は、その商品の試供品若しくはその商品の注文先情報、又はその商品の購入先情報を含んでよい。注文先情報及び購入先情報は、例えば注文や購入を受け付けるオンラインストアのURL(Uniform Resource Locator)を含んでもよい。
 メモリ220は、RAM(Random Access Memory)等の揮発性記憶装置であり、制御部240の動作時に一時的に情報を保持するための記憶領域である。通信部230は、ネットワークNとの通信インタフェースである。
 制御部240は、サーバ200の各構成を制御するプロセッサつまり制御装置である。制御部240は、記憶部210からプログラム211をメモリ220へ読み込ませ、プログラム211を実行する。これにより、制御部240は、登録部241、画像取得部242、認証制御部243、選択部244、表示制御部245及び応答処理部246の機能を実現する。
 登録部241は、登録手段とも呼ばれる。登録部241は、ユーザ端末300から登録画像を受信した場合、顔登録要求を顔認証装置100に送信する。そして登録部241は、顔認証装置100が顔情報を登録し、ユーザIDを発行した場合、そのユーザIDをユーザDB212に登録する。また登録部241は、ユーザ端末300からユーザ登録要求を受信した場合、そのユーザ端末300が使用するユーザのユーザIDに対応付けて、そのユーザのユーザ情報をユーザDB212に登録する。
 画像取得部242は、画像取得手段とも呼ばれる。画像取得部242は、ミラーサイネージ400から撮影画像を受信した場合、撮影画像を認証制御部243に供給する。
 認証制御部243は、上述した認証制御部13の一例である。本実施形態2では認証制御部243は、撮影画像から所定サイズ以上の人物領域を検出した場合、以下の認証制御処理を開始する。認証制御部243は、認証制御処理において、撮影画像に含まれるユーザUの顔領域に対する顔認証を制御し、ユーザを特定する。すなわち、認証制御部243は、ミラーサイネージ400から取得した撮影画像について、顔認証装置100に対して顔認証を行わせる。例えば、認証制御部243は、取得した撮影画像を含めた顔認証要求を、ネットワークNを介して顔認証装置100へ送信する。尚、認証制御部243は、撮影画像からユーザUの顔領域を抽出し、抽出した画像を顔認証要求に含めてもよい。また認証制御部243は、顔領域から顔特徴情報を抽出し、顔特徴情報を顔認証要求に含めてもよい。そして認証制御部243は、顔認証装置100から顔認証結果を受信する。これにより認証制御部243は、ユーザのユーザIDを特定する。
 選択部244は、上述した選択部14の一例である。
 選択部244は、ユーザDB212を参照し、ユーザDB212において、認証制御部243が特定したユーザIDに対応付けられたユーザ情報を抽出する。
 そして選択部244は、ユーザ情報に基づいて、商品DB213に記憶されている各種メーカの商品から推奨商品を選択する。例えば選択部244は、ユーザ情報に含まれる属性情報に基づいて、そのユーザの好み又は志向性を解析する。ユーザ情報に利用履歴が含まれる場合は、解析の基礎に利用履歴を含めてよい。
 そして選択部244は、商品DB213を参照し、商品DB213に記憶されている各種メーカの商品から、解析結果に合致した商品属性を有する商品を推奨商品として選択する。ユーザ情報に利用履歴が含まれる場合は、選択の基礎に、商品種別に応じた購入サイクルと、その商品種別の商品の購入履歴とを含ませてよい。例えばユーザUが3か月前にチークを購入しており、チークの購入サイクルが3か月である場合、商品種別がチークである商品を、優先的に推奨商品として選択してよい。またユーザ情報に肌質又は肌色に関する登録情報が含まれる場合は、選択の基礎に当該登録情報を含めてよい。例えば選択部244は、ユーザの肌質又は肌色に適合する商品属性を有する商品を、優先的に推奨商品として選択してよい。
 そして選択部244は、選択した推奨商品の商品情報に基づいて、表示情報を生成する。例えば選択部244は、選択した推奨商品の商品名、メーカ名及び価格の情報と、商品画像とに基づいて、表示情報を生成する。また例えば商品情報2132に注文先情報又は購入先情報が含まれる場合、選択部244は、注文先又は購入先を示す表示画像を表示情報として生成してもよい。また選択部244は、推奨商品を注文・購入するためのウェブサイトにアクセスして、推奨商品に関する情報を取得し、これに基づいて表示情報を生成してもよい。
 表示制御部245は、上述した表示制御部15の一例である。表示制御部245は、選択部244が生成した表示情報を、ミラーサイネージ400に送信し、ミラーサイネージ400に表示させる。
 応答処理部246は、応答処理手段とも呼ばれる。応答処理部246は、ミラーサイネージ400が表示情報を表示したことにより、ユーザUからの応答があった場合に、応答に応じた処理を実行する。例えば応答に応じた処理は、ユーザの個人情報(クレジットカード番号や住所)を用いた推奨商品の試供品の配送処理、推奨商品の注文処理、決済処理又は配送処理である。
 図10は、実施形態2にかかるユーザ登録処理の流れの一例を示すシーケンス図である。まずユーザ端末300は、ユーザUを撮影し(S500)、撮影により生成された登録画像を含むユーザ登録要求を、サーバ200へ送信する(S501)。そしてサーバ200の登録部241は、受信したユーザ登録要求に含まれる登録画像を、顔登録要求に含ませて、顔認証装置100に送信する(S502)。そして、顔認証装置100は、受信した顔登録要求に含まれる登録画像に基づいて、ユーザUの顔情報(顔特徴情報)を登録する(S503)。そして、顔認証装置100は、発行したユーザIDをサーバ200に通知する(S504)。また、ユーザ端末300は、ユーザからユーザ情報の入力を受け付け、ユーザ情報をサーバ200に送信する(S505)。ここで送信されるユーザ情報は、ユーザの属性情報を含む。サーバ200の登録部241は、通知されたユーザID及びユーザ情報を、互いに対応付けてユーザDB212に登録する(S506)。
 図11は、実施形態2にかかる情報提供処理の流れの一例を示すシーケンス図である。まずミラーサイネージ400は、カメラ440が撮影したハーフミラー410前方の撮影画像を、サーバ200に送信する(S510)。これによりサーバ200の画像取得部242は、撮影画像を取得する。次にサーバ200の認証制御部243は、撮影画像内に所定サイズ以上の人物領域が含まれるかを判定する人物検出処理を実行する(S511)。ここでは、人物領域が含まれるものとする。そしてサーバ200の認証制御部243は、撮影画像内のユーザUの顔領域に対する顔認証要求を、顔認証装置100へ送信する(S512)。このとき認証制御部243は、顔認証要求に撮影画像を含めてもよいが、撮影画像から人物領域を切り出した画像を含めてもよい。そして、顔認証装置100は、受信した顔認証要求に含まれる顔画像内のユーザUの顔領域について顔認証を行う(S513)。ここでは、顔認証に成功したユーザIDがあったものとする。顔認証装置100は、顔認証に成功した旨及びユーザIDを含めた顔認証結果を、サーバ200へ送信する(S514)。顔認証結果に含まれるユーザIDにより、サーバ200の認証制御部243は、ユーザUを特定する。
 サーバ200の選択部244は、ユーザDB212において、ユーザIDに対応付けられたユーザ情報を抽出する(S515)。次に選択部244は、ユーザ情報に基づいて、商品DB213に記憶される商品から、推奨商品を選択する(S516)。次に選択部244は、推奨商品の商品情報の少なくとも一部に基づいて、推奨商品に関する表示情報を生成する(S517)。
 次にサーバ200の表示制御部245は、表示情報をミラーサイネージ400に送信する(S518)。これによりミラーサイネージ400の表示装置420は、表示情報を表示する(S519)。
 図12は、実施形態2にかかるミラーサイネージ400の表示装置420の表示の一例を示す図である。表示装置420の表示部には、表示情報C1と表示情報C2とが表示されている。表示情報C1は、推奨商品のメーカ名、商品種別及び商品画像を含んでいる。表示情報C2は、試供品の配送の申し込み用ウェブサイトのURLを示すQRコード(登録商標)を含んでいる。ユーザUはユーザ端末300を用いてQRコードを読み取り、試供品の配送を要求することができる。試供品の配送の要求は、応答処理部246が受け付けることができる。要求を受けた応答処理部246は、ユーザDB212において、ユーザIDに対応付けられた住所の情報を用いて、試供品の配送処理を行ってよい。したがってユーザが、試供品の配送の要求のために住所を入力する必要はない。
 尚、表示装置420は、カメラ440が取得したユーザUの撮影画像を左右反転して表示してもよい。しかしハーフミラー410によりユーザUの姿がミラーサイネージ400上に映っているため、表示装置420は、ユーザUの撮影画像を表示しなくてもよい。
 このように実施形態2によれば、サーバ200は、ユーザがミラーを使用することに伴って顔認証を行って本人確認を実施し、ユーザにパーソナライズした推奨商品の情報を提供する。ユーザは、推奨商品の情報を得るために、意図的にログインする等の特別の意図及び操作を要しない。またサーバ200は、事前に登録されたユーザ情報(ユーザ情報が利用履歴である場合は、事前に収集されたユーザ情報)に基づいて推奨商品を選択するため、ユーザは、その場で入力する等の特別な操作を要しない。したがってユーザは、身だしなみを整えるついでや、ちょっとした待ち時間に、手軽に自分に合った商品の情報を獲得することができる。これによって販促効果を高めることができる。
 尚、実施形態2は、以下のように変形を加えることも可能である。
 例えば商品が化粧品の場合、表示制御部245は、表示情報を、ユーザUの顔の部位の位置に応じた表示態様で、ミラーサイネージ400の表示装置420に出力させてよい。表示態様は、一例として表示位置である。表示位置については、選択部244が、商品DB213に記憶される推奨商品の種別(例えばファンデーション、リップ又はチーク)又は商品を適用させる部位の情報と、撮影画像に含まれるユーザUの顔の部位の位置とに基づいて決定してよい。
 図13は、実施形態2にかかるミラーサイネージ400の表示装置420の表示の一例を示す図である。例えば推奨商品の種別がチークである場合、表示位置は、撮影画像に含まれるユーザUの頬に対応する位置である。サーバ200から表示情報及び表示位置の情報を受信した表示装置420は、表示位置の情報に基づいて、ミラーサイネージ400上のユーザUの頬に対応付けて表示情報C3を表示する。図13では、表示情報C3は、推奨商品のメーカ名、商品種別及び商品画像を含んでいる。
 尚、表示情報は、ユーザUが推奨商品を使用した場合のシミュレーション画像であってもよい。このとき商品DB213には、商品IDに対応付けて、シミュレーション画像を生成するためのスタイルデータが記憶される。例えばスタイルデータは、その商品の色情報又は質感情報を含む。
 選択部244は、シミュレーション画像を生成するために、推奨商品のスタイルデータを商品DB213から読み出す。そして選択部244は、ユーザUの撮影画像とスタイルデータとに基づいて、撮影画像に含まれるユーザUの顔の部位の位置に、推奨商品を適用させた場合のシミュレーション画像を生成する。そして表示制御部245は、シミュレーション画像を表示情報として、ミラーサイネージ400に送信し、表示させる。
 図14は、実施形態2にかかるミラーサイネージ400の表示装置420の表示の一例を示す図である。表示装置420には、メーカ名及び商品種別を含む表示情報C4と、購入先ウェブサイトのURLを示すQRコードを含む表示情報C5と、シミュレーション画像C6とが表示されている。シミュレーション画像C6は、ユーザUの撮影画像を含んでもよいが、含まなくてもよい。例えばシミュレーション画像C6は、チークを使用した場合の頬部の画像であってもよい。この場合、ハーフミラー410上に映るユーザの姿に頬部のシミュレーション画像C6が表示される。
 尚、ユーザUはユーザ端末300を用いてQRコードを読み取り、注文及び決済をすることができる。注文及び決済は、応答処理部246が行うことができる。応答処理部246は、ユーザDB212において、ユーザIDに対応付けられたクレジットカード番号を用いて注文及び決済処理を行ってよい。また応答処理部246は、ユーザIDに対応付けられた住所の情報を用いて、商品の配送処理を行ってよい。したがってユーザが、注文、決済及び配送のためにクレジットカード番号や住所を入力する必要はない。
 また表示装置420には、上述した表示情報だけでなく、商品提供元の広告を表示してもよい。例えばサーバ200の表示制御部245は、ミラーサイネージ400に商品提供元の広告データを送信し、広告データを表示装置420に表示させてよい。
 <実施形態3>
 次に、本開示の実施形態3について説明する。実施形態3は、サーバが、ユーザからの操作を検出し、操作に応じた処理を実行することに特徴を有する。
 図15は、実施形態3にかかるサーバ200aの構成を示すブロック図である。サーバ200aは、サーバ200と基本的に同様の構成及び機能を有する。ただしサーバ200aは、記憶部210及び制御部240に代えて、記憶部210a及び制御部240aを備える点でサーバ200と異なる。
 記憶部210aは、プログラム211に代えてプログラム211aと、ユーザDB212に代えてユーザDB212aとを記憶する。プログラム211aは、実施形態3にかかる情報処理方法の処理が実装されたコンピュータプログラムである。
 ユーザDB212aは、ユーザID2121に対応付けて、さらに操作履歴2123及び特典情報2124を記憶する点でユーザDB212と異なる。操作履歴2123は、ユーザが、表示に応答して行った操作の履歴である。特典情報2124は、ユーザが獲得した特典に関する情報である。特典情報2124は、例えば付与されたポイント、クーポン、又は試供品の配送限度回数の拡大に関する情報であってよい。また特典情報2124は、特典の有効期限情報を含んでもよい。
 制御部240aは、表示制御部245及び応答処理部246に代えて、表示制御部245a及び応答処理部246aを含む点で、制御部240と異なる。
 応答処理部246aは、応答処理部246の機能の他に、ユーザによる操作を検出し、操作に応じた処理を実行する。このような処理を実行するために、応答処理部246aは、例えば操作検出部247、操作記録部248及び特典付与部249を含んでよい。
 操作検出部247は、操作検出手段とも呼ばれる。操作検出部247は、ミラーサイネージ400が表示情報を表示した場合のユーザUの撮影画像から、ユーザによる操作を検出する。例えば操作検出部247は、撮影画像から、ユーザUが表示情報に含まれる操作領域に手をかざしたことや指をさしたことを検出した場合に、選択操作が行われたと認識してよい。また操作検出部247は、予め定められたジェスチャ(例えば指を右から左に動かす等のフィンガージェスチャ)を撮影画像から検出した場合に、そのジェスチャに対応して定められる処理の実行を受け付けてもよい。
 そして応答処理部246aは、操作に応じた処理を実行する。例えばシミュレーション画像の表示を要求する旨の操作に対しては、応答処理部246aは、ユーザが推奨商品を使用した場合のシミュレーション画像を生成し、シミュレーション画像を表示制御部245aに供給する。シミュレーション画像の生成方法については、実施形態2で説明した方法と同様であってよい。また操作によっては、応答処理部246aは、上述で説明した、QRコードを読み取ったユーザ端末300から受け付けた処理と同様の処理を行ってよい。例えば試供品の配送、又は推奨商品の注文、決済若しくは配送を要求する操作については、操作に応じた処理は、ユーザの個人情報(クレジットカード番号や住所)を用いた推奨商品の試供品の配送処理、推奨商品の注文処理、決済処理又は配送処理である。
 操作記録部248は、操作記録手段とも呼ばれる。操作記録部248は、操作履歴をユーザIDに対応付けてユーザDB212aに記録する。例えば操作記録部248は、操作日及び操作種別を、操作履歴としてユーザDB212aに記録する。このとき操作記録部248は、総操作回数又は操作種別毎の操作回数若しくは操作頻度を算出し、操作履歴に含めて記録してよい。また操作記録部248は、操作に関連する推奨商品のメーカ情報を、操作履歴に含めて記録してもよい。
 特典付与部249は、特典付与手段とも呼ばれる。特典付与部249は、操作履歴に応じた特典を、ユーザUに対して付与する。例えば特典付与部249は、所定のタイミングでユーザDB212aに記憶される操作履歴を読み出す。そして特典付与部249は総操作回数、所定の操作種別の操作回数(例えばお試し回数や購入回数)、又は試した若しくは購入した商品のメーカの数が多いほど、ユーザUに多くの特典を付与する。ここで、試すとは、シミュレーション画像の表示を要求することであってもよいし、試供品の配送を要求することであってもよい。特典を付与することで、ユーザUにシミュレーションや試供品の配送を促すことができる。ここで、シミュレーションや試供品の配送の回数が多いほど、実際の商品を試す機会が増えるため、購買意欲が高くなり、購入につながる可能性が高くなる。したがって、特典を付与することで、結果的に商品の購入を促すことができる。
 表示制御部245aは、操作に応じた処理の結果をミラーサイネージ400に送信し、表示装置420に表示させる。
 図16は、実施形態3にかかる情報提供処理の流れの変形例を示すシーケンス図である。まず情報処理システム1000は、S510~S518と同様の処理を実行する。これによりミラーサイネージ400の表示装置420には推奨商品に関連する表示情報が表示される(S519)。
 次にミラーサイネージ400のカメラ440は、表示情報の表示中のユーザUを撮影し(S530)、撮影画像をサーバ200aに送信する。サーバ200aの応答処理部246aの操作検出部247は、撮影画像からユーザUの操作を検出する(S532)。次に応答処理部246aは、操作に応じた処理を実行する(S533)。次に応答処理部246aの操作記録部248は、操作履歴をユーザIDに対応付けて、ユーザDB212aに記録する(S534)。そして応答処理部246aの特典付与部249は、ユーザに対してユーザDB212aの操作履歴2123に応じた特典を付与し、特典情報をユーザIDに対応付けてユーザDB212aに記録する(S535)。
 尚、S535に示す特典付与処理は、操作履歴が更新される度に行われてもよいし、更新された操作履歴が所定量蓄積された場合に行われてもよい。また特典付与処理は、定期的に行われてもよい。
 ここでS519における表示情報の表示後、ユーザUがシミュレーション画像の表示(いわゆるバーチャルお試し)を希望した場合について説明する。この場合、サーバ200aは、図17に示す撮影画像500を取得する。
 図17は、実施形態3にかかる撮影画像500の一例を示す図である。現在ミラーサイネージ400の表示装置420には、推奨商品のメーカ名及び商品種別を含む表示情報C6と、推奨商品に関連する操作領域である表示情報C7とが表示されている。図17では、表示情報C7は、バーチャルお試しを要求するための操作領域であるが、これに限らない。例えば表示情報C7は、推奨商品の詳細な商品情報の閲覧を要求するための操作領域であってもよいし、推奨商品のウェブサイト又はECサイトへのアクセスを要求するための操作領域であってもよい。尚、図17では説明のため現在表示中の表示画像C6~C7が示されているが、これらは撮影画像500には含まれない。
 サーバ200aの応答処理部246aの操作検出部247は、撮影画像500中のユーザの手H又は指Fの位置と、表示装置420に表示された表示情報C7の表示位置とに基づいて、操作を検出する。例えば操作検出部247は、撮影画像500中のユーザの手H又は指Fの位置と、表示装置420に表示された表示情報C7の表示位置との距離が所定閾値未満であった場合に、表示情報C7の選択操作がなされたと判定してよい。
 本例では、操作検出部247が選択操作を検出すると、応答処理部246aは、選択操作に応じた処理としてシミュレーション画像の生成処理を実行する。そして表示制御部245aは、シミュレーション画像をミラーサイネージ400に送信して表示装置420に表示させる。これにより表示装置420には、上述した図14と同様の表示がなされる。
 このように実施形態3によれば、サーバ200aは、画像解析により、ユーザUの簡単な動作を操作として検出するため、ユーザが推奨商品に興味を示した場合、手軽に操作して、試供品や推奨商品自体を注文したり、決済したりすることができる。しかも操作はタッチレスで完結するため、衛生的である。尚、ミラーサイネージ400がタッチパネルとなっており、タッチ操作を検出できるようになっていても、手軽に操作できるという点で効果を奏する。
 尚、実施形態3は、以下のように変形を加えることも可能である。
 例えばミラーサイネージ400がデパートの化粧品売り場の一角に設けられている場合、応答処理部246aは、ユーザUの操作に応じた処理として、操作対象となる推奨商品の売り場を示す案内データを生成してよい。そして表示制御部245は案内データをミラーサイネージ400に送信し、表示装置420に表示させてよい。これによりユーザUが店員による接客やその他の人との接触を避けたい場合でも、複数の店舗の複数の商品を事前に試した上で、商品を決め、売り場に直行することができる。したがって購入を効果的に促すことができる。
 また上述の説明では、特典付与部249は、操作履歴に応じた特典、例えば「シミュレーション」又は「試供品の配送」の回数に応じた特典を、ユーザUに対して付与するとした。このとき表示制御部245は、現在の「シミュレーション」又は「試供品の配送」の回数をミラーサイネージ400に送信し、表示装置420に表示させてよい。
 図18は、実施形態3にかかるミラーサイネージ400の表示装置420の表示の一例を示す図である。図18の表示装置420には、表示情報C8が表示されている。表示情報C8は、現在のお試しの回数を示している。また表示情報C8は、あと何回のお試しで、特典が付与されるかという情報を示してもよい。本図では特典は、クーポン券である。
 また特典付与部249は、顔認証履歴に応じた特典を、ユーザUに対して付与してもよい。例えば特典付与部249は、所定期間あたりの顔認証回数(すなわちログイン回数)が多いほど、多くの特典をユーザUに付与してよい。
 また特典付与部249は、操作履歴に応じた特典を、商品の提供元に対して付与してもよい。提供元とは、例えばメーカ又は販売店である。この場合、サーバ200aの操作記録部248は、推奨商品の提供元毎に、その推奨商品に関連するユーザの操作回数をカウントし、特典付与部249は、推奨商品の提供元毎に、その提供元の操作回数に応じた特典を、その提供元に対して付与してよい。一例として特典付与部249は、提供元の操作回数が多いほど、提供元に対して多くの特典を付与してよい。提供元に対する特典は、提供元の商品を登録するための手数料を軽減することであってよい。また表示装置420に提供元の広告を表示可能な場合は、提供元に対する特典は、表示する提供元の広告の量を増やしたり、広告料を軽減させることであってもよい。
 またミラーの利用シーンやユーザUの気分・状況に合わせてレコメンドの制御モードを切り替えることが可能であってもよい。例えばユーザUが操作により制御モードを選択したことに応じて、サーバ200aは、レコメンドの制御モードを、選択された制御モードに切り替えてよい。
 図19は、実施形態3にかかる撮影画像500の一例を示す図である。例えば現在ミラーサイネージ400の表示装置420には、ビジネスモードを選択するための操作領域I-1と、カジュアルモードを選択するための操作領域I-2とが表示されている。尚、図17では説明のため現在表示中の操作領域I-1,I-2が示されているが、これらは撮影画像500には含まれない。
 サーバ200aの応答処理部246aの操作検出部247は、撮影画像500中のユーザの手H又は指Fの位置と、表示装置420に表示された各操作領域I-1,I-2の表示位置とに基づいて、選択操作を検出する。そしてサーバ200の選択部244は、ユーザ情報と、選択された制御モードの種別とに基づいて、推奨商品を選択する。本例では、ユーザUはビジネスモードを選択している。したがって例えば選択部244は、商品DB213に記憶される商品から、ユーザ情報から得られるユーザの好み、志向性、肌質又は肌色等に適合する商品属性であり、かつビジネス向きの商品属性を有する商品を、推奨商品として選択してよい。
 これによりミラーの利用シーンやユーザUの気分・状況に合ったレコメンドが実現できる。したがってユーザUの満足度をより高めることができるため、販促効果が向上できる。尚、制御モードの設定は、ユーザUの選択操作を必須とはせず、例えばミラーサイネージ400(表示装置420)の設置場所又は顔認証の日時に応じて予め設定されていてもよい。一例として選択部244は、ミラーサイネージ400がオフィスビルに設置されている場合、ビジネス向けの商品を推奨商品として優先的に選択し、商業施設に設置されている場合、カジュアルスタイルの商品を推奨商品として優先的に選択してよい。また一例として選択部244は、顔認証が平日の昼間である場合、ビジネス向けの商品を推奨商品として優先的に選択し、顔認証が休日である場合、カジュアルスタイルの商品を推奨商品として優先的に選択してよい。これによってもユーザUの満足度の向上及び販促効果の向上を奏することができる。
 上述の実施形態では、ハードウェアの構成として説明したが、これに限定されるものではない。本開示は、任意の処理を、プロセッサにコンピュータプログラムを実行させることにより実現することも可能である。
 上述の例において、プログラムは、コンピュータに読み込まれた場合に、実施形態で説明された1又はそれ以上の機能をコンピュータに行わせるための命令群(又はソフトウェアコード)を含む。プログラムは、非一時的なコンピュータ可読媒体又は実体のある記憶媒体に格納されてもよい。限定ではなく例として、コンピュータ可読媒体又は実体のある記憶媒体は、random-access memory(RAM)、read-only memory(ROM)、フラッシュメモリ、solid-state drive(SSD)又はその他のメモリ技術、CD-ROM、digital versatile disc(DVD)、Blu-ray(登録商標)ディスク又はその他の光ディスクストレージ、磁気カセット、磁気テープ、磁気ディスクストレージ又はその他の磁気ストレージデバイスを含む。プログラムは、一時的なコンピュータ可読媒体又は通信媒体上で送信されてもよい。限定ではなく例として、一時的なコンピュータ可読媒体又は通信媒体は、電気的、光学的、音響的、またはその他の形式の伝搬信号を含む。
 尚、本開示は上記実施形態に限られたものではなく、趣旨を逸脱しない範囲で適宜変更することが可能である。例えば上述の実施形態では、選択部244はユーザ情報から推定される好み、志向性、又は肌質若しくは肌色に応じた商品属性を有する推奨商品を選択するとした。しかし選択部244は、これに限らず、ユーザ情報に基づいてパーソナルカラーを推定し、パーソナルカラーに適合する商品属性を有する推奨商品を選択してもよい。このような構成をとることで、ユーザUのパーソナルカラーを反映させたレコメンドが可能となり、ユーザUに対して推奨商品が特別であるとの印象を与えることが可能となる。その結果、販促効果が向上する。
 また例えば選択部244は、顔認証用の撮影画像から把握できる、その日のユーザUの顔色、服装、又は髪型等の外観の特徴を、推奨商品の選択の基礎に加えてよい。すなわち選択部244は、顔認証に成功した場合、ユーザ情報に基づいて推定される好み、志向性の特徴、肌質若しくは肌色の情報と、顔認証用の撮影画像に基づいて推定される外観の特徴とに基づいて、推奨商品を選択する。また選択部244は、外観の特徴に基づいて、上述したパーソナルカラーを診断してもよい。このような構成をとることで、当日の外観を考慮したレコメンドが可能となり、ユーザUに対して推奨商品が特別であるとの印象を与えることが可能となる。その結果、販促効果が向上する。
 また上述の実施形態では、顔認証機能を顔認証装置100が有していたが、顔認証装置100に代えて又は加えて、サーバ200,200aが顔認証機能を有してもよい。
 上記の実施形態の一部又は全部は、以下の付記のようにも記載されうるが、以下には限られない。
   (付記1)
 ユーザがミラーの前に位置した場合、前記ユーザの少なくとも顔が撮影された撮影画像から抽出された顔特徴情報と、予め登録された複数の人物の顔特徴情報との間の照合結果を取得する認証制御手段と、
 前記照合結果が、顔認証が成功したことを示す場合、予め登録された前記ユーザに関連するユーザ情報に基づいて、複数の商品から少なくとも1つの商品を推奨商品として選択する選択手段と、
 前記推奨商品に関連する表示情報を、前記ミラーに対応付けて設けられる表示装置に出力する表示制御手段と
 を備える情報処理装置。
   (付記2)
 前記ミラーはハーフミラーであり、
 前記表示装置は、前記ミラーの背面側に設けられる
 付記1に記載の情報処理装置。
   (付記3)
 前記ユーザによる操作を検出し、前記操作に応じた処理を実行する応答処理手段を備え、
 前記表示制御手段は、前記操作に応じた処理の結果を前記表示装置に出力する
 付記1又は2に記載の情報処理装置。
   (付記4)
 前記操作に応じた処理は、前記ユーザの、予め登録された個人情報を用いた前記推奨商品の試供品の配送処理、前記推奨商品の注文処理、決済処理又は配送処理である
 付記3に記載の情報処理装置。
   (付記5)
 前記操作に応じた処理は、前記ユーザが前記推奨商品を使用した場合のシミュレーション画像を生成する処理であり、
 前記表示制御手段は、前記シミュレーション画像を前記表示装置に出力する
 付記3又は4に記載の情報処理装置。
   (付記6)
 前記応答処理手段は、前記撮影画像中の前記ユーザの手又は指の位置と、前記表示装置に表示された、前記推奨商品に関連する操作領域の表示位置とに基づいて、前記操作を検出する
 付記3から5のいずれか一項に記載の情報処理装置。
   (付記7)
 前記操作の履歴に応じた特典を、前記ユーザに対して付与する特典付与手段を備える
 付記3から6のいずれか一項に記載の情報処理装置。
   (付記8)
 推奨商品の提供元毎に、その推奨商品に関連する前記ユーザの操作回数をカウントする操作記録手段と、
 推奨商品の提供元毎に、その提供元の前記操作回数に応じた特典を、その提供元に対して付与する特典付与手段と
 を備える付記3から6のいずれか一項に記載の情報処理装置。
   (付記9)
 前記表示制御手段は、前記推奨商品の種別と、前記撮影画像に含まれる前記ユーザの前記顔の部位の位置とに基づいて決定された表示態様により、前記表示情報を前記表示装置に出力する
 付記1から8のいずれか一項に記載の情報処理装置。
   (付記10)
 前記選択手段は、前記ユーザ情報と、制御モードの種別とに基づいて、複数の商品から少なくとも1つの商品を、前記推奨商品として選択する
 付記1から9のいずれか一項に記載の情報処理装置。
   (付記11)
 前記顔認証に成功した場合、前記選択手段は、前記ユーザ情報と、前記撮影画像に基づいて推定される外観の特徴とに基づいて、前記推奨商品を選択する
 付記1から10のいずれか一項に記載の情報処理装置。
   (付記12)
 情報処理装置と、
 顔認証装置と
 を備え、
 前記情報処理装置は、
 ユーザがミラーの前に位置した場合、前記ユーザの少なくとも顔が撮影された撮影画像から抽出された顔特徴情報と、予め登録された複数の人物の顔特徴情報との間の照合結果を、前記顔認証装置から取得する認証制御手段と、
 前記照合結果が、顔認証が成功したことを示す場合、予め登録された前記ユーザに関連するユーザ情報に基づいて、複数の商品から少なくとも1つの商品を推奨商品として選択する選択手段と、
 前記推奨商品に関連する表示情報を、前記ミラーに対応付けて設けられる表示装置に出力する表示制御手段と
 を有する
 情報処理システム。
   (付記13)
 前記表示装置をさらに備える
 付記12に記載の情報処理システム。
   (付記14)
 ユーザがミラーの前に位置した場合、前記ユーザの少なくとも顔が撮影された撮影画像から抽出された顔特徴情報と、予め登録された複数の人物の顔特徴情報との間の照合結果を取得し、
 前記照合結果が、顔認証が成功したことを示す場合、予め登録された前記ユーザに関連するユーザ情報に基づいて、複数の商品から少なくとも1つの商品を、推奨商品として選択し、
 前記推奨商品に関連する表示情報を、前記ミラーに対応付けて設けられる表示装置に出力する
 情報処理方法。
   (付記15)
 ユーザがミラーの前に位置した場合、前記ユーザの少なくとも顔が撮影された撮影画像から抽出された顔特徴情報と、予め登録された複数の人物の顔特徴情報との間の照合結果を取得する手順と、
 前記照合結果が、顔認証が成功したことを示す場合、予め登録された前記ユーザに関連するユーザ情報に基づいて、複数の商品から少なくとも1つの商品を推奨商品として選択する手順と、
 前記推奨商品に関連する表示情報を、前記ミラーに対応付けて設けられる表示装置に出力する手順と
 をコンピュータに実行させるためのプログラムが格納された非一時的なコンピュータ可読媒体。
 10 情報処理装置
 13,243 認証制御部
 14,244 選択部
 15,245,245a 表示制御部
 100 顔認証装置
 110 顔情報DB
 111 ユーザID
 112 顔特徴情報
 120 顔検出部
 130 特徴点抽出部
 140 登録部
 150 認証部
 200,200a 情報処理装置(サーバ)
 210 記憶部
 211 プログラム
 212,212a ユーザDB
 2121 ユーザID
 2122 ユーザ情報
 2123 操作履歴
 2124 特典情報
 213 商品DB
 2131 商品ID
 2132 商品情報
 220 メモリ
 230 通信部
 240,240a 制御部
 241 登録部
 242 画像取得部
 246,246a 応答処理部
 247 操作検出部
 248 操作記録部
 249 特典付与部
 300 ユーザ端末
 310 カメラ
 320 記憶部
 330 通信部
 340 表示部
 350 入力部
 360 制御部
 400 ミラーサイネージ
 410 ハーフミラー
 420 表示装置
 430 制御装置
 431 記憶部
 432 通信部
 433 制御部
 440 カメラ
 500 撮影画像
 1000 情報処理システム
 U ユーザ

Claims (15)

  1.  ユーザがミラーの前に位置した場合、前記ユーザの少なくとも顔が撮影された撮影画像から抽出された顔特徴情報と、予め登録された複数の人物の顔特徴情報との間の照合結果を取得する認証制御手段と、
     前記照合結果が、顔認証が成功したことを示す場合、予め登録された前記ユーザに関連するユーザ情報に基づいて、複数の商品から少なくとも1つの商品を推奨商品として選択する選択手段と、
     前記推奨商品に関連する表示情報を、前記ミラーに対応付けて設けられる表示装置に出力する表示制御手段と
     を備える情報処理装置。
  2.  前記ミラーはハーフミラーであり、
     前記表示装置は、前記ミラーの背面側に設けられる
     請求項1に記載の情報処理装置。
  3.  前記ユーザによる操作を検出し、前記操作に応じた処理を実行する応答処理手段を備え、
     前記表示制御手段は、前記操作に応じた処理の結果を前記表示装置に出力する
     請求項1又は2に記載の情報処理装置。
  4.  前記操作に応じた処理は、前記ユーザの、予め登録された個人情報を用いた前記推奨商品の試供品の配送処理、前記推奨商品の注文処理、決済処理又は配送処理である
     請求項3に記載の情報処理装置。
  5.  前記操作に応じた処理は、前記ユーザが前記推奨商品を使用した場合のシミュレーション画像を生成する処理であり、
     前記表示制御手段は、前記シミュレーション画像を前記表示装置に出力する
     請求項3又は4に記載の情報処理装置。
  6.  前記応答処理手段は、前記撮影画像中の前記ユーザの手又は指の位置と、前記表示装置に表示された、前記推奨商品に関連する操作領域の表示位置とに基づいて、前記操作を検出する
     請求項3から5のいずれか一項に記載の情報処理装置。
  7.  前記操作の履歴に応じた特典を、前記ユーザに対して付与する特典付与手段を備える
     請求項3から6のいずれか一項に記載の情報処理装置。
  8.  推奨商品の提供元毎に、その推奨商品に関連する前記ユーザの操作回数をカウントする操作記録手段と、
     推奨商品の提供元毎に、その提供元の前記操作回数に応じた特典を、その提供元に対して付与する特典付与手段と
     を備える請求項3から6のいずれか一項に記載の情報処理装置。
  9.  前記表示制御手段は、前記推奨商品の種別と、前記撮影画像に含まれる前記ユーザの前記顔の部位の位置とに基づいて決定された表示態様により、前記表示情報を前記表示装置に出力する
     請求項1から8のいずれか一項に記載の情報処理装置。
  10.  前記選択手段は、前記ユーザ情報と、制御モードの種別とに基づいて、複数の商品から少なくとも1つの商品を、前記推奨商品として選択する
     請求項1から9のいずれか一項に記載の情報処理装置。
  11.  前記顔認証に成功した場合、前記選択手段は、前記ユーザ情報と、前記撮影画像に基づいて推定される外観の特徴とに基づいて、前記推奨商品を選択する
     請求項1から10のいずれか一項に記載の情報処理装置。
  12.  情報処理装置と、
     顔認証装置と
     を備え、
     前記情報処理装置は、
     ユーザがミラーの前に位置した場合、前記ユーザの少なくとも顔が撮影された撮影画像から抽出された顔特徴情報と、予め登録された複数の人物の顔特徴情報との間の照合結果を、前記顔認証装置から取得する認証制御手段と、
     前記照合結果が、顔認証が成功したことを示す場合、予め登録された前記ユーザに関連するユーザ情報に基づいて、複数の商品から少なくとも1つの商品を推奨商品として選択する選択手段と、
     前記推奨商品に関連する表示情報を、前記ミラーに対応付けて設けられる表示装置に出力する表示制御手段と
     を有する
     情報処理システム。
  13.  前記表示装置をさらに備える
     請求項12に記載の情報処理システム。
  14.  ユーザがミラーの前に位置した場合、前記ユーザの少なくとも顔が撮影された撮影画像から抽出された顔特徴情報と、予め登録された複数の人物の顔特徴情報との間の照合結果を取得し、
     前記照合結果が、顔認証が成功したことを示す場合、予め登録された前記ユーザに関連するユーザ情報に基づいて、複数の商品から少なくとも1つの商品を、推奨商品として選択し、
     前記推奨商品に関連する表示情報を、前記ミラーに対応付けて設けられる表示装置に出力する
     情報処理方法。
  15.  ユーザがミラーの前に位置した場合、前記ユーザの少なくとも顔が撮影された撮影画像から抽出された顔特徴情報と、予め登録された複数の人物の顔特徴情報との間の照合結果を取得する手順と、
     前記照合結果が、顔認証が成功したことを示す場合、予め登録された前記ユーザに関連するユーザ情報に基づいて、複数の商品から少なくとも1つの商品を推奨商品として選択する手順と、
     前記推奨商品に関連する表示情報を、前記ミラーに対応付けて設けられる表示装置に出力する手順と
     をコンピュータに実行させるためのプログラムが格納された非一時的なコンピュータ可読媒体。
PCT/JP2021/042764 2021-11-22 2021-11-22 情報処理装置、情報処理システム、情報処理方法、及び非一時的なコンピュータ可読媒体 WO2023089816A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
PCT/JP2021/042764 WO2023089816A1 (ja) 2021-11-22 2021-11-22 情報処理装置、情報処理システム、情報処理方法、及び非一時的なコンピュータ可読媒体

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2021/042764 WO2023089816A1 (ja) 2021-11-22 2021-11-22 情報処理装置、情報処理システム、情報処理方法、及び非一時的なコンピュータ可読媒体

Publications (1)

Publication Number Publication Date
WO2023089816A1 true WO2023089816A1 (ja) 2023-05-25

Family

ID=86396532

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2021/042764 WO2023089816A1 (ja) 2021-11-22 2021-11-22 情報処理装置、情報処理システム、情報処理方法、及び非一時的なコンピュータ可読媒体

Country Status (1)

Country Link
WO (1) WO2023089816A1 (ja)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001104050A (ja) * 1999-10-06 2001-04-17 Seiko Epson Corp 画像処理を用いた化粧支援方法および化粧台ならびに画像処理を用いた化粧支援処理プログラムを記録した記録媒体
JP2007216000A (ja) * 2006-01-17 2007-08-30 Shiseido Co Ltd メイクアップシミュレーションシステム、メイクアップシミュレーション装置、メイクアップシミュレーション方法およびメイクアップシミュレーションプログラム
JP2015204033A (ja) * 2014-04-15 2015-11-16 株式会社東芝 健康情報サービスシステム
JP2019034112A (ja) * 2017-08-10 2019-03-07 株式会社ミラーロイド ミラー装置及びプログラム

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001104050A (ja) * 1999-10-06 2001-04-17 Seiko Epson Corp 画像処理を用いた化粧支援方法および化粧台ならびに画像処理を用いた化粧支援処理プログラムを記録した記録媒体
JP2007216000A (ja) * 2006-01-17 2007-08-30 Shiseido Co Ltd メイクアップシミュレーションシステム、メイクアップシミュレーション装置、メイクアップシミュレーション方法およびメイクアップシミュレーションプログラム
JP2015204033A (ja) * 2014-04-15 2015-11-16 株式会社東芝 健康情報サービスシステム
JP2019034112A (ja) * 2017-08-10 2019-03-07 株式会社ミラーロイド ミラー装置及びプログラム

Similar Documents

Publication Publication Date Title
CN105741451B (zh) 信息处理系统及信息处理方法
CN110163715A (zh) 信息推荐方法、装置、设备及系统
JP2012208854A (ja) 行動履歴管理システムおよび行動履歴管理方法
JP5238933B2 (ja) 客層付販売情報生成システム
US20020107741A1 (en) Method and apparatus for determining a price based on satisfaction
JP2006350637A (ja) 商品情報表示システム及び電子棚札
JP6138068B2 (ja) 商品販売データ処理装置及びプログラム
US20170345010A1 (en) Sales assistance method and sales assistance system
JP2004326208A (ja) 顧客管理システム、該システムの機能を実現するプログラム及び記録媒体
US8676628B2 (en) Method and system for determining effectiveness of marketing
US10311457B2 (en) Computerized method and system for automating rewards to customers
KR100961618B1 (ko) 뷰티체험실을 이용한 화장품 판매 관리시스템
JP2017102846A (ja) 接客対応評価装置及び接客対応評価方法
JP6728649B2 (ja) ポイント管理システム、アカウント生成方法、自動販売機及びプログラム
JP2002032558A (ja) 顧客情報管理システムおよびその方法ならびに顧客情報管理プログラムを記録したコンピュータ読み取り可能な記録媒体
JP2015102986A (ja) 情報処理装置、情報処理方法及びシステム
WO2023089816A1 (ja) 情報処理装置、情報処理システム、情報処理方法、及び非一時的なコンピュータ可読媒体
JP2001236417A (ja) サービス提供システム
JP6401333B2 (ja) 商品販売データ処理装置及びプログラム
WO2023073828A1 (ja) 情報処理装置、情報処理システム、情報処理方法及び非一時的なコンピュータ可読媒体
WO2023053325A1 (ja) 情報処理装置、情報処理システム、情報処理方法及び非一時的なコンピュータ可読媒体
WO2023053326A1 (ja) 情報処理装置、情報処理システム、情報処理方法及び非一時的なコンピュータ可読媒体
WO2023053327A1 (ja) 情報処理装置、情報処理システム、情報処理方法及び非一時的なコンピュータ可読媒体
JP4332399B2 (ja) 情報提供方法及び情報提供プログラム
JP2020173671A (ja) 情報収集装置、情報収集システム、情報収集方法及び情報収集プログラム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 21964831

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2023562089

Country of ref document: JP

Kind code of ref document: A