WO2019208152A1 - Information processing device and program - Google Patents

Information processing device and program Download PDF

Info

Publication number
WO2019208152A1
WO2019208152A1 PCT/JP2019/015012 JP2019015012W WO2019208152A1 WO 2019208152 A1 WO2019208152 A1 WO 2019208152A1 JP 2019015012 W JP2019015012 W JP 2019015012W WO 2019208152 A1 WO2019208152 A1 WO 2019208152A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
line
sight
user
information
Prior art date
Application number
PCT/JP2019/015012
Other languages
French (fr)
Japanese (ja)
Inventor
純一郎 河原
智穂 薮崎
恵子 小林
史 今井
Original Assignee
株式会社 資生堂
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社 資生堂 filed Critical 株式会社 資生堂
Publication of WO2019208152A1 publication Critical patent/WO2019208152A1/en

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A45HAND OR TRAVELLING ARTICLES
    • A45DHAIRDRESSING OR SHAVING EQUIPMENT; EQUIPMENT FOR COSMETICS OR COSMETIC TREATMENTS, e.g. FOR MANICURING OR PEDICURING
    • A45D44/00Other cosmetic or toiletry articles, e.g. for hairdressers' rooms
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/50Information retrieval; Database structures therefor; File system structures therefor of still image data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras

Definitions

  • the present invention relates to an information processing apparatus and a program.
  • the selected makeup simulation image is subsequently selected. There are cases where the cap simulation image feels unsuitable for the user's preference, or that the makeup simulation image that has not been selected meets the user's preference.
  • An object of the present invention is to present a user's potential evaluation of the face that the user observes.
  • One embodiment of the present invention provides: Means for presenting an image including a face to a user; Means for acquiring line-of-sight information relating to the movement of the user's line of sight, A means for calculating a user's gaze distribution in the image based on the gaze information; Means for determining recommendation information about the image based on the gaze distribution; Comprising means for presenting recommendation information; Information processing apparatus.
  • FIG. 10 is a diagram illustrating an example of a screen displayed in information processing according to a second modification.
  • FIG. 10 is a diagram illustrating an example of a screen displayed in information processing according to a second modification.
  • FIG. 10 is explanatory drawing of the outline
  • FIG. It is a flowchart of the process of the calculation of the gaze parameter of 4th Embodiment. It is explanatory drawing of calculation of the gaze pattern of FIG. It is explanatory drawing of calculation of the gaze pattern of FIG.
  • 1 and 2 are block diagrams showing the configuration of the information processing system according to the first embodiment.
  • the information processing system 1 includes a client device 10, an eye tracker 20, and a server 30.
  • the client device 10 and the server 30 are connected via a network (for example, the Internet or an intranet) NW.
  • NW for example, the Internet or an intranet
  • the eye tracker 20 is connected to the client device 10.
  • the client device 10 is an example of an information processing device that transmits a request to the server 30.
  • the client device 10 is, for example, a smartphone, a tablet terminal, or a personal computer.
  • the user U can give a user instruction to the client device 10.
  • the eye tracker 20 is configured to detect the movement of the line of sight of the user U and generate an eye tracking signal related to the movement of the line of sight (“example of line of sight information”). Specifically, the eye tracker 20 measures coordinates indicating the position of the user's line of sight at every predetermined time. The eye tracker 20 transmits an eye tracking signal to the client device 10.
  • the server 30 is an example of an information processing apparatus that provides the client apparatus 10 with a response corresponding to the request transmitted from the client apparatus 10.
  • the server 30 is, for example, a web server.
  • the client device 10 includes a storage device 11, a processor 12, an input / output interface 13, a communication interface 14, a display 15, and a camera 16.
  • the storage device 11 is configured to store a program and data.
  • the storage device 11 is, for example, a combination of a ROM (Read Only Memory), a RAM (Random Access Memory), and a storage (for example, a flash memory or a hard disk).
  • the programs include, for example, the following programs.
  • -OS Operating System
  • program-Program for application that executes information processing (for example, application for make-up simulation)
  • the data includes, for example, the following data.
  • -Database referenced in information processing-Data obtained by executing information processing that is, information processing execution result
  • the processor 12 is configured to realize the function of the client device 10 by starting a program stored in the storage device 11.
  • the processor 12 is an example of a computer.
  • the input / output interface 13 acquires a user instruction from an input device connected to the client apparatus 10, outputs information to an output device connected to the client apparatus 10, and acquires an eye tracking signal from the eye tracker 20.
  • the input device is, for example, a keyboard, a pointing device, a touch panel, or a combination thereof.
  • the output device is, for example, the display 15.
  • the communication interface 14 is configured to control communication between the client device 10 and the server 30.
  • the display 15 is configured to display an image generated by the processor 12.
  • the camera 16 is configured to capture an image (for example, an image of the face of the user of the client device 10).
  • the server 30 includes a storage device 31, a processor 32, an input / output interface 33, and a communication interface 34.
  • the storage device 31 is configured to store programs and data.
  • the storage device 31 is, for example, a combination of ROM, RAM, and storage (for example, flash memory or hard disk).
  • the programs include, for example, the following programs.
  • -OS program-Application program that executes information processing
  • the data includes, for example, the following data. ⁇ Database referenced in information processing ⁇ Results of information processing
  • the processor 32 is configured to realize the function of the server 30 by starting a program stored in the storage device 31.
  • the processor 32 is an example of a computer.
  • the input / output interface 33 is configured to acquire a user instruction from an input device connected to the server 30 and output information to an output device connected to the server 30.
  • the input device is, for example, a keyboard, a pointing device, a touch panel, or a combination thereof.
  • the output device is, for example, a display.
  • the communication interface 34 is configured to control communication between the server 30 and the client device 10.
  • FIG. 3 is an explanatory diagram of an overview of the first embodiment.
  • the simulation image SIMG containing the face of a person for example, user U
  • the right eye RE of the user U is arranged on the right side and the left eye LE of the user U is arranged on the left side as shown in a mirror image.
  • an eye tracking signal related to the movement of the line of sight of the user U while observing the simulation image SIMG is generated.
  • the line of sight of the first region GR1 located on the right side that is, including the right eye RE
  • image space the coordinate space
  • the potential evaluation of the user U with respect to the simulation image SIMG is reflected based on the gaze distribution (that is, gaze bias) of the user U in the image space of one simulation image SIMG.
  • Present recommendation information that is, gaze bias
  • FIG. 4 is a diagram illustrating a data structure of the user information database according to the first embodiment.
  • the user information database in FIG. 4 stores user information related to users.
  • the user information database includes a “user ID” field, a “user name” field, a “user image” field, and a “user attribute” field. Each field is associated with each other.
  • a user ID for identifying a user (an example of “user identification information”) is stored.
  • image data of an image including the user's face is stored.
  • the “user attribute” field includes a “sex” field, an “age” field, and an “occupation” field.
  • the “gender” field stores information related to the user's gender.
  • FIG. 5 is a diagram illustrating a data structure of the makeup pattern information master table according to the first embodiment.
  • the makeup pattern information master table of FIG. 5 stores makeup pattern information related to the makeup pattern.
  • the makeup pattern information master table includes a “pattern ID” field, a “pattern name” field, and an “item” field.
  • a makeup pattern ID for identifying a makeup pattern (an example of “makeup pattern identification information”) is stored.
  • pattern name information (for example, text) regarding the pattern name of the makeup pattern is stored.
  • the “Item” field item information related to makeup items used in the makeup simulation is stored.
  • the “item” field includes a “category” field, an “item ID” field, and a “parameter” field.
  • the “category” field, the “item ID” field, and the “parameter” field are associated with each other.
  • an item ID (an example of “makeup item identification information”) for identifying a makeup item is stored.
  • a makeup parameter related to the effect of using the makeup item is stored.
  • the makeup parameter is, for example, an image processing parameter (for example, a color conversion parameter for converting color information of pixels of the original image) to be applied to the original image (for example, an image of the face of the user U).
  • FIG. 6 is a diagram illustrating a data structure of the simulation log information database according to the first embodiment.
  • the simulation log information database of FIG. 6 information related to the result of the make-up simulation is stored in time series.
  • the simulation log information database includes a “simulation ID” field, a “simulation execution date” field, a “simulation condition” field, an “eye tracking signal” field, and a “line-of-sight distribution” field.
  • the simulation log information database is associated with the user ID.
  • simulation ID a simulation ID for identifying a makeup simulation (an example of “simulation identification information”) is stored.
  • the “Simulation condition” field information related to the simulation condition of the make-up simulation is stored.
  • the “simulation condition” field includes an “original image” field and a “pattern” field.
  • image data of an original image (for example, an image of the face of the user U) that is a target of the make-up simulation is stored.
  • a makeup pattern ID of a makeup pattern applied to the image data in the “original image” field is stored.
  • the eye tracking signal generated by the eye tracker 20 is stored in the “eye tracking signal” field.
  • the “eye tracking signal” field includes a “measurement coordinate” field and a “measurement time” field.
  • the “measurement coordinate” field and the “measurement time” field are associated with each other.
  • measurement coordinates indicating the position of the user's line of sight in the image space are stored.
  • the “measurement time” field stores measurement time information related to the timing when the eye tracker 20 generates the eye tracking signal.
  • the measurement time information is, for example, an elapsed time from when the eye tracker 20 starts generating an eye tracking signal.
  • the movement of the line of sight of the user U is specified by the combination of the coordinates of the “measurement coordinate” field and the information of the “measurement time” field.
  • the line-of-sight distribution In the “line-of-sight distribution” field, the line-of-sight distribution derived from the information in the “eye tracking signal” field (an example of “line-of-sight parameter”) is stored.
  • the line-of-sight distribution indicates the distribution of the line of sight of the user in the image space of the makeup simulation image.
  • the “line-of-sight distribution” field includes an “R distribution” field and an “L distribution” field.
  • the distribution ratio of the user's line of sight in the first region on the right side (that is, the right side from the observer) with respect to the makeup simulation image is stored. Is done.
  • the distribution ratio of the user's line of sight in the second region on the left side (that is, the left side from the observer) with respect to the makeup simulation image is stored. Is done.
  • FIG. 7 is a flowchart of information processing according to the first embodiment.
  • 8 to 10 are diagrams showing examples of screens displayed in the information processing of FIG.
  • FIG. 11 is a detailed flowchart of the line-of-sight parameter calculation of FIG.
  • FIG. 12 is an explanatory diagram of the calculation of the line-of-sight parameter in FIG.
  • the client device 10 executes determination of an original image (S100). Specifically, the processor 12 displays the screen P100 (FIG. 8) on the display 15.
  • Screen P100 includes an image object IMG100.
  • the image object IMG100 includes an image of the face of the user U.
  • the image object IMG100 is, for example, one of the following.
  • An image stored in advance in the storage device 11 An image reproduced from the image data in the “user image” field of the user information database (FIG. 4)
  • the client apparatus 10 executes generation of a make-up simulation image (S101). Specifically, the processor 12 specifies an arbitrary record in the makeup pattern information master table (FIG. 5). The processor 12 generates a makeup simulation image by applying the information in the “parameter” field of the identified record to the simulation image SIMG determined in step S100.
  • step S101 the client device 10 performs presentation of a make-up simulation image (S102). Specifically, the processor 12 displays the screen P101 (FIG. 8) on the display 15.
  • Screen P101 includes an image object IMG101.
  • the image object IMG101 is a make-up simulation image generated in step S101.
  • step S102 the client device 10 performs line-of-sight parameter calculation (S103).
  • the client device 10 executes eye tracking signal acquisition (S1030). Specifically, the processor 12 acquires an eye tracking signal from the eye tracker 20. The processor 12 stores the measurement coordinate and the measurement time in the storage device 11 in association with each other based on the eye tracking signal.
  • the client apparatus 10 performs image space division (S1031). Specifically, as shown in FIG. 12, the processor 12 calculates the coordinates of the reference line of the image space (for example, a line connecting the midpoint of the line connecting both eyes and the center of the nose) IRL. The processor 12 divides the image space of the simulation image SIMG into the first area A1 and the second area A2 using the reference line IRL as a boundary line.
  • the first region A1 is a region on the right side of the simulation image SIMG (that is, a region including the right eye RE).
  • the second area A2 is an area on the left side of the simulation image SIMG (that is, an area including the left eye LE).
  • the client apparatus 10 executes area coordinate specification (S1032). Specifically, the processor 12 specifies the measurement coordinates included in the first area A1 among the measurement coordinates stored in the storage device 11 in step S1030 as the first area coordinates C1, and is included in the second area A2. To be measured is specified as the second region coordinates C2.
  • the client apparatus 10 performs a gaze distribution rate calculation (S1033).
  • the processor 12 uses the expression 1 to calculate the ratio E1 in which the user U points the line of sight to the first area A1 (hereinafter referred to as “first line-of-sight distribution ratio”) E1, and the user U to the second area A2.
  • a ratio (hereinafter referred to as “second line-of-sight distribution ratio”) E2 in which the line of sight is directed is calculated.
  • E2 second line-of-sight distribution rate N (C1): total number of first region coordinates C1 N (C2): total number of second region coordinates C2
  • step S101 to S103 corresponds to the process of the make-up simulation of the first embodiment. That is, the makeup simulation is executed a plurality of times for each of the plurality of makeup patterns.
  • the processor 12 applies a makeup pattern different from the makeup pattern used in the first step S101 to the original image, thereby making the makeup obtained in the first step S101.
  • a make-up simulation image different from the cap simulation image is generated.
  • the processor 12 displays the screen P102 (FIG. 9) on the display 15.
  • Screen P102 includes an image object IMG102.
  • the image object IMG102 is a make-up simulation image generated in the second step S101.
  • the processor 12 presents a plurality of makeup simulation images individually and calculates a gaze distribution for each makeup simulation image. Thereby, the line-of-sight distribution for each makeup simulation image is obtained.
  • step S103 the client device 10 performs line-of-sight parameter presentation (S104). Specifically, the processor 12 displays the screen P103 (FIG. 10) on the display 15.
  • Screen P103 includes display objects A103a to A103b and image objects IMG101 and IMG102.
  • information for example, a pattern name
  • the display object A103a information (for example, a pattern name) related to the makeup pattern used to generate the image object IMG101, and the first gaze distribution rate E1 and the second gaze distribution rate E2 for the image object IMG101 are displayed.
  • the display object A103b information (for example, a pattern name) related to the makeup pattern used to generate the image object IMG102, and the first gaze distribution rate E1 and the second gaze distribution rate E2 for the image object IMG102 are displayed.
  • step S104 the client device 10 executes recommendation information determination (S105).
  • the processor 12 determines the line-of-sight distribution ratio (that is, the first line-of-sight distribution ratio E1 and the first line-of-sight distribution ratio E1 displayed on the display objects A103a to A103b of the screen P103) for the plurality of makeup simulation images calculated in step S103.
  • the makeup simulation image having the largest first gaze distribution rate E1 is selected from the two gaze distribution rates E2).
  • the processor 12 determines the line-of-sight distribution ratio (that is, the first line-of-sight distribution ratio E1 and the first line-of-sight distribution ratio E1 displayed on the display objects A103a to A103b of the screen P103) for the plurality of makeup simulation images calculated in step S103.
  • At least one makeup simulation image having a first line-of-sight distribution ratio equal to or greater than a predetermined value is selected from the two line-of-sight distribution ratio E2). Note that when the first line-of-sight distribution ratio E1 of all makeup simulation images is less than a predetermined value, recommendation information is not presented.
  • the makeup simulation image having the largest first line-of-sight distribution ratio E1 in the first example means a makeup simulation image in which the right eye side is most watched among a plurality of makeup simulation images.
  • the makeup simulation image having the largest first gaze distribution rate E1 is an image having a high potential evaluation by the user U (for example, an image having the highest interest, an image that feels the most, an image that feels the most affinity). Or the most spectacular image).
  • the at least one makeup simulation image in which the first line-of-sight distribution rate E1 in the second example is equal to or greater than a predetermined value means a makeup simulation image in which the right eye side is watched more than a certain value among a plurality of makeup simulation images.
  • a makeup simulation image having a first gaze distribution rate E1 of a predetermined value or more is an image in which the potential evaluation of the user U exceeds a certain standard (for example, an image with a certain degree of interest or a certain degree of personality). Or an image that feels a certain degree of affinity, or an image that feels a certain degree of impression).
  • the first gaze distribution rate E1 of the image object IMG101 is the largest of the image objects IMG101 and IMG102, and therefore a makeup simulation image corresponding to the image object IMG101 (that is, the makeup of the pattern name “MC1”) Makeup simulation image to which the pattern is applied) is determined as recommendation information.
  • the client apparatus 10 presents recommendation information (S106). Specifically, the processor 12 displays the screen P104 (FIG. 10) on the display 15.
  • Screen P104 includes image object IMG101, display objects A104a to A104b, and operation objects B104a to B104b.
  • the display object A104a displays the pattern name of the makeup pattern used for generating the makeup simulation image.
  • item information for example, item category and item ID
  • the operation object B104a is an object that receives a user instruction for updating the database on the server 30 using the recommendation information (for example, the contents of the image object IMG101 and the display objects A104a to A104b).
  • the operation object B104b is an object that receives a user instruction to access a website that sells items displayed on the display object A104b.
  • a URL Uniform Resource Locator
  • the client device 10 executes an update request (S107). Specifically, the processor 12 transmits update request data to the server 30.
  • the update request data includes the following information. ⁇ User ID of user U Image data determined in step S100 Makeup pattern ID referenced in step S101 Information relating to the execution date of step S103 Measurement coordinates and measurement time stored in the storage device 11 in step S1030 First and second line-of-sight distribution rates E1 and E2 calculated in step S1033
  • the server 30 executes database update (S300). Specifically, the processor 32 adds a new record to the simulation log information database (FIG. 6) associated with the user ID included in the update request data. The following information is stored in each field of the new record.
  • the simulation ID a new simulation ID is stored.
  • the simulation execution date information related to the execution date included in the update request data is stored.
  • image data included in the update request data is stored.
  • pattern ID a makeup pattern ID included in the update request data is stored.
  • measurement coordinates included in the update request data are stored.
  • the measurement time included in the update request data is stored.
  • the “R distribution” field the first line-of-sight distribution rate E1 included in the update request data is stored.
  • the “L distribution” field the second line-of-sight distribution rate E2 included in the update request data is stored.
  • recommendation information for example, a plurality of make-up simulation images
  • the face image eg, make-up simulation image
  • a make-up simulation image having a high potential evaluation of the user U is presented.
  • the information with high potential evaluation of the user U with respect to the image of the face which the user U observes can be shown.
  • the second embodiment is an example in which recommendation information is presented based on gaze bias in a mirror image of one's face.
  • FIG. 13 is an external view of a client device according to the second embodiment.
  • the client device 10 further includes a half mirror 17.
  • the half mirror 17 is disposed on the display 15. Since the half mirror 17 reflects external light and transmits light emitted from the display 15, the user U can observe the mirror image MI and the simulation image SIMG at the same time.
  • FIG. 14 is a flowchart of information processing according to the second embodiment.
  • FIG. 15 is a detailed flowchart of the line-of-sight parameter calculation of FIG.
  • FIG. 16 is an explanatory diagram of the calculation of the line-of-sight parameter in FIG.
  • FIG. 17 is a diagram illustrating an example of a screen displayed in the information processing of FIG.
  • the client device 10 performs line-of-sight parameter calculation (S110).
  • the client device 10 performs user image capturing (S ⁇ b> 1100) after step S ⁇ b> 1030 (FIG. 11). Specifically, the camera 16 captures an image of the face of the user U who is observing the mirror image MI reflected on the half mirror 17. The processor 12 generates image data of an image acquired by the camera 16.
  • the client apparatus 10 executes mirror image coordinate calculation (S1101). Specifically, the processor 12 analyzes the feature amount of the image data generated in step S1100, thereby determining the coordinates in the image space of each part (for example, contour, eyes, nose, and mouth) of the user U's face. Calculate the size. The processor 12 calculates the distance between the half mirror 17 and the user U based on the coordinates and size of each part of the face and the position of the camera 16 in the client device 10. Based on the calculated distance and the coordinates in the image space, the processor 12 calculates the coordinates of each part of the face (hereinafter referred to as “mirror image coordinates”) in the coordinate space of the mirror image MI (hereinafter referred to as “mirror image space”).
  • mirror image coordinates the coordinate space of the mirror image MI
  • the client apparatus 10 executes division of the mirror image space (S1102). Specifically, as shown in FIG. 16, the processor 12 determines the reference line of the mirror image space (for example, the midpoint of the line connecting both eyes and the center of the nose) based on the mirror image coordinates of each part calculated in step S1101. The line connecting M, and M) is calculated. The processor 12 divides the mirror image space into the first area A1 and the second area A2 with the reference line MRL as a boundary line.
  • the first area A1 is an area located on the right side of the mirror image MI from the user U (that is, including the right eye RE).
  • the second area A2 is an area located on the left side of the mirror image MI from the user U (that is, including the left eye LE).
  • step S1102 the client device 10 executes steps S1032 to S1033 (FIG. 11).
  • the client apparatus 10 executes recommendation information determination (S111). Specifically, the processor 12 calculates the score S related to the evaluation of the user U with respect to the mirror image MI by applying the first line-of-sight distribution rate E1 and the second line-of-sight distribution rate E2 calculated in step S110 to Equation 2.
  • S Score a a coefficient of the first gaze distribution rate b b coefficient of the second gaze distribution rate
  • step S111 recommendation information is presented (S112). Specifically, the processor 12 displays the screen P110 (FIG. 17A) on the display 15.
  • the screen P110 includes a display object A110.
  • the display object A110 displays the score S calculated in step S111.
  • the processing results of steps S110 to S112 also change.
  • the processor 12 displays the screen P111 (FIG. 17B) on the display 15.
  • the screen P111 includes a display object A111.
  • the score S calculated in step S111 is displayed on the display object A111. This score S is different from the score S displayed on the display object A110.
  • recommendation information for example, a score S relating to the user U's evaluation with respect to the mirror image MI.
  • the score S is the user U for the make-up using each make-up item. Represents a potential evaluation of. That is, the score S represents the reaction of the user U for each makeup item.
  • the score S is a mirror image MI (that is, the user U from the start to the end of the make-up) Represents a user's potential evaluation of the face in the make-up). That is, the score S represents the transition of the reaction of the user U with respect to the quality of the make-up during the period from when the user U starts making up to when it ends.
  • FIG. 13 shows an example in which the client device 10 includes the half mirror 17, the second embodiment is not limited to this.
  • the half mirror 17 may be a mirror that totally reflects light, and the display 15 may be disposed outside the client device 10. In this case, the user U observes a mirror image of his / her face reflected in the mirror.
  • the screens P110 to P111 are displayed on a display arranged outside the client device 10.
  • the third embodiment is an example of presenting a user's potential evaluation for an avatar image (hereinafter referred to as an “avatar image”) that behaves as an incarnation of the user in a computer space.
  • avatar image a user's potential evaluation for an avatar image
  • FIG. 18 is a flowchart of information processing according to the third embodiment.
  • 19 to 20 are diagrams showing examples of screens displayed in the information processing of FIG.
  • the information processing of FIG. 18 is executed before or during the play of the computer game.
  • the client device 10 presents an avatar image (S120). Specifically, the processor 12 displays the screen P120 (FIG. 19) on the display 15.
  • Screen P120 includes an image object IMG120 and a message object M120.
  • the image object IMG120 is an avatar image.
  • the message object M120 is a message for guiding the user U's line of sight to the image object IMG101.
  • step S120 the client device 10 executes step S103 (FIG. 7).
  • step S120 and S103 in FIG. 18 is executed a plurality of times for each of the plurality of avatar images.
  • the processor 12 displays the screen P121 (FIG. 19) on the display 15.
  • Screen P121 includes an image object IMG121 and a message object M120.
  • the image object IMG121 is an avatar image different from the avatar image presented in the first step S120.
  • the client apparatus 10 performs recommendation information determination (S121). Specifically, the processor 12 applies the first line-of-sight distribution rate E1 and the second line-of-sight distribution rate E2 of each avatar image to Equation 3 to thereby determine the self-identification index Si (an example of recommendation information) of each avatar image.
  • the self-identification index Si is an index relating to a level at which the user U feels “the incarnation” of the avatar image.
  • ⁇ Si Score ⁇ ⁇ : Coefficient of first gaze distribution rate
  • ⁇ ⁇ Coefficient of second gaze distribution rate
  • step S121 recommendation information is presented (S122). Specifically, the processor 12 displays the screen P122 (FIG. 20) on the display 15.
  • Screen P122 includes display objects A122a to A122b, image objects IMG120 to IMG121, and operation objects B122a to B122b.
  • the display object A 122a includes the avatar name of the avatar image corresponding to the image object IMG 120, the first gaze distribution rate E1 and the second gaze distribution rate E2 with respect to the image object IMG 120, and the self-identification index Si of the image object IMG 120.
  • the display object A 122b includes the avatar name of the avatar image corresponding to the image object IMG121, the first gaze distribution rate E1 and the second gaze distribution rate E2 with respect to the image object IMG121, and the self-identification index Si of the image object IMG121. Is displayed.
  • step S122 the client device 10 executes an update request (S123). Specifically, the processor 12 displays the screen P123 on the display 15.
  • the screen P123 includes a display object A123, operation objects B123a to B123b, and an image object IMG123.
  • information on the avatar image having the highest self-identification index Si calculated in step S121 (avatar name, first gaze distribution rate E1, second gaze distribution rate E2, and self-identification index Si).
  • the image object IMG123 is an avatar image having the highest self-identification index Si.
  • the operation object B123a is an object that receives a user instruction for confirming use of the image object IMG123 as an avatar image.
  • the operation object B123b is an object that accepts a user instruction for refusing use of the image object IMG123 as an avatar image.
  • the processor 12 transmits update request data to the server 30.
  • the update request data includes the following information. ⁇ User ID Image data of an avatar image assigned to the image object IMG123
  • the server 30 executes database update (S300). Specifically, the processor 32 refers to the user information database (FIG. 4) and specifies a record associated with the user ID included in the update request data. The processor 32 stores the image data included in the update request data in the “user image” field of the identified record. Thereby, the user U can use the avatar image having the highest self-identification index Si.
  • the processor 32 refers to the user information database (FIG. 4) and specifies a record associated with the user ID included in the update request data.
  • the processor 32 stores the image data included in the update request data in the “user image” field of the identified record. Thereby, the user U can use the avatar image having the highest self-identification index Si.
  • a user's potential evaluation for an avatar image can be presented. This allows the user to have the highest potential avatar (e.g., the most interested avatar, the avatar that feels most personal (ie, can be identified with her), the avatar that feels most compatible, or most An avatar that feels impressive can be easily selected.
  • the highest potential avatar e.g., the most interested avatar, the avatar that feels most personal (ie, can be identified with her)
  • the avatar that feels most compatible ie, can be identified with her
  • most An avatar that feels impressive can be easily selected.
  • the fourth embodiment is an example in which a user's potential evaluation for an image is presented based on a line-of-sight movement pattern.
  • FIG. 23 is an explanatory diagram of an outline of the fourth embodiment.
  • a simulation image SIMG including the face of a person for example, user U
  • an eye tracking signal related to the movement of the line of sight of the user U while observing the simulation image SIMG is generated.
  • a line-of-sight pattern (an example of “line-of-sight parameter”) relating to the movement pattern of the line of sight of the user U in the coordinate space of the pixels constituting the simulation image SIMG (hereinafter referred to as “image space”) calculate.
  • image space a line-of-sight pattern relating to the movement pattern of the line of sight of the user U in the coordinate space of the pixels constituting the simulation image SIMG
  • recommendation information reflecting the potential evaluation of the user U with respect to the simulation image SIMG is presented based on the line-of-sight pattern of the user U in the image space of the simulation image SIMG.
  • FIG. 24 is a flowchart of the line-of-sight parameter calculation process according to the fourth embodiment.
  • 25 and 26 are explanatory diagrams of the calculation of the line-of-sight pattern in FIG.
  • the client device 10 performs line-of-sight pattern calculation (S1034) after step S1030.
  • the processor 12 calculates at least one of the following gaze patterns instead of the gaze distribution. ⁇ Stopping time when the line of sight stops in a predetermined size area (hereinafter referred to as “stop area”) ⁇ Number of stops when the line of sight stops in the stopping area ⁇ Gaze movement range ⁇ Gaze movement order ⁇ Gaze movement area
  • the processor 12 calculates the stop time Ts using Equation 4.
  • Ts Stop time n: Number of measurement coordinates included in the stop area t: Measurement time interval
  • the line of sight EM with respect to the image FIMG of the user U is, for example, 5 of the stop area 1
  • the vehicle stops in the stopping area 2 for 10 seconds.
  • the stop time Ts1 of the stop region 1 is 5 seconds
  • the stop time Ts2 of the stop region 2 is 10 seconds
  • the total stop time ⁇ Ts is 15 seconds.
  • the processor 12 stores the measurement time and the stop time in the storage device 11 in association with each other.
  • the processor 12 calculates the number of stops Ns using Equation 5. -Ns ... Number of stops-ns-Number of times included in the fixed region for a fixed time In the example of Fig. 25A, the number of stops is two.
  • the processor 12 stores the measurement time and the number of stops in the storage device 11 in association with each other.
  • the processor 12 calculates a rectangular area defined by an X coordinate and a Y coordinate (hereinafter referred to as “end point coordinates”) located at the end points of the measurement coordinates as a movement range.
  • the moving range is a rectangular area Z defined by the end point coordinates ⁇ (X1, Y1), (X1, Y2), (X2, Y1), (X2, Y2) ⁇ .
  • the processor 12 stores the end point coordinates defining the rectangular area Z in the storage device 11.
  • the processor 12 calculates the movement order by the following method.
  • the processor 12 converts the pixel area of the image FIMG into pixel areas (for example, a left eye pixel area, a right eye pixel area, a nose pixel area, and a mouth pixel) for each part of the face (for example, left eye, right eye, nose, and mouth). Area).
  • the processor 12 calculates the order in which the line of sight EM passes through each pixel region (hereinafter referred to as “movement order”). In the example of FIG. 25C, the movement order is ⁇ right-eye pixel region, nose pixel region, mouth pixel region, and left-eye pixel region ⁇ .
  • the processor 12 stores the movement order in the storage device 11.
  • the processor 12 calculates the moving area based on any of the following. Number of measurement coordinates in XY space (however, overlapping measurement coordinates are counted as one coordinate) (FIG. 26A) When the pixel area of the image FIMG is divided into sections SEC divided by a predetermined area, the total number of sections SEC including measurement coordinates (FIG. 26B) The processor 12 stores the moving area in the storage device 11.
  • the storage device 11 stores a line-of-sight pattern evaluation model.
  • the line-of-sight pattern evaluation model is a model that receives a line-of-sight pattern as an input and outputs a face evaluation as an output.
  • the processor 12 of the client device 10 refers to the visual line pattern evaluation model stored in the storage device 11 in step S105, and calculates an evaluation corresponding to the visual line pattern calculated in step S103.
  • the potential evaluation of the user U with respect to the image FIMG can be presented.
  • the stop time is calculated as the make-up proceeds.
  • the measurement time is early (for example, from the start of measurement until a predetermined time of the total measurement time (for example, 1/10 of the total measurement time) elapses)
  • the retention time is long. In this case, it means that the user U feels uncomfortable with the quality of the makeup immediately after starting the makeup.
  • the processor 12 determines that the evaluation of the user U with respect to the make-up item is low, and recommends information based on the evaluation (for example, a message that the user U feels uncomfortable with the quality of the make-up). Present.
  • the processor 12 determines that the evaluation of the user U with respect to the makeup item is high, and presents recommendation information based on the evaluation (for example, a message indicating that the user U is satisfied with the quality of the makeup). To do.
  • the processor 12 determines that the evaluation of the user U with respect to the make-up item is low, and recommends information based on the evaluation (for example, a message that the user U feels uncomfortable with the quality of the make-up). Present.
  • the processor 12 determines that the evaluation of the user U with respect to the makeup item is high, and presents recommendation information based on the evaluation (for example, a message indicating that the user U is satisfied with the quality of the makeup). To do.
  • the moving range is calculated as the make-up proceeds.
  • makeup assessment specialists look at the entire face.
  • a person tends to look partially when looking at his / her face while looking at the face of others. In other words, seeing the entire face means looking at your face objectively.
  • the processor 12 presents the degree of coincidence between the evaluation by the observer and the evaluation by others as recommendation information by calculating the movement range.
  • the order of movement of the line of sight EM when the user U is looking at the image FIMG is calculated in order to evaluate the performance of the makeup after the makeup is completed.
  • the movement order represents the order in which the user U pays attention to the place where the makeup is applied. This order means the priority of the make-up characteristics for the user U.
  • the processor 12 identifies a characteristic having a high priority for the user U based on the movement order, and presents a makeup item that matches the characteristic having a high priority as recommendation information.
  • the moving area is calculated as the make-up proceeds.
  • the movement area represents the degree of coincidence between self-evaluation and other person's evaluation.
  • the processor 12 presents the degree of coincidence between the self-evaluation and the other person's evaluation as recommendation information by calculating the moving area.
  • the fourth embodiment can also be applied to the second embodiment.
  • the potential evaluation of the user U with respect to the mirror image MI can be presented even when a line-of-sight parameter other than the line-of-sight distribution is used.
  • Modification 1 is an example of guiding the user's line of sight in the presentation of the make-up simulation image of FIG. 7 (S102).
  • FIG. 21 is a diagram illustrating a screen example of the first modification. Modification 1 is applicable to any of the first to third embodiments.
  • step S102 of the first modification the processor 12 displays the screen P101a (FIG. 21) on the display 15.
  • Screen P101a is different from screen P101 (FIG. 8) in that image object IMG101a is displayed.
  • the image object IMG101a is an object for guiding the user U's line of sight.
  • the image object IMG101a is displayed in the second area A2 of the image object IMG101.
  • the left visual field is related to the entire processing
  • the right visual field is related to the partial processing.
  • the image object IMG101a for guiding the line of sight is displayed in the second area A2, so that when the user U observes his / her face, the entire process becomes dominant, and a more objective self-evaluation is performed. Is possible.
  • One of the purposes of make-up is to create an impression on others.
  • By improving the objectivity of self-evaluation the difference between self-evaluation and others' evaluation is reduced. As a result, if the self-evaluation is increased by the makeup of his / her face, the evaluation of the makeup by others is also improved.
  • the difference between self-evaluation and other-party evaluation is smaller when the line of sight is guided than when the line of sight is not guided. Therefore, the numerical value can be used to show the effect when the line of sight is guided (the degree of reduction of the deviation between the other person's evaluation and the self-evaluation due to the improvement of the objectivity).
  • the degree of coincidence between the self-evaluation and the other person's evaluation can be calculated using the moving range or moving area, and the effect of guiding the line of sight can be shown using the calculation result.
  • Modification 2 is an example in which a user's potential evaluation for one image is presented.
  • FIG. 22 is a diagram illustrating an example of a screen displayed in the information processing according to the second modification. Modification 2 is applicable to any of the first to fourth embodiments.
  • Modification 2 is the same as the information processing (FIG. 7) of the first embodiment. However, step S104 (FIG. 7) is omitted.
  • step S103 the processor 12 of the client device 10 applies the line-of-sight distribution ratios calculated in step S103 (that is, the first line-of-sight distribution ratio E1 and the second line-of-sight distribution ratio E2 in FIG. 12) to Equation 2 in step S105. By doing so, the score S regarding the evaluation of the user U with respect to the simulation image SIMG is calculated.
  • step S106 the processor 12 displays the screen P130 (FIG. 22) on the display 15 instead of the screen P104 (FIG. 10).
  • the screen P130 includes display objects A103a, A104b, and A130, and an image object IMG101.
  • the score calculated in step S105 is displayed on the display object A130.
  • the score S for one makeup simulation image is displayed on the display 15. Thereby, the potential evaluation of the user U with respect to one type of image can be presented.
  • the third modification is an example in which the present embodiment is applied to a face image other than the makeup simulation image and the avatar image.
  • the present embodiment can also be applied to a face image to which an arbitrary hairstyle is applied.
  • recommendation information for example, a plurality of hair simulation images
  • the hair simulation image with high potential evaluation of the user U is presented. Thereby, the information with high potential evaluation of the user U with respect to the image of the face which the user U observes can be shown.
  • the present embodiment can also be applied to a face image that has undergone an arbitrary operation.
  • recommendation information for example, a plurality of operations
  • the face image presented to the user U for example, the image of the face after any surgery has been performed.
  • the simulation images a surgical simulation image having a high potential evaluation of the user U) is presented. Thereby, the information with high potential evaluation of the user U with respect to the image of the face which the user U observes can be shown.
  • the first aspect of this embodiment is A means for presenting an image including a face to the user (for example, the processor 12 that executes the process of step S102); Means for acquiring line-of-sight information related to the movement of the user's line of sight (for example, the processor 12 that executes the process of step S1030); Based on the line-of-sight information, a unit (for example, the processor 12 that executes the process of step S1033) that calculates the user's line-of-sight bias in the image is provided.
  • a unit for example, the processor 12 that executes the process of step S1033
  • Means for example, the processor 12 that executes the process of step S105
  • Means for determining recommendation information about the image based on the gaze bias Means for presenting recommendation information (for example, the processor 12 that executes the process of step S106);
  • An information processing apparatus for example, the client apparatus 10).
  • recommendation information to be presented to the user U is determined based on the deviation of the line of sight of the user U with respect to the face image. Thereby, the potential evaluation of the user U with respect to the face observed by the user U can be presented.
  • the second aspect of this embodiment is The means to calculate is Dividing the image space of the image into a first region and a second region at a predetermined boundary; A first line-of-sight distribution in the first region; A second line-of-sight distribution in the second region; Is an information processing apparatus for calculating
  • the recommendation information to be presented to the user U is determined based on the line-of-sight distribution in each of the two regions (first region and second region) constituting the image space. Thereby, recommendation information according to the bias of the line-of-sight distribution can be presented.
  • the third aspect of this embodiment is The presenting means presents a plurality of different images individually,
  • the means for calculating calculates a first gaze distribution and a second gaze distribution for each image,
  • the determining means is an information processing apparatus that determines at least one of the plurality of images as recommendation information.
  • the recommendation information is determined based on the line-of-sight distribution in each of the two regions (first region and second region) constituting the image space. Accordingly, at least one of the plurality of images can be presented as recommendation information.
  • the fourth aspect of this embodiment is The first area is an area on the right side of the image,
  • the second region is a region on the left side with respect to the image,
  • the recommendation information is an information processing apparatus that is at least one image in which a ratio of the first line-of-sight distribution is a predetermined value or more among a plurality of images.
  • an image in which the ratio of the line-of-sight distribution in the right region toward the image is greater than or equal to a predetermined value is presented as recommendation information.
  • the fifth aspect of this embodiment is The image includes a plurality of makeup simulation images in which different makeups are applied to the user's face,
  • the first region is a region on the right side with respect to each makeup simulation image,
  • the second region is a region on the left side with respect to each makeup simulation image,
  • the recommendation information is an information processing apparatus that is a makeup simulation image having the highest ratio of the first line-of-sight distribution among the plurality of makeup simulation images.
  • a makeup simulation image in which the ratio of the line-of-sight distribution with respect to the region on the right side with respect to each makeup simulation image is greater than or equal to a predetermined value from among the plurality of makeup simulation images.
  • the sixth aspect of this embodiment is
  • the image is a makeup simulation image in which makeup is applied to the user's face
  • the first area is an area on the right side of the makeup simulation image.
  • the second region is a region on the left side with respect to the makeup simulation image,
  • the recommendation information is an information processing apparatus that is information corresponding to the ratio of the first line-of-sight distribution in the makeup simulation image.
  • recommendation information for example, a score
  • the potential evaluation of the user U with respect to the makeup simulation image can be known.
  • the seventh aspect of this embodiment is The image includes a plurality of different avatar images,
  • the first region is a region on the right side with respect to each avatar image,
  • the second region is a region on the left side with respect to each avatar image,
  • the recommendation information is an avatar image having the highest ratio of the first line-of-sight distribution among the plurality of avatar images.
  • an avatar image in which the ratio of the line-of-sight distribution with respect to the region on the right side with respect to each avatar image is greater than or equal to a predetermined value from the plurality of avatar images is presented.
  • the eighth aspect of this embodiment is The image is an avatar image,
  • the first region is a region on the right side with respect to the avatar image,
  • the second region is a region on the left side with respect to the avatar image,
  • the recommendation information is information corresponding to the ratio of the first gaze distribution in the avatar image.
  • recommendation information for example, a score
  • the potential evaluation of the user U with respect to the avatar image can be known.
  • the ninth aspect of this embodiment is The image includes at least one of a plurality of images in which different hairstyles are applied to the user's face and an image in which different operations are performed on the user's face, Information processing apparatus.
  • recommendation information based on an image representing at least one of a face to which an arbitrary hairstyle is applied and a face after surgery is presented.
  • the potential evaluation of the user U with respect to the face can be known.
  • the tenth aspect of this embodiment is Means for acquiring line-of-sight information relating to the movement of the user's line of sight with respect to the mirror image of the user's face (for example, the processor 12 that executes the process of step S1030); Based on the line-of-sight information, a means for calculating a user's line-of-sight bias in the mirror image (for example, the processor 12 that executes the process of step S1033) is provided.
  • Means for example, a processor 12 that executes the process of step S111) for determining recommendation information related to the mirror image based on the gaze deviation; Means for presenting recommendation information (for example, the processor 12 that executes the process of step S112);
  • An information processing apparatus for example, the client apparatus 10).
  • the recommendation information is determined based on the deviation of the user's line of sight with respect to the mirror image of the face.
  • the eleventh aspect of this embodiment is The means to calculate is Dividing the mirror image space of the mirror image into a first region and a second region at a predetermined boundary line; A first line-of-sight distribution in the first region; A second line-of-sight distribution in the second region; Calculate Information processing apparatus.
  • the recommendation information to be presented to the user is determined based on the line-of-sight distribution in each of the two regions (first region and second region) constituting the mirror image space. Thereby, recommendation information according to the bias of the line-of-sight distribution can be presented.
  • the twelfth aspect of this embodiment is The first region includes the right eye, The second region includes the left eye,
  • the recommendation information is information according to the ratio of the first line-of-sight distribution and is information related to the user's evaluation with respect to the mirror image.
  • Information processing apparatus is information according to the ratio of the first line-of-sight distribution and is information related to the user's evaluation with respect to the mirror image.
  • recommendation information for example, a score
  • a mirror image for example, a mirror image of his / her face with makeup
  • the thirteenth aspect of this embodiment is Means for presenting an image of the user's face (for example, the processor 12 that executes the process of step S102); Means for acquiring line-of-sight information related to the movement of the user's line of sight (for example, the processor 12 that executes the process of step S1030); Means for calculating a line-of-sight pattern related to the pattern of movement of the user's line of sight in the image based on the line-of-sight information (for example, the processor 12 that executes the process of step S1034)
  • a means for determining recommendation information to be presented to the user based on the calculated line-of-sight pattern Means for presenting the determined recommendation information (for example, the processor 12 that executes the process of step S106);
  • An information processing apparatus for example, the client apparatus 10).
  • recommendation information to be presented to the user is determined based on the line-of-sight pattern of the user U with respect to the face image. Thereby, the potential evaluation of the user U with respect to the face observed by the user U can be presented.
  • the fourteenth aspect of this embodiment is The means for calculating calculates a stop time, which is a time when the user's line of sight stops in a stop area of a predetermined range, as a line-of-sight pattern.
  • Information processing apparatus The fourteenth aspect of this embodiment is The means for calculating calculates a stop time, which is a time when the user's line of sight stops in a stop area of a predetermined range, as a line-of-sight pattern.
  • the fifteenth aspect of this embodiment is The means for calculating calculates, as a line-of-sight pattern, the number of stops, which is the number of times that the user's line of sight has stopped in a predetermined range of stop areas.
  • Information processing apparatus calculates, as a line-of-sight pattern, the number of stops, which is the number of times that the user's line of sight has stopped in a predetermined range of stop areas.
  • the sixteenth aspect of this embodiment is The calculating means calculates an area in which the user's line of sight is distributed as a line-of-sight pattern. Information processing apparatus.
  • the seventeenth aspect of this embodiment is The means for calculating calculates the order in which the user's line of sight moves as a line-of-sight pattern.
  • Information processing apparatus The seventeenth aspect of this embodiment.
  • the eighteenth aspect of this embodiment is The calculating means calculates an area in which the user's line of sight has moved as a line-of-sight pattern. Information processing apparatus.
  • the nineteenth aspect of this embodiment is A program for causing a computer (for example, the processor 12) to function as each of the means described above.
  • the storage device 11 may be connected to the client device 10 via the network NW.
  • the storage device 31 may be connected to the server 30 via the network NW.
  • Each step of the above information processing can be executed by either the client device 10 or the server 30.
  • the makeup simulation image was illustrated as an example of the simulation image SIMG.
  • this embodiment is also applicable when the simulation image SIMG is at least one of the following. ⁇ Simulation image of face after treatment (for example, plastic surgery) ⁇ Simulation image of face including hair after coloring
  • Information processing system 10 Client device 11: Storage device 12: Processor 13: Input / output interface 14: Communication interface 15: Display 16: Camera 17: Half mirror 20: Eye tracker 30: Server 31: Storage device 32: Processor 33: I / O interface 34: Communication interface

Abstract

This information processing device is provided with: a means for presenting an image including a face to a user; a means for acquiring gaze information relating to movement of the gaze of the user; a means for calculating unevenness in the gaze of the user in the image, on the basis of the gaze information; a means for determining recommendation information relating to the image, on the basis of a gaze distribution; and a means for presenting the recommendation information.

Description

情報処理装置及びプログラムInformation processing apparatus and program
 本発明は、情報処理装置及びプログラムに関する。 The present invention relates to an information processing apparatus and a program.
 近年、化粧品のラインナップの増加に伴い、化粧品の販売店の担当者や消費者は、消費者の嗜好に合った化粧品を選択することが困難になる傾向にある。 In recent years, with the increase in the lineup of cosmetics, it has become difficult for sales representatives and consumers of cosmetics stores to select cosmetics that meet consumer preferences.
 そのため、コンピュータ上で、消費者の顔の画像を用いたメイキャップシミュレーションを実行することにより、メイキャップシミュレーション画像を生成する技術が普及している(例えば、再表2015-029371号公報)。 For this reason, a technique for generating a makeup simulation image by executing a makeup simulation using an image of a consumer's face on a computer has become widespread (for example, Table No. 2015-029371).
 しかし、人間がある事象に対して自身の嗜好に合っていると感じたとしても、その後に当該事象が嗜好に合わないと感じることもある。これは、人の嗜好がその人の主観に依存するにもかかわらず、人の主観は一定ではないためである。 However, even if a person feels that his / her preference is met for an event, he / she may later feel that the event does not meet his / her preference. This is because a person's subjectivity is not constant even though the person's preference depends on the person's subjectivity.
 例えば、再表2015-029371号公報の技術によって生成された複数のメイキャップシミュレーション画像の中から、消費者が自身の嗜好に合ったメイキャップシミュレーション画像を選択したとしても、その後に、選択したメイキャップシミュレーション画像が自身の嗜好に合わないと感じる場合、又は、選択しなかったメイキャップシミュレーション画像が自身の嗜好に合うと感じる場合もある。 For example, even if a consumer selects a makeup simulation image that suits his / her preference from among a plurality of makeup simulation images generated by the technique disclosed in Table No. 2015-029371, the selected makeup simulation image is subsequently selected. There are cases where the cap simulation image feels unsuitable for the user's preference, or that the makeup simulation image that has not been selected meets the user's preference.
 このように、人が観察する顔に抱く評価には、その人の主観が反映される。そのため、人が観察する顔に対する潜在的な評価を提示することは困難である。 Thus, the evaluation of the person's face is reflected in the subjectivity of the person. Therefore, it is difficult to present a potential evaluation for a face that a person observes.
 本発明の目的は、ユーザが観察する顔に対するユーザの潜在的な評価を提示することである。 An object of the present invention is to present a user's potential evaluation of the face that the user observes.
 本発明の一態様は、
 ユーザに対して、顔を含む画像を提示する手段を備え、
 ユーザの視線の動きに関する視線情報を取得する手段を備え、
 視線情報に基づいて、画像におけるユーザの視線の分布を計算する手段を備え、
 視線分布に基づいて、画像に関するレコメンド情報を決定する手段を備え、
 レコメンド情報を提示する手段を備える、
情報処理装置である。
One embodiment of the present invention provides:
Means for presenting an image including a face to a user;
Means for acquiring line-of-sight information relating to the movement of the user's line of sight,
A means for calculating a user's gaze distribution in the image based on the gaze information;
Means for determining recommendation information about the image based on the gaze distribution;
Comprising means for presenting recommendation information;
Information processing apparatus.
 本発明によれば、ユーザが観察する顔に対するユーザの潜在的な評価を提示することができる。 According to the present invention, it is possible to present a user's potential evaluation of the face observed by the user.
第1実施形態の情報処理システムの構成を示すブロック図である。It is a block diagram which shows the structure of the information processing system of 1st Embodiment. 第1実施形態の情報処理システムの構成を示すブロック図である。It is a block diagram which shows the structure of the information processing system of 1st Embodiment. 第1実施形態の概要の説明図である。It is explanatory drawing of the outline | summary of 1st Embodiment. 第1実施形態のユーザ情報データベースのデータ構造を示す図である。It is a figure which shows the data structure of the user information database of 1st Embodiment. 第1実施形態のメイキャップパターン情報マスタテーブルのデータ構造を示す図である。It is a figure which shows the data structure of the makeup pattern information master table of 1st Embodiment. 第1実施形態のシミュレーションログ情報データベースのデータ構造を示す図である。It is a figure which shows the data structure of the simulation log information database of 1st Embodiment. 第1実施形態の情報処理のフローチャートである。It is a flowchart of the information processing of 1st Embodiment. 図7の情報処理において表示される画面例を示す図である。It is a figure which shows the example of a screen displayed in the information processing of FIG. 図7の情報処理において表示される画面例を示す図である。It is a figure which shows the example of a screen displayed in the information processing of FIG. 図7の情報処理において表示される画面例を示す図である。It is a figure which shows the example of a screen displayed in the information processing of FIG. 図7の視線分布の計算の詳細なフローチャートである。It is a detailed flowchart of calculation of the gaze distribution of FIG. 図7の視線分布の計算の説明図である。It is explanatory drawing of calculation of the gaze distribution of FIG. 第2実施形態のクライアント装置の外観図である。It is an external view of the client apparatus of 2nd Embodiment. 第2実施形態の情報処理のフローチャートである。It is a flowchart of the information processing of 2nd Embodiment. 図14の視線分布の計算の詳細なフローチャートである。It is a detailed flowchart of calculation of the gaze distribution of FIG. 図14の視線分布の計算の説明図である。It is explanatory drawing of calculation of the gaze distribution of FIG. 図14の情報処理において表示される画面例を示す図である。It is a figure which shows the example of a screen displayed in the information processing of FIG. 第3実施形態の情報処理のフローチャートである。It is a flowchart of the information processing of 3rd Embodiment. 図18の情報処理において表示される画面例を示す図である。It is a figure which shows the example of a screen displayed in the information processing of FIG. 図18の情報処理において表示される画面例を示す図である。It is a figure which shows the example of a screen displayed in the information processing of FIG. 変形例1の画面例を示す図である。10 is a diagram illustrating a screen example of Modification Example 1. FIG. 変形例2の情報処理において表示される画面例を示す図である。10 is a diagram illustrating an example of a screen displayed in information processing according to a second modification. FIG. 第4実施形態の概要の説明図である。It is explanatory drawing of the outline | summary of 4th Embodiment. 第4実施形態の視線パラメータの計算の処理のフローチャートである。It is a flowchart of the process of the calculation of the gaze parameter of 4th Embodiment. 図24の視線パターンの計算の説明図である。It is explanatory drawing of calculation of the gaze pattern of FIG. 図24の視線パターンの計算の説明図である。It is explanatory drawing of calculation of the gaze pattern of FIG.
 以下、本発明の一実施形態について、図面に基づいて詳細に説明する。なお、実施形態を説明するための図面において、同一の構成要素には原則として同一の符号を付し、その繰り返しの説明は省略する。 Hereinafter, an embodiment of the present invention will be described in detail based on the drawings. Note that in the drawings for describing the embodiments, the same components are denoted by the same reference symbols in principle, and the repetitive description thereof will be omitted.
(1)第1実施形態
 本発明の第1実施形態について説明する。
(1) First Embodiment A first embodiment of the present invention will be described.
(1-1)情報処理システムの構成
 情報処理システムの構成について説明する。図1~図2は、第1実施形態の情報処理システムの構成を示すブロック図である。
(1-1) Configuration of Information Processing System The configuration of the information processing system will be described. 1 and 2 are block diagrams showing the configuration of the information processing system according to the first embodiment.
 図1~図2に示すように、情報処理システム1は、クライアント装置10と、アイトラッカ20と、サーバ30と、を備える。
 クライアント装置10及びサーバ30は、ネットワーク(例えば、インターネット又はイントラネット)NWを介して接続される。
 アイトラッカ20は、クライアント装置10に接続される。
As illustrated in FIGS. 1 and 2, the information processing system 1 includes a client device 10, an eye tracker 20, and a server 30.
The client device 10 and the server 30 are connected via a network (for example, the Internet or an intranet) NW.
The eye tracker 20 is connected to the client device 10.
 クライアント装置10は、サーバ30にリクエストを送信する情報処理装置の一例である。クライアント装置10は、例えば、スマートフォン、タブレット端末、又は、パーソナルコンピュータである。
 ユーザUは、クライアント装置10に対して、ユーザ指示を与えることができる。
The client device 10 is an example of an information processing device that transmits a request to the server 30. The client device 10 is, for example, a smartphone, a tablet terminal, or a personal computer.
The user U can give a user instruction to the client device 10.
 アイトラッカ20は、ユーザUの視線の動きを検出し、且つ、視線の動きに関するアイトラッキング信号(「視線情報の一例」)を生成するように構成される。具体的には、アイトラッカ20は、所定時間毎に、ユーザの視線の位置を示す座標を計測する。
 アイトラッカ20は、アイトラッキング信号をクライアント装置10に送信する。
The eye tracker 20 is configured to detect the movement of the line of sight of the user U and generate an eye tracking signal related to the movement of the line of sight (“example of line of sight information”). Specifically, the eye tracker 20 measures coordinates indicating the position of the user's line of sight at every predetermined time.
The eye tracker 20 transmits an eye tracking signal to the client device 10.
 サーバ30は、クライアント装置10から送信されたリクエストに応じたレスポンスをクライアント装置10に提供する情報処理装置の一例である。サーバ30は、例えば、ウェブサーバである。 The server 30 is an example of an information processing apparatus that provides the client apparatus 10 with a response corresponding to the request transmitted from the client apparatus 10. The server 30 is, for example, a web server.
(1-1-1)クライアント装置の構成
 図1を参照して、クライアント装置10の構成について説明する。
(1-1-1) Configuration of Client Device The configuration of the client device 10 will be described with reference to FIG.
 図1に示すように、クライアント装置10は、記憶装置11と、プロセッサ12と、入出力インタフェース13と、通信インタフェース14と、ディスプレイ15と、カメラ16と、を備える。 As shown in FIG. 1, the client device 10 includes a storage device 11, a processor 12, an input / output interface 13, a communication interface 14, a display 15, and a camera 16.
 記憶装置11は、プログラム及びデータを記憶するように構成される。記憶装置11は、例えば、ROM(Read Only Memory)、RAM(Random Access Memory)、及び、ストレージ(例えば、フラッシュメモリ又はハードディスク)の組合せである。 The storage device 11 is configured to store a program and data. The storage device 11 is, for example, a combination of a ROM (Read Only Memory), a RAM (Random Access Memory), and a storage (for example, a flash memory or a hard disk).
 プログラムは、例えば、以下のプログラムを含む。
 ・OS(Operating System)のプログラム
 ・情報処理を実行するアプリケーション(例えば、メイキャップシミュレーション用アプリケーション)のプログラム
The programs include, for example, the following programs.
-OS (Operating System) program-Program for application that executes information processing (for example, application for make-up simulation)
 データは、例えば、以下のデータを含む。
 ・情報処理において参照されるデータベース
 ・情報処理を実行することによって得られるデータ(つまり、情報処理の実行結果)
The data includes, for example, the following data.
-Database referenced in information processing-Data obtained by executing information processing (that is, information processing execution result)
 プロセッサ12は、記憶装置11に記憶されたプログラムを起動することによって、クライアント装置10の機能を実現するように構成される。プロセッサ12は、コンピュータの一例である。 The processor 12 is configured to realize the function of the client device 10 by starting a program stored in the storage device 11. The processor 12 is an example of a computer.
 入出力インタフェース13は、クライアント装置10に接続される入力デバイスからユーザの指示を取得し、クライアント装置10に接続される出力デバイスに情報を出力し、且つ、アイトラッカ20からアイトラッキング信号を取得するように構成される。
 入力デバイスは、例えば、キーボード、ポインティングデバイス、タッチパネル、又は、それらの組合せである。
 出力デバイスは、例えば、ディスプレイ15である。
The input / output interface 13 acquires a user instruction from an input device connected to the client apparatus 10, outputs information to an output device connected to the client apparatus 10, and acquires an eye tracking signal from the eye tracker 20. Configured.
The input device is, for example, a keyboard, a pointing device, a touch panel, or a combination thereof.
The output device is, for example, the display 15.
 通信インタフェース14は、クライアント装置10とサーバ30との間の通信を制御するように構成される。 The communication interface 14 is configured to control communication between the client device 10 and the server 30.
 ディスプレイ15は、プロセッサ12によって生成された画像を表示するように構成される。 The display 15 is configured to display an image generated by the processor 12.
 カメラ16は、画像(例えば、クライアント装置10のユーザの顔の画像)を撮像するように構成される。 The camera 16 is configured to capture an image (for example, an image of the face of the user of the client device 10).
(1-1-2)サーバの構成
 図1を参照して、サーバ30の構成について説明する。
(1-1-2) Server Configuration The configuration of the server 30 will be described with reference to FIG.
 図1に示すように、サーバ30は、記憶装置31と、プロセッサ32と、入出力インタフェース33と、通信インタフェース34とを備える。 As shown in FIG. 1, the server 30 includes a storage device 31, a processor 32, an input / output interface 33, and a communication interface 34.
 記憶装置31は、プログラム及びデータを記憶するように構成される。記憶装置31は、例えば、ROM、RAM、及び、ストレージ(例えば、フラッシュメモリ又はハードディスク)の組合せである。 The storage device 31 is configured to store programs and data. The storage device 31 is, for example, a combination of ROM, RAM, and storage (for example, flash memory or hard disk).
 プログラムは、例えば、以下のプログラムを含む。
 ・OSのプログラム
 ・情報処理を実行するアプリケーションのプログラム
The programs include, for example, the following programs.
-OS program-Application program that executes information processing
 データは、例えば、以下のデータを含む。
 ・情報処理において参照されるデータベース
 ・情報処理の実行結果
The data includes, for example, the following data.
・ Database referenced in information processing ・ Results of information processing
 プロセッサ32は、記憶装置31に記憶されたプログラムを起動することによって、サーバ30の機能を実現するように構成される。プロセッサ32は、コンピュータの一例である。 The processor 32 is configured to realize the function of the server 30 by starting a program stored in the storage device 31. The processor 32 is an example of a computer.
 入出力インタフェース33は、サーバ30に接続される入力デバイスからユーザの指示を取得し、かつ、サーバ30に接続される出力デバイスに情報を出力するように構成される。
 入力デバイスは、例えば、キーボード、ポインティングデバイス、タッチパネル、又は、それらの組合せである。
 出力デバイスは、例えば、ディスプレイである。
The input / output interface 33 is configured to acquire a user instruction from an input device connected to the server 30 and output information to an output device connected to the server 30.
The input device is, for example, a keyboard, a pointing device, a touch panel, or a combination thereof.
The output device is, for example, a display.
 通信インタフェース34は、サーバ30とクライアント装置10との間の通信を制御するように構成される。 The communication interface 34 is configured to control communication between the server 30 and the client device 10.
(1-2)第1実施形態の概要
 第1実施形態の概要について説明する。図3は、第1実施形態の概要の説明図である。
(1-2) Overview of First Embodiment An overview of the first embodiment will be described. FIG. 3 is an explanatory diagram of an overview of the first embodiment.
 図3に示すように、第1実施形態では、人(例えば、ユーザU)の顔を含むシミュレーション画像SIMGを提示する。シミュレーション画像SIMGでは、鏡像のように、ユーザUの右目REが向かって右側に配置され、且つ、ユーザUの左目LEが向かって左側に配置される。
 次に、シミュレーション画像SIMGを観察している間のユーザUの視線の動きに関するアイトラッキング信号を生成する。
 次に、アイトラッキング信号に基づいて、シミュレーション画像SIMGを構成する画素の座標空間(以下「画像空間」という)において、向かって右側に位置する(つまり、右目REを含む)第1領域GR1の視線の分布と、向かって左側に位置する(つまり、左目LEを含む)第2領域GR2の視線の分布と、を計算する。
 次に、第1領域GR1の視線の分布と、第2領域GR2の視線の分布と、に基づいて、シミュレーション画像SIMGに対するユーザUの潜在的な評価に関するレコメンド情報を提供する。
As shown in FIG. 3, in 1st Embodiment, the simulation image SIMG containing the face of a person (for example, user U) is shown. In the simulation image SIMG, the right eye RE of the user U is arranged on the right side and the left eye LE of the user U is arranged on the left side as shown in a mirror image.
Next, an eye tracking signal related to the movement of the line of sight of the user U while observing the simulation image SIMG is generated.
Next, based on the eye tracking signal, the line of sight of the first region GR1 located on the right side (that is, including the right eye RE) in the coordinate space (hereinafter referred to as “image space”) of the pixels constituting the simulation image SIMG. And the distribution of the line of sight of the second region GR2 located on the left side (that is, including the left eye LE).
Next, based on the line-of-sight distribution in the first region GR1 and the line-of-sight distribution in the second region GR2, recommendation information related to the potential evaluation of the user U with respect to the simulation image SIMG is provided.
 このように、第1実施形態では、1つのシミュレーション画像SIMGの画像空間におけるユーザUの視線分布(つまり、視線の偏り)に基づいて、シミュレーション画像SIMGに対するユーザUの潜在的な評価が反映されたレコメンド情報を提示する。 As described above, in the first embodiment, the potential evaluation of the user U with respect to the simulation image SIMG is reflected based on the gaze distribution (that is, gaze bias) of the user U in the image space of one simulation image SIMG. Present recommendation information.
(1-3)データベース
 第1実施形態のデータベースについて説明する。以下のデータベースは、記憶装置31に記憶される。
(1-3) Database A database according to the first embodiment will be described. The following database is stored in the storage device 31.
(1-3-1)ユーザ情報データベース
 第1実施形態のユーザ情報データベースについて説明する。図4は、第1実施形態のユーザ情報データベースのデータ構造を示す図である。
(1-3-1) User Information Database A user information database according to the first embodiment will be described. FIG. 4 is a diagram illustrating a data structure of the user information database according to the first embodiment.
 図4のユーザ情報データベースには、ユーザに関するユーザ情報が格納される。
 ユーザ情報データベースは、「ユーザID」フィールドと、「ユーザ名」フィールドと、「ユーザ画像」フィールドと、「ユーザ属性」フィールドと、を含む。各フィールドは、互いに関連付けられている。
The user information database in FIG. 4 stores user information related to users.
The user information database includes a “user ID” field, a “user name” field, a “user image” field, and a “user attribute” field. Each field is associated with each other.
 「ユーザID」フィールドには、ユーザを識別するユーザID(「ユーザ識別情報」の一例)が格納されている。 In the “user ID” field, a user ID for identifying a user (an example of “user identification information”) is stored.
 「ユーザ名」フィールドには、ユーザの名前に関する情報(例えば、テキスト)が格納されている。 In the “user name” field, information (for example, text) related to the user name is stored.
 「ユーザ画像」フィールドには、ユーザの顔を含む画像の画像データが格納されている。 In the “user image” field, image data of an image including the user's face is stored.
 「ユーザ属性」フィールドは、「性別」フィールドと、「年齢」フィールドと、「職業」フィールドと、を含む。 The “user attribute” field includes a “sex” field, an “age” field, and an “occupation” field.
 「性別」フィールドには、ユーザの性別に関する情報が格納される。 The “gender” field stores information related to the user's gender.
 「年齢」フィールドには、ユーザの年齢に関する情報が格納される。 In the “age” field, information related to the user's age is stored.
 「職業」フィールドには、ユーザの職業に関する情報が格納される。 In the “occupation” field, information related to the user's occupation is stored.
(1-3-2)メイキャップパターン情報マスタテーブル
 第1実施形態のメイキャップパターン情報マスタテーブルについて説明する。図5は、第1実施形態のメイキャップパターン情報マスタテーブルのデータ構造を示す図である。
(1-3-2) Makeup Pattern Information Master Table A makeup pattern information master table according to the first embodiment will be described. FIG. 5 is a diagram illustrating a data structure of the makeup pattern information master table according to the first embodiment.
 図5のメイキャップパターン情報マスタテーブルには、メイキャップパターンに関するメイキャップパターン情報が記憶される。
 メイキャップパターン情報マスタテーブルは、「パターンID」フィールドと、「パターン名」フィールドと、「アイテム」フィールドと、を含む。
The makeup pattern information master table of FIG. 5 stores makeup pattern information related to the makeup pattern.
The makeup pattern information master table includes a “pattern ID” field, a “pattern name” field, and an “item” field.
 「パターンID」フィールドには、メイキャップパターンを識別するメイキャップパターンID(「メイキャップパターン識別情報」の一例)が格納される。 In the “pattern ID” field, a makeup pattern ID for identifying a makeup pattern (an example of “makeup pattern identification information”) is stored.
 「パターン名」フィールドには、メイキャップパターンのパターン名に関する情報(例えば、テキスト)が格納されている。 In the “pattern name” field, information (for example, text) regarding the pattern name of the makeup pattern is stored.
 「アイテム」フィールドには、メイキャップシミュレーションで使用されるメイキャップアイテムに関するアイテム情報が格納される。「アイテム」フィールドは、「カテゴリ」フィールドと、「アイテムID」フィールドと、「パラメータ」フィールドと、を含む。「カテゴリ」フィールド、「アイテムID」フィールド、及び、「パラメータ」フィールドは、互いに関連付けられている。 In the “Item” field, item information related to makeup items used in the makeup simulation is stored. The “item” field includes a “category” field, an “item ID” field, and a “parameter” field. The “category” field, the “item ID” field, and the “parameter” field are associated with each other.
 「カテゴリ」フィールドには、メイキャップアイテムのカテゴリ(例えば、ファンデーション、口紅、及び、チーク)に関する情報が格納される。 In the “category” field, information on the category of the makeup item (for example, foundation, lipstick, and teak) is stored.
 「アイテムID」フィールドには、メイキャップアイテムを識別するアイテムID(「メイキャップアイテム識別情報」の一例)が格納される。 In the “item ID” field, an item ID (an example of “makeup item identification information”) for identifying a makeup item is stored.
 「パラメータ」フィールドには、メイキャップアイテムを使用したときの効果に関するメイキャップパラメータが格納される。メイキャップパラメータは、例えば、元画像(一例として、ユーザUの顔の画像)に適用すべき画像処理パラメータ(例えば、元画像の画素の色情報を変換するための色変換パラメータ)である。 In the “Parameter” field, a makeup parameter related to the effect of using the makeup item is stored. The makeup parameter is, for example, an image processing parameter (for example, a color conversion parameter for converting color information of pixels of the original image) to be applied to the original image (for example, an image of the face of the user U).
(1-3-3)シミュレーションログ情報データベース
 第1実施形態のシミュレーションログ情報データベースについて説明する。図6は、第1実施形態のシミュレーションログ情報データベースのデータ構造を示す図である。
(1-3-3) Simulation Log Information Database A simulation log information database according to the first embodiment will be described. FIG. 6 is a diagram illustrating a data structure of the simulation log information database according to the first embodiment.
 図6のシミュレーションログ情報データベースには、メイキャップシミュレーションの結果に関する情報が時系列に記憶される。
 シミュレーションログ情報データベースは、「シミュレーションID」フィールドと、「シミュレーション実行日」フィールドと、「シミュレーション条件」フィールドと、「アイトラッキング信号」フィールドと、「視線分布」フィールドと、を含む。
 シミュレーションログ情報データベースは、ユーザIDに関連付けられている。
In the simulation log information database of FIG. 6, information related to the result of the make-up simulation is stored in time series.
The simulation log information database includes a “simulation ID” field, a “simulation execution date” field, a “simulation condition” field, an “eye tracking signal” field, and a “line-of-sight distribution” field.
The simulation log information database is associated with the user ID.
 「シミュレーションID」フィールドには、メイキャップシミュレーションを識別するシミュレーションID(「シミュレーション識別情報」の一例)が格納される。 In the “simulation ID” field, a simulation ID for identifying a makeup simulation (an example of “simulation identification information”) is stored.
 「シミュレーション実行日」フィールドには、メイキャップシミュレーションの実行日に関する情報が格納される。 In the “Simulation Execution Date” field, information related to the execution date of the makeup simulation is stored.
 「シミュレーション条件」フィールドには、メイキャップシミュレーションのシミュレーション条件に関する情報が格納される。「シミュレーション条件」フィールドは、「元画像」フィールドと、「パターン」フィールドと、を含む。 In the “Simulation condition” field, information related to the simulation condition of the make-up simulation is stored. The “simulation condition” field includes an “original image” field and a “pattern” field.
 「元画像」フィールドには、メイキャップシミュレーションの対象となる元画像(例えば、ユーザUの顔の画像)の画像データが格納される。 In the “original image” field, image data of an original image (for example, an image of the face of the user U) that is a target of the make-up simulation is stored.
 「パターン」フィールドには、「元画像」フィールドの画像データに対して適用されるメイキャップパターンのメイキャップパターンIDが格納される。 In the “pattern” field, a makeup pattern ID of a makeup pattern applied to the image data in the “original image” field is stored.
 「アイトラッキング信号」フィールドには、アイトラッカ20によって生成されたアイトラッキング信号が格納される。「アイトラッキング信号」フィールドは、「計測座標」フィールドと、「計測時間」フィールドと、を含む。「計測座標」フィールド及び「計測時間」フィールドは、互いに関連付けられている。 The eye tracking signal generated by the eye tracker 20 is stored in the “eye tracking signal” field. The “eye tracking signal” field includes a “measurement coordinate” field and a “measurement time” field. The “measurement coordinate” field and the “measurement time” field are associated with each other.
 「計測座標」フィールドには、画像空間におけるユーザの視線の位置を示す計測座標が格納される。 In the “measurement coordinate” field, measurement coordinates indicating the position of the user's line of sight in the image space are stored.
 「計測時間」フィールドには、アイトラッカ20がアイトラッキング信号を生成したタイミングに関する計測時間情報が格納される。計測時間情報は、例えば、アイトラッカ20がアイトラッキング信号の生成を開始した時点からの経過時間である。
 「計測座標」フィールドの座標、及び、「計測時間」フィールドの情報の組合せにより、ユーザUの視線の動きが特定される。
The “measurement time” field stores measurement time information related to the timing when the eye tracker 20 generates the eye tracking signal. The measurement time information is, for example, an elapsed time from when the eye tracker 20 starts generating an eye tracking signal.
The movement of the line of sight of the user U is specified by the combination of the coordinates of the “measurement coordinate” field and the information of the “measurement time” field.
 「視線分布」フィールドには、「アイトラッキング信号」フィールドの情報から導出される視線分布(「視線パラメータ」の一例)が格納される。視線分布は、メイキャップシミュレーション画像の画像空間におけるユーザの視線の分布を示す。「視線分布」フィールドは、「R分布」フィールドと、「L分布」フィールドと、を含む。 In the “line-of-sight distribution” field, the line-of-sight distribution derived from the information in the “eye tracking signal” field (an example of “line-of-sight parameter”) is stored. The line-of-sight distribution indicates the distribution of the line of sight of the user in the image space of the makeup simulation image. The “line-of-sight distribution” field includes an “R distribution” field and an “L distribution” field.
 「R分布」フィールドには、メイキャップシミュレーション画像の画像空間において、メイキャップシミュレーション画像に対して向かって右側(つまり、観察者から向かって右側)の第1領域におけるユーザの視線の分布率が格納される。 In the “R distribution” field, in the image space of the makeup simulation image, the distribution ratio of the user's line of sight in the first region on the right side (that is, the right side from the observer) with respect to the makeup simulation image is stored. Is done.
 「L分布」フィールドには、メイキャップシミュレーション画像の画像空間において、メイキャップシミュレーション画像に対して向かって左側(つまり、観察者から向かって左側)の第2領域におけるユーザの視線の分布率が格納される。 In the “L distribution” field, in the image space of the makeup simulation image, the distribution ratio of the user's line of sight in the second region on the left side (that is, the left side from the observer) with respect to the makeup simulation image is stored. Is done.
(1-4)情報処理
 第1実施形態の情報処理について説明する。図7は、第1実施形態の情報処理のフローチャートである。図8~図10は、図7の情報処理において表示される画面例を示す図である。図11は、図7の視線パラメータの計算の詳細なフローチャートである。図12は、図7の視線パラメータの計算の説明図である。
(1-4) Information Processing Information processing according to the first embodiment will be described. FIG. 7 is a flowchart of information processing according to the first embodiment. 8 to 10 are diagrams showing examples of screens displayed in the information processing of FIG. FIG. 11 is a detailed flowchart of the line-of-sight parameter calculation of FIG. FIG. 12 is an explanatory diagram of the calculation of the line-of-sight parameter in FIG.
 図7に示すように、クライアント装置10は、元画像の決定(S100)を実行する。
 具体的には、プロセッサ12は、画面P100(図8)をディスプレイ15に表示する。
As illustrated in FIG. 7, the client device 10 executes determination of an original image (S100).
Specifically, the processor 12 displays the screen P100 (FIG. 8) on the display 15.
 画面P100は、画像オブジェクトIMG100を含む。
 画像オブジェクトIMG100は、ユーザUの顔の画像を含む。画像オブジェクトIMG100は、例えば、以下の何れかである。
 ・記憶装置11に予め記憶されていた画像
 ・ユーザ情報データベース(図4)の「ユーザ画像」フィールドの画像データから再現される画像
 ・入出力インタフェース13に接続されたカメラ16によって撮像された画像
Screen P100 includes an image object IMG100.
The image object IMG100 includes an image of the face of the user U. The image object IMG100 is, for example, one of the following.
An image stored in advance in the storage device 11 An image reproduced from the image data in the “user image” field of the user information database (FIG. 4) An image captured by the camera 16 connected to the input / output interface 13
 ステップS100の後、クライアント装置10は、メイキャップシミュレーション画像の生成(S101)を実行する。
 具体的には、プロセッサ12は、メイキャップパターン情報マスタテーブル(図5)の任意のレコードを特定する。
 プロセッサ12は、ステップS100で決定したシミュレーション画像SIMGに、特定したレコードの「パラメータ」フィールドの情報を適用することにより、メイキャップシミュレーション画像を生成する。
After step S100, the client apparatus 10 executes generation of a make-up simulation image (S101).
Specifically, the processor 12 specifies an arbitrary record in the makeup pattern information master table (FIG. 5).
The processor 12 generates a makeup simulation image by applying the information in the “parameter” field of the identified record to the simulation image SIMG determined in step S100.
 ステップS101の後、クライアント装置10は、メイキャップシミュレーション画像の提示(S102)を実行する。
 具体的には、プロセッサ12は、画面P101(図8)をディスプレイ15に表示する。
After step S101, the client device 10 performs presentation of a make-up simulation image (S102).
Specifically, the processor 12 displays the screen P101 (FIG. 8) on the display 15.
 画面P101は、画像オブジェクトIMG101を含む。
 画像オブジェクトIMG101は、ステップS101で生成されたメイキャップシミュレーション画像である。
Screen P101 includes an image object IMG101.
The image object IMG101 is a make-up simulation image generated in step S101.
 ステップS102の後、クライアント装置10は、視線パラメータの計算(S103)を実行する。 After step S102, the client device 10 performs line-of-sight parameter calculation (S103).
 図11に示すように、クライアント装置10は、アイトラッキング信号の取得(S1030)を実行する。
 具体的には、プロセッサ12は、アイトラッカ20から、アイトラッキング信号を取得する。
 プロセッサ12は、アイトラッキング信号に基づいて、計測座標と、計測時間と、を関連付けて記憶装置11に記憶する。
As illustrated in FIG. 11, the client device 10 executes eye tracking signal acquisition (S1030).
Specifically, the processor 12 acquires an eye tracking signal from the eye tracker 20.
The processor 12 stores the measurement coordinate and the measurement time in the storage device 11 in association with each other based on the eye tracking signal.
 ステップS1030の後、クライアント装置10は、画像空間の分割(S1031)を実行する。
 具体的には、プロセッサ12は、図12に示すように、画像空間の基準線(例えば、両目を結ぶ線の中間点と、鼻の中心と、を結ぶ線)IRLの座標を計算する。
 プロセッサ12は、基準線IRLを境界線として、シミュレーション画像SIMGの画像空間を、第1領域A1及び第2領域A2に分割する。
 第1領域A1は、シミュレーション画像SIMGに対して向かって右側の領域(つまり、右目REを含む領域)である。
 第2領域A2は、シミュレーション画像SIMGに対して向かって左側の領域(つまり、左目LEを含む領域)である。
After step S1030, the client apparatus 10 performs image space division (S1031).
Specifically, as shown in FIG. 12, the processor 12 calculates the coordinates of the reference line of the image space (for example, a line connecting the midpoint of the line connecting both eyes and the center of the nose) IRL.
The processor 12 divides the image space of the simulation image SIMG into the first area A1 and the second area A2 using the reference line IRL as a boundary line.
The first region A1 is a region on the right side of the simulation image SIMG (that is, a region including the right eye RE).
The second area A2 is an area on the left side of the simulation image SIMG (that is, an area including the left eye LE).
 ステップS1031の後、クライアント装置10は、領域座標の特定(S1032)を実行する。
 具体的には、プロセッサ12は、ステップS1030で記憶装置11に記憶した計測座標のうち、第1領域A1に含まれる計測座標を第1領域座標C1として特定し、且つ、第2領域A2に含まれる計測座標を第2領域座標C2として特定する。
After step S1031, the client apparatus 10 executes area coordinate specification (S1032).
Specifically, the processor 12 specifies the measurement coordinates included in the first area A1 among the measurement coordinates stored in the storage device 11 in step S1030 as the first area coordinates C1, and is included in the second area A2. To be measured is specified as the second region coordinates C2.
 ステップS1032の後、クライアント装置10は、視線分布率の計算(S1033)を実行する。
 具体的には、プロセッサ12は、式1を用いて、ユーザUが第1領域A1に視線を向けた割合(以下「第1視線分布率」という)E1と、ユーザUが第2領域A2に視線を向けた割合(以下「第2視線分布率」という)E2と、を計算する。
Figure JPOXMLDOC01-appb-M000001
 ・E1…第1視線分布率
 ・E2…第2視線分布率
 ・N(C1)…第1領域座標C1の総数
 ・N(C2)…第2領域座標C2の総数
After step S1032, the client apparatus 10 performs a gaze distribution rate calculation (S1033).
Specifically, the processor 12 uses the expression 1 to calculate the ratio E1 in which the user U points the line of sight to the first area A1 (hereinafter referred to as “first line-of-sight distribution ratio”) E1, and the user U to the second area A2. A ratio (hereinafter referred to as “second line-of-sight distribution ratio”) E2 in which the line of sight is directed is calculated.
Figure JPOXMLDOC01-appb-M000001
E1: first line-of-sight distribution rate E2: second line-of-sight distribution rate N (C1): total number of first region coordinates C1 N (C2): total number of second region coordinates C2
 図7のSS1(ステップS101~S103)は、第1実施形態のメイキャップシミュレーションの処理に相当する。つまり、メイキャップシミュレーションは、複数のメイキャップパターンのそれぞれについて、複数回実行される。 7 SS1 (steps S101 to S103) corresponds to the process of the make-up simulation of the first embodiment. That is, the makeup simulation is executed a plurality of times for each of the plurality of makeup patterns.
 例えば、2回目のステップS101では、プロセッサ12は、1回目のステップS101で用いられたメイキャップパターンとは異なるメイキャップパターンを元画像に適用することにより、1回目のステップS101で得られたメイキャップシミュレーション画像とは異なるメイキャップシミュレーション画像を生成する。 For example, in the second step S101, the processor 12 applies a makeup pattern different from the makeup pattern used in the first step S101 to the original image, thereby making the makeup obtained in the first step S101. A make-up simulation image different from the cap simulation image is generated.
 2回目のステップS102では、プロセッサ12は、画面P102(図9)をディスプレイ15に表示する。 In the second step S102, the processor 12 displays the screen P102 (FIG. 9) on the display 15.
 画面P102は、画像オブジェクトIMG102を含む。
 画像オブジェクトIMG102は、2回目のステップS101で生成されたメイキャップシミュレーション画像である。
Screen P102 includes an image object IMG102.
The image object IMG102 is a make-up simulation image generated in the second step S101.
 つまり、プロセッサ12は、複数のメイキャップシミュレーション画像を個別に提示し、且つ、各メイキャップシミュレーション画像に対する視線分布を計算する。これにより、各メイキャップシミュレーション画像に対する視線分布が得られる。 That is, the processor 12 presents a plurality of makeup simulation images individually and calculates a gaze distribution for each makeup simulation image. Thereby, the line-of-sight distribution for each makeup simulation image is obtained.
 ステップS103の後、クライアント装置10は、視線パラメータの提示(S104)を実行する。
 具体的には、プロセッサ12は、画面P103(図10)をディスプレイ15に表示する。
After step S103, the client device 10 performs line-of-sight parameter presentation (S104).
Specifically, the processor 12 displays the screen P103 (FIG. 10) on the display 15.
 画面P103は、表示オブジェクトA103a~A103bと、画像オブジェクトIMG101及びIMG102と、を含む。
 表示オブジェクトA103aには、画像オブジェクトIMG101の生成に使用されたメイキャップパターンに関する情報(例えば、パターン名)と、画像オブジェクトIMG101に対する第1視線分布率E1及び第2視線分布率E2と、が表示される。
 表示オブジェクトA103bには、画像オブジェクトIMG102の生成に使用されたメイキャップパターンに関する情報(例えば、パターン名)と、画像オブジェクトIMG102に対する第1視線分布率E1及び第2視線分布率E2と、が表示される。
Screen P103 includes display objects A103a to A103b and image objects IMG101 and IMG102.
In the display object A103a, information (for example, a pattern name) related to the makeup pattern used to generate the image object IMG101, and the first gaze distribution rate E1 and the second gaze distribution rate E2 for the image object IMG101 are displayed. The
In the display object A103b, information (for example, a pattern name) related to the makeup pattern used to generate the image object IMG102, and the first gaze distribution rate E1 and the second gaze distribution rate E2 for the image object IMG102 are displayed. The
 ステップS104の後、クライアント装置10は、レコメンド情報の決定(S105)を実行する。 After step S104, the client device 10 executes recommendation information determination (S105).
 ステップS105の第1例では、プロセッサ12は、ステップS103で計算した複数のメイキャップシミュレーション画像に対する視線分布率(つまり、画面P103の表示オブジェクトA103a~A103bに表示された第1視線分布率E1及び第2視線分布率E2)から、第1視線分布率E1が最も大きいメイキャップシミュレーション画像を選択する。 In the first example of step S105, the processor 12 determines the line-of-sight distribution ratio (that is, the first line-of-sight distribution ratio E1 and the first line-of-sight distribution ratio E1 displayed on the display objects A103a to A103b of the screen P103) for the plurality of makeup simulation images calculated in step S103. The makeup simulation image having the largest first gaze distribution rate E1 is selected from the two gaze distribution rates E2).
 ステップS105の第2例では、プロセッサ12は、ステップS103で計算した複数のメイキャップシミュレーション画像に対する視線分布率(つまり、画面P103の表示オブジェクトA103a~A103bに表示された第1視線分布率E1及び第2視線分布率E2)から、第1視線分布率が所定値以上である少なくとも1つのメイキャップシミュレーション画像を選択する。
 なお、全てのメイキャップシミュレーション画像の第1視線分布率E1が所定値未満である場合、レコメンド情報は提示されない。
In the second example of step S105, the processor 12 determines the line-of-sight distribution ratio (that is, the first line-of-sight distribution ratio E1 and the first line-of-sight distribution ratio E1 displayed on the display objects A103a to A103b of the screen P103) for the plurality of makeup simulation images calculated in step S103. At least one makeup simulation image having a first line-of-sight distribution ratio equal to or greater than a predetermined value is selected from the two line-of-sight distribution ratio E2).
Note that when the first line-of-sight distribution ratio E1 of all makeup simulation images is less than a predetermined value, recommendation information is not presented.
 文献”Brady, N., Campbell, M., & Flaherty, M. (2005). Perceptual asymmetries are preserved in memory for highly familiar faces of self and friend. Brain & Cognition, 58, 334-342.”には、その人らしさは、顔の右側半分に表れるという研究成果が記載されている。人が日常的に見る自分の顔は鏡に映った顔である。したがって、人が鏡に写った自分の顔を見る場合、観察者から向かって右側に自分らしさを感じる傾向がある。
 また、文献”Guo, K., Tunnicliffe, D., & Roebuck, H. (2010). Human spontaneousgaze patterns in viewing of faces of different species. Perception, 39, 533-542.”には、人間や霊長類が人や動物を注視するときに、観察者から向かって顔の左側半分を見る傾向にあるという研究成果が記載されている。
The document “Brady, N., Campbell, M., & Flaherty, M. (2005). Perceptual asymmetries are preserved in memory for highly familiar faces of self and friend. Brain & Cognition, 58, 334-342.” The research result that the humanity appears in the right half of the face is described. The face that people see on a daily basis is the face reflected in the mirror. Therefore, when a person sees his / her face in the mirror, he / she tends to feel his / her own right side from the viewer.
Also, the document “Guo, K., Tunnicliffe, D., & Roebuck, H. (2010). Human spontaneousgaze patterns in viewing of faces of different species. Perception, 39, 533-542.” Research results indicate that when looking at people or animals, they tend to look at the left half of the face from the viewer.
 第1例の第1視線分布率E1が最も大きいメイキャップシミュレーション画像とは、複数のメイキャップシミュレーション画像のうち、右目側が最も注視されたメイキャップシミュレーション画像を意味する。換言すると、第1視線分布率E1が最も大きいメイキャップシミュレーション画像は、ユーザUの潜在的な評価が高い画像(例えば、最も関心が高い画像、最も自分らしさを感じる画像、最も親和性を感じる画像、又は、最も印象的に感じる画像)とも言える。 The makeup simulation image having the largest first line-of-sight distribution ratio E1 in the first example means a makeup simulation image in which the right eye side is most watched among a plurality of makeup simulation images. In other words, the makeup simulation image having the largest first gaze distribution rate E1 is an image having a high potential evaluation by the user U (for example, an image having the highest interest, an image that feels the most, an image that feels the most affinity). Or the most impressive image).
 第2例の第1視線分布率E1が所定値以上である少なくとも1つのメイキャップシミュレーション画像とは、複数のメイキャップシミュレーション画像のうち、右目側が一定以上注視されたメイキャップシミュレーション画像を意味する。換言すると、第1視線分布率E1が所定値以上のメイキャップシミュレーション画像は、ユーザUの潜在的な評価が一定の基準を超えている画像(例えば、一定程度関心が高い画像、一定程度自分らしさを感じる画像、一定程度親和性を感じる画像、又は、一定程度印象的に感じる画像)とも言える。 The at least one makeup simulation image in which the first line-of-sight distribution rate E1 in the second example is equal to or greater than a predetermined value means a makeup simulation image in which the right eye side is watched more than a certain value among a plurality of makeup simulation images. In other words, a makeup simulation image having a first gaze distribution rate E1 of a predetermined value or more is an image in which the potential evaluation of the user U exceeds a certain standard (for example, an image with a certain degree of interest or a certain degree of personality). Or an image that feels a certain degree of affinity, or an image that feels a certain degree of impression).
 画面P103の例では、画像オブジェクトIMG101及びIMG102のうち、画像オブジェクトIMG101の第1視線分布率E1が最も大きいので、画像オブジェクトIMG101に対応するメイキャップシミュレーション画像(つまり、パターン名「MC1」のメイキャップパターンが適用されたメイキャップシミュレーション画像)がレコメンド情報として決定される。 In the example of the screen P103, the first gaze distribution rate E1 of the image object IMG101 is the largest of the image objects IMG101 and IMG102, and therefore a makeup simulation image corresponding to the image object IMG101 (that is, the makeup of the pattern name “MC1”) Makeup simulation image to which the pattern is applied) is determined as recommendation information.
 ステップS105の後、クライアント装置10は、レコメンド情報の提示(S106)を実行する。
 具体的には、プロセッサ12は、画面P104(図10)をディスプレイ15に表示する。
After step S105, the client apparatus 10 presents recommendation information (S106).
Specifically, the processor 12 displays the screen P104 (FIG. 10) on the display 15.
 画面P104は、画像オブジェクトIMG101と、表示オブジェクトA104a~A104bと、操作オブジェクトB104a~B104bと、を含む。
 表示オブジェクトA104aには、メイキャップシミュレーション画像の生成に用いられたメイキャップパターンのパターン名が表示される。
 表示オブジェクトA104bには、メイキャップシミュレーション画像の生成に用いられたメイキャップパターンに対応するアイテムに関するアイテム情報(例えば、アイテムのカテゴリ及びアイテムID)が表示される。
 操作オブジェクトB104aは、レコメンド情報(例えば、画像オブジェクトIMG101、表示オブジェクトA104a~A104bの内容)を用いてサーバ30上のデータベースを更新するためのユーザ指示を受け付けるオブジェクトである。
 操作オブジェクトB104bは、表示オブジェクトA104bに表示されたアイテムを販売するウェブサイトにアクセスするためのユーザ指示を受け付けるオブジェクトである。操作オブジェクトB104bには、当該ウェブサイトのURL(Uniform Resource Locator)が割り当てられている。
Screen P104 includes image object IMG101, display objects A104a to A104b, and operation objects B104a to B104b.
The display object A104a displays the pattern name of the makeup pattern used for generating the makeup simulation image.
In the display object A104b, item information (for example, item category and item ID) related to the item corresponding to the makeup pattern used to generate the makeup simulation image is displayed.
The operation object B104a is an object that receives a user instruction for updating the database on the server 30 using the recommendation information (for example, the contents of the image object IMG101 and the display objects A104a to A104b).
The operation object B104b is an object that receives a user instruction to access a website that sells items displayed on the display object A104b. A URL (Uniform Resource Locator) of the website is assigned to the operation object B104b.
 ステップS106の後、クライアント装置10は、更新リクエスト(S107)を実行する。
 具体的には、プロセッサ12は、更新リクエストデータをサーバ30に送信する。
 更新リクエストデータは、以下の情報を含む。
 ・ユーザUのユーザID
 ・ステップS100で決定された画像データ
 ・ステップS101で参照されたメイキャップパターンID
 ・ステップS103の実行日に関する情報
 ・ステップS1030で記憶装置11に記憶された計測座標及び計測時間
 ・ステップS1033で計算された第1視線分布率E1及び第2視線分布率E2
After step S106, the client device 10 executes an update request (S107).
Specifically, the processor 12 transmits update request data to the server 30.
The update request data includes the following information.
・ User ID of user U
Image data determined in step S100 Makeup pattern ID referenced in step S101
Information relating to the execution date of step S103 Measurement coordinates and measurement time stored in the storage device 11 in step S1030 First and second line-of-sight distribution rates E1 and E2 calculated in step S1033
 ステップS107の後、サーバ30は、データベースの更新(S300)を実行する。
 具体的には、プロセッサ32は、更新リクエストデータに含まれるユーザIDに関連付けられたシミュレーションログ情報データベース(図6)に新規レコードを追加する。
 新規レコードの各フィールドには、以下の情報が格納される。
 ・「シミュレーションID」フィールドには、新たなシミュレーションIDが格納される。
 ・「シミュレーション実行日」フィールドには、更新リクエストデータに含まれる実行日に関する情報が格納される。
 ・「元画像」フィールドには、更新リクエストデータに含まれる画像データが格納される。
 ・「パターンID」フィールドには、更新リクエストデータに含まれるメイキャップパターンIDが格納される。
 ・「計測座標」フィールドには、更新リクエストデータに含まれる計測座標が格納される。
 ・「計測時間」フィールドには、更新リクエストデータに含まれる計測時間が格納される。
 ・「R分布」フィールドには、更新リクエストデータに含まれる第1視線分布率E1が格納される。
 ・「L分布」フィールドには、更新リクエストデータに含まれる第2視線分布率E2が格納される。
After step S107, the server 30 executes database update (S300).
Specifically, the processor 32 adds a new record to the simulation log information database (FIG. 6) associated with the user ID included in the update request data.
The following information is stored in each field of the new record.
In the “simulation ID” field, a new simulation ID is stored.
In the “simulation execution date” field, information related to the execution date included in the update request data is stored.
In the “original image” field, image data included in the update request data is stored.
In the “pattern ID” field, a makeup pattern ID included in the update request data is stored.
In the “measurement coordinate” field, measurement coordinates included in the update request data are stored.
In the “measurement time” field, the measurement time included in the update request data is stored.
In the “R distribution” field, the first line-of-sight distribution rate E1 included in the update request data is stored.
In the “L distribution” field, the second line-of-sight distribution rate E2 included in the update request data is stored.
 第1実施形態によれば、ユーザUに提示した顔の画像(例えば、メイキャップシミュレーション画像)に対する視線の偏りに基づいて、ユーザUの嗜好に合ったレコメンド情報(例えば、複数のメイキャップシミュレーション画像の中から、ユーザUの潜在的な評価の高いメイキャップシミュレーション画像)を提示する。これにより、ユーザUが観察する顔の画像に対するユーザUの潜在的な評価が高い情報を提示することができる。 According to the first embodiment, recommendation information (for example, a plurality of make-up simulation images) that suits the user U's preference based on the gaze bias with respect to the face image (eg, make-up simulation image) presented to the user U. Among them, a make-up simulation image having a high potential evaluation of the user U) is presented. Thereby, the information with high potential evaluation of the user U with respect to the image of the face which the user U observes can be shown.
(2)第2実施形態
 本発明の第2実施形態について説明する。第2実施形態は、自分の顔の鏡像における視線の偏りに基づいてレコメンド情報を提示する例である。
(2) Second Embodiment A second embodiment of the present invention will be described. The second embodiment is an example in which recommendation information is presented based on gaze bias in a mirror image of one's face.
(2-1)クライアント装置の構成
 第2実施形態のクライアント装置10の構成について説明する。図13は、第2実施形態のクライアント装置の外観図である。
(2-1) Configuration of Client Device The configuration of the client device 10 according to the second embodiment will be described. FIG. 13 is an external view of a client device according to the second embodiment.
 図13に示すように、クライアント装置10は、ハーフミラー17を更に備える。ハーフミラー17は、ディスプレイ15上に配置される。ハーフミラー17は、外光を反射し、且つ、ディスプレイ15から発光された光を透過するので、ユーザUは、鏡像MIとシミュレーション画像SIMGとを同時に観察することができる。 As shown in FIG. 13, the client device 10 further includes a half mirror 17. The half mirror 17 is disposed on the display 15. Since the half mirror 17 reflects external light and transmits light emitted from the display 15, the user U can observe the mirror image MI and the simulation image SIMG at the same time.
(2-2)情報処理
 第2実施形態の情報処理について説明する。図14は、第2実施形態の情報処理のフローチャートである。図15は、図14の視線パラメータの計算の詳細なフローチャートである。図16は、図14の視線パラメータの計算の説明図である。図17は、図14の情報処理において表示される画面例を示す図である。
(2-2) Information Processing Information processing according to the second embodiment will be described. FIG. 14 is a flowchart of information processing according to the second embodiment. FIG. 15 is a detailed flowchart of the line-of-sight parameter calculation of FIG. FIG. 16 is an explanatory diagram of the calculation of the line-of-sight parameter in FIG. FIG. 17 is a diagram illustrating an example of a screen displayed in the information processing of FIG.
 図14に示すように、クライアント装置10は、視線パラメータの計算(S110)を実行する。 As shown in FIG. 14, the client device 10 performs line-of-sight parameter calculation (S110).
 図15に示すように、クライアント装置10は、ステップS1030(図11)の後、ユーザ画像の撮像(S1100)を実行する。
 具体的には、カメラ16が、ハーフミラー17に写っている鏡像MIを観察しているユーザUの顔の画像を撮像する。
 プロセッサ12は、カメラ16によって取得された画像の画像データを生成する。
As illustrated in FIG. 15, the client device 10 performs user image capturing (S <b> 1100) after step S <b> 1030 (FIG. 11).
Specifically, the camera 16 captures an image of the face of the user U who is observing the mirror image MI reflected on the half mirror 17.
The processor 12 generates image data of an image acquired by the camera 16.
 ステップS1100の後、クライアント装置10は、鏡像座標の計算(S1101)を実行する。
 具体的には、プロセッサ12は、ステップS1100で生成した画像データの特徴量を解析することにより、ユーザUの顔の各部(例えば、輪郭、目、鼻、及び、口)の画像空間における座標及びサイズを計算する。
 プロセッサ12は、顔の各部の座標及びサイズと、クライアント装置10におけるカメラ16の位置と、に基づいて、ハーフミラー17とユーザUとの間の距離を計算する。
 プロセッサ12は、計算した距離と、画像空間における座標と、に基づいて、鏡像MIの座標空間(以下「鏡像空間」という)における顔の各部の座標(以下「鏡像座標」という)を計算する。
After step S1100, the client apparatus 10 executes mirror image coordinate calculation (S1101).
Specifically, the processor 12 analyzes the feature amount of the image data generated in step S1100, thereby determining the coordinates in the image space of each part (for example, contour, eyes, nose, and mouth) of the user U's face. Calculate the size.
The processor 12 calculates the distance between the half mirror 17 and the user U based on the coordinates and size of each part of the face and the position of the camera 16 in the client device 10.
Based on the calculated distance and the coordinates in the image space, the processor 12 calculates the coordinates of each part of the face (hereinafter referred to as “mirror image coordinates”) in the coordinate space of the mirror image MI (hereinafter referred to as “mirror image space”).
 ステップS1101の後、クライアント装置10は、鏡像空間の分割(S1102)を実行する。
 具体的には、図16に示すように、プロセッサ12は、ステップS1101で計算した各部の鏡像座標に基づいて、鏡像空間の基準線(例えば、両目を結ぶ線の中間点と、鼻の中心と、を結ぶ線)MRLの座標を計算する。
 プロセッサ12は、基準線MRLを境界線として、鏡像空間を、第1領域A1及び第2領域A2に分割する。
 第1領域A1は、鏡像MIにおいてユーザUから向かって右側に位置する(つまり、右目REを含む)領域である。
 第2領域A2は、鏡像MIにおいてユーザUから向かって左側に位置する(つまり、左目LEを含む)領域である。
After step S1101, the client apparatus 10 executes division of the mirror image space (S1102).
Specifically, as shown in FIG. 16, the processor 12 determines the reference line of the mirror image space (for example, the midpoint of the line connecting both eyes and the center of the nose) based on the mirror image coordinates of each part calculated in step S1101. The line connecting M, and M) is calculated.
The processor 12 divides the mirror image space into the first area A1 and the second area A2 with the reference line MRL as a boundary line.
The first area A1 is an area located on the right side of the mirror image MI from the user U (that is, including the right eye RE).
The second area A2 is an area located on the left side of the mirror image MI from the user U (that is, including the left eye LE).
 ステップS1102の後、クライアント装置10は、ステップS1032~S1033(図11)を実行する。 After step S1102, the client device 10 executes steps S1032 to S1033 (FIG. 11).
 ステップS110の後、クライアント装置10は、レコメンド情報の決定(S111)を実行する。
 具体的には、プロセッサ12は、ステップS110で計算した第1視線分布率E1及び第2視線分布率E2を式2に適用することにより、鏡像MIに対するユーザUの評価に関するスコアSを計算する。
Figure JPOXMLDOC01-appb-M000002
 ・S…スコア
 ・a…第1視線分布率の係数
 ・b…第2視線分布率の係数
After step S110, the client apparatus 10 executes recommendation information determination (S111).
Specifically, the processor 12 calculates the score S related to the evaluation of the user U with respect to the mirror image MI by applying the first line-of-sight distribution rate E1 and the second line-of-sight distribution rate E2 calculated in step S110 to Equation 2.
Figure JPOXMLDOC01-appb-M000002
S: Score a a coefficient of the first gaze distribution rate b b coefficient of the second gaze distribution rate
 ステップS111の後、レコメンド情報の提示(S112)を実行する。
 具体的には、プロセッサ12は、画面P110(図17A)をディスプレイ15に表示する。
 画面P110は、表示オブジェクトA110を含む。
 表示オブジェクトA110には、ステップS111で計算されたスコアSが表示される。
After step S111, recommendation information is presented (S112).
Specifically, the processor 12 displays the screen P110 (FIG. 17A) on the display 15.
The screen P110 includes a display object A110.
The display object A110 displays the score S calculated in step S111.
 鏡像MIが変化する(例えば、ユーザUの顔のメイキャップの仕上がりが変わる)と、ステップS110~S112の処理結果も変化する。
 その結果、プロセッサ12は、画面P111(図17B)をディスプレイ15に表示する。
 画面P111は、表示オブジェクトA111を含む。
 表示オブジェクトA111には、ステップS111で計算されたスコアSが表示される。このスコアSは、表示オブジェクトA110に表示されたスコアSとは異なる。
When the mirror image MI changes (for example, the finish of the makeup of the user U's face changes), the processing results of steps S110 to S112 also change.
As a result, the processor 12 displays the screen P111 (FIG. 17B) on the display 15.
The screen P111 includes a display object A111.
The score S calculated in step S111 is displayed on the display object A111. This score S is different from the score S displayed on the display object A110.
 第2実施形態によれば、ユーザUの顔の鏡像MIに対する視線の偏りに基づいて、ユーザUの嗜好に合ったレコメンド情報(例えば、鏡像MIに対するユーザUの評価に関するスコアS)を提示する。これにより、ユーザが観察する顔の鏡像MIに対するユーザの潜在的な評価を提示することができる。 According to the second embodiment, based on the line-of-sight bias with respect to the mirror image MI of the user U's face, recommendation information (for example, a score S relating to the user U's evaluation with respect to the mirror image MI) is presented. Thereby, the user's potential evaluation with respect to the mirror image MI of the face observed by the user can be presented.
 例えば、ユーザUがハーフミラー17に写った鏡像MIを観察しながら、複数のメイキャップアイテムを用いてメイキャップをしている場合、スコアSは、各メイキャップアイテムを用いたメイキャップに対するユーザUの潜在的な評価を表す。つまり、スコアSは、メイキャップアイテム毎のユーザUの反応を表す。 For example, when the user U is making a make-up using a plurality of make-up items while observing the mirror image MI reflected on the half mirror 17, the score S is the user U for the make-up using each make-up item. Represents a potential evaluation of. That is, the score S represents the reaction of the user U for each makeup item.
 例えば、ユーザUがハーフミラー17に写った鏡像MIを観察しながらメイキャップをしている場合、スコアSは、ユーザUがメイキャップを開始してから終了するまでの間の鏡像MI(つまり、メイキャップ中の顔)に対するユーザの潜在的な評価を表す。つまり、スコアSは、ユーザUがメイキャップを開始してから終了するまでの間のメイキャップの出来栄えに対するユーザUの反応の推移を表す。 For example, when the user U is making a makeup while observing the mirror image MI reflected on the half mirror 17, the score S is a mirror image MI (that is, the user U from the start to the end of the make-up) Represents a user's potential evaluation of the face in the make-up). That is, the score S represents the transition of the reaction of the user U with respect to the quality of the make-up during the period from when the user U starts making up to when it ends.
 図13では、クライアント装置10がハーフミラー17を備える例を示したが、第2実施形態は、これに限られるものではない。ハーフミラー17が光を全反射する鏡であり、且つ、ディスプレイ15はクライアント装置10の外部に配置されてもよい。この場合、ユーザUは、鏡に写った自身の顔の鏡像を観察する。画面P110~P111は、クライアント装置10の外部に配置されたディスプレイに表示される。 Although FIG. 13 shows an example in which the client device 10 includes the half mirror 17, the second embodiment is not limited to this. The half mirror 17 may be a mirror that totally reflects light, and the display 15 may be disposed outside the client device 10. In this case, the user U observes a mirror image of his / her face reflected in the mirror. The screens P110 to P111 are displayed on a display arranged outside the client device 10.
(3)第3実施形態
 第3実施形態について説明する。第3実施形態は、コンピュータ空間においてユーザの化身として振る舞うアバタの画像(以下「アバタ画像」という)に対するユーザの潜在的な評価を提示する例である。
(3) Third Embodiment A third embodiment will be described. The third embodiment is an example of presenting a user's potential evaluation for an avatar image (hereinafter referred to as an “avatar image”) that behaves as an incarnation of the user in a computer space.
 第3実施形態の情報処理について説明する。図18は、第3実施形態の情報処理のフローチャートである。図19~図20は、図18の情報処理において表示される画面例を示す図である。
 図18の情報処理は、例えば、第3実施形態がコンピュータゲームに適用される場合、コンピュータゲームのプレイを開始する前、又は、プレイ中に実行される。
Information processing according to the third embodiment will be described. FIG. 18 is a flowchart of information processing according to the third embodiment. 19 to 20 are diagrams showing examples of screens displayed in the information processing of FIG.
For example, when the third embodiment is applied to a computer game, the information processing of FIG. 18 is executed before or during the play of the computer game.
 図18に示すように、クライアント装置10は、アバタ画像の提示(S120)を実行する。
 具体的には、プロセッサ12は、画面P120(図19)をディスプレイ15に表示する。
As illustrated in FIG. 18, the client device 10 presents an avatar image (S120).
Specifically, the processor 12 displays the screen P120 (FIG. 19) on the display 15.
 画面P120は、画像オブジェクトIMG120と、メッセージオブジェクトM120と、を含む。
 画像オブジェクトIMG120は、アバタ画像である。
 メッセージオブジェクトM120は、ユーザUの視線を画像オブジェクトIMG101に誘導するためのメッセージである。
Screen P120 includes an image object IMG120 and a message object M120.
The image object IMG120 is an avatar image.
The message object M120 is a message for guiding the user U's line of sight to the image object IMG101.
 ステップS120の後、クライアント装置10は、ステップS103(図7)を実行する。 After step S120, the client device 10 executes step S103 (FIG. 7).
 図18のSS3(ステップS120及びS103)は、複数のアバタ画像のそれぞれについて、複数回実行される。 18 SS3 (steps S120 and S103) in FIG. 18 is executed a plurality of times for each of the plurality of avatar images.
 例えば、2回目のステップS120では、プロセッサ12は、画面P121(図19)をディスプレイ15に表示する。 For example, in the second step S120, the processor 12 displays the screen P121 (FIG. 19) on the display 15.
 画面P121は、画像オブジェクトIMG121と、メッセージオブジェクトM120と、を含む。
 画像オブジェクトIMG121は、1回目のステップS120で提示されたアバタ画像とは異なるアバタ画像である。
Screen P121 includes an image object IMG121 and a message object M120.
The image object IMG121 is an avatar image different from the avatar image presented in the first step S120.
 これにより、複数のアバタ画像に対する視線分布が得られる。 Thereby, the line-of-sight distribution for a plurality of avatar images is obtained.
 ステップS103の後、クライアント装置10は、レコメンド情報の決定(S121)を実行する。
 具体的には、プロセッサ12は、各アバタ画像の第1視線分布率E1及び第2視線分布率E2を式3に適用することにより、各アバタ画像の自己同一視指数Si(レコメンド情報の一例)を計算する。自己同一視指数Siは、アバタ画像に対して「自分の化身である」とユーザUが感じるレベルに関する指標である。
Figure JPOXMLDOC01-appb-M000003
 ・Si…スコア
 ・α…第1視線分布率の係数
 ・β…第2視線分布率の係数
After step S103, the client apparatus 10 performs recommendation information determination (S121).
Specifically, the processor 12 applies the first line-of-sight distribution rate E1 and the second line-of-sight distribution rate E2 of each avatar image to Equation 3 to thereby determine the self-identification index Si (an example of recommendation information) of each avatar image. Calculate The self-identification index Si is an index relating to a level at which the user U feels “the incarnation” of the avatar image.
Figure JPOXMLDOC01-appb-M000003
・ Si: Score ・ α: Coefficient of first gaze distribution rate ・ β: Coefficient of second gaze distribution rate
 ステップS121の後、レコメンド情報の提示(S122)を実行する。
 具体的には、プロセッサ12は、画面P122(図20)をディスプレイ15に表示する。
After step S121, recommendation information is presented (S122).
Specifically, the processor 12 displays the screen P122 (FIG. 20) on the display 15.
 画面P122は、表示オブジェクトA122a~A122bと、画像オブジェクトIMG120~IMG121と、操作オブジェクトB122a~B122bと、を含む。
 表示オブジェクトA122aには、画像オブジェクトIMG120に対応するアバタ画像のアバタ名と、画像オブジェクトIMG120に対する第1視線分布率E1及び第2視線分布率E2と、画像オブジェクトIMG120の自己同一視指数Siと、が表示される。
 表示オブジェクトA122bには、画像オブジェクトIMG121に対応するアバタ画像のアバタ名と、画像オブジェクトIMG121に対する第1視線分布率E1及び第2視線分布率E2と、画像オブジェクトIMG121の自己同一視指数Siと、が表示される。
Screen P122 includes display objects A122a to A122b, image objects IMG120 to IMG121, and operation objects B122a to B122b.
The display object A 122a includes the avatar name of the avatar image corresponding to the image object IMG 120, the first gaze distribution rate E1 and the second gaze distribution rate E2 with respect to the image object IMG 120, and the self-identification index Si of the image object IMG 120. Is displayed.
The display object A 122b includes the avatar name of the avatar image corresponding to the image object IMG121, the first gaze distribution rate E1 and the second gaze distribution rate E2 with respect to the image object IMG121, and the self-identification index Si of the image object IMG121. Is displayed.
 ステップS122の後、クライアント装置10は、更新リクエスト(S123)を実行する。
 具体的には、プロセッサ12は、画面P123をディスプレイ15に表示する。
After step S122, the client device 10 executes an update request (S123).
Specifically, the processor 12 displays the screen P123 on the display 15.
 画面P123は、表示オブジェクトA123と、操作オブジェクトB123a~B123bと、画像オブジェクトIMG123と、を含む。
 表示オブジェクトA123には、ステップS121で計算された自己同一視指数Siが最も高いアバタ画像に関する情報(アバタ名、第1視線分布率E1、第2視線分布率E2、及び、自己同一視指数Si)が表示される。
 画像オブジェクトIMG123は、自己同一視指数Siが最も高いアバタ画像である。
 操作オブジェクトB123aは、画像オブジェクトIMG123のアバタ画像としての使用を確定させるためのユーザ指示を受け付けるオブジェクトである。
 操作オブジェクトB123bは、画像オブジェクトIMG123のアバタ画像としての使用を拒否するためのユーザ指示を受け付けるオブジェクトである。
The screen P123 includes a display object A123, operation objects B123a to B123b, and an image object IMG123.
In the display object A123, information on the avatar image having the highest self-identification index Si calculated in step S121 (avatar name, first gaze distribution rate E1, second gaze distribution rate E2, and self-identification index Si). Is displayed.
The image object IMG123 is an avatar image having the highest self-identification index Si.
The operation object B123a is an object that receives a user instruction for confirming use of the image object IMG123 as an avatar image.
The operation object B123b is an object that accepts a user instruction for refusing use of the image object IMG123 as an avatar image.
 ユーザが操作オブジェクトB123aを操作すると、プロセッサ12は、更新リクエストデータをサーバ30に送信する。
 更新リクエストデータは、以下の情報を含む。
 ・ユーザID
 ・画像オブジェクトIMG123に割り当てられたアバタ画像の画像データ
When the user operates the operation object B 123 a, the processor 12 transmits update request data to the server 30.
The update request data includes the following information.
・ User ID
Image data of an avatar image assigned to the image object IMG123
 ステップS123の後、サーバ30は、データベースの更新(S300)を実行する。
 具体的には、プロセッサ32は、ユーザ情報データベース(図4)を参照して、更新リクエストデータに含まれるユーザIDに関連付けられたレコードを特定する。
 プロセッサ32は、特定したレコードの「ユーザ画像」フィールドに、更新リクエストデータに含まれる画像データを格納する。
 これにより、ユーザUは、自己同一視指数Siが最も高いアバタ画像を使用可能になる。
After step S123, the server 30 executes database update (S300).
Specifically, the processor 32 refers to the user information database (FIG. 4) and specifies a record associated with the user ID included in the update request data.
The processor 32 stores the image data included in the update request data in the “user image” field of the identified record.
Thereby, the user U can use the avatar image having the highest self-identification index Si.
 第3実施形態によれば、アバタ画像に対するユーザの潜在的な評価を提示することができる。これにより、ユーザは、自身の潜在的な評価が高いアバタ(例えば、最も関心が高いアバタ、最も自分らしさを感じる(つまり、自分と同一視できる)アバタ、最も親和性を感じるアバタ、又は、最も印象的に感じるアバタ)を容易に選択することができる。 According to the third embodiment, a user's potential evaluation for an avatar image can be presented. This allows the user to have the highest potential avatar (e.g., the most interested avatar, the avatar that feels most personal (ie, can be identified with her), the avatar that feels most compatible, or most An avatar that feels impressive can be easily selected.
(4)第4実施形態
 第4実施形態について説明する。第4実施形態は、視線の動きのパターンに基づいて、画像に対するユーザの潜在的な評価を提示する例である。
(4) Fourth Embodiment A fourth embodiment will be described. The fourth embodiment is an example in which a user's potential evaluation for an image is presented based on a line-of-sight movement pattern.
(4-1)第4実施形態の概要
 第4実施形態の概要について説明する。図23は、第4実施形態の概要の説明図である。
(4-1) Overview of Fourth Embodiment An overview of the fourth embodiment will be described. FIG. 23 is an explanatory diagram of an outline of the fourth embodiment.
 図23に示すように、第4実施形態では、第1実施形態(図3)と同様に、人(例えば、ユーザU)の顔を含むシミュレーション画像SIMGを提示する。
 次に、シミュレーション画像SIMGを観察している間のユーザUの視線の動きに関するアイトラッキング信号を生成する。
 次に、アイトラッキング信号に基づいて、シミュレーション画像SIMGを構成する画素の座標空間(以下「画像空間」という)において、ユーザUの視線の動きのパターンに関する視線パターン(「視線パラメータ」の一例)を計算する。
 次に、視線パターンに基づいて、シミュレーション画像SIMGに対するユーザUの潜在的な評価に関するレコメンド情報を提供する。
As shown in FIG. 23, in the fourth embodiment, similarly to the first embodiment (FIG. 3), a simulation image SIMG including the face of a person (for example, user U) is presented.
Next, an eye tracking signal related to the movement of the line of sight of the user U while observing the simulation image SIMG is generated.
Next, on the basis of the eye tracking signal, a line-of-sight pattern (an example of “line-of-sight parameter”) relating to the movement pattern of the line of sight of the user U in the coordinate space of the pixels constituting the simulation image SIMG (hereinafter referred to as “image space”) calculate.
Next, based on the line-of-sight pattern, recommendation information related to the potential evaluation of the user U with respect to the simulation image SIMG is provided.
 このように、第4実施形態では、シミュレーション画像SIMGの画像空間におけるユーザUの視線パターンに基づいて、シミュレーション画像SIMGに対するユーザUの潜在的な評価が反映されたレコメンド情報を提示する。 Thus, in the fourth embodiment, recommendation information reflecting the potential evaluation of the user U with respect to the simulation image SIMG is presented based on the line-of-sight pattern of the user U in the image space of the simulation image SIMG.
(4-2)情報処理
 第4実施形態の情報処理について説明する。図24は、第4実施形態の視線パラメータの計算の処理のフローチャートである。図25及び図26は、図24の視線パターンの計算の説明図である。
(4-2) Information Processing Information processing according to the fourth embodiment will be described. FIG. 24 is a flowchart of the line-of-sight parameter calculation process according to the fourth embodiment. 25 and 26 are explanatory diagrams of the calculation of the line-of-sight pattern in FIG.
 第4実施形態の情報処理は、第1実施形態(図7)と同様に実行される。 Information processing of the fourth embodiment is executed in the same manner as in the first embodiment (FIG. 7).
 図24に示すように、クライアント装置10は、ステップS1030の後、視線パターンの計算(S1034)を実行する。
 具体的には、プロセッサ12は、視線分布に代えて、以下の少なくとも1つの視線パターンを計算する。
 ・所定の大きさの領域(以下「停留領域」という)に視線が停留した停留時間
 ・停留領域に視線が停留した停留回数
 ・視線の移動範囲
 ・視線の移動順序
 ・視線の移動面積
As illustrated in FIG. 24, the client device 10 performs line-of-sight pattern calculation (S1034) after step S1030.
Specifically, the processor 12 calculates at least one of the following gaze patterns instead of the gaze distribution.
・ Stopping time when the line of sight stops in a predetermined size area (hereinafter referred to as “stop area”) ・ Number of stops when the line of sight stops in the stopping area ・ Gaze movement range ・ Gaze movement order ・ Gaze movement area
 第1例として、プロセッサ12は、式4を用いて、停留時間Tsを計算する。
Figure JPOXMLDOC01-appb-M000004
 ・Ts…停留時間
 ・n…停留領域に含まれる計測座標の数
 ・t…計測時間の間隔
 図25Aに示すように、ユーザUの顔の画像FIMGに対する視線EMは、例えば、停留領域1の5秒間停留した後、停留領域2に10秒間停留したとする。この場合、停留領域1の停留時間Ts1は5秒であり、停留領域2の停留時間Ts2は10秒であり、総停留時間ΣTsは15秒である。
 プロセッサ12は、計測時間と、停留時間と、を関連付けて記憶装置11に記憶する。
As a first example, the processor 12 calculates the stop time Ts using Equation 4.
Figure JPOXMLDOC01-appb-M000004
Ts: Stop time n: Number of measurement coordinates included in the stop area t: Measurement time interval As shown in FIG. 25A, the line of sight EM with respect to the image FIMG of the user U is, for example, 5 of the stop area 1 It is assumed that after stopping for a second, the vehicle stops in the stopping area 2 for 10 seconds. In this case, the stop time Ts1 of the stop region 1 is 5 seconds, the stop time Ts2 of the stop region 2 is 10 seconds, and the total stop time ΣTs is 15 seconds.
The processor 12 stores the measurement time and the stop time in the storage device 11 in association with each other.
 第2例として、プロセッサ12は、式5を用いて、停留回数Nsを計算する。
Figure JPOXMLDOC01-appb-M000005
 ・Ns…停留回数
 ・ns…一定時間停留領域に含まれた回数
 図25Aの例では、停留回数は、2回である。
 プロセッサ12は、計測時間と、停留回数と、を関連付けて記憶装置11に記憶する。
As a second example, the processor 12 calculates the number of stops Ns using Equation 5.
Figure JPOXMLDOC01-appb-M000005
-Ns ... Number of stops-ns-Number of times included in the fixed region for a fixed time In the example of Fig. 25A, the number of stops is two.
The processor 12 stores the measurement time and the number of stops in the storage device 11 in association with each other.
 第3例として、プロセッサ12は、計測座標の端点に位置するX座標及びY座標(以下「端点座標」という)によって定義される矩形領域を、移動範囲として計算する。
 図25Bの例では、移動範囲は、端点座標{(X1,Y1),(X1,Y2),(X2,Y1),(X2,Y2)}によって定義される矩形領域Zである。
 プロセッサ12は、矩形領域Zを規定する端点座標を記憶装置11に記憶する。
As a third example, the processor 12 calculates a rectangular area defined by an X coordinate and a Y coordinate (hereinafter referred to as “end point coordinates”) located at the end points of the measurement coordinates as a movement range.
In the example of FIG. 25B, the moving range is a rectangular area Z defined by the end point coordinates {(X1, Y1), (X1, Y2), (X2, Y1), (X2, Y2)}.
The processor 12 stores the end point coordinates defining the rectangular area Z in the storage device 11.
 第4例として、プロセッサ12は、以下の方法により移動順序を計算する。
 プロセッサ12は、画像FIMGの画素領域を、顔の部位(例えば、左目、右目、鼻、及び、口)毎の画素領域(例えば、左目画素領域、右目画素領域、鼻画素領域、及び、口画素領域)に分割する。
 プロセッサ12は、視線EMが各画素領域を通過した順序(以下「移動順序」という)と、を計算する。
 図25Cの例では、移動順序は、{右目画素領域、鼻画素領域、口画素領域、そして、左目画素領域}である。
 プロセッサ12は、移動順序を記憶装置11に記憶する。
As a fourth example, the processor 12 calculates the movement order by the following method.
The processor 12 converts the pixel area of the image FIMG into pixel areas (for example, a left eye pixel area, a right eye pixel area, a nose pixel area, and a mouth pixel) for each part of the face (for example, left eye, right eye, nose, and mouth). Area).
The processor 12 calculates the order in which the line of sight EM passes through each pixel region (hereinafter referred to as “movement order”).
In the example of FIG. 25C, the movement order is {right-eye pixel region, nose pixel region, mouth pixel region, and left-eye pixel region}.
The processor 12 stores the movement order in the storage device 11.
 第5例として、プロセッサ12は、以下の何れかに基づいて、移動面積を計算する。
 ・XY空間における計測座標の数(但し、重複する計測座標は1座標と数える)(図26A)
 ・画像FIMGの画素領域を所定面積で区切られた区画SECに分割した場合、計測座標を含む区画SECの数の合計(図26B)
 プロセッサ12は、移動面積を記憶装置11に記憶する。
As a fifth example, the processor 12 calculates the moving area based on any of the following.
Number of measurement coordinates in XY space (however, overlapping measurement coordinates are counted as one coordinate) (FIG. 26A)
When the pixel area of the image FIMG is divided into sections SEC divided by a predetermined area, the total number of sections SEC including measurement coordinates (FIG. 26B)
The processor 12 stores the moving area in the storage device 11.
 記憶装置11には、視線パターン評価モデルが記憶されている。視線パターン評価モデルは、視線パターンを入力とし、且つ、顔に対する評価を出力とするモデルである。 The storage device 11 stores a line-of-sight pattern evaluation model. The line-of-sight pattern evaluation model is a model that receives a line-of-sight pattern as an input and outputs a face evaluation as an output.
 ステップS103の後、クライアント装置10のプロセッサ12は、ステップS105において、記憶装置11に記憶された視線パターン評価モデルを参照し、ステップS103で計算した視線パターンに対応する評価を計算する。 After step S103, the processor 12 of the client device 10 refers to the visual line pattern evaluation model stored in the storage device 11 in step S105, and calculates an evaluation corresponding to the visual line pattern calculated in step S103.
 第4実施形態によれば、視線パターンを用いた場合であっても、画像FIMGに対するユーザUの潜在的な評価を提示することができる。 According to the fourth embodiment, even if the line-of-sight pattern is used, the potential evaluation of the user U with respect to the image FIMG can be presented.
 第1例では、ユーザUが画像FIMGを見ながら、任意のメイキャップアイテムを用いてメイキャップを行っている場合、メイキャップの進行と共に、停留時間が計算される。
 一例として、計測時間が早いとき(例えば、計測の開始から、全体の計測時間の所定時間(一例として、全体の計測時間の1/10の時間)が経過するまでの間)に停留時間が長い場合、ユーザUは、メイキャップを開始した直後において、メイキャップの出来栄えに違和感を覚えていることを意味する。この場合、プロセッサ12は、メイキャップアイテムに対するユーザUの評価が低いと判定し、且つ、その評価に基づくレコメンド情報(例えば、メイキャップの出来栄えにユーザUが違和感を覚えている旨のメッセージ)を提示する。
 別の例として、計測時間が遅いとき(例えば、計測の終了から、全体の計測時間の所定時間(一例として、全体の計測時間の1/10の時間)を遡るまでの間)に停留時間が長い場合、ユーザUは、メイキャップ中に違和感を覚えていないことを意味する。この場合、プロセッサ12は、メイキャップアイテムに対するユーザUの評価が高いと判定し、且つ、その評価に基づくレコメンド情報(例えば、メイキャップの出来栄えにユーザUが満足している旨のメッセージ)を提示する。
In the first example, when the user U is making a make-up using an arbitrary make-up item while viewing the image FIMG, the stop time is calculated as the make-up proceeds.
As an example, when the measurement time is early (for example, from the start of measurement until a predetermined time of the total measurement time (for example, 1/10 of the total measurement time) elapses), the retention time is long. In this case, it means that the user U feels uncomfortable with the quality of the makeup immediately after starting the makeup. In this case, the processor 12 determines that the evaluation of the user U with respect to the make-up item is low, and recommends information based on the evaluation (for example, a message that the user U feels uncomfortable with the quality of the make-up). Present.
As another example, when the measurement time is late (for example, from the end of measurement until a predetermined time of the total measurement time (for example, 1/10 of the total measurement time) is traced) If it is long, it means that the user U does not feel uncomfortable during the make-up. In this case, the processor 12 determines that the evaluation of the user U with respect to the makeup item is high, and presents recommendation information based on the evaluation (for example, a message indicating that the user U is satisfied with the quality of the makeup). To do.
 第2例では、ユーザUが画像FIMGを見ながら、任意のメイキャップアイテムを用いてメイキャップを行っている場合、メイキャップの進行と共に、停留回数が計算される。
 一例として、計測時間が早いときに停留回数が多い場合、ユーザUは、メイキャップを開始した直後において、メイキャップの出来栄えに違和感を覚えていることを意味する。この場合、プロセッサ12は、メイキャップアイテムに対するユーザUの評価が低いと判定し、且つ、その評価に基づくレコメンド情報(例えば、メイキャップの出来栄えにユーザUが違和感を覚えている旨のメッセージ)を提示する。
 別の例として、計測時間が遅いときに停留回数が多い場合、ユーザUは、メイキャップの終了直前はメイキャップの出来栄えに違和感を覚えているが、メイキャップの終了後はメイキャップの出来栄えに違和感を覚えていないことを意味する。この場合、プロセッサ12は、メイキャップアイテムに対するユーザUの評価が高いと判定し、且つ、その評価に基づくレコメンド情報(例えば、メイキャップの出来栄えにユーザUが満足している旨のメッセージ)を提示する。
In the second example, when the user U performs make-up using an arbitrary make-up item while viewing the image FIMG, the number of stops is calculated as the make-up proceeds.
As an example, when the number of stops is large when the measurement time is early, it means that the user U feels uncomfortable with the performance of the makeup immediately after starting the makeup. In this case, the processor 12 determines that the evaluation of the user U with respect to the make-up item is low, and recommends information based on the evaluation (for example, a message that the user U feels uncomfortable with the quality of the make-up). Present.
As another example, when the number of stops is large when the measurement time is slow, the user U feels uncomfortable with the make-up performance just before the end of the make-up, but after the make-up finishes, It means that you don't feel uncomfortable. In this case, the processor 12 determines that the evaluation of the user U with respect to the makeup item is high, and presents recommendation information based on the evaluation (for example, a message indicating that the user U is satisfied with the quality of the makeup). To do.
 第3例では、ユーザUが画像FIMGを見ながら、任意のメイキャップアイテムを用いてメイキャップを行っている場合、メイキャップの進行と共に、移動範囲が計算される。
 化粧の評価の専門家は、顔の全体を見ていることが知られている。また、人は、他人の顔を見るときは全体を見るのに対して、自分の顔を見るときは部分的に見る傾向があることが知られている。つまり、顔の全体を見ることは、自分の顔を客観的に見ていることを意味する。プロセッサ12は、移動範囲を計算することにより、観察者自身による評価と他人による評価の一致度を、レコメンド情報として提示する。
In the third example, when the user U is making a make-up using an arbitrary make-up item while viewing the image FIMG, the moving range is calculated as the make-up proceeds.
It is known that makeup assessment specialists look at the entire face. In addition, it is known that a person tends to look partially when looking at his / her face while looking at the face of others. In other words, seeing the entire face means looking at your face objectively. The processor 12 presents the degree of coincidence between the evaluation by the observer and the evaluation by others as recommendation information by calculating the movement range.
 第4例では、例えば、メイキャップが終了した後にメイキャップの出来栄えを評価するために、ユーザUが画像FIMGを見ているときの視線EMの移動順序が計算される。
 一般に、移動順序は、メイキャップを施した箇所に対してユーザUが注目する順番を表している。この順番は、ユーザUにとって、メイキャップの特性の優先順位を意味している。プロセッサ12は、移動順序に基づいて、ユーザUにとっての優先順位の高い特性を特定することにより、優先順位の高い特性に適合したメイキャップアイテムをレコメンド情報として提示する。
In the fourth example, for example, the order of movement of the line of sight EM when the user U is looking at the image FIMG is calculated in order to evaluate the performance of the makeup after the makeup is completed.
In general, the movement order represents the order in which the user U pays attention to the place where the makeup is applied. This order means the priority of the make-up characteristics for the user U. The processor 12 identifies a characteristic having a high priority for the user U based on the movement order, and presents a makeup item that matches the characteristic having a high priority as recommendation information.
 第5例では、ユーザUが画像FIMGを見ながら、任意のメイキャップアイテムを用いてメイキャップを行っている場合、メイキャップの進行と共に、移動面積が計算される。
 移動面積は、第3例の移動範囲と同様に、自己評価と他人の評価の一致度を表す。プロセッサ12は、移動面積を計算することにより、自己評価と他人の評価の一致度を、レコメンド情報として提示する。
In the fifth example, when the user U performs make-up using an arbitrary make-up item while viewing the image FIMG, the moving area is calculated as the make-up proceeds.
Similarly to the movement range of the third example, the movement area represents the degree of coincidence between self-evaluation and other person's evaluation. The processor 12 presents the degree of coincidence between the self-evaluation and the other person's evaluation as recommendation information by calculating the moving area.
 第4実施形態は、第2実施形態にも適用可能である。第4実施形態を第2実施形態に適用した場合、視線分布以外の視線パラメータを用いた場合であっても、鏡像MIに対するユーザUの潜在的な評価を提示することができる。 The fourth embodiment can also be applied to the second embodiment. When the fourth embodiment is applied to the second embodiment, the potential evaluation of the user U with respect to the mirror image MI can be presented even when a line-of-sight parameter other than the line-of-sight distribution is used.
(5)変形例
 本実施形態の変形例について説明する。
(5) Modification A modification of the present embodiment will be described.
(5-1)変形例1
 変形例1について説明する。変形例1は、図7のメイキャップシミュレーション画像の提示(S102)において、ユーザUの視線を誘導する例である。図21は、変形例1の画面例を示す図である。
 変形例1は、第1実施形態~第3実施形態の何れにも適用可能である。
(5-1) Modification 1
Modification 1 will be described. Modification 1 is an example of guiding the user's line of sight in the presentation of the make-up simulation image of FIG. 7 (S102). FIG. 21 is a diagram illustrating a screen example of the first modification.
Modification 1 is applicable to any of the first to third embodiments.
 変形例1のステップS102では、プロセッサ12は、画面P101a(図21)をディスプレイ15に表示する。 In step S102 of the first modification, the processor 12 displays the screen P101a (FIG. 21) on the display 15.
 画面P101aは、画像オブジェクトIMG101aが表示される点において、画面P101(図8)と異なる。画像オブジェクトIMG101aは、ユーザUの視線を誘導するためのオブジェクトである。
 画像オブジェクトIMG101aは、画像オブジェクトIMG101の第2領域A2に表示される。
Screen P101a is different from screen P101 (FIG. 8) in that image object IMG101a is displayed. The image object IMG101a is an object for guiding the user U's line of sight.
The image object IMG101a is displayed in the second area A2 of the image object IMG101.
 一般に、左視野は全体処理に関連し、右視野は部分処理に関連することが知られている。変形例1によれば、第2領域A2に視線を誘導するための画像オブジェクトIMG101aが表示されるので、ユーザUが自身の顔を観察する際に全体処理が優勢となり、より客観的な自己評価が可能となる。メイキャップの目的のひとつは他者への印象形成である。自己評価の客観性が向上することで、自己評価と他者評価の差が低減する。その結果、自分の顔のメイキャップによって自己評価を上げると、そのメイキャップに対する他者からの評価も向上することになる。 Generally, it is known that the left visual field is related to the entire processing, and the right visual field is related to the partial processing. According to the first modification, the image object IMG101a for guiding the line of sight is displayed in the second area A2, so that when the user U observes his / her face, the entire process becomes dominant, and a more objective self-evaluation is performed. Is possible. One of the purposes of make-up is to create an impression on others. By improving the objectivity of self-evaluation, the difference between self-evaluation and others' evaluation is reduced. As a result, if the self-evaluation is increased by the makeup of his / her face, the evaluation of the makeup by others is also improved.
 なお、自己評価と他者評価との差は、視線を誘導しない場合と比べて、視線を誘導する場合の方が小さくなる。したがって、数値を用いて、視線を誘導したときの効果(客観性の向上による他者評価と自己評価との間のずれの低減の程度)を示すことができる。例えば、移動範囲又は移動面積を用いて自己評価と他人の評価の一致度を計算し、且つ、その計算結果を用いて、視線を誘導したときの効果を示すことができる。 Note that the difference between self-evaluation and other-party evaluation is smaller when the line of sight is guided than when the line of sight is not guided. Therefore, the numerical value can be used to show the effect when the line of sight is guided (the degree of reduction of the deviation between the other person's evaluation and the self-evaluation due to the improvement of the objectivity). For example, the degree of coincidence between the self-evaluation and the other person's evaluation can be calculated using the moving range or moving area, and the effect of guiding the line of sight can be shown using the calculation result.
(5-2)変形例2
 変形例2について説明する。変形例2は、1枚の画像に対するユーザの潜在的な評価を提示する例である。図22は、変形例2の情報処理において表示される画面例を示す図である。
 変形例2は、第1実施形態~第4実施形態の何れにも適用可能である。
(5-2) Modification 2
Modification 2 will be described. Modification 2 is an example in which a user's potential evaluation for one image is presented. FIG. 22 is a diagram illustrating an example of a screen displayed in the information processing according to the second modification.
Modification 2 is applicable to any of the first to fourth embodiments.
 変形例2の情報処理は、第1実施形態の情報処理(図7)と同様である。但し、ステップS104(図7)は省略される。 The information processing of Modification 2 is the same as the information processing (FIG. 7) of the first embodiment. However, step S104 (FIG. 7) is omitted.
 ステップS103の後、クライアント装置10のプロセッサ12は、ステップS105において、ステップS103で計算した視線分布率(つまり、図12の第1視線分布率E1及び第2視線分布率E2)を式2に適用することにより、シミュレーション画像SIMGに対するユーザUの評価に関するスコアSを計算する。 After step S103, the processor 12 of the client device 10 applies the line-of-sight distribution ratios calculated in step S103 (that is, the first line-of-sight distribution ratio E1 and the second line-of-sight distribution ratio E2 in FIG. 12) to Equation 2 in step S105. By doing so, the score S regarding the evaluation of the user U with respect to the simulation image SIMG is calculated.
 ステップS105の後、ステップS106において、プロセッサ12は、画面P104(図10)に代えて、画面P130(図22)をディスプレイ15に表示する。 After step S105, in step S106, the processor 12 displays the screen P130 (FIG. 22) on the display 15 instead of the screen P104 (FIG. 10).
 画面P130は、表示オブジェクトA103a、A104b、及び、A130と、画像オブジェクトIMG101と、を含む。
 表示オブジェクトA130には、ステップS105で計算されたスコアが表示される。
The screen P130 includes display objects A103a, A104b, and A130, and an image object IMG101.
The score calculated in step S105 is displayed on the display object A130.
 変形例2によれば、1つのメイキャップシミュレーション画像に対するスコアSをディスプレイ15に表示する。これにより、1種類の画像に対するユーザUの潜在的な評価を提示することができる。 According to the second modification, the score S for one makeup simulation image is displayed on the display 15. Thereby, the potential evaluation of the user U with respect to one type of image can be presented.
(5-3)変形例3
 変形例3について説明する。変形例3は、メイキャップシミュレーション画像及びアバタ画像以外の顔の画像に対して本実施形態を適用する例である。
(5-3) Modification 3
Modification 3 will be described. The third modification is an example in which the present embodiment is applied to a face image other than the makeup simulation image and the avatar image.
 第1例として、本実施形態は、任意の髪型が適用された顔の画像にも適用可能である。
 この場合、ユーザUに提示した顔の画像(例えば、任意の髪型が適用された顔の画像)に対する視線の偏りに基づいて、ユーザUの嗜好に合ったレコメンド情報(例えば、複数のヘアシミュレーション画像の中から、ユーザUの潜在的な評価の高いヘアシミュレーション画像)を提示する。これにより、ユーザUが観察する顔の画像に対するユーザUの潜在的な評価が高い情報を提示することができる。
As a first example, the present embodiment can also be applied to a face image to which an arbitrary hairstyle is applied.
In this case, recommendation information (for example, a plurality of hair simulation images) that suits the user U's preference based on the gaze bias with respect to the face image presented to the user U (for example, a face image to which an arbitrary hairstyle is applied). The hair simulation image with high potential evaluation of the user U) is presented. Thereby, the information with high potential evaluation of the user U with respect to the image of the face which the user U observes can be shown.
 第2例として、本実施形態は、任意の手術が施された顔の画像にも適用可能である。
 この場合、ユーザUに提示した顔の画像(例えば、任意の手術が施された後の顔の画像)に対する視線の偏りに基づいて、ユーザUの嗜好に合ったレコメンド情報(例えば、複数の手術シミュレーション画像の中から、ユーザUの潜在的な評価の高い手術シミュレーション画像)を提示する。これにより、ユーザUが観察する顔の画像に対するユーザUの潜在的な評価が高い情報を提示することができる。
As a second example, the present embodiment can also be applied to a face image that has undergone an arbitrary operation.
In this case, recommendation information (for example, a plurality of operations) that suits the preference of the user U based on the bias of the line of sight with respect to the face image presented to the user U (for example, the image of the face after any surgery has been performed). Among the simulation images, a surgical simulation image having a high potential evaluation of the user U) is presented. Thereby, the information with high potential evaluation of the user U with respect to the image of the face which the user U observes can be shown.
(6)本実施形態の小括
 本実施形態について小括する。
(6) Summary of this embodiment This embodiment is summarized.
 本実施形態の第1態様は、
 ユーザに対して、顔を含む画像を提示する手段(例えば、ステップS102の処理を実行するプロセッサ12)を備え、
 ユーザの視線の動きに関する視線情報を取得する手段(例えば、ステップS1030の処理を実行するプロセッサ12)を備え、
 視線情報に基づいて、画像におけるユーザの視線の偏りを計算する手段(例えば、ステップS1033の処理を実行するプロセッサ12)を備え、
 視線の偏りに基づいて、画像に関するレコメンド情報を決定する手段(例えば、ステップS105の処理を実行するプロセッサ12)を備え、
 レコメンド情報を提示する手段(例えば、ステップS106の処理を実行するプロセッサ12)を備える、
情報処理装置(例えば、クライアント装置10)である。
The first aspect of this embodiment is
A means for presenting an image including a face to the user (for example, the processor 12 that executes the process of step S102);
Means for acquiring line-of-sight information related to the movement of the user's line of sight (for example, the processor 12 that executes the process of step S1030);
Based on the line-of-sight information, a unit (for example, the processor 12 that executes the process of step S1033) that calculates the user's line-of-sight bias in the image is provided.
Means (for example, the processor 12 that executes the process of step S105) for determining recommendation information about the image based on the gaze bias,
Means for presenting recommendation information (for example, the processor 12 that executes the process of step S106);
An information processing apparatus (for example, the client apparatus 10).
 第1態様によれば、顔の画像に対するユーザUの視線の偏りに基づいて、ユーザUに提示するレコメンド情報が決定される。これにより、ユーザUが観察する顔に対するユーザUの潜在的な評価を提示することができる。 According to the first aspect, recommendation information to be presented to the user U is determined based on the deviation of the line of sight of the user U with respect to the face image. Thereby, the potential evaluation of the user U with respect to the face observed by the user U can be presented.
 本実施形態の第2態様は、
 計算する手段は、
  画像の画像空間を所定の境界線で第1領域及び第2領域に分割し、
  第1領域における第1視線分布と、
  第2領域における第2視線分布と、
を計算する、情報処理装置である。
The second aspect of this embodiment is
The means to calculate is
Dividing the image space of the image into a first region and a second region at a predetermined boundary;
A first line-of-sight distribution in the first region;
A second line-of-sight distribution in the second region;
Is an information processing apparatus for calculating
 第2態様によれば、画像空間を構成する2つの領域(第1領域及び第2領域)のそれぞれにおける視線分布に基づいて、ユーザUに提示するレコメンド情報が決定される。
 これにより、視線分布の偏りに応じたレコメンド情報を提示することができる。
According to the second aspect, the recommendation information to be presented to the user U is determined based on the line-of-sight distribution in each of the two regions (first region and second region) constituting the image space.
Thereby, recommendation information according to the bias of the line-of-sight distribution can be presented.
 本実施形態の第3態様は、
 提示する手段は、互いに異なる複数の画像を個別に提示し、
 計算する手段は、各画像について、第1視線分布及び第2視線分布を計算し、
 決定する手段は、複数の画像の少なくとも1つをレコメンド情報として決定する、情報処理装置である。
The third aspect of this embodiment is
The presenting means presents a plurality of different images individually,
The means for calculating calculates a first gaze distribution and a second gaze distribution for each image,
The determining means is an information processing apparatus that determines at least one of the plurality of images as recommendation information.
 第3態様によれば、複数の画像のそれぞれについて、画像空間を構成する2つの領域(第1領域及び第2領域)のそれぞれにおける視線分布に基づいて、レコメンド情報が決定される。
 これにより、複数の画像の中から少なくとも1つをレコメンド情報として提示することができる。
According to the third aspect, for each of the plurality of images, the recommendation information is determined based on the line-of-sight distribution in each of the two regions (first region and second region) constituting the image space.
Accordingly, at least one of the plurality of images can be presented as recommendation information.
 本実施形態の第4態様は、
 第1領域は、画像に対して向かって右側の領域であり、
 第2領域は、画像に対して向かって左側の領域であり、
 レコメンド情報は、複数の画像のうち、第1視線分布の割合が所定値以上である少なくとも1つの画像である、情報処理装置である。
The fourth aspect of this embodiment is
The first area is an area on the right side of the image,
The second region is a region on the left side with respect to the image,
The recommendation information is an information processing apparatus that is at least one image in which a ratio of the first line-of-sight distribution is a predetermined value or more among a plurality of images.
 第4態様によれば、画像に対して向かって右側の領域の視線分布の割合が所定値以上である画像をレコメンド情報として提示する。これにより、ユーザUの潜在的な評価が高い画像を容易に特定することができる。 According to the fourth aspect, an image in which the ratio of the line-of-sight distribution in the right region toward the image is greater than or equal to a predetermined value is presented as recommendation information. Thereby, an image with a high potential evaluation of the user U can be easily specified.
 本実施形態の第5態様は、
 画像は、ユーザの顔 に対して互いに異なるメイキャップが施された複数のメイキャップシミュレーション画像を含み、
 第1領域は、各メイキャップシミュレーション画像に対して向かって右側の領域であり、
 第2領域は、各メイキャップシミュレーション画像に対して向かって左側の領域であり、
 レコメンド情報は、複数のメイキャップシミュレーション画像のうち、第1視線分布の割合が最も多いメイキャップシミュレーション画像である、情報処理装置である。
The fifth aspect of this embodiment is
The image includes a plurality of makeup simulation images in which different makeups are applied to the user's face,
The first region is a region on the right side with respect to each makeup simulation image,
The second region is a region on the left side with respect to each makeup simulation image,
The recommendation information is an information processing apparatus that is a makeup simulation image having the highest ratio of the first line-of-sight distribution among the plurality of makeup simulation images.
 第5態様によれば、複数のメイキャップシミュレーション画像の中から、各メイキャップシミュレーション画像に対して向かって右側の領域に対する視線分布の割合が所定以上であるメイキャップシミュレーション画像が提示される。これにより、ユーザの潜在的な評価が高いメイキャップシミュレーション画像を容易に特定することができる。 According to the fifth aspect, a makeup simulation image in which the ratio of the line-of-sight distribution with respect to the region on the right side with respect to each makeup simulation image is greater than or equal to a predetermined value from among the plurality of makeup simulation images. Thereby, the makeup simulation image with a high user's potential evaluation can be specified easily.
 本実施形態の第6態様は、
 画像は、ユーザの顔に対してメイキャップが施されたメイキャップシミュレーション画像であり、
 第1領域は、メイキャップシミュレーション画像に対して向かって右側の領域であり、
 第2領域は、メイキャップシミュレーション画像に対して向かって左側の領域であり、
 レコメンド情報は、メイキャップシミュレーション画像における第1視線分布の割合に応じた情報である、情報処理装置である。
The sixth aspect of this embodiment is
The image is a makeup simulation image in which makeup is applied to the user's face,
The first area is an area on the right side of the makeup simulation image.
The second region is a region on the left side with respect to the makeup simulation image,
The recommendation information is an information processing apparatus that is information corresponding to the ratio of the first line-of-sight distribution in the makeup simulation image.
 第6態様によれば、メイキャップシミュレーション画像に対して向かって右側の領域に対する視線分布の割合に応じたレコメンド情報(例えば、スコア)が提示される。これにより、メイキャップシミュレーション画像に対するユーザUの潜在的な評価を知ることができる。 According to the sixth aspect, recommendation information (for example, a score) corresponding to the ratio of the line-of-sight distribution with respect to the right region toward the makeup simulation image is presented. Thereby, the potential evaluation of the user U with respect to the makeup simulation image can be known.
 本実施形態の第7態様は、
 画像は、互いに異なる複数のアバタ画像を含み、
 第1領域は、各アバタ画像に対して向かって右側の領域であり、
 第2領域は、各アバタ画像に対して向かって左側の領域であり、
 レコメンド情報は、複数のアバタ画像のうち、第1視線分布の割合が最も多いアバタ画像である、
情報処理装置である。
The seventh aspect of this embodiment is
The image includes a plurality of different avatar images,
The first region is a region on the right side with respect to each avatar image,
The second region is a region on the left side with respect to each avatar image,
The recommendation information is an avatar image having the highest ratio of the first line-of-sight distribution among the plurality of avatar images.
Information processing apparatus.
 第7態様によれば、複数のアバタ画像の中から、各アバタ画像に対して向かって右側の領域に対する視線分布の割合が所定以上であるアバタ画像が提示される。これにより、ユーザUの潜在的な評価が高いアバタ画像を容易に特定することができる。 According to the seventh aspect, an avatar image in which the ratio of the line-of-sight distribution with respect to the region on the right side with respect to each avatar image is greater than or equal to a predetermined value from the plurality of avatar images is presented. Thereby, an avatar image with a high potential evaluation of the user U can be easily identified.
 本実施形態の第8態様は、
 画像は、アバタ画像であり、
 第1領域は、アバタ画像に対して向かって右側の領域であり、
 第2領域は、アバタ画像に対して向かって左側の領域であり、
 レコメンド情報は、アバタ画像における第1視線分布の割合に応じた情報である、
情報処理装置である。
The eighth aspect of this embodiment is
The image is an avatar image,
The first region is a region on the right side with respect to the avatar image,
The second region is a region on the left side with respect to the avatar image,
The recommendation information is information corresponding to the ratio of the first gaze distribution in the avatar image.
Information processing apparatus.
 第8態様によれば、アバタ画像に対して向かって右側の領域に対する視線分布の割合に応じたレコメンド情報(例えば、スコア)が提示される。これにより、アバタ画像に対するユーザUの潜在的な評価を知ることができる。 According to the eighth aspect, recommendation information (for example, a score) according to the ratio of the line-of-sight distribution with respect to the right region toward the avatar image is presented. Thereby, the potential evaluation of the user U with respect to the avatar image can be known.
 本実施形態の第9態様は、
 画像は、ユーザの顔に対して互いに異なる髪型が適用された複数の画像、及び、ユーザの顔に対して互いに異なる手術が施された画像の少なくとも1つを含む、
情報処理装置である。
The ninth aspect of this embodiment is
The image includes at least one of a plurality of images in which different hairstyles are applied to the user's face and an image in which different operations are performed on the user's face,
Information processing apparatus.
 第9態様によれば、任意の髪型が適用された顔及び手術後の顔の少なくとも1つを表す画像に基づくレコメンド情報が提示される。これにより、当該顔に対するユーザUの潜在的な評価を知ることができる。 According to the ninth aspect, recommendation information based on an image representing at least one of a face to which an arbitrary hairstyle is applied and a face after surgery is presented. Thereby, the potential evaluation of the user U with respect to the face can be known.
 本実施形態の第10態様は、
 ユーザの顔の鏡像に対するユーザの視線の動きに関する視線情報を取得する手段(例えば、ステップS1030の処理を実行するプロセッサ12)を備え、
 視線情報に基づいて、鏡像におけるユーザの視線の偏りを計算する手段(例えば、ステップS1033の処理を実行するプロセッサ12)を備え、
 視線の偏りに基づいて、鏡像に関するレコメンド情報を決定する手段(例えば、ステップS111の処理を実行するプロセッサ12)を備え、
 レコメンド情報を提示する手段(例えば、ステップS112の処理を実行するプロセッサ12)を備える、
情報処理装置(例えば、クライアント装置10)である。
The tenth aspect of this embodiment is
Means for acquiring line-of-sight information relating to the movement of the user's line of sight with respect to the mirror image of the user's face (for example, the processor 12 that executes the process of step S1030);
Based on the line-of-sight information, a means for calculating a user's line-of-sight bias in the mirror image (for example, the processor 12 that executes the process of step S1033) is provided.
Means (for example, a processor 12 that executes the process of step S111) for determining recommendation information related to the mirror image based on the gaze deviation;
Means for presenting recommendation information (for example, the processor 12 that executes the process of step S112);
An information processing apparatus (for example, the client apparatus 10).
 第10態様によれば、顔の鏡像に対するユーザの視線の偏りに基づいて、レコメンド情報が決定される。これにより、鏡に写ったユーザUの顔に対するユーザUの潜在的な評価を提示することができる。 According to the tenth aspect, the recommendation information is determined based on the deviation of the user's line of sight with respect to the mirror image of the face. Thereby, the potential evaluation of the user U with respect to the user U's face reflected in the mirror can be presented.
 本実施形態の第11態様は、
 計算する手段は、
  鏡像の鏡像空間を所定の境界線で第1領域及び第2領域に分割し、
  第1領域における第1視線分布と、
  第2領域における第2視線分布と、
を計算する、
情報処理装置である。
The eleventh aspect of this embodiment is
The means to calculate is
Dividing the mirror image space of the mirror image into a first region and a second region at a predetermined boundary line;
A first line-of-sight distribution in the first region;
A second line-of-sight distribution in the second region;
Calculate
Information processing apparatus.
 第11態様によれば、鏡像空間を構成する2つの領域(第1領域及び第2領域)のそれぞれにおける視線分布に基づいて、ユーザに提示するレコメンド情報が決定される。
 これにより、視線分布の偏りに応じたレコメンド情報を提示することができる。
According to the eleventh aspect, the recommendation information to be presented to the user is determined based on the line-of-sight distribution in each of the two regions (first region and second region) constituting the mirror image space.
Thereby, recommendation information according to the bias of the line-of-sight distribution can be presented.
 本実施形態の第12態様は、
 第1領域は、右目を含み、
 第2領域は、左目を含み、
 レコメンド情報は、第1視線分布の割合に応じた情報であって、且つ、鏡像に対するユーザの評価に関する情報である、
情報処理装置である。
The twelfth aspect of this embodiment is
The first region includes the right eye,
The second region includes the left eye,
The recommendation information is information according to the ratio of the first line-of-sight distribution and is information related to the user's evaluation with respect to the mirror image.
Information processing apparatus.
 第12態様によれば、鏡像に対して向かって右側の領域に対する視線分布の割合に応じたレコメンド情報(例えば、スコア)が提示される。これにより、鏡像(例えば、メイキャップを施した自身の顔の鏡像)に対するユーザUの潜在的な評価を知ることができる。 According to the twelfth aspect, recommendation information (for example, a score) according to the ratio of the line-of-sight distribution with respect to the right region toward the mirror image is presented. Thereby, it is possible to know the potential evaluation of the user U with respect to a mirror image (for example, a mirror image of his / her face with makeup).
 本実施形態の第13態様は、
 ユーザの顔の画像を提示する手段(例えば、ステップS102の処理を実行するプロセッサ12)を備え、
 ユーザの視線の動きに関する視線情報を取得する手段(例えば、ステップS1030の処理を実行するプロセッサ12)を備え、
 視線情報に基づいて、画像におけるユーザの視線の動きのパターンに関する視線パターンを計算する手段(例えば、ステップS1034の処理を実行するプロセッサ12)を備え、
 計算した視線パターンに基づいて、ユーザに提示すべきレコメンド情報を決定する手段を備え、
 決定したレコメンド情報を提示する手段(例えば、ステップS106の処理を実行するプロセッサ12)を備える、
情報処理装置(例えば、クライアント装置10)である。
The thirteenth aspect of this embodiment is
Means for presenting an image of the user's face (for example, the processor 12 that executes the process of step S102);
Means for acquiring line-of-sight information related to the movement of the user's line of sight (for example, the processor 12 that executes the process of step S1030);
Means for calculating a line-of-sight pattern related to the pattern of movement of the user's line of sight in the image based on the line-of-sight information (for example, the processor 12 that executes the process of step S1034)
A means for determining recommendation information to be presented to the user based on the calculated line-of-sight pattern,
Means for presenting the determined recommendation information (for example, the processor 12 that executes the process of step S106);
An information processing apparatus (for example, the client apparatus 10).
 第13態様によれば、顔の画像に対するユーザUの視線パターンに基づいて、ユーザに提示するレコメンド情報が決定される。これにより、ユーザUが観察する顔に対するユーザUの潜在的な評価を提示することができる。 According to the thirteenth aspect, recommendation information to be presented to the user is determined based on the line-of-sight pattern of the user U with respect to the face image. Thereby, the potential evaluation of the user U with respect to the face observed by the user U can be presented.
 本実施形態の第14態様は、
 計算する手段は、ユーザの視線が所定範囲の停留領域に停留した時間である停留時間を、視線パターンとして計算する、
情報処理装置である。
The fourteenth aspect of this embodiment is
The means for calculating calculates a stop time, which is a time when the user's line of sight stops in a stop area of a predetermined range, as a line-of-sight pattern.
Information processing apparatus.
 本実施形態の第15態様は、
 計算する手段は、ユーザの視線が所定範囲の停留領域に停留した回数である停留回数を、視線パターンとして計算する、
情報処理装置である。
The fifteenth aspect of this embodiment is
The means for calculating calculates, as a line-of-sight pattern, the number of stops, which is the number of times that the user's line of sight has stopped in a predetermined range of stop areas.
Information processing apparatus.
 本実施形態の第16態様は、
 計算する手段は、ユーザの視線が分布する面積を、視線パターンとして計算する、
情報処理装置である。
The sixteenth aspect of this embodiment is
The calculating means calculates an area in which the user's line of sight is distributed as a line-of-sight pattern.
Information processing apparatus.
 本実施形態の第17態様は、
 計算する手段は、ユーザの視線が動く順序を、視線パターンとして計算する、
情報処理装置である。
The seventeenth aspect of this embodiment is
The means for calculating calculates the order in which the user's line of sight moves as a line-of-sight pattern.
Information processing apparatus.
 本実施形態の第18態様は、
 計算する手段は、ユーザの視線が移動した面積を、視線パターンとして計算する、
情報処理装置である。
The eighteenth aspect of this embodiment is
The calculating means calculates an area in which the user's line of sight has moved as a line-of-sight pattern.
Information processing apparatus.
 本実施形態の第19態様は、
 コンピュータ(例えば、プロセッサ12)を、上記の何れかに記載の各手段として機能させるためのプログラムである。
The nineteenth aspect of this embodiment is
A program for causing a computer (for example, the processor 12) to function as each of the means described above.
(7)その他の変形例 (7) Other variations
 記憶装置11は、ネットワークNWを介して、クライアント装置10と接続されてもよい。記憶装置31は、ネットワークNWを介して、サーバ30と接続されてもよい。 The storage device 11 may be connected to the client device 10 via the network NW. The storage device 31 may be connected to the server 30 via the network NW.
 上記の情報処理の各ステップは、クライアント装置10及びサーバ30の何れでも実行可能である。 Each step of the above information processing can be executed by either the client device 10 or the server 30.
 上記実施形態では、シミュレーション画像SIMGの一例として、メイキャップシミュレーション画像を例示した。しかし、本実施形態は、シミュレーション画像SIMGが以下の少なくとも1つである場合にも適用可能である。
 ・治療(例えば、整形手術)の後の顔のシミュレーション画像
 ・カラーリングした後の頭髪を含む顔のシミュレーション画像
In the said embodiment, the makeup simulation image was illustrated as an example of the simulation image SIMG. However, this embodiment is also applicable when the simulation image SIMG is at least one of the following.
・ Simulation image of face after treatment (for example, plastic surgery) ・ Simulation image of face including hair after coloring
 以上、本発明の実施形態について詳細に説明したが、本発明の範囲は上記の実施形態に限定されない。また、上記の実施形態は、本発明の主旨を逸脱しない範囲において、種々の改良や変更が可能である。また、上記の実施形態及び変形例は、組合せ可能である。 As mentioned above, although embodiment of this invention was described in detail, the scope of the present invention is not limited to said embodiment. The above-described embodiment can be variously improved and changed without departing from the gist of the present invention. Moreover, said embodiment and modification can be combined.
1       :情報処理システム
10      :クライアント装置
11      :記憶装置
12      :プロセッサ
13      :入出力インタフェース
14      :通信インタフェース
15      :ディスプレイ
16      :カメラ
17      :ハーフミラー
20      :アイトラッカ
30      :サーバ
31      :記憶装置
32      :プロセッサ
33      :入出力インタフェース
34      :通信インタフェース


 
1: Information processing system 10: Client device 11: Storage device 12: Processor 13: Input / output interface 14: Communication interface 15: Display 16: Camera 17: Half mirror 20: Eye tracker 30: Server 31: Storage device 32: Processor 33: I / O interface 34: Communication interface


Claims (19)

  1.  ユーザに対して、顔を含む画像を提示する手段を備え、
     前記ユーザの視線の動きに関する視線情報を取得する手段を備え、
     前記視線情報に基づいて、前記画像における前記ユーザの視線の偏りを計算する手段を備え、
     前記視線の偏りに基づいて、前記画像に関するレコメンド情報を決定する手段を備え、
     前記レコメンド情報を提示する手段を備える、
    情報処理装置。
    Means for presenting an image including a face to a user;
    Means for acquiring line-of-sight information related to the movement of the user's line of sight;
    Means for calculating a bias of the user's line of sight in the image based on the line of sight information;
    Means for determining recommendation information about the image based on the bias of the line of sight;
    Means for presenting the recommendation information;
    Information processing device.
  2.  前記計算する手段は、
      前記画像の画像空間を所定の境界線で第1領域及び第2領域に分割し、
      前記第1領域における第1視線分布と、
      前記第2領域における第2視線分布と、
    を計算する、
    請求項1に記載の情報処理装置。
    The means for calculating is
    Dividing the image space of the image into a first region and a second region at a predetermined boundary;
    A first line-of-sight distribution in the first region;
    A second line-of-sight distribution in the second region;
    Calculate
    The information processing apparatus according to claim 1.
  3.  前記提示する手段は、互いに異なる複数の画像を個別に提示し、
     前記計算する手段は、各画像について、前記第1視線分布及び前記第2視線分布を計算し、
     前記決定する手段は、前記複数の画像の少なくとも1つを前記レコメンド情報として決定する、
    請求項2に記載の情報処理装置。
    The presenting means presents a plurality of different images individually,
    The calculating means calculates the first line-of-sight distribution and the second line-of-sight distribution for each image,
    The determining means determines at least one of the plurality of images as the recommendation information.
    The information processing apparatus according to claim 2.
  4.  前記第1領域は、前記画像に対して向かって右側の領域であり、
     前記第2領域は、前記画像に対して向かって左側の領域であり、
     前記レコメンド情報は、前記複数の画像のうち、前記第1視線分布の割合が所定値以上である少なくとも1つの画像である、
    請求項3に記載の情報処理装置。
    The first region is a region on the right side of the image,
    The second area is an area on the left side of the image,
    The recommendation information is at least one image in which the ratio of the first line-of-sight distribution is a predetermined value or more among the plurality of images.
    The information processing apparatus according to claim 3.
  5.  前記画像は、前記ユーザの顔に対して互いに異なるメイキャップが施された複数のメイキャップシミュレーション画像を含み、
     前記第1領域は、各メイキャップシミュレーション画像に対して向かって右側の領域であり、
     前記第2領域は、各メイキャップシミュレーション画像に対して向かって左側の領域であり、
     前記レコメンド情報は、前記複数のメイキャップシミュレーション画像のうち、前記第1視線分布の割合が最も多いメイキャップシミュレーション画像である、
    請求項3又は4に記載の情報処理装置。
    The image includes a plurality of makeup simulation images in which different makeups are applied to the user's face,
    The first region is a region on the right side with respect to each makeup simulation image,
    The second region is a region on the left side with respect to each makeup simulation image,
    The recommendation information is a make-up simulation image having the largest proportion of the first line-of-sight distribution among the plurality of make-up simulation images.
    The information processing apparatus according to claim 3 or 4.
  6.  前記画像は、前記ユーザの顔に対してメイキャップが施されたメイキャップシミュレーション画像であり、
     前記第1領域は、前記メイキャップシミュレーション画像に対して向かって右側の領域であり、
     前記第2領域は、前記メイキャップシミュレーション画像に対して向かって左側の領域であり、
     前記レコメンド情報は、前記メイキャップシミュレーション画像における前記第1視線分布の割合に応じた情報である、
    請求項3又は4に記載の情報処理装置。
    The image is a makeup simulation image in which makeup is applied to the user's face,
    The first area is an area on the right side of the makeup simulation image.
    The second region is a region on the left side with respect to the makeup simulation image,
    The recommendation information is information according to a ratio of the first line-of-sight distribution in the makeup simulation image.
    The information processing apparatus according to claim 3 or 4.
  7.  前記提示する手段は、互いに異なる複数のアバタ画像を個別に提示し、
     前記第1領域は、各アバタ画像に対して向かって右側の領域であり、
     前記第2領域は、各アバタ画像に対して向かって左側の領域であり、
     前記レコメンド情報は、前記複数のアバタ画像のうち、前記第1視線分布の割合が最も多いアバタ画像である、
    請求項3又は4に記載の情報処理装置。
    The presenting means individually presents a plurality of different avatar images,
    The first region is a region on the right side with respect to each avatar image,
    The second region is a region on the left side with respect to each avatar image,
    The recommendation information is an avatar image having the largest proportion of the first line-of-sight distribution among the plurality of avatar images.
    The information processing apparatus according to claim 3 or 4.
  8.  前記画像は、アバタ画像であり、
     前記第1領域は、前記アバタ画像に対して向かって右側に位置し、
     前記第2領域は、前記アバタ画像に対して向かって左側に位置し、
     前記レコメンド情報は、前記アバタ画像における前記第1視線分布の割合に応じた情報である、
    請求項3又は4に記載の情報処理装置。
    The image is an avatar image;
    The first region is located on the right side with respect to the avatar image,
    The second area is located on the left side with respect to the avatar image,
    The recommendation information is information according to a ratio of the first line-of-sight distribution in the avatar image.
    The information processing apparatus according to claim 3 or 4.
  9.  前記画像は、前記ユーザの顔に対して互いに異なる髪型が適用された複数の画像、及び、前記ユーザの顔に対して互いに異なる手術が施された画像の少なくとも1つを含む、請求項3~8の何れかに記載の情報処理装置。 The image includes at least one of a plurality of images in which different hairstyles are applied to the user's face and an image in which different operations are performed on the user's face. The information processing apparatus according to any one of 8.
  10.  ユーザの顔の鏡像に対する前記ユーザの視線の動きに関する視線情報を取得する手段を備え、
     前記視線情報に基づいて、前記鏡像における前記ユーザの視線の偏りを計算する手段を備え、
     前記視線の偏りに基づいて、前記鏡像に関するレコメンド情報を決定する手段を備え、
     前記レコメンド情報を提示する手段を備える、
    情報処理装置。
    Means for acquiring line-of-sight information regarding the movement of the user's line of sight with respect to a mirror image of the user's face;
    Means for calculating a bias of the user's line of sight in the mirror image based on the line of sight information;
    Means for determining recommendation information related to the mirror image based on the bias of the line of sight;
    Means for presenting the recommendation information;
    Information processing device.
  11.  前記計算する手段は、
      前記鏡像の鏡像空間を所定の境界線で第1領域及び第2領域に分割し、
      前記第1領域における第1視線分布と、
      前記第2領域における第2視線分布と、
    を計算する、
    請求項10に記載の情報処理装置。
    The means for calculating is
    Dividing the mirror image space of the mirror image into a first region and a second region at a predetermined boundary line;
    A first line-of-sight distribution in the first region;
    A second line-of-sight distribution in the second region;
    Calculate
    The information processing apparatus according to claim 10.
  12.  前記第1領域は、前記鏡像に対して向かって右側に位置し、
     前記第2領域は、前記鏡像に対して向かって左側に位置し、
     前記レコメンド情報は、前記第1視線分布の割合に応じた情報であって、且つ、前記鏡像に対する前記ユーザの評価に関する情報である、
    請求項11に記載の情報処理装置。
    The first region is located on the right side with respect to the mirror image,
    The second region is located on the left side with respect to the mirror image,
    The recommendation information is information according to a ratio of the first line-of-sight distribution, and information related to the user's evaluation with respect to the mirror image.
    The information processing apparatus according to claim 11.
  13.  ユーザの顔の画像を提示する手段を備え、
     前記ユーザの視線の動きに関する視線情報を取得する手段を備え、
     前記視線情報に基づいて、前記画像における前記ユーザの視線の動きのパターンに関する視線パターンを計算する手段を備え、
     前記計算した視線パターンに基づいて、前記ユーザに提示すべきレコメンド情報を決定する手段を備え、
     前記決定したレコメンド情報を提示する手段を備える、
    情報処理装置。
    Means for presenting an image of the user's face;
    Means for acquiring line-of-sight information related to the movement of the user's line of sight;
    Means for calculating a line-of-sight pattern related to a movement pattern of the user's line of sight in the image based on the line-of-sight information;
    Means for determining recommended information to be presented to the user based on the calculated line-of-sight pattern;
    Means for presenting the determined recommendation information;
    Information processing device.
  14.  前記計算する手段は、前記ユーザの視線が所定範囲の停留領域に停留した時間である停留時間を、前記視線パターンとして計算する、
    請求項13に記載の情報処理装置。
    The calculating means calculates a stop time, which is a time when the user's line of sight stops in a predetermined range of stop area, as the line-of-sight pattern.
    The information processing apparatus according to claim 13.
  15.  前記計算する手段は、前記ユーザの視線が所定範囲の停留領域に停留した回数である停留回数を、前記視線パターンとして計算する、
    請求項13又は14に記載の情報処理装置。
    The means for calculating calculates, as the line-of-sight pattern, the number of stops, which is the number of times the user's line of sight has stopped in a predetermined range of stop areas.
    The information processing apparatus according to claim 13 or 14.
  16.  前記計算する手段は、前記ユーザの視線が分布する面積を、前記視線パターンとして計算する、
    請求項13~15の何れかに記載の情報処理装置。
    The calculating means calculates an area in which the line of sight of the user is distributed as the line-of-sight pattern.
    The information processing apparatus according to any one of claims 13 to 15.
  17.  前記計算する手段は、前記ユーザの視線が動く順序を、前記視線パターンとして計算する、
    請求項13~16の何れかに記載の情報処理装置。
    The calculating means calculates the order of movement of the user's line of sight as the line-of-sight pattern.
    The information processing apparatus according to any one of claims 13 to 16.
  18.  前記計算する手段は、前記ユーザの視線が移動した面積を、前記視線パターンとして計算する、
    請求項13~17の何れかに記載の情報処理装置。
    The calculating means calculates an area in which the user's line of sight has moved as the line-of-sight pattern.
    The information processing apparatus according to any one of claims 13 to 17.
  19.  コンピュータを、請求項1~18の何れかに記載の各手段として機能させるためのプログラム。


     
    A program for causing a computer to function as each means according to any one of claims 1 to 18.


PCT/JP2019/015012 2018-04-27 2019-04-04 Information processing device and program WO2019208152A1 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2018-086366 2018-04-27
JP2018086366A JP7253325B2 (en) 2018-04-27 2018-04-27 Information processing device, program, and information processing method

Publications (1)

Publication Number Publication Date
WO2019208152A1 true WO2019208152A1 (en) 2019-10-31

Family

ID=68294182

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2019/015012 WO2019208152A1 (en) 2018-04-27 2019-04-04 Information processing device and program

Country Status (3)

Country Link
JP (1) JP7253325B2 (en)
TW (1) TW201945898A (en)
WO (1) WO2019208152A1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPWO2020170845A1 (en) * 2019-02-22 2021-12-23 株式会社 資生堂 Information processing equipment and programs

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017115453A1 (en) * 2015-12-28 2017-07-06 パナソニックIpマネジメント株式会社 Makeup simulation assistance device, makeup simulation assistance method, and makeup simulation assistance program
WO2018029963A1 (en) * 2016-08-08 2018-02-15 パナソニックIpマネジメント株式会社 Make-up assistance apparatus and make-up assistance method

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017115453A1 (en) * 2015-12-28 2017-07-06 パナソニックIpマネジメント株式会社 Makeup simulation assistance device, makeup simulation assistance method, and makeup simulation assistance program
WO2018029963A1 (en) * 2016-08-08 2018-02-15 パナソニックIpマネジメント株式会社 Make-up assistance apparatus and make-up assistance method

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
"A study of image ranking from eye tracking data", PROC. OF THE 2011 ITE ANNUAL CONVENTION, August 2011 (2011-08-01) *
"Differences in eye fixation point distribution among the types of facial impressoin judgement and makeup", PROC OF THE 2015 ITE ANNUAL CONVENTION, 5 August 2015 (2015-08-05) *

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPWO2020170845A1 (en) * 2019-02-22 2021-12-23 株式会社 資生堂 Information processing equipment and programs

Also Published As

Publication number Publication date
JP2019192072A (en) 2019-10-31
TW201945898A (en) 2019-12-01
JP7253325B2 (en) 2023-04-06

Similar Documents

Publication Publication Date Title
JP6055160B1 (en) Cosmetic information providing system, cosmetic information providing apparatus, cosmetic information providing method, and program
TWI708183B (en) Personalized makeup information recommendation method
US20150234457A1 (en) System and method for content provision using gaze analysis
US10559102B2 (en) Makeup simulation assistance apparatus, makeup simulation assistance method, and non-transitory computer-readable recording medium storing makeup simulation assistance program
US20120221418A1 (en) Targeted Marketing System and Method
US11579686B2 (en) Method and device for carrying out eye gaze mapping
US20220383389A1 (en) System and method for generating a product recommendation in a virtual try-on session
AU2019240635A1 (en) Targeted marketing system and method
Wu et al. Users’ perceptions of technological features in augmented reality (AR) and virtual reality (VR) in fashion retailing: A qualitative content analysis
JP7278972B2 (en) Information processing device, information processing system, information processing method, and program for evaluating monitor reaction to merchandise using facial expression analysis technology
WO2019208152A1 (en) Information processing device and program
US11409823B2 (en) Information processing apparatus, coating material generator, and computer program
JP7406502B2 (en) Information processing device, program and information processing method
JP6583754B2 (en) Information processing device, mirror device, program
JP6320844B2 (en) Apparatus, program, and method for estimating emotion based on degree of influence of parts
JP2019212325A (en) Information processing device, mirror device, and program
Nystad et al. A comparison of two presence measures based on experimental results
JP6209298B1 (en) Information providing apparatus and information providing method
WO2020261531A1 (en) Information processing device, method for generating learned model of make-up simulation, method for realizing make-up simulation, and program
WO2023228931A1 (en) Information processing system, information processing device, information processing method, and program
US20240135424A1 (en) Information processing apparatus, information processing method, and program
JP7418709B2 (en) Computer programs, methods and server devices
US20220142334A1 (en) Information processing apparatus and computer program
KR20230017440A (en) Digital cosmetic data manufacturing system

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 19793708

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 19793708

Country of ref document: EP

Kind code of ref document: A1