WO2022181080A1 - 傾向判定装置、反射体付き表示装置、傾向表示システム装置、傾向判定方法、表示処理方法、傾向表示方法、プログラム及び記録媒体 - Google Patents
傾向判定装置、反射体付き表示装置、傾向表示システム装置、傾向判定方法、表示処理方法、傾向表示方法、プログラム及び記録媒体 Download PDFInfo
- Publication number
- WO2022181080A1 WO2022181080A1 PCT/JP2022/000578 JP2022000578W WO2022181080A1 WO 2022181080 A1 WO2022181080 A1 WO 2022181080A1 JP 2022000578 W JP2022000578 W JP 2022000578W WO 2022181080 A1 WO2022181080 A1 WO 2022181080A1
- Authority
- WO
- WIPO (PCT)
- Prior art keywords
- user
- display
- emotion
- unit
- presentation
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims description 143
- 238000003672 processing method Methods 0.000 title claims description 31
- 230000008451 emotion Effects 0.000 claims abstract description 186
- 238000004458 analytical method Methods 0.000 claims abstract description 101
- 238000003384 imaging method Methods 0.000 claims description 49
- 230000002996 emotional effect Effects 0.000 claims description 42
- 230000005540 biological transmission Effects 0.000 claims description 28
- 238000004891 communication Methods 0.000 claims description 22
- 238000010586 diagram Methods 0.000 description 12
- 230000006870 function Effects 0.000 description 10
- 241001465754 Metazoa Species 0.000 description 4
- 238000013528 artificial neural network Methods 0.000 description 4
- 238000013527 convolutional neural network Methods 0.000 description 4
- 239000011521 glass Substances 0.000 description 3
- 238000001514 detection method Methods 0.000 description 2
- 238000012706 support-vector machine Methods 0.000 description 2
- 208000019901 Anxiety disease Diseases 0.000 description 1
- 102000001554 Hemoglobins Human genes 0.000 description 1
- 108010054147 Hemoglobins Proteins 0.000 description 1
- 230000036506 anxiety Effects 0.000 description 1
- 230000003796 beauty Effects 0.000 description 1
- 239000008280 blood Substances 0.000 description 1
- 210000004369 blood Anatomy 0.000 description 1
- 230000036760 body temperature Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000004424 eye movement Effects 0.000 description 1
- 230000008921 facial expression Effects 0.000 description 1
- 230000002349 favourable effect Effects 0.000 description 1
- 238000009434 installation Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 230000006855 networking Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 208000027765 speech disease Diseases 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q30/00—Commerce
- G06Q30/02—Marketing; Price estimation or determination; Fundraising
Definitions
- the present invention relates to a trend determination device, a display device with a reflector, a trend display system device, a trend determination method, a display processing method, a trend display method, a program, and a recording medium.
- Patent Literature 1 discloses a technique for recommending products to a user based on other users' tendencies similar to the user's tendencies.
- an object of the present invention is to provide a trend determination device, a display device with a reflector, a trend display system device, a trend determination method, a display processing method, a trend display method, a program, and a recording medium that can determine a user's tendency.
- the trend determination device of the present invention includes: including a presentation unit, an acquisition unit, a biological information analysis unit, an emotion identification unit, a storage unit, a relevance analysis unit, and a determination unit;
- the presentation unit presents content information related to the content to the user via the display device with a reflector,
- the acquisition unit acquires a reflected image of a user captured by a reflector,
- the biological information analysis unit analyzes biological information of the user from the reflected image,
- the emotion identifying unit quantifies and identifies the user's emotion from the biometric information, the storage unit accumulates and stores the numerical value of the emotion in association with the content information for each user;
- the relationship analysis unit analyzes, for each user, the relationship between the emotional numerical value accumulated and stored in the storage unit and the content information associated with the emotional numerical value,
- the determination unit is a device that determines the tendency of the user based on the analysis result of the relevance.
- the display device with a reflector of the present invention is A display device with a reflector used in combination with the trend determination device of the present invention, Including a reflector, a display, an imaging unit, a transmission unit, an acquisition unit, and a display processing unit,
- the image capturing unit captures an image of the user reflected on the reflector
- the transmission unit transmits the reflection image captured by the imaging unit to the trend determination device
- the acquisition unit acquires content information presented by the trend determination device
- the display processing unit is a device that displays the content information on the display.
- the trend display system device of the present invention includes: Including the trend determination device of the present invention and the display device with a reflector of the present invention,
- the tendency determination device and the reflector-equipped display device are devices capable of communicating via a communication network.
- the trend determination method of the present invention includes: including a presentation step, an acquisition step, a biological information analysis step, an emotion identification step, a memory step, a relevance analysis step, and a judgment step;
- the presenting step presents content information related to the content to the user via a display device with a reflector,
- the obtaining step obtains a reflected image of the user reflected on the reflector,
- the biological information analysis step analyzes biological information of the user from the reflection image,
- the emotion identifying step quantifies and identifies the user's emotion from the biometric information,
- the storing step the numerical value of the emotion is accumulated and stored for each user in association with the content information;
- the relationship analysis step analyzes, for each user, the relationship between the emotional numerical value accumulated and stored in the storing step and the content information linked to the emotional numerical value,
- the determining step is a method of determining the tendency of the user based on the analysis result of the relevance.
- the display processing method of the present invention includes: A display processing method executed in parallel with the trend determination method of the present invention, including an imaging step, a transmission step, an acquisition step, and a display processing step,
- the image capturing step includes capturing an image of the user reflected on the reflector
- the transmission step transmits the reflected image captured by the imaging step to a trend determination device that executes the trend determination method
- the acquisition step acquires content information presented by the trend determination device
- the display processing step is a method of displaying the content information on a display.
- the trend display method of the present invention includes: A method including the trend determination method of the present invention and the display processing method of the present invention.
- the present invention it is possible to determine not only the tendency that the user himself is aware of, but also the latent tendency.
- FIG. 1 is a block diagram showing the configuration of an example of the trend range device according to the first embodiment.
- FIG. 2 is a block diagram showing an example of the hardware configuration of the trend determination device according to the first embodiment;
- FIG. 3 is a flowchart illustrating an example of processing in the trend determination device of the first embodiment;
- FIG. 4 is a block diagram showing an example configuration of a display device with a reflector according to the second embodiment.
- FIG. 5 is a block diagram showing an example of the hardware configuration of the display device with a reflector according to the second embodiment.
- FIG. 6 is a flow chart showing an example of processing in the display device with a reflector according to the second embodiment.
- FIG. 7 is a block diagram showing an example configuration of a trend display system device according to the third embodiment.
- FIG. 8A is a schematic diagram showing an example of a display device with a reflector in the trend display system device of Embodiment 3 when the product and the service are music.
- FIG. 8B is a schematic diagram showing an example of a display device with a reflector in the trend display system device of Embodiment 3 when the product and the service are travel.
- FIG. 8A is a schematic diagram showing an example of a display device with a reflector in the trend display system device of Embodiment 3 when the product and the service are music.
- FIG. 8B is a schematic diagram showing an example of a display device with a reflector in the trend display system device of Embodiment 3 when the product and the service are travel.
- the presentation unit may present the emotion and the numerical value of the emotion to the user via the display device with a reflector.
- the acquisition unit acquires a pre-presentation reflected image of the user before presentation of the content by the presentation unit and a post-presentation reflection image of the user after the presentation
- the biological information analysis unit analyzes biological information of the user from each of the pre-presentation reflection image and the post-presentation reflection image
- the emotion identifying unit quantifies and identifies the user's emotion from biometric information analyzed from each of the pre-presentation reflection image and the post-presentation reflection image
- the storage unit associates a difference between the numerical value of emotion in the reflection image before presentation and the numerical value of emotion in the reflection image after presentation with the content and accumulates and stores the difference for each user;
- the relationship analysis unit analyzes, for each user, the relationship between the difference in the emotional numerical value accumulated and stored in the storage unit and the content associated with the difference in the emotional numerical value. It may be a mode.
- the relevance analysis unit includes a learning processing unit,
- the learning processing unit performs learning processing of a learning model by unsupervised learning using the numerical value of the emotion of the user and the content information as learning data
- the relationship analysis unit may use the learning model to analyze the relationship between the emotional numerical value and the content information for each user.
- the acquisition unit further acquires the content
- the presentation unit may present the content acquired by the acquisition unit to the user via the display device with a reflector.
- the trend determination device of the present invention is, for example, In addition, including a recommendation part,
- the recommendation unit selects at least one piece of content information from among a plurality of pieces of content information based on the determined tendency of the user, and sends the selected content information to the user via the display device with a reflector. It may be a mode of recommending to.
- the acquisition unit acquires a numerical value of the user's emotion presented by the trend determination device
- the display processing unit may display the numerical value of the user's emotion presented by the trend determination device on the display.
- the imaging unit captures images of the user before and after the content is displayed on the display by the display processing unit
- the transmission unit may transmit a pre-presentation reflection image captured before the display and a post-presentation reflection image captured after the display to the tendency determination device.
- the acquisition unit acquires the content information recommended by the trend determination device
- the display processing unit may display the content information recommended by the trend determination device on the display.
- the display device with a reflector of the present invention is, for example, Furthermore, including a playback processing unit and a sound input/output unit, When the content information is sound information, The reproduction processing unit may reproduce the content information using the sound input/output unit.
- the display device with a reflector of the present invention is, for example, Furthermore, including an input operation recognition unit,
- the input operation recognition unit may recognize the user's input operation.
- the presenting step may present the emotion and the numerical value of the emotion to the user via the display device with a reflector.
- the acquisition step acquires a pre-presentation reflected image of the user before the content is presented by the presentation step and a post-presentation reflection image of the user after the content is presented
- the biological information analysis step analyzes biological information of the user from each of the pre-presentation reflection image and the post-presentation reflection image
- the emotion identifying step digitizes and identifies the emotion of the user from biological information analyzed from each of the pre-presentation reflection image and the post-presentation reflection image
- the storing step associates with the content a difference between the numerical value of the emotion in the reflection image before presentation and the numerical value of the emotion in the reflection image after presentation, accumulating and storing the difference for each user
- the relationship analysis step analyzes, for each user, the relationship between the difference in the emotional numerical value accumulated and stored in the storage step and the content associated with the difference in the emotional numerical value. It may be a mode.
- the relevance analysis step includes a learning processing step,
- the learning processing step performs learning processing of a learning model by unsupervised learning using the numerical value of the emotion of the user and the content information as learning data,
- the learning model may be used to analyze the relevance between the emotional numerical value and the content information for each user.
- the obtaining step further obtains the content
- the presenting step may present the content acquired by the acquiring step to the user via the display device with a reflector.
- the trend determination method of the present invention is, for example, In addition, including recommended steps,
- the recommending step selects at least one piece of content information from a plurality of pieces of content information based on the determined tendency of the user, and sends the selected content information to the user via the display device with a reflector. It may be a mode of recommending to.
- the acquisition step acquires the numerical value of the user's emotion presented by the trend determination device
- the display processing step may display, on the display, the numerical value of the user's emotion presented by the trend determination device.
- the imaging step imaging the user before and after displaying the content on the display by the display processing step;
- the transmission step a pre-presentation reflection image captured before the display and a post-presentation reflection image captured after the display may be transmitted to the tendency determination device.
- the acquisition step acquires the content information recommended by the trend determination device
- the display processing step may display the content information recommended by the trend determination device on the display.
- the display processing method of the present invention is, for example, Furthermore, including a reproduction processing step and a sound input/output step,
- the reproduction processing step may reproduce the content information by the sound input/output step.
- the display processing method of the present invention is, for example, Furthermore, including an input operation recognition step,
- the input operation recognition step may be configured to recognize the user's input operation.
- the program of the present invention is a program for causing a computer to execute each step of the method of the present invention as a procedure.
- the recording medium of the present invention is a computer-readable recording medium recording the program of the present invention.
- content may be anything that can be recognized by humans, and may be digital content or analog content.
- the expression format of the content is not particularly limited. good.
- the content may be, for example, content derived from nature such as flowers, landscapes, and babbling sounds.
- the content may be, for example, a product for sale such as a product or service.
- the commodities include home electrical appliances, food and drink, clothing, daily necessities, daily necessities, works of art, and data (video data, music data, etc.).
- the services include travel services, restaurant services, beauty, hairdressing, massage, medical services, and financial services.
- the content should be interpreted in the broadest sense, including the above examples, and is not limited in any way.
- FIG. 1 is a block diagram showing the configuration of an example of a trend determination device 10 of this embodiment.
- the device 10 includes a presentation unit 11, an acquisition unit 12, a biological information analysis unit 13, an emotion identification unit 14, a storage unit 15, a relevance analysis unit 16, and a determination unit 17.
- the device 10 may further include a recommendation unit 18 and the like as an optional configuration.
- the relationship analysis unit 16 may include, for example, a learning processing unit 161 as an arbitrary configuration. These units are interconnected by, for example, an internal bus.
- the device 10 may be, for example, a single device including each of the above units, or may be a device to which each of the above units can be connected via a communication network. Further, the device 10 can be connected to an external device, which will be described later, via the communication network.
- the communication line network is not particularly limited, and a known network can be used, and may be wired or wireless, for example.
- the communication line network includes, for example, the Internet line, WWW (World Wide Web), telephone line, LAN (Local Area Network), SAN (Storage Area Network), DTN (Delay Tolerant Networking), LPWA (Low Power Wide Area), L5G (local 5G), and the like.
- wireless communication examples include Wi-Fi (registered trademark), Bluetooth (registered trademark), local 5G, and LPWA.
- the wireless communication may be a form in which each device communicates directly (Ad Hoc communication), infrastructure communication, indirect communication via an access point, or the like.
- the device 10 may be incorporated in a server as a system, for example. Further, the device 10 may be, for example, a personal computer (PC, for example, desktop type, notebook type), a smart phone, a tablet terminal, etc. in which the program of the present invention is installed. Furthermore, the device 10 may be in a form of cloud computing, edge computing, or the like, in which at least one of the units is on the server and the other units are on the terminal, for example.
- the device 10 includes, for example, a central processing unit (CPU, GPU, etc.) 101, a memory 102, a bus 103, a storage device 104, an input device 105, an output device 106, a communication device 107, and the like.
- a central processing unit CPU, GPU, etc.
- Each unit of the device 10 is interconnected via a bus 103 by each interface (I/F).
- I/F interface
- the hardware configuration of the device 10 is not limited to this as long as the processing of each section can be executed.
- the number of central processing units 101 and the like included in the apparatus 10 is not limited to the example shown in FIG.
- the central processing unit 101 is responsible for overall control of the device 10.
- the central processing unit 101 executes, for example, the program of the present invention and other programs, and reads and writes various types of information.
- the central processing unit 101 functions as a presentation unit 11, an acquisition unit 12, a biological information analysis unit 13, an emotion identification unit 14, a relevance analysis unit 16, a determination unit 17, a recommendation unit 18, and the like. .
- the bus 103 can also be connected to external devices, for example.
- the external device include an external storage device (external database, etc.), an external input device (external imaging device, etc.), an external output device (external display device, external printer, etc.), and the like.
- the device 10 can be connected to an external network (the above-mentioned communication line network) by means of a communication device 107 connected to the bus 103, and can also be connected to other devices via the external network.
- the memory 102 is, for example, a main memory (main storage device).
- main memory main storage device
- the memory 102 reads various operating programs such as the program of the present invention stored in the storage device 104 to be described later, and the central processing unit 101 reads from the memory 102 Get the data and run the program.
- the main memory is, for example, RAM (random access memory).
- the memory 102 may be, for example, a ROM (read only memory).
- the storage device 104 is also called a so-called auxiliary storage device, for example, in contrast to the main memory (main storage device). As described above, the storage device 104 stores operating programs including the program of the present invention.
- Storage device 104 may be, for example, a combination of a recording medium and a drive that reads from and writes to the recording medium.
- the recording medium is not particularly limited, and may be, for example, a built-in type or an external type, and includes HD (hard disk), CD-ROM, CD-R, CD-RW, MO, DVD, flash memory, memory card, and the like. be done.
- the storage device 104 may be, for example, a hard disk drive (HDD) in which a recording medium and drive are integrated, and a solid state drive (SSD).
- HDD hard disk drive
- SSD solid state drive
- the memory 102 and the storage device 104 store log information, information acquired from an external database (not shown) or an external device, information generated by the device 10, and data stored when the device 10 executes processing. It is also possible to store various information such as information to be used. At least part of the information may be stored in an external server other than the memory 102 and the storage device 104, or may be distributed and stored in a plurality of terminals using blockchain technology or the like. . Also, the memory 102 and the storage device 104 may function as the storage unit 15, for example.
- the device 10 may further include an input device 105 and an output device 106, for example.
- the input device 105 is, for example, a device for inputting characters, numbers, positions of objects displayed on the screen, images, sounds, and the like. Devices (cameras), microphones, sensors, and the like. Examples of the output device 106 include a display device (LED display, liquid crystal display, etc.), printer, speaker, and the like.
- the trend determination method of this embodiment is performed as follows, for example, using the trend determination device 10 of FIG.
- the trend determination method of the present embodiment is not limited to the use of the trend determination device 10 of FIG.
- the steps shown in parentheses in FIG. 3 are optional steps.
- the presenting unit 11 presents content information regarding the content to the user via the display device with a reflector (S11a, presenting step).
- the presentation unit 11 may present only content information related to analog content to the user, for example.
- the presentation unit 11 may present content information including the digital content to the user, for example.
- the content information may be, for example, text data, image data, moving image data, sound data, or any combination of two or more of these.
- the content information may be stored in the storage unit 15 in advance, or may be acquired from the outside by the acquisition unit 12 as described later.
- the display device with a reflector is not particularly limited as long as it is a display device including a reflector such as a mirror or glass.
- Examples of the display device with a reflector include a display device 20 with a reflector described in Embodiment 2, which will be described later.
- the user is, for example, a user standing in front of the display of the display device with a reflector, and is also called a purchaser or the like.
- "through a display device with a reflector” means displaying on the display of the display device with a reflector.
- the acquisition unit 12 acquires a reflected image of the user captured by the reflector (S12a, acquisition step).
- the reflector is a reflector of the display device with a reflector. Specifically, it will be described in a second embodiment.
- the reflected image is an image captured by the display device with a reflector, and may be a still image or a moving image. Further, the reflection image may be, for example, data continuously captured by the display device with a reflector, or may be data captured at regular intervals (for example, every 10 seconds).
- the acquisition unit 12 may acquire the reflection image directly from the display device with a reflector, or may acquire the reflection image indirectly via an external server or the like.
- the acquisition unit 12 may acquire sound data including the user's voice together with the reflected image, for example.
- the sound data is, for example, data collected using an input device and an output device (microphone, sensor, etc.) relating to sound in the display device with a reflector.
- the biological information analysis unit 13 analyzes the biological information of the user from the reflection image (S13, biological information analysis step).
- the biological information is not particularly limited, and includes, for example, complexion, heartbeat (pulse wave), facial expression, body temperature, voice, eye movement, body movement, and the like.
- the heartbeat can be extracted, for example, by noting changes in green color derived from hemoglobin contained in blood from a mirror image of the face.
- the biometric information may be stored in the memory 102, the storage device 104, or the like, for example.
- the biological information analysis unit 13 may analyze the biological information using, for example, a known algorithm.
- the emotion specifying unit 14 quantifies and specifies the user's emotion from the biometric information (S14, emotion specifying step).
- the emotion identification unit 14 may, for example, identify a plurality of emotions, and quantify each emotion.
- the emotion is not particularly limited, and may be a positive emotion or a negative emotion.
- the positive emotions include, for example, joy, surprise, interest, calm, admiration, relaxation, excitement, etc.
- the negative emotions include, for example, sadness, anger, resignation, disgust, fear, and anxiety. etc.
- the positive emotion and the negative emotion are not limited to the above examples, and for example, it may be possible to arbitrarily set whether the emotion is a positive emotion or a negative emotion.
- the upper and lower limits of the numerical value of the emotion are not particularly limited, and are, for example, -100 to 100, -100 to 0, -10 to 10, -10 to 0, 0 to 100, 0 to 10, and the like. Note that this is just an example, and for example, the upper limit of the numerical value of the emotion may be 100 or more, and the lower limit may be -100 or less.
- the emotions identified by the emotion identification unit 14 and their numerical values may be stored in the memory 102, the storage device 104, or the like, for example.
- the emotion identifying unit 14 may identify the emotion using, for example, a known algorithm.
- the emotion and the numerical value of the emotion specified by the emotion specifying unit 14 may be presented to the user via the display device with a reflector by the presenting unit 11 after the step (S14), for example (S11b ).
- the step (S11b) may be processed, for example, in parallel with the step (S15) described below, or may be processed after the step (S15) described below. This allows the user to grasp his or her emotions.
- the user since the user can grasp his/her own emotion by the reflector of the display device with a reflector, the user can understand the emotion specified by the emotion specifying unit 14 and the numerical value of the emotion. becomes higher.
- the storage unit 15 associates the content information with the numerical value of the emotion and accumulates and stores it for each user (S15, storage step).
- the relevance analysis unit 16 analyzes the relevance between the emotional numerical value accumulated and stored in the storage unit 15 and the content information associated with the emotional numerical value for each user ( S16, relevance analysis step). Further, when the relevance analysis unit 16 includes the learning processing unit 161, for example, first, the learning processing unit 161 performs unsupervised learning using the numerical values of the user's emotions and the content information as learning data. , the learning process of the learning model may be performed (S161). Then, the relevance analysis unit 16 may use the learning model, for example, to analyze the relevance between the numerical value of the emotion and the content information for each user. That is, the learned model is a model that has learned the relationship between the numerical value of the user's emotion and the content information of the user.
- the learning model may be a program module that is part of artificial intelligence software, or it may be a multi-layered network.
- the multi-layered network include neural networks.
- the neural network include convolutional neural networks (Convolution Neural Network: CNN), but are not limited to CNN, neural networks other than CNN, SVM (Support Vector Machine), Bayesian networks, regression trees, etc.
- CNN convolutional neural networks
- SVM Small Vector Machine
- Bayesian networks Bayesian networks
- regression trees etc.
- a learning model constructed by other learning algorithms may be used.
- the determination unit 17 determines the tendency of the user based on the analysis result of the relevance (S17, determination step), and ends (END).
- the determination unit 18 for example, "When the content information related to 'animals' is presented, the numerical value of the emotion of 'pleasant' tends to increase", "The numerical value of the emotion of 'pleasant' The user's tendency such as "the content information tends to include 'animals'" can be understood.
- the acquisition unit 12 obtains a pre-presentation reflected image of the user captured before the presentation of the content information by the presentation unit 11 (the step (S11a)), and the presentation (the After the step (S11a)), a post-presentation reflected image of the user may be acquired.
- the pre-presentation reflection image and the post-presentation reflection image the above description of the reflection image can be used.
- the acquisition unit 12 may acquire the pre-presentation reflection image and the post-presentation reflection image collectively or may acquire them separately. That is, for example, the acquiring unit 12 may acquire the pre-presentation reflection image before the step (S11a) and acquire the post-presentation reflection image in the step (S12a).
- the biometric information analysis unit 13 determines the user's biometrics from the pre-presentation reflection image and the post-presentation reflection image, respectively.
- Information may be analyzed. Specifically, it is the same as described above.
- the biological information analysis unit 13 may process the analysis of the biological information from the pre-presentation reflection image and the analysis of the biological information from the post-presentation reflection image in parallel or separately. You may
- the emotion identification unit 14 When the pre-presentation reflection image and the post-presentation reflection image are acquired, for example, the biological information analyzed from the pre-presentation reflection image and the post-presentation reflection image by the emotion identification unit 14 in the step (S14). , the user's emotion may be digitized and specified. Specifically, it is the same as described above.
- the emotion identification unit 14, for example, concurrently processes identification of the emotion from the biological information based on the pre-presentation reflection image and identification of the emotion from the biological information based on the post-presentation reflection image. or may be treated separately.
- the storage unit 15 stores the numerical value of the emotion in the pre-presentation reflection image and the emotion in the post-presentation reflection image.
- the difference from the numerical value may be associated with the content and accumulated and stored for each user.
- the difference may be, for example, a difference calculated with reference to the numerical value of the emotion in the pre-presentation reflection image.
- the relevance analysis unit 16 causes the difference between the numerical values of the emotions accumulated and stored in the storage unit 15 to , the relationship between the difference in the numerical value of the emotion and the linked content may be analyzed for each of the users. Specifically, for example, the relevance is analyzed in the same manner as described above.
- the acquisition unit 12 may acquire the content information from the outside (S12b), for example, before the step (S11a). Then, in the step (S11a), the presentation unit 11 may present the content information acquired by the acquisition unit 12 via the display device with a reflector to the user, for example.
- the external may be, for example, the content provider's server or the like.
- the device 10 may further include the recommender 18, for example.
- the recommending unit 18 selects at least one piece of the content information from among the plurality of pieces of content information based on the determined tendency of the user, and recommends the selected content information as the A recommendation is made to the user through the display device with a reflector (S18, recommendation step).
- the recommending unit 18 provides information related to animals to a user who "has a tendency to have a high numerical value of emotion 'fun' when presented with the content information related to 'animals'".
- the content information is recommended.
- the content information to be selected may be, for example, the content information that has not been presented or recommended to the user, or may be the content information that has been presented or recommended to the user. .
- the user's tendency can be determined by specifying the user's emotion.
- this embodiment can provide different content information for each user using only the user's own tendency, that is, personalization of the content information.
- the user's tendency is determined from the user's emotion, not only the user's self-conscious tendency but also the latent tendency can be determined.
- the content provider can, for example, efficiently advertise the content to users.
- the provider of the content can, for example, stimulate the user's purchase intention and efficiently obtain a profit.
- the user can receive a recommendation of the content information suitable for his or her tendency, unlike a direct message sent to an unspecified number of people, for example, so that the user does not feel uncomfortable.
- FIG. 4 is a block diagram showing an example configuration of the display device 20 with a reflector according to the present embodiment.
- the device 20 includes a reflector 21, a display 22, an imaging section 23, a transmission section 24, an acquisition section 25, and a display processing section .
- the device 20 may further include a reproduction processing unit 27, a sound input/output unit 28, an input operation recognition unit 29, and the like, as an arbitrary configuration. These units are interconnected by, for example, an internal bus.
- This device 20 is a device used together with the tendency determination device 10 described in the first embodiment.
- the device 20 may be, for example, a single device including each of the above units, or may be a device to which each of the above units can be connected via a communication network. Further, the device 20 can be connected to the above-described external device via the communication network.
- the communication network is not particularly limited, and is the same as described above, for example.
- the device 20 may be, for example, a display device with a reflector installed with the program of the present invention.
- the device 20 may be in the form of cloud computing, edge computing, or the like, in which at least one of the units is on the server and the other units are on the terminal, for example. This device 20 can communicate with the tendency determination device 10 according to the first embodiment, for example, via the communication network.
- the device 20 includes, for example, a central processing unit (CPU, GPC, etc.) 101, a memory 102, a bus 103, a storage device 104, an input device 105, an output device 106, a communication device 107, and the like.
- Each unit of the device 20 is interconnected via a bus 103 by each interface (I/F).
- the reflector 21 may also be interconnected with each part of the device 20, for example via a bus 103.
- FIG. Unless otherwise specified, the description of the hardware configuration of the trend determination device 10 shown in FIG. 2 can be used for the description of each unit. Note that these are only examples, and the hardware configuration of the device 20 is not limited to this as long as the processing of each unit can be executed. Also, the number of central processing units 101 and the like included in this device 20 is not limited to the example shown in FIG.
- the central processing unit 101 functions, for example, as a transmission unit 24, an acquisition unit 25, a display processing unit 26, a reproduction processing unit 27, an input operation recognition unit 29, and the like.
- the input device 105 includes an imaging device 108, for example.
- the imaging device 108 is, for example, a camera such as a 2D camera, a 3D camera, an infrared camera, or the like.
- the imaging device 108 functions as an imaging unit 23, for example. There may be one imaging device 108, or there may be two or more.
- the installation location of the imaging device 108 is not particularly limited, and for example, it may be arranged at a position where the user's face can be imaged from the front.
- the input device 105 and the output device 106 may include, for example, a sound input device 109a and a sound output device 109b regarding sound input/output.
- the sound input device 109a and the sound output device 109b are collectively referred to as the sound input/output device 109.
- the sound input/output device 109 is, for example, a microphone, a speaker, or the like.
- the sound input/output device 109 functions as the sound input/output unit 28, for example.
- the reflector 21 is, for example, an object that has the function of reflecting an object using the reflection of light. Moreover, the reflector 21 may have a function of transmitting light, for example. Although the wavelength of the light is not particularly limited, it is visible light, for example. Specific examples of the reflector 21 include mirrors such as full mirrors and half mirrors, glass, displays, filters, and the like.
- the output device 106 functions as the display 22, for example.
- the display 22 may also be used as the reflector 21, for example.
- the reflector 21 and the display 22 are arranged in contact with each other, for example.
- the reflector 21 may be placed in contact with any one of the top, bottom, left, and right of the display 22 , and the reflector 21 and the display 22 may be connected together. Further, the reflector 21 may be placed in contact with the front surface (display surface) of the display 22 so that the reflector 21 and the display 22 overlap each other.
- the device 20 may be in a form capable of accommodating the content within the device 20, such as a show window or a glass case. In the form, the device 20 may present the content to the user via the reflector 21 .
- the display processing method of this embodiment is performed as follows, for example, using the display device 20 with a reflector shown in FIG. Note that the display processing method of the present embodiment is not limited to the use of the display device 20 with a reflector shown in FIG. Also, the steps shown in parentheses in FIG. 6 are optional steps.
- the image capturing unit 23 captures an image of the user reflected on the reflector 21 (S21a, image capturing step).
- the imaging unit 23 may, for example, continuously capture images of the user, or may capture images at regular intervals (for example, every 10 seconds).
- the image captured by the imaging unit 23 is called a reflection moving image, and the above description can be used.
- the imaging unit 23, for example, images the face of the user from the front direction.
- the transmission unit 24 transmits the reflected image captured by the imaging unit 23 to the tendency determination device 10 (S22a, transmission step).
- the acquisition unit 25 acquires the content information presented by the trend determination device 10 (S23, acquisition step).
- the content information is displayed on the display 22 by the display processing unit 26 (S24, display processing step), and the process ends (END).
- the acquisition unit 25 may acquire the numerical value of the user's emotion presented by the trend determination device 10, for example, in the step (S23). Then, the display processing unit 26 may display the numerical value of the user's emotion on the display 22, for example, in the step (S24).
- the acquisition unit 25 may acquire the content information recommended by the trend determination device 10, for example, in the step (S23). Then, the display processing unit 26 may display the content information recommended by the tendency determination device 10 on the display 22, for example, in the step (S24).
- the imaging unit 23 may, for example, capture images of the user before the content information is displayed on the display 22 by the display processing unit 26 (step (S21a)) and after the display (step (S21b)). . Then, for example, in the step (S22a), the transmission unit 24 transmits the pre-presentation reflection image captured before the display to the tendency determination device 10, and in the step (S22b), the presentation captured after the display. The back-reflected image may be sent to the trend determination device 10 .
- the device 20 may further include a reproduction processing unit 27 and a sound input/output unit 28, for example.
- the reproduction processing section 27 may reproduce the content information using the sound input/output section 28 .
- the transmission unit 24 may transmit, for example, sound data including the user's voice collected by the sound input/output unit 28 in the step (S22a) together with the reflection image.
- the device 20 may further include the input operation recognition section 29, for example.
- the input operation recognition unit 29 recognizes the user's input operation (S25, input operation recognition step).
- the input operation is not particularly limited, and includes, for example, line of sight detection, blink detection, voice instruction, touch on the display 22, and the like.
- the step (S25) is described after the step (S24) in FIG. 6, it is not limited thereto and may be performed at any time.
- various input operations such as operating a cursor displayed on the display 22, inputting characters, etc., may be performed.
- the user's tendency can be determined by capturing the reflection image and transmitting it to the tendency determination device 10 .
- the user can also grasp his or her emotions by the reflector 21, in other words, without going through the trend determination device 10. Consentability of the emotion and the numerical value of the emotion increases.
- FIG. 7 is a block diagram showing an example configuration of the trend display system device 100 of this embodiment. As shown in FIG. 7, this device 100 includes the trend determination device 10 described in the first embodiment and the display device 20 with a reflector described in the second embodiment. The tendency determination device 10 and the display device with reflector 20 can communicate with each other via the communication network.
- the trend display method of this embodiment includes the trend determination method shown in FIG. 3 and the display processing method shown in FIG.
- trend display system device 100 An example in which the trend display system device 100 is applied to each of the case where the content is music and the case where the content is travel will be described below.
- FIG. 8A shows an example of the reflector-equipped display device 20 when the content is music.
- the display device 20 with a reflector is, for example, a terminal such as a smartphone, and by playing music through a speaker (not shown) of the terminal, the user can hear the music. be. That is, the reflector 21 in this case does not have a function of transmitting light, and is, for example, the display 22 itself.
- the display 22 may be divided into a plurality of display areas by the display processing section 26, for example.
- the display 22 displays an area 22a for displaying the numerical value of the user's emotion specified by the tendency determination device 10, and information other than the numerical value for the emotion (for example, the content information).
- the music is not particularly limited.
- the form of music to be sold may be music data that is digital data or music data recorded on a recording medium such as a CD.
- the reflector-attached display device 20 causes the imaging unit 23 to perform the above-mentioned Take a reflection image.
- the imaging unit 23 may continuously capture the reflected image while the music is being played.
- the tendency determination device 10 for example, a server or the like
- the reflected image analyzes the user's biometric information using the biometric information analysis unit 13 .
- the biological information analysis unit 13 may, for example, analyze the biological information along the time series of the reflection images that are continuously captured.
- the tendency determination device 10 quantifies and identifies the user's emotion using the emotion identification unit 14 .
- the emotion identifying unit 14 may, for example, digitize and identify the emotion in chronological order based on the biological information analyzed in chronological order. In other words, it can be said that the tendency determination device 10 analyzes and identifies changes in the user's emotion during the reproduction of the music.
- the display device 20 with a reflector that has obtained the numerical value of the emotion displays the numerical value on the display 22a by means of the display processing section 26 . Thereby, the user is fed back his or her feelings toward the music.
- the tendency determination device 10 stores the numerical value of the user's emotion for each piece of music in the recording unit 15 .
- the tendency determination device 10 analyzes the relevance between the music and the numerical value of the emotion by the relevance analysis unit 16 and determines the user's tendency by the determination unit 17 .
- the trend determination device 10 selects music suitable for the user's emotion by the recommendation unit 18 and causes the display device 20 with a reflector to reproduce the music.
- FIG. 8B shows an example of the reflector-equipped display device 20 when the content is travel.
- the display device 20 with a reflector is, for example, a digital signage, and displays the travel catalog on the digital signage. This allows the user to grasp the details of the trip. That is, the reflector 21 in this case does not have a function of transmitting light, and is, for example, the display 22 itself.
- the reflector-equipped display device 20 may display, for example, a plurality of the travel catalogs.
- the display 22 displays an area 22a for displaying the user's emotional numerical value and information other than the emotional numerical value (for example, the content information, that is, the travel catalog, etc.) in the same manner as described above.
- the travel catalog is not particularly limited, and may be, for example, pictures of landscapes seen during travel.
- the reflector-equipped display device 20 captures the reflected image by the imaging unit 23. is imaged.
- the tendency determination device 10 for example, a server or the like
- the tendency determination device 10 quantifies and identifies the user's emotion using the emotion identification unit 14 .
- the display device 20 with a reflector that has obtained the numerical value of the emotion displays the numerical value on the display 22a by means of the display processing section 26 .
- the trend determination device 10 uses the recording unit 15 to associate and store the travel catalog displayed on the display device 20 with a reflector and the numerical value of the user's emotion.
- the tendency determination device 10 analyzes the relevance between the travel catalog and the numerical value of the emotion by the relevance analysis unit 16 and determines the user's tendency by the determination unit 17 .
- the recommendation unit 18 of the trend determination device 10 selects a travel catalog suitable for the user's emotion, and causes the display device 20 with a reflector to display the catalog.
- the program of this embodiment is a program for causing a computer to execute each step of the method of the present invention as a procedure.
- "procedure” may be read as "processing”.
- the program of this embodiment may be recorded on a computer-readable recording medium, for example.
- the recording medium is, for example, a non-transitory computer-readable storage medium.
- the recording medium is not particularly limited, and examples thereof include read-only memory (ROM), hard disk (HD), optical disc, and the like.
- Appendix 1 including a presentation unit, an acquisition unit, a biological information analysis unit, an emotion identification unit, a storage unit, a relevance analysis unit, and a determination unit;
- the presentation unit presents content information related to the content to the user via the display device with a reflector,
- the acquisition unit acquires a reflected image of a user captured by a reflector,
- the biological information analysis unit analyzes biological information of the user from the reflected image,
- the emotion identifying unit quantifies and identifies the user's emotion from the biometric information, the storage unit accumulates and stores the numerical value of the emotion in association with the content information for each user;
- the relationship analysis unit analyzes, for each user, the relationship between the emotional numerical value accumulated and stored in the storage unit and the content information associated with the emotional numerical value,
- the tendency determination device wherein the determination unit determines the tendency of the user based on the analysis result of the relevance.
- the tendency determination device according to supplementary note 1, wherein the presentation unit presents the emotion and the numerical value of the emotion to the user via the display device with a reflector.
- the acquisition unit acquires a pre-presentation reflected image of the user before presentation of the content by the presentation unit and a post-presentation reflection image of the user after the presentation,
- the biological information analysis unit analyzes biological information of the user from each of the pre-presentation reflection image and the post-presentation reflection image,
- the emotion identifying unit quantifies and identifies the user's emotion from biometric information analyzed from each of the pre-presentation reflection image and the post-presentation reflection image,
- the storage unit associates a difference between the numerical value of emotion in the reflection image before presentation and the numerical value of emotion in the reflection image after presentation with the content and accumulates and stores the difference for each user;
- the relationship analysis unit analyzes, for each user, the relationship between the difference in the emotional numerical value accumulated and stored in the storage unit and the content associated with the difference in the emotional numerical value.
- the trend determination device includes a learning processing unit, The learning processing unit performs learning processing of a learning model by unsupervised learning using the numerical value of the emotion of the user and the content information as learning data, 4.
- the tendency determination device according to any one of supplementary notes 1 to 3, wherein the relationship analysis unit uses the learning model to analyze the relationship between the numerical value of emotion and the content information for each user.
- the acquisition unit further acquires the content, 5.
- the tendency determination device according to any one of additional notes 1 to 4, wherein the presentation unit presents the content acquired by the acquisition unit to the user via the display device with a reflector.
- the recommendation unit selects at least one piece of content information from among a plurality of pieces of content information based on the determined tendency of the user, and sends the selected content information to the user via the display device with a reflector. 6.
- a trend determination device according to any one of appendices 1 to 5, which is recommended for (Appendix 7)
- the image capturing unit captures an image of the user reflected on the reflector
- the transmission unit transmits the reflection image captured by the imaging unit to the trend determination device
- the acquisition unit acquires content information presented by the trend determination device
- a display device with a reflector wherein the display processing unit displays the content information on the display.
- the acquisition unit acquires a numerical value of the user's emotion presented by the trend determination device, The display device with a reflector according to Supplementary Note 7, wherein the display processing unit displays on the display the numerical value of the user's emotion presented by the trend determination device.
- the imaging unit captures images of the user before and after the content is displayed on the display by the display processing unit, 9.
- the acquisition unit acquires the content information recommended by the trend determination device, 10.
- Appendix 11 Furthermore, including a playback processing unit and a sound input/output unit, When the content information is sound information, 11.
- Appendix 12 Furthermore, including an input operation recognition unit, 12.
- Appendix 13 including the trend determination device according to any one of appendices 1 to 6 and the display device with a reflector according to any one of appendices 7 to 12,
- the trend display system device wherein the trend determination device and the display device with a reflector can communicate with each other via a communication network.
- the presenting step presents content information related to the content to the user via a display device with a reflector
- the obtaining step obtains a reflected image of the user reflected on the reflector
- the biological information analysis step analyzes biological information of the user from the reflection image
- the emotion identifying step quantifies and identifies the user's emotion from the biometric information
- the relationship analysis step analyzes, for each user, the relationship between the emotional numerical value accumulated and stored in the storing step and the content information linked to the emotional numerical value,
- the tendency determination method determines the user's tendency based on the analysis result of the relevance.
- the acquisition step acquires a pre-presentation reflected image of the user before the content is presented by the presentation step and a post-presentation reflection image of the user after the content is presented,
- the biological information analysis step analyzes biological information of the user from each of the pre-presentation reflection image and the post-presentation reflection image,
- the emotion identifying step digitizes and identifies the emotion of the user from biological information analyzed from each of the pre-presentation reflection image and the post-presentation reflection image, the storing step associates with the content a difference between the numerical value of the emotion in the reflection image before presentation and the numerical value of the emotion in the reflection image after presentation, accumulating and storing the difference for each user;
- the relationship analysis step analyzes, for each user, the relationship between the difference in the emotional numerical value accumulated and stored in the storage step and the content associated with the difference
- the trend determination method according to appendix 14 or 15. The relevance analysis step includes a learning processing step, The learning processing step performs learning processing of a learning model by unsupervised learning using the numerical value of the emotion of the user and the content information as learning data, 17.
- the obtaining step further obtains the content, 18.
- the recommending step selects at least one piece of content information from a plurality of pieces of content information based on the determined tendency of the user, and sends the selected content information to the user via the display device with a reflector. 19.
- a trend determination method according to any one of appendices 14 to 18, recommended for (Appendix 20)
- the image capturing step includes capturing an image of the user reflected on the reflector
- the transmission step transmits the reflected image captured by the imaging step to a trend determination device that executes the trend determination method
- the acquisition step acquires content information presented by the trend determination device,
- the display processing method wherein the display processing step displays the content information on a display.
- the acquisition step acquires the numerical value of the user's emotion presented by the trend determination device, 21.
- the display processing method according to appendix 20 wherein the display processing step displays on the display the numerical value of the user's emotion presented by the tendency determination device.
- Appendix 22 the imaging step imaging the user before and after displaying the content on the display by the display processing step; 22.
- the acquisition step acquires the content information recommended by the trend determination device, 23.
- Appendix 24 Furthermore, including a reproduction processing step and a sound input/output step, When the content information is sound information, 24.
- Appendix 25 Furthermore, including an input operation recognition step, 25.
- Appendix 26 A trend display method, comprising: the trend determination method according to any one of Appendices 14 to 19; and the display processing method according to any one of Appendices 20 to 25.
- the presentation step presents content information about content to a user via a display device with a reflector
- the acquisition step acquires a reflected image of the user captured by the reflector
- the biometric information analysis procedure analyzes biometric information of the user from the reflection image
- the emotion identification procedure includes digitizing and identifying the user's emotion from the biometric information
- the storing procedure stores and accumulates the numerical value of the emotion in association with the content information for each user
- the relationship analysis procedure analyzes, for each user, the relationship between the emotional numerical value accumulated and stored in the storage procedure and the content information associated with the emotional numerical value,
- the obtaining step obtains a pre-presentation reflection image of the user before presentation of the content by the presentation procedure and a post-presentation reflection image of the user after the presentation;
- the biological information analysis procedure analyzes biological information of the user from each of the pre-presentation reflection image and the post-presentation reflection image,
- the emotion identifying procedure digitizes and identifies the user's emotion from biological information analyzed from each of the pre-presentation reflection image and the post-presentation reflection image,
- the storing step associates a difference between the emotional numerical value in the pre-presentation reflection image and the emotion numerical value in the post-presentation reflection image with the content and accumulates and stores the difference for each user;
- the relevance analysis procedure analyzes, for each user, the relevance between the difference in the emotional numerical values accumulated and stored in the storage procedure and the content associated with the emotional numerical difference.
- the program according to appendix 27 or 28. The relevance analysis procedure includes a learning processing procedure, The learning processing procedure performs learning processing of a learning model by unsupervised learning using the numerical value of the emotion of the user and the content information as learning data, 29.
- the obtaining procedure further obtains the content, 31.
- the recommendation procedure selects at least one piece of the content information from among a plurality of pieces of content information based on the determined tendency of the user, and sends the selected content information to the user via the display device with a reflector. 32.
- the transmission procedure transmits the reflection image captured by the imaging procedure to the trend determination device that executes the first program according to any one of appendices 27 to 32,
- the acquisition step acquires content information presented by the trend determination device,
- the acquisition step acquires the numerical value of the user's emotion presented by the trend determination device, 34.
- the program according to appendix 33 wherein the display processing procedure displays on the display the numerical value of the user's emotion presented by the trend determination device.
- the imaging procedure captures an image of the user before and after displaying the content on the display by the display processing procedure; 35.
- the program according to Supplementary Note 33 or 34 wherein the transmission procedure transmits the pre-presentation reflection image captured before the display and the post-presentation reflection image captured after the display to the tendency determination device.
- the acquisition step acquires the content information recommended by the trend determination device, 36.
- the program according to any one of attachments 33 to 35 wherein the display processing procedure displays the content information recommended by the trend determination device on the display.
- Appendix 37 Furthermore, including a playback processing procedure and a sound input/output procedure, When the content information is sound information, 37.
- Appendix 38 Furthermore, including an input operation recognition procedure, 38.
- Appendix 39 A program comprising the first program according to any one of appendices 27 to 32 and the program according to any one of appendices 33 to 38.
- Appendix 40 A computer-readable recording medium recording the program according to any one of appendices 27 to 39.
- the present invention a user's tendency can be determined. Therefore, the present invention is useful, for example, in recommending content to users.
Landscapes
- Business, Economics & Management (AREA)
- Strategic Management (AREA)
- Engineering & Computer Science (AREA)
- Accounting & Taxation (AREA)
- Development Economics (AREA)
- Finance (AREA)
- Economics (AREA)
- Game Theory and Decision Science (AREA)
- Entrepreneurship & Innovation (AREA)
- Marketing (AREA)
- Physics & Mathematics (AREA)
- General Business, Economics & Management (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
ユーザの傾向を判定可能な傾向判定援置を提供する。 本発明の傾向判定装置(10)において、提示部(11)は、反射体付き表示装置を介してコンテンツに関するコンテンツ情報をユーザに提示し、取得部(12)は、反射体に写ったユーザを撮像した反射画像を取得し、生体情報分析部(13)は、前記反射画像から前記ユーザの生体情報を分析し、感情特定部(14)は、前記生体情報から前記ユーザの感情を数値化して特定し、記憶部(15)は、前記コンテンツ情報と紐づけて前記感情の数値を前記ユーザ毎に蓄積して記憶し、関連性分析部(16)は、記憶部15に蓄積して記憶している前記感情の数値と、前記感情の数値と紐づいた前記コンテンツ情報との関連性を前記ユーザ毎に分析し、判定部(17)は、前記関連性の分析結果に基づき、前記ユーザの傾向を判定する。
Description
本発明は、傾向判定装置、反射体付き表示装置、傾向表示システム装置、傾向判定方法、表示処理方法、傾向表示方法、プログラム及び記録媒体に関する。
様々な分野において、「ユーザの傾向」が利用されている。例えば、特許文献1には、ユーザの傾向と類似する他のユーザの傾向に基づいて、前記ユーザに商品を推奨する技術が開示されている。
特許文献1では、衣服を着用しているユーザの画像に基づいて、ファッション嗜好を抽出している。しかしながら、より正確にユーザの傾向を判定可能な新たな技術が求められている。
そこで、本発明は、ユーザの傾向を判定可能な傾向判定装置、反射体付き表示装置、傾向表示システム装置、傾向判定方法、表示処理方法、傾向表示方法、プログラム及び記録媒体を提供することを目的とする。
前記目的を達成するために、本発明の傾向判定装置は、
提示部、取得部、生体情報分析部、感情特定部、記憶部、関連性分析部、及び判定部を含み、
前記提示部は、反射体付き表示装置を介してコンテンツに関するコンテンツ情報をユーザに提示し、
前記取得部は、反射体に写ったユーザを撮像した反射画像を取得し、
前記生体情報分析部は、前記反射画像から前記ユーザの生体情報を分析し、
前記感情特定部は、前記生体情報から前記ユーザの感情を数値化して特定し、
前記記憶部は、前記コンテンツ情報と紐づけて前記感情の数値を前記ユーザ毎に蓄積して記憶し、
前記関連性分析部は、前記記憶部に蓄積して記憶している前記感情の数値と、前記感情の数値と紐づいた前記コンテンツ情報との関連性を前記ユーザ毎に分析し、
前記判定部は、前記関連性の分析結果に基づき、前記ユーザの傾向を判定する、装置である。
提示部、取得部、生体情報分析部、感情特定部、記憶部、関連性分析部、及び判定部を含み、
前記提示部は、反射体付き表示装置を介してコンテンツに関するコンテンツ情報をユーザに提示し、
前記取得部は、反射体に写ったユーザを撮像した反射画像を取得し、
前記生体情報分析部は、前記反射画像から前記ユーザの生体情報を分析し、
前記感情特定部は、前記生体情報から前記ユーザの感情を数値化して特定し、
前記記憶部は、前記コンテンツ情報と紐づけて前記感情の数値を前記ユーザ毎に蓄積して記憶し、
前記関連性分析部は、前記記憶部に蓄積して記憶している前記感情の数値と、前記感情の数値と紐づいた前記コンテンツ情報との関連性を前記ユーザ毎に分析し、
前記判定部は、前記関連性の分析結果に基づき、前記ユーザの傾向を判定する、装置である。
本発明の反射体付き表示装置は、
本発明の傾向判定装置と併用される反射体付き表示装置であって、
反射体、ディスプレイ、撮像部、送信部、取得部、及び表示処理部を含み、
前記撮像部は、前記反射体に写ったユーザを撮像し、
前記送信部は、前記撮像部により撮像された反射画像を前記傾向判定装置に送信し、
前記取得部は、前記傾向判定装置が提示するコンテンツ情報を取得し、
前記表示処理部は、前記コンテンツ情報を前記ディスプレイに表示する、装置である。
本発明の傾向判定装置と併用される反射体付き表示装置であって、
反射体、ディスプレイ、撮像部、送信部、取得部、及び表示処理部を含み、
前記撮像部は、前記反射体に写ったユーザを撮像し、
前記送信部は、前記撮像部により撮像された反射画像を前記傾向判定装置に送信し、
前記取得部は、前記傾向判定装置が提示するコンテンツ情報を取得し、
前記表示処理部は、前記コンテンツ情報を前記ディスプレイに表示する、装置である。
本発明の傾向表示システム装置は、
本発明の傾向判定装置と、本発明の反射体付き表示装置とを含み、
前記傾向判定装置と前記反射体付き表示装置とは、通信回線網を介して通信可能である、装置である。
本発明の傾向判定装置と、本発明の反射体付き表示装置とを含み、
前記傾向判定装置と前記反射体付き表示装置とは、通信回線網を介して通信可能である、装置である。
本発明の傾向判定方法は、
提示工程、取得工程、生体情報分析工程、感情特定工程、記憶工程、関連性分析工程、及び判定工程を含み、
前記提示工程は、反射体付き表示装置を介してコンテンツに関するコンテンツ情報をユーザに提示し、
前記取得工程は、反射体に写ったユーザを撮像した反射画像を取得し、
前記生体情報分析工程は、前記反射画像から前記ユーザの生体情報を分析し、
前記感情特定工程は、前記生体情報から前記ユーザの感情を数値化して特定し、
前記記憶工程は、前記コンテンツ情報と紐づけて前記感情の数値を前記ユーザ毎に蓄積して記憶し、
前記関連性分析工程は、前記記憶工程に蓄積して記憶している前記感情の数値と、前記感情の数値と紐づいた前記コンテンツ情報との関連性を前記ユーザ毎に分析し、
前記判定工程は、前記関連性の分析結果に基づき、前記ユーザの傾向を判定する、方法である。
提示工程、取得工程、生体情報分析工程、感情特定工程、記憶工程、関連性分析工程、及び判定工程を含み、
前記提示工程は、反射体付き表示装置を介してコンテンツに関するコンテンツ情報をユーザに提示し、
前記取得工程は、反射体に写ったユーザを撮像した反射画像を取得し、
前記生体情報分析工程は、前記反射画像から前記ユーザの生体情報を分析し、
前記感情特定工程は、前記生体情報から前記ユーザの感情を数値化して特定し、
前記記憶工程は、前記コンテンツ情報と紐づけて前記感情の数値を前記ユーザ毎に蓄積して記憶し、
前記関連性分析工程は、前記記憶工程に蓄積して記憶している前記感情の数値と、前記感情の数値と紐づいた前記コンテンツ情報との関連性を前記ユーザ毎に分析し、
前記判定工程は、前記関連性の分析結果に基づき、前記ユーザの傾向を判定する、方法である。
本発明の表示処理方法は、
本発明の傾向判定方法と並行して実行される表示処理方法であって、
撮像工程、送信工程、取得工程、及び表示処理工程を含み、
前記撮像工程は、反射体に写ったユーザを撮像し、
前記送信工程は、前記撮像工程により撮像された反射画像を前記傾向判定方法を実行する傾向判定装置に送信し、
前記取得工程は、前記傾向判定装置が提示するコンテンツ情報を取得し、
前記表示処理工程は、前記コンテンツ情報をディスプレイに表示する、方法である。
本発明の傾向判定方法と並行して実行される表示処理方法であって、
撮像工程、送信工程、取得工程、及び表示処理工程を含み、
前記撮像工程は、反射体に写ったユーザを撮像し、
前記送信工程は、前記撮像工程により撮像された反射画像を前記傾向判定方法を実行する傾向判定装置に送信し、
前記取得工程は、前記傾向判定装置が提示するコンテンツ情報を取得し、
前記表示処理工程は、前記コンテンツ情報をディスプレイに表示する、方法である。
本発明の傾向表示方法は、
本発明の傾向判定方法と、本発明の表示処理方法とを含む、方法である。
本発明の傾向判定方法と、本発明の表示処理方法とを含む、方法である。
本発明によれば、ユーザ自身が自覚している傾向のみならず、潜在的な傾向も判定することができる。
本発明の傾向判定装置において、例えば、
前記提示部は、前記反射体付き表示装置を介して前記感情及び前記感情の数値を前記ユーザに提示する、という態様であってもよい。
前記提示部は、前記反射体付き表示装置を介して前記感情及び前記感情の数値を前記ユーザに提示する、という態様であってもよい。
本発明の傾向判定装置において、例えば、
前記取得部は、前記提示部による前記コンテンツの提示の前に前記ユーザを撮像した提示前反射画像と、前記提示の後に前記ユーザを撮像した提示後反射画像とを取得し、
前記生体情報分析部は、前記提示前反射画像及び前記提示後反射画像のそれぞれから前記ユーザの生体情報を分析し、
前記感情特定部は、前記提示前反射画像及び前記提示後反射画像のそれぞれから分析された生体情報から前記ユーザの感情を数値化して特定し、
前記記憶部は、前記提示前反射画像における前記感情の数値と前記提示後反射画像における前記感情の数値との差分を前記コンテンツと紐づけて前記ユーザ毎に蓄積して記憶し、
前記関連性分析部は、前記記憶部に蓄積して記憶している前記感情の数値の差分と、前記感情の数値の差分と紐づいた前記コンテンツとの関連性を前記ユーザ毎に分析する、という態様であってもよい。
前記取得部は、前記提示部による前記コンテンツの提示の前に前記ユーザを撮像した提示前反射画像と、前記提示の後に前記ユーザを撮像した提示後反射画像とを取得し、
前記生体情報分析部は、前記提示前反射画像及び前記提示後反射画像のそれぞれから前記ユーザの生体情報を分析し、
前記感情特定部は、前記提示前反射画像及び前記提示後反射画像のそれぞれから分析された生体情報から前記ユーザの感情を数値化して特定し、
前記記憶部は、前記提示前反射画像における前記感情の数値と前記提示後反射画像における前記感情の数値との差分を前記コンテンツと紐づけて前記ユーザ毎に蓄積して記憶し、
前記関連性分析部は、前記記憶部に蓄積して記憶している前記感情の数値の差分と、前記感情の数値の差分と紐づいた前記コンテンツとの関連性を前記ユーザ毎に分析する、という態様であってもよい。
本発明の傾向判定装置において、例えば、
前記関連性分析部は、学習処理部を含み、
前記学習処理部は、前記ユーザの前記感情の数値と前記コンテンツ情報とを学習用データとして用いた教師なし学習によって、学習モデルの学習処理を行い、
前記関連性分析部は、前記学習モデルを用いて、前記感情の数値と前記コンテンツ情報との関連性を前記ユーザ毎に分析する、という態様であってもよい。
前記関連性分析部は、学習処理部を含み、
前記学習処理部は、前記ユーザの前記感情の数値と前記コンテンツ情報とを学習用データとして用いた教師なし学習によって、学習モデルの学習処理を行い、
前記関連性分析部は、前記学習モデルを用いて、前記感情の数値と前記コンテンツ情報との関連性を前記ユーザ毎に分析する、という態様であってもよい。
本発明の傾向判定装置において、例えば、
前記取得部は、さらに、前記コンテンツを取得し、
前記提示部は、前記反射体付き表示装置を介して前記取得部が取得した前記コンテンツを前記ユーザに提示する、という態様であってもよい。
前記取得部は、さらに、前記コンテンツを取得し、
前記提示部は、前記反射体付き表示装置を介して前記取得部が取得した前記コンテンツを前記ユーザに提示する、という態様であってもよい。
本発明の傾向判定装置は、例えば、
さらに、推奨部を含み、
前記推奨部は、判定した前記ユーザの傾向に基づき、複数の前記コンテンツ情報の中から少なくとも一つの前記コンテンツ情報を選択し、且つ選択した前記コンテンツ情報を前記反射体付き表示装置を介して前記ユーザに推奨する、という態様であってもよい。
さらに、推奨部を含み、
前記推奨部は、判定した前記ユーザの傾向に基づき、複数の前記コンテンツ情報の中から少なくとも一つの前記コンテンツ情報を選択し、且つ選択した前記コンテンツ情報を前記反射体付き表示装置を介して前記ユーザに推奨する、という態様であってもよい。
本発明の反射体付き表示装置において、例えば、
前記取得部は、前記傾向判定装置が提示する前記ユーザの感情の数値を取得し、
前記表示処理部は、前記傾向判定装置によって提示された前記ユーザの感情の数値を前記ディスプレイに表示する、という態様であってもよい。
前記取得部は、前記傾向判定装置が提示する前記ユーザの感情の数値を取得し、
前記表示処理部は、前記傾向判定装置によって提示された前記ユーザの感情の数値を前記ディスプレイに表示する、という態様であってもよい。
本発明の反射体付き表示装置において、例えば、
前記撮像部は、前記表示処理部によって前記コンテンツを前記ディスプレイに表示する前と、表示した後とで前記ユーザを撮像し、
前記送信部は、前記表示する前に撮像した提示前反射画像と、前記表示した後に撮像した提示後反射画像とを前記傾向判定装置に送信する、という態様であってもよい。
前記撮像部は、前記表示処理部によって前記コンテンツを前記ディスプレイに表示する前と、表示した後とで前記ユーザを撮像し、
前記送信部は、前記表示する前に撮像した提示前反射画像と、前記表示した後に撮像した提示後反射画像とを前記傾向判定装置に送信する、という態様であってもよい。
本発明の反射体付き表示装置において、例えば、
前記取得部は、前記傾向判定装置が推奨する前記コンテンツ情報を取得し、
前記表示処理部は、前記傾向判定装置によって推奨された前記コンテンツ情報を前記ディスプレイに表示する、という態様であってもよい。
前記取得部は、前記傾向判定装置が推奨する前記コンテンツ情報を取得し、
前記表示処理部は、前記傾向判定装置によって推奨された前記コンテンツ情報を前記ディスプレイに表示する、という態様であってもよい。
本発明の反射体付き表示装置は、例えば、
さらに、再生処理部、及び音入出力部を含み、
前記コンテンツ情報が音情報である場合、
前記再生処理部は、前記コンテンツ情報を前記音入出力部により再生する、という態様であってもよい。
さらに、再生処理部、及び音入出力部を含み、
前記コンテンツ情報が音情報である場合、
前記再生処理部は、前記コンテンツ情報を前記音入出力部により再生する、という態様であってもよい。
本発明の反射体付き表示装置は、例えば、
さらに、入力操作認識部を含み、
前記入力操作認識部は、前記ユーザの入力操作を認識する、という態様であってもよい。
さらに、入力操作認識部を含み、
前記入力操作認識部は、前記ユーザの入力操作を認識する、という態様であってもよい。
本発明の傾向判定方法において、例えば、
前記提示工程は、前記反射体付き表示装置を介して前記感情及び前記感情の数値を前記ユーザに提示する、という態様であってもよい。
前記提示工程は、前記反射体付き表示装置を介して前記感情及び前記感情の数値を前記ユーザに提示する、という態様であってもよい。
本発明の傾向判定方法において、例えば、
前記取得工程は、前記提示工程による前記コンテンツの提示の前に前記ユーザを撮像した提示前反射画像と、前記提示の後に前記ユーザを撮像した提示後反射画像とを取得し、
前記生体情報分析工程は、前記提示前反射画像及び前記提示後反射画像のそれぞれから前記ユーザの生体情報を分析し、
前記感情特定工程は、前記提示前反射画像及び前記提示後反射画像のそれぞれから分析された生体情報から前記ユーザの感情を数値化して特定し、
前記記憶工程は、前記提示前反射画像における前記感情の数値と前記提示後反射画像における前記感情の数値との差分を前記コンテンツと紐づけて前記ユーザ毎に蓄積して記憶し、
前記関連性分析工程は、前記記憶工程に蓄積して記憶している前記感情の数値の差分と、前記感情の数値の差分と紐づいた前記コンテンツとの関連性を前記ユーザ毎に分析する、という態様であってもよい。
前記取得工程は、前記提示工程による前記コンテンツの提示の前に前記ユーザを撮像した提示前反射画像と、前記提示の後に前記ユーザを撮像した提示後反射画像とを取得し、
前記生体情報分析工程は、前記提示前反射画像及び前記提示後反射画像のそれぞれから前記ユーザの生体情報を分析し、
前記感情特定工程は、前記提示前反射画像及び前記提示後反射画像のそれぞれから分析された生体情報から前記ユーザの感情を数値化して特定し、
前記記憶工程は、前記提示前反射画像における前記感情の数値と前記提示後反射画像における前記感情の数値との差分を前記コンテンツと紐づけて前記ユーザ毎に蓄積して記憶し、
前記関連性分析工程は、前記記憶工程に蓄積して記憶している前記感情の数値の差分と、前記感情の数値の差分と紐づいた前記コンテンツとの関連性を前記ユーザ毎に分析する、という態様であってもよい。
本発明の傾向判定方法において、例えば、
前記関連性分析工程は、学習処理工程を含み、
前記学習処理工程は、前記ユーザの前記感情の数値と前記コンテンツ情報とを学習用データとして用いた教師なし学習によって、学習モデルの学習処理を行い、
前記関連性分析工程は、前記学習モデルを用いて、前記感情の数値と前記コンテンツ情報との関連性を前記ユーザ毎に分析する、という態様であってもよい。
前記関連性分析工程は、学習処理工程を含み、
前記学習処理工程は、前記ユーザの前記感情の数値と前記コンテンツ情報とを学習用データとして用いた教師なし学習によって、学習モデルの学習処理を行い、
前記関連性分析工程は、前記学習モデルを用いて、前記感情の数値と前記コンテンツ情報との関連性を前記ユーザ毎に分析する、という態様であってもよい。
本発明の傾向判定方法において、例えば、
前記取得工程は、さらに、前記コンテンツを取得し、
前記提示工程は、前記反射体付き表示装置を介して前記取得工程が取得した前記コンテンツを前記ユーザに提示する、という態様であってもよい。
前記取得工程は、さらに、前記コンテンツを取得し、
前記提示工程は、前記反射体付き表示装置を介して前記取得工程が取得した前記コンテンツを前記ユーザに提示する、という態様であってもよい。
本発明の傾向判定方法は、例えば、
さらに、推奨工程を含み、
前記推奨工程は、判定した前記ユーザの傾向に基づき、複数の前記コンテンツ情報の中から少なくとも一つの前記コンテンツ情報を選択し、且つ選択した前記コンテンツ情報を前記反射体付き表示装置を介して前記ユーザに推奨する、という態様であってもよい。
さらに、推奨工程を含み、
前記推奨工程は、判定した前記ユーザの傾向に基づき、複数の前記コンテンツ情報の中から少なくとも一つの前記コンテンツ情報を選択し、且つ選択した前記コンテンツ情報を前記反射体付き表示装置を介して前記ユーザに推奨する、という態様であってもよい。
本発明の表示処理方法において、例えば、
前記取得工程は、前記傾向判定装置が提示する前記ユーザの感情の数値を取得し、
前記表示処理工程は、前記傾向判定装置によって提示された前記ユーザの感情の数値を前記ディスプレイに表示する、という態様であってもよい。
前記取得工程は、前記傾向判定装置が提示する前記ユーザの感情の数値を取得し、
前記表示処理工程は、前記傾向判定装置によって提示された前記ユーザの感情の数値を前記ディスプレイに表示する、という態様であってもよい。
本発明の表示処理方法において、例えば、
前記撮像工程は、前記表示処理工程によって前記コンテンツを前記ディスプレイに表示する前と、表示した後とで前記ユーザを撮像し、
前記送信工程は、前記表示する前に撮像した提示前反射画像と、前記表示した後に撮像した提示後反射画像とを前記傾向判定装置に送信する、という態様であってもよい。
前記撮像工程は、前記表示処理工程によって前記コンテンツを前記ディスプレイに表示する前と、表示した後とで前記ユーザを撮像し、
前記送信工程は、前記表示する前に撮像した提示前反射画像と、前記表示した後に撮像した提示後反射画像とを前記傾向判定装置に送信する、という態様であってもよい。
本発明の表示処理方法において、例えば、
前記取得工程は、前記傾向判定装置が推奨する前記コンテンツ情報を取得し、
前記表示処理工程は、前記傾向判定装置によって推奨された前記コンテンツ情報を前記ディスプレイに表示する、という態様であってもよい。
前記取得工程は、前記傾向判定装置が推奨する前記コンテンツ情報を取得し、
前記表示処理工程は、前記傾向判定装置によって推奨された前記コンテンツ情報を前記ディスプレイに表示する、という態様であってもよい。
本発明の表示処理方法は、例えば、
さらに、再生処理工程、及び音入出力工程を含み、
前記コンテンツ情報が音情報である場合、
前記再生処理工程は、前記コンテンツ情報を前記音入出力工程により再生する、という態様であってもよい。
さらに、再生処理工程、及び音入出力工程を含み、
前記コンテンツ情報が音情報である場合、
前記再生処理工程は、前記コンテンツ情報を前記音入出力工程により再生する、という態様であってもよい。
本発明の表示処理方法は、例えば、
さらに、入力操作認識工程を含み、
前記入力操作認識工程は、前記ユーザの入力操作を認識する、という態様であってもよい。
さらに、入力操作認識工程を含み、
前記入力操作認識工程は、前記ユーザの入力操作を認識する、という態様であってもよい。
本発明のプログラムは、本発明の方法の各工程を、手順として、コンピュータに実行させるためのプログラムである。
本発明の記録媒体は、本発明のプログラムを記録しているコンピュータ読み取り可能な記録媒体である。
本発明において、「傾向」とは、例えば、嗜好、苦手、リラックス、苦痛、好感、悪感、等を含めて最も広義に解釈されるべきであり、如何なる意味においても限定されない。
本発明において、「コンテンツ」とは、人が認識可能なものであればよく、デジタルコンテンツであってもよいし、アナログコンテンツであってもよい。前記コンテンツの表現形式は、特に制限されず、例えば、実物、サンプル品、画像(例えば、静止画及び動画等)、テキスト、音、及びこれらの中の任意の2以上の組合せによって表現されてもよい。前記コンテンツは、例えば、草花、風景、せせらぎ音等の自然由来のコンテンツであってもよい。また、前記コンテンツは、例えば、商品やサービス等の販売物であってもよい。前記商品としては、例えば、家電製品、飲食品、衣料品、日用雑貨、生活用品、美術品、データ(動画データ及び音楽データ等)等が挙げられる。また、前記サービスとしては、例えば、旅行サービス、飲食店のサービス、美容、理容、マッサージ、医療サービス、金融サービス等が挙げられる。前記コンテンツは、上記各例示を含めて最も広義に解釈されるべきであり、如何なる意味においても限定されない。
次に、本発明の実施形態について図を用いて説明する。本発明は、以下の実施形態には限定されない。以下の各図において、同一部分には、同一符号を付している。また、各実施形態の説明は、特に言及がない限り、互いの説明を援用でき、各実施形態の構成は、特に言及がない限り、組合せ可能である。
[実施形態1]
図1は、本実施形態の傾向判定装置10の一例の構成を示すブロック図である。図1に示すように、本装置10は、提示部11、取得部12、生体情報分析部13、感情特定部14、記憶部15、関連性分析部16、及び判定部17を含む。また、本装置10は、任意の構成として、さらに、推奨部18等を含んでもよい。関連性分析部16は、例えば、任意の構成として、学習処理部161を含んでもよい。これら各部は、例えば、内部バスにより相互に接続されている。
図1は、本実施形態の傾向判定装置10の一例の構成を示すブロック図である。図1に示すように、本装置10は、提示部11、取得部12、生体情報分析部13、感情特定部14、記憶部15、関連性分析部16、及び判定部17を含む。また、本装置10は、任意の構成として、さらに、推奨部18等を含んでもよい。関連性分析部16は、例えば、任意の構成として、学習処理部161を含んでもよい。これら各部は、例えば、内部バスにより相互に接続されている。
本装置10は、例えば、前記各部を含む1つの装置でもよいし、前記各部が、通信回線網を介して接続可能な装置でもよい。また、本装置10は、前記通信回線網を介して、後述する外部装置と接続可能である。前記通信回線網は、特に制限されず、公知のネットワークを使用でき、例えば、有線でも無線でもよい。前記通信回線網は、例えば、インターネット回線、WWW(World Wide Web)、電話回線、LAN(Local Area Network)、SAN(Storage Area Network)、DTN(Delay Tolerant Networking)、LPWA(Low Power Wide Area)、L5G(ローカル5G)、等があげられる。無線通信としては、例えば、Wi-Fi(登録商標)、Bluetooth(登録商標)、ローカル5G、LPWA等が挙げられる。前記無線通信としては、各装置が直接通信する形態(Ad Hoc通信)、インフラストラクチャ(infrastructure通信)、アクセスポイントを介した間接通信等であってもよい。本装置10は、例えば、システムとしてサーバに組み込まれていてもよい。また、本装置10は、例えば、本発明のプログラムがインストールされたパーソナルコンピュータ(PC、例えば、デスクトップ型、ノート型)、スマートフォン、タブレット端末等であってもよい。さらに、本装置10は、例えば、前記各部のうち少なくとも一つがサーバ上にあり、その他の前記各部が端末上にあるような、クラウドコンピューティングやエッジコンピューティング等の形態であってもよい。
図2に、本装置10のハードウエア構成のブロック図を例示する。本装置10は、例えば、中央処理装置(CPU、GPU等)101、メモリ102、バス103、記憶装置104、入力装置105、出力装置106、通信デバイス107等を含む。本装置10の各部は、それぞれのインタフェース(I/F)により、バス103を介して相互に接続されている。なお、これらは例示であって、本装置10のハードウエア構成は、前記各部の処理を実行可能であれば、これに限定されない。また、本装置10に含まれる中央処理装置101等の数も図2の例示に限定されるものではなく、例えば、複数の中央処理装置101が本装置10に含まれていてもよい。
中央処理装置101は、本装置10の全体の制御を担う。本装置10において、中央処理装置101により、例えば、本発明のプログラムやその他のプログラムが実行され、また、各種情報の読み込みや書き込みが行われる。具体的には、例えば、中央処理装置101が、提示部11、取得部12、生体情報分析部13、感情特定部14、関連性分析部16、及び判定部17、推奨部18等として機能する。
バス103は、例えば、外部装置とも接続できる。前記外部装置は、例えば、外部記憶装置(外部データベース等)、外部入力装置(外部撮像装置等)、外部出力装置(外部表示装置、外部プリンター等)等があげられる。本装置10は、例えば、バス103に接続された通信デバイス107により、外部ネットワーク(前記通信回線網)に接続でき、外部ネットワークを介して、他の装置と接続することもできる。
メモリ102は、例えば、メインメモリ(主記憶装置)が挙げられる。中央処理装置101が処理を行う際には、例えば、後述する記憶装置104に記憶されている本発明のプログラム等の種々の動作プログラムを、メモリ102が読み込み、中央処理装置101は、メモリ102からデータを受け取って、プログラムを実行する。前記メインメモリは、例えば、RAM(ランダムアクセスメモリ)である。また、メモリ102は、例えば、ROM(読み出し専用メモリ)であってもよい。
記憶装置104は、例えば、前記メインメモリ(主記憶装置)に対して、いわゆる補助記憶装置ともいう。前述のように、記憶装置104には、本発明のプログラムを含む動作プログラムが格納されている。記憶装置104は、例えば、記録媒体と、記録媒体に読み書きするドライブとの組合せであってもよい。前記記録媒体は、特に制限されず、例えば、内蔵型でも外付け型でもよく、HD(ハードディスク)、CD-ROM、CD-R、CD-RW、MO、DVD、フラッシュメモリー、メモリーカード等が挙げられる。記憶装置104は、例えば、記録媒体とドライブとが一体化されたハードディスクドライブ(HDD)、及びソリッドステートドライブ(SSD)であってもよい。
本装置10において、メモリ102及び記憶装置104は、ログ情報、外部データベース(図示せず)や外部の装置から取得した情報、本装置10によって生成した情報、本装置10が処理を実行する際に用いる情報等の種々の情報を記憶することも可能である。なお、少なくとも一部の情報は、例えば、メモリ102及び記憶装置104以外の外部サーバに記憶されていてもよいし、複数の端末にブロックチェーン技術等を用いて分散して記憶されていてもよい。また、メモリ102及び記憶装置104は、例えば、記憶部15として機能してもよい。
本装置10は、例えば、さらに、入力装置105、及び出力装置106を含んでもよい。入力装置105は、例えば、文字、数字、画面上に表示された物の位置、画像、音等を入力する装置であり、具体的には、デジタイザ(タッチパネル等)、キーボード、マウス、スキャナ、撮像装置(カメラ)、マイク、センサ等である。出力装置106は、例えば、表示装置(LEDディスプレイ、液晶ディスプレイ等)、プリンター、スピーカー等が挙げられる。
つぎに、本実施形態の傾向判定方法の一例を、図3のフローチャートに基づき説明する。本実施形態の傾向判定方法は、例えば、図1の傾向判定装置10を用いて、次のように実施する。なお、本実施形態の傾向判定方法は、図1の傾向判定装置10の使用には限定されない。また、図3においてかっこで示した工程は、任意の工程である。
まず、提示部11により、反射体付き表示装置を介してコンテンツに関するコンテンツ情報をユーザに提示する(S11a、提示工程)。前記コンテンツがアナログコンテンツである場合、提示部11は、例えば、アナログコンテンツに関するコンテンツ情報のみを前記ユーザに提示してもよい。前記コンテンツがデジタルコンテンツである場合、提示部11は、例えば、前記デジタルコンテンツを含むコンテンツ情報を前記ユーザに提示してもよい。前記コンテンツ情報は、例えば、テキストデータ、画像データ、動画データ、音データ、及びこれらの中から任意の2つ以上の組み合わせ等であってもよい。前記コンテンツ情報は、例えば、予め記憶部15に記憶されていてもよいし、後述するように、取得部12により外部から取得してもよい。前記反射体付き表示装置は、鏡やガラス等の反射体を含む表示装置であれば、特に制限されない。前記反射体付き表示装置としては、例えば、後述の実施形態2記載の反射体付き表示装置20が挙げられる。前記ユーザは、例えば、反射体付き表示装置のディスプレイの正面に立っているユーザであり、購入者等ともいう。ここで、「反射体付き表示装置を介して」とは、前記反射体付き表示装置のディスプレイ上に表示されることを意味する。
次に、取得部12により、反射体に写ったユーザを撮像した反射画像を取得する(S12a、取得工程)。前記反射体は、前記反射体付き表示装置の反射体である。具体的には、実施形態2にて説明する。前記反射画像は、前記反射体付き表示装置が撮像した画像であって、静止画であってもよいし、動画であってもよい。また、前記反射画像は、例えば、前記反射体付き表示装置によって連続して撮像されたデータでもよいし、一定間隔(例えば、10秒毎)で撮像されたデータでもよい。取得部12は、例えば、前記反射体付き表示装置から前記反射画像を直接取得してもよいし、外部のサーバ等を介して間接的に取得してもよい。また、取得部12は、例えば、前記反射画像とあわせて前記ユーザの音声を含む音データを取得してもよい。前記音データは、例えば、前記反射体付き表示装置における音に関する入力装置及び出力装置(マイク、センサ等)を用いて集音されたデータである。
次に、生体情報分析部13により、前記反射画像から前記ユーザの生体情報を分析する(S13、生体情報分析工程)。前記生体情報は、特に制限されず、例えば、顔色、心拍(脈波)、表情、体温、声、目の動き、体の動き等である。前記心拍は、例えば、顔を撮像した鏡画像から血液中に含まれるヘモグロビン由来の緑色の変化に着目することで抽出できる。前記生体情報は、例えば、メモリ102及び記憶装置104等に記憶されてもよい。生体情報分析部13は、例えば、公知のアルゴリズムを用いて、前記生体情報を分析してもよい。
次に、感情特定部14により、前記生体情報から前記ユーザの感情を数値化して特定する(S14、感情特定工程)。感情特定部14は、例えば、複数の感情を特定してもよく、前記感情毎に数値化してもよい。前記感情は、特に制限されず、ポジティブな感情であってもよく、ネガティブな感情であってもよい。具体的に、前記ポジティブな感情としては、例えば、喜び、驚き、関心、穏やか、敬愛、リラックス、興奮等があり、前記ネガティブな感情としては、例えば、悲しみ、怒り、諦め、嫌悪、恐怖、不安等がある。なお、前記ポジティブな感情及び前記ネガティブな感情は、上記例示に限定されず、例えば、ポジティブな感情であるかネガティブな感情であるかは、任意に設定可能であってもよい。前記感情の数値の上限及び下限は、特に制限されず、例えば、-100~100、―100~0、-10~10、-10~0、0~100、0~10、等である。なお、これは例示であって、例えば、前記感情の数値の上限は、100以上であってもよく、下限は、-100以下であってもよい。感情特定部14により特定された感情及びその数値は、例えば、メモリ102及び記憶装置104等に記憶されてもよい。感情特定部14は、例えば、公知のアルゴリズムを用いて、前記感情の特定を行ってもよい。
感情特定部14により特定された前記感情及び前記感情の数値は、例えば、前記工程(S14)の後、提示部11により、前記反射体付き表示装置を介して前記ユーザに提示されもよい(S11b)。前記工程(S11b)は、例えば、後述の工程(S15)と並行して処理されてもよいし、後述の工程(S15)の後に処理されてもよい。これにより、前記ユーザは、自身の感情を把握することができる。また、ユーザは、前記反射体付き表示装置の反射体によっても、自身の感情を把握することができるため、前記ユーザにとって、感情特定部14により特定された前記感情及び前記感情の数値に対する納得性が高くなる。
次に、記憶部15により、前記コンテンツ情報と紐づけて前記感情の数値を前記ユーザ毎に蓄積して記憶する(S15、記憶工程)。
次に、関連性分析部16により、記憶部15に蓄積して記憶している前記感情の数値と、前記感情の数値と紐づいた前記コンテンツ情報との関連性を前記ユーザ毎に分析する(S16、関連性分析工程)。また、関連性分析部16が学習処理部161を含む場合は、例えば、まず、学習処理部161により、前記ユーザの前記感情の数値と前記コンテンツ情報とを学習用データとして用いた教師なし学習によって、学習モデルの学習処理を行ってもよい(S161)。そして、関連性分析部16は、例えば、前記学習モデルを用いて、前記感情の数値と前記コンテンツ情報との関連性を前記ユーザ毎に分析してもよい。すなわち、前記学習モデルは、前記ユーザの前記感情の数値と前記ユーザの前記コンテンツ情報との関連性を学習させたモデルである。前記学習モデルは、人工知能ソフトウェアの一部であるプログラムモジュールであってもよいし、多層化ネットワークであってもよい。前記多層化ネットワークとしては、例えば、ニューラルネットワーク等が挙げられる。前記ニューラルネットワークとしては、例えば、畳み込みニューラルネットワーク(Convolution Neural Network:CNN)等が挙げられるが、CNNに限定されず、CNN以外のニューラルネットワーク、SVM(Support Vector Machine)、ベイジアンネットワーク、回帰木等の他の学習アルゴリズムで構築された学習モデルであってもよい。
そして、判定部17により、前記関連性の分析結果に基づき、前記ユーザの傾向を判定し(S17、判定工程)、終了する(END)。判定部18によれば、例えば、「『動物』に関連する前記コンテンツ情報が提示されると、『楽しい』という感情の数値が高くなる傾向がある」、「『楽しい』という感情の数値が高くなるとき、前記コンテンツ情報に『動物』が含まれている傾向がある」等の前記ユーザの傾向が分かる。
また、例えば、前記工程(S12a)において、取得部12により、提示部11による前記コンテンツ情報の提示(前記工程(S11a))の前に前記ユーザを撮像した提示前反射画像と、前記提示(前記工程(S11a))の後に前記ユーザを撮像した提示後反射画像とを取得してもよい。前記提示前反射画像及び前記提示後反射画像に関しては、前述の前記反射画像の記載を援用できる。取得部12は、例えば、前記工程(S12a)において、前記提示前反射画像及び前記提示後反射画像をまとめて取得してもよいし、別々に取得してもよい。すなわち、取得部12は、例えば、前記工程(S11a)の前に前記提示前反射画像を取得して、前記工程(S12a)において前記提示後反射画像を取得してもよい。
前記提示前反射画像及び前記提示後反射画像を取得した場合、例えば、前記工程(S13)において、生体情報分析部13により、前記提示前反射画像及び前記提示後反射画像のそれぞれから前記ユーザの生体情報を分析してもよい。具体的には、前述と同様である。生体情報分析部13は、例えば、前記提示前反射画像からの前記生体情報の分析と、前記提示後反射画像からの前記生体情報の分析とを並行して処理してもよいし、別々に処理してもよい。
前記提示前反射画像及び前記提示後反射画像を取得した場合、例えば、前記工程(S14)において、感情特定部14により、前記提示前反射画像及び前記提示後反射画像のそれぞれから分析された生体情報から前記ユーザの感情を数値化して特定してもよい。具体的には、前述と同様である。感情特定部14は、例えば、前記提示前反射画像に基づく前記生体情報からの前記感情の特定と、前記提示後反射画像に基づく前記生体情報からの前記感情の特定とを並行して処理してもよいし、別々に処理してもよい。
前記提示前反射画像及び前記提示後反射画像を取得した場合、例えば、前記工程(S15)において、記憶部15により、前記提示前反射画像における前記感情の数値と前記提示後反射画像における前記感情の数値との差分を前記コンテンツと紐づけて前記ユーザ毎に蓄積して記憶してもよい。前記差分は、例えば、前記提示前反射画像における前記感情の数値を基準として算出された差分であってもよい。
前記提示前反射画像及び前記提示後反射画像を取得した場合、例えば、前記工程(S16)において、関連性分析部16により、記憶部15に蓄積して記憶している前記感情の数値の差分と、前記感情の数値の差分と紐づいた前記コンテンツとの関連性を前記ユーザ毎に分析してもよい。具体的には、例えば、前述と同様にして、前記関連性を分析する。
前述したように、取得部12は、例えば、前記工程(S11a)の前に、前記コンテンツ情報を外部から取得してもよい(S12b)。そして、前記工程(S11a)にいて、提示部11は、例えば、前記反射体付き表示装置を介して取得部12が取得した前記コンテンツ情報をユーザに提示してもよい。前記外部とは、例えば、前記コンテンツ提供者のサーバ等であってもよい。
前述したように、本装置10は、例えば、さらに、推奨部18を含んでもよい。推奨部18は、例えば、前記工程(S17)の後、判定した前記ユーザの傾向に基づき、複数の前記コンテンツ情報の中から少なくとも一つの前記コンテンツ情報を選択し、且つ選択した前記コンテンツ情報を前記反射体付き表示装置を介して前記ユーザに推奨する(S18、推奨工程)。具体的に、推奨部18は、例えば、「『動物』に関連する前記コンテンツ情報が提示されると、『楽しい』という感情の数値が高くなる傾向がある」ユーザに対して、動物に関連する前記コンテンツ情報を推奨する。なお、選択する前記コンテンツ情報は、例えば、これまで前記ユーザに提示及び推奨していない前記コンテンツ情報であってもよいし、前記ユーザに提示及び推奨したことのある前記コンテンツ情報であってもよい。
本実施形態によれば、前記ユーザの感情を特定することで、ユーザの傾向を判定することができる。言い換えれば、本実施形態は、ユーザ自身の傾向のみを用いて、ユーザ毎に異なるコンテンツ情報を提供すること、すなわち、前記コンテンツ情報のパーソナライズ化が可能である。また、本実施形態によれば、ユーザの感情からユーザの傾向を判定するため、ユーザ自身が自覚している傾向のみならず、潜在的な傾向も判定することができる。さらに、本実施形態によれば、前記コンテンツ情報を前記ユーザに推奨することで、前記ユーザは、例えば、膨大な数のコンテンツの中から好みに合ったコンテンツを効率良く探し出すことができる。一方で、前記コンテンツの提供者は、例えば、ユーザに対して効率よくコンテンツの宣伝等をすることができる。また、前記コンテンツが商品やサービス等の販売物である場合、前記コンテンツの提供者は、例えば、ユーザの購入意識を刺激することができ、効率的に利益を得ることができる。一方で、前記ユーザは、例えば、不特定多数の人に送信されるダイレクトメッセージ等と異なり、自身の傾向に適した前記コンテンツ情報の推奨を受けることができ、不快な気持ちにならずにすむ。
[実施形態2]
図4は、本実施形態の反射体付き表示装置20の一例の構成を示すブロック図である。図4に示すように、本装置20は、反射体21、ディスプレイ22、撮像部23、送信部24、取得部25、及び表示処理部26を含む。本装置20は、例えば、任意の構成として、さらに、再生処理部27、音入出力部28、及び入力操作認識部29等を含んでもよい。これら各部は、例えば、内部バスにより相互に接続されている。本装置20は、前記実施形態1記載の傾向判定装置10と併用される装置である。
図4は、本実施形態の反射体付き表示装置20の一例の構成を示すブロック図である。図4に示すように、本装置20は、反射体21、ディスプレイ22、撮像部23、送信部24、取得部25、及び表示処理部26を含む。本装置20は、例えば、任意の構成として、さらに、再生処理部27、音入出力部28、及び入力操作認識部29等を含んでもよい。これら各部は、例えば、内部バスにより相互に接続されている。本装置20は、前記実施形態1記載の傾向判定装置10と併用される装置である。
本装置20は、例えば、前記各部を含む1つの装置でもよいし、前記各部が、通信回線網を介して接続可能な装置でもよい。また、本装置20は、前記通信回線網を介して、前述した外部装置と接続可能である。前記通信回線網は、特に制限されず、例えば、前述と同様である。また、本装置20は、例えば、本発明のプログラムがインストールされた反射体付き表示装置であってもよい。さらに、本装置20は、例えば、前記各部のうち少なくとも一つがサーバ上にあり、その他の前記各部が端末上にあるような、クラウドコンピューティングやエッジコンピューティング等の形態であってもよい。本装置20は、例えば、前記通信回線網を介して前記実施形態1記載の傾向判定装置10と通信可能である。
図5に、本装置20のハードウエア構成のブロック図を例示する。本装置20は、例えば、中央処理装置(CPU、GPC等)101、メモリ102、バス103、記憶装置104、入力装置105、出力装置106、通信デバイス107等を含む。本装置20の各部は、それぞれのインタフェース(I/F)により、バス103を介して相互に接続されている。反射体21も、例えば、バス103を介して、本装置20の各部と相互に接続されていてもよい。特に記載しない限り、前記各部の説明は、図2に示す傾向判定装置10のハードウエア構成の記載を援用できる。なお、これらは例示であって、本装置20のハードウエア構成は、前記各部の処理を実行可能であれば、これに限定されない。また、本装置20に含まれる中央処理装置101等の数も図5の例示に限定されるものではなく、例えば、複数の中央処理装置101が本装置20に含まれていてもよい。
中央処理装置101は、例えば、送信部24、取得部25、表示処理部26、再生処理部27、及び入力操作認識部29等として機能する。
入力装置105は、例えば、撮像装置108を含む。撮像装置108は、例えば、2Dカメラ、3Dカメラ、赤外線カメラ等のカメラである。撮像装置108は、例えば、撮像部23として機能する。撮像装置108は、1つでもよいし、2つ以上あってもよい。撮像装置108の設置場所は、特に制限されず、例えば、ユーザの顔を正面から撮像できる位置に配置されていてもよい。
入力装置105及び出力装置106は、例えば、音の入出力に関する音入力装置109a及び音出力装置109bを含んでもよい。以下、音入力装置109a及び音出力装置109bをまとめて音入出力装置109という。音入出力装置109は、例えば、マイクやスピーカー等である。音入出力装置109は、例えば、音入出力部28として機能する。
反射体21は、例えば、光の反射を利用して物を映す機能を有する物である。また、反射体21は、例えば、光を透過する機能を有していてもよい。前記光の波長は、特に制限されないが、例えば、可視光である。反射体21として、具体的には、例えば、フルミラー、ハーフミラー等の鏡、ガラス、ディスプレイ、フィルタ等がある。
出力装置106は、例えば、ディスプレイ22として機能する。また、ディスプレイ22は、例えば、反射体21として用いられてもよい。
反射体21とディスプレイ22とが別々で存在する場合、反射体21とディスプレイ22とは、例えば、接して配置されている。具体的には、例えば、反射体21が、ディスプレイ22の上下左右のいずれか一か所に接して配置され、反射体21とディスプレイ22がひとつなぎの状態になっていてもよい。また、反射体21が、ディスプレイ22の前面(表示面)に接して配置され、反射体21とディスプレイ22が重なる状態になってもよい。
本装置20は、例えば、ショウウィンドウやガラスケース等のように、本装置20内に、前記コンテンツを収容可能な形態であってもよい。前記形態において、本装置20は、反射体21を介して、ユーザに対して、前記コンテンツを提示可能であってもよい。
つぎに、本実施形態の表示処理方法の一例を、図6のフローチャートに基づき説明する。本実施形態の表示処理方法は、例えば、図4の反射体付き表示装置20を用いて、次のように実施する。なお、本実施形態の表示処理方法は、図4の反射体付き表示装置20の使用には限定されない。また、図6においてかっこで示した工程は、任意の工程である。
まず、撮像部23により、反射体21に写ったユーザを撮像する(S21a、撮像工程)。撮像部23は、例えば、前記ユーザを連続して撮像してもよいし、一定間隔(例えば、10秒毎)で撮像してもよい。撮像部23により撮像した画像は、反射動画といい、前述の記載を援用できる。撮像部23は、例えば、前記ユーザの顔を正面方向から撮像する。
次に、送信部24により、撮像部23により撮像された前記反射画像を傾向判定装置10に送信する(S22a、送信工程)。
次に、取得部25により、傾向判定装置10が提示する前記コンテンツ情報を取得する(S23、取得工程)。
そして、表示処理部26により、前記コンテンツ情報をディスプレイ22に表示し(S24、表示処理工程)、終了する(END)。
また、取得部25は、例えば、前記工程(S23)において、傾向判定装置10が提示する前記ユーザの感情の数値を取得してもよい。そして、表示処理部26は、例えば、前記工程(S24)において、前記ユーザの感情の数値をディスプレイ22に表示してもよい。
さらに、取得部25は、例えば、前記工程(S23)において、傾向判定装置10が推奨する前記コンテンツ情報を取得してもよい。そして、表示処理部26は、例えば、前記工程(S24)において、傾向判定装置10によって推奨された前記コンテンツ情報をディスプレイ22に表示してもよい。
撮像部23は、例えば、表示処理部26によって前記コンテンツ情報をディスプレイ22に表示する前(前記工程(S21a))と、表示した後(工程(S21b))とで前記ユーザを撮像してもよい。そして、送信部24は、例えば、前記工程(S22a)において、前記表示する前に撮像した提示前反射画像を傾向判定装置10に送信し、かつ工程(S22b)において、前記表示した後に撮像した提示後反射画像を傾向判定装置10に送信してもよい。
前述のように、本装置20は、例えば、さらに、再生処理部27、及び音入出力部28を含んでもよい。前記コンテンツ情報が音情報である場合、再生処理部27は、前記コンテンツ情報を音入出力部28により再生してもよい。また、送信部24は、例えば、前記工程(S22a)において、音入出力部28により集音した前記ユーザの音声を含む音データを前記反射画像とあわせて送信してもよい。
前述のように、本装置20は、例えば、さらに、入力操作認識部29を含んでもよい。入力操作認識部29は、前記ユーザの入力操作を認識する(S25、入力操作認識工程)。前記入力操作は、特に制限されず、例えば、視線の検出、瞬きの検出、音声による指示、ディスプレイ22へのタッチ等がある。図6において、前記工程(S25)を前記工程(S24)の後に記載しているが、これに制限されず、いつ実行されてもよい。入力操作認識部29による前記入力操作の認識によって、例えば、ディスプレイ22に表示されているカーソル等が操作されたり、文字等が入力されたり等、様々な入力操作が実行されてもよい。
本実施形態によれば、例えば、前記反射画像を撮像して、傾向判定装置10に送信することで、前記ユーザの傾向を判定することができる。また、ユーザは、ディスプレイ22以外に、反射体21によっても、言い換えれば、傾向判定装置10を介することなく自身の感情を把握することができるため、前記ユーザにとって、傾向判定装置10により特定された前記感情及び前記感情の数値に対する納得性が高くなる。
[実施形態3]
図7は、本実施形態の傾向表示システム装置100の一例の構成を示すブロック図である。図7に示すように、本装置100は、前記実施形態1記載の傾向判定装置10と前記実施形態2記載の反射体付き表示装置20を含む。傾向判定装置10と反射体付き表示装置20とは、前記通信回線網を介して通信可能である。
図7は、本実施形態の傾向表示システム装置100の一例の構成を示すブロック図である。図7に示すように、本装置100は、前記実施形態1記載の傾向判定装置10と前記実施形態2記載の反射体付き表示装置20を含む。傾向判定装置10と反射体付き表示装置20とは、前記通信回線網を介して通信可能である。
本実施形態の傾向表示方法は、図3に示す傾向判定方法と、図6に示す表示処理方法とを含む。
以下、前記コンテンツが音楽である場合と旅行である場合とのそれぞれに傾向表示システム装置100を適用した一例について説明する。
(音楽の場合)
図8Aに、前記コンテンツが音楽である場合の反射体付き表示装置20の一例を示す。図8Aに示すように、反射体付き表示装置20は、例えば、スマートフォン等の端末であり、前記端末のスピーカー(図示せず)を介して音楽を流すことで、ユーザに対して前記音楽を聞かせる。すなわち、この場合の反射体21は、光を透過する機能を有していないものであり、例えば、ディスプレイ22そのものである。ディスプレイ22は、例えば、表示処理部26により複数の表示領域に分割されていてもよい。図8(A)において、ディスプレイ22は、傾向判定装置10により特定された前記ユーザの感情の数値を表示する領域22aと、前記感情の数値以外の情報(例えば、前記コンテンツ情報等)を表示する領域22bとの2つの領域に分割されている。前記音楽は、特に制限されず、例えば、販売対象の音楽の形態としては、デジタルデータである音楽データであってもよいし、CD等の記録媒体に記録された音楽データであってもよい。反射体付き表示装置20は、ユーザが前記端末を操作して前記音楽を再生させたとき、すなわち、反射体21(ディスプレイ22)の前に、顔の正面を向けたとき、撮像部23により前記反射画像を撮像する。撮像部23は、例えば、前記音楽が再生している間、前記反射画像を継続して撮像してもよい。その後、前記反射画像を取得した傾向判定装置10(例えば、サーバ等)が、生体情報分析部13により前記ユーザの生体情報を分析する。生体情報分析部13は、例えば、継続して撮像した前記反射画像の時系列に沿って前記生体情報を分析してもよい。次に、傾向判定装置10は、感情特定部14により、前記ユーザの感情を数値化して特定する。感情特定部14は、例えば、時系列に沿って分析した前記生体情報に基づき、時系列に沿って前記感情を数値化して特定してもよい。言い換えれば、傾向判定装置10は、前記音楽の再生中における前記ユーザの感情の変化を分析・特定するといえる。その後、前記感情の数値を取得した反射体付き表示装置20が、表示処理部26により、前記数値をディスプレイ22aに表示する。これにより、前記ユーザは、前記音楽に対するユーザ自身の感情がフィードバックされる。一方で、傾向判定装置10は、記録部15により、前記音楽単位の前記ユーザの感情の数値を記憶する。次に、傾向判定装置10は、関連性分析部16により前記音楽と前記感情の数値との関連性を分析し、判定部17により前記ユーザの傾向を判定する。その後、傾向判定装置10は、推奨部18により前記ユーザの感情に適した音楽を選択して反射体付き表示装置20に再生させる。
図8Aに、前記コンテンツが音楽である場合の反射体付き表示装置20の一例を示す。図8Aに示すように、反射体付き表示装置20は、例えば、スマートフォン等の端末であり、前記端末のスピーカー(図示せず)を介して音楽を流すことで、ユーザに対して前記音楽を聞かせる。すなわち、この場合の反射体21は、光を透過する機能を有していないものであり、例えば、ディスプレイ22そのものである。ディスプレイ22は、例えば、表示処理部26により複数の表示領域に分割されていてもよい。図8(A)において、ディスプレイ22は、傾向判定装置10により特定された前記ユーザの感情の数値を表示する領域22aと、前記感情の数値以外の情報(例えば、前記コンテンツ情報等)を表示する領域22bとの2つの領域に分割されている。前記音楽は、特に制限されず、例えば、販売対象の音楽の形態としては、デジタルデータである音楽データであってもよいし、CD等の記録媒体に記録された音楽データであってもよい。反射体付き表示装置20は、ユーザが前記端末を操作して前記音楽を再生させたとき、すなわち、反射体21(ディスプレイ22)の前に、顔の正面を向けたとき、撮像部23により前記反射画像を撮像する。撮像部23は、例えば、前記音楽が再生している間、前記反射画像を継続して撮像してもよい。その後、前記反射画像を取得した傾向判定装置10(例えば、サーバ等)が、生体情報分析部13により前記ユーザの生体情報を分析する。生体情報分析部13は、例えば、継続して撮像した前記反射画像の時系列に沿って前記生体情報を分析してもよい。次に、傾向判定装置10は、感情特定部14により、前記ユーザの感情を数値化して特定する。感情特定部14は、例えば、時系列に沿って分析した前記生体情報に基づき、時系列に沿って前記感情を数値化して特定してもよい。言い換えれば、傾向判定装置10は、前記音楽の再生中における前記ユーザの感情の変化を分析・特定するといえる。その後、前記感情の数値を取得した反射体付き表示装置20が、表示処理部26により、前記数値をディスプレイ22aに表示する。これにより、前記ユーザは、前記音楽に対するユーザ自身の感情がフィードバックされる。一方で、傾向判定装置10は、記録部15により、前記音楽単位の前記ユーザの感情の数値を記憶する。次に、傾向判定装置10は、関連性分析部16により前記音楽と前記感情の数値との関連性を分析し、判定部17により前記ユーザの傾向を判定する。その後、傾向判定装置10は、推奨部18により前記ユーザの感情に適した音楽を選択して反射体付き表示装置20に再生させる。
(旅行の場合)
図8Bに、前記コンテンツが旅行である場合の反射体付き表示装置20の一例を示す。図8Bに示すように、反射体付き表示装置20は、例えば、デジタルサイネージであり、前記デジタルサイネージ上に前記旅行のカタログを表示する。これにより、ユーザは、旅行の内容を把握することができる。すなわち、この場合の反射体21は、光を透過する機能を有していないものであり、例えば、ディスプレイ22そのものである。反射体付き表示装置20は、例えば、複数の前記旅行のカタログを表示してもよい。図8Bにおいて、ディスプレイ22は、前述と同様に、前記ユーザの感情の数値を表示する領域22aと、前記感情の数値以外の情報(例えば、前記コンテンツ情報、すなわち、前記旅行のカタログ等)を表示する領域22bとの2つの領域に分割されている。前記旅行のカタログは、特に制限されず、例えば、旅行中に見られる風景写真等であってもよい。反射体付き表示装置20は、ユーザが前記デジタルサイネージの前に立ったとき、すなわち、反射体21(ディスプレイ22)の前に、顔の正面を向けて立ったとき、撮像部23により前記反射画像を撮像する。その後、前記反射画像を取得した傾向判定装置10(例えば、サーバ等)が、生体情報分析部13により前記ユーザの生体情報を分析する。次に、傾向判定装置10は、感情特定部14により、前記ユーザの感情を数値化して特定する。その後、前記感情の数値を取得した反射体付き表示装置20が、表示処理部26により、前記数値をディスプレイ22aに表示する。これにより、前記ユーザは、前記音楽に対するユーザ自身の感情がフィードバックされる。一方で、傾向判定装置10は、記録部15により、反射体付き表示装置20に表示されている前記旅行のカタログと前記ユーザの感情の数値とを紐づけて記憶する。次に、傾向判定装置10は、関連性分析部16により前記旅行のカタログと前記感情の数値との関連性を分析し、判定部17により前記ユーザの傾向を判定する。その後、傾向判定装置10は、推奨部18により前記ユーザの感情に適し旅行のカタログを選択して反射体付き表示装置20に表示させる。
図8Bに、前記コンテンツが旅行である場合の反射体付き表示装置20の一例を示す。図8Bに示すように、反射体付き表示装置20は、例えば、デジタルサイネージであり、前記デジタルサイネージ上に前記旅行のカタログを表示する。これにより、ユーザは、旅行の内容を把握することができる。すなわち、この場合の反射体21は、光を透過する機能を有していないものであり、例えば、ディスプレイ22そのものである。反射体付き表示装置20は、例えば、複数の前記旅行のカタログを表示してもよい。図8Bにおいて、ディスプレイ22は、前述と同様に、前記ユーザの感情の数値を表示する領域22aと、前記感情の数値以外の情報(例えば、前記コンテンツ情報、すなわち、前記旅行のカタログ等)を表示する領域22bとの2つの領域に分割されている。前記旅行のカタログは、特に制限されず、例えば、旅行中に見られる風景写真等であってもよい。反射体付き表示装置20は、ユーザが前記デジタルサイネージの前に立ったとき、すなわち、反射体21(ディスプレイ22)の前に、顔の正面を向けて立ったとき、撮像部23により前記反射画像を撮像する。その後、前記反射画像を取得した傾向判定装置10(例えば、サーバ等)が、生体情報分析部13により前記ユーザの生体情報を分析する。次に、傾向判定装置10は、感情特定部14により、前記ユーザの感情を数値化して特定する。その後、前記感情の数値を取得した反射体付き表示装置20が、表示処理部26により、前記数値をディスプレイ22aに表示する。これにより、前記ユーザは、前記音楽に対するユーザ自身の感情がフィードバックされる。一方で、傾向判定装置10は、記録部15により、反射体付き表示装置20に表示されている前記旅行のカタログと前記ユーザの感情の数値とを紐づけて記憶する。次に、傾向判定装置10は、関連性分析部16により前記旅行のカタログと前記感情の数値との関連性を分析し、判定部17により前記ユーザの傾向を判定する。その後、傾向判定装置10は、推奨部18により前記ユーザの感情に適し旅行のカタログを選択して反射体付き表示装置20に表示させる。
[実施形態4]
本実施形態のプログラムは、本発明の方法の各工程を、手順として、コンピュータに実行させるためのプログラムである。本発明において、「手順」は、「処理」と読み替えてもよい。また、本実施形態のプログラムは、例えば、コンピュータ読み取り可能な記録媒体に記録されていてもよい。前記記録媒体は、例えば、非一時的なコンピュータ可読記録媒体(non-transitory computer-readable storage medium)である。前記記録媒体としては、特に限定されず、例えば、読み出し専用メモリ(ROM)、ハードディスク(HD)、光ディスク等が挙げられる。
本実施形態のプログラムは、本発明の方法の各工程を、手順として、コンピュータに実行させるためのプログラムである。本発明において、「手順」は、「処理」と読み替えてもよい。また、本実施形態のプログラムは、例えば、コンピュータ読み取り可能な記録媒体に記録されていてもよい。前記記録媒体は、例えば、非一時的なコンピュータ可読記録媒体(non-transitory computer-readable storage medium)である。前記記録媒体としては、特に限定されず、例えば、読み出し専用メモリ(ROM)、ハードディスク(HD)、光ディスク等が挙げられる。
以上、実施形態を参照して本発明を説明したが、本発明は、上記実施形態に限定されるものではない。本発明の構成や詳細には、本発明のスコープ内で当業者が理解しうる様々な変更をできる。
この出願は、2021年2月26日に出願された日本出願特願2021-030165を基礎とする優先権を主張し、その開示の全てをここに取り込む。
<付記>
上記の実施形態の一部または全部は、以下の付記のように記載されうるが、以下には限られない。
(付記1)
提示部、取得部、生体情報分析部、感情特定部、記憶部、関連性分析部、及び判定部を含み、
前記提示部は、反射体付き表示装置を介してコンテンツに関するコンテンツ情報をユーザに提示し、
前記取得部は、反射体に写ったユーザを撮像した反射画像を取得し、
前記生体情報分析部は、前記反射画像から前記ユーザの生体情報を分析し、
前記感情特定部は、前記生体情報から前記ユーザの感情を数値化して特定し、
前記記憶部は、前記コンテンツ情報と紐づけて前記感情の数値を前記ユーザ毎に蓄積して記憶し、
前記関連性分析部は、前記記憶部に蓄積して記憶している前記感情の数値と、前記感情の数値と紐づいた前記コンテンツ情報との関連性を前記ユーザ毎に分析し、
前記判定部は、前記関連性の分析結果に基づき、前記ユーザの傾向を判定する、傾向判定装置。
(付記2)
前記提示部は、前記反射体付き表示装置を介して前記感情及び前記感情の数値を前記ユーザに提示する、付記1記載の傾向判定装置。
(付記3)
前記取得部は、前記提示部による前記コンテンツの提示の前に前記ユーザを撮像した提示前反射画像と、前記提示の後に前記ユーザを撮像した提示後反射画像とを取得し、
前記生体情報分析部は、前記提示前反射画像及び前記提示後反射画像のそれぞれから前記ユーザの生体情報を分析し、
前記感情特定部は、前記提示前反射画像及び前記提示後反射画像のそれぞれから分析された生体情報から前記ユーザの感情を数値化して特定し、
前記記憶部は、前記提示前反射画像における前記感情の数値と前記提示後反射画像における前記感情の数値との差分を前記コンテンツと紐づけて前記ユーザ毎に蓄積して記憶し、
前記関連性分析部は、前記記憶部に蓄積して記憶している前記感情の数値の差分と、前記感情の数値の差分と紐づいた前記コンテンツとの関連性を前記ユーザ毎に分析する、付記1又は2記載の傾向判定装置。
(付記4)
前記関連性分析部は、学習処理部を含み、
前記学習処理部は、前記ユーザの前記感情の数値と前記コンテンツ情報とを学習用データとして用いた教師なし学習によって、学習モデルの学習処理を行い、
前記関連性分析部は、前記学習モデルを用いて、前記感情の数値と前記コンテンツ情報との関連性を前記ユーザ毎に分析する、付記1から3のいずれかに記載の傾向判定装置。
(付記5)
前記取得部は、さらに、前記コンテンツを取得し、
前記提示部は、前記反射体付き表示装置を介して前記取得部が取得した前記コンテンツを前記ユーザに提示する、付記1から4のいずれかに記載の傾向判定装置。
(付記6)
さらに、推奨部を含み、
前記推奨部は、判定した前記ユーザの傾向に基づき、複数の前記コンテンツ情報の中から少なくとも一つの前記コンテンツ情報を選択し、且つ選択した前記コンテンツ情報を前記反射体付き表示装置を介して前記ユーザに推奨する、付記1から5のいずれかに記載の傾向判定装置。
(付記7)
付記1から6のいずれかに記載の傾向判定装置と併用される反射体付き表示装置であって、
反射体、ディスプレイ、撮像部、送信部、取得部、及び表示処理部を含み、
前記撮像部は、前記反射体に写ったユーザを撮像し、
前記送信部は、前記撮像部により撮像された反射画像を前記傾向判定装置に送信し、
前記取得部は、前記傾向判定装置が提示するコンテンツ情報を取得し、
前記表示処理部は、前記コンテンツ情報を前記ディスプレイに表示する、反射体付き表示装置。
(付記8)
前記取得部は、前記傾向判定装置が提示する前記ユーザの感情の数値を取得し、
前記表示処理部は、前記傾向判定装置によって提示された前記ユーザの感情の数値を前記ディスプレイに表示する、付記7記載の反射体付き表示装置。
(付記9)
前記撮像部は、前記表示処理部によって前記コンテンツを前記ディスプレイに表示する前と、表示した後とで前記ユーザを撮像し、
前記送信部は、前記表示する前に撮像した提示前反射画像と、前記表示した後に撮像した提示後反射画像とを前記傾向判定装置に送信する、付記7又は8記載の反射体付き表示装置。
(付記10)
前記取得部は、前記傾向判定装置が推奨する前記コンテンツ情報を取得し、
前記表示処理部は、前記傾向判定装置によって推奨された前記コンテンツ情報を前記ディスプレイに表示する、付記7から9のいずれかに記載の反射体付き表示装置。
(付記11)
さらに、再生処理部、及び音入出力部を含み、
前記コンテンツ情報が音情報である場合、
前記再生処理部は、前記コンテンツ情報を前記音入出力部により再生する、付記7から10のいずれかに記載の反射体付き表示装置。
(付記12)
さらに、入力操作認識部を含み、
前記入力操作認識部は、前記ユーザの入力操作を認識する、付記7から11のいずれかに記載の反射体付き表示装置。
(付記13)
付記1から6のいずれかに記載の傾向判定装置と、付記7から12のいずれかに記載の反射体付き表示装置とを含み、
前記傾向判定装置と前記反射体付き表示装置とは、通信回線網を介して通信可能である、傾向表示システム装置。
(付記14)
提示工程、取得工程、生体情報分析工程、感情特定工程、記憶工程、関連性分析工程、及び判定工程を含み、
前記提示工程は、反射体付き表示装置を介してコンテンツに関するコンテンツ情報をユーザに提示し、
前記取得工程は、反射体に写ったユーザを撮像した反射画像を取得し、
前記生体情報分析工程は、前記反射画像から前記ユーザの生体情報を分析し、
前記感情特定工程は、前記生体情報から前記ユーザの感情を数値化して特定し、
前記記憶工程は、前記コンテンツ情報と紐づけて前記感情の数値を前記ユーザ毎に蓄積して記憶し、
前記関連性分析工程は、前記記憶工程に蓄積して記憶している前記感情の数値と、前記感情の数値と紐づいた前記コンテンツ情報との関連性を前記ユーザ毎に分析し、
前記判定工程は、前記関連性の分析結果に基づき、前記ユーザの傾向を判定する、傾向判定方法。
(付記15)
前記提示工程は、前記反射体付き表示装置を介して前記感情及び前記感情の数値を前記ユーザに提示する、付記14記載の傾向判定方法。
(付記16)
前記取得工程は、前記提示工程による前記コンテンツの提示の前に前記ユーザを撮像した提示前反射画像と、前記提示の後に前記ユーザを撮像した提示後反射画像とを取得し、
前記生体情報分析工程は、前記提示前反射画像及び前記提示後反射画像のそれぞれから前記ユーザの生体情報を分析し、
前記感情特定工程は、前記提示前反射画像及び前記提示後反射画像のそれぞれから分析された生体情報から前記ユーザの感情を数値化して特定し、
前記記憶工程は、前記提示前反射画像における前記感情の数値と前記提示後反射画像における前記感情の数値との差分を前記コンテンツと紐づけて前記ユーザ毎に蓄積して記憶し、
前記関連性分析工程は、前記記憶工程に蓄積して記憶している前記感情の数値の差分と、前記感情の数値の差分と紐づいた前記コンテンツとの関連性を前記ユーザ毎に分析する、付記14又は15記載の傾向判定方法。
(付記17)
前記関連性分析工程は、学習処理工程を含み、
前記学習処理工程は、前記ユーザの前記感情の数値と前記コンテンツ情報とを学習用データとして用いた教師なし学習によって、学習モデルの学習処理を行い、
前記関連性分析工程は、前記学習モデルを用いて、前記感情の数値と前記コンテンツ情報との関連性を前記ユーザ毎に分析する、付記14から16のいずれかに記載の傾向判定方法。
(付記18)
前記取得工程は、さらに、前記コンテンツを取得し、
前記提示工程は、前記反射体付き表示装置を介して前記取得工程が取得した前記コンテンツを前記ユーザに提示する、付記14から17のいずれかに記載の傾向判定方法。
(付記19)
さらに、推奨工程を含み、
前記推奨工程は、判定した前記ユーザの傾向に基づき、複数の前記コンテンツ情報の中から少なくとも一つの前記コンテンツ情報を選択し、且つ選択した前記コンテンツ情報を前記反射体付き表示装置を介して前記ユーザに推奨する、付記14から18のいずれかに記載の傾向判定方法。
(付記20)
付記14から19のいずれかに記載の傾向判定方法と並行して実行される表示処理方法であって、
撮像工程、送信工程、取得工程、及び表示処理工程を含み、
前記撮像工程は、反射体に写ったユーザを撮像し、
前記送信工程は、前記撮像工程により撮像された反射画像を前記傾向判定方法を実行する傾向判定装置に送信し、
前記取得工程は、前記傾向判定装置が提示するコンテンツ情報を取得し、
前記表示処理工程は、前記コンテンツ情報をディスプレイに表示する、表示処理方法。
(付記21)
前記取得工程は、前記傾向判定装置が提示する前記ユーザの感情の数値を取得し、
前記表示処理工程は、前記傾向判定装置によって提示された前記ユーザの感情の数値を前記ディスプレイに表示する、付記20記載の表示処理方法。
(付記22)
前記撮像工程は、前記表示処理工程によって前記コンテンツを前記ディスプレイに表示する前と、表示した後とで前記ユーザを撮像し、
前記送信工程は、前記表示する前に撮像した提示前反射画像と、前記表示した後に撮像した提示後反射画像とを前記傾向判定装置に送信する、付記20又は21記載の表示処理方法。
(付記23)
前記取得工程は、前記傾向判定装置が推奨する前記コンテンツ情報を取得し、
前記表示処理工程は、前記傾向判定装置によって推奨された前記コンテンツ情報を前記ディスプレイに表示する、付記20から22のいずれかに記載の表示処理方法。
(付記24)
さらに、再生処理工程、及び音入出力工程を含み、
前記コンテンツ情報が音情報である場合、
前記再生処理工程は、前記コンテンツ情報を前記音入出力工程により再生する、付記20から23のいずれかに記載の表示処理方法。
(付記25)
さらに、入力操作認識工程を含み、
前記入力操作認識工程は、前記ユーザの入力操作を認識する、付記20から24のいずれかに記載の表示処理方法。
(付記26)
付記14から19のいずれかに記載の傾向判定方法と、付記20から25のいずれかに記載の表示処理方法とを含む、傾向表示方法。
(付記27)
提示手順、取得手順、生体情報分析手順、感情特定手順、記憶手順、関連性分析手順、及び判定手順を含み、
前記提示手順は、反射体付き表示装置を介してコンテンツに関するコンテンツ情報をユーザに提示し、
前記取得手順は、反射体に写ったユーザを撮像した反射画像を取得し、
前記生体情報分析手順は、前記反射画像から前記ユーザの生体情報を分析し、
前記感情特定手順は、前記生体情報から前記ユーザの感情を数値化して特定し、
前記記憶手順は、前記コンテンツ情報と紐づけて前記感情の数値を前記ユーザ毎に蓄積して記憶し、
前記関連性分析手順は、前記記憶手順に蓄積して記憶している前記感情の数値と、前記感情の数値と紐づいた前記コンテンツ情報との関連性を前記ユーザ毎に分析し、
前記判定手順は、前記関連性の分析結果に基づき、前記ユーザの傾向を判定する、ことをコンピュータに実行させるためのプログラム。
(付記28)
前記提示手順は、前記反射体付き表示装置を介して前記感情及び前記感情の数値を前記ユーザに提示する、付記27記載のプログラム。
(付記29)
前記取得手順は、前記提示手順による前記コンテンツの提示の前に前記ユーザを撮像した提示前反射画像と、前記提示の後に前記ユーザを撮像した提示後反射画像とを取得し、
前記生体情報分析手順は、前記提示前反射画像及び前記提示後反射画像のそれぞれから前記ユーザの生体情報を分析し、
前記感情特定手順は、前記提示前反射画像及び前記提示後反射画像のそれぞれから分析された生体情報から前記ユーザの感情を数値化して特定し、
前記記憶手順は、前記提示前反射画像における前記感情の数値と前記提示後反射画像における前記感情の数値との差分を前記コンテンツと紐づけて前記ユーザ毎に蓄積して記憶し、
前記関連性分析手順は、前記記憶手順に蓄積して記憶している前記感情の数値の差分と、前記感情の数値の差分と紐づいた前記コンテンツとの関連性を前記ユーザ毎に分析する、付記27又は28記載のプログラム。
(付記30)
前記関連性分析手順は、学習処理手順を含み、
前記学習処理手順は、前記ユーザの前記感情の数値と前記コンテンツ情報とを学習用データとして用いた教師なし学習によって、学習モデルの学習処理を行い、
前記関連性分析手順は、前記学習モデルを用いて、前記感情の数値と前記コンテンツ情報との関連性を前記ユーザ毎に分析する、付記27から29のいずれかに記載のプログラム。
(付記31)
前記取得手順は、さらに、前記コンテンツを取得し、
前記提示手順は、前記反射体付き表示装置を介して前記取得手順が取得した前記コンテンツを前記ユーザに提示する、付記27から30のいずれかに記載のプログラム。
(付記32)
さらに、推奨手順を含み、
前記推奨手順は、判定した前記ユーザの傾向に基づき、複数の前記コンテンツ情報の中から少なくとも一つの前記コンテンツ情報を選択し、且つ選択した前記コンテンツ情報を前記反射体付き表示装置を介して前記ユーザに推奨する、付記27から31のいずれかに記載のプログラム。
(付記33)
撮像手順、送信手順、取得手順、及び表示処理手順を含み、前記撮像手順は、反射体に写ったユーザを撮像し、
前記送信手順は、前記撮像手順により撮像された反射画像を付記27から32のいずれか一項に記載の第1のプログラムを実行する傾向判定装置に送信し、
前記取得手順は、前記傾向判定装置が提示するコンテンツ情報を取得し、
前記表示処理手順は、前記コンテンツ情報をディスプレイに表示する、ことをコンピュータに実行させるための第2のプログラム。
(付記34)
前記取得手順は、前記傾向判定装置が提示する前記ユーザの感情の数値を取得し、
前記表示処理手順は、前記傾向判定装置によって提示された前記ユーザの感情の数値を前記ディスプレイに表示する、付記33記載のプログラム。
(付記35)
前記撮像手順は、前記表示処理手順によって前記コンテンツを前記ディスプレイに表示する前と、表示した後とで前記ユーザを撮像し、
前記送信手順は、前記表示する前に撮像した提示前反射画像と、前記表示した後に撮像した提示後反射画像とを前記傾向判定装置に送信する、付記33又は34記載のプログラム。
(付記36)
前記取得手順は、前記傾向判定装置が推奨する前記コンテンツ情報を取得し、
前記表示処理手順は、前記傾向判定装置によって推奨された前記コンテンツ情報を前記ディスプレイに表示する、付記33から35のいずれかに記載のプログラム。
(付記37)
さらに、再生処理手順、及び音入出力手順を含み、
前記コンテンツ情報が音情報である場合、
前記再生処理手順は、前記コンテンツ情報を前記音入出力手順により再生する、付記33から36のいずれかに記載のプログラム。
(付記38)
さらに、入力操作認識手順を含み、
前記入力操作認識手順は、前記ユーザの入力操作を認識する、付記33から37のいずれかに記載のプログラム。
(付記39)
付記27から32のいずれかに記載の第1のプログラムと、付記33から38のいずれかに記載のプログラムとを含む、プログラム。
(付記40)
付記27から39のいずれかに記載のプログラムを記録しているコンピュータ読み取り可能な記録媒体。
上記の実施形態の一部または全部は、以下の付記のように記載されうるが、以下には限られない。
(付記1)
提示部、取得部、生体情報分析部、感情特定部、記憶部、関連性分析部、及び判定部を含み、
前記提示部は、反射体付き表示装置を介してコンテンツに関するコンテンツ情報をユーザに提示し、
前記取得部は、反射体に写ったユーザを撮像した反射画像を取得し、
前記生体情報分析部は、前記反射画像から前記ユーザの生体情報を分析し、
前記感情特定部は、前記生体情報から前記ユーザの感情を数値化して特定し、
前記記憶部は、前記コンテンツ情報と紐づけて前記感情の数値を前記ユーザ毎に蓄積して記憶し、
前記関連性分析部は、前記記憶部に蓄積して記憶している前記感情の数値と、前記感情の数値と紐づいた前記コンテンツ情報との関連性を前記ユーザ毎に分析し、
前記判定部は、前記関連性の分析結果に基づき、前記ユーザの傾向を判定する、傾向判定装置。
(付記2)
前記提示部は、前記反射体付き表示装置を介して前記感情及び前記感情の数値を前記ユーザに提示する、付記1記載の傾向判定装置。
(付記3)
前記取得部は、前記提示部による前記コンテンツの提示の前に前記ユーザを撮像した提示前反射画像と、前記提示の後に前記ユーザを撮像した提示後反射画像とを取得し、
前記生体情報分析部は、前記提示前反射画像及び前記提示後反射画像のそれぞれから前記ユーザの生体情報を分析し、
前記感情特定部は、前記提示前反射画像及び前記提示後反射画像のそれぞれから分析された生体情報から前記ユーザの感情を数値化して特定し、
前記記憶部は、前記提示前反射画像における前記感情の数値と前記提示後反射画像における前記感情の数値との差分を前記コンテンツと紐づけて前記ユーザ毎に蓄積して記憶し、
前記関連性分析部は、前記記憶部に蓄積して記憶している前記感情の数値の差分と、前記感情の数値の差分と紐づいた前記コンテンツとの関連性を前記ユーザ毎に分析する、付記1又は2記載の傾向判定装置。
(付記4)
前記関連性分析部は、学習処理部を含み、
前記学習処理部は、前記ユーザの前記感情の数値と前記コンテンツ情報とを学習用データとして用いた教師なし学習によって、学習モデルの学習処理を行い、
前記関連性分析部は、前記学習モデルを用いて、前記感情の数値と前記コンテンツ情報との関連性を前記ユーザ毎に分析する、付記1から3のいずれかに記載の傾向判定装置。
(付記5)
前記取得部は、さらに、前記コンテンツを取得し、
前記提示部は、前記反射体付き表示装置を介して前記取得部が取得した前記コンテンツを前記ユーザに提示する、付記1から4のいずれかに記載の傾向判定装置。
(付記6)
さらに、推奨部を含み、
前記推奨部は、判定した前記ユーザの傾向に基づき、複数の前記コンテンツ情報の中から少なくとも一つの前記コンテンツ情報を選択し、且つ選択した前記コンテンツ情報を前記反射体付き表示装置を介して前記ユーザに推奨する、付記1から5のいずれかに記載の傾向判定装置。
(付記7)
付記1から6のいずれかに記載の傾向判定装置と併用される反射体付き表示装置であって、
反射体、ディスプレイ、撮像部、送信部、取得部、及び表示処理部を含み、
前記撮像部は、前記反射体に写ったユーザを撮像し、
前記送信部は、前記撮像部により撮像された反射画像を前記傾向判定装置に送信し、
前記取得部は、前記傾向判定装置が提示するコンテンツ情報を取得し、
前記表示処理部は、前記コンテンツ情報を前記ディスプレイに表示する、反射体付き表示装置。
(付記8)
前記取得部は、前記傾向判定装置が提示する前記ユーザの感情の数値を取得し、
前記表示処理部は、前記傾向判定装置によって提示された前記ユーザの感情の数値を前記ディスプレイに表示する、付記7記載の反射体付き表示装置。
(付記9)
前記撮像部は、前記表示処理部によって前記コンテンツを前記ディスプレイに表示する前と、表示した後とで前記ユーザを撮像し、
前記送信部は、前記表示する前に撮像した提示前反射画像と、前記表示した後に撮像した提示後反射画像とを前記傾向判定装置に送信する、付記7又は8記載の反射体付き表示装置。
(付記10)
前記取得部は、前記傾向判定装置が推奨する前記コンテンツ情報を取得し、
前記表示処理部は、前記傾向判定装置によって推奨された前記コンテンツ情報を前記ディスプレイに表示する、付記7から9のいずれかに記載の反射体付き表示装置。
(付記11)
さらに、再生処理部、及び音入出力部を含み、
前記コンテンツ情報が音情報である場合、
前記再生処理部は、前記コンテンツ情報を前記音入出力部により再生する、付記7から10のいずれかに記載の反射体付き表示装置。
(付記12)
さらに、入力操作認識部を含み、
前記入力操作認識部は、前記ユーザの入力操作を認識する、付記7から11のいずれかに記載の反射体付き表示装置。
(付記13)
付記1から6のいずれかに記載の傾向判定装置と、付記7から12のいずれかに記載の反射体付き表示装置とを含み、
前記傾向判定装置と前記反射体付き表示装置とは、通信回線網を介して通信可能である、傾向表示システム装置。
(付記14)
提示工程、取得工程、生体情報分析工程、感情特定工程、記憶工程、関連性分析工程、及び判定工程を含み、
前記提示工程は、反射体付き表示装置を介してコンテンツに関するコンテンツ情報をユーザに提示し、
前記取得工程は、反射体に写ったユーザを撮像した反射画像を取得し、
前記生体情報分析工程は、前記反射画像から前記ユーザの生体情報を分析し、
前記感情特定工程は、前記生体情報から前記ユーザの感情を数値化して特定し、
前記記憶工程は、前記コンテンツ情報と紐づけて前記感情の数値を前記ユーザ毎に蓄積して記憶し、
前記関連性分析工程は、前記記憶工程に蓄積して記憶している前記感情の数値と、前記感情の数値と紐づいた前記コンテンツ情報との関連性を前記ユーザ毎に分析し、
前記判定工程は、前記関連性の分析結果に基づき、前記ユーザの傾向を判定する、傾向判定方法。
(付記15)
前記提示工程は、前記反射体付き表示装置を介して前記感情及び前記感情の数値を前記ユーザに提示する、付記14記載の傾向判定方法。
(付記16)
前記取得工程は、前記提示工程による前記コンテンツの提示の前に前記ユーザを撮像した提示前反射画像と、前記提示の後に前記ユーザを撮像した提示後反射画像とを取得し、
前記生体情報分析工程は、前記提示前反射画像及び前記提示後反射画像のそれぞれから前記ユーザの生体情報を分析し、
前記感情特定工程は、前記提示前反射画像及び前記提示後反射画像のそれぞれから分析された生体情報から前記ユーザの感情を数値化して特定し、
前記記憶工程は、前記提示前反射画像における前記感情の数値と前記提示後反射画像における前記感情の数値との差分を前記コンテンツと紐づけて前記ユーザ毎に蓄積して記憶し、
前記関連性分析工程は、前記記憶工程に蓄積して記憶している前記感情の数値の差分と、前記感情の数値の差分と紐づいた前記コンテンツとの関連性を前記ユーザ毎に分析する、付記14又は15記載の傾向判定方法。
(付記17)
前記関連性分析工程は、学習処理工程を含み、
前記学習処理工程は、前記ユーザの前記感情の数値と前記コンテンツ情報とを学習用データとして用いた教師なし学習によって、学習モデルの学習処理を行い、
前記関連性分析工程は、前記学習モデルを用いて、前記感情の数値と前記コンテンツ情報との関連性を前記ユーザ毎に分析する、付記14から16のいずれかに記載の傾向判定方法。
(付記18)
前記取得工程は、さらに、前記コンテンツを取得し、
前記提示工程は、前記反射体付き表示装置を介して前記取得工程が取得した前記コンテンツを前記ユーザに提示する、付記14から17のいずれかに記載の傾向判定方法。
(付記19)
さらに、推奨工程を含み、
前記推奨工程は、判定した前記ユーザの傾向に基づき、複数の前記コンテンツ情報の中から少なくとも一つの前記コンテンツ情報を選択し、且つ選択した前記コンテンツ情報を前記反射体付き表示装置を介して前記ユーザに推奨する、付記14から18のいずれかに記載の傾向判定方法。
(付記20)
付記14から19のいずれかに記載の傾向判定方法と並行して実行される表示処理方法であって、
撮像工程、送信工程、取得工程、及び表示処理工程を含み、
前記撮像工程は、反射体に写ったユーザを撮像し、
前記送信工程は、前記撮像工程により撮像された反射画像を前記傾向判定方法を実行する傾向判定装置に送信し、
前記取得工程は、前記傾向判定装置が提示するコンテンツ情報を取得し、
前記表示処理工程は、前記コンテンツ情報をディスプレイに表示する、表示処理方法。
(付記21)
前記取得工程は、前記傾向判定装置が提示する前記ユーザの感情の数値を取得し、
前記表示処理工程は、前記傾向判定装置によって提示された前記ユーザの感情の数値を前記ディスプレイに表示する、付記20記載の表示処理方法。
(付記22)
前記撮像工程は、前記表示処理工程によって前記コンテンツを前記ディスプレイに表示する前と、表示した後とで前記ユーザを撮像し、
前記送信工程は、前記表示する前に撮像した提示前反射画像と、前記表示した後に撮像した提示後反射画像とを前記傾向判定装置に送信する、付記20又は21記載の表示処理方法。
(付記23)
前記取得工程は、前記傾向判定装置が推奨する前記コンテンツ情報を取得し、
前記表示処理工程は、前記傾向判定装置によって推奨された前記コンテンツ情報を前記ディスプレイに表示する、付記20から22のいずれかに記載の表示処理方法。
(付記24)
さらに、再生処理工程、及び音入出力工程を含み、
前記コンテンツ情報が音情報である場合、
前記再生処理工程は、前記コンテンツ情報を前記音入出力工程により再生する、付記20から23のいずれかに記載の表示処理方法。
(付記25)
さらに、入力操作認識工程を含み、
前記入力操作認識工程は、前記ユーザの入力操作を認識する、付記20から24のいずれかに記載の表示処理方法。
(付記26)
付記14から19のいずれかに記載の傾向判定方法と、付記20から25のいずれかに記載の表示処理方法とを含む、傾向表示方法。
(付記27)
提示手順、取得手順、生体情報分析手順、感情特定手順、記憶手順、関連性分析手順、及び判定手順を含み、
前記提示手順は、反射体付き表示装置を介してコンテンツに関するコンテンツ情報をユーザに提示し、
前記取得手順は、反射体に写ったユーザを撮像した反射画像を取得し、
前記生体情報分析手順は、前記反射画像から前記ユーザの生体情報を分析し、
前記感情特定手順は、前記生体情報から前記ユーザの感情を数値化して特定し、
前記記憶手順は、前記コンテンツ情報と紐づけて前記感情の数値を前記ユーザ毎に蓄積して記憶し、
前記関連性分析手順は、前記記憶手順に蓄積して記憶している前記感情の数値と、前記感情の数値と紐づいた前記コンテンツ情報との関連性を前記ユーザ毎に分析し、
前記判定手順は、前記関連性の分析結果に基づき、前記ユーザの傾向を判定する、ことをコンピュータに実行させるためのプログラム。
(付記28)
前記提示手順は、前記反射体付き表示装置を介して前記感情及び前記感情の数値を前記ユーザに提示する、付記27記載のプログラム。
(付記29)
前記取得手順は、前記提示手順による前記コンテンツの提示の前に前記ユーザを撮像した提示前反射画像と、前記提示の後に前記ユーザを撮像した提示後反射画像とを取得し、
前記生体情報分析手順は、前記提示前反射画像及び前記提示後反射画像のそれぞれから前記ユーザの生体情報を分析し、
前記感情特定手順は、前記提示前反射画像及び前記提示後反射画像のそれぞれから分析された生体情報から前記ユーザの感情を数値化して特定し、
前記記憶手順は、前記提示前反射画像における前記感情の数値と前記提示後反射画像における前記感情の数値との差分を前記コンテンツと紐づけて前記ユーザ毎に蓄積して記憶し、
前記関連性分析手順は、前記記憶手順に蓄積して記憶している前記感情の数値の差分と、前記感情の数値の差分と紐づいた前記コンテンツとの関連性を前記ユーザ毎に分析する、付記27又は28記載のプログラム。
(付記30)
前記関連性分析手順は、学習処理手順を含み、
前記学習処理手順は、前記ユーザの前記感情の数値と前記コンテンツ情報とを学習用データとして用いた教師なし学習によって、学習モデルの学習処理を行い、
前記関連性分析手順は、前記学習モデルを用いて、前記感情の数値と前記コンテンツ情報との関連性を前記ユーザ毎に分析する、付記27から29のいずれかに記載のプログラム。
(付記31)
前記取得手順は、さらに、前記コンテンツを取得し、
前記提示手順は、前記反射体付き表示装置を介して前記取得手順が取得した前記コンテンツを前記ユーザに提示する、付記27から30のいずれかに記載のプログラム。
(付記32)
さらに、推奨手順を含み、
前記推奨手順は、判定した前記ユーザの傾向に基づき、複数の前記コンテンツ情報の中から少なくとも一つの前記コンテンツ情報を選択し、且つ選択した前記コンテンツ情報を前記反射体付き表示装置を介して前記ユーザに推奨する、付記27から31のいずれかに記載のプログラム。
(付記33)
撮像手順、送信手順、取得手順、及び表示処理手順を含み、前記撮像手順は、反射体に写ったユーザを撮像し、
前記送信手順は、前記撮像手順により撮像された反射画像を付記27から32のいずれか一項に記載の第1のプログラムを実行する傾向判定装置に送信し、
前記取得手順は、前記傾向判定装置が提示するコンテンツ情報を取得し、
前記表示処理手順は、前記コンテンツ情報をディスプレイに表示する、ことをコンピュータに実行させるための第2のプログラム。
(付記34)
前記取得手順は、前記傾向判定装置が提示する前記ユーザの感情の数値を取得し、
前記表示処理手順は、前記傾向判定装置によって提示された前記ユーザの感情の数値を前記ディスプレイに表示する、付記33記載のプログラム。
(付記35)
前記撮像手順は、前記表示処理手順によって前記コンテンツを前記ディスプレイに表示する前と、表示した後とで前記ユーザを撮像し、
前記送信手順は、前記表示する前に撮像した提示前反射画像と、前記表示した後に撮像した提示後反射画像とを前記傾向判定装置に送信する、付記33又は34記載のプログラム。
(付記36)
前記取得手順は、前記傾向判定装置が推奨する前記コンテンツ情報を取得し、
前記表示処理手順は、前記傾向判定装置によって推奨された前記コンテンツ情報を前記ディスプレイに表示する、付記33から35のいずれかに記載のプログラム。
(付記37)
さらに、再生処理手順、及び音入出力手順を含み、
前記コンテンツ情報が音情報である場合、
前記再生処理手順は、前記コンテンツ情報を前記音入出力手順により再生する、付記33から36のいずれかに記載のプログラム。
(付記38)
さらに、入力操作認識手順を含み、
前記入力操作認識手順は、前記ユーザの入力操作を認識する、付記33から37のいずれかに記載のプログラム。
(付記39)
付記27から32のいずれかに記載の第1のプログラムと、付記33から38のいずれかに記載のプログラムとを含む、プログラム。
(付記40)
付記27から39のいずれかに記載のプログラムを記録しているコンピュータ読み取り可能な記録媒体。
本発明によれば、ユーザの傾向を判定することができる。このため、本発明は、例えば、ユーザにコンテンツを推奨する場合において有用である。
10 傾向判定装置
11 提示部
12 取得部
13 生体情報分析部
14 感情特定部
15 記憶部
16 関連性分析部
161 学習処理部
17 判定部
18 推奨部
20 反射体付き表示装置
21 反射体
22 ディスプレイ
23 撮像部
24 送信部
25 取得部
26 表示処理部
27 再生処理部
28 音入出力部
29 入力操作認識部
100 傾向表示システム装置
101 中央処理装置
102 メモリ
103 バス
104 記憶装置
105 入力装置
106 出力装置
107 通信デバイス
108 撮像装置
109 音入出力装置
11 提示部
12 取得部
13 生体情報分析部
14 感情特定部
15 記憶部
16 関連性分析部
161 学習処理部
17 判定部
18 推奨部
20 反射体付き表示装置
21 反射体
22 ディスプレイ
23 撮像部
24 送信部
25 取得部
26 表示処理部
27 再生処理部
28 音入出力部
29 入力操作認識部
100 傾向表示システム装置
101 中央処理装置
102 メモリ
103 バス
104 記憶装置
105 入力装置
106 出力装置
107 通信デバイス
108 撮像装置
109 音入出力装置
Claims (40)
- 提示部、取得部、生体情報分析部、感情特定部、記憶部、関連性分析部、及び判定部を含み、
前記提示部は、反射体付き表示装置を介してコンテンツに関するコンテンツ情報をユーザに提示し、
前記取得部は、反射体に写ったユーザを撮像した反射画像を取得し、
前記生体情報分析部は、前記反射画像から前記ユーザの生体情報を分析し、
前記感情特定部は、前記生体情報から前記ユーザの感情を数値化して特定し、
前記記憶部は、前記コンテンツ情報と紐づけて前記感情の数値を前記ユーザ毎に蓄積して記憶し、
前記関連性分析部は、前記記憶部に蓄積して記憶している前記感情の数値と、前記感情の数値と紐づいた前記コンテンツ情報との関連性を前記ユーザ毎に分析し、
前記判定部は、前記関連性の分析結果に基づき、前記ユーザの傾向を判定する、傾向判定装置。 - 前記提示部は、前記反射体付き表示装置を介して前記感情及び前記感情の数値を前記ユーザに提示する、請求項1記載の傾向判定装置。
- 前記取得部は、前記提示部による前記コンテンツの提示の前に前記ユーザを撮像した提示前反射画像と、前記提示の後に前記ユーザを撮像した提示後反射画像とを取得し、
前記生体情報分析部は、前記提示前反射画像及び前記提示後反射画像のそれぞれから前記ユーザの生体情報を分析し、
前記感情特定部は、前記提示前反射画像及び前記提示後反射画像のそれぞれから分析された生体情報から前記ユーザの感情を数値化して特定し、
前記記憶部は、前記提示前反射画像における前記感情の数値と前記提示後反射画像における前記感情の数値との差分を前記コンテンツと紐づけて前記ユーザ毎に蓄積して記憶し、
前記関連性分析部は、前記記憶部に蓄積して記憶している前記感情の数値の差分と、前記感情の数値の差分と紐づいた前記コンテンツとの関連性を前記ユーザ毎に分析する、請求項1又は2記載の傾向判定装置。 - 前記関連性分析部は、学習処理部を含み、
前記学習処理部は、前記ユーザの前記感情の数値と前記コンテンツ情報とを学習用データとして用いた教師なし学習によって、学習モデルの学習処理を行い、
前記関連性分析部は、前記学習モデルを用いて、前記感情の数値と前記コンテンツ情報との関連性を前記ユーザ毎に分析する、請求項1から3のいずれか一項に記載の傾向判定装置。 - 前記取得部は、さらに、前記コンテンツを取得し、
前記提示部は、前記反射体付き表示装置を介して前記取得部が取得した前記コンテンツを前記ユーザに提示する、請求項1から4のいずれか一項に記載の傾向判定装置。 - さらに、推奨部を含み、
前記推奨部は、判定した前記ユーザの傾向に基づき、複数の前記コンテンツ情報の中から少なくとも一つの前記コンテンツ情報を選択し、且つ選択した前記コンテンツ情報を前記反射体付き表示装置を介して前記ユーザに推奨する、請求項1から5のいずれか一項に記載の傾向判定装置。 - 請求項1から6のいずれか一項に記載の傾向判定装置と併用される反射体付き表示装置であって、
反射体、ディスプレイ、撮像部、送信部、取得部、及び表示処理部を含み、
前記撮像部は、前記反射体に写ったユーザを撮像し、
前記送信部は、前記撮像部により撮像された反射画像を前記傾向判定装置に送信し、
前記取得部は、前記傾向判定装置が提示するコンテンツ情報を取得し、
前記表示処理部は、前記コンテンツ情報を前記ディスプレイに表示する、反射体付き表示装置。 - 前記取得部は、前記傾向判定装置が提示する前記ユーザの感情の数値を取得し、
前記表示処理部は、前記傾向判定装置によって提示された前記ユーザの感情の数値を前記ディスプレイに表示する、請求項7記載の反射体付き表示装置。 - 前記撮像部は、前記表示処理部によって前記コンテンツを前記ディスプレイに表示する前と、表示した後とで前記ユーザを撮像し、
前記送信部は、前記表示する前に撮像した提示前反射画像と、前記表示した後に撮像した提示後反射画像とを前記傾向判定装置に送信する、請求項7又は8記載の反射体付き表示装置。 - 前記取得部は、前記傾向判定装置が推奨する前記コンテンツ情報を取得し、
前記表示処理部は、前記傾向判定装置によって推奨された前記コンテンツ情報を前記ディスプレイに表示する、請求項7から9のいずれか一項に記載の反射体付き表示装置。 - さらに、再生処理部、及び音入出力部を含み、
前記コンテンツ情報が音情報である場合、
前記再生処理部は、前記コンテンツ情報を前記音入出力部により再生する、請求項7から10のいずれか一項に記載の反射体付き表示装置。 - さらに、入力操作認識部を含み、
前記入力操作認識部は、前記ユーザの入力操作を認識する、請求項7から11のいずれか一項に記載の反射体付き表示装置。 - 請求項1から6のいずれか一項に記載の傾向判定装置と、請求項7から12のいずれか一項に記載の反射体付き表示装置とを含み、
前記傾向判定装置と前記反射体付き表示装置とは、通信回線網を介して通信可能である、傾向表示システム装置。 - 提示工程、取得工程、生体情報分析工程、感情特定工程、記憶工程、関連性分析工程、及び判定工程を含み、
前記提示工程は、反射体付き表示装置を介してコンテンツに関するコンテンツ情報をユーザに提示し、
前記取得工程は、反射体に写ったユーザを撮像した反射画像を取得し、
前記生体情報分析工程は、前記反射画像から前記ユーザの生体情報を分析し、
前記感情特定工程は、前記生体情報から前記ユーザの感情を数値化して特定し、
前記記憶工程は、前記コンテンツ情報と紐づけて前記感情の数値を前記ユーザ毎に蓄積して記憶し、
前記関連性分析工程は、前記記憶工程に蓄積して記憶している前記感情の数値と、前記感情の数値と紐づいた前記コンテンツ情報との関連性を前記ユーザ毎に分析し、
前記判定工程は、前記関連性の分析結果に基づき、前記ユーザの傾向を判定する、傾向判定方法。 - 前記提示工程は、前記反射体付き表示装置を介して前記感情及び前記感情の数値を前記ユーザに提示する、請求項14記載の傾向判定方法。
- 前記取得工程は、前記提示工程による前記コンテンツの提示の前に前記ユーザを撮像した提示前反射画像と、前記提示の後に前記ユーザを撮像した提示後反射画像とを取得し、
前記生体情報分析工程は、前記提示前反射画像及び前記提示後反射画像のそれぞれから前記ユーザの生体情報を分析し、
前記感情特定工程は、前記提示前反射画像及び前記提示後反射画像のそれぞれから分析された生体情報から前記ユーザの感情を数値化して特定し、
前記記憶工程は、前記提示前反射画像における前記感情の数値と前記提示後反射画像における前記感情の数値との差分を前記コンテンツと紐づけて前記ユーザ毎に蓄積して記憶し、
前記関連性分析工程は、前記記憶工程に蓄積して記憶している前記感情の数値の差分と、前記感情の数値の差分と紐づいた前記コンテンツとの関連性を前記ユーザ毎に分析する、請求項14又は15記載の傾向判定方法。 - 前記関連性分析工程は、学習処理工程を含み、
前記学習処理工程は、前記ユーザの前記感情の数値と前記コンテンツ情報とを学習用データとして用いた教師なし学習によって、学習モデルの学習処理を行い、
前記関連性分析工程は、前記学習モデルを用いて、前記感情の数値と前記コンテンツ情報との関連性を前記ユーザ毎に分析する、請求項14から16のいずれか一項に記載の傾向判定方法。 - 前記取得工程は、さらに、前記コンテンツを取得し、
前記提示工程は、前記反射体付き表示装置を介して前記取得工程が取得した前記コンテンツを前記ユーザに提示する、請求項14から17のいずれか一項に記載の傾向判定方法。 - さらに、推奨工程を含み、
前記推奨工程は、判定した前記ユーザの傾向に基づき、複数の前記コンテンツ情報の中から少なくとも一つの前記コンテンツ情報を選択し、且つ選択した前記コンテンツ情報を前記反射体付き表示装置を介して前記ユーザに推奨する、請求項14から18のいずれか一項に記載の傾向判定方法。 - 請求項14から19のいずれか一項に記載の傾向判定方法と並行して実行される表示処理方法であって、
撮像工程、送信工程、取得工程、及び表示処理工程を含み、
前記撮像工程は、反射体に写ったユーザを撮像し、
前記送信工程は、前記撮像工程により撮像された反射画像を前記傾向判定方法を実行する傾向判定装置に送信し、
前記取得工程は、前記傾向判定装置が提示するコンテンツ情報を取得し、
前記表示処理工程は、前記コンテンツ情報をディスプレイに表示する、表示処理方法。 - 前記取得工程は、前記傾向判定装置が提示する前記ユーザの感情の数値を取得し、
前記表示処理工程は、前記傾向判定装置によって提示された前記ユーザの感情の数値を前記ディスプレイに表示する、請求項20記載の表示処理方法。 - 前記撮像工程は、前記表示処理工程によって前記コンテンツを前記ディスプレイに表示する前と、表示した後とで前記ユーザを撮像し、
前記送信工程は、前記表示する前に撮像した提示前反射画像と、前記表示した後に撮像した提示後反射画像とを前記傾向判定装置に送信する、請求項20又は21記載の表示処理方法。 - 前記取得工程は、前記傾向判定装置が推奨する前記コンテンツ情報を取得し、
前記表示処理工程は、前記傾向判定装置によって推奨された前記コンテンツ情報を前記ディスプレイに表示する、請求項20から22のいずれか一項に記載の表示処理方法。 - さらに、再生処理工程、及び音入出力工程を含み、
前記コンテンツ情報が音情報である場合、
前記再生処理工程は、前記コンテンツ情報を前記音入出力工程により再生する、請求項20から23のいずれか一項に記載の表示処理方法。 - さらに、入力操作認識工程を含み、
前記入力操作認識工程は、前記ユーザの入力操作を認識する、請求項20から24のいずれか一項に記載の表示処理方法。 - 請求項14から19のいずれか一項に記載の傾向判定方法と、請求項20から25のいずれか一項に記載の表示処理方法とを含む、傾向表示方法。
- 提示手順、取得手順、生体情報分析手順、感情特定手順、記憶手順、関連性分析手順、及び判定手順を含み、
前記提示手順は、反射体付き表示装置を介してコンテンツに関するコンテンツ情報をユーザに提示し、
前記取得手順は、反射体に写ったユーザを撮像した反射画像を取得し、
前記生体情報分析手順は、前記反射画像から前記ユーザの生体情報を分析し、
前記感情特定手順は、前記生体情報から前記ユーザの感情を数値化して特定し、
前記記憶手順は、前記コンテンツ情報と紐づけて前記感情の数値を前記ユーザ毎に蓄積して記憶し、
前記関連性分析手順は、前記記憶手順に蓄積して記憶している前記感情の数値と、前記感情の数値と紐づいた前記コンテンツ情報との関連性を前記ユーザ毎に分析し、
前記判定手順は、前記関連性の分析結果に基づき、前記ユーザの傾向を判定する、ことをコンピュータに実行させるためのプログラム。 - 前記提示手順は、前記反射体付き表示装置を介して前記感情及び前記感情の数値を前記ユーザに提示する、請求項27記載のプログラム。
- 前記取得手順は、前記提示手順による前記コンテンツの提示の前に前記ユーザを撮像した提示前反射画像と、前記提示の後に前記ユーザを撮像した提示後反射画像とを取得し、
前記生体情報分析手順は、前記提示前反射画像及び前記提示後反射画像のそれぞれから前記ユーザの生体情報を分析し、
前記感情特定手順は、前記提示前反射画像及び前記提示後反射画像のそれぞれから分析された生体情報から前記ユーザの感情を数値化して特定し、
前記記憶手順は、前記提示前反射画像における前記感情の数値と前記提示後反射画像における前記感情の数値との差分を前記コンテンツと紐づけて前記ユーザ毎に蓄積して記憶し、
前記関連性分析手順は、前記記憶手順に蓄積して記憶している前記感情の数値の差分と、前記感情の数値の差分と紐づいた前記コンテンツとの関連性を前記ユーザ毎に分析する、請求項27又は28記載のプログラム。 - 前記関連性分析手順は、学習処理手順を含み、
前記学習処理手順は、前記ユーザの前記感情の数値と前記コンテンツ情報とを学習用データとして用いた教師なし学習によって、学習モデルの学習処理を行い、
前記関連性分析手順は、前記学習モデルを用いて、前記感情の数値と前記コンテンツ情報との関連性を前記ユーザ毎に分析する、請求項27から29のいずれか一項に記載のプログラム。 - 前記取得手順は、さらに、前記コンテンツを取得し、
前記提示手順は、前記反射体付き表示装置を介して前記取得手順が取得した前記コンテンツを前記ユーザに提示する、請求項27から30のいずれか一項に記載のプログラム。 - さらに、推奨手順を含み、
前記推奨手順は、判定した前記ユーザの傾向に基づき、複数の前記コンテンツ情報の中から少なくとも一つの前記コンテンツ情報を選択し、且つ選択した前記コンテンツ情報を前記反射体付き表示装置を介して前記ユーザに推奨する、請求項27から31のいずれか一項に記載のプログラム。 - 撮像手順、送信手順、取得手順、及び表示処理手順を含み、前記撮像手順は、反射体に写ったユーザを撮像し、
前記送信手順は、前記撮像手順により撮像された反射画像を請求項27から32のいずれか一項に記載の第1のプログラムを実行する傾向判定装置に送信し、
前記取得手順は、前記傾向判定装置が提示するコンテンツ情報を取得し、
前記表示処理手順は、前記コンテンツ情報をディスプレイに表示する、ことをコンピュータに実行させるための第2のプログラム。 - 前記取得手順は、前記傾向判定装置が提示する前記ユーザの感情の数値を取得し、
前記表示処理手順は、前記傾向判定装置によって提示された前記ユーザの感情の数値を前記ディスプレイに表示する、請求項33記載のプログラム。 - 前記撮像手順は、前記表示処理手順によって前記コンテンツを前記ディスプレイに表示する前と、表示した後とで前記ユーザを撮像し、
前記送信手順は、前記表示する前に撮像した提示前反射画像と、前記表示した後に撮像した提示後反射画像とを前記傾向判定装置に送信する、請求項33又は34記載のプログラム。 - 前記取得手順は、前記傾向判定装置が推奨する前記コンテンツ情報を取得し、
前記表示処理手順は、前記傾向判定装置によって推奨された前記コンテンツ情報を前記ディスプレイに表示する、請求項33から35のいずれか一項に記載のプログラム。 - さらに、再生処理手順、及び音入出力手順を含み、
前記コンテンツ情報が音情報である場合、
前記再生処理手順は、前記コンテンツ情報を前記音入出力手順により再生する、請求項33から36のいずれか一項に記載のプログラム。 - さらに、入力操作認識手順を含み、
前記入力操作認識手順は、前記ユーザの入力操作を認識する、請求項33から37のいずれか一項に記載のプログラム。 - 請求項27から32のいずれか一項に記載の第1のプログラムと、請求項33から38のいずれか一項に記載のプログラムとを含む、プログラム。
- 請求項27から39のいずれか一項に記載のプログラムを記録しているコンピュータ読み取り可能な記録媒体。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2023502140A JP7563835B2 (ja) | 2021-02-26 | 2022-01-11 | 傾向判定装置、反射体付き表示装置、傾向表示システム装置、傾向判定方法、表示処理方法、傾向表示方法、プログラム及び記録媒体 |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021-030165 | 2021-02-26 | ||
JP2021030165 | 2021-02-26 |
Publications (1)
Publication Number | Publication Date |
---|---|
WO2022181080A1 true WO2022181080A1 (ja) | 2022-09-01 |
Family
ID=83048830
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
PCT/JP2022/000578 WO2022181080A1 (ja) | 2021-02-26 | 2022-01-11 | 傾向判定装置、反射体付き表示装置、傾向表示システム装置、傾向判定方法、表示処理方法、傾向表示方法、プログラム及び記録媒体 |
Country Status (2)
Country | Link |
---|---|
JP (1) | JP7563835B2 (ja) |
WO (1) | WO2022181080A1 (ja) |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2017201499A (ja) * | 2015-10-08 | 2017-11-09 | パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America | 情報提示装置の制御方法、及び、情報提示装置 |
JP2019039084A (ja) * | 2017-08-22 | 2019-03-14 | 株式会社ファーストリテイリング | 表示機能付きミラー装置およびシステム |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8386486B2 (en) | 2008-07-02 | 2013-02-26 | Palo Alto Research Center Incorporated | Method for facilitating social networking based on fashion-related information |
-
2022
- 2022-01-11 JP JP2023502140A patent/JP7563835B2/ja active Active
- 2022-01-11 WO PCT/JP2022/000578 patent/WO2022181080A1/ja active Application Filing
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2017201499A (ja) * | 2015-10-08 | 2017-11-09 | パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America | 情報提示装置の制御方法、及び、情報提示装置 |
JP2019039084A (ja) * | 2017-08-22 | 2019-03-14 | 株式会社ファーストリテイリング | 表示機能付きミラー装置およびシステム |
Also Published As
Publication number | Publication date |
---|---|
JPWO2022181080A1 (ja) | 2022-09-01 |
JP7563835B2 (ja) | 2024-10-08 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US12081821B2 (en) | System and method for enhancing content using brain-state data | |
US11089985B2 (en) | Systems and methods for using mobile and wearable video capture and feedback plat-forms for therapy of mental disorders | |
US10387898B2 (en) | Crowd-based personalized recommendations of food using measurements of affective response | |
US10517521B2 (en) | Mental state mood analysis using heart rate collection based on video imagery | |
KR102277820B1 (ko) | 반응정보 및 감정정보를 이용한 심리 상담 시스템 및 그 방법 | |
US20160350801A1 (en) | Method for analysing comprehensive state of a subject | |
US20130245396A1 (en) | Mental state analysis using wearable-camera devices | |
US20120164613A1 (en) | Determining a demographic characteristic based on computational user-health testing of a user interaction with advertiser-specified content | |
US20140330132A1 (en) | Physiological characteristic detection based on reflected components of light | |
US11430561B2 (en) | Remote computing analysis for cognitive state data metrics | |
AU2013256179A1 (en) | Physiological characteristic detection based on reflected components of light | |
US11386474B2 (en) | System and method for generating a product recommendation in a virtual try-on session | |
US20150215412A1 (en) | Social network service queuing using salience | |
Colantonio et al. | Computer vision for ambient assisted living: Monitoring systems for personalized healthcare and wellness that are robust in the real world and accepted by users, carers, and society | |
Nie et al. | SPIDERS+: A light-weight, wireless, and low-cost glasses-based wearable platform for emotion sensing and bio-signal acquisition | |
Bianco et al. | A smart mirror for emotion monitoring in home environments | |
KR20140032651A (ko) | 감성 피드백 서비스 방법 및 이를 적용한 스마트 디바이스 | |
US20200226012A1 (en) | File system manipulation using machine learning | |
WO2022181080A1 (ja) | 傾向判定装置、反射体付き表示装置、傾向表示システム装置、傾向判定方法、表示処理方法、傾向表示方法、プログラム及び記録媒体 | |
WO2022181079A1 (ja) | 価格設定支援装置、反射体付き表示装置、価格表示システム装置、価格設定支援方法、表示処理方法、価格表示方法、プログラム及び記録媒体 | |
WO2020102459A1 (en) | Systems and methods for evaluating affective response in a user via human generated output data | |
WO2021251014A1 (ja) | 提案情報生成装置、反射体付き表示装置、提案情報生成システム装置、提案情報生成方法、表示処理方法、プログラム及び記録媒体 | |
WO2022209416A1 (ja) | 情報処理装置、情報処理システム及び情報処理方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
121 | Ep: the epo has been informed by wipo that ep was designated in this application |
Ref document number: 22759123 Country of ref document: EP Kind code of ref document: A1 |
|
ENP | Entry into the national phase |
Ref document number: 2023502140 Country of ref document: JP Kind code of ref document: A |
|
NENP | Non-entry into the national phase |
Ref country code: DE |
|
122 | Ep: pct application non-entry in european phase |
Ref document number: 22759123 Country of ref document: EP Kind code of ref document: A1 |