WO2020202958A1 - 分類装置および分類プログラム - Google Patents

分類装置および分類プログラム Download PDF

Info

Publication number
WO2020202958A1
WO2020202958A1 PCT/JP2020/008435 JP2020008435W WO2020202958A1 WO 2020202958 A1 WO2020202958 A1 WO 2020202958A1 JP 2020008435 W JP2020008435 W JP 2020008435W WO 2020202958 A1 WO2020202958 A1 WO 2020202958A1
Authority
WO
WIPO (PCT)
Prior art keywords
classification
matching
unit
biometric information
target person
Prior art date
Application number
PCT/JP2020/008435
Other languages
English (en)
French (fr)
Inventor
善之 奈須野
聡子 清水
Original Assignee
株式会社カネカ
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社カネカ filed Critical 株式会社カネカ
Priority to JP2021511257A priority Critical patent/JPWO2020202958A1/ja
Priority to CN202080025573.3A priority patent/CN113646791A/zh
Publication of WO2020202958A1 publication Critical patent/WO2020202958A1/ja
Priority to US17/486,705 priority patent/US20220012286A1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/90Details of database functions independent of the retrieved data types
    • G06F16/906Clustering; Classification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q10/00Administration; Management
    • G06Q10/06Resources, workflows, human or project management; Enterprise or organisation planning; Enterprise or organisation modelling

Definitions

  • the present invention relates to a classification device and a classification program.
  • Patent Document 1 discloses an example of a technique for classifying such users.
  • a predetermined question such as a questionnaire is asked to the user. Then, the users are classified based on the user's answer to the question.
  • the present invention has been made in view of such a situation. And the purpose is to provide a classification system and a classification method for classifying users more appropriately from various viewpoints.
  • the classification device includes an answer acquisition unit that acquires an answer from the subject to a predetermined question asked to the subject, and a biological information acquisition unit that acquires the biological information of the subject. Based on the biological information acquired by the biological information acquisition unit, the determination unit that determines the state of the target person, the answer acquired by the answer acquisition unit, and the state of the target person determined by the determination unit Based on this, a classification unit for classifying the target person is provided.
  • the classification program includes an answer acquisition unit that acquires an answer from the subject to a predetermined question asked to the subject, and a bioinformation acquisition unit that acquires the biometric information of the subject. Based on the biometric information acquired by the biometric information acquisition unit, the determination unit that determines the state of the target person, the answer acquired by the answer acquisition unit, and the state of the target person determined by the determination unit. Based on this, the computer functions as a classification device including a classification unit for classifying the target person.
  • users can be classified more appropriately from various viewpoints.
  • FIG. 1 is a block diagram showing an overall configuration of the classification system S according to the present embodiment.
  • the classification system S includes a classification device 10, a user terminal 20, and a biometric information measuring device 30. Further, FIG. 1 illustrates a user U who is a processing target person of the processing performed by the classification system S.
  • Each device included in these classification systems S is communicably connected to each other via the network N in the figure.
  • Communication between the devices may be performed in accordance with an arbitrary communication method, and the communication method is not particularly limited.
  • the communication connection may be a wireless connection or a wired connection.
  • communication between the devices may be performed directly between the devices without going through the network.
  • the user terminal 20 and the biometric information measuring device 30 are installed, for example, at the user's home, a store, or the like. Further, the classification device 10 is installed in the same store as the user terminal 20, a server room of a business operator operating this store, or the like.
  • the type of business in this store is not particularly limited, and may be, for example, a store that retails products, a store that mediates the sale or purchase of real estate, or a store that provides a matching service.
  • This matching service may be, for example, matching with a customer who is compatible with a sales person, matching for searching for a friend such as a hobby, matching for searching for a dating partner at a dating agency or the like. That is, the classification system S can be used for various purposes regardless of the application. In the following, as an example for explanation, it is assumed that the user U is a customer and the user U who is the customer is classified. In addition, based on this classification result, it is assumed that sales positions are matched with customers who are compatible with each other.
  • the classification system S having such a configuration acquires the answer from the target person to a predetermined question asked to the target person (that is, the user U). In addition, the classification system S acquires the biological information of the subject. Further, the classification system S determines the state of the subject based on the acquired biometric information. Then, the classification system S classifies the target person based on the obtained answer and the state of the determined target person. As described above, the classification system S not only classifies based on the answer to the question, but also classifies based on the state of the subject at the time of answering the question determined based on the biological information. Therefore, according to the classification system S, it is possible to classify users more appropriately from various viewpoints.
  • the biometric information measuring device 30 measures the biometric information of the user U at the time of answering the question.
  • the biometric information measuring device 30 measures the biometric information of the user U by, for example, any one of an electroencephalogram sensor, a line-of-sight sensor, an acceleration sensor, an electrocardiographic sensor, and a Doppler sensor, or a combination thereof.
  • the electroencephalogram sensor, the line-of-sight sensor, and the acceleration sensor are characterized in that they are suitable for measuring instantaneous changes because their response speeds are faster than those of other sensors.
  • the Doppler sensor is characterized in that it can measure information on heart rate, respiratory rate, and body movement without contacting the body of the user U.
  • a Doppler sensor can measure the respiratory rate, the ratio of inhalation time to exhalation time, the depth of chest movement during breathing, and the like.
  • the other sensor needs to be in contact with the user U's body for measurement.
  • an electrocardiographic sensor is characterized in that it can measure heart rate variability more accurately than a Doppler sensor.
  • the biosensor used in the biometric information measuring device 30 is determined according to the characteristics of each of these biosensors and the type of biometric information to be measured. In the following, it is assumed that the biometric information measuring device 30 measures the biometric information of the user U using these biosensors. For example, when an electroencephalogram sensor is used, the biometric information measuring device 30 measures the fluctuation of the electroencephalogram by using a headphone-type electroencephalogram sensor that electrically contacts the body at two points, the forehead and the earlobe of the user U. When using an electrocardiographic sensor, the biometric information measuring device 30 uses a two-point contact type electrocardiographic sensor in which the thumbs of both hands of the user U touch one electrode, respectively, to obtain 1 of the biometric information of the user U.
  • the biometric information measuring device 30 uses a line-of-sight sensor that measures electricity generated when an electrode is brought into contact with the face surface (for example, near the nose pad of eyeglasses) and muscles are moved. Estimate the blink.
  • the acceleration sensor is used, the biological information measuring device 30 observes the small movement of the body by using the acceleration sensor arranged on any of the trunks. As described above, these sensors may be used alone or in combination of a plurality of sensors.
  • the biometric information measuring device 30 generates biometric information of the user U by associating the fluctuations of brain waves and heartbeats measured by these biosensors with the measurement time in chronological order. Then, the biometric information measuring device 30 transmits the generated biometric information of the user U to the classification device 10 together with the user identifier for identifying the user U.
  • This user identifier may be a unique (that is, unique) identifier for each user U, and is not particularly limited. Further, this transmission may be performed by relaying the user terminal 20.
  • the user terminal 20 presents a question to the user U and accepts the answer of the user U to this question.
  • the user terminal 20 can be realized by, for example, a personal computer, a tablet-type terminal, or an electronic device such as a smartphone.
  • the user terminal 20 receives a question to be asked to the user U from the classification device 10, and presents this question to the user U.
  • the question content is presented by displaying it on a display, a touch panel, or the like.
  • the user terminal 20 accepts the answer of the user U to this question.
  • the answer is received by the operation of the user U using a keyboard, a mouse, a touch panel, or the like.
  • the user terminal 20 transmits the received response of the user U to the classification device 10 together with the user identifier for identifying the user U.
  • the user identifier used is the same as the user identifier transmitted by the biometric information measuring device 30. Further, this transmission may be performed by relaying the biological information measuring device 30.
  • the classification device 10 acquires the response of the user U transmitted from the user terminal 20 by receiving it. Further, the classification device 10 acquires the biometric information of the user U transmitted from the biometric information measuring device 30 by receiving it. Further, the classification device 10 identifies the state of the user U at the time of answering the question by making a determination based on the acquired biological information of the user U. Then, the classification device 10 classifies the target person based on the obtained answer and the state of the determined target person.
  • the classification device 10 responds to the request of the matching person who wants to match with the user U (here, as described above, the sales person who wants to match with the customer U). Matching is performed based on. Then, the classification device 10 presents the matching result to the matching applicant in, for example, a list format.
  • the classification device 10 can be realized by, for example, a server device or an electronic device such as a personal computer.
  • the classification system S functions as a system that performs appropriate classification and enables matching based on the appropriate classification by the cooperation of each device.
  • each device is shown one by one, but this is merely an example, and the classification system S may include any number of these devices.
  • a plurality of sets of the user terminal 20 and the biometric information measuring device 30 may be provided corresponding to the plurality of users U. Then, for example, one classification device 10 may collectively perform each process for the plurality of sets.
  • the user terminal 20 and the biometric information measuring device 30 may not be realized as separate devices, but may be realized as an integrated device. Further, in this case, the classification device 10, the user terminal 20, and the biometric information measuring device 30 may be further realized as an integrated device.
  • the classification device 10 inputs a CPU (Central Processing Unit) 11, a ROM (Read Only Memory) 12, a RAM (Random Access Memory) 13, a communication unit 14, and a storage unit 15.
  • a unit 16 and a display unit 17 are provided. Each of these parts is bus-connected by a signal line and sends and receives signals to and from each other.
  • the CPU 11 executes various processes according to the program recorded in the ROM 12 or the program loaded from the storage unit 15 into the RAM 13. Data and the like necessary for the CPU 11 to execute various processes are also appropriately stored in the RAM 13.
  • the communication unit 14 controls communication for the CPU 11 to communicate with another device (for example, a user terminal 20 or a biometric information measuring device 30).
  • the storage unit 15 is composed of a semiconductor memory such as a DRAM (Dynamic Random Access Memory) and stores various data.
  • the input unit 16 is composed of various buttons and a touch panel, or an external input device such as a mouse and a keyboard, and inputs various information according to a user's instruction operation.
  • the display unit 17 is composed of a display or the like, and displays an image corresponding to the image data output by the CPU 11.
  • the classification process and the “matching process” are performed by the cooperation of each of these parts.
  • the classification device 10 classifies the user based on the answer of the user U and the state of the user U determined from the biometric information of the user U, so that the user can be classified more appropriately from various viewpoints. It is a series of processing to classify.
  • the matching process is a series of processes in which the classification device 10 performs matching based on an appropriate classification result by the classification process and presents the matching result to a matching applicant.
  • the answer acquisition unit 111, the biological information acquisition unit 112, the determination unit 113, the classification unit 114, and the matching unit 115 function in the CPU 11. .. Further, the acquisition information database 151 and the classification result database 152 are stored in one area of the storage unit 15. Data necessary for realizing each process is appropriately transmitted and received between these functional blocks, even if not specifically mentioned below, at an appropriate timing.
  • the answer acquisition unit 111 acquires the answer of the user U transmitted from the user terminal 20 by receiving the answer. Then, the response acquisition unit 111 stores the acquired response of the user U in the acquisition information database 151. Further, as a premise, the answer acquisition unit 111 stores the question to the user U in the storage unit 15 or the like, and transmits the question to the user U to the user terminal 20.
  • the biometric information acquisition unit 112 acquires the biometric information of the user U transmitted from the biometric information measuring device 30 by receiving it. Then, the biometric information acquisition unit 112 stores the acquired biometric information of the user U in the acquisition information database 151.
  • the acquired information database 151 is a database in which various information used by the classification device 10 for performing the classification process is stored. An example of a specific data structure of the acquired information database 151 will be described with reference to FIG.
  • various information is associated with the user identifier and stored as one record.
  • information corresponding to a set of question groups including n consecutive questions is stored as one record.
  • multiple records may be stored for the same user U. For example, when a question is asked about the same user U using a plurality of sets of question groups having different question contents, the information corresponding to each set of question groups is stored as a plurality of records. Alternatively, when the same user U is asked a question multiple times using the same question group by different situations (for example, the place and time when the question is asked), the information corresponding to each time is used. Each is stored as multiple records.
  • Each record has columns such as "user identifier”, “measurement date and time”, “first question and answer” to “nth question and answer”, and “first biometric information” to “nth”. Includes up to “biological information”. The specific contents of the information corresponding to each of these columns will be described.
  • the "user identifier" is an identifier for identifying the user U corresponding to each record.
  • the user identifier may be any information as long as it is a unique identifier for each user U.
  • an ID Identifier
  • a predetermined rule may be used as a user identifier.
  • “Question date and time” is information indicating the date and time when the question corresponding to the record was asked.
  • the "question date and time” is information on the time from the start to the end of a question (and the accompanying acquisition of answers and biometric information) by a set of question groups including n consecutive questions. ..
  • the "first question and answer" to the “nth question and answer” are a set of the question asked by the user terminal 20 and the answer received by the user terminal 20.
  • the content of the question and the answering method are not particularly limited, and various questions can be selected depending on the application to which this embodiment is applied.
  • the question is a questionnaire for grasping the characteristics and preferences of the user U
  • the answering method may be one selected by the user U from the options prepared in advance.
  • the "first biometric information" to the “nth biometric information” are biometric information measured by the biometric information measuring device 30, and are stored in association with the question. That is, the first question and the biometric information measured when the answer to the first question is given becomes the first biometric information.
  • the stored back plate information is, for example, "brain wave”, “heart rate”, “respiratory rate”, “respiratory depth” and the like, as described above.
  • Such an acquisition information database 151 is updated by the answer acquisition unit 111 and the biometric information acquisition unit 112 each time a question to the user U and the answer are given by the user U.
  • the determination unit 113 identifies the state of the user U at the time of answering the question by making a determination based on the biometric information of the user U stored in the acquisition information database 151 by the biometric information acquisition unit 112.
  • the state for example, comfort, emotion, emotions, mood, etc., which are suitable for the purpose of classification are determined.
  • the brain wave is Fourier transformed and frequency-decomposed. Then, the state of the user U can be determined based on the result of frequency decomposition and the following criteria such as ⁇ frequency-based determination criteria>.
  • Beta High (18-30Hz): Related to emotional strength (both positive and negative) -Gamma Low (31-40Hz): When the ratio of gamma waves is high, it is strongly related to perception and consciousness, especially in the state of higher mental activity (association of multiple things). A state of strong anxiety, a state of excitement (not necessarily negative)
  • the above ⁇ frequency-based determination criteria> is an example for making a determination, and the determination may be made based on other criteria or in combination with other criteria. For example, it is determined whether or not the parasympathetic nerve is dominant based on the heart rate.
  • the frequency component of the high frequency band for example, from 0.20 Hz to 0.15 Hz
  • the frequency component of the periodic fluctuation of the heart rate is analyzed by power spectrum
  • the parasympathetic nerve is dominant.
  • a state in which a large amount of ⁇ waves are emitted among the brain waves and the parasympathetic nerve is predominant may be determined as a state in which comfort is high.
  • the line-of-sight direction and blink estimated by the line-of-sight sensor it is possible to determine a state such as the degree of concentration and the degree of sleepiness of the user U based on the line-of-sight direction and blink. it can.
  • the state such as tension or anxiety of the user U can be determined based on the small movements of the body.
  • the classification unit 114 classifies the user U based on the answer of the user U stored in the acquisition information database 151 by the answer acquisition unit 111 and the state of the user U at the time of answering the question determined by the determination unit 113. Then, the classification unit 114 stores the classification result in the classification result database 152. As a premise of the classification of the classification unit 114, the classification result database 152 will be described first.
  • the classification result database 152 is a database in which the classification results by the classification unit 114 are stored. An example of a specific data structure of the classification result database 152 will be described with reference to FIG.
  • the categories corresponding to each of the three categories of "major classification”, “medium classification”, and “minor classification” are provided. It is provided.
  • the user U is first classified into a major category.
  • the user U is also classified into a middle classification category, which is a further subdivision of the major classification.
  • the user U is also classified into a sub-category, which is a subdivision of the middle classification.
  • the categories for classifying the user U are hierarchically provided so as to be subdivided each time the hierarchy is followed.
  • Each classification includes, for example, a "category identifier" and a "user identifier” as columns. The specific contents of the information corresponding to each of these columns will be described.
  • the "category identifier" is an identifier for identifying each category. Like the user identifier, the category identifier may be any information as long as it is a unique identifier for each category. For example, a name indicating the characteristics of a category may be used as a category identifier.
  • the "user identifier" is an identifier of the user U classified for each classification by the classification unit 114.
  • the identifier itself used as the user identifier is the same as the identifier used as the user identifier in the acquired information database 151.
  • Such a classification result database 152 is updated by the classification unit 114 each time a question to the user U is asked and the answer is given by the user U.
  • the classification unit 114 weights the user U's answer to the corresponding question based on the state of the user U at the time of answering the question determined by the determination unit 113. For example, the answer to the first question is weighted based on the state of the user U at the time of answering the first question determined based on the first biometric information. For example, when the state of the user U at the time of answering the determined question is a deeply relaxed state or a calm state both physically and mentally, the user U answers without hesitation, answers from the bottom of his heart, or responds to the facts of the past. It is thought that they are answering the facts based on it. That is, it is considered that the credibility of this answer is high. Therefore, in such a case, the classification unit 114 increases the weighting so that the influence of this answer on the classification becomes large.
  • the classification unit 114 reduces the weighting so that the influence of this answer on the classification is small.
  • the classification unit 114 classifies the user U into each of the major, middle, and minor categories so that the influence of the heavily weighted answer is large. ..
  • the classification unit 114 classifies based on the information corresponding to one set of question groups including n consecutive questions, and then the information corresponding to another question group is added for the same user U. Reclassifies based on information about all previous questions about that user U. In this case, the weighting of the latest question group may be increased so that the information about the latest question group has a greater influence.
  • the classification device 10 not only classifies based on the answer to the question, but also classifies based on the state of the subject at the time of answering the question determined based on the biological information. Therefore, according to the classification device 10, it is possible to classify users more appropriately from various viewpoints.
  • the matching unit 115 matches based on the classification result in response to the request of the matching person who wants to match with the user U (here, the sales person who wants to match with the customer U as described above). To do. Then, the classification device 10 presents the matching result to the matching applicant in, for example, a list format. In the following, as an example for explanation, it is assumed that a list format in which a plurality of users U (hereinafter referred to as “matching partners”) matching the matching applicant are included is presented.
  • the matching unit 115 first receives a matching request from a matching applicant by an operation by the input unit 16 or a communication from another device (for example, any user terminal 20) via the communication unit 14. In this case, the matching unit 115 accepts, for example, the selection of the attribute of the candidate to be the matching partner from the matching applicant.
  • the attribute may be, for example, the gender or age of the candidate to be the matching partner, or may directly specify the classification of the candidate to be the matching partner.
  • the matching unit 115 determines candidates for matching partners to be included in the list based on the selected attributes. In this case, the matching unit 115 does not include only the matching partner corresponding to the selected attribute itself in the list, but gives the selected attribute a width and matches corresponding to the attribute having this width. The other party may also be included in the list. For example, the width may be set so as to include an attribute similar to the selected attribute, and the matching partner corresponding to the attribute having this width may also be included in the list.
  • the user U input the attributes when answering a question and store them in the storage unit 15 or the like.
  • the attributes input at the time of member registration may be diverted after obtaining the consent of user U.
  • the matching unit 115 first extracts candidate users U to be included in the list from the classification result database 152 based on the selected attributes. Then, the matching unit 115 performs matching based on the extracted classification result of the user U (that is, the classified category).
  • the matching unit 115 specifies a category in which a matching applicant is classified, and sets a user U in the same category as the matching applicant's category as a matching partner. Alternatively, the user U in the category that is considered to be compatible with the category of the matching applicant is set as the matching partner.
  • the matching applicant may input his / her own category when making a matching request. For example, when a sales person or the like who is a person who performs a predetermined action matches a matching partner, the category of the matching applicant may be specified in this way. Alternatively, when the matching applicant himself is also one of the users U, the category of the matching applicant may be specified based on the result of the classification process of the classification device 10. For example, when members of a dating agency or the like (each corresponding to user U) perform matching, it is preferable to specify the category of the matching applicant in this way.
  • the matching unit 115 may not only perform matching but also calculate an index value (hereinafter, referred to as “matching appropriate value”) indicating the appropriateness of matching.
  • the matching unit 115 is a matching partner that matches the same category (or a category that is considered to be compatible) with the category of the matching applicant, and is a matching partner that matches in the sub-category category. Increase the ming index value of. Further, the matching unit 115 lowers the matching index value of the matching partner that does not match in the sub-category category but matches in the middle category. Further, the matching unit 115 sets the matching index value of the matching partner that does not match in the minor category and the middle category and matches only in the major category to the lowest.
  • the matching unit 115 summarizes the matching partner determined in this way and the matching index value of each matching partner in a list format, and presents the matching list to the matching applicant.
  • the presentation is realized, for example, by displaying the matching list on the display unit 17 or printing the matching list on a paper medium.
  • the matching unit 115 may transmit information or the like of a matching applicant to the user terminal 20 used by the user U who is the matching partner.
  • the matching unit 115 may further present the recommendation information for the matching applicant to contact the matching partner for each matching partner included in the matching list.
  • the recommendation information includes, for example, a specific keyword (for example, what should be said or should not be said), a contact timing (for example, a timing when a specific keyword should be thrown), etc., based on the attributes of the matching partner.
  • the information should be used to facilitate the relationship with the matching partner.
  • the matching applicant can not only know the matching partner, but also know the value of the matching appropriate value indicating the appropriateness with the matching partner and the recommendation information for contacting the matching partner. Can be done. This not only enables matching based on appropriate classification by classification processing, but is also beneficial for matching applicants for selecting the final matching partner and facilitating the relationship with the matching partner. Information can be given.
  • step S11 the answer acquisition unit 111 acquires the answer of the user U.
  • step S12 the biometric information acquisition unit 112 acquires the biometric information of the user U.
  • step S13 the determination unit 113 determines the state of the user U.
  • step S14 the classification unit 114 executes the classification. This ends this process.
  • the classification process described above not only the classification is performed based on the answer to the question, but also the classification is performed based on the state of the subject at the time of answering the question determined based on the biological information. Therefore, according to the classification system S, it is possible to classify users more appropriately from various viewpoints.
  • step S21 the matching unit 115 receives the attributes of matching candidates from the matching applicant.
  • step S22 the matching unit 115 creates a matching list corresponding to the attributes of the matching candidates received in step S21.
  • step S23 the matching unit 115 presents a matching list. This ends this process.
  • the answer acquisition unit 111 stores the question to the user U in the storage unit 15 or the like, and transmits the question to the user U to the user terminal 20. Then, the user terminal 20 receives this question and presents the question to the user U. In this case, the answer acquisition unit 111 may determine the content of a new question to be asked to the user U based on the result of the classification process once.
  • the user U is classified into a certain category, it may be necessary to classify the user U into another category that is close to this certain category, instead of actually this certain category. Therefore, in such a case, it is assumed that the content of the question newly asked to the user U can be classified into a certain category or another category. Good. In this way, by determining the content of the question to be newly asked to the user U based on the result of the classification process once, the classification can be performed with higher accuracy.
  • the matching unit 115 determines the matching partner based on the classification result of the classification process.
  • the matching partner may be determined based on each information used by the classification unit 114 for performing the classification.
  • the matching partner may be determined by using the user U's answer itself used by the classification unit 114 to perform the classification or the biometric information itself at the time of the user U's answer.
  • the matching unit 115 may select a user U who gives the same answer as the matching applicant or a user U who has the same biological information as the biological information at the time of the matching applicant's answer as the matching partner. ..
  • the matching unit 115 may increase the matching index value of such a user U.
  • the classification unit 114 classifies the user U based on the response of the user U and the state at the time of the response of the user U determined from the biometric information at the time of the response of the user U. Not limited to this, the classification may be performed based on the state of the user U at other times determined from the biometric information at other times other than the time of answering.
  • the classification may be performed based on the state of the user U at the time of experiencing the experience content determined from the biometric information at the time of experiencing the experience content using virtual reality (VR).
  • VR virtual reality
  • the user U wears a device such as a goggle type that provides virtual reality. Then, the user U is made to experience the experience content by the device such as the goggles type.
  • the biometric information of the user U is measured by the biometric information measuring device 30 as in the case of answering the question. Then, based on this biometric information, the determination unit 113 determines the state of the user U.
  • the classification unit 114 can perform classification according to the characteristics of the user U.
  • the biometric information measuring device 30 may be realized by further modifying this modified example and using a device such as a goggles type that provides virtual reality.
  • the biometric information measuring device 30 may be realized by incorporating a sensor into this goggle type device or the like. As a result, the biometric information can be measured without making the user U aware that the sensor is worn.
  • Each device included in the above-described embodiment is not limited to the above-described embodiment, and can be realized by a general electronic device having an information processing function. Further, the series of processes described above can be executed by hardware or software. Further, one functional block may be configured by a single piece of hardware, a single piece of software, or a combination thereof. In other words, the functional configuration shown in FIG. 2 is merely an example and is not particularly limited. That is, it suffices if the classification system S is provided with a function capable of executing the above-mentioned series of processes as a whole, and what kind of functional block is used to realize this function is not particularly limited to the example of FIG.
  • the functional configuration included in the present embodiment can be realized by a processor that executes arithmetic processing
  • the processors that can be used in the present embodiment include various processors such as a single processor, a multi-processor, and a multi-core processor.
  • these various processors are combined with a processor circuit such as an ASIC (Application Specific Integrated Circuit) or FPGA (Field-Programmable Gate Array).
  • ASIC Application Specific Integrated Circuit
  • FPGA Field-Programmable Gate Array
  • the computer may be a computer embedded in dedicated hardware. Further, the computer may be a computer capable of executing various functions by installing various programs, for example, a general-purpose personal computer.
  • the recording medium containing such a program may be provided to the user by being distributed separately from the device main body in order to provide the program to the user, or is provided to the user in a state of being preliminarily incorporated in the device main body. May be good.
  • the storage medium distributed separately from the main body of the apparatus is composed of, for example, a magnetic disk (including a floppy disk), an optical disk, a magneto-optical disk, or the like.
  • the optical disk is composed of, for example, a CD-ROM (Compact Disc-Read Only Memory), a DVD (Digital Versatile Disc), a Blu-ray (registered trademark) Disc (Blu-ray disc), or the like.
  • the magneto-optical disk is composed of MD (Mini Disc) or the like.
  • the recording medium provided to the user in a state of being preliminarily incorporated in the main body of the device is composed of, for example, the ROM 12 of FIG. 2 in which the program is recorded, the hard disk included in the storage unit 15 of FIG.
  • the steps for describing a program recorded on a recording medium are not necessarily processed in chronological order, but also in parallel or individually, even if they are not necessarily processed in chronological order. It also includes the processing to be executed.
  • the term of the system shall mean an overall device composed of a plurality of devices, a plurality of means, and the like.
  • Classification device 20 User terminal 30 Biometric information measuring device 11 CPU 12 ROM 13 RAM 14 Communication unit 15 Storage unit 16 Input unit 17 Display unit 111 Answer information acquisition unit 112 Biometric information acquisition unit 113 Judgment unit 114 Classification unit 115 Matching unit 151 Acquisition information database 152 Classification result database N network S Classification system U User

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Databases & Information Systems (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Business, Economics & Management (AREA)
  • Data Mining & Analysis (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Resources & Organizations (AREA)
  • Strategic Management (AREA)
  • Economics (AREA)
  • Entrepreneurship & Innovation (AREA)
  • Educational Administration (AREA)
  • Game Theory and Decision Science (AREA)
  • Development Economics (AREA)
  • Marketing (AREA)
  • Operations Research (AREA)
  • Quality & Reliability (AREA)
  • Tourism & Hospitality (AREA)
  • General Business, Economics & Management (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

多様な観点から、より適切にユーザを分類する。分類装置10が、回答取得部111と、生体情報取得部112と、判定部113と、分類部114と、を備える。回答取得部111は、対象者に対して行なわれた所定の質問への、前記対象者からの回答を取得する。生体情報取得部112は、前記対象者の生体情報を取得する。判定部113は、生体情報取得部112が取得した生体情報に基づいて、前記対象者の状態を判定する。分類部114は、回答取得部111が取得した回答と、前記判定部113が判定した前記対象者の状態とに基づいて、前記対象者を分類する。

Description

分類装置および分類プログラム
 本発明は、分類装置および分類プログラムに関する。
 近年、ユーザ同士の関わり合いをより円滑にするために、ユーザの特性や嗜好に応じた分類をすることが広く行われている。このような分類の結果は、様々な用途に利用することができる。例えば、いわゆる営業マンが、分類の結果に基づいて、自身と相性のよい顧客を選択し、この相性のよい顧客に効率的にアプローチするようなことができる。
 このようなユーザの分類を行なうための技術の一例が、特許文献1に開示されている。特許文献1に開示の技術では、ユーザに対してアンケート等の所定の質問を行なう。そして、その質問に対するユーザの回答に基づいて、ユーザを分類する。
特開2015-194849号公報
 上述した特許文献1に開示の技術等の従来の技術を利用することにより、ユーザの分類を実現することができる。しかしながら、単に質問の回答に基づいて分類を行なうのみならず、多様な観点から、より適切にユーザを分類することが望まれる。
 本発明は、このような状況に鑑みてなされたものである。そして、その目的は、多様な観点から、より適切にユーザを分類するための、分類システムおよび分類方法を提供することにある。
 本発明に係る分類装置は、対象者に対して行なわれた所定の質問への、前記対象者からの回答を取得する回答取得部と、前記対象者の生体情報を取得する生体情報取得部と、前記生体情報取得部が取得した生体情報に基づいて、前記対象者の状態を判定する判定部と、前記回答取得部が取得した回答と、前記判定部が判定した前記対象者の状態とに基づいて、前記対象者を分類する分類部と、を備える。
 本発明に係る分類プログラムは、対象者に対して行なわれた所定の質問への、前記対象者からの回答を取得する回答取得部と、前記対象者の生体情報を取得する生体情報取得部と、前記生体情報取得部が取得した生体情報に基づいて、前記対象者の状態を判定する判定部と、前記回答取得部が取得した回答と、前記判定部が判定した前記対象者の状態とに基づいて、前記対象者を分類する分類部と、を備える分類装置としてコンピュータを機能させる。
 本発明によれば、多様な観点から、より適切にユーザを分類することができる。
本発明の一実施形態に係る分類システムの全体構成の一例を示すブロック図である。 本発明の一実施形態に係る分類装置の構成の一例を示すブロック図である。 本発明の一実施形態に係る分類装置が更新する、取得情報データベースのデータ構造の一例を示すテーブルである。 本発明の一実施形態に係る分類装置が更新する、分類結果データベースのデータ構造の一例を示すテーブルである。 本発明の一実施形態に係る分類装置が実行する、分類処理の流れを説明するフローチャートである。 本発明の一実施形態に係る分類装置が実行する、マッチング処理の流れを説明するフローチャートである。
 以下、添付の図面を参照して本発明の実施形態の一例について説明する。
 [システム構成]
 図1は、本実施形態に係る分類システムSの全体構成を示すブロック図である。図1に示すように、分類システムSは、分類装置10、ユーザ端末20、および生体情報測定機器30を含む。また、図1には、分類システムSが行う処理の処理対象者となるユーザUを図示する。
 これら分類システムSに含まれる各装置は、図中のネットワークNを介して相互に通信可能に接続される。この各装置の間での通信は、任意の通信方式に準拠して行われてよく、その通信方式は特に限定されない。また、通信接続は、無線接続であっても、有線接続であってもよい。更に、各装置の間での通信は、ネットワークを介することなく装置同士で直接行われてもよい。
 ユーザ端末20および生体情報測定機器30は、例えば、ユーザの自宅や、店舗等に設置される。また、分類装置10は、ユーザ端末20と同じ店舗や、この店舗を運営する事業者のサーバルーム等に設置される。この店舗での業態は特に限定されず、例えば、商品を小売する店舗や、不動産の売買等を仲介する店舗や、あるいは、マッチングサービスを提供する店舗であってよい。このマッチングサービスは、例えば、営業マンと相性のよい顧客とのマッチングや、趣味等の仲間を探すためのマッチングや、結婚相談所等における交際相手を探すマッチング等であってよい。すなわち、分類システムSは、適用する用途を問わず、多様な用途において利用することができる。
 以下では、説明のための一例として、ユーザUは顧客であり、この顧客であるユーザUを分類することを想定する。また、この分類結果に基づいて、営業マンと相性のよい顧客とのマッチングを行なうことを想定する。
 このような構成を有する分類システムSは、対象者(すなわち、ユーザU)に対して行なわれた所定の質問への、対象者からの回答を取得する。また、分類システムSは、対象者の生体情報を取得する。更に、分類システムSは、取得した生体情報に基づいて、対象者の状態を判定する。そして、分類システムSは、取得した回答と、判定した対象者の状態とに基づいて、対象者を分類する。
 このように、分類システムSは、単に質問の回答に基づいて分類を行なうのみならず、生体情報に基づいて判定した質問回答時の対象者の状態にも基づいて分類を行なう。
 そのため、分類システムSによれば、多様な観点から、より適切にユーザを分類することが可能となる。
 次に、分類システムSに含まれる各装置について詳細に説明をする。
 生体情報測定機器30は、質問回答時のユーザUの生体情報を測定する。測定方法として、生体情報測定機器30は、例えば、脳波センサ、視線センサ、加速度センサ、心電センサ、およびドップラーセンサの何れか、またはその組み合わせによりユーザUの生体情報を測定する。
 ここで、脳波センサ、視線センサ、および加速度センサは、応答速度が他のセンサに比べて速いので、瞬時の変化を測定するのに適しているという特徴がある。これに対して、他のセンサでは、10秒から1分程度のデータ収集時間を要する。
 また、ドップラーセンサは、ユーザUの身体に非接触で心拍数、呼吸数、および体動に関する情報を測定することができるという特徴がある。例えば、ドップラーセンサは、呼吸数、吸う時間と吐く時間の比、呼吸時の胸の動きの深さ等を測定することができる。
 これに対して、他のセンサは、測定のためにユーザUの身体に接触している必要がある。ただし、例えば、心電センサは、ドップラーセンサに比べて精度よく心拍変動を測定することができるという特徴がある。
 生体情報測定機器30で用いる生体センサは、これら各生体センサの特徴および測定対象とする生体情報の種類に応じて決定される。
 以下では、生体情報測定機器30は、これらの生体センサを用いてユーザUの生体情報を測定することを想定する。
 例えば、脳波センサを利用する場合、生体情報測定機器30は、ユーザUの額と耳たぶの2箇所で電気的に身体と接触するヘッドホン型の脳波センサを用いて、脳波の変動を測定する。
 また、心電センサを利用する場合、生体情報測定機器30は、ユーザUの両手の親指でそれぞれ一つの電極に触れる、2点接触タイプの心電センサを用いて、ユーザUの生体情報の1つである心拍の変動を測定する。
 更に、視線センサを利用する場合、生体情報測定機器30は、顔表面(例えば、眼鏡の鼻あて付近)に電極を接触させ筋肉を動かした時に発する電気を測定する視線センサを用いて、視線方向や瞬きを推定する。
 更に、加速度センサを利用する場合、生体情報測定機器30は、体幹の何れかに配置された加速度センサを用いて、体の小刻みな運動を観測する。
 なお、上述したように、これらセンサは、単体で用いてもよいし、複数のセンサを組み合わせて用いてもよい。
 生体情報測定機器30は、これらの生体センサにより測定した、脳波の変動および心拍の変動を、時系列に沿って測定時刻と紐付けることによりユーザUの生体情報を生成する。そして、生体情報測定機器30は、生成したユーザUの生体情報を、ユーザUを識別するためのユーザ識別子と共に、分類装置10に対して送信する。このユーザ識別子は、ユーザU毎に固有な(すなわち、ユニークな)識別子であればよく、特に限定されない。また、この送信は、ユーザ端末20を中継して行われてもよい。
 ユーザ端末20は、ユーザUに対して質問を提示する共に、この質問に対するユーザUの回答を受け付ける。ユーザ端末20は、例えば、パーソナルコンピュータや、タブレット型の端末や、スマートフォン等の電子機器により実現することができる。
 ユーザ端末20は、分類装置10からユーザUに対して行なうべき質問を受信し、この質問をユーザUに対して提示する。例えば、ディスプレイやタッチパネル等に質問内容を表示することにより提示する。
 また、ユーザ端末20は、この質問に対するユーザUの回答を受け付ける。例えば、キーボードやマウスあるいはタッチパネル等を用いたユーザUの操作により回答を受け付ける。そして、ユーザ端末20は、受け付けたユーザUの回答を、ユーザUを識別するためのユーザ識別子と共に、分類装置10に対して送信する。
 なお、ユーザ識別子は、生体情報測定機器30が送信したユーザ識別子と同じものを利用する。また、この送信は、生体情報測定機器30を中継して行われてもよい。
 分類装置10は、ユーザ端末20から送信されたユーザUの回答を、受信することによって取得する。また、分類装置10は、生体情報測定機器30から送信されたユーザUの生体情報を、受信することによって取得する。更に、分類装置10は、取得したユーザUの生体情報に基づいて判定を行うことにより、質問回答時のユーザUの状態を特定する。
 そして、分類装置10は、取得した回答と、判定した対象者の状態とに基づいて、対象者を分類する。
 加えて、分類装置10は、ユーザUとのマッチングを希望するマッチング希望者(ここでは、上述したように、顧客であるユーザUとのマッチングを希望する営業マン)の要求に応じて、分類結果に基づいてマッチングを行なう。そして、分類装置10は、マッチング結果を、マッチング希望者に対して、例えば、リスト形式で提示する。
 分類装置10は、例えば、サーバ装置や、パーソナルコンピュータ等の電子機器により実現することができる。
 以上説明したように各装置が協働することにより、分類システムSは、適切な分類を行なうシステムであって、且つ、適切な分類に基づいたマッチングを可能とするシステムとして機能する。
 以上、分類システムSに含まれる各装置について説明をした。なお、図中では、各装置を1台ずつ図示しているがこれは例示に過ぎず、分類システムSには、これら各装置が任意の台数含まれていてよい。例えば、ユーザ端末20および生体情報測定機器30の組が、複数のユーザUに対応して複数組設けられていてもよい。そして、例えば、1台の分類装置10により、これら複数組についての各処理をまとめて行うようにしてもよい。
 また、例えば、ユーザ端末20と生体情報測定機器30とが別体の装置として実現されるのではなく、一体型の装置として実現されてもよい。また、この場合に、更に分類装置10、ユーザ端末20および生体情報測定機器30が、一体型の装置として実現されてもよい。
 [分類装置の構成]
 次に、分類装置10の構成について、図2のブロック図を参照して説明をする。図2に示すように、分類装置10は、CPU(Central Processing Unit)11と、ROM(Read Only Memory)12と、RAM(Random Access Memory)13と、通信部14と、記憶部15と、入力部16と、表示部17と、を備えている。これら各部は、信号線によりバス接続されており、相互に信号を送受する。
 CPU11は、ROM12に記録されているプログラム、または、記憶部15からRAM13にロードされたプログラムに従って各種の処理を実行する。
 RAM13には、CPU11が各種の処理を実行する上において必要なデータ等も適宜記憶される。
 通信部14は、CPU11が、他の装置(例えば、ユーザ端末20や生体情報測定機器30)との間で通信を行うための通信制御を行う。
 記憶部15は、DRAM(Dynamic Random Access Memory)等の半導体メモリで構成され、各種データを記憶する。
 入力部16は、各種ボタンおよびタッチパネル、またはマウスおよびキーボード等の外部入力装置で構成され、ユーザの指示操作に応じて各種情報を入力する。
 表示部17は、ディスプレイ等で構成され、CPU11が出力する画像データに対応する画像を表示する。
 分類装置10では、これら各部が協働することにより、「分類処理」と「マッチング処理」とを行なう。
 ここで、分類処理とは、分類装置10が、ユーザUの回答や、ユーザUの生体情報から判定したユーザUの状態に基づいた分類を行なうことにより、多様な観点から、より適切にユーザを分類する一連の処理である。
 また、マッチング処理とは、分類装置10が、分類処理による適切な分類結果に基づいてマッチングを行い、マッチング希望者に対してマッチング結果を提示する一連の処理である。
 これら各処理が実行される場合、図2に示すように、CPU11において、回答取得部111と、生体情報取得部112と、判定部113と、分類部114と、マッチング部115と、が機能する。
 また、記憶部15の一領域には、取得情報データベース151と、分類結果データベース152と、が記憶される。
 以下で特に言及しない場合も含め、これら機能ブロック間では、各処理を実現するために必要なデータを、適切なタイミングで適宜送受信する。
 回答取得部111は、ユーザ端末20から送信されたユーザUの回答を、受信することによって取得する。そして、回答取得部111は、取得したユーザUの回答を、取得情報データベース151に格納する。また、その前提として、回答取得部111は、ユーザUへの質問を記憶部15等に記憶しておき、ユーザ端末20に対してユーザUへの質問を送信する。
 生体情報取得部112は、生体情報測定機器30から送信されたユーザUの生体情報を、受信することによって取得する。そして、生体情報取得部112は、取得したユーザUの生体情報を、取得情報データベース151に格納する。
 ここで、取得情報データベース151は、分類装置10が分類処理を行うために用いる各種の情報が格納されたデータベースである。取得情報データベース151の具体的なデータ構造の一例について、図3を参照して説明する。
 図3に示すように、取得情報データベース151には、ユーザ識別子に各種の情報が紐付いて、1つのレコードとして格納される。例えば、連続したn個(nは、任意の自然数)の質問を含む1セットの質問群に対応する情報が、1つのレコードとして格納される。
 また、同一のユーザUについて、複数のレコードが格納される場合もある。例えば、同一のユーザUについて、質問の内容がそれぞれ異なる複数セットの質問群を用いて質問をした場合には、各セットの質問群に対応する情報それぞれが、複数のレコードとして格納される。あるいは、同一のユーザUについて、質問を行なう状況(例えば、質問を行なう場所や時間等)を異ならせて、複数回、同一の質問群を用いて質問をした場合には、各回に対応する情報それぞれが、複数のレコードとして格納される。
 各レコードは、カラムとして、例えば、「ユーザ識別子」、「計測日時」、「第1の質問と回答」から「第nの質問と回答」まで、「第1の生体情報」から「第nの生体情報」までを含む。これらカラムそれぞれに対応する情報の具体的な内容について説明をする。
 「ユーザ識別子」は、各レコードに対応するユーザUを識別するための識別子である。上述したように、ユーザ識別子は、各ユーザUそれぞれについての固有の識別子であればよく、任意の情報であってよい。例えば、所定の法則に基づいて割り当てられるID(Identifier)をユーザ識別子とするとよい。
 「質問日時」は、そのレコードに対応する質問が行われた日時を示す情報である。例えば、「質問日時」は、連続したn個の質問を含む1セットの質問群による質問(およびこれに伴う回答や生体情報の取得)が開始されてから、終了するまでの時刻の情報である。
 「第1の質問と回答」から「第nの質問と回答」までは、ユーザ端末20により行われた質問と、ユーザ端末20により受け付けたその回答の組である。質問の内容および回答方法は特に限定されず、本実施形態を適用する用途に応じて様々なものを選択することができる。例えば、質問はユーザUの特性や嗜好を把握するためのアンケートであり、回答方法は予め用意されている選択肢からユーザUが選択するものであってもよい。
 「第1の生体情報」から「第nの生体情報」までは、生体情報測定機器30が測定した生体情報であり、質問に対応付けて格納される。すなわち、第1の質問と、それに対する回答が行われた際に測定された生体情報は、第1の生体情報となる。なお、格納される背板情報は、上述したように、例えば、「脳波」、「心拍数」、「呼吸数」、および「呼吸深度」等である。
 このような取得情報データベース151は、ユーザUに対する質問と、ユーザUによるその回答が行われる都度、回答取得部111および生体情報取得部112により更新される。
 判定部113は、生体情報取得部112が取得情報データベース151に格納したユーザUの生体情報に基づいた判定を行うことにより、質問回答時のユーザUの状態を特定する。状態としては、例えば、快適性、感動、喜怒哀楽、および気分等であって、分類を行なう目的に適したものを判定する。
 例えば、ユーザUの生体情報として得られた脳波に基づいて判定を行なう場合、脳波をフーリエ変換して周波数分解する。そして、周波数分解した結果と、以下の<周波数に基づく判定基準>のような基準に基づいて、ユーザUの状態を判定することができる。
 <周波数に基づく判定基準>
・Theta(4-7Hz)
 θ波の比率が高い時は、深いリラックス状態、浅い睡眠状態
・Alpha Low(8-9Hz):外界に意識が向いていない状態
 α波の比率が高い時は、心身ともに落ち着いた状態
・Alpha High(10-12Hz):オープンアウェアネス状態、幅広い状況変化に対応できる状態
・Beta Low(13-17Hz):問題解決状態
 β波の比率が高い時は、活発な思考や集中状態。緊張した時や多少のストレスがある状態
・Beta High(18-30Hz):感情の強さに関係(ポジティブ、ネガティブの両方含む)
・Gamma Low(31-40Hz):
 γ波の比率が高い時は、知覚や意識との関連が強く、特に高次精神活動(複数の事柄の関連付け)の状態。強い不安を感じた状態、興奮している状態(ネガティブとは限らない)
 なお上記<周波数に基づく判定基準>は、判定を行なうための一例であり、他の基準に基づいて、あるいは他の基準を組み合わせて、判定を行ってもよい。
 例えば、心拍数に基づいて副交感神経が優勢であるか否かを判定する。ここで、心拍数の周期変動の周波数成分をパワースペクトル解析した時の高周波数帯の周波数成分(例えば、0.20Hzから、0.15Hzまで)が、他の周波数成分に比べて多い場合に、副交感神経が優勢と判定できる。そして、脳波の中でもα波が多く出ていると共に、副交感神経が優勢な状態を、快適性が高い状態と判定するようにしてもよい。
 他にも、例えば、視線センサにより推定した視線方向や瞬きに基づいて判定を行なう場合、視線方向や瞬きに基づいて、ユーザUの集中の度合いや眠さの度合いなどの状態を判定することができる。
 他にも、例えば、加速度センサにより観測した体の小刻みな運動に基づいて判定を行なう場合、体の小刻みな運動に基づいて、ユーザUの緊張や不安などの状態を判定することができる。
 分類部114は、回答取得部111が取得情報データベース151に格納したユーザUの回答と、判定部113により判定された質問回答時のユーザUの状態とに基づいて、ユーザUを分類する。そして、分類部114は、分類結果を、分類結果データベース152に格納する。
 分類部114の分類の前提として、まず分類結果データベース152について説明する。ここで分類結果データベース152は、分類部114による分類結果が格納されたデータベースである。分類結果データベース152の具体的なデータ構造の一例について、図4を参照して説明する。
 図4に示すように、分類結果データベース152には、ユーザUを分類するためのカテゴリの一例として、「大分類」、「中分類」、および「小分類」の3つの分類それぞれ対応するカテゴリが設けられている。ここで、分類において、ユーザUは、先ず大分類のカテゴリに分類される。また、ユーザUは大分類を更に細分化した分類である中分類のカテゴリにも分類される。更に、ユーザUは中分類を更に細分化した分類である小分類のカテゴリにも分類される。このように、ユーザUを分類するカテゴリは、階層をたどる毎により細分化されるように階層的に設けられる。
 各分類は、カラムとして、例えば、「カテゴリ識別子」および「ユーザ識別子」を含む。これらカラムそれぞれに対応する情報の具体的な内容について説明をする。
 「カテゴリ識別子」は、各カテゴリを識別するための識別子である。カテゴリ識別子は、ユーザ識別子と同様に、各カテゴリそれぞれについての固有の識別子であればよく、任意の情報であってよい。例えば、カテゴリの特徴を示す名称をカテゴリ識別子とするとよい。
 「ユーザ識別子」は、分類部114により、各分類に対して分類されたユーザUの識別子である。ユーザ識別子として用いられる識別子自体は、取得情報データベース151においてユーザ識別子として用いられる識別子と同じものである。
 このような分類結果データベース152は、ユーザUに対する質問と、ユーザUによるその回答が行われる都度、分類部114により更新される。
 具体的な分類方法として、まず、分類部114は、判定部113が判定した質問回答時のユーザUの状態に基づいて、対応する質問についてのユーザUの回答に重み付けを行なう。例えば、第1の生体情報に基づいて判定された第1の質問回答時のユーザUの状態に基づいて、第1の質問の回答に重み付けを行なう。
 例えば、判定された質問回答時のユーザUの状態が、深いリラックス状態や心身ともに落ち着いた状態である場合、ユーザUは、迷いなく回答していたり、本心から回答していたり、過去の事実に基づく事実を回答していたりすると考えられる。すなわち、この回答の信憑性が高いと考えられる。そこで、分類部114は、このような場合には、この回答が分類に与える影響が大きくなるように重み付けを重くする。
 これに対して、例えば、判定された質問回答時のユーザUの状態が、リラックス状態にない状態や緊張した時や多少のストレスがある状態である場合、ユーザUは、迷いを持ちながら回答していたり、本心から回答していなかったり、架空のことを想像して回答していたり、あるいは、嘘の回答をしていたりすると考えられる。すなわち、この回答の信憑性が低いと考えられる。そこで、分類部114は、このような場合には、この回答が分類に与える影響が小さくなるように重み付けを軽くする。
 分類部114は、このようにして重みを与えた回答に基づいて、重みが重い回答の影響が大きくなるようにして、ユーザUを大分類、中分類、および小分類のそれぞれのカテゴリに分類する。
 なお、分類部114は、連続したn個の質問を含む1セットの質問群に対応する情報に基づいて分類を行なった後に、同じユーザUについて別途の質問群に対応する情報が追加された場合は、そのユーザUについての今までの全ての質問群についての情報に基づいて、再度分類を行なう。この場合に、直近の質問群についての情報のほうがより影響が大きくなるように、直近の質問群について重み付けを重くするようにしてもよい。
 このように、分類装置10では、単に質問の回答に基づいて分類を行なうのみならず、生体情報に基づいて判定した質問回答時の対象者の状態にも基づいて分類を行なう。そのため、分類装置10によれば、多様な観点から、より適切にユーザを分類することが可能となる。
 マッチング部115は、ユーザUとのマッチングを希望するマッチング希望者(ここでは、上述したように顧客であるユーザUとのマッチングを希望する営業マン)の要求に応じて、分類結果に基づいてマッチングを行なう。そして、分類装置10は、マッチング結果を、マッチング希望者に対して、例えば、リスト形式で提示する。以下では、説明のための一例として、マッチング希望者にマッチングしたユーザU(以下、「マッチング相手」と称する。)が複数含まれるリスト形式で提示する場合を想定する。
 マッチング部115は、まず、入力部16による操作や、通信部14を介した他の装置(例えば、何れかのユーザ端末20)からの通信により、マッチング希望者からのマッチング要求を受け付ける。この場合に、マッチング部115は、例えば、マッチング希望者から、マッチング相手とする候補の属性の選択を受け付ける。属性は、例えば、マッチング相手とする候補の性別や年令等であってもよいし、マッチング相手とする候補の分類を直接指定するものでもよい。
 マッチング部115は、この選択された属性に基づいて、リストに含ませるマッチング相手の候補を決定する。この場合に、マッチング部115は、選択された属性そのものに該当するマッチング相手のみをリストに含ませるのではなく、選択された属性に幅を持たせ、この幅を持たせた属性に該当するマッチング相手もリストに含ませるようにしてもよい。例えば、選択された属性に類似する属性も含むように幅を持たせ、この幅を持たせた属性に該当するマッチング相手もリストに含ませるようにしてもよい。
 なお、各ユーザUの属性については、例えば、質問回答時等にユーザUに属性を入力させ、記憶部15等に記憶しておくようにするとよい。あるいは、店舗等において会員登録等を行なう場合に、ユーザUに了解を得た上で、この会員登録時に入力された属性を流用するようにしてもよい。
 マッチング部115は、まずこの選択された属性に基づいて、リストに含ませる候補のユーザUを、分類結果データベース152から抽出する。そして、マッチング部115は、抽出したユーザUの分類結果(すなわち、分類されているカテゴリ)に基づいて、マッチングを行なう。
 マッチングの方法として、例えば、マッチング部115は、マッチング希望者が分類されるカテゴリを特定し、このマッチング希望者のカテゴリと同一のカテゴリのユーザUをマッチング相手とする。あるいは、このマッチング希望者のカテゴリと相性がよいとされているカテゴリのユーザUをマッチング相手とする。
 マッチング希望者のカテゴリを特定する方法としては、マッチング希望者がマッチング要求を行なう際に、自身のカテゴリを入力してもよい。例えば、マッチング相手に、所定の働き掛けを行う人物である営業マン等がマッチングを行なうような場合に、このようにして、マッチング希望者のカテゴリを特定するとよい。
 あるいは、マッチング希望者自身もユーザUの1人である場合には、分類装置10の分類処理の結果に基づいて、マッチング希望者のカテゴリを特定するようにしてもよい。例えば、結婚相談所等の会員同士(それぞれが、ユーザUに相当)がマッチングを行なうような場合に、このようにして、マッチング希望者のカテゴリを特定するとよい。
 また、マッチング部115は、単にマッチングをするのみならず、マッチングの適正さを示す指標値(以下、「マッチング適正値」と称する。)も算出するようにするとよい。この場合、例えば、マッチング部115は、マッチング希望者のカテゴリと同一のカテゴリ(又は相性がよいとされているカテゴリ)に合致するマッチング相手であって、小分類のカテゴリで合致しているマッチング相手のマッング指標値を高くする。また、マッチング部115は、小分類のカテゴリでは合致していないが中分類のカテゴリで合致しているマッチング相手のマッチング指標値をこれより低くする。更に、マッチング部115は、小分類および中分類のカテゴリでは合致しておらず、大分類のカテゴリのみで合致しているマッチング相手のマッチング指標値をもっとも低くする。
 そして、マッチング部115は、このようにして決定したマッチング相手と、各マッチング相手のマッチング指標値とをリスト形式にまとめ、マッチングリストとして、マッチング希望者に対して提示する。提示は、例えば、表示部17へのマッチングリストの表示や、紙媒体へマッチングリストを印刷することにより実現する。
 なお、マッチング部115は、マッチング相手となったユーザUが使用するユーザ端末20に対して、マッチング希望者の情報等を送信するようにしてもよい。
 また、この場合に、マッチング部115は、マッチングリストに含ませたマッチング相手それぞれ毎に、マッチング希望者がマッチング相手と接するためのリコメンド情報を更に提示してもよい。リコメンド情報としては、例えば、マッチング相手の属性に基づいた、特定キーワード(例えば、言った方がよいこと、あるいは言わない方がよいこと)や、接するタイミング(例えば、特定キーワードを投げかけるべきタイミング)等の、マッチング相手との関わり合いをより円滑にするための情報とするとよい。
 マッチング希望者は、これら提示された情報を参照することにより、マッチング相手が分かるのみならず、マッチング相手との適正さを示すマッチング適正値の値や、マッチング相手と接するためのリコメンド情報も知ることができる。これにより、分類処理による適切な分類に基づいたマッチングを可能とするのみならず、マッチング希望者にとって、最終的なマッチング相手を選択したり、マッチング相手との関わり合いを円滑にしたりするための有益な情報を与えることが可能となる。
 [分類処理]
 次に、図5のフローチャートを参照して、分類装置10が実行する分類処理の流れについて説明する。分類処理は、ユーザUへの質問の開始に伴い実行される。
 ステップS11において、回答取得部111は、ユーザUの回答を取得する。
 ステップS12において、生体情報取得部112は、ユーザUの生体情報を取得する。
 ステップS13において、判定部113は、ユーザUの状態を判定する。
 ステップS14において、分類部114は、分類を実行する。これにより、本処理は終了する。
 以上説明した、分類処理によれば、単に質問の回答に基づいて分類を行なうのみならず、生体情報に基づいて判定した質問回答時の対象者の状態にも基づいて分類を行なう。
 そのため、分類システムSによれば、多様な観点から、より適切にユーザを分類することが可能となる。
 [マッチング処理]
 次に、図6のフローチャートを参照して、分類装置10が実行するマッチング処理の流れについて説明する。マッチング処理は、マッチング希望者によるマッチング要求操作に伴い実行される。
 ステップS21において、マッチング部115は、マッチング希望者からマッチング候補の属性を受け付ける。
 ステップS22において、マッチング部115は、ステップS21にて受け付けたマッチング候補の属性に対応するマッチングリストを作成する。
 ステップS23において、マッチング部115は、マッチングリストを提示する。これにより、本処理は終了する。
 以上説明した、分類処理による適切な分類に基づいたマッチングを可能とするのみならず、マッチング希望者にとって有益な情報を与えることが可能となる。
 [変形例]
 以上、本発明の実施形態について説明したが、この実施形態は、例示に過ぎず、本発明の技術的範囲を限定するものではない。本発明はその他の様々な実施形態を取ることが可能であり、さらに、本発明の要旨を逸脱しない範囲で、省略および置換等種々の変更を行うことができる。これら実施形態およびその変形は、本明細書等に記載された発明の範囲および要旨に含まれると共に、特許請求の範囲に記載された発明とその均等の範囲に含まれる。
 例えば、本発明の実施形態を以下の変形例のように変形してもよい。
 <第1の変形例>
 上述の実施形態において、回答取得部111は、ユーザUへの質問を記憶部15等に記憶しておき、ユーザ端末20に対してユーザUへの質問を送信していた。そして、ユーザ端末20は、この質問を受信し、ユーザUに質問を提示していた。この場合に、回答取得部111は、一度分類処理を行った結果に基づいて、ユーザUに対して新たに行なう質問の内容を決定するようにしてもよい。
 例えば、ユーザUが或るカテゴリに分類された場合に、実際にはこの或るカテゴリではなく、この或るカテゴリと近似する他のカテゴリに分類するべき可能性がある。そこで、このような場合には、ユーザUに対して新たに行なう質問の内容を、この或るカテゴリに分類すべきか、それとも他のカテゴリに分類するべきかを切り分けることができるような内容とするとよい。
 このように、一度分類処理を行った結果に基づいて、ユーザUに対して新たに行なう質問の内容を決定することにより、より精度高く分類を行なうことができる。
 <第2の変形例>
 上述の実施形態において、マッチング部115は、分類処理による分類結果に基づいて、マッチング相手を決定していた。これに限らず、分類部114が分類を行うために用いた各情報にも基づいて、マッチング相手を決定するようにしてもよい。例えば、分類部114が分類を行なうために用いたユーザUの回答そのものや、ユーザUの回答時の生体情報そのものも用いてマッチング相手を決定するようにしてもよい。例えば、マッチング部115は、マッチング希望者と同じ回答をしたユーザUや、マッチング希望者の回答時の生体情報と同じような生体情報となったユーザUをマッチング相手として選択するようにしてもよい。あるいは、マッチング部115は、このようなユーザUのマッチング指標値を高くするようにしてもよい。
 <第3の変形例>
 上述の実施形態において、分類部114は、ユーザUの回答や、ユーザUの回答時の生体情報から判定されたユーザUの回答時の状態に基づいて、分類を行っていた。これに限らず、回答時以外の、他の時の生体情報から判定された他の時のユーザUの状態にも基づいて、分類を行なうようにしてもよい。
 例えば、仮想現実(VR:Virtual Reality)を用いた体験用コンテンツの体験時の生体情報から判定された体験用コンテンツ体験時のユーザUの状態にも基づいて、分類を行なうようにしてもよい。
 この場合、例えば、仮想現実を提供するゴーグル型等の装置を、ユーザUが装着する。そして、このゴーグル型等の装置により、ユーザUに体験用コンテンツを体験させる。また、質問回答時と同様に、生体情報測定機器30により、ユーザUの生体情報を測定する。そして、この生体情報に基づいて、判定部113がユーザUの状態を判定する。
 このような、非現実的な状況となった場合の、ユーザUの状態にも基づくことにより、ユーザU自身が自覚していなかったような、ユーザUの特性を明らかにすることができる。そのため、分類部114は、ユーザUの特性に、より応じた分類を行なうことが可能となる。
 なお、本変形例を更に変形し、仮想現実を提供するゴーグル型等の装置により生体情報測定機器30を実現してもよい。例えば、このゴーグル型等の装置にセンサを組み込むことにより生体情報測定機器30を実現してもよい。これにより、ユーザUに対してセンサを装着していることを意識させることなく、生体情報を測定することができる。
 [ハードウェアおよびソフトウェア等による実現]
 上述の実施形態に含まれる各装置は、上述の実施形態の態様に限定されず、情報処理機能を有する電子機器一般で実現することができる。
 また、上述した一連の処理は、ハードウェアにより実行させることもできるし、ソフトウェアにより実行させることもできる。また、1つの機能ブロックは、ハードウェア単体で構成してもよいし、ソフトウェア単体で構成してもよいし、それらの組み合わせで構成してもよい。
 換言すると、図2に図示した機能的構成は例示に過ぎず、特に限定されない。即ち、上述した一連の処理を全体として実行できる機能が分類システムSに備えられていれば足り、この機能を実現するためにどのような機能ブロックを用いるのかは特に図2の例に限定されない。
 例えば、本実施形態に含まれる機能的構成を、演算処理を実行するプロセッサによって実現することができ、本実施形態に用いることが可能なプロセッサには、シングルプロセッサ、マルチプロセッサおよびマルチコアプロセッサ等の各種処理装置単体によって構成されるものの他、これら各種処理装置と、ASIC(Application Specific Integrated Circuit)またはFPGA(Field-Programmable Gate Array)等の処理回路とが組み合わせられたものを含む。
 一連の処理をソフトウェアにより実行させる場合には、そのソフトウェアを構成するプログラムが、コンピュータ等にネットワークまたは記録媒体からインストールされる。
 コンピュータは、専用のハードウェアに組み込まれているコンピュータであってもよい。また、コンピュータは、各種のプログラムをインストールすることで、各種の機能を実行することが可能なコンピュータ、例えば汎用のパーソナルコンピュータであってもよい。
 このようなプログラムを含む記録媒体は、ユーザにプログラムを提供するために装置本体とは別に配布されることによりユーザに提供されてもよく、装置本体に予め組み込まれた状態でユーザに提供されてもよい。装置本体とは別に配布される記憶媒体は、例えば、磁気ディスク(フロッピディスクを含む)、光ディスク、または光磁気ディスク等により構成される。光ディスクは、例えば、CD-ROM(Compact Disc-Read Only Memory),DVD(Digital Versatile Disc),Blu-ray(登録商標) Disc(ブルーレイディスク)等により構成される。光磁気ディスクは、MD(Mini Disc)等により構成される。また、装置本体に予め組み込まれた状態でユーザに提供される記録媒体は、例えば、プログラムが記録されている図2のROM12、または図2の記憶部15に含まれるハードディスク等で構成される。
 なお、本明細書において、記録媒体に記録されるプログラムを記述するステップは、その順序に沿って時系列的に行われる処理はもちろん、必ずしも時系列的に処理されなくとも、並列的あるいは個別に実行される処理をも含むものである。
 また、本明細書において、システムの用語は、複数の装置および複数の手段等より構成される全体的な装置を意味するものとする。
 10 分類装置
 20 ユーザ端末
 30 生体情報測定機器
 11 CPU
 12 ROM
 13 RAM
 14 通信部
 15 記憶部
 16 入力部
 17 表示部
 111 回答情報取得部
 112 生体情報取得部
 113 判定部
 114 分類部
 115 マッチング部
 151 取得情報データベース
 152 分類結果データベース
 N ネットワーク
 S 分類システム
 U ユーザ

Claims (17)

  1.  対象者に対して行なわれた所定の質問への、前記対象者からの回答を取得する回答取得部と、
     前記対象者の生体情報を取得する生体情報取得部と、
     前記生体情報取得部が取得した生体情報に基づいて、前記対象者の状態を判定する判定部と、
     前記回答取得部が取得した回答と、前記判定部が判定した前記対象者の状態とに基づいて、前記対象者を分類する分類部と、
     を備える分類装置。
  2.  前記所定の質問への回答は、前記判定部が判定した前記対象者の状態に基づき、分類に用いる情報としての重み付けがなされる、
     請求項1に記載の分類装置。
  3.  前記生体情報取得部が取得する生体情報は、前記対象者による前記所定の質問への回答時に、前記対象者から測定した生体情報である、
     請求項1又は2に記載の分類装置。
  4.  前記生体情報取得部が取得する生体情報は、前記対象者による体験用コンテンツの体験時に、前記対象者から測定した生体情報である、
     請求項1乃至3の何れか1項に記載の分類装置。
  5.  前記体験用コンテンツは、仮想現実を提供する装置を前記対象者が装着することにより体験可能なコンテンツであり、
     前記生体情報取得部は、前記仮想現実を提供する装置が測定した生体情報を取得する、
     請求項4に記載の分類装置。
  6.  前記分類部は、更に前記体験用コンテンツの内容にも基づいて、前記対象者を分類する、
     請求項4又は5に記載の分類装置。
  7.  前記回答取得部は、前記分類部の分類結果に基づいて、前記対象者に対して新たに行なわれる前記所定の質問の内容を決定する、
     請求項1乃至6の何れか1項に記載の分類装置。
  8.  前記分類部の分類結果に基づいて、前記対象者とマッチングするマッチング相手を決定するマッチング部を更に備える、
     請求項1乃至7の何れか1項に記載の分類装置。
  9.  前記マッチング部は、更に前記分類部が分類を行うために用いた各情報にも基づいて、前記マッチング相手を決定する、
     請求項8に記載の分類装置。
  10.  前記マッチング相手は、前記対象者を顧客として、前記対象者に対して所定の働き掛けを行う人物である、
     請求項8又は9に記載の分類装置。
  11.  前記マッチング相手は、前記対象者同士である、
     請求項8又は9に記載の分類装置。
  12.  前記マッチング部は、前記対象者と同一のカテゴリに分類される人物を、前記マッチング相手として決定する、
     請求項8乃至11の何れか1項に記載の分類装置。
  13.  前記対象者を分類するカテゴリは、階層をたどる毎により細分化されるように階層的に設けられ、
     前記マッチング部は、より細分化された階層で同一のカテゴリに分類される人物を、よりマッチング適正が高いマッチング相手と決定する、
     請求項12に記載の分類装置。
  14.  前記マッチング部は、前記マッチング相手それぞれとのマッチング適正の指標値を算出し、該算出した指標値をリストとして前記対象者に対して提示する、
     請求項8乃至13の何れか1項に記載の分類装置。
  15.  前記マッチング部は、前記リストに含ませたマッチング相手それぞれ毎に、前記対象者が前記マッチング相手と接するためのリコメンド情報を更に前記対象者に対して提示する、
     請求項14に記載の分類装置。
  16.  前記マッチング部は、前記対象者からマッチング相手とする候補の属性の選択を受け付け、該選択された属性に基づいて、前記リストに含ませるマッチング相手を決定する
     請求項14又は15に記載の分類装置。
  17.  対象者に対して行なわれた所定の質問への、前記対象者からの回答を取得する回答取得部と、
     前記対象者の生体情報を取得する生体情報取得部と、
     前記生体情報取得部が取得した生体情報に基づいて、前記対象者の状態を判定する判定部と、
     前記回答取得部が取得した回答と、前記判定部が判定した前記対象者の状態とに基づいて、前記対象者を分類する分類部と、
     を備える分類装置としてコンピュータを機能させる分類プログラム。
PCT/JP2020/008435 2019-03-29 2020-02-28 分類装置および分類プログラム WO2020202958A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2021511257A JPWO2020202958A1 (ja) 2019-03-29 2020-02-28
CN202080025573.3A CN113646791A (zh) 2019-03-29 2020-02-28 分类装置以及分类程序
US17/486,705 US20220012286A1 (en) 2019-03-29 2021-09-27 Classification device and classification program

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2019-066267 2019-03-29
JP2019066267 2019-03-29

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US17/486,705 Continuation US20220012286A1 (en) 2019-03-29 2021-09-27 Classification device and classification program

Publications (1)

Publication Number Publication Date
WO2020202958A1 true WO2020202958A1 (ja) 2020-10-08

Family

ID=72668616

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2020/008435 WO2020202958A1 (ja) 2019-03-29 2020-02-28 分類装置および分類プログラム

Country Status (4)

Country Link
US (1) US20220012286A1 (ja)
JP (1) JPWO2020202958A1 (ja)
CN (1) CN113646791A (ja)
WO (1) WO2020202958A1 (ja)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003030306A (ja) * 2001-07-16 2003-01-31 Kankyoo Engineering Kk 好相性会員紹介方法と装置
JP2013218638A (ja) * 2012-04-12 2013-10-24 Nippon Telegr & Teleph Corp <Ntt> コンテンツ配信システムおよびリコメンド方法

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014085908A1 (en) * 2012-12-05 2014-06-12 Jonathan Michael Lee System and method for finding and prioritizing content based on user specific interest profiles
US10171858B2 (en) * 2017-03-02 2019-01-01 Adobe Systems Incorporated Utilizing biometric data to enhance virtual reality content and user response
JP6961960B2 (ja) * 2017-03-13 2021-11-05 ソニーグループ株式会社 情報処理装置および情報処理方法
US10977674B2 (en) * 2017-04-28 2021-04-13 Qualtrics, Llc Conducting digital surveys that collect and convert biometric data into survey respondent characteristics
US10838967B2 (en) * 2017-06-08 2020-11-17 Microsoft Technology Licensing, Llc Emotional intelligence for a conversational chatbot

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003030306A (ja) * 2001-07-16 2003-01-31 Kankyoo Engineering Kk 好相性会員紹介方法と装置
JP2013218638A (ja) * 2012-04-12 2013-10-24 Nippon Telegr & Teleph Corp <Ntt> コンテンツ配信システムおよびリコメンド方法

Also Published As

Publication number Publication date
CN113646791A (zh) 2021-11-12
JPWO2020202958A1 (ja) 2020-10-08
US20220012286A1 (en) 2022-01-13

Similar Documents

Publication Publication Date Title
US11839473B2 (en) Systems and methods for estimating and predicting emotional states and affects and providing real time feedback
Adão Martins et al. Fatigue monitoring through wearables: a state-of-the-art review
US9955902B2 (en) Notifying a user about a cause of emotional imbalance
Carneiro et al. New methods for stress assessment and monitoring at the workplace
Hopkins et al. Electrodermal measurement: Particularly effective for forecasting message influence on sales appeal
Anusha et al. Physiological signal based work stress detection using unobtrusive sensors
Fritz et al. Leveraging biometric data to boost software developer productivity
US20210248656A1 (en) Method and system for an interface for personalization or recommendation of products
Laverdière et al. Psychotherapists’ professional quality of life.
US11986300B2 (en) Systems and methods for estimating and predicting emotional states and affects and providing real time feedback
de Arriba-Pérez et al. Study of stress detection and proposal of stress-related features using commercial-off-the-shelf wrist wearables
Ding et al. An exploratory study using electroencephalography (EEG) to measure the smartphone user experience in the short term
Booth et al. Toward robust stress prediction in the age of wearables: Modeling perceived stress in a longitudinal study with information workers
Zhang et al. Emotional experiences of service robots’ anthropomorphic appearance: a multimodal measurement method
CA3189350A1 (en) Method and system for an interface for personalization or recommendation of products
US20220207060A1 (en) Information processing device and information processing program
Shvil et al. The Experienced Self and Other Scale: A technique for assaying the experience of one’s self in relation to the other
WO2020202958A1 (ja) 分類装置および分類プログラム
Drew et al. There are no short-term longitudinal associations among interoceptive accuracy, external body orientation, and body image dissatisfaction
JP7257381B2 (ja) 判定システムおよび判定方法
Smets Towards large-scale physiological stress detection in an ambulant environment
Dourou et al. IoT-enabled analysis of subjective sound quality perception based on out-of-lab physiological measurements
Onim et al. A review of context-aware machine learning for stress detection
Ekiz Stress recognition in everyday life
WO2024090351A1 (ja) 情報処理装置、情報処理方法及びプログラム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 20783716

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2021511257

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 20783716

Country of ref document: EP

Kind code of ref document: A1