WO2021241373A1 - イベント情報評価装置、生体情報抽出システム、イベント情報評価システムおよび生体情報抽出装置 - Google Patents

イベント情報評価装置、生体情報抽出システム、イベント情報評価システムおよび生体情報抽出装置 Download PDF

Info

Publication number
WO2021241373A1
WO2021241373A1 PCT/JP2021/019076 JP2021019076W WO2021241373A1 WO 2021241373 A1 WO2021241373 A1 WO 2021241373A1 JP 2021019076 W JP2021019076 W JP 2021019076W WO 2021241373 A1 WO2021241373 A1 WO 2021241373A1
Authority
WO
WIPO (PCT)
Prior art keywords
information
user
biometric
unit
biometric information
Prior art date
Application number
PCT/JP2021/019076
Other languages
English (en)
French (fr)
Inventor
マシュー ジョーン ローレンソン
クリストファー ジョン ライト
ディビッド マイケル デュフィー
ボウマン バーナデット エリオット
毅 吉原
剛 中村
泰典 渡邉
公太 森崎
Original Assignee
パナソニックIpマネジメント株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by パナソニックIpマネジメント株式会社 filed Critical パナソニックIpマネジメント株式会社
Priority to US17/927,803 priority Critical patent/US20230215573A1/en
Publication of WO2021241373A1 publication Critical patent/WO2021241373A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/30ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for calculating health indices; for individual health risk assessment
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H40/00ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices
    • G16H40/60ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices
    • G16H40/67ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices for remote operation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H10/00ICT specially adapted for the handling or processing of patient-related medical or healthcare data
    • G16H10/60ICT specially adapted for the handling or processing of patient-related medical or healthcare data for patient-specific data, e.g. for electronic patient records
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/20ICT specially adapted for the handling or processing of medical images for handling medical images, e.g. DICOM, HL7 or PACS
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/40ICT specially adapted for the handling or processing of medical images for processing medical images, e.g. editing
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H40/00ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices
    • G16H40/60ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices
    • G16H40/63ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices for local operation
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/70ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for mining of medical data, e.g. analysing previous cases of other patients

Definitions

  • the present disclosure relates to an event information evaluation device, a biometric information extraction system, an event information evaluation system, and a biometric information extraction device that associate biometric information corresponding to predetermined position information with event information.
  • biometric information in the field of analyzing biometric information, it is also practiced to acquire biometric information from the user's heart rate and sweating amount using a wearable terminal and infer emotional information.
  • Patent Document 1 discloses a communication system technology that guides a user to an action for becoming a predetermined emotion according to map information in which the user's current position information and the user's emotion information are mapped.
  • Patent Document 1 a communication system that generates guidance information according to the user's current position information and the map information to which emotion data is mapped is disclosed, but the number of users at each position and each No disclosure is made about the display of the emotional state that the majority of users occupy at the location. Therefore, the content provider at each position cannot cumulatively confirm the user's reaction and emotion from the user's biometric information with respect to the provided content. As a result, there is less information for the content provider to improve the content, and it becomes difficult to improve the content.
  • This disclosure is devised in view of the above-mentioned conventional circumstances, obtains the user's position information and the user's biometric information, accumulates the number of users for each position, and the biometric information with the largest cumulative number of users for each position. It is an object of the present invention to provide an event information evaluation device, a biometric information extraction system, an event information evaluation system, and a biometric information extraction device that confirm the user's reaction from the user's biometric information to the content at that position. ..
  • the present disclosure comprises a position information acquisition unit that acquires the user's position information, a biometric information extraction unit that acquires the user's biometric information, and a terminal information communication that communicates the location information and the biometric information to the outside.
  • a plurality of terminals including a unit, a center information communication unit that communicates with the terminal information communication unit and receives position information and biometric information, and the same for each position based on the position information and biometric information received by the center information communication unit.
  • an information control device including a cumulative unit that accumulates the number of users having value biometric information, a cumulative information selection unit that selects the biometric information having the largest cumulative number of users for each position information, and a cumulative information selection unit.
  • a biometric information system capable of confirming the user's reaction to the content at that position.
  • a position information acquisition unit for acquiring the user's position information
  • a biometric information extraction unit for acquiring the user's biometric information
  • a terminal information communication unit for communicating the position information and the predecessor information to the outside.
  • the center information communication unit which has a plurality of terminals and communicates with the terminal information communication unit and receives position information and biometric information, and the same value for each position based on the position information and biometric information received by the center information communication unit. It is equipped with a cumulative unit that accumulates the total number of users who have biometric information and an event information provider that provides event information to users. By associating the event information with the biometric information having a large cumulative number, an event information evaluation system capable of confirming the user's reaction from the user's biometric information to the content at that position is provided.
  • the center information communication unit that communicates with the terminal information communication unit that communicates the user's position information and the user's biometric information to the outside and receives the location information and the biometric information, and the center information communication unit receives the information.
  • a cumulative unit that accumulates the number of users who have the same value of biometric information for each location based on the location information and biometric information, and a cumulative information selection unit that selects the biometric information that has the largest cumulative number of users for each location information.
  • a biometric information extraction device capable of confirming the user's reaction from the user's biometric information to the content at that position.
  • the center information communication unit that communicates with the terminal information communication unit that communicates the user's position information and the user's biometric information to the outside and receives the location information and the biometric information, and the center information communication unit. It is equipped with a cumulative unit that accumulates the number of users who have the same value for the biometric information at the position based on the received position information, and an event information providing unit that provides event information to the user. Event information evaluation that can confirm the user's reaction from the user's biometric information to the content at that position by selecting the biometric information with the largest cumulative number and associating the event information with the biometric information with the largest cumulative number of users. Provide the device.
  • the content at the position is obtained by acquiring the user's position information and the user's biometric information, accumulating the number of users for each position, and selecting the biometric information having the largest cumulative number of users for each position. The user's reaction to the user's biometric information can be confirmed.
  • FIG. 1 Detailed block diagram of the biological information extraction system according to the first embodiment Explanatory diagram of operation flow of biometric information extraction system of Embodiment 1.
  • the figure which shows an example of the table which aggregated the user's position information and the user's biometric information in the biometric information extraction system of Embodiment 1.
  • the figure which shows an example of the table which accumulated the biometric information of the user for each position in the biometric information extraction system of Embodiment 1.
  • the figure which shows an example of the display data generated based on the user's position information, the user's biometric information, and the map information in the biometric information extraction system of Embodiment 1.
  • the biological information extraction device constituting the biological information extraction system will be described as an example.
  • FIG. 1 is a detailed configuration diagram of the biological information extraction system 100 of the first embodiment.
  • FIG. 2 is an explanatory diagram of an operation flow of the biological information extraction system 100 according to the first embodiment.
  • FIG. 3 is a diagram showing an example of a table in which the user's position information and the user's biometric information are aggregated in the biometric information extraction system 100 of the first embodiment.
  • FIG. 4 is a diagram showing an example of a table in which the biometric information of the user for each position in the biometric information extraction system 100 of the first embodiment is accumulated.
  • FIG. 5 is a diagram showing an example of a table in which biometric information having the largest cumulative number of users is selected for each position in the biometric information extraction system 100 of the first embodiment.
  • FIG. 6 is a diagram showing an example of display data generated based on the user's position information, the user's biometric information, and the map information in the biometric information extraction system 100 of the first embodiment.
  • FIG. 7 is a diagram showing an example of display data generated based on biometric information and map information having the largest cumulative number of users for each position in the biometric information extraction system 100 of the first embodiment.
  • the biological information extraction system 100 shown in FIG. 1 includes a plurality of information terminals TM1, TM2, ..., TMn (hereinafter referred to as "information terminal TM" in the present specification), a center information communication unit 106, and emotion information analysis.
  • the configuration includes a unit 107 and an information control device 108.
  • n is an integer of 2 or more.
  • the information terminal TM is configured to include a position information acquisition unit 101, an image pickup unit 102, a microphone 103, a biological information extraction unit 104, a terminal information communication unit 105, a display unit 113, and a content execution application 114.
  • the information control device 108 has a configuration including a cumulative unit 109 and a cumulative information selection unit 110.
  • the center information communication unit 106 and the information control device 108 constitute the biometric information extraction device according to the present disclosure.
  • Each of the position information acquisition unit 101, the biological information extraction unit 104, the terminal information communication unit 105, the content execution application 114, the center information communication unit 106, the cumulative unit 109, and the cumulative information selection unit 110 is, for example, a CPU (Central Processing Unit). It is functionally realized by reading a program and data previously stored in a memory (not shown), which is configured by a processor such as the above.
  • the processor may be configured by a DSP (Digital Signal Processor) or an FPGA (Field Programmable Gate Array).
  • the information terminal TM transmits / receives user information and analysis information by communicating with the center side device CT, respectively. Further, the information to be communicated is not limited to user information and analysis information. The information to be communicated may be content information or event information.
  • the information terminal TM may be, for example, a smartphone or a tablet terminal, or may be configured as a wearable microphone (Wearable Microphone) that can be worn by a person.
  • the position information acquisition unit 101 acquires the user's position information.
  • the method for acquiring the user's location information is, for example, a known technique published in International Publication No. 2019/187824, and thus the description thereof will be omitted.
  • the biometric information extraction unit 104 as an example of the processing device extracts the biometric information of the user. Specifically, the biological information extraction unit 104 extracts the user's heartbeat based on the image acquired by the imaging unit 102. Further, the biological information extraction unit 104 extracts vocal cord information based on the user's voice acquired by the microphone 103. Further, when the information terminal TM is a wearable terminal, the biological information extraction unit 104 may extract the user's body temperature and the user's sweating state.
  • the detailed method for extracting biological information is, for example, a known technique published in Japanese Patent Application Laid-Open No. 2017-153773, and thus description thereof will be omitted.
  • the terminal information communication unit 105 as an example of the processing device transfers the user's position information acquired from the position information acquisition unit 101 and the user's biometric information acquired from the biometric information extraction unit 104 to the center side device CT via the network NW. It is an interface to send.
  • the center information communication unit 106 which constitutes the biometric information extraction device and is an example of the processing device, is an interface for receiving the user's position information and the user's biometric information transmitted by the terminal information communication unit 105 via the network NW. ..
  • the information control device 108 which constitutes the biometric information extraction device and is an example of the processing device, is based on the user's position information and the user's biometric information received by the center information communication unit 106, and the user's position information and the user's biometric information. Associate (that is, associate) with.
  • the cumulative unit 109 which constitutes the biometric information extraction device and is an example of the processing device, has the same value for each user's position (specifically, for each position information) based on the position information of each user and the biometric information of each user. Cumulative number of users who have biometric information.
  • the range of cumulative user positions is not limited to the above, and may be determined for each facility, or the user may set an arbitrary range.
  • the cumulative information selection unit 110 which constitutes the biometric information extraction device and is an example of the processing device, is based on the biometric information showing the same value for each user position accumulated by the cumulative unit 109, and the cumulative number of users at each position. Selects the most biometric information.
  • the information to be selected is not limited to the above, and the user may arbitrarily set the selection conditions.
  • the event information evaluation device is configured by at least the center information communication unit 106, the information control device 108, and the event information providing unit 115. Further, at least a plurality of information terminal TMs and an information control device 108 constitute an event information evaluation system according to the present disclosure.
  • the biometric information extraction system 100 is activated by the user executing the content execution application 114 on the information terminal TM (S1).
  • the content execution application 114 is an application for executing (for example, playing and displaying) content, and is provided from the event information providing unit 115 of the center-side device CT to the information terminal TM via the network NW.
  • the position information acquisition unit 101 acquires the user's current position information (S2).
  • the biometric information extraction unit 104 acquires the user's image from the image pickup unit 102 and the user's voice from the microphone 103.
  • the biological information extraction unit 104 extracts and acquires biological information from the acquired video of the user and the voice of the user (S3).
  • the terminal information communication unit 105 acquires the user's position information and the user's biometric information from the biometric information extraction unit 104. Further, the terminal information communication unit 105 transmits the user's position information and the user's biometric information to the center-side device CT via the network NW (S4).
  • the center information communication unit 106 receives the user's position information and the user's biometric information via the network NW (S5).
  • the user's position information and the user's biometric information are associated with each other.
  • the accumulation unit 109 aggregates the user's position information and the user's biometric information, and accumulates the number of users having the same value of biometric information for each position (S6).
  • the cumulative information selection unit 110 selects the biometric information having the largest cumulative number of users for each position from the biometric information of the user for each position accumulated by the cumulative unit 109, and uses the biometric information representing that position as the biometric information (S7). ).
  • the display data control unit 111 creates display data in which the user's position information and cumulative information sent from the information control device 108 and the biometric information occupying most of the users at the position are superimposed on the map read from the map information 112. (S8).
  • the display unit 113 of the information terminal TM receives and displays the display data generated by the display data control unit 111 via the network NW (S9).
  • the positions to be evaluated are four positions 1, 2, 3, and 4.
  • Each of a, b, and c indicates the type of biological information such as pulse rate, voice tone, and body temperature, respectively.
  • a, b, and c may indicate numerical values in the same type of biometric information.
  • a, b, and c indicate body temperatures of 36 ° C, 37 ° C, and 38 ° C.
  • Biometric information is classified and symbolized based on biometric information, and the symbolized biometric information symbols are indicated by ⁇ , ⁇ , and ⁇ .
  • the body temperature is classified by 0 for 36.0 ° C to 36.9 ° C, ⁇ for 37.0 ° C to 37.9 ° C, and ⁇ for 38.0 ° C to 38.9 ° C.
  • the cumulative unit 109 When the cumulative unit 109 acquires the user's position information and the user's biometric information from the center information and communication unit 106, the cumulative unit 109 associates the user's position information with the user's biometric information and creates the table shown in FIG. Based on the table shown in FIG. 3, the cumulative unit 109 accumulates the number of users having biometric information having the same value (for example, biometric information, biometric information symbol, or both) at each position, and is shown in FIG. Create a table.
  • the cumulative information selection unit 110 selects the biological information having the largest cumulative number of users for each position based on the table shown in FIG. In other words, the cumulative information selection unit 110 selects biometric information having a rank of "1" for each position in FIG.
  • the cumulative information selection unit 110 generates the table shown in FIG. 5 based on the selected biometric information.
  • the display data control unit 111 creates display data based on the tables shown in FIGS. 3 and 5 acquired from the information control device 108 and the map information 112 stored in advance.
  • FIG. 6 is display data generated by the display data control unit 111 based on the table of FIG. 3 and the map information.
  • the position of each user and the biometric information of each user are displayed.
  • the user and the content provider can visually recognize the user's collective state and the user's biometric information on the map on the information terminal TM and the center-side device CT.
  • the display data shown in FIG. 7 shows biometric information that occupies most of the users at each position. By generating the display data shown in FIG.
  • the user and the content provider can visually recognize the biometric information for each position on the map by the information terminal TM and the center side device CT.
  • the display data of FIGS. 6 and 7 is generated so that the user and the content provider can easily evaluate the provided content.
  • the biometric information selected in FIG. 5 may be selected in any order in FIG.
  • the event information sent from the event information providing unit 115 is not limited to the content information. For example, disaster information or event information may be used.
  • the second embodiment is a form in which the emotional information of the user who has further analyzed the biological information in the first embodiment by the emotional information analysis unit 107, which will be described later, is selected.
  • FIG. 8 is a detailed configuration diagram of the biological information extraction system 100 according to the second embodiment.
  • FIG. 9 is an explanatory diagram of an operation flow of the biological information extraction system 100 according to the second embodiment.
  • FIG. 10 is a diagram showing an example of a table in which the user's position information and the user's emotional information are aggregated in the biometric information extraction system 100 of the second embodiment.
  • FIG. 11 is a diagram showing an example of a table in which user's emotional information at each position in the biological information extraction system 100 of the second embodiment is accumulated.
  • FIG. 12 is a diagram showing an example of a table in which emotional information having the largest cumulative number of users is selected for each position in the biological information extraction system of the second embodiment.
  • FIG. 10 is a diagram showing an example of a table in which the user's position information and the user's emotional information are aggregated in the biometric information extraction system 100 of the second embodiment.
  • FIG. 11 is a diagram showing an example of a table in which user's emotional information at each position
  • FIG. 13 is a diagram showing display data generated based on the user's position information, the user's emotion information, and the map information in the biometric information extraction system of the second embodiment.
  • FIG. 14 is a diagram showing display data generated based on emotional information and map information having the largest cumulative number of users for each position in the biological information extraction system of the second embodiment.
  • the difference between the second embodiment and the first embodiment is the presence or absence of the emotion information analysis unit 107.
  • the same reference numerals are given to the parts overlapping with the first embodiment to simplify or omit the description, and different contents will be described.
  • the biological information extraction system 100 includes an emotion information analysis unit 107 in addition to the configuration of the biological information extraction system according to the first embodiment. Further, the emotion information analysis unit 107 is a part constituting the biological information extraction device.
  • the emotion information analysis unit 107 which constitutes the biometric information extraction device and is an example of the processing device, analyzes the user's biometric information received by the center information communication unit 106, and estimates the user's emotional information based on the analysis result. ..
  • the detailed method for estimating emotional information is, for example, a known technique published in Japanese Patent Application Laid-Open No. 2019-40525, and thus description thereof will be omitted.
  • the biometric information extraction system 100 is activated by executing the content execution application 114 by operating the user's information terminal TM (S91).
  • the content execution application 114 is provided to the information terminal TM from the event information providing unit 115 in the center-side device CT via the network NW.
  • the position information acquisition unit 101 acquires the user's current position information (S92).
  • the biometric information extraction unit 104 acquires the user's image from the image pickup unit 102 and the user's voice from the microphone 103.
  • the biological information extraction unit 104 extracts and acquires biological information from the acquired video of the user and the voice of the user (S93).
  • the terminal information communication unit 105 acquires the user's position information and the user's biometric information from the biometric information extraction unit 104. Further, the terminal information communication unit 105 transmits the user's position information and the user's biometric information to the center-side device CT via the network NW (S94).
  • the center information communication unit 106 receives the user's position information and the user's biometric information via the network NW (S95).
  • the emotion information analysis unit 107 acquires the user's biometric information received by the center information communication unit 106 and analyzes the user's biometric information.
  • the emotion information analysis unit 107 estimates the user's emotion information based on the analysis result of the user's biometric information (S96).
  • the information control device 108 for example, the cumulative information selection unit 110
  • the user's position information and the user's emotion information are associated with each other.
  • the accumulation unit 109 aggregates the user's position information and the user's emotion information, and accumulates the number of users having the same value of emotion information for each position (S97).
  • the cumulative information selection unit 110 selects the emotion information having the largest cumulative number of users for each position from the emotion information of the users accumulated by the cumulative unit 109, and the emotion information occupying most of the users at that position. (S98).
  • the display data control unit 111 generates display data based on the user's position information, cumulative information, emotional information occupying most of the users at the position, and map information 112 sent from the information control device 108 (S99).
  • the display unit 113 receives and displays the display data generated by the display data control unit 111 via the network NW (S100).
  • the positions to be evaluated are four positions 1, 2, 3, and 4.
  • Each of a, b, and c indicates the type of emotional information such as concentration and emotions.
  • a numerical value may be shown for the same type of emotional information.
  • a, b, and c indicate concentrations of 10, 50, and 100.
  • Emotional information is classified based on emotional information, and the symbolized emotional information symbols are indicated by ⁇ , ⁇ , and ⁇ .
  • the body temperature is classified by 0 for 36.0 ° C to 36.9 ° C, ⁇ for 37.0 ° C to 37.9 ° C, and ⁇ for 38.0 ° C to 38.9 ° C.
  • the cumulative unit 109 acquires the user's position information from the center information and communication unit 106, and acquires the user's biometric information from the emotion information analysis unit 107.
  • the cumulative unit 109 associates the user's position information with the user's emotional information, and creates the table shown in FIG.
  • the cumulative unit 109 accumulates the number of users for each emotional information at each position based on the table shown in FIG. 10, and creates the table shown in FIG.
  • the cumulative information selection unit 110 selects the biological information having the largest cumulative number of users for each position based on the table shown in FIG. In other words, the cumulative information selection unit 110 selects emotional information having a rank of "1" for each position in FIG. 11.
  • the cumulative information selection unit 110 generates the table shown in FIG. 12 based on the selected emotion information.
  • the display data control unit 111 creates display data based on the tables shown in FIGS. 10 and 12 acquired from the information control device 108 and the map information 112 stored in advance.
  • FIG. 13 is display data generated by the display data control unit 111 based on the table of FIG. 10 and the map information.
  • the position of each user and the emotional information of each user are displayed.
  • the user and the content provider can visually recognize the user's collective state and the user's emotional information on the map on the information terminal TM and the center-side device CT.
  • the display data shown in FIG. 14 shows emotional information that occupies most of the positions for each position. By generating the display data shown in FIG.
  • the user and the content provider can visually recognize the emotional information for each position on the map on the information terminal TM and the center-side device CT.
  • the display data of FIGS. 13 and 14 is generated so that the user and the content provider can easily evaluate the provided content.
  • the biometric information selected in FIG. 12 may be selected in any order in FIG.
  • the event information sent from the event information providing unit 115 is not limited to the content information. For example, disaster information or event information may be used.
  • the center information communication unit that communicates with the terminal information communication unit that communicates the user's position information and the user's biometric information to the outside and receives the location information and the biometric information, and the center information communication unit receives the information. Based on the location information, the cumulative number of users who have the same value for the biometric information of the location is accumulated, the event information providing unit that provides the event information to the user, and the biometric information with the largest cumulative number of users for each location is selected.
  • an event information evaluation device including a cumulative information selection unit that associates event information with biometric information having the largest cumulative number of users.
  • the event information evaluation device acquires the user's position information and the user's biometric information, accumulates the user's biometric information for each user's position, and selects the biometric information having the largest cumulative number of users for each position. Then, the biometric information with the largest cumulative number of users is associated with the event information.
  • the event information evaluation device can make the content provider confirm the information in which the biometric information of the user and the event information are associated with each other.
  • the content provider can evaluate the content.
  • the event information evaluation device further includes an emotion information analysis unit that analyzes biological information and infers user's emotion information.
  • the event information evaluation device further analyzes the biometric information in the information control device and infers the emotional information of the user.
  • the event information evaluation device can make the content provider acquire more detailed information about the user's condition.
  • the content provider can evaluate the content in more detail.
  • one embodiment of the present disclosure is a biometric information extraction system having a plurality of terminals and an information control device, wherein the terminal acquires a user's biometric information and a position information acquisition unit for acquiring the user's position information.
  • the information control device includes a biometric information extraction unit and a terminal information communication unit that communicates position information and biometric information to the outside, and the information control device communicates with the terminal information communication unit and receives position information and biometric information. And the cumulative number of users who have the same value for the biometric information of the position based on the position information received by the center information and communication unit, and the cumulative information selection section that selects the biometric information with the largest cumulative number of users for each position. And provides a biometric information extraction system.
  • the biometric information extraction system acquires the user's position information and the user's biometric information, accumulates the user's biometric information for each user's position, and selects the biometric information with the largest cumulative number of users for each position. do.
  • the biometric information extraction system allows the content provider to easily confirm the biometric information of the user for each position.
  • the biometric information having the largest cumulative number of users is the biometric information that occupies most of the users at each position.
  • the biometric information extraction system uses the biometric information having the largest cumulative number of users as the biometric information that occupies most of the users at each position.
  • the biometric information extraction system can easily make the content provider confirm the biometric information having the largest number of users for each position.
  • the biometric information extraction system further includes an emotional information analysis unit that analyzes biometric information and infers the emotional information of the user.
  • the biometric information extraction system analyzes the biometric information of the user and infers the emotional information of the user.
  • the biological information extraction system further includes a display data control unit that acquires map information and generates display data that associates the biological information that occupies most of the users with the map information.
  • the biometric information extraction system acquires map information and generates display data that associates the user's biometric information with the map information.
  • the biometric information extraction system can display the biometric information of each user on the map.
  • the content provider can easily visually recognize the user's biometric information and the user's location information.
  • a position information acquisition unit that acquires the user's position information
  • a biometric information extraction unit that acquires the user's biometric information
  • a terminal information communication unit that communicates the location information and the biometric information to the outside.
  • a center information communication unit that has a plurality of terminals including, communicates with a terminal information communication unit, and receives position information and biometric information, and the position of the center information communication unit based on the position information received by the center information communication unit.
  • the cumulative number of users who have the same value for biometric information, the event information provider that provides event information to users, and the biometric information that has the largest cumulative number of users for each position are selected and the cumulative number of users is the largest. It provides an event information evaluation system equipped with a cumulative information selection unit that associates a large amount of biometric information with event information.
  • the event information evaluation system acquires the user's position information and the user's biometric information, accumulates the user's biometric information for each user's position, and selects the biometric information with the largest cumulative number of users for each position. Then, the biometric information with the largest cumulative number of users is associated with the event information.
  • the event information evaluation system allows the content provider to confirm the information in which the biometric information of the user and the event information are associated with each other. As a result, the content provider can evaluate the content.
  • the biometric information having the largest cumulative number of users is the biometric information that occupies most of the users at each position.
  • the event information evaluation system uses the biometric information having the largest cumulative number of users as the biometric information that occupies most of the users at each position.
  • the event information evaluation system allows the content provider to easily confirm the biometric information that occupies most of the users at each position. As a result, content providers can efficiently evaluate content.
  • the event information evaluation system further includes an emotion information analysis unit that analyzes biological information and infers user's emotion information.
  • the event information evaluation system further analyzes the biometric information in the information control device and infers the emotional information of the user.
  • a center information communication unit that communicates with a terminal information communication unit that communicates the user's position information and the user's biometric information to the outside and receives the location information and the biometric information, and a center information communication unit.
  • a living body equipped with a cumulative unit that accumulates the number of users who have the same value for the biological information of the position based on the received position information, and a cumulative information selection unit that selects the biological information that has the largest cumulative number of users for each position. Provide an information extraction device.
  • the biometric information extraction device acquires the user's position information and the user's biometric information, accumulates the user's biometric information for each user's position, and selects the biometric information having the largest cumulative number of users for each position. do.
  • the biometric information extraction device can easily make the content provider confirm the biometric information of the user for each position.
  • the biometric information extraction device further includes a display data control unit that acquires map information and generates display data that associates biometric information, which accounts for most of the users, with map information.
  • the biometric information extraction device acquires map information and generates display data that associates the biometric information, which accounts for most of the users, with the map information.
  • biometric information extraction device to display biometric information that accounts for most of the users on the map.
  • the content provider can easily visually recognize the user's biometric information and the user's position information.
  • an event information evaluation device it is useful as an event information evaluation device, a biometric information extraction system, an event information evaluation system, and a biometric information extraction device that evaluate the content provided by the content provision based on the biometric information of the user.
  • TM1 to TMn Information terminal CT Center side device 100 Biometric information extraction system 101 Position information acquisition unit 102 Imaging unit 103 Microphone 104 Biometric information extraction unit 105 Terminal information communication unit 106 Center information communication unit 107 Emotion information analysis unit 108 Information control device 109 Cumulative Unit 110 Cumulative information selection unit 111 Display data control unit 112 Map information 113 Display unit 114 Content execution application 115 Event information provision unit

Landscapes

  • Health & Medical Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Medical Informatics (AREA)
  • Public Health (AREA)
  • General Health & Medical Sciences (AREA)
  • Primary Health Care (AREA)
  • Epidemiology (AREA)
  • Biomedical Technology (AREA)
  • Business, Economics & Management (AREA)
  • Data Mining & Analysis (AREA)
  • General Business, Economics & Management (AREA)
  • Pathology (AREA)
  • Databases & Information Systems (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Tourism & Hospitality (AREA)
  • Radiology & Medical Imaging (AREA)
  • Human Resources & Organizations (AREA)
  • Marketing (AREA)
  • Strategic Management (AREA)
  • Physics & Mathematics (AREA)
  • Economics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

生体情報抽出システムは、位置情報取得部と、生体情報抽出部と、端末情報通信部と、を備える複数の端末と、センタ情報通信部と、累計部と、累計情報選出部と、とから構成される。これにより、生体情報抽出システムは、位置情報毎の最もユーザの累計数が多い生体情報を選出することができ、その結果、その位置情報におけるコンテンツに対するユーザの反応を確認することができる。

Description

イベント情報評価装置、生体情報抽出システム、イベント情報評価システムおよび生体情報抽出装置
 本開示は、所定の位置情報に対応する生体情報とイベント情報とを関連付けるイベント情報評価装置、生体情報抽出システム、イベント情報評価システムおよび生体情報抽出装置に関する。
 近年、スマートフォン、携帯電話およびタブレット端末が普及し、それらのカメラ機能を利用して誰でも容易に撮影をすることができるようになった。また、撮影した画像をSNS(Social Network Service)などのコンテンツにアップロードするユーザも多い。ユーザがアップロードした画像に位置情報を付加されているコンテンツも多くみられる。
 また、生体情報を分析する分野では、ウェアラブル端末を利用してユーザの心拍数、発汗量から生体情報を取得し、感情情報を推測することも行われている。
 このように、近年では位置情報や感情情報を容易に取得することができる状況が整備されている。特許文献1には、ユーザの現在位置情報と、ユーザの感情情報がマッピングされた地図情報に応じて、所定の感情になるための行動をユーザに案内する通信システムの技術が開示されている。
国際公開第2015/162949号
 特許文献1の技術では、ユーザの現在位置情報と、感情データがマッピングされた地図情報とに応じて、案内情報を生成する通信システムが開示されているものの、各位置におけるユーザの数と、各位置におけるユーザの大多数が占める感情状態の表示について開示されていない。そのため、各位置のコンテンツ提供者は、提供したコンテンツに対するユーザの生体情報からユーザの反応や感情を累計的に確認することができない。その結果、コンテンツ提供者がコンテンツを改善するための情報が少なくなり、コンテンツの改善が困難になる。
 本開示は、上述した従来の事情に鑑みて案出され、ユーザの位置情報およびユーザの生体情報を取得し、位置毎のユーザ数を累計し、位置毎に最もユーザの累計数が多い生体情報を選出することにより、その位置におけるコンテンツに対するユーザの生体情報からユーザの反応を確認する、イベント情報評価装置、生体情報抽出システム、イベント情報評価システムおよび生体情報抽出装置を提供することを目的とする。
 本開示は、上述した状況に鑑みて、ユーザの位置情報を取得する位置情報取得部と、ユーザの生体情報を取得する生体情報抽出部と、位置情報および生体情報を外部へ通信する端末情報通信部と、を備える複数の端末と、端末情報通信部と通信し位置情報および生体情報を受信するセンタ情報通信部と、センタ情報通信部が受信した位置情報および生体情報に基づき該位置毎に同じ値の生体情報を有するユーザ数を累計する累計部と、位置情報毎に最もユーザの累計数が多い生体情報を選出する累計情報選出部と、を備える情報制御装置とから構成されることにより、その位置におけるコンテンツに対するユーザの反応を確認することができる、生体情報システムを提供する。
 また、本開示は、ユーザの位置情報を取得する位置情報取得部と、ユーザの生体情報を取得する生体情報抽出部と、位置情報および前体情報を外部へ通信する端末情報通信部と、を備える複数の端末を有し、端末情報通信部と通信し、位置情報および生体情報を受信するセンタ情報通信部と、センタ情報通信部が受信した位置情報および生体情報に基づき該位置毎に同じ値の生体情報を持つユーザ数を累計する累計部と、ユーザにイベント情報を提供するイベント情報提供部と、を備え、位置情報毎に最もユーザの累計数が多い生体情報を選出し、最もユーザの累計数が多い生体情報と前記イベント情報を関連付けることにより、その位置におけるコンテンツに対するユーザの生体情報からユーザの反応を確認することができる、イベント情報評価システムを提供する。
 また、本開示は、ユーザの位置情報とユーザの生体情報を外部へ通信する端末情報通信部と通信し、該位置情報および該生体情報を受信するセンタ情報通信部と、センタ情報通信部が受信した位置情報および生体情報に基づき該位置毎に同じ値の生体情報を持つユーザ数を累計する累計部と、位置情報毎に最もユーザの累計数が多い生体情報を選出する累計情報選出部と、を備えることにより、その位置におけるコンテンツに対するユーザの生体情報からユーザの反応を確認することができる、生体情報抽出装置を提供する。
 また、本開示は、ユーザの位置情報とユーザの生体情報を外部へ通信する端末情報通信部と通信し、該位置情報および該生体情報を受信するセンタ情報通信部と、前記センタ情報通信部が受信した前記位置情報に基づき該位置の前記生体情報について同じ値を持つユーザ数を累計する累計部と、ユーザにイベント情報を提供するイベント情報提供部と、を備え、位置情報毎に最もユーザの累計数が多い生体情報を選出し最もユーザの累計数が多い生体情報と前記イベント情報を関連付けることにより、その位置におけるコンテンツに対するユーザの生体情報からユーザの反応を確認することができる、イベント情報評価装置を提供する。
 本開示によれば、ユーザの位置情報およびユーザの生体情報を取得し、位置毎のユーザ数を累計し、位置毎に最もユーザの累計数が多い生体情報を選出することにより、その位置におけるコンテンツに対するユーザの生体情報からユーザの反応を確認することができる。
実施の形態1の生体情報抽出システムの詳細な構成図 実施の形態1の生体情報抽出システムの動作フローの説明図 実施の形態1の生体情報抽出システムにおけるユーザの位置情報とユーザの生体情報を集計したテーブルの一例を示す図 実施の形態1の生体情報抽出システムにおける位置毎のユーザの生体情報を累計したテーブルの一例を示す図 実施の形態1の生体情報抽出システムにおける位置毎に最もユーザの累計数が多い生体情報を抽出したテーブルの一例を示す図 実施の形態1の生体情報抽出システムにおけるユーザの位置情報とユーザの生体情報と地図情報とを基に生成された表示データの一例を示す図 実施の形態1の生体情報抽出システムにおける位置毎の最もユーザの累計数が多い生体情報と地図情報とを基に生成された表示データの一例を示す図 実施の形態2の生体情報抽出システムの詳細な構成図 実施の形態2の生体情報抽出システムの動作フローの説明図 実施の形態2の生体情報抽出システムにおけるユーザの位置情報とユーザの感情情報を集計したテーブルの一例を示す図 実施の形態2の生体情報抽出システムにおける位置毎におけるユーザの感情情報を累計したテーブルの一例を示す図 実施の形態2の生体情報抽出システムにおける位置毎に最もユーザの累計数が多い感情情報を選出したテーブルの一例を示す図 実施の形態2の生体情報抽出システムにおけるユーザの位置情報とユーザの感情情報と地図情報とを基に生成された表示データを示す図 実施の形態2の生体情報抽出システムにおける位置毎の最もユーザの累計数が多い感情情報と地図情報とを基に生成された表示データを示す図
 以下、適宜図面を参照しながら、本開示に係るイベント情報評価装置、生体情報抽出システム、イベント情報評価システムおよび生体情報抽出装置を具体的に開示した実施の形態を詳細に説明する。但し、必要以上に詳細な説明は省略する場合がある。例えば、既によく知られた事項の詳細説明や実質的に同一の構成に対する重複説明を省略する場合がある。これは、以下の説明が不必要に冗長になるのを避け、当業者の理解を容易にするためである。なお、添付図面および以下の説明は、当業者が本開示を十分に理解するために提供されるのであって、これらにより特許請求の範囲に記載の主題を限定することは意図されていない。
 以下、実施の形態について図を参照して説明する。なお、以下の実施の形態では、生体情報抽出システムを構成する生体情報抽出装置を例示して説明する。
(実施の形態1)
 図1は、実施の形態1の生体情報抽出システム100の詳細な構成図である。図2は、実施の形態1の生体情報抽出システム100の動作フローの説明図である。図3は、実施の形態1の生体情報抽出システム100におけるユーザの位置情報とユーザの生体情報を集計したテーブルの一例を示す図である。図4は、実施の形態1の生体情報抽出システム100における位置毎のユーザの生体情報を累計したテーブルの一例を示す図である。図5は、実施の形態1の生体情報抽出システム100における位置毎に最もユーザの累計数が多い生体情報を選出したテーブルの一例を示す図である。図6は、実施の形態1の生体情報抽出システム100におけるユーザの位置情報とユーザの生体情報と地図情報とを基に生成された表示データの一例を示す図である。図7は、実施の形態1の生体情報抽出システム100における位置毎の最もユーザの累計数が多い生体情報と地図情報とを基に生成された表示データの一例を示す図である。
 図1に示す生体情報抽出システム100は、複数の情報端末TM1,TM2,・・・,TMn(以降、本明細書では「情報端末TM」と記載する)、センタ情報通信部106、感情情報分析部107および情報制御装置108を含む構成である。nは2以上の整数である。情報端末TMはそれぞれ同様に、位置情報取得部101、撮像部102、マイクロフォン103、生体情報抽出部104、端末情報通信部105、表示部113およびコンテンツ実行アプリ114を含む構成である。情報制御装置108は、累計部109および累計情報選出部110を含む構成である。また、センタ情報通信部106と情報制御装置108により、本開示に係る生体情報抽出装置が構成される。位置情報取得部101、生体情報抽出部104、端末情報通信部105、コンテンツ実行アプリ114、センタ情報通信部106、累計部109および累計情報選出部110のそれぞれは、例えば、CPU(Central Processing Unit)などのプロセッサにより構成され、図示しないメモリに予め記憶されたプログラムおよびデータをこのプロセッサが読み込むことで機能的に実現される。なお、プロセッサは、DSP(Digital Signal Processor)あるいはFPGA(Field Programmable Gate Array)により構成されても構わない。
 情報端末TMは、それぞれセンタ側装置CTと通信することにより、ユーザ情報および分析情報を送受信する。また、通信する情報は、ユーザ情報および分析情報に限らない。通信する情報は、コンテンツ情報あるいはイベント情報でもよい。情報端末TMは、例えば、スマートフォンあるいはタブレット端末であってもよいし、人が装着可能なウェアラブルマイク(Wearable Microphone)として構成されてもよい。
 処理装置の一例としての位置情報取得部101は、ユーザの位置情報を取得する。ユーザの位置情報の取得方法は、例えば、国際公開第2019/187824号に公開されている公知の技術であるため説明を省略する。
 処理装置の一例としての生体情報抽出部104は、ユーザの生体情報を抽出する。具体的には、生体情報抽出部104は、撮像部102により取得した映像を基にユーザの心拍を抽出する。また、生体情報抽出部104は、マイクロフォン103により取得したユーザの音声を基に声帯情報を抽出する。さらには、情報端末TMがウェアラブル端末であった場合は、生体情報抽出部104は、ユーザの体温およびユーザの発汗状態を抽出してもよい。なお、詳細な生体情報の抽出方法は、例えば、日本国特開2017-153773に公開されている公知の技術であるため説明を省略する。
 処理装置の一例としての端末情報通信部105は、位置情報取得部101から取得したユーザの位置情報および生体情報抽出部104から取得したユーザの生体情報を、ネットワークNWを介してセンタ側装置CTへ送信するインターフェースである。
 生体情報抽出装置を構成しかつ処理装置の一例としてのセンタ情報通信部106は、端末情報通信部105が送信したユーザの位置情報およびユーザの生体情報を、ネットワークNWを介して受信するインターフェースである。
 生体情報抽出装置を構成しかつ処理装置の一例としての情報制御装置108は、センタ情報通信部106が受信したユーザの位置情報およびユーザの生体情報を基に、ユーザの位置情報とユーザの生体情報とを紐づける(つまり関連付ける)。
 生体情報抽出装置を構成しかつ処理装置の一例としての累計部109は、各ユーザの位置情報および各ユーザの生体情報を基に、ユーザの位置毎(具体的には位置情報毎)に同じ値の生体情報を有するユーザ数を累計する。なお、累計するユーザ位置の範囲は、上記に限らず、施設毎に決められてもよいし、ユーザが任意の範囲を設定してもよい。
 生体情報抽出装置を構成しかつ処理装置の一例としての累計情報選出部110は、累計部109により累計されたユーザの位置毎に同じ値を示す生体情報を基に、位置毎における累計のユーザ数が最も多い生体情報を選出する。なお、選出する情報は上記に限らず、ユーザが選出条件を任意に設定してもよい。
 なお、少なくともセンタ情報通信部106と情報制御装置108とイベント情報提供部115とにより、本開示に係るイベント情報評価装置が構成される。また、少なくとも複数の情報端末TMと情報制御装置108とにより、本開示に係るイベント情報評価システムが構成される。
 次に、実施の形態1の生体情報抽出システム100のユーザ位置情報とユーザの生体情報とを紐づける動作について、図2を参照して説明する。
 図2において、生体情報抽出システム100は、ユーザが、情報端末TMにおいて、コンテンツ実行アプリ114を実行することで起動する(S1)。なお、コンテンツ実行アプリ114は、コンテンツを実行(例えば再生、表示)するためのアプリケーションであり、センタ側装置CTのイベント情報提供部115からネットワークNWを介して情報端末TMに提供される。ユーザの操作によりコンテンツ実行アプリ114が実行されると、位置情報取得部101が、ユーザの現在位置情報を取得する(S2)。位置情報取得部101が、ユーザの位置情報を取得することと並行して、生体情報抽出部104は、撮像部102からユーザの映像を取得し、マイクロフォン103からユーザの音声を取得する。生体情報抽出部104は、取得したユーザの映像およびユーザの音声から生体情報を抽出して取得する(S3)。端末情報通信部105は、生体情報抽出部104からユーザの位置情報およびユーザの生体情報を取得する。また、端末情報通信部105は、ネットワークNWを介して、ユーザの位置情報およびユーザの生体情報をセンタ側装置CTへ送信する(S4)。
 センタ情報通信部106は、ネットワークNWを介して、ユーザの位置情報およびユーザの生体情報を受信する(S5)。情報制御装置108あるいは累計情報選出部110において、ユーザの位置情報とユーザの生体情報とが関連付けされる。累計部109は、ユーザの位置情報とユーザの生体情報を集計し、該位置毎に同じ値の生体情報を有するユーザ数を累計する(S6)。累計情報選出部110は、累計部109により累計された位置毎のユーザの生体情報について、位置毎に最もユーザの累計数が多い生体情報を選出し、その位置を代表する生体情報とする(S7)。表示データ制御部111は、情報制御装置108から送られたユーザの位置情報、累計情報および該位置においてユーザの多くを占める生体情報を、地図情報112より読み込んだ地図上に重畳した表示データを作成する(S8)。情報端末TMの表示部113は、表示データ制御部111が生成した表示データを、ネットワークNWを介して受信し、表示する(S9)。
 次に、図3、図4、図5、図6および図7を用いて、情報制御装置108における情報制御方法について具体的な例を用いて説明する。
 この具体例において、評価の対象となる位置は位置1,2,3,4の4か所である。また、評価の対象となる生体情報はa,b,cの3種類である。a,b,cはそれぞれ、例えば、脈拍数、声のトーン、体温などの生体情報の種類を示している。また、a,b,cはそれぞれ同一の生体情報の種類における、数値を示してもよい。この場合は、例えば、a,b,cは、体温36℃,37℃,38℃を示す。生体情報を基に、生体情報を分類し、記号化した生体情報記号は、〇,△,×で示される。例えば、体温を36.0℃~36.9℃は〇、37.0℃~37.9℃は△、38.0℃~38.9℃は×で分類する。
 累計部109は、センタ情報通信部106からユーザの位置情報およびユーザの生体情報を取得すると、ユーザの位置情報とユーザの生体情報を関連付け、図3に示すテーブルを作成する。累計部109は、図3に示すテーブルを基に、各位置において同じ値(例えば、生体情報あるいは生体情報記号、もしくはこれらの両方)となる生体情報を有するユーザ数を累計し、図4に示すテーブルを作成する。累計情報選出部110は、図4に示すテーブルを基に、位置毎に最もユーザの累計数が多い生体情報を選出する。言い換えると、累計情報選出部110は、図4において、位置毎の順位が「1」の生体情報を選出する。累計情報選出部110は、選出した生体情報を基に、図5に示すテーブルを生成する。
 表示データ制御部111は、情報制御装置108から取得した図3および図5に示すテーブルと、予め記憶されている地図情報112とを基に表示データを作成する。例えば、図6は、表示データ制御部111が、図3のテーブルと地図情報とを基に生成した表示データである。図6に示す表示データには、各ユーザの位置および各ユーザの生体情報が表示される。図6に示す表示データが生成されることにより、情報端末TMおよびセンタ側装置CTにて、ユーザおよびコンテンツ提供者が地図上におけるユーザの集合状態およびユーザの生体情報を視認することができる。図7に示す表示データには、位置毎に該位置においてユーザの多くを占める生体情報が示される。図7に示す表示データが生成されることにより、情報端末TMおよびセンタ側装置CTにて、ユーザおよびコンテンツ提供者が地図上における位置毎の生体情報を視認することができる。結果として、図6および図7の表示データが生成されることにより、ユーザおよびコンテンツ提供者は、提供されているコンテンツを容易に評価することができる。
 なお、この具体例は一例に過ぎず、構成を限定するものではない。例えば、図5において選出される生体情報は、図4において任意の順位が選出されてもよい。また、イベント情報提供部115から送られるイベント情報はコンテンツ情報に限らない。例えば、災害情報や催しの情報でもよい。
(実施の形態2)
 実施の形態2は、実施の形態1における生体情報を、後述する感情情報分析部107にてさらに分析したユーザの感情情報を選出する形態である。
 図8を用いて実施の形態2を説明する。図8は、実施の形態2の生体情報抽出システム100の詳細な構成図である。図9は、実施の形態2の生体情報抽出システム100の動作フローの説明図である。図10は、実施の形態2の生体情報抽出システム100におけるユーザの位置情報とユーザの感情情報を集計したテーブルの一例を示す図である。図11は、実施の形態2の生体情報抽出システム100における位置毎におけるユーザの感情情報を累計したテーブルの一例を示す図である。図12は、実施の形態2の生体情報抽出システムにおける位置毎に最もユーザの累計数が多い感情情報を選出したテーブルの一例を示す図である。図13は、実施の形態2の生体情報抽出システムにおけるユーザの位置情報とユーザの感情情報と地図情報とを基に生成された表示データを示す図である。図14は、実施の形態2の生体情報抽出システムにおける位置毎の最もユーザの累計数が多い感情情報と地図情報とを基に生成された表示データを示す図である。なお、実施の形態2と実施の形態1との相違点は、感情情報分析部107の有無である。実施の形態1と重複する部分について同一の符号を付与して説明を簡略化あるいは省略し、異なる内容について説明する。
 実施の形態2における生体情報抽出システム100は、実施の形態1における生体情報抽出システムの構成に加え、感情情報分析部107を備える。また、感情情報分析部107は生体情報抽出装置を構成する一部である。
 生体情報抽出装置を構成しかつ処理装置の一例としての感情情報分析部107は、センタ情報通信部106が受信したユーザの生体情報を分析し、その分析結果を基にユーザの感情情報を推定する。なお、詳細な感情情報の推定方法は、例えば、日本国特開2019-40525に公開されている公知の技術であるため説明を省略する。
 次に、実施の形態2の生体情報抽出システム100のユーザ位置情報とユーザの感情情報とを紐づける動作について、図9を参照して説明する。
 図9において、生体情報抽出システム100は、ユーザの情報端末TMに対する操作により、コンテンツ実行アプリ114を実行することで起動する(S91)。なお、コンテンツ実行アプリ114は、センタ側装置CTにおけるイベント情報提供部115からネットワークNWを介して情報端末TMに提供される。ユーザの操作によりコンテンツ実行アプリ114が実行されると、位置情報取得部101が、ユーザの現在位置情報を取得する(S92)。位置情報取得部101が、ユーザの位置情報を取得することと並行して、生体情報抽出部104は、撮像部102からユーザの映像を取得し、マイクロフォン103からユーザの音声を取得する。生体情報抽出部104は、取得したユーザの映像およびユーザの音声から生体情報を抽出して取得する(S93)。端末情報通信部105は、生体情報抽出部104からユーザの位置情報およびユーザの生体情報を取得する。また、端末情報通信部105は、ネットワークNWを介して、ユーザの位置情報およびユーザの生体情報をセンタ側装置CTへ送信する(S94)。
 センタ情報通信部106は、ネットワークNWを介して、ユーザの位置情報およびユーザの生体情報を受信する(S95)。感情情報分析部107は、センタ情報通信部106が受信したユーザの生体情報を取得し、ユーザの生体情報を分析する。感情情報分析部107は、ユーザの生体情報の分析結果を基に、ユーザの感情情報を推測する(S96)。情報制御装置108(例えば累計情報選出部110)において、ユーザの位置情報とユーザの感情情報とが関連付けされる。累計部109は、ユーザの位置情報とユーザの感情情報を集計し、該位置毎に同じ値の感情情報を有するユーザ数を累計する(S97)。累計情報選出部110は、累計部109により累計された位置毎のユーザの感情情報について、位置毎に最もユーザの累計数が多い感情情報を選出し、該位置においてユーザの多くを占める感情情報とする(S98)。表示データ制御部111は、情報制御装置108から送られたユーザの位置情報、累計情報、該位置においてユーザの多くを占める感情情報および地図情報112を基に表示データを生成する(S99)。表示部113は、表示データ制御部111が生成した表示データを、ネットワークNWを介して受信し、表示する(S100)。
 次に、図10、図11、図12、図13および図14を用いて、情報制御装置108における情報制御方法について具体的な例を用いて説明する。
 この具体例において、評価の対象となる位置は位置1,2,3,4の4か所である。また、評価の対象となる感情情報はa,b,cの3種類である。a,b,cはそれぞれ、例えば、集中度および喜怒哀楽などの感情情報の種類を示している。また、同一の感情情報の種類における、数値を示してもよい。この場合は、例えば、a,b,cは、集中度10,50,100を示す。感情情報を基に、感情情報を分類し、記号化した感情情報記号は、〇,△,×で示される。例えば、体温を36.0℃~36.9℃は〇、37.0℃~37.9℃は△、38.0℃~38.9℃は×で分類する。
 累計部109は、センタ情報通信部106からユーザの位置情報を取得し、感情情報分析部107からユーザの生体情報を取得する。累計部109は、ユーザの位置情報とユーザの感情情報を関連付け、図10に示すテーブルを作成する。累計部109は、図10に示すテーブルを基に、各位置における感情情報毎のユーザ数を累計し、図11に示すテーブルを作成する。累計情報選出部110は、図11に示すテーブルを基に、位置毎に最もユーザの累計数が多い生体情報を選出する。言い換えると、累計情報選出部110は、図11において、位置毎の順位が「1」の感情情報を選出する。累計情報選出部110は、選出した感情情報を基に、図12に示すテーブルを生成する。
 表示データ制御部111は、情報制御装置108から取得した図10および図12に示すテーブルと、予め記憶されている地図情報112を基に表示データを作成する。例えば、図13は、表示データ制御部111が、図10のテーブルと地図情報とを基に生成した表示データである。図13に示す表示データには、各ユーザの位置および各ユーザの感情情報が表示される。図13に示す表示データが生成されることにより、情報端末TMおよびセンタ側装置CTにて、ユーザおよびコンテンツ提供者が地図上におけるユーザの集合状態およびユーザの感情情報を視認することができる。図14に示す表示データには、位置毎にその位置の多くを占める感情情報が示される。図14に示す表示データが生成されることにより、情報端末TMおよびセンタ側装置CTにて、ユーザおよびコンテンツ提供者が地図上における位置毎の感情情報を視認することができる。結果として、図13および図14の表示データが生成されることにより、ユーザおよびコンテンツ提供者は、提供されているコンテンツを容易に評価することができる。
 なお、この具体例は一例に過ぎず、構成を限定するものではない。例えば、図12において選出される生体情報は、図11において任意の順位が選出されてもよい。また、イベント情報提供部115から送られるイベント情報はコンテンツ情報に限らない。例えば、災害情報や催しの情報でもよい。
 最後に、本開示に係る生体情報抽出システム及び生体情報抽出装置の構成、作用、効果についてそれぞれ列挙する。
 本開示の一実施例は、ユーザの位置情報とユーザの生体情報を外部へ通信する端末情報通信部と通信し、位置情報および生体情報を受信するセンタ情報通信部と、センタ情報通信部が受信した位置情報に基づき位置の生体情報について同じ値を持つユーザ数を累計する累計部と、ユーザにイベント情報を提供するイベント情報提供部と、位置毎に最もユーザの累計数が多い生体情報を選出し最もユーザの累計数が多い生体情報とイベント情報とを関連付ける累計情報選出部と、を備える、イベント情報評価装置を提供する。
 この構成では、イベント情報評価装置は、ユーザの位置情報およびユーザの生体情報を取得し、ユーザの位置毎のユーザの生体情報を累計し、位置毎に最もユーザの累計数が多い生体情報を選出し、最もユーザの累計数が多い生体情報とイベント情報を関連付ける。
 これにより、イベント情報評価装置は、コンテンツ提供者にユーザの生体情報とイベント情報を関連付けた情報を確認させることができる。その結果、コンテンツ提供者はコンテンツについて評価することができる。
 また、本開示の一実施例では、イベント情報評価装置は、生体情報を分析しユーザの感情情報を推測する感情情報分析部をさらに備える。
 この構成では、イベント情報評価装置は、情報制御装置において、さらに生体情報を分析しユーザの感情情報を推測する。
 これにより、イベント情報評価装置は、コンテンツ提供者にユーザの状態についてより詳細な情報を取得させることができる。結果として、コンテンツ提供者は、より詳細にコンテンツを評価することができる。
 また、本開示の一実施例は、複数の端末と情報制御装置とを有する生体情報抽出システムであって、端末は、ユーザの位置情報を取得する位置情報取得部と、ユーザの生体情報を取得する生体情報抽出部と、位置情報および生体情報を外部へ通信する端末情報通信部と、を備え、情報制御装置は、端末情報通信部と通信し位置情報および生体情報を受信するセンタ情報通信部と、センタ情報通信部が受信した位置情報に基づき位置の生体情報について同じ値を持つユーザ数を累計する累計部と、位置毎に最もユーザの累計数が多い生体情報を選出する累計情報選出部と、を備える、生体情報抽出システムを提供する。
 この構成では、生体情報抽出システムは、ユーザの位置情報およびユーザの生体情報を取得し、ユーザの位置毎のユーザの生体情報を累計し、位置毎に最もユーザの累計数が多い生体情報を選出する。
 これにより、生体情報抽出システムは、コンテンツ提供者に位置毎のユーザの生体情報を容易に確認させることができる。
 また、本開示の一実施例では、最もユーザ数の累計が多い生体情報は、位置毎においてユーザの多くを占める生体情報である。
 この構成では、生体情報抽出システムは、最もユーザ数の累計が多い生体情報を、位置毎においてユーザの多くを占める生体情報とする。
 これにより、生体情報抽出システムは、位置毎に最もユーザ数の多い生体情報を、コンテンツ提供者に容易に確認させることができる。
 また、本開示の一実施例では、生体情報抽出システムは、生体情報を分析しユーザの感情情報を推測する感情情報分析部をさらに備える。
 この構成では、生体情報抽出システムは、ユーザの生体情報を分析しユーザの感情情報を推測する。
 これにより、生体情報抽出システムは、ユーザの状態についてより詳細な情報を取得することができる。
 また、本開示の一実施例は、生体情報抽出システムは、地図情報を取得しユーザの多くを占める生体情報と地図情報を関連付ける表示データを生成する表示データ制御部をさらに備える。
 この構成では、生体情報抽出システムは、地図情報を取得し、ユーザの生体情報と地図情報を関連付ける表示データを生成する。
 これにより、生体情報抽出システムは、地図上に各ユーザの生体情報を表示することができる。その結果、コンテンツ提供者は容易にユーザの生体情報とユーザの位置情報を視認することができる。
 また、本開示の一実施例は、ユーザの位置情報を取得する位置情報取得部と、ユーザの生体情報を取得する生体情報抽出部と、位置情報および生体情報を外部へ通信する端末情報通信部と、を備える複数の端末を有し、端末情報通信部と通信し、位置情報および生体情報を受信するセンタ情報通信部と、前記センタ情報通信部が受信した前記位置情報に基づき該位置の前記生体情報について同じ値を持つユーザ数を累計する累計部と、ユーザにイベント情報を提供するイベント情報提供部と、位置毎に最もユーザの累計数が多い生体情報を選出し、最もユーザの累計数が多い生体情報とイベント情報とを関連付ける累計情報選出部と、を備える、イベント情報評価システムを提供する。
 この構成では、イベント情報評価システムは、ユーザの位置情報およびユーザの生体情報を取得し、ユーザの位置毎のユーザの生体情報を累計し、位置毎に最もユーザの累計数が多い生体情報を選出し、最もユーザの累計数が多い生体情報とイベント情報とを関連付ける。
 これにより、イベント情報評価システムは、コンテンツ提供者にユーザの生体情報とイベント情報を関連付けた情報を確認させることができる。その結果、コンテンツ提供者はコンテンツについて評価することができる。
 また、本開示の一実施例では、最もユーザの累計数が多い生体情報は、位置毎においてユーザの多くを占める生体情報である。
 この構成では、イベント情報評価システムは、最もユーザの累計数が多い生体情報を位置毎におけるユーザの多くを占める生体情報とする。
 これにより、イベント情報評価システムは、コンテンツ提供者に位置毎のユーザにおいて多くを占める生体情報を容易に確認させることができる。結果として、コンテンツ提供者はコンテンツについて効率的に評価することができる。
 また、本開示の一実施例では、イベント情報評価システムは、生体情報を分析しユーザの感情情報を推測する感情情報分析部をさらに備える。
 この構成では、イベント情報評価システムは、情報制御装置において、さらに生体情報を分析しユーザの感情情報を推測する。
 これにより、イベント情報評価システムは、コンテンツ提供者にユーザの状態についてより詳細な情報を取得させることができる。結果として、コンテンツ提供者は、より詳細にコンテンツを評価することができる。
 また、本開示の一実施例は、ユーザの位置情報とユーザの生体情報を外部へ通信する端末情報通信部と通信し、位置情報および生体情報を受信するセンタ情報通信部と、センタ情報通信部が受信した位置情報に基づき位置の生体情報について同じ値を持つユーザ数を累計する累計部と、位置毎に最もユーザの累計数が多い生体情報を選出する累計情報選出部と、を備える、生体情報抽出装置を提供する。
 この構成では、生体情報抽出装置は、ユーザの位置情報およびユーザの生体情報を取得し、ユーザの位置毎のユーザの生体情報を累計し、位置毎に最もユーザの累計数が多い生体情報を選出する。
 これにより、生体情報抽出装置は、コンテンツ提供者に位置毎のユーザの生体情報を容易に確認させることができる。
 また、本開示の一実施例は、生体情報抽出装置は、地図情報を取得し、ユーザの多くを占める生体情報と地図情報とを関連付ける表示データを生成する表示データ制御部をさらに備える。
 この構成では、生体情報抽出装置は、地図情報を取得し、ユーザの多くを占める生体情報と地図情報を関連付ける表示データを生成する。
 これにより、生体情報抽出装置は、地図上にユーザの多くを占める生体情報を表示することができる。その結果、コンテンツ提供者は、容易にユーザの生体情報とユーザの位置情報を視認することができる。
 以上、添付図面を参照しながら実施の形態について説明したが、本開示はかかる例に限定されないことは言うまでもない。当業者であれば、特許請求の範囲に記載された範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、それらについても当然にこの発明の技術的範囲に属するものと了解される。
 なお、本出願は、2020年5月25日出願の日本特許出願(特願2020-090695)に基づくものであり、その内容は本出願の中に参照として援用される。
 本開示によれば、ユーザの生体情報を基にコンテンツ提供が提供したコンテンツを評価する、イベント情報評価装置、生体情報抽出システム、イベント情報評価システムおよび生体情報抽出装置として有用である。
TM1~TMn 情報端末
CT  センタ側装置
100 生体情報抽出システム
101 位置情報取得部
102 撮像部
103 マイクロフォン
104 生体情報抽出部
105 端末情報通信部
106 センタ情報通信部
107 感情情報分析部
108 情報制御装置
109 累計部
110 累計情報選出部
111 表示データ制御部
112 地図情報
113 表示部
114 コンテンツ実行アプリ
115 イベント情報提供部

Claims (11)

  1.  ユーザの位置情報とユーザの生体情報を外部へ通信する端末情報通信部と通信し、前記位置情報および前記生体情報を受信するセンタ情報通信部と、
     前記センタ情報通信部が受信した前記位置情報に基づき前記位置情報に対応する前記生体情報について同じ値を持つユーザ数を累計する累計部と、
     ユーザにイベント情報を提供するイベント情報提供部と、
     前記位置情報毎に最もユーザの累計数が多い生体情報を選出し前記最もユーザの累計数が多い生体情報と前記イベント情報とを関連付ける累計情報選出部と、を備える、
     イベント情報評価装置。
  2.  前記生体情報を分析しユーザの感情情報を推測する感情情報分析部、をさらに備える、
     請求項1に記載のイベント情報評価装置。
  3.  複数の端末と情報制御装置とを有する生体情報抽出システムであって、
     前記端末は、
     ユーザの位置情報を取得する位置情報取得部と、
     ユーザの生体情報を取得する生体情報抽出部と、
     前記位置情報および前記生体情報を外部へ通信する端末情報通信部と、を備え、
     前記情報制御装置は、
     前記端末情報通信部と通信し前記位置情報および前記生体情報を受信するセンタ情報通信部と、
     前記センタ情報通信部が受信した前記位置情報に対応する前記生体情報について同じ値を持つユーザ数を累計する累計部と、
     前記位置情報毎に最もユーザの累計数が多い生体情報を選出する累計情報選出部と、を備える、
     生体情報抽出システム。
  4.  前記最もユーザ数の累計が多い生体情報は、前記位置情報毎においてユーザの多くを占める生体情報である、
     請求項3に記載の生体情報抽出システム。
  5.  前記生体情報を分析しユーザの感情情報を推測する感情情報分析部、をさらに備える、
     請求項3または4に記載の生体情報抽出システム。
  6.  地図情報を取得し前記ユーザの多くを占める生体情報と前記地図情報を関連付ける表示データを生成する表示データ制御部、をさらに備える、
     請求項3から5のいずれか一項に記載の生体情報抽出システム。
  7.  複数の端末と情報制御装置とを有するイベント情報評価システムであって、
     前記端末は、
     ユーザの位置情報を取得する位置情報取得部と、
     ユーザの生体情報を取得する生体情報抽出部と、
     前記位置情報および前記生体情報を外部へ通信する端末情報通信部と、を備え、
     前記情報制御装置は、
     前記端末情報通信部と通信し、前記位置情報および前記生体情報を受信するセンタ情報通信部と、
     前記センタ情報通信部が受信した前記位置情報に対応する前記生体情報について同じ値を持つユーザ数を累計する累計部と、
     ユーザにイベント情報を提供するイベント情報提供部と、
     前記位置情報毎に最もユーザの累計数が多い生体情報を選出し、前記最もユーザの累計数が多い生体情報と前記イベント情報とを関連付ける累計情報選出部と、を備える、
     イベント情報評価システム。
  8.  前記最もユーザの累計数が多い生体情報は、前記位置情報毎においてユーザの多くを占める生体情報である、
     請求項7に記載のイベント情報評価システム。
  9.  前記生体情報を分析しユーザの感情情報を推測する感情情報分析部、をさらに備える、
     請求項7または8に記載のイベント情報評価システム。
  10.  ユーザの位置情報とユーザの生体情報を外部へ通信する端末情報通信部と通信し、前記位置情報および前記生体情報を受信するセンタ情報通信部と、
     前記センタ情報通信部が受信した前記位置情報に対応する前記生体情報について同じ値を持つユーザ数を累計する累計部と、
     前記位置情報毎に最もユーザの累計数が多い生体情報を選出する累計情報選出部と、を備える、
     生体情報抽出装置。
  11.  地図情報を取得し前記ユーザの多くを占める生体情報と該地図情報とを関連付ける表示データを生成する表示データ制御部、をさらに備える、
     請求項10に記載の生体情報抽出装置。
     
PCT/JP2021/019076 2020-05-25 2021-05-19 イベント情報評価装置、生体情報抽出システム、イベント情報評価システムおよび生体情報抽出装置 WO2021241373A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US17/927,803 US20230215573A1 (en) 2020-05-25 2021-05-19 Event information evaluation device, biological information extraction system, event information evaluation system and biological information extraction device

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2020090695A JP2021189471A (ja) 2020-05-25 2020-05-25 イベント情報評価装置、生体情報抽出システム、イベント情報評価システムおよび生体情報抽出装置
JP2020-090695 2020-05-25

Publications (1)

Publication Number Publication Date
WO2021241373A1 true WO2021241373A1 (ja) 2021-12-02

Family

ID=78744766

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2021/019076 WO2021241373A1 (ja) 2020-05-25 2021-05-19 イベント情報評価装置、生体情報抽出システム、イベント情報評価システムおよび生体情報抽出装置

Country Status (3)

Country Link
US (1) US20230215573A1 (ja)
JP (1) JP2021189471A (ja)
WO (1) WO2021241373A1 (ja)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2015162949A1 (ja) * 2014-04-21 2015-10-29 ソニー株式会社 通信システム、制御方法、および記憶媒体
US20190042854A1 (en) * 2018-01-12 2019-02-07 Addicam V. Sanjay Emotion heat mapping
JP2020052748A (ja) * 2018-09-27 2020-04-02 沖電気工業株式会社 サーバ装置、情報処理方法、プログラム、端末装置及び情報通信システム

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2015162949A1 (ja) * 2014-04-21 2015-10-29 ソニー株式会社 通信システム、制御方法、および記憶媒体
US20190042854A1 (en) * 2018-01-12 2019-02-07 Addicam V. Sanjay Emotion heat mapping
JP2020052748A (ja) * 2018-09-27 2020-04-02 沖電気工業株式会社 サーバ装置、情報処理方法、プログラム、端末装置及び情報通信システム

Also Published As

Publication number Publication date
JP2021189471A (ja) 2021-12-13
US20230215573A1 (en) 2023-07-06

Similar Documents

Publication Publication Date Title
US20220337693A1 (en) Audio/Video Wearable Computer System with Integrated Projector
US10488208B2 (en) Communication system, control method, and storage medium
US20140200463A1 (en) Mental state well being monitoring
JP6122735B2 (ja) 情報処理装置、判定方法および判定プログラム
US20130245396A1 (en) Mental state analysis using wearable-camera devices
CN110944142A (zh) 图像处理装置、照相机装置及图像处理方法
EP3173969B1 (en) Method, apparatus and terminal device for playing music based on a target face photo album
US9934425B2 (en) Collection of affect data from multiple mobile devices
EP2748775A1 (en) Using biosensors for sharing emotions via a data network service
US20170093785A1 (en) Information processing device, method, and program
WO2014145228A1 (en) Mental state well being monitoring
JP6649005B2 (ja) ロボット撮影システムおよび画像管理方法
US10904421B2 (en) Method and system for generation of images based on biorhythms
US10382383B2 (en) Social media post facilitation systems and methods
JPWO2017064891A1 (ja) 情報処理システム、情報処理方法、および記憶媒体
US20150150032A1 (en) Computer ecosystem with automatic "like" tagging
JP2022128493A (ja) 画像処理装置、画像処理方法、プログラムおよび記録媒体
JP2008178110A (ja) カラーマーカーを用いたコンテンツ提供方法およびそれを実行するためのシステム
US20130052621A1 (en) Mental state analysis of voters
WO2021241373A1 (ja) イベント情報評価装置、生体情報抽出システム、イベント情報評価システムおよび生体情報抽出装置
US11190472B2 (en) Changing display probability of posted information according to relationship disconnection request
US20170351820A1 (en) Scheduling interaction with a subject
CN106133718B (zh) 包括音频设备和用于显示关于音频设备的信息的移动设备的系统
JP7206741B2 (ja) 健康状態判定システム、健康状態判定装置、サーバ、健康状態判定方法、及びプログラム
JP6758351B2 (ja) 画像管理システムおよび画像管理方法

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 21812480

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 21812480

Country of ref document: EP

Kind code of ref document: A1