WO2021161387A1 - 処理装置、処理方法及び記憶媒体 - Google Patents

処理装置、処理方法及び記憶媒体 Download PDF

Info

Publication number
WO2021161387A1
WO2021161387A1 PCT/JP2020/005149 JP2020005149W WO2021161387A1 WO 2021161387 A1 WO2021161387 A1 WO 2021161387A1 JP 2020005149 W JP2020005149 W JP 2020005149W WO 2021161387 A1 WO2021161387 A1 WO 2021161387A1
Authority
WO
WIPO (PCT)
Prior art keywords
person
index
feeling
human relationship
pair
Prior art date
Application number
PCT/JP2020/005149
Other languages
English (en)
French (fr)
Inventor
福田 浩司
靖夫 飯村
孝文 青木
Original Assignee
日本電気株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 日本電気株式会社 filed Critical 日本電気株式会社
Priority to JP2021577735A priority Critical patent/JP7452558B2/ja
Priority to PCT/JP2020/005149 priority patent/WO2021161387A1/ja
Publication of WO2021161387A1 publication Critical patent/WO2021161387A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q10/00Administration; Management
    • G06Q10/06Resources, workflows, human or project management; Enterprise or organisation planning; Enterprise or organisation modelling

Definitions

  • the present invention relates to a processing device, a processing method, and a storage medium.
  • Patent Document 1 discloses a system that detects the biological information of a kindergarten child (monitored person) with a wearable terminal and analyzes the physical condition and emotion of each kindergarten child based on the biological information.
  • the system discloses that, based on the above analysis results, it analyzes human relationships such as, for example, whether emotions were uplifted or tended to be depressed when in contact with whom.
  • the human relationship that can be grasped by the technique described in Patent Document 1 is the feeling that one person is directed to the other person, not the human relationship that reflects the feelings between the two.
  • An object of the present invention is to be able to grasp human relationships that reflect mutual feelings.
  • An acquisition means for acquiring biometric information of each person and event information indicating an event that has occurred between each person and another person.
  • a first calculation means for calculating a feeling index indicating feelings toward each other person based on the biological information and the event information for each person.
  • a second calculation means for calculating a human relationship index indicating a human relationship between people based on the feeling index, and
  • a processing device having the above is provided.
  • the computer Acquires biometric information of each person and event information indicating an event that has occurred between each person and another person. For each person, based on the biometric information and the event information, a feeling index indicating feelings toward each other person is calculated. For each pair of persons, a processing method for calculating a human relationship index indicating a human relationship between persons is provided based on the feeling index.
  • Computer Acquisition means for acquiring biometric information of each person and event information indicating an event that has occurred between each person and another person.
  • a first calculation means for calculating a feeling index indicating feelings toward each other person based on the biological information and the event information for each person.
  • a second calculation means for calculating a human relationship index indicating a human relationship between people based on the feeling index for each pair of people.
  • a storage medium that stores a program that functions as a device is provided.
  • the processing device is used to grasp human relationships in places and facilities where groups are active, such as prisons, schools, kindergartens, and workplaces.
  • biometric information of each person and data indicating events (approach, conversation, etc.) that occurred between each person and another person are collected. Then, the biometric information of each person and the event information indicating the event that occurred with another person are input to the processing device.
  • the processing device When the processing device acquires the biometric information and the event information of each person, the processing device calculates a feeling index indicating the feelings for each other person for each person based on the acquired information. Then, the processing device calculates a human relationship index indicating the human relationship between the persons based on the feeling index indicating the feelings toward the other person for each pair of persons.
  • Each functional unit of the processing device is stored in the CPU (Central Processing Unit) of an arbitrary computer, memory, a program loaded in the memory, and a storage unit such as a hard disk for storing the program (stored from the stage of shipping the device in advance).
  • a storage unit such as a hard disk for storing the program (stored from the stage of shipping the device in advance).
  • programs it can also store programs downloaded from storage media such as CDs (Compact Discs) and servers on the Internet), and is realized by any combination of hardware and software centered on the network connection interface.
  • CDs Compact Discs
  • FIG. 1 is a block diagram illustrating a hardware configuration of the processing device.
  • the processing device includes a processor 1A, a memory 2A, an input / output interface 3A, a peripheral circuit 4A, and a bus 5A.
  • the peripheral circuit 4A includes various modules.
  • the processing device does not have to have the peripheral circuit 4A.
  • the processing device may be composed of a plurality of physically and / or logically separated devices, or may be composed of one physically and / or logically integrated device. When the processing device is composed of a plurality of physically and / or logically separated devices, each of the plurality of devices can be provided with the above hardware configuration.
  • the bus 5A is a data transmission path for the processor 1A, the memory 2A, the peripheral circuit 4A, and the input / output interface 3A to send and receive data to and from each other.
  • the processor 1A is, for example, an arithmetic processing unit such as a CPU or a GPU (Graphics Processing Unit).
  • the memory 2A is, for example, a memory such as a RAM (RandomAccessMemory) or a ROM (ReadOnlyMemory).
  • the input / output interface 3A includes an interface for acquiring information from an input device, an external device, an external server, an external sensor, a camera, etc., an interface for outputting information to an output device, an external device, an external server, etc. ..
  • the input device is, for example, a keyboard, a mouse, a microphone, a physical button, a touch panel, or the like.
  • the output device is, for example, a display, a speaker, a printer, a mailer, or the like.
  • the processor 1A can issue commands to each module and perform calculations based on the calculation results thereof.
  • FIG. 2 shows an example of a functional block diagram of the processing device 10.
  • the processing device 10 includes an acquisition unit 11, a first calculation unit 12, and a second calculation unit 13.
  • the acquisition unit 11 acquires biometric information of each person and event information indicating an event that has occurred between each person and another person.
  • biometric information of each person and events (approach, conversation, etc.) that occur between each person and another person are collected for a certain period of time.
  • the data shown is collected. These data are collected by wearable terminals worn by each person and various devices installed in the facility. Then, the biometric information and the event information generated based on the collected data are input to the processing device 10 by any means.
  • the collected multiple types of data are associated with the date and time information, and can be synchronized with each other (the occurrence timing can be associated).
  • Examples of biological information include pulse, heartbeat, blood pressure, skin potential, body temperature, vocal sound, body vibration, eye movement, and brain wave.
  • Each person carries out activities for a certain period of time while wearing a wearable terminal equipped with at least one of various devices for collecting biological information such as a camera, a microphone, and a sensor.
  • An example of a wearable terminal is an insole type terminal / ring / bracelet / band type / watch / glasses / hat / clothes / nameplate type / key chain type that can be put in shoes.
  • An embodiment in which a wearable terminal is not used is also conceivable.
  • biometric information of each person may be acquired by an arbitrary device (camera, microphone, sensor, etc.) installed in the facility. Then, the biological information and the event information may be acquired by the same device.
  • the data indicating the event may be the voice collected by the microphone.
  • Each person may wear a microphone, or the microphone may be installed at an arbitrary position in the facility.
  • this data for example, by identifying the speaker of the voice contained in the data using the voiceprint, who talked to whom, who spoke from, who was close enough to talk, etc. Can be identified.
  • the data indicating the event may be an image generated by the camera.
  • Each person may wear a camera so as to photograph the front of each person, the line-of-sight direction of each person, or the like, or the camera may be installed at an arbitrary position in the facility.
  • this data it is possible to identify who and who approached by identifying a person in the image using, for example, facial features.
  • the data indicating the event may be the position information of each person.
  • the position information of each person may be generated by attaching the beacon to each person and detecting the signal from the beacon, or the position information of each person may be generated by other means. According to this data, it is possible to identify who and who approached each other.
  • FIG. 3 schematically shows an example of event information.
  • the illustrated data show an event that occurred between a person with the person identification information "001319" and another person on January 9, 2020.
  • the first calculation unit 12 calculates a feeling index indicating feelings toward each other person based on the biological information and the event information for each person.
  • An example of the process of calculating the feeling index indicating the feeling of the person A toward the person B is as follows. First, the first calculation unit 12 identifies an event that has occurred with the person B based on the event information of the person A. Then, the first calculation unit 12 calculates a feeling index indicating the feelings of the person A toward the person B based on the biological information of the person A at the time of the specified event occurrence.
  • Another example of the process of calculating the feeling index indicating the feeling of person A toward another person is as follows. For example, based on time-series data showing fluctuations in the biological information (heartbeat, etc.) of person A, a time when the difference from the biological information in normal times is larger than the threshold value is specified, and an event that occurred at that time is specified. do. Then, based on the specified event, a feeling index indicating the feelings of the person A toward another person is calculated.
  • the feeling index may be quantified.
  • the feeling index may be indicated by a one-dimensional value.
  • the feeling index may be a value indicating a degree of favor.
  • the feeling index may be indicated by a multidimensional value.
  • the feeling index may be a set of values indicating each of various items such as the degree of favor, the degree of respect, and the degree of interest.
  • the feeling index may be qualitative.
  • the feeling index is indicated by indicators such as “favorable”, “not favorable”, “respected”, “not respected”, “interested”, and “not interested”. May be good.
  • the first calculation unit 12 calculates the above-mentioned feeling index based on the calculation algorithm prepared in advance and the parameter values calculated from the above-mentioned biological information and event information.
  • the arithmetic algorithm may be an estimation model generated by machine learning, an arithmetic expression, or any other.
  • the parameter value may be the result of statistically processing the event information.
  • the result of statistical processing is, for example, the number of events (number of approaches, number of conversations, etc.) that occurred between each person and each other person, and each event that occurred between each person and each other person.
  • the total time of each event, the average time of each event between each person and each other person, and the like are exemplified.
  • the parameter value may be a value calculated based on the biometric information of each person when an event occurs between each person and each other person.
  • the calculated value may be, for example, a stress degree or an emotion calculated based on a pulse, a heartbeat, a blood pressure, a skin potential, a body temperature, a vocal sound, a vibration of the body, a movement of the line of sight, an electroencephalogram, or the like.
  • the parameter value is a value calculated based on the biological information of each person at a predetermined timing in the time zone in which the event occurs between each person and each other person (the stress degree, emotion, etc.). It may be.
  • the predetermined timing may be the beginning of the time zone in which the event occurs, that is, when the event occurs.
  • the parameter values are values calculated based on the biological information of each person when an event occurs between each person and each other person (the above stress level, emotion, etc.) and before the event occurs. It may be a value indicating a change from a value calculated based on the biological information of each person (the stress degree, emotion, etc.). The value indicating the change may be a difference between both values, a value indicating the rate of change, or a two-dimensional value in which both values are paired.
  • the parameter values are values calculated based on the biological information of each person when an event occurs between each person and each other person (the above stress level, emotion, etc.), and the event ends. It may be a value indicating a change from a value (the stress degree, emotion, etc.) calculated based on the biological information of each person later.
  • the parameter value is the correlation between the distance between each person and each other person and the above-mentioned values (the above-mentioned stress degree and emotion, etc.) according to the change in the distance, that is, the stress degree and emotion due to the approaching distance. It may be a value indicating a change in. For example, it may be the amount of change or the rate of change of the stress degree when the distance approaches a predetermined amount, or it may be a two-dimensional value by pairing the values (stress degree and emotion) before and after the distance approaches a predetermined amount. May be good.
  • the second calculation unit 13 calculates a human relationship index indicating a human relationship between people based on a feeling index for each pair of people.
  • the second calculation unit 13 is a human relationship index showing the human relationship between the person A and the person B based on the feeling index showing the feeling of the person A toward the person B and the feeling index showing the feeling of the person B toward the person A. Is calculated.
  • the human relations index may be quantified.
  • the interpersonal relationship index may be represented by a one-dimensional value.
  • the human relations index may be a value indicating the degree of friendship.
  • the human relations index may be indicated by a multidimensional value.
  • the human relationship index may be a set of values indicating each of various items such as friendship and mutual interest.
  • the human relations index may be qualitative.
  • the interpersonal relationship index may be indicated by an index such as “friendship”, “hostile relationship”, “indifference”, or "interested”.
  • the second calculation unit 13 calculates a human relationship index showing a human relationship between people belonging to each pair based on a calculation algorithm prepared in advance and a feeling index showing the feelings of each person belonging to each pair toward the other party. do.
  • the arithmetic algorithm may be an estimation model generated by machine learning, an arithmetic expression, or any other.
  • the processing device 10 outputs the human relationship index of each pair calculated by the second calculation unit 13 via the output device.
  • the interpersonal relationship index of each of a plurality of pairs may be listed.
  • the human relations index between the person and each other person may be displayed in a list.
  • the processing device 10 may output a feeling index for each of the other persons of each person calculated by the first calculation unit 12 via the output device.
  • the feeling indexes for each of the other persons of the plurality of persons may be collectively displayed in a list for each person. Further, when a certain person is designated, a list of feeling indexes for each of the person and the other person may be displayed.
  • Examples of output devices include, but are not limited to, displays, projection devices, printers, mailers, speakers, and the like.
  • each person is based on the biometric information and the event information.
  • a feeling index indicating feelings for each person is calculated (S11).
  • the processing device 10 calculates a human relationship index indicating the human relationship between the persons based on the feeling index indicating the feelings of each person belonging to each pair toward the other person for each pair of persons (S12). Then, the processing device 10 outputs the calculation result in S12 (S13).
  • the processing device 10 calculates a feeling index for each other person for each person, and for each pair of people, based on the feeling index for each person belonging to each pair toward the other person, the person between the people. It is possible to calculate a human relationship index showing a relationship. According to such a processing device 10, the user can grasp the human relationship reflecting the feelings between each other. Then, the user can prevent the occurrence of troubles based on human relationships by performing organizational restructuring such as changing the affiliation of a predetermined person based on the grasped contents.
  • the processing device 10 that calculates the feeling index based on the characteristic parameter values as described above and calculates the human relationship index based on the feeling index, the human relationship between the two persons is estimated accurately. be able to.
  • FIG. 5 shows an example of a functional block diagram of the processing device 10 of the present embodiment.
  • the processing device 10 includes an acquisition unit 11, a first calculation unit 12, a second calculation unit 13, and a warning unit 15.
  • the warning unit 15 has at least one of a first warning means and a second warning means.
  • the first warning means extracts a pair of persons whose human relations index satisfies the first warning condition, and notifies the extracted pair.
  • the first warning means is to extract a pair of people whose relationships are worse than a predetermined level (unfriendly).
  • the first warning condition is such that the purpose can be achieved.
  • the second warning means extracts a pair of a person whose feeling index satisfies the second warning condition and a person to whom the feeling indicated by the feeling index is directed, and notifies the extracted pair.
  • the second warning means aims to extract a pair of a person and his / her partner who think that the predetermined person is worse than the predetermined level (unfriendly).
  • the second warning condition is such that the purpose can be achieved.
  • the warning unit 15 notifies the user of the extracted pair via an output device such as a display, a projection device, a printer, a mailer, or a speaker.
  • an output device such as a display, a projection device, a printer, a mailer, or a speaker.
  • the identification information of two persons belonging to the extracted pair may be output via the output device.
  • the user is a pair of persons whose relationships are worse than a predetermined level, or a pair of persons whose at least one thinks that the other is worse than a predetermined level, that is, It is possible to easily grasp the parts that require organizational restructuring such as changing the affiliation of a person.
  • FIG. 6 shows an example of a functional block diagram of the processing device 10 of the present embodiment.
  • the processing device 10 includes an acquisition unit 11, a first calculation unit 12, a second calculation unit 13, and a human relationship map generation unit 14.
  • the processing device 10 may have a warning unit 15.
  • the human relationship map generation unit 14 generates a human relationship map showing a human relationship index between a plurality of people.
  • the human relationship map generation unit 14 may further indicate the feeling index calculated by the first calculation unit 12 in the human relationship map.
  • FIG. 7 schematically shows an example of a human relationship map.
  • an icon corresponding to each person an icon corresponding to each person, identification information (A to D) of each person, a human relationship index showing a human relationship between each person, and a feeling showing each person's feelings toward each other person.
  • the index and the number of approaches are shown.
  • the human relations index is a qualitative index such as hostility, friendship, interest, and indifference.
  • the feeling index is a quantitative value, and the larger the value, the more favorable it is.
  • the number of approaches the number of occurrences of other events such as the number of conversations may be indicated.
  • the icon an actual image of each person may be displayed.
  • the human relationship of four people is shown, but this number is merely an example and is not limited to this.
  • the human relations map generation unit 14 may identify and display (for example, highlight) a pair of persons whose human relations index satisfies the first warning condition in the human relations map. ..
  • the human relationship map generation unit 14 may identify and display a pair of a person whose feeling index satisfies the second warning condition and a person to whom the feeling indicated by the feeling index is directed in the human relationship map.
  • the processing device 10 outputs the human relationship map via an output device such as a display, a projection device, a printer, or a mailer.
  • an output device such as a display, a projection device, a printer, or a mailer.
  • the same effects as those of the first and second embodiments are realized. Further, according to the processing device 10 of the present embodiment, the user can intuitively and easily grasp a complicated human relationship between a plurality of persons based on the human relationship map as shown in FIG. 7. Become.
  • An acquisition means for acquiring biometric information of each person and event information indicating an event that has occurred between each person and another person.
  • a first calculation means for calculating a feeling index indicating feelings toward each other person based on the biological information and the event information for each person.
  • a second calculation means for calculating a human relationship index indicating a human relationship between people based on the feeling index, and Processing equipment with.
  • the processing device identifies and displays a pair of persons whose human relationship index satisfies the first warning condition in the human relationship map. 5.
  • the human relationship map generating means identifies and displays a pair of a person whose feeling index satisfies the second warning condition and a person to whom the feeling indicated by the feeling index is directed in the human relationship map.
  • the processing apparatus according to any one. 6.
  • Device 7.
  • a second warning means that extracts a pair of a person whose feeling index satisfies the second warning condition and a person to whom the feeling indicated by the feeling index is directed, and performs a second warning process for notifying the extracted pair.
  • the processing apparatus according to any one of 1 to 6, further comprising.
  • the computer Acquires biometric information of each person and event information indicating an event that has occurred between each person and another person. For each person, based on the biometric information and the event information, a feeling index indicating feelings toward each other person is calculated.
  • Computer, Acquisition means for acquiring biometric information of each person and event information indicating an event that has occurred between each person and another person.
  • a first calculation means for calculating a feeling index indicating feelings toward each other person based on the biological information and the event information for each person.
  • a second calculation means for calculating a human relationship index indicating a human relationship between people based on the feeling index for each pair of people.
  • a storage medium that stores a program that functions as.

Abstract

本発明は、各人物の生体情報、及び、各人物と他の人物との間で生じたイベントを示すイベント情報を取得する取得部(11)と、人物毎に、生体情報及びイベント情報に基づき、他の人物各々に対する気持ちを示す気持ち指標を算出する第1の算出部(12)と、人物のペア毎に、気持ち指標に基づき、人物間の人間関係を示す人間関係指標を算出する第2の算出部(13)と、を有する処理装置(10)を提供する。

Description

処理装置、処理方法及び記憶媒体
 本発明は、処理装置、処理方法及び記憶媒体に関する。
 特許文献1は、ウェアラブル端末で園児(監視対象者)の生体情報を検出し、当該生体情報に基づき園児毎の体調や感情の分析を行うシステムを開示している。また、当該システムは、上記分析結果に基づき、例えば誰と接触している時に感情が盛り上がっていたか、あるいは感情が落ち込みがちであったか等の人間関係に関する分析を行うことを開示している。
特開2018-93978号公報
 特許文献1に記載の技術で把握できる人間関係は、一方の人物から他方の人物に向けられる気持ちであり、両者の相互間の気持ちを反映した人間関係ではない。本発明は、相互間の気持ちを反映した人間関係を把握できるようにすることを課題とする。
 本発明によれば、
 各人物の生体情報、及び、各人物と他の人物との間で生じたイベントを示すイベント情報を取得する取得手段と、
 人物毎に、前記生体情報及び前記イベント情報に基づき、他の人物各々に対する気持ちを示す気持ち指標を算出する第1の算出手段と、
 人物のペア毎に、前記気持ち指標に基づき、人物間の人間関係を示す人間関係指標を算出する第2の算出手段と、
を有する処理装置が提供される。
 また、本発明によれば、
 コンピュータが、
  各人物の生体情報、及び、各人物と他の人物との間で生じたイベントを示すイベント情報を取得し、
  人物毎に、前記生体情報及び前記イベント情報に基づき、他の人物各々に対する気持ちを示す気持ち指標を算出し、
  人物のペア毎に、前記気持ち指標に基づき、人物間の人間関係を示す人間関係指標を算出する処理方法が提供される。
 また、本発明によれば、
 コンピュータを、
  各人物の生体情報、及び、各人物と他の人物との間で生じたイベントを示すイベント情報を取得する取得手段、
  人物毎に、前記生体情報及び前記イベント情報に基づき、他の人物各々に対する気持ちを示す気持ち指標を算出する第1の算出手段、
  人物のペア毎に、前記気持ち指標に基づき、人物間の人間関係を示す人間関係指標を算出する第2の算出手段、
として機能させるプログラムを記憶した記憶媒体が提供される。
 本発明によれば、相互間の気持ちを反映した人間関係を把握できるようになる。
 上述した目的、および、その他の目的、特徴および利点は、以下に述べる好適な実施の形態、および、それに付随する以下の図面によって、さらに明らかになる。
本実施形態の処理装置のハードウエア構成の一例を示す図である。 本実施形態の処理装置の機能ブロック図の一例である。 本実施形態の処理装置が処理する情報の一例を模式的に示す図である。 本実施形態の処理装置の処理の流れの一例を示すフローチャートである。 本実施形態の処理装置の機能ブロック図の一例である。 本実施形態の処理装置の機能ブロック図の一例である。 本実施形態の処理装置が処理する情報の一例を模式的に示す図である。
<第1の実施形態>
 最初に、本実施形態の処理装置の概要を説明する。処理装置は、刑務所、学校、幼稚園、職場等の集団で活動する場所や施設における人間関係を把握するために利用される。
 まず、一定期間の間、各人物の生体情報や、各人物と他の人物との間で生じたイベント(接近、会話等)を示すデータが収集される。そして、各人物の生体情報、及び、他の人物との間で生じたイベントを示すイベント情報が、処理装置に入力される。
 処理装置は、各人物の生体情報及びイベント情報を取得すると、取得した情報に基づき、人物毎に、他の人物各々に対する気持ちを示す気持ち指標を算出する。そして、処理装置は、人物のペア毎に、両者の相手に対する気持ちを示す気持ち指標に基づき、人物間の人間関係を示す人間関係指標を算出する。
 次に、処理装置の構成を詳細に説明する。まず、処理装置のハードウエア構成の一例を説明する。
 処理装置の各機能部は、任意のコンピュータのCPU(Central Processing Unit)、メモリ、メモリにロードされるプログラム、そのプログラムを格納するハードディスク等の記憶ユニット(あらかじめ装置を出荷する段階から格納されているプログラムのほか、CD(Compact Disc)等の記憶媒体やインターネット上のサーバ等からダウンロードされたプログラムをも格納できる)、ネットワーク接続用インターフェイスを中心にハードウエアとソフトウエアの任意組合せによって実現される。そして、その実現方法、装置にはいろいろな変形例があることは、当業者には理解されるところである。
 図1は、処理装置のハードウエア構成を例示するブロック図である。図1に示すように、処理装置は、プロセッサ1A、メモリ2A、入出力インターフェイス3A、周辺回路4A、バス5Aを有する。周辺回路4Aには、様々なモジュールが含まれる。処理装置は周辺回路4Aを有さなくてもよい。なお、処理装置は物理的及び/又は論理的に分かれた複数の装置で構成されてもよいし、物理的及び/又は論理的に一体となった1つの装置で構成されてもよい。処理装置が物理的及び/又は論理的に分かれた複数の装置で構成される場合、複数の装置各々が上記ハードウエア構成を備えることができる。
 バス5Aは、プロセッサ1A、メモリ2A、周辺回路4A及び入出力インターフェイス3Aが相互にデータを送受信するためのデータ伝送路である。プロセッサ1Aは、例えばCPU、GPU(Graphics Processing Unit)などの演算処理装置である。メモリ2Aは、例えばRAM(Random Access Memory)やROM(Read Only Memory)などのメモリである。入出力インターフェイス3Aは、入力装置、外部装置、外部サーバ、外部センサー、カメラ等から情報を取得するためのインターフェイスや、出力装置、外部装置、外部サーバ等に情報を出力するためのインターフェイスなどを含む。入力装置は、例えばキーボード、マウス、マイク、物理ボタン、タッチパネル等である。出力装置は、例えばディスプレイ、スピーカ、プリンター、メーラ等である。プロセッサ1Aは、各モジュールに指令を出し、それらの演算結果をもとに演算を行うことができる。
 図2に、処理装置10の機能ブロック図の一例を示す。図示するように、処理装置10は、取得部11と、第1の算出部12と、第2の算出部13とを有する。
 取得部11は、各人物の生体情報、及び、各人物と他の人物との間で生じたイベントを示すイベント情報を取得する。
 上述の通り、処理装置10による人間関係算出のための前準備として、一定期間の間、各人物の生体情報や、各人物と他の人物との間で生じたイベント(接近、会話等)を示すデータが収集される。これらのデータは、各人物が装着したウェアラブル端末や、施設内に設置された各種装置により収集される。そして、収集されたデータに基づき生成された生体情報及びイベント情報が、任意の手段で処理装置10に入力される。収集された複数種類のデータは、各々日時情報が紐づけられ、互いに同期可能(発生タイミングの対応付け可能)となっている。
 生体情報は、脈拍、心拍、血圧、皮膚電位、体温、発声音、身体の振動、視線の動き、脳波等が例示される。各人物は、カメラ、マイク、センサー等の生体情報を収集する各種装置の中の少なくとも1つを備えるウェアラブル端末を装着した状態で、一定期間活動を行う。ウェアラブル端末の一例としては、靴に入れるインソール型の端末/指輪/腕輪/バンド型/時計/眼鏡/帽子/衣服/ネームプレート型/キーホルダー型などが挙げられる。なお、ウェアラブル端末を利用しない実施形態も考えられる。この場合、例えば、施設内に設置された任意の装置(カメラ、マイク、センサ等)により、各人物の生体情報が取得されてもよい。そして、同一装置により、生体情報及びイベント情報が取得されてもよい。
 各人物と他の人物との間で生じたイベントは、他の人物との接近、他の人物との会話、他の人物と同一空間にいる(同じ部屋で作業をしているなど)、視界に他の人物が映る程度近くに他の人物が存在する、単に近くに他の人物が居る、他の人物が接近して遠ざかる、などが挙げられる。また、近くにいる他の人物の生体情報に変化があったこと、具体的には、「近くにいる他の人物の脈拍/心拍が上昇(変化)した」、「近くにいる他の人物の身体が震えた」、「近くにいる他の人物が発声した」等を、各人物と他の人物との間で生じたイベントとしてもよい。なお、他の人物は、ウェアラブル端末を装着した人物であってもよいし、ウェアラブル端末を装着していない人物であってもよい。
 イベントを示すデータは、マイクで収集した音声であってもよい。各人物がマイクを装着してもよいし、施設内の任意の位置にマイクが設置されてもよい。このデータの場合、例えば声紋を利用してデータに含まれる音声の発話者を特定することで、誰と誰が会話したか、どちらから話しかけたか、また、誰と誰が会話できる程度に接近したか等を特定できる。
 その他、イベントを示すデータは、カメラで生成した画像であってもよい。各人物の前方や各人物の視線方向等を撮影するように各人物がカメラを装着してもよいし、施設内の任意の位置にカメラが設置されてもよい。このデータの場合、例えば顔の特徴等を利用して画像内の人物を特定することで、誰と誰が接近したか等を特定できる。
 その他、イベントを示すデータは、各人物の位置情報であってもよい。例えば、各人物にビーコンを装着させ、ビーコンからの信号を検出することで、各人物の位置情報が生成されてもよいし、その他の手段で各人物の位置情報が生成されてもよい。このデータによれば、誰と誰が接近したか等を特定できる。
 上述のようなイベントを示すデータを処理することで、各人物と他の人物との間で生じたイベントを示すイベント情報が生成される。図3に、イベント情報の一例を模式的に示す。図示するデータは、2020年1月9日に、人物識別情報「001319」の人物と他の人物との間で生じたイベントを示す。
 図2に戻り、第1の算出部12は、人物毎に、生体情報及びイベント情報に基づき、他の人物各々に対する気持ちを示す気持ち指標を算出する。人物Aの人物Bに対する気持ちを示す気持ち指標を算出する処理の一例は、例えば次のようになる。まず、第1の算出部12は、人物Aのイベント情報に基づき、人物Bとの間で生じたイベントを特定する。そして、第1の算出部12は、特定したイベント発生時における人物Aの生体情報に基づき、人物Aの人物Bに対する気持ちを示す気持ち指標を算出する。
 人物Aの他の人物に対する気持ちを示す気持ち指標を算出する処理の他の一例は、例えば次のようになる。例えば、人物Aの生体情報(心拍等)の変動を示す時系列なデータに基づき、平常時の生体情報との差が閾値よりも大きい時刻を特定するとともに、その時刻に発生したイベントとを特定する。そして、特定したイベントに基づき、人物Aの他の人物に対する気持ちを示す気持ち指標を算出する。
 気持ち指標は定量化されてもよい。一例として、気持ち指標は、1次元の値で示されてもよい。例えば、気持ち指標は、好意度を示す値であってもよい。その他、気持ち指標は、多次元の値で示されてもよい。例えば、気持ち指標は、好意度、尊敬度、関心度等の各種項目各々を示す値の集合であってもよい。
 また、気持ち指標は定性化されてもよい。例えば、気持ち指標は、「好意がある」、「好意がない」、「尊敬している」、「尊敬していない」、「関心がある」、「関心がない」等の指標で示されてもよい。
 第1の算出部12は、予め用意された演算アルゴリズムと、上記生体情報やイベント情報から算出したパラメータ値とに基づき、上述のような気持ち指標を算出する。演算アルゴリズムは、機械学習で生成された推定モデルであってもよいし、演算式であってもよいし、その他であってもよい。
 ここで、パラメータ値の一例を説明する。パラメータ値は、イベント情報を統計処理した結果であってもよい。統計処理の結果は、例えば、各人物と他の人物各々との間で起きた各イベントの回数(接近回数、会話回数等)や、各人物と他の人物各々との間で起きた各イベントのトータル時間や、各人物と他の人物各々との間で起きた各イベントの1回あたりの平均時間等が例示される。
 また、パラメータ値は、各人物と他の人物各々との間でイベントが生じている時の各人物の生体情報に基づき算出された値であってもよい。算出される値は、例えば、脈拍、心拍、血圧、皮膚電位、体温、発声音、身体の振動、視線の動き、脳波等に基づき算出したストレス度や感情等であってもよい。
 また、パラメータ値は、各人物と他の人物各々との間でイベントが生じている時間帯の中の所定のタイミングにおける各人物の生体情報に基づき算出された値(上記ストレス度や感情等)であってもよい。所定のタイミングは、イベントが生じている時間帯の冒頭、すなわちイベントが生じた時であってもよい。
 また、パラメータ値は、各人物と他の人物各々との間でイベントが生じている時の各人物の生体情報に基づき算出された値(上記ストレス度や感情等)と、そのイベントが生じる前の各人物の生体情報に基づき算出された値(上記ストレス度や感情等)との変化を示す値であってもよい。変化を示す値は、両方の値の差分であってもよいし、変化の割合を示す値であってもよいし、両方の値をペアとした2次元の値であってもよい。
 また、パラメータ値は、各人物と他の人物各々との間でイベントが生じている時の各人物の生体情報に基づき算出された値(上記ストレス度や感情等)と、そのイベントが終了した後の各人物の生体情報に基づき算出された値(上記ストレス度や感情等)との変化を示す値であってもよい。
 また、パラメータ値は、各人物と他の人物各々との距離と、その距離の変化に応じた上記値(上記ストレス度や感情等)との相関関係、すなわち距離の接近に伴うストレス度や感情の変化を示す値であってもよい。例えば、距離が所定量近づいた時のストレス度の変化量や変化の割合であってもよいし、距離が所定量近づく前後の値(ストレス度や感情)をペアとして2次元の値であってもよい。
 第2の算出部13は、人物のペア毎に、気持ち指標に基づき、人物間の人間関係を示す人間関係指標を算出する。第2の算出部13は、人物Aの人物Bに対する気持ちを示す気持ち指標と、人物Bの人物Aに対する気持ちを示す気持ち指標とに基づき、人物Aと人物Bとの人間関係を示す人間関係指標を算出する。
 人間関係指標は定量化されてもよい。一例として、人間関係指標は、1次元の値で示されてもよい。例えば、人間関係指標は、友好度を示す値であってもよい。その他、人間関係指標は、多次元の値で示されてもよい。例えば、人間関係指標は、友好度、互いの関心度等の各種項目各々を示す値の集合であってもよい。
 また、人間関係指標は定性化されてもよい。例えば、人間関係指標は、「友好」、「敵対関係」、「無関心」、「関心あり」等の指標で示されてもよい。
 第2の算出部13は、予め用意された演算アルゴリズムと、各ペアに属する人物各々の相手に対する気持ちを示す気持ち指標とに基づき、各ペアに属する人物間の人間関係を示す人間関係指標を算出する。演算アルゴリズムは、機械学習で生成された推定モデルであってもよいし、演算式であってもよいし、その他であってもよい。
 処理装置10は、出力装置を介して、第2の算出部13が算出した各ペアの人間関係指標を出力する。例えば、複数のペア各々の人間関係指標が一覧表示されてもよい。また、ある人物が指定されると、その人物と他の人物各々との人間関係指標が一覧表示されてもよい。
 また、処理装置10は、出力装置を介して、第1の算出部12が算出した各人物の他の人物各々に対する気持ち指標を出力してもよい。例えば、複数の人物各々の他の人物各々に対する気持ち指標が、人物毎にまとめて一覧表示されてもよい。また、ある人物が指定されると、その人物他の人物各々に対する気持ち指標が一覧表示されてもよい。
 出力装置は、ディスプレイ、投影装置、プリンター、メーラ、スピーカ等が例示されるが、これらに限定されない。
 次に、図4のフローチャートを用いて、処理装置10の処理の流れの一例を説明する。
 処理装置10は、各人物の生体情報、及び、各人物と他の人物との間で生じたイベントを示すイベント情報を取得すると(S10)、人物毎に、生体情報及びイベント情報に基づき、他の人物各々に対する気持ちを示す気持ち指標を算出する(S11)。次いで、処理装置10は、人物のペア毎に、各ペアに属する人物各々の相手に対する気持ちを示す気持ち指標に基づき、人物間の人間関係を示す人間関係指標を算出する(S12)。そして、処理装置10は、S12での算出結果を出力する(S13)。
 次に、本実施形態の作用効果を説明する。処理装置10は、人物毎に、他の人物各々に対する気持ちを示す気持ち指標を算出し、人物のペア毎に、各ペアに属する人物各々の相手に対する気持ちを示す気持ち指標に基づき、人物間の人間関係を示す人間関係指標を算出することができる。このような処理装置10によれば、ユーザは、相互間の気持ちを反映した人間関係を把握できるようになる。そして、ユーザは、把握した内容に基づき所定の人物の所属先を変更する等の組織改編を行うことで、人間関係に基づくトラブルの発生を未然に防止することができる。
 また、上述のような特徴的なパラメータ値に基づき気持ち指標を算出し、当該気持ち指標に基づき人間関係指標を算出する処理装置10によれば、2人の人物間の人間関係を精度よく推定することができる。
<第2の実施形態>
 図5に、本実施形態の処理装置10の機能ブロック図の一例を示す。図示するように、処理装置10は、取得部11と、第1の算出部12と、第2の算出部13と、警告部15とを有する。
 警告部15は、第1の警告手段及び第2の警告手段の少なくとも一方を有する。
 第1の警告手段は、人間関係指標が第1の警告条件を満たす人物のペアを抽出し、抽出したペアを通知する。第1の警告手段は、人間関係が所定レベルよりも悪い(友好的でない)人物のペアを抽出することを目的とする。第1の警告条件は、このような目的を達成可能な内容となっている。
 第2の警告手段は、気持ち指標が第2の警告条件を満たす人物と、当該気持ち指標で示される気持ちが向けられる人物とのペアを抽出し、抽出したペアを通知する。第2の警告手段は、所定の人物のことを所定レベルよりも悪く思っている(友好的でない)人物とその相手のペアを抽出することを目的とする。第2の警告条件は、このような目的を達成可能な内容となっている。
 警告部15は、ディスプレイ、投影装置、プリンター、メーラ、スピーカ等の出力装置を介して、抽出したペアをユーザに通知する。例えば、抽出したペアに属する2人の人物の識別情報が出力装置を介して出力されてもよい。
 処理装置10のその他の構成は、第1の実施形態と同様である。
 以上説明した本実施形態の処理装置10によれば、第1の実施形態と同様の作用効果が実現される。また、本実施形態の処理装置10によれば、ユーザは、人間関係が所定レベルよりも悪い人物のペアや、少なくとも一方が他方のことを所定レベルよりも悪く思っている人物のペア、すなわち、人物の所属先の変更等の組織改編等が必要な箇所を容易に把握することができる。
<第3の実施形態>
 図6に、本実施形態の処理装置10の機能ブロック図の一例を示す。図示するように、処理装置10は、取得部11と、第1の算出部12と、第2の算出部13と、人間関係マップ生成部14とを有する。なお、処理装置10は、警告部15を有してもよい。
 人間関係マップ生成部14は、複数の人物相互間の人間関係指標を示した人間関係マップを生成する。人間関係マップ生成部14は、人間関係マップにおいて、第1の算出部12が算出した気持ち指標をさらに示してもよい。
 図7に、人間関係マップの一例を模式的に示す。図示する例では、各人物に対応するアイコンと、各人物の識別情報(A乃至D)と、各人物間の人間関係を示す人間関係指標と、各人物の他の人物各々に対する気持ちを示す気持ち指標と、接近回数とが示されている。人間関係指標は、敵視、友好、興味、無関心等の定性的な指標となっている。気持ち指標は、定量的な値であり、値が大きいほど好意があることを示す。
 なお、接近回数に代えて、会話回数等のその他のイベントの発生回数が示されてもよい。また、アイコンに代えて、各人物の実際の画像が表示されてもよい。また、図示する例では、4人の人間関係を示すが、この数字はあくまで一例であり、これに限定されない。
 また、図7では示さないが、人間関係マップ生成部14は、人間関係マップにおいて、人間関係指標が上記第1の警告条件を満たす人物のペアを識別表示(例えば、強調表示)してもよい。また、人間関係マップ生成部14は、人間関係マップにおいて、気持ち指標が第2の警告条件を満たす人物と、その気持ち指標で示される気持ちが向けられる人物とのペアを識別表示してもよい。
 処理装置10は、ディスプレイ、投影装置、プリンター、メーラ等の出力装置を介して、当該人間関係マップを出力する。
 処理装置10のその他の構成は、第1及び第2の実施形態と同様である。
 以上説明した本実施形態の処理装置10によれば、第1及び第2の実施形態と同様の作用効果が実現される。また、本実施形態の処理装置10によれば、ユーザは、図7に示すような人間関係マップに基づき、複数の人物相互間の複雑な人間関係を直感的に容易に把握することが可能となる。
 以上、実施形態(及び実施例)を参照して本願発明を説明したが、本願発明は上記実施形態(及び実施例)に限定されるものではない。本願発明の構成や詳細には、本願発明のスコープ内で当業者が理解し得る様々な変更をすることができる。
 上記の実施形態の一部又は全部は、以下の付記のようにも記載されうるが、以下には限定されない。
1. 各人物の生体情報、及び、各人物と他の人物との間で生じたイベントを示すイベント情報を取得する取得手段と、
 人物毎に、前記生体情報及び前記イベント情報に基づき、他の人物各々に対する気持ちを示す気持ち指標を算出する第1の算出手段と、
 人物のペア毎に、前記気持ち指標に基づき、人物間の人間関係を示す人間関係指標を算出する第2の算出手段と、
を有する処理装置。
2. 複数の人物相互間の前記人間関係指標を示した人間関係マップを生成する人間関係マップ生成手段をさらに有する1に記載の処理装置。
3. 前記人間関係マップ生成手段は、前記人間関係マップにおいて、前記気持ち指標をさらに示す2に記載の処理装置。
4. 前記人間関係マップ生成手段は、前記人間関係マップにおいて、前記人間関係指標が第1の警告条件を満たす人物のペアを識別表示する2又は3に記載の処理装置。
5. 前記人間関係マップ生成手段は、前記人間関係マップにおいて、前記気持ち指標が第2の警告条件を満たす人物と、前記気持ち指標で示される気持ちが向けられる人物とのペアを識別表示する2から4のいずれかに記載の処理装置。
6. 前記人間関係指標が第1の警告条件を満たす人物のペアを抽出し、抽出したペアを通知する第1の警告処理を行う第1の警告手段をさらに有する1から5のいずれかに記載の処理装置。
7. 前記気持ち指標が第2の警告条件を満たす人物と、前記気持ち指標で示される気持ちが向けられる人物とのペアを抽出し、抽出したペアを通知する第2の警告処理を行う第2の警告手段をさらに有する1から6のいずれかに記載の処理装置。
8. コンピュータが、
  各人物の生体情報、及び、各人物と他の人物との間で生じたイベントを示すイベント情報を取得し、
  人物毎に、前記生体情報及び前記イベント情報に基づき、他の人物各々に対する気持ちを示す気持ち指標を算出し、
  人物のペア毎に、前記気持ち指標に基づき、人物間の人間関係を示す人間関係指標を算出する処理方法。
9. コンピュータを、
  各人物の生体情報、及び、各人物と他の人物との間で生じたイベントを示すイベント情報を取得する取得手段、
  人物毎に、前記生体情報及び前記イベント情報に基づき、他の人物各々に対する気持ちを示す気持ち指標を算出する第1の算出手段、
  人物のペア毎に、前記気持ち指標に基づき、人物間の人間関係を示す人間関係指標を算出する第2の算出手段、
として機能させるプログラムを記憶した記憶媒体。

Claims (9)

  1.  各人物の生体情報、及び、各人物と他の人物との間で生じたイベントを示すイベント情報を取得する取得手段と、
     人物毎に、前記生体情報及び前記イベント情報に基づき、他の人物各々に対する気持ちを示す気持ち指標を算出する第1の算出手段と、
     人物のペア毎に、前記気持ち指標に基づき、人物間の人間関係を示す人間関係指標を算出する第2の算出手段と、
    を有する処理装置。
  2.  複数の人物相互間の前記人間関係指標を示した人間関係マップを生成する人間関係マップ生成手段をさらに有する請求項1に記載の処理装置。
  3.  前記人間関係マップ生成手段は、前記人間関係マップにおいて、前記気持ち指標をさらに示す請求項2に記載の処理装置。
  4.  前記人間関係マップ生成手段は、前記人間関係マップにおいて、前記人間関係指標が第1の警告条件を満たす人物のペアを識別表示する請求項2又は3に記載の処理装置。
  5.  前記人間関係マップ生成手段は、前記人間関係マップにおいて、前記気持ち指標が第2の警告条件を満たす人物と、前記気持ち指標で示される気持ちが向けられる人物とのペアを識別表示する請求項2から4のいずれか1項に記載の処理装置。
  6.  前記人間関係指標が第1の警告条件を満たす人物のペアを抽出し、抽出したペアを通知する第1の警告処理を行う第1の警告手段をさらに有する請求項1から5のいずれか1項に記載の処理装置。
  7.  前記気持ち指標が第2の警告条件を満たす人物と、前記気持ち指標で示される気持ちが向けられる人物とのペアを抽出し、抽出したペアを通知する第2の警告処理を行う第2の警告手段をさらに有する請求項1から6のいずれか1項に記載の処理装置。
  8.  コンピュータが、
      各人物の生体情報、及び、各人物と他の人物との間で生じたイベントを示すイベント情報を取得し、
      人物毎に、前記生体情報及び前記イベント情報に基づき、他の人物各々に対する気持ちを示す気持ち指標を算出し、
      人物のペア毎に、前記気持ち指標に基づき、人物間の人間関係を示す人間関係指標を算出する処理方法。
  9.  コンピュータを、
      各人物の生体情報、及び、各人物と他の人物との間で生じたイベントを示すイベント情報を取得する取得手段、
      人物毎に、前記生体情報及び前記イベント情報に基づき、他の人物各々に対する気持ちを示す気持ち指標を算出する第1の算出手段、
      人物のペア毎に、前記気持ち指標に基づき、人物間の人間関係を示す人間関係指標を算出する第2の算出手段、
    として機能させるプログラムを記憶した記憶媒体。
PCT/JP2020/005149 2020-02-10 2020-02-10 処理装置、処理方法及び記憶媒体 WO2021161387A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2021577735A JP7452558B2 (ja) 2020-02-10 2020-02-10 処理装置、処理方法及びプログラム
PCT/JP2020/005149 WO2021161387A1 (ja) 2020-02-10 2020-02-10 処理装置、処理方法及び記憶媒体

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2020/005149 WO2021161387A1 (ja) 2020-02-10 2020-02-10 処理装置、処理方法及び記憶媒体

Publications (1)

Publication Number Publication Date
WO2021161387A1 true WO2021161387A1 (ja) 2021-08-19

Family

ID=77291445

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2020/005149 WO2021161387A1 (ja) 2020-02-10 2020-02-10 処理装置、処理方法及び記憶媒体

Country Status (2)

Country Link
JP (1) JP7452558B2 (ja)
WO (1) WO2021161387A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023175829A1 (ja) * 2022-03-17 2023-09-21 日本電気株式会社 監視システム、監視装置、監視方法、および記録媒体

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008287690A (ja) * 2007-04-20 2008-11-27 Hitachi Ltd グループ可視化システム及びセンサネットワークシステム
JP2012150680A (ja) * 2011-01-20 2012-08-09 Fujitsu Ltd 人間関係マップ作成支援装置,人間関係マップ作成支援方法および人間関係マップ作成支援プログラム
JP2015046070A (ja) * 2013-08-28 2015-03-12 ヤフー株式会社 情報処理装置、判定方法および判定プログラム
JP2018045545A (ja) * 2016-09-16 2018-03-22 パナソニックIpマネジメント株式会社 ストレスマネジメントシステム及びストレスマネジメント方法
JP2019213231A (ja) * 2014-11-07 2019-12-12 ソニー株式会社 情報処理システム、制御方法、および記憶媒体

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008287690A (ja) * 2007-04-20 2008-11-27 Hitachi Ltd グループ可視化システム及びセンサネットワークシステム
JP2012150680A (ja) * 2011-01-20 2012-08-09 Fujitsu Ltd 人間関係マップ作成支援装置,人間関係マップ作成支援方法および人間関係マップ作成支援プログラム
JP2015046070A (ja) * 2013-08-28 2015-03-12 ヤフー株式会社 情報処理装置、判定方法および判定プログラム
JP2019213231A (ja) * 2014-11-07 2019-12-12 ソニー株式会社 情報処理システム、制御方法、および記憶媒体
JP2018045545A (ja) * 2016-09-16 2018-03-22 パナソニックIpマネジメント株式会社 ストレスマネジメントシステム及びストレスマネジメント方法

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023175829A1 (ja) * 2022-03-17 2023-09-21 日本電気株式会社 監視システム、監視装置、監視方法、および記録媒体

Also Published As

Publication number Publication date
JPWO2021161387A1 (ja) 2021-08-19
JP7452558B2 (ja) 2024-03-19

Similar Documents

Publication Publication Date Title
US8715179B2 (en) Call center quality management tool
US9138186B2 (en) Systems for inducing change in a performance characteristic
US20160350801A1 (en) Method for analysing comprehensive state of a subject
JP6447108B2 (ja) 利用可能性算出装置、利用可能性算出方法及び利用可能性算出プログラム
US8715178B2 (en) Wearable badge with sensor
WO2019086856A1 (en) Systems and methods for combining and analysing human states
Verma et al. Expressear: Sensing fine-grained facial expressions with earables
WO2020148920A1 (ja) 情報処理装置、情報処理方法、及び情報処理プログラム
JP2018073204A (ja) アクション指示プログラム、アクション指示方法及び画像生成装置
US20190020614A1 (en) Life log utilization system, life log utilization method, and recording medium
JP2007272533A (ja) インタラクション情報出力装置、インタラクション情報出力方法、及びプログラム
Shin et al. MyDJ: Sensing food intakes with an attachable on your eyeglass frame
WO2021161387A1 (ja) 処理装置、処理方法及び記憶媒体
JP2008046801A (ja) 興味傾向情報出力装置、興味傾向情報出力方法、及びプログラム
EP3996385A1 (en) Daydream-aware information recovery system
US20190008466A1 (en) Life log utilization system, life log utilization method, and recording medium
CN109862822B (zh) 识别影响个体的工作记忆负荷的感官输入
WO2022065446A1 (ja) 感情判定装置、感情判定方法及び感情判定プログラム
Virvou et al. Emotion recognition: empirical studies towards the combination of audio-lingual and visual-facial modalities through multi-attribute decision making
Ekiz et al. Long short-term memory network based unobtrusive workload monitoring with consumer grade smartwatches
WO2022230069A1 (ja) 動画像分析システム
Staab et al. Performance Comparison of Motion-Related Sensor Technology and Acoustic Sensor Technology in the Field of Human Health Monitoring
TWI749314B (zh) 影像追蹤系統
US20220198293A1 (en) Systems and methods for evaluation of interpersonal interactions to predict real world performance
CN116665892B (zh) 孤独症评估系统、方法及装置

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 20919304

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2021577735

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 20919304

Country of ref document: EP

Kind code of ref document: A1