JP2023000524A - Information management system - Google Patents

Information management system Download PDF

Info

Publication number
JP2023000524A
JP2023000524A JP2021101405A JP2021101405A JP2023000524A JP 2023000524 A JP2023000524 A JP 2023000524A JP 2021101405 A JP2021101405 A JP 2021101405A JP 2021101405 A JP2021101405 A JP 2021101405A JP 2023000524 A JP2023000524 A JP 2023000524A
Authority
JP
Japan
Prior art keywords
subject
information
information management
word
management system
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2021101405A
Other languages
Japanese (ja)
Inventor
大志 汐月
Daishi Shiozuki
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Motor Corp
Original Assignee
Toyota Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Motor Corp filed Critical Toyota Motor Corp
Priority to JP2021101405A priority Critical patent/JP2023000524A/en
Publication of JP2023000524A publication Critical patent/JP2023000524A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Medical Treatment And Welfare Office Work (AREA)

Abstract

To provide an information processing system capable of enlarging the usage range of a system that can recognize the heart rate of a subject.SOLUTION: In an information processing system 100, an information storage part 48 stores a word contained in a voice uttered by a subject, and information correlated with emotion that represents a stress state and interest/concern state of the subject determined at timing when the subject has uttered the aforementioned word. An emotion determination part 47 issues a notification to staff of a facility to urge a support for the subject in a case where the number of times of determination of the stress state within a given period is equal to or more than a given number of times, and in a case where the interest/concern state is determined, introduces another subject who has a history of uttering a voice similar to the word contained in the voice uttered by the subject when the aforementioned determination is made.SELECTED DRAWING: Figure 1

Description

本発明は情報管理システムに係る。特に、本発明は、対象者(システムが対象としている人)の情報を管理するものであって当該対象者の感情に関連する情報を管理するシステムに関する。 The present invention relates to an information management system. In particular, the present invention relates to a system that manages information about a subject (a person targeted by the system) and that manages information related to the subject's emotions.

従来、特許文献1に開示されているように、カメラによって撮影した人(対象者)の顔の画像から該対象者の心拍を認識し、心拍変動の周期から、交感神経系の活性のバランスを判断して対象者のストレス状態の判断を行うシステムが知られている。 Conventionally, as disclosed in Patent Document 1, the heartbeat of a person (subject) captured by a camera is recognized from the face image of the subject, and the balance of the activity of the sympathetic nervous system is determined from the period of heartbeat fluctuation. A system is known for making a judgment and determining a subject's stress state.

この特許文献1には、取得した対象者の顔画像データから心拍間隔データ(周期的な心拍の間隔に関するデータ)を作成し、その心拍間隔データに対し周波数変換を行うことで心拍変動スペクトログラムデータを作成して、心拍の変動周波数の値に基づき対象者の安静状態とストレス状態とを判別することが開示されている。 In Patent Document 1, heartbeat interval data (data relating to periodic heartbeat intervals) is created from acquired face image data of a subject, and heartbeat variability spectrogram data is obtained by performing frequency conversion on the heartbeat interval data. and discriminate between a subject's resting state and stress state based on the value of the heart rate variability frequency.

特開2017-29318号公報JP 2017-29318 A

本発明の発明者はこの種のシステムについての利用範囲の拡大に関して考察を行った。そして、本発明の発明者は、この種のシステムが対象者の心拍数および心拍変動を得ることが可能であること、および、これら心拍数および心拍変動と対象者の感情との間に相関があることに着目し、これらを用いてシステムの利用範囲の拡大を図ることについて考察を行った。 The inventors of the present invention considered expanding the range of use of this type of system. The inventors of the present invention have also found that this type of system is capable of obtaining the heart rate and heart rate variability of the subject, and that there is a correlation between these heart rate and heart rate variability and the subject's emotions. Focusing on a certain point, we considered how to expand the range of use of the system using these.

本発明は、かかる点に鑑みてなされたものであり、その目的とするところは、対象者の心拍を認識可能なシステムの利用範囲の拡大を図ることにある。 The present invention has been made in view of the above points, and its object is to expand the range of use of a system capable of recognizing the heartbeat of a subject.

前記の目的を達成するための本発明の解決手段は、対象者の感情に関連する情報を管理する情報管理システムを対象とする。そして、この情報管理システムは、撮影手段、音声取得手段、単語抽出部、心拍計測部、感情判定部、情報記憶部を備えていることを特徴とする。撮影手段は、前記対象者を撮影可能である。音声取得手段は、前記対象者が発した音声を取得可能である。単語抽出部は、前記音声取得手段によって取得された前記音声から、当該音声に含まれる単語を抽出する。心拍計測部は、前記撮影手段によって撮影された前記対象者の画像情報に基づき当該対象者の心拍を計測する。感情判定部は、前記心拍計測部によって計測された前記対象者の心拍の情報に基づいて算出された心拍変動および心拍数の少なくとも一方の情報から、前記対象者の種々の感情のうち少なくともストレス状態および興味関心状態の何れであるかを判定する。情報記憶部は、前記単語抽出部によって抽出された前記単語と、前記対象者が当該単語を発したタイミングにおいて前記感情判定部によって判定された前記対象者の感情とを関連付けた情報を記憶する。 The solution of the present invention to achieve the above object is directed to an information management system for managing information related to a subject's emotions. This information management system is characterized by comprising photographing means, voice acquisition means, word extraction section, heart rate measurement section, emotion determination section, and information storage section. The photographing means is capable of photographing the target person. The voice acquisition means can acquire the voice uttered by the subject. A word extraction unit extracts words included in the voice from the voice acquired by the voice acquisition means. The heartbeat measuring unit measures the heartbeat of the subject based on the image information of the subject photographed by the photographing means. The emotion determination unit detects at least a stress state among various emotions of the subject from information on at least one of heart rate variability and heart rate calculated based on information on the heart rate of the subject measured by the heart rate measurement unit. and interest state. The information storage unit stores information that associates the word extracted by the word extraction unit with the subject's emotion determined by the emotion determination unit at the timing when the subject utters the word.

この特定事項により、心拍計測部によって計測された対象者の心拍の情報に基づいて算出された心拍変動および心拍数の少なくとも一方の情報から、現在の対象者の感情が、少なくともストレス状態および興味関心状態の何れであるかが判定される。そして、このようなストレス状態や興味関心状態といった対象者の感情が判定されたタイミングで当該対象者が音声を発していた場合には、その音声に含まれる単語と対象者の感情とを関連付けた情報が情報記憶部に記憶される。これにより、対象者が発した音声に含まれる単語と対象者の感情との関係が把握されることになる。このため、その単語に基づいて対象者がストレスを感じる状況や興味や関心のある事項等を把握することができ、それに応じた対象者へのサポートを効果的に行うことができて、システムの利用範囲の拡大を図ることができる。 According to this specific matter, at least one of heart rate variability and heart rate information calculated based on the heart rate information of the subject measured by the heart rate measuring unit indicates that the current emotion of the subject is at least the state of stress and interest. It is determined which of the states it is in. Then, when the target person utters a voice at the timing when the target person's emotion such as stress state or interest state is determined, the words included in the voice and the target person's emotion are associated. Information is stored in the information storage unit. As a result, the relationship between the words included in the voice uttered by the subject and the emotion of the subject can be grasped. For this reason, it is possible to grasp the situation in which the subject feels stressed based on the word, the interest and the matter of concern, etc., and it is possible to effectively provide support to the subject according to that, and the system can be improved. It is possible to expand the range of use.

また、少なくとも前記撮影手段および前記音声取得手段は情報管理装置に搭載されており、前記情報管理装置は、自律移動可能とする移動手段を備えており、前記心拍計測部は、前記撮影手段によって撮影された前記対象者の顔の画像情報に基づいて当該対象者の心拍を計測するようになっていて、前記撮影手段による前記対象者の顔の撮影に当たり、前記情報管理装置は前記移動手段の作動によって前記対象者の前方へ回り込むようになっている。 At least the photographing means and the sound acquisition means are mounted on an information management device, the information management device includes a moving means capable of autonomous movement, and the heartbeat measurement unit is adapted to perform photographing by the photographing means. heartbeat of the subject based on the image information of the subject's face that has been obtained, and when the subject's face is photographed by the photographing means, the information management device operates the moving means. It is designed to turn around to the front of the subject person by.

このように情報管理装置が対象者の前方へ回り込むことにより、撮影手段による対象者の顔の撮影を容易に行うことができる。このため、対象者の顔の画像情報に基づいた当該対象者の心拍の計測を高い精度で行うことができる。 Since the information management device moves around in front of the subject in this manner, the subject's face can be easily photographed by the photographing means. Therefore, the heartbeat of the subject can be measured with high accuracy based on the image information of the subject's face.

また、前記対象者の情報を外部出力する出力手段を備えており、前記感情判定部は、前記心拍変動が所定の閾値以下である場合に前記対象者がストレス状態であると判定し、このストレス状態であることの判定が所定期間中に所定回数以上行われた場合には、前記出力手段によって、当該対象者がストレス状態であることの情報を外部出力するようになっている。 Further, output means for externally outputting the information of the subject is provided, and the emotion determination unit determines that the subject is in a stress state when the heart rate variability is equal to or less than a predetermined threshold, and determines that the subject is in a stress state. When the determination of the stress state is made more than a predetermined number of times during the predetermined period, the output means outputs information indicating that the subject is in the stress state.

このように対象者がストレス状態であることの情報を外部出力することにより、対象者以外の人(例えばシステムの管理者等)に、対象者がストレス状態であることを通知できる。このため、ストレス状態にある対象者に対するサポートが必要であることを対象者以外の人に認識させることが可能になり、対象者に対するサポートを促すことができる。 By externally outputting information indicating that the subject is in a stressed state, it is possible to notify a person other than the subject (for example, a system administrator, etc.) that the subject is in a stressed state. Therefore, it is possible to make people other than the target person recognize that the target person who is in a stressed state needs support, and it is possible to encourage support for the target person.

また、前記感情判定部は、前記心拍変動が所定の閾値を超えており且つ前記心拍数が所定の閾値以上である場合に前記対象者が興味関心状態であると判定し、この興味関心状態であることの判定が行われた場合には、その判定が行われたタイミングにおいて前記単語抽出部によって抽出された前記単語または該単語に類似する単語によるWeb検索情報を前記対象者に提供するようになっている。 The emotion determination unit determines that the subject is in a state of interest when the heart rate variability exceeds a predetermined threshold and the heart rate is equal to or greater than a predetermined threshold, and in this state of interest, When a certain thing is determined, the subject is provided with Web search information based on the word extracted by the word extraction unit or a word similar to the word at the timing when the determination is made. It's becoming

ここでいうWeb検索情報とは、前記単語または該単語に類似する単語によるWeb検索の結果の情報であってもよいし、検索ワードの選択を支援するための情報であってもよい。 The Web search information referred to here may be information on the result of a Web search using the word or a word similar to the word, or information for assisting selection of a search word.

このように対象者が興味関心状態である場合に前記単語または該単語に類似する単語によるWeb検索情報を当該対象者に提供することにより、この対象者は興味や関心のある情報を容易に取得することができる。 In this way, when the target person is in a state of interest, by providing the target person with Web search information using the word or words similar to the word, the target person can easily obtain information that interests the target person. can do.

また、複数の対象者を対象とし、前記単語抽出部によって抽出された前記単語と、前記対象者が当該単語を発したタイミングにおいて前記感情判定部によって判定された前記対象者の感情とを関連付けた情報を前記複数の対象者それぞれに応じて個別に前記情報記憶部に記憶するようになっており、特定の対象者に対して前記感情判定部によって興味関心状態であることの判定が行われた場合、その判定が行われたタイミングにおいて前記単語抽出部によって抽出された前記単語または該単語に類似する単語を発した履歴を有する他の対象者を、前記特定の対象者に紹介するようになっている。 Further, a plurality of subjects are targeted, and the words extracted by the word extraction unit are associated with the subject's emotions determined by the emotion determination unit at the timing when the subject utters the words. Information is individually stored in the information storage unit according to each of the plurality of subjects, and the emotion determining unit determines that the specific subject is in a state of interest. In this case, other subjects who have a history of uttering the words extracted by the word extraction unit at the timing of the determination, or words similar to the words, are introduced to the specific subjects. ing.

これによれば、互いに興味や関心が共通する複数の対象者同士の交流を深めることができる。これにより、システムの利用範囲の更なる拡大を図ることができる。 According to this, it is possible to deepen exchanges between a plurality of subjects who have common interests. As a result, it is possible to further expand the range of use of the system.

本発明では、対象者が発した音声に含まれる単語と、対象者が当該単語を発したタイミングにおいて判定された当該対象者の感情(ストレス状態であることや興味関心状態であること)とを関連付けた情報を記憶するようにしている。このため、対象者が発した音声に含まれる単語と対象者の感情との関係を把握することができ、その単語に基づいて対象者がストレスを感じる状況や興味や関心のある事項等を把握することができて、それに応じた対象者へのサポートを効果的に行うことが可能になる。その結果、システムの利用範囲の拡大を図ることができる。 In the present invention, a word contained in a voice uttered by a subject and an emotion of the subject determined at the timing when the subject uttered the word (stress state or interest state) are combined. It is designed to store associated information. Therefore, it is possible to understand the relationship between the words contained in the voice uttered by the target person and the target person's emotions, and based on the words, the situation where the target person feels stress, the interest, etc. It is possible to effectively support the target person accordingly. As a result, it is possible to expand the range of use of the system.

実施形態に係る情報管理システムを備えた情報管理装置の構成を示すブロック図である。1 is a block diagram showing the configuration of an information management device provided with an information management system according to an embodiment; FIG. 実施形態に係る情報管理システムによる情報管理動作およびサポート動作の手順の一部を示すフローチャート図である。FIG. 4 is a flow chart diagram showing a part of procedures of information management operation and support operation by the information management system according to the embodiment; 実施形態に係る情報管理システムによる情報管理動作およびサポート動作の手順の他の一部を示すフローチャート図である。FIG. 7 is a flow chart diagram showing another part of the procedure of the information management operation and the support operation by the information management system according to the embodiment;

以下、本発明の実施の形態を図面に基づいて説明する。本実施形態は、介護施設、老人ホーム、サービス高齢者住宅等の施設内において高齢者等を対象者として、当該対象者の生体情報(心拍数等)を取得し、当該対象者の感情に関連する情報を管理するために用いられる情報管理システムに本発明を適用した場合について説明する。また、本実施形態では、本発明に係る情報管理システムが、施設内を移動可能とされた情報管理装置(パーソナルモビリティ)に備えられた場合を例に挙げて説明する。尚、本発明に係る情報管理システムは、情報管理装置と後述するサーバとによって構築されたものであってもよい。また、本実施形態では、情報管理システムが、複数の対象者それぞれの感情に関連する情報を管理するものとなっている場合を例に挙げて説明する。 BEST MODE FOR CARRYING OUT THE INVENTION Hereinafter, embodiments of the present invention will be described with reference to the drawings. This embodiment acquires the biological information (heart rate, etc.) of an elderly person or the like in a facility such as a nursing care facility, a nursing home, or a serviced elderly housing, and acquires the biological information of the subject, and the information related to the emotion of the subject. A case will be described in which the present invention is applied to an information management system used to manage information to be processed. Further, in this embodiment, an example will be described in which the information management system according to the present invention is provided in an information management device (personal mobility) capable of moving within a facility. The information management system according to the present invention may be constructed by an information management device and a server, which will be described later. Also, in this embodiment, an example will be described in which the information management system manages information related to the emotions of each of a plurality of subjects.

-情報管理装置の構成-
図1は、本実施形態に係る情報管理システム100を備えた情報管理装置1の構成を示すブロック図である。この図1に示すように、情報管理装置1は、対象者およびその周囲環境の情報を取得するための周囲情報取得装置2と、通信機能を有する通信機3と、情報管理装置1の動作を制御するための電子制御ユニット(Electrical Control Unit:以下、ECUと呼ぶ)4と、ECU4により制御される移動アクチュエータ51と、移動アクチュエータ51により駆動される車輪52とを備えている。また、この情報管理装置1は、当該情報管理装置1の現在位置を検出するためのGPS装置61と、対象者等に対して各種情報を提供するディスプレイ62およびスピーカ63と、対象者が発した音声や対象者の周囲の音を検出するマイク64とを備えている。以下、これらの構成について具体的に説明する。
- Configuration of Information Management Device -
FIG. 1 is a block diagram showing the configuration of an information management device 1 having an information management system 100 according to this embodiment. As shown in FIG. 1, the information management device 1 includes a surrounding information acquisition device 2 for acquiring information on a subject and its surrounding environment, a communication device 3 having a communication function, and operations of the information management device 1. It has an electronic control unit (ECU) 4 for control, a movement actuator 51 controlled by the ECU 4 , and wheels 52 driven by the movement actuator 51 . The information management device 1 also includes a GPS device 61 for detecting the current position of the information management device 1, a display 62 and a speaker 63 for providing various information to the target person and the like, and and a microphone 64 for detecting voice and surrounding sounds of the subject. These configurations will be specifically described below.

周囲情報取得装置2は、対象者およびその周囲を撮影して画像データを生成するカメラと、レーザを走査して対象者の周囲にある物体までの距離を計測して3次元距離画像を取得するLidar(Light Detection and Ranging)とを備えている。前記カメラとしては、CCD(Charge Coupled Device)カメラや赤外線カメラ等が採用可能である。周囲情報取得装置2は、カメラやLidarによって取得した画像のデータをECU4に出力する。この周囲情報取得装置2が、本発明でいう撮影手段に相当する。 The ambient information acquisition device 2 acquires a three-dimensional distance image by scanning a camera that captures a subject and its surroundings to generate image data, and by scanning a laser to measure the distance to objects around the subject. Lidar (Light Detection and Ranging). A CCD (Charge Coupled Device) camera, an infrared camera, or the like can be used as the camera. The ambient information acquisition device 2 outputs image data acquired by a camera or Lidar to the ECU 4 . This ambient information acquisition device 2 corresponds to the photographing means referred to in the present invention.

通信機3は、送信機31および受信機32を含んで構成され、例えば、情報管理装置1の周囲に存在する携帯電話網の中継基地局等のインフラストラクチャ等との間で情報を送受信するものである。通信機3は、例えば半径約100mの範囲で情報の送受信を行うことが可能に設定されている。例えば、前記施設に設置されたサーバ(複数の対象者それぞれの生体情報を管理するサーバ)との間で情報の送受信を行うことが可能となっている。また、通信機3は、所定の情報を送信する小型送信機である無線ICタグが周囲に存在する場合には、その無線ICタグから送信される情報を受信する。通信機3とECU4とは、相互に情報の交換が可能となるように信号線によって接続されている。即ち、ECU4で生成された送信情報は、ECU4から送信機31に送信される。例えば、ECU4から受けた対象者の生体情報が送信機31に送信されると共に、その情報が送信機31から施設のサーバ等に送信される。一方、受信機32によって受信された各種の情報は、受信機32からECU4に送信される。例えば、施設のサーバから生体情報を取得すべき対象者の情報を受信機32が受信し、その情報が受信機32からECU4に送信される。 The communication device 3 includes a transmitter 31 and a receiver 32, and transmits and receives information to and from infrastructure such as a relay base station of a mobile phone network existing around the information management device 1, for example. is. The communication device 3 is set so as to be able to transmit and receive information within a radius of about 100 m, for example. For example, it is possible to transmit and receive information to and from a server installed at the facility (a server that manages biometric information of each of a plurality of subjects). Further, when a wireless IC tag, which is a small transmitter that transmits predetermined information, is present in the vicinity, the communication device 3 receives information transmitted from the wireless IC tag. The communication device 3 and the ECU 4 are connected by a signal line so that they can exchange information with each other. That is, the transmission information generated by the ECU 4 is transmitted from the ECU 4 to the transmitter 31 . For example, the subject's biometric information received from the ECU 4 is transmitted to the transmitter 31, and the information is transmitted from the transmitter 31 to a facility server or the like. On the other hand, various information received by the receiver 32 is transmitted from the receiver 32 to the ECU 4 . For example, the receiver 32 receives information about a subject whose biological information is to be obtained from a facility server, and the information is transmitted from the receiver 32 to the ECU 4 .

移動アクチュエータ51は、電動モータや操舵機構等を含んで構成されており、電動モータの作動による駆動力および操舵機構の作動による操舵力を車輪52に伝達することにより、当該車輪52の回転および操舵を行うようになっている。この車輪52の回転および操舵に伴って情報管理装置1の移動(自律移動)が可能となっている。このため、これら移動アクチュエータ51および車輪52によって本発明でいう移動手段が構成されている。 The movement actuator 51 includes an electric motor, a steering mechanism, etc., and transmits to the wheels 52 a driving force generated by the operation of the electric motor and a steering force generated by the operation of the steering mechanism, thereby rotating and steering the wheels 52 . is to be performed. As the wheels 52 rotate and steer, the information management apparatus 1 can move (autonomously move). Therefore, the moving actuator 51 and the wheels 52 constitute the moving means of the present invention.

GPS装置61は、人工衛星から送信されるGPS信号を受信し、情報管理装置1の現在位置を測位する。このGPS装置61によって測位された情報管理装置1の現在位置の情報は、GPS装置61からECU4に送信される。 The GPS device 61 receives GPS signals transmitted from artificial satellites and measures the current position of the information management device 1 . Information on the current position of the information management device 1 positioned by the GPS device 61 is transmitted from the GPS device 61 to the ECU 4 .

ディスプレイ62およびスピーカ63は、対象者に対して情報を提供する手段である。ディスプレイ62とECU4とは信号線によって接続されており、ECU4からディスプレイ62に制御信号が出力されると、ディスプレイ62はECU4からの制御信号に応じて各種情報を表示する。 The display 62 and speaker 63 are means for providing information to the subject. The display 62 and the ECU 4 are connected by a signal line, and when a control signal is output from the ECU 4 to the display 62, the display 62 displays various information according to the control signal from the ECU 4.

また、スピーカ63とECU4とは信号線によって接続されており、ECU4からスピーカ63に制御信号が出力されると、スピーカ63はECU4からの制御信号に応じて音声を発する。このスピーカ63から発せられる音声としては特に限定されるものではないが、例えば、対象者の生体情報を取得するに当たり、当該対象者が顔を情報管理装置1に向ける(より具体的には対象者が顔を周囲情報取得装置2に向ける)ように誘導する音声等を含んでいてもよい。 The speaker 63 and the ECU 4 are connected by a signal line, and when the ECU 4 outputs a control signal to the speaker 63, the speaker 63 emits a sound according to the control signal from the ECU 4. The sound emitted from the speaker 63 is not particularly limited. face toward the surrounding information acquisition device 2).

マイク64は、対象者が発した音声や対象者の周囲の音(対象者以外の人物の音声等)を検出する。このマイク64によって検出された音(音声を含む)の情報は、マイク64からECU4に送信される。この音の情報は、後述するように、対象者がストレスを感じる状況や興味や関心のある事項等を把握するための情報として利用される(音声に含まれる単語を抽出することで、当該単語が、対象者がストレスを感じる状況や興味や関心のある事項等を把握するための情報として利用される)。このマイク64が、本発明でいう音声取得手段に相当する。 The microphone 64 detects the voice uttered by the target person and the sounds around the target person (such as the voice of a person other than the target person). Information on sounds (including voice) detected by the microphone 64 is transmitted from the microphone 64 to the ECU 4 . As will be described later, this sound information is used as information for grasping situations in which the subject feels stress, interests, and matters of interest (by extracting the words contained in the voice, However, it is used as information to understand the situations in which the subject feels stress, interests, and matters of interest). This microphone 64 corresponds to the voice acquisition means of the present invention.

ECU4は、物理的には、演算を行うマイクロプロセッサ、該マイクロプロセッサに各処理を実行させるためのプログラム等を記憶するROM、演算結果等の各種データを記憶するRAM、および、バッテリによってその記憶内容が保持されるバックアップRAM等により構成されている。そして、この物理的な構成によって、ECU4は、周囲環境認識部41、対象者特定部42、自律移動制御部43、自己位置認識部44、生体情報取得部45、単語抽出部46、感情判定部47、情報記憶部48といった各種機能部を実現している。 The ECU 4 physically includes a microprocessor that performs calculations, a ROM that stores programs and the like for causing the microprocessor to execute various processes, a RAM that stores various data such as calculation results, and a battery that stores the stored contents. is configured by a backup RAM or the like in which is held. With this physical configuration, the ECU 4 includes a surrounding environment recognition unit 41, a subject identification unit 42, an autonomous movement control unit 43, a self position recognition unit 44, a biometric information acquisition unit 45, a word extraction unit 46, an emotion determination unit. 47 and an information storage unit 48 are realized.

周囲環境認識部41は、周囲情報取得装置2のカメラやLidarによって取得された画像を処理することによって、対象者を含む人物やその周囲の物体を認識するための画像処理を行う。この画像処理では、カメラやLidarによって取得された画像からエッジ抽出やパターン認識処理等によって人物やその周囲の物体を抽出して認識する処理が行われる。 The surrounding environment recognizing unit 41 performs image processing for recognizing persons including the target person and surrounding objects by processing images acquired by the camera or lidar of the surrounding information acquisition device 2 . In this image processing, processing for extracting and recognizing a person and surrounding objects is performed by edge extraction, pattern recognition processing, or the like from an image acquired by a camera or lidar.

対象者特定部42は、生体情報を取得しようとする人物(対象者)を特定するための機能部である。具体的に、情報管理装置1は、介護施設等の施設における複数の対象者それぞれの生体情報を取得するものとなっている。そして、各対象者それぞれに対して予め設定された時刻や予め設定された時間間隔で生体情報の取得動作を行う。対象者特定部42は、現時点で生体情報の取得を行う必要が生じた対象者を特定し(例えば、前記サーバから受信した情報に基づいて対象者を特定し)、その対象者の探索動作および対象者の認定動作を行う。 The subject identification unit 42 is a functional unit for identifying a person (subject) whose biometric information is to be acquired. Specifically, the information management device 1 acquires biometric information of each of a plurality of subjects in a facility such as a nursing care facility. Then, the biometric information acquisition operation is performed at preset times or at preset time intervals for each subject. The subject identification unit 42 identifies a subject whose biometric information needs to be acquired at the present time (for example, identifies the subject based on the information received from the server), and performs a search operation of the subject and Perform the authorized action of the target person.

対象者の探索動作および対象者の認定動作としては、撮影された人物が着ている衣服の形状や模様が予め学習させておいた対象者のものと一致するか否かを判断することにより行うことができる。また、対象者であることを示す電波を送信する無線ICタグを対象者が身に付けている場合には、対象者特定部42が通信機3を介して無線ICタグが送信する電波を受信することにより、対象者の探索および認定を行うことができる。また、カメラやLidarによって顔の画像が撮影できた場合には、予めアノテーションされた対象者の顔の画像データ(ラベルが付けられた画像データ;深層学習によって対象者の顔を認識するための教師データ)を利用して、顔の画像が撮影された人物が対象者(今回、生体情報を取得しようとする対象者)であるか否かを認識することができる。また、対象者が音声を発している状況であれば、既存の音声認識技術(音声モデルや言語モデルによる深層学習を利用した音声認識技術等)によって対象者であることの認識を行うことができる。 The search motion of the target person and the recognition motion of the target person are performed by determining whether or not the shape and pattern of the clothes worn by the photographed person match those of the target person learned in advance. be able to. Further, when the target person is wearing a wireless IC tag that transmits radio waves indicating that the target person is a target person, the target person identification unit 42 receives the radio waves transmitted by the wireless IC tag via the communication device 3. By doing so, it is possible to search and identify the target person. In addition, when the face image can be captured by a camera or lidar, the image data of the subject's face annotated in advance (labeled image data; teacher for recognizing the subject's face by deep learning) data), it is possible to recognize whether or not the person whose face image is taken is the target person (the target person whose biometric information is to be acquired this time). In addition, if the target person is speaking, it is possible to recognize that the target person is using existing speech recognition technology (speech recognition technology that uses deep learning using a speech model or language model, etc.). .

自律移動制御部43は、情報管理装置1に自律移動を行わせるために、移動アクチュエータ51に移動制御信号を送信するものである。この移動制御信号としては、前記電動モータに送信される回転速度制御信号、および、前記操舵機構に送信される操舵制御信号が挙げられる。電動モータおよび操舵機構は、これら信号を受信することで車輪52の回転および操舵を行うことになる。具体的には、前記周囲環境認識部41からの情報および前記対象者特定部42からの情報によって対象者の位置が認識されている場合には、この対象者の位置情報を受信することにより、自律移動制御部43は、周囲情報取得装置2による対象者の顔の撮影が可能となる位置まで情報管理装置1を移動させる。つまり、対象者の前側に移動する(対象者の前側に回り込む)ように移動アクチュエータ51に移動制御信号を送信することで情報管理装置1を移動させる。この動作は自己位置認識部44によって自己位置(情報管理装置1の位置)を認識しながら行われる。 The autonomous movement control unit 43 transmits a movement control signal to the movement actuator 51 in order to cause the information management device 1 to move autonomously. The movement control signal includes a rotational speed control signal sent to the electric motor and a steering control signal sent to the steering mechanism. The electric motor and steering mechanism receive these signals to rotate and steer the wheels 52 . Specifically, when the position of the target person is recognized by the information from the surrounding environment recognition unit 41 and the information from the target person identification unit 42, by receiving the position information of the target person, The autonomous movement control unit 43 moves the information management device 1 to a position where the surrounding information acquisition device 2 can photograph the target person's face. That is, the information management apparatus 1 is moved by transmitting a movement control signal to the movement actuator 51 so as to move to the front side of the subject (turn around to the front side of the subject). This operation is performed while recognizing the self-position (the position of the information management device 1) by the self-position recognition unit 44. FIG.

自己位置認識部44は、GPS装置61によって測位された情報管理装置1の現在位置の情報を受信する。この情報は、自己位置認識部44から自律移動制御部43に送信され、該自律移動制御部43は自己位置を認識しながら情報管理装置1の移動を行わせるように移動アクチュエータ51に移動制御信号を送信することになる。 The self-position recognition unit 44 receives information on the current position of the information management device 1 positioned by the GPS device 61 . This information is transmitted from the self-position recognition unit 44 to the autonomous movement control unit 43, and the autonomous movement control unit 43 sends a movement control signal to the movement actuator 51 so as to move the information management device 1 while recognizing the self-position. will be sent.

生体情報取得部45は、周囲情報取得装置2のカメラやLidarによって対象者の顔の画像が取得された場合に、その顔の画像から対象者の生体情報を取得する。具体的には、顔の画像から対象者の顔色、脈拍(心拍を求めるための脈拍)、血圧等といった生体情報を取得する。 The biometric information acquiring unit 45 acquires the biometric information of the target person from the face image when the target person's face image is acquired by the camera or Lidar of the ambient information acquisition device 2 . Specifically, biometric information such as the subject's complexion, pulse (pulse for determining heartbeat), blood pressure, etc. is acquired from the face image.

対象者の顔の画像から対象者の脈拍を取得する技術としては、血液中に含まれるヘモグロビンが緑色の光を吸収する特性を利用し、血流から生じると考えられる顔表面の輝度変化を捉えて脈拍を検出することが挙げられる。つまり、カメラ等で撮影した顔の動画から、取得フレームごとに顔領域の色成分(赤・緑・青)それぞれの平均値を求めた後、3つの色成分に共通するノイズを除去し、緑成分から輝度波形を抽出する。そして、この輝度波形のピーク値から脈拍を算出するものである。また、対象者の顔の画像から対象者の血圧を取得する技術としては、カメラ等で撮影した顔の動画から血流のわずかな変化を捉え、この血流の変化から血圧を求める機械学習アルゴリズムを用いて、顔の血流データから血圧を算出することが挙げられる。生体情報取得部45は、周囲情報取得装置2のカメラやLidarによって撮影された対象者の顔の画像情報に基づき当該対象者の脈拍を求め、この脈拍の情報から対象者の心拍を取得することが可能となっている(一般的には心拍は脈拍に対応している)。このため、この生体情報取得部45におけるこの心拍を取得する機能部が、本発明でいう心拍計測部(撮影手段によって撮影された対象者の画像情報に基づき当該対象者の心拍を計測する心拍計測部)に相当することになる。 As a technology to acquire the pulse of the subject from the image of the subject's face, we use the characteristic of hemoglobin contained in blood that absorbs green light to capture the brightness change on the face surface, which is thought to be caused by blood flow. to detect the pulse. In other words, after obtaining the average value of each of the color components (red, green, and blue) of the face area for each captured frame from a moving image of a face taken with a camera, etc., noise common to the three color components is removed, and the green Extract the luminance waveform from the component. Then, the pulse is calculated from the peak value of this luminance waveform. In addition, as a technology to acquire a subject's blood pressure from an image of the subject's face, a machine learning algorithm that detects slight changes in blood flow from a video of the subject's face captured by a camera or the like and obtains the blood pressure from this change in blood flow. to calculate the blood pressure from the blood flow data of the face. The biological information acquisition unit 45 obtains the pulse of the subject based on the image information of the subject's face captured by the camera or lidar of the surrounding information acquisition device 2, and acquires the heartbeat of the subject from the pulse information. is possible (in general, the heartbeat corresponds to the pulse). Therefore, the functional unit for acquiring the heartbeat in the biological information acquiring unit 45 is the heartbeat measuring unit (heartbeat measuring unit for measuring the heartbeat of the subject based on the image information of the subject photographed by the photographing means) according to the present invention. part).

単語抽出部46は、マイク64によって取得された対象者が発した音声から、当該音声に含まれる単語を抽出する。具体的には、対象者が発した音声(例えば他の人物と会話している状態で発した音声)をテキスト化し、そのテキスト情報を自然言語処理によって単語を抽出する処理を行うようになっている。例えば、対象者が他の人物と会話している場合には、前述したように音声認識技術によって対象者の発した音声のみを抽出し、その音声の情報のテキスト化および自然言語処理によって単語を抽出することになる。 The word extraction unit 46 extracts words included in the voice uttered by the subject acquired by the microphone 64 . Specifically, the voice uttered by the subject (for example, the voice uttered while talking with another person) is converted into text, and the text information is processed to extract words by natural language processing. there is For example, when the subject is conversing with another person, as mentioned above, only the voice uttered by the subject is extracted by voice recognition technology, and the words are extracted by converting the voice information into text and natural language processing. will be extracted.

感情判定部47は、生体情報取得部(心拍計測部)45によって計測された対象者の心拍の情報に基づいて心拍変動および心拍数を算出し、これらの情報から、対象者の種々の感情のうち少なくともストレス状態および興味関心状態の何れであるかを判定する。具体的には、周囲情報取得装置2のカメラやLidarによって撮影された対象者の顔の画像情報から心拍間隔データ(周期的な心拍の間隔に関するデータ)を作成し、その心拍間隔データに対し周波数変換を行うことで心拍変動スペクトログラムデータ(周波数スペクトルの計算結果データ)を作成する。そして、この心拍変動スペクトログラムデータに基づいて心拍の変動周波数の値を算出し、この心拍の変動周波数の値に基づき対象者の感情の状態を判定する。そして、この感情判定部47は、算出した心拍変動が所定の閾値(例えば0.15Hz)以下である場合には、対象者はストレス状態(ストレスを感じている状態)であると判定する。また、この感情判定部47は、算出した心拍変動が所定の閾値(例えば0.15Hz)を超えており、且つ心拍数が所定の閾値(例えば80拍/min)以上である場合には、対象者は興味関心状態(興味や関心のある事項を考えている状態)であると判定する。これらの閾値は任意に設定可能であるが、経験的にまたは実験的に設定される。 The emotion determination unit 47 calculates heart rate variability and heart rate based on information on the subject's heartbeat measured by the biometric information acquisition unit (heartbeat measurement unit) 45, and uses these information to determine various emotions of the subject. At least one of the stress state and the interest state is determined. Specifically, heartbeat interval data (data relating to periodic heartbeat intervals) is created from image information of the subject's face captured by the camera of the ambient information acquisition device 2 or Lidar, and the frequency of the heartbeat interval data is generated. Heart rate variability spectrogram data (frequency spectrum calculation result data) is created by conversion. Based on the heart rate variability spectrogram data, the value of the heart rate variability frequency is calculated, and the subject's emotional state is determined based on the value of the heart rate variability frequency. Then, when the calculated heart rate variability is equal to or less than a predetermined threshold value (for example, 0.15 Hz), the emotion determination unit 47 determines that the subject is in a stressed state (stressed state). In addition, when the calculated heart rate variability exceeds a predetermined threshold value (for example, 0.15 Hz) and the heart rate is equal to or greater than a predetermined threshold value (for example, 80 beats/min), the emotion determination unit 47 It is determined that the person is in a state of interest (a state in which he or she is thinking about a matter of interest or concern). These thresholds can be set arbitrarily, but are set empirically or experimentally.

情報記憶部48は、生体情報取得部45が取得した各種の生体情報を記憶する。前述したように、情報管理装置1は、複数の対象者それぞれの生体情報を取得するものとなっている。このため、情報記憶部48には、各対象者と生体情報取得部45によって取得された各対象者それぞれの各生体情報とが関連付けられて記憶されている。 The information storage unit 48 stores various types of biometric information acquired by the biometric information acquisition unit 45 . As described above, the information management device 1 acquires biometric information of each of a plurality of subjects. Therefore, the information storage unit 48 stores each subject and each subject's biometric information acquired by the biometric information acquisition unit 45 in association with each other.

また、本実施形態にあっては、情報記憶部48は、単語抽出部46によって抽出された単語と、対象者が当該単語を発したタイミングにおいて感情判定部47によって判定された対象者の感情とを関連付けた情報も記憶される。そして、情報管理装置1は、複数の対象者それぞれの生体情報を取得するものとなっているので、これら対象者それぞれに対して、前記単語と当該単語に対応する感情とを関連付けた情報も記憶されることになる。これらの情報は前記サーバに送信されて該サーバでも管理されるようになっていてもよい。 In addition, in this embodiment, the information storage unit 48 stores the words extracted by the word extraction unit 46 and the subject's emotion determined by the emotion determination unit 47 at the timing when the subject utters the word. is also stored. Since the information management device 1 acquires the biometric information of each of a plurality of subjects, it also stores information relating the words and the emotions corresponding to the words for each of the subjects. will be These pieces of information may be transmitted to the server and managed by the server.

具体的に、対象者の感情としてストレス状態となる可能性のある単語としては、「病気」「事故」「災害」等が例示される。つまり、これらの単語を対象者が発した場合、その対象者の感情としてはストレス状態となる可能性が高い。このため、これら単語とストレス状態とが関連付けられて記憶されることになる。一方、対象者の感情として興味関心状態となる可能性のある単語としては、「旅行」「料理」「スポーツ」等が例示される。つまり、これらの単語を対象者が発した場合、その対象者の感情としては興味関心状態となる可能性が高い。このため、これら単語と興味関心状態とが関連付けられて記憶されることになる。 Specific examples of words that may cause a subject to feel stressed include "disease," "accident," and "disaster." In other words, when a subject utters these words, there is a high possibility that the subject will be in a state of stress as an emotion. Therefore, these words and stress states are stored in association with each other. On the other hand, "travel", "cooking", "sports" and the like are examples of words that may cause interest in the subject's emotion. In other words, when the target person utters these words, there is a high possibility that the target person will be in a state of interest. Therefore, these words and interest states are stored in association with each other.

-情報管理動作およびサポート動作-
次に、前述の如く構成された情報管理システム(情報管理装置1に備えられた情報管理システム)100による情報管理動作およびサポート動作について説明する。図2および図3は、この情報管理動作およびサポート動作の手順を示すフローチャートである。このフローチャートは、前記施設内を移動している情報管理装置1のECU4によって、生体情報の取得要求が生じる度に繰り返して実行される。
-Information management operation and support operation-
Next, the information management operation and support operation by the information management system (the information management system provided in the information management apparatus 1) 100 configured as described above will be described. 2 and 3 are flow charts showing the procedures of this information management operation and support operation. This flow chart is repeatedly executed each time the ECU 4 of the information management device 1 moving within the facility issues a biometric information acquisition request.

先ず、ステップST1において、今回、生体情報(心拍等の生体情報)を取得しようとする対象者の特定を行う。この動作は、前述した対象者特定部42によって行われる。例えば、各対象者それぞれにおける過去の生体情報の取得時刻を取得し、各対象者のうち生体情報の取得時刻が最も古い(過去に生体情報を取得してからの経過時間が最も長い)対象者を、生体情報の取得が必要な対象者であるとして特定する。また、各対象者それぞれにおける生体情報の取得時刻や取得間隔のスケジュールデータがECU4のRAMに予め記憶されており、このスケジュールデータに従って生体情報の取得が必要な対象者を特定するようになっていてもよい。また、サーバから生体情報の取得指示信号を受信し、その信号に含まれている対象者の情報に従って生体情報の取得が必要な対象者を特定するようになっていてもよい。 First, in step ST1, a subject whose biological information (biological information such as heartbeat) is to be obtained this time is specified. This operation is performed by the subject identification unit 42 described above. For example, the acquisition time of past biometric information for each subject is acquired, and the subject with the oldest acquisition time of biometric information (the longest elapsed time since acquiring biometric information in the past) among each subject is identified as a subject whose biometric information needs to be obtained. In addition, schedule data of biometric information acquisition times and acquisition intervals for each subject is stored in advance in the RAM of the ECU 4, and the subject whose biometric information needs to be acquired is specified according to this schedule data. good too. Alternatively, a biometric information acquisition instruction signal may be received from the server, and the target person whose biometric information needs to be acquired may be specified according to the information of the target person included in the signal.

ステップST2では、ステップST1において特定された対象者の探索動作および対象者の認定動作を行う。つまり、周囲環境認識部41からの情報および対象者特定部42からの情報によって対象者の位置を認識しながら、当該対象者の探索(情報管理装置1が走行しながら探索)および認定(顔画像の撮影等による認定)が行われる。 In step ST2, the target person's search motion and the target person's authentication motion specified in step ST1 are performed. That is, while recognizing the position of the target person by the information from the surrounding environment recognition unit 41 and the information from the target person identification unit 42, the target person is searched (searched while the information management device 1 is running) and certified (face image certification by photographing, etc.) is performed.

ステップST3では、対象者の顔を撮影できていない場合の動作として、周囲情報取得装置2のカメラやLidarによって対象者の顔を撮影するために、移動アクチュエータ51による車輪52の回転および操舵によって対象者の前方へ情報管理装置1を回り込ませる動作が実行される。この際、情報管理装置1の回り込み位置としては、対象者が他の人物と会話している可能性があることを想定し、対象者が発する音声を取得しやすい位置に設定される。例えば、周囲情報取得装置2のカメラやLidarによって撮影された画像に基づき対象者の右側に他の人物が存在すると判定された場合には、情報管理装置1を対象者の左側に回り込ませる動作が実行される。 In step ST3, as an operation when the subject's face cannot be photographed, the movement actuator 51 rotates and steers the wheels 52 to photograph the subject's face by the camera or lidar of the surrounding information acquisition device 2. An operation of turning the information management apparatus 1 in front of the person is executed. At this time, assuming that the target person may be conversing with another person, the turnaround position of the information management apparatus 1 is set to a position where it is easy to acquire the voice uttered by the target person. For example, when it is determined that there is another person on the right side of the subject based on the image captured by the camera or Lidar of the surrounding information acquisition device 2, the information management device 1 is moved to the left side of the subject. executed.

ステップST4では、カメラやLidarによる対象者の顔の撮影(顔の認識)が可能になった状態で、カメラやLidarによる対象者の顔の撮影を行う。そして、この対象者の顔の撮影によって得られた顔画像データに基づいて当該対象者の心拍を計測する(生体情報取得部45における心拍を計測する機能部での動作)。また、マイク64によって対象者が発した音声を検出する。この音声の検出に伴い、前述した音声のテキスト化およびテキスト情報の自然言語処理によって、対象者が発した音声に含まれる単語を抽出する(単語抽出部46による単語の抽出動作)。ここで抽出される単語としては、対象者が発した音声に含まれる全ての単語であってもよいし、対象者の感情を判定する上で有効と判断される単語(予め学習させておいた感情に係るとされる単語)のみであってもよい。 In step ST4, the subject's face is photographed by the camera or the Lidar in a state in which the photographing of the subject's face (face recognition) by the camera or the Lidar is enabled. Then, the heartbeat of the subject is measured based on the face image data obtained by photographing the face of the subject (operation of the heartbeat measuring function unit in the biometric information acquisition unit 45). Also, the voice uttered by the subject is detected by the microphone 64 . Accompanying the detection of this voice, words included in the voice uttered by the subject are extracted by converting the voice into text and natural language processing of the text information (word extraction operation by the word extraction unit 46). The words extracted here may be all words contained in the voice uttered by the subject, or words that are judged to be effective in determining the subject's emotion (e.g., It may be only words that are considered to be related to emotions).

その後、ステップST5に移り、前述の如く算出された心拍変動が所定の閾値以下であるか否かを判定する。 After that, the process proceeds to step ST5, and it is determined whether or not the heart rate variability calculated as described above is equal to or less than a predetermined threshold value.

心拍変動が所定の閾値以下であり、ステップST5でYES判定された場合には、ステップST6に移り、ステップST4で抽出されていた単語に対して、ECU4のRAMに予め記憶されているストレス判定カウンタに1を加算する。この際、単語抽出部46によって複数の単語が抽出されている場合には各単語それぞれにストレス判定カウンタが割り当てられて1が加算されることになる。 If the heart rate variability is equal to or less than the predetermined threshold and the determination in step ST5 is YES, the process proceeds to step ST6. Add 1 to At this time, when a plurality of words are extracted by the word extraction unit 46, each word is assigned a stress determination counter and 1 is added.

ステップST7では、現在のストレス判定カウンタの値を情報記憶部48に記憶させる。この現在のストレス判定カウンタの値は個別のデータベース(例えば前記サーバ内のデータベース)に記憶させるようにしてもよい。 In step ST7, the current value of the stress determination counter is stored in the information storage section 48. FIG. This current stress determination counter value may be stored in a separate database (for example, a database within the server).

その後、ステップST8に移り、所定期間中(例えば過去7日間)で積算されたストレス判定カウンタの値が所定の閾値以上となっているか否かを判定する。この期間の値はこれに限定されるものではない。この際、前述したように単語抽出部46によって複数の単語が抽出されている場合には、各単語それぞれに割り当てられているストレス判定カウンタに対し、所定の閾値以上となっているか否かが判定される。 After that, the process proceeds to step ST8, and it is determined whether or not the value of the stress determination counter accumulated during a predetermined period (for example, the past seven days) is equal to or greater than a predetermined threshold. The value of this period is not limited to this. At this time, when a plurality of words are extracted by the word extraction unit 46 as described above, it is determined whether or not the stress determination counter assigned to each word is equal to or greater than a predetermined threshold value. be done.

所定期間中に積算されたストレス判定カウンタの値が未だ閾値未満であり、ステップST8でNO判定された場合には、そのままリターンされ、他の対象者に対して前述と同様の情報管理動作が行われる。 If the value of the stress determination counter accumulated during the predetermined period is still less than the threshold value and the determination in step ST8 is NO, the process is returned as is, and the same information management operation as described above is performed for other subjects. will be

一方、所定期間中に積算されたストレス判定カウンタの値が閾値以上となっており、ステップST8でYES判定された場合には、ステップST9に移り、施設のスタッフに向けて当該対象者がストレス状態であることを通知する。この通知の手段としては、当該対象者がストレス状態にあることの情報をECU4から送信機31に送信し、この送信機31から、施設のスタッフが携帯する端末に向けて、当該情報を、対象者を特定する情報(例えば氏名等)と共に送信する。これにより、施設のスタッフは、ストレス状態にある対象者が存在していることや当該対象者を特定することが可能となり、当該対象者に対するサポートが必要であることを認識する。これにより、施設のスタッフに対して対象者に対するサポートを促すことができる。このため、送信機31が本発明でいう出力手段(対象者の情報を外部出力する出力手段)に相当することになる。 On the other hand, if the value of the stress determination counter accumulated during the predetermined period is equal to or greater than the threshold value and the determination in step ST8 is YES, the process proceeds to step ST9, and the subject is told to the staff of the facility that the subject is in a stressed state. to be notified. As a means for this notification, the information that the subject is in a stressed state is transmitted from the ECU 4 to the transmitter 31, and the information is sent from the transmitter 31 to the terminal carried by the facility staff. It is transmitted together with information that identifies the person (for example, name, etc.). This allows facility staff to identify the presence of a stressed subject, identify the subject, and recognize the need for support for the subject. This makes it possible to prompt the staff of the facility to support the subject. Therefore, the transmitter 31 corresponds to the output means (output means for externally outputting the information of the subject) according to the present invention.

このような通知を行った後、ステップST10に移り、この通知の情報に含まれている対象者におけるストレス判定カウンタをリセットした後、リターンされ、他の対象者に対して同様の情報管理動作およびサポート動作が行われる。 After such notification, the process moves to step ST10, and after resetting the stress determination counter in the subject included in the information of this notification, it is returned, and the same information management operation and Support action is taken.

一方、ステップST5の判定において、心拍変動が所定の閾値を超えており、NO判定された場合には、ステップST11(図3)に移り、前述の如く算出された心拍数が所定の閾値以上であるか否かを判定する。 On the other hand, if the heart rate variability exceeds the predetermined threshold in the determination of step ST5 and the determination is NO, the process proceeds to step ST11 (FIG. 3), and the heart rate calculated as described above is equal to or greater than the predetermined threshold. Determine whether or not there is

心拍数が所定の閾値以上であり、ステップST11でYES判定された場合には、ステップST12に移り、ステップST4で抽出されていた単語に対して、ECU4のRAMに予め記憶されている興味関心判定フラグを立ててステップST13に移る。 If the heart rate is equal to or greater than the predetermined threshold value and the determination in step ST11 is YES, the process proceeds to step ST12, and the words extracted in step ST4 are subjected to interest determination that is stored in advance in the RAM of the ECU 4. A flag is set and the process moves to step ST13.

一方、心拍数が所定の閾値未満であり、ステップST11でNO判定された場合には、興味関心判定フラグを立てることなく、そのままリターンされる。 On the other hand, if the heart rate is less than the predetermined threshold and the determination in step ST11 is NO, the process returns without setting the interest determination flag.

ステップST13では、現在の興味関心判定フラグを情報記憶部48に記憶させる。この現在の興味関心判定フラグは個別のデータベース(例えば前記サーバ内のデータベース)に記憶させるようにしてもよい。 In step ST13, the current interest determination flag is stored in the information storage section 48. FIG. This current interest determination flag may be stored in a separate database (for example, a database within the server).

その後、ステップST14に移り、ステップST11においてYES判定された際に単語抽出部46によって抽出されていた単語(対象者が発した音声に含まれる単語)のカテゴリの分類処理を実施する。つまり、対象者の感情が興味関心状態にあるとされた際に当該対象者が発していた音声に含まれていた単語の属する分野等を判定する。 After that, the process moves to step ST14, and classifies the category of words (words included in the voice uttered by the subject) extracted by the word extraction unit 46 when the determination in step ST11 is YES. In other words, the field to which the words included in the voice uttered by the subject when the subject's emotion is determined to be in the state of interest is determined.

その後、ステップST15に移り、ステップST14において確定されたカテゴリ分類とその属性情報とに基づいて、複数の対象者同士の間(対象者間)やWeb検索情報ビッグデータとのコサイン類似度を算出する。このコサイン類似度とは、ベクトル空間モデルにおいて、文書同士を比較する際に用いられる類似度計算手法であって、ベクトル同士の成す角度の近さを表現するために三角関数を使用して(ベクトルの内積を用いて)表す類似判断の手法であり、2つの言葉においてコサイン類似度が1に近ければ類似しており、0に近ければ類似していないものである。 After that, the process moves to step ST15, and based on the category classification and its attribute information determined in step ST14, the cosine similarity between a plurality of subjects (between subjects) and between Web search information big data is calculated. . This cosine similarity is a similarity calculation method used when comparing documents in a vector space model. It uses a trigonometric function (vector If the cosine similarity of two words is close to 1, they are similar, and if it is close to 0, they are dissimilar.

このようにしてコサイン類似度が算出された後、ステップST16に移り、各対象者同士の間でのコサイン類似度として、当該コサイン類似度が所定値以上の対象者(他の対象者であって、コサイン類似度が所定値以上の対象者)が存在しているか否かを判定する。 After the cosine similarity is calculated in this way, the process moves to step ST16, and subjects whose cosine similarity is equal to or higher than a predetermined value (other subjects and , a subject whose cosine similarity is equal to or greater than a predetermined value) exists.

そして、コサイン類似度が所定値以上の対象者が存在しており、ステップST16でYES判定された場合には、ステップST17に移り、今回、生体情報が取得された対象者(本発明でいう特定の対象者)に対して、このコサイン類似度が所定値以上の対象者(コサイン類似度が所定値以上である音声を発した履歴のある対象者)を紹介する動作を実施する。この紹介動作としては、今回、生体情報が取得された対象者が携帯する端末に、この紹介者(コサイン類似度が所定値以上の対象者)の情報、および、この紹介者の感情が興味関心状態にあった際に発していた音声に含まれていた単語等の情報を通知する。例えば、対象者が「旅行」の単語を発する状況で感情が興味関心状態にあった場合には、過去に「旅行」や「温泉」といった単語を発する状況で感情が興味関心状態となった履歴を有する他の対象者を紹介することになる。 Then, if there is a subject whose cosine similarity is equal to or greater than the predetermined value, and YES is determined in step ST16, the process proceeds to step ST17, and the subject whose biometric information is acquired this time (specified person in the present invention) ), an operation of introducing a target person whose cosine similarity is equal to or higher than a predetermined value (a target person who has a history of uttering a voice whose cosine similarity is equal to or higher than a predetermined value). As for this introduction operation, the terminal carried by the subject whose biometric information is acquired this time, the information of this introducer (the subject whose cosine similarity is equal to or higher than a predetermined value) and the emotion of this introducer are sent to the terminal. Information such as words included in the voice uttered when in the state is notified. For example, if the emotion was in the state of interest when the subject uttered the word "travel", the history of the emotion being in the state of interest when the subject uttered words such as "trip" and "hot springs" in the past You will be referred to other subjects who have

また、前記ステップST17の動作(紹介動作)に併せて、ステップST18では、今回、生体情報が取得された対象者が発した音声から抽出された単語または該単語に類似する単語によるWeb検索情報を提供する。この情報の提供も、対象者が携帯する端末に通知することによって行われる。 In addition to the operation (introduction operation) of step ST17, in step ST18, Web search information based on words extracted from the voice uttered by the subject whose biometric information is acquired this time or words similar to the words is searched. offer. This information is also provided by notifying the terminal carried by the subject.

尚、コサイン類似度が所定値以上の対象者が存在しておらず、ステップST16でNO判定された場合には、ステップST17の紹介動作を行うことなく、ステップST18のWeb検索情報の提供のみが行われることになる。 If there is no target person whose cosine similarity is equal to or greater than the predetermined value and NO is determined in step ST16, only the web search information is provided in step ST18 without performing the introduction operation in step ST17. will be done.

その後、ステップST19に移り、ステップST17やステップST18の通知(紹介者の通知やWeb検索情報の提供)に対して対象者が反応操作を行ったか否かを判定する。例えば、対象者が携帯する端末に通知を行った場合に、その通知に対する応答操作を行ったか否かを判定する。例えば、紹介者の通知を行った場合に、その紹介を受諾した旨の操作(端末の画面上に表示された受諾ボタンの押圧等)や、Web検索情報を提供を行った場合に、その情報に基づいた検索操作(端末の画面上に表示された検索ボタンの押圧等)が行われたか否かを判定する。 After that, the process moves to step ST19, and it is determined whether or not the target person has performed a reaction operation in response to the notification of step ST17 or step ST18 (notification of introducer or provision of web search information). For example, when a notification is sent to a terminal carried by the target person, it is determined whether or not a response operation has been performed in response to the notification. For example, when the introducer is notified, the operation indicating acceptance of the introduction (pressing the acceptance button displayed on the screen of the terminal, etc.), or when providing web search information, the information It is determined whether or not a search operation (such as pressing a search button displayed on the screen of the terminal) has been performed.

通知動作に対する対象者の反応操作が行われ、ステップST19でYES判定された場合には、そのままリターンされ、他の対象者に対して同様の情報管理動作およびサポート動作が行われることになる。 When the target person reacts to the notification operation and the determination in step ST19 is YES, the process is returned as is, and the same information management operation and support operation are performed for other target persons.

一方、通知動作に対する対象者の反応操作が所定期間行われず、ステップST19でNO判定された場合には、ステップST20に移り、興味関心判定フラグをリセットしてリターンされ、他の対象者に対して同様の情報管理動作およびサポート動作が行われることになる。 On the other hand, if the target person does not respond to the notification operation for a predetermined period of time and the determination in step ST19 is NO, the process moves to step ST20, resets the interest determination flag, and returns to another target person. Similar information management and support operations will be performed.

以上の動作が各対象者に対して順に繰り返して行われる。 The above operation is repeated in order for each subject.

-実施形態の効果-
以上説明したように、本実施形態では、対象者が発した音声に含まれる単語と、対象者が当該単語を発したタイミングにおいて判定された当該対象者の感情(ストレス状態であることや興味関心状態であること)とを関連付けた情報を情報記憶部48に記憶するようにしている。このため、対象者が発した音声に含まれる単語と対象者の感情との関係を把握することができ、その単語に基づいて対象者がストレスを感じる状況や興味や関心のある事項等を把握することができて、それに応じた対象者へのサポートを効果的に行うことが可能になる。その結果、システムの利用範囲の拡大を図ることができる。
- Effects of Embodiment -
As described above, in the present embodiment, a word included in a voice uttered by a subject and an emotion of the subject determined at the timing when the subject uttered the word (stress state, interest, etc.) state) is stored in the information storage unit 48 . Therefore, it is possible to understand the relationship between the words contained in the voice uttered by the target person and the target person's emotions, and based on the words, the situation where the target person feels stress, the interest, etc. It is possible to effectively support the target person accordingly. As a result, it is possible to expand the range of use of the system.

また、本実施形態では、周囲情報取得装置2のカメラやLidarによって対象者の顔を撮影するに当たり、情報管理装置1が対象者の前方へ回り込むようにしている。このため、対象者の顔の撮影を容易に行うことができ、対象者の顔の画像情報に基づいた当該対象者の心拍の計測を高い精度で行うことができる。 Further, in the present embodiment, the information management device 1 is arranged to go around the front of the subject when the subject's face is photographed by the camera or lidar of the surrounding information acquisition device 2 . Therefore, the face of the subject can be easily photographed, and the heartbeat of the subject based on the image information of the face of the subject can be measured with high accuracy.

また、本実施形態では、対象者がストレス状態であることの判定が所定期間中に所定回数以上行われた場合には、その旨をスタッフに通知するようにしている。このため、ストレス状態にある対象者に対するサポートが必要であることをスタッフに認識させることが可能になり、対象者に対するサポートを促すことができる。 In addition, in this embodiment, when the subject is determined to be in a stressed state more than a predetermined number of times during a predetermined period of time, the staff is notified to that effect. Therefore, it is possible to make the staff aware that the subject who is in a stressed state needs support, and to prompt the subject to support.

また、本実施形態では、対象者が興味関心状態である場合には、その判定が行われたタイミングにおいて単語抽出部46によって抽出された単語または該単語に類似する単語によるWeb検索情報を対象者に提供するようにしている。このため、対象者は興味や関心のある情報を容易に取得することができる。 Further, in the present embodiment, when the subject is in a state of interest, the subject receives Web search information based on the word extracted by the word extraction unit 46 or a word similar to the word at the timing when the determination is made. I am trying to provide it to For this reason, the subject can easily obtain the information that interests him/her.

更に、本実施形態では、各対象者同士の間での前記コサイン類似度として、当該コサイン類似度が所定値以上の対象者が存在している場合には、そのコサイン類似度が所定値以上の対象者を紹介する動作を実施するようにしている。このため、互いに興味や関心が共通する複数の対象者同士の交流を深めることができる。これにより、システムの利用範囲の更なる拡大を図ることができる。 Furthermore, in this embodiment, as the cosine similarity between each subject, if there is a subject whose cosine similarity is a predetermined value or more, the cosine similarity is a predetermined value or more. The action of introducing the target person is implemented. For this reason, it is possible to deepen exchanges between a plurality of subjects who have common interests with each other. As a result, it is possible to further expand the range of use of the system.

-他の実施形態-
尚、本発明は、前記実施形態に限定されるものではなく、特許請求の範囲および該範囲と均等の範囲で包含される全ての変形や応用が可能である。
-Other embodiments-
It should be noted that the present invention is not limited to the above-described embodiments, and all modifications and applications within the scope of the claims and their equivalents are possible.

例えば、前記実施形態では、本発明に係る情報管理システム100を情報管理装置1に備えさせるものとして説明したが、例えば、単語抽出部46、感情判定部47、情報記憶部48等を前記サーバに備えさせ、情報管理装置1とサーバとによって情報管理システム100を構築するようにしてもよい。 For example, in the above-described embodiment, the information management system 100 according to the present invention is provided in the information management apparatus 1. The information management system 100 may be constructed by the information management apparatus 1 and the server.

また、前記実施形態では、対象者の感情として、ストレス状態および興味関心状態のみが判定可能な場合を例に挙げて説明した。本発明はこれに限らず、生体情報から他の感情(ストレス状態および興味関心状態以外の感情)が判定可能な場合には、単語抽出部46によって抽出された単語と、対象者が当該単語を発したタイミングにおいて判定された他の感情(ストレス状態および興味関心状態以外の感情)とを関連付けた情報を記憶するようにしてもよい。 Further, in the above-described embodiment, the case where only the stress state and the interest state can be determined as the emotions of the subject has been described as an example. The present invention is not limited to this, and when other emotions (emotions other than the stress state and the interest state) can be determined from the biometric information, the word extracted by the word extraction unit 46 and the subject person using the word Information associated with other emotions (emotions other than the stress state and the interest state) determined at the timing of the utterance may be stored.

また、前記実施形態では、情報管理装置1が、複数の対象者それぞれの生体情報を取得して、各対象者と、取得された各対象者それぞれの各生体情報とを関連付けて記憶するようにしていた。本発明はこれに限らず、特定の一人の対象者(例えば登録された一人の対象者)のみの生体情報を取得するものとして、個人専用の情報管理装置として構成されたものであってもよい。 Further, in the above embodiment, the information management device 1 acquires the biometric information of each of a plurality of subjects, associates each of the subjects with the acquired biometric information of each of the subjects, and stores them. was The present invention is not limited to this, and may be configured as a personal information management device for acquiring biometric information of only one specific subject (for example, one registered subject). .

本発明は、対象者の顔の画像から生体情報を取得して当該対象者の感情に関連する情報を管理する情報管理システムに適用可能である。 INDUSTRIAL APPLICABILITY The present invention is applicable to an information management system that acquires biometric information from an image of a subject's face and manages information related to the subject's emotion.

1 情報管理装置
2 周囲情報取得装置(撮影手段)
31 送信機(出力手段)
45 生体情報取得部(心拍計測部)
46 単語抽出部
47 感情判定部
48 情報記憶部
51 移動アクチュエータ(移動手段)
52 車輪(移動手段)
64 マイク(音声取得手段)
100 情報管理システム
1 Information management device 2 Surrounding information acquisition device (shooting means)
31 transmitter (output means)
45 biological information acquisition unit (heart rate measurement unit)
46 word extraction unit 47 emotion determination unit 48 information storage unit 51 movement actuator (moving means)
52 wheels (means of transportation)
64 microphone (voice acquisition means)
100 Information Management System

Claims (5)

対象者の感情に関連する情報を管理する情報管理システムであって、
前記対象者を撮影可能な撮影手段と、
前記対象者が発した音声を取得可能な音声取得手段と、
前記音声取得手段によって取得された前記音声から、当該音声に含まれる単語を抽出する単語抽出部と、
前記撮影手段によって撮影された前記対象者の画像情報に基づき当該対象者の心拍を計測する心拍計測部と、
前記心拍計測部によって計測された前記対象者の心拍の情報に基づいて算出された心拍変動および心拍数の少なくとも一方の情報から、前記対象者の種々の感情のうち少なくともストレス状態および興味関心状態の何れであるかを判定する感情判定部と、
前記単語抽出部によって抽出された前記単語と、前記対象者が当該単語を発したタイミングにおいて前記感情判定部によって判定された前記対象者の感情とを関連付けた情報を記憶する情報記憶部と、
を備えていることを特徴とする情報管理システム。
An information management system for managing information related to a subject's emotions,
a photographing means capable of photographing the subject;
a voice acquisition means capable of acquiring a voice uttered by the subject;
a word extraction unit for extracting words included in the voice from the voice acquired by the voice acquisition means;
a heartbeat measurement unit that measures the heartbeat of the subject based on the image information of the subject captured by the imaging means;
Based on information on at least one of heart rate variability and heart rate calculated based on the heart rate information of the subject measured by the heart rate measuring unit, at least the stress state and the state of interest among the various emotions of the subject. an emotion determination unit that determines which
an information storage unit that stores information that associates the word extracted by the word extraction unit with the subject's emotion determined by the emotion determination unit at the timing when the subject utters the word;
An information management system comprising:
請求項1記載の情報管理システムにおいて、
少なくとも前記撮影手段および前記音声取得手段は情報管理装置に搭載されており、
前記情報管理装置は、自律移動可能とする移動手段を備えており、
前記心拍計測部は、前記撮影手段によって撮影された前記対象者の顔の画像情報に基づいて当該対象者の心拍を計測するようになっていて、
前記撮影手段による前記対象者の顔の撮影に当たり、前記情報管理装置は前記移動手段の作動によって前記対象者の前方へ回り込むことを特徴とする情報管理システム。
In the information management system according to claim 1,
at least the photographing means and the sound acquisition means are mounted on an information management device,
The information management device comprises a moving means capable of autonomous movement,
The heartbeat measuring unit is configured to measure the heartbeat of the subject based on image information of the subject's face photographed by the photographing means,
1. An information management system, wherein said information management device moves around in front of said subject by operating said moving means when said subject's face is photographed by said photographing means.
請求項1または2記載の情報管理システムにおいて、
前記対象者の情報を外部出力する出力手段を備えており、
前記感情判定部は、前記心拍変動が所定の閾値以下である場合に前記対象者がストレス状態であると判定し、このストレス状態であることの判定が所定期間中に所定回数以上行われた場合には、前記出力手段によって、当該対象者がストレス状態であることの情報を外部出力することを特徴とする情報管理システム。
In the information management system according to claim 1 or 2,
An output means for externally outputting the information of the subject,
The emotion determination unit determines that the subject is in a stressed state when the heart rate variability is equal to or less than a predetermined threshold, and when the stressed state is determined a predetermined number of times or more during a predetermined period of time. (3) An information management system, wherein the output means externally outputs information indicating that the target person is in a stressed state.
請求項1、2または3記載の情報管理システムにおいて、
前記感情判定部は、前記心拍変動が所定の閾値を超えており且つ前記心拍数が所定の閾値以上である場合に前記対象者が興味関心状態であると判定し、この興味関心状態であることの判定が行われた場合には、その判定が行われたタイミングにおいて前記単語抽出部によって抽出された前記単語または該単語に類似する単語によるWeb検索情報を前記対象者に提供することを特徴とする情報管理システム。
In the information management system according to claim 1, 2 or 3,
The emotion determination unit determines that the subject is in a state of interest when the heart rate variability exceeds a predetermined threshold and the heart rate is equal to or greater than a predetermined threshold, and determines that the subject is in the state of interest. When the determination is made, the subject is provided with Web search information based on the word extracted by the word extraction unit at the timing of the determination or a word similar to the word information management system.
請求項1~4のうち何れか一つに記載の情報管理システムにおいて、
複数の対象者を対象とし、前記単語抽出部によって抽出された前記単語と、前記対象者が当該単語を発したタイミングにおいて前記感情判定部によって判定された前記対象者の感情とを関連付けた情報を前記複数の対象者それぞれに応じて個別に前記情報記憶部に記憶するようになっており、
特定の対象者に対して前記感情判定部によって興味関心状態であることの判定が行われた場合、その判定が行われたタイミングにおいて前記単語抽出部によって抽出された前記単語または該単語に類似する単語を発した履歴を有する他の対象者を、前記特定の対象者に紹介することを特徴とする情報管理システム。
In the information management system according to any one of claims 1 to 4,
Information relating the words extracted by the word extracting unit to the emotion of the target person determined by the emotion determination unit at the timing when the target person utters the word, for a plurality of target people It is designed to be individually stored in the information storage unit according to each of the plurality of subjects,
When the emotion determination unit determines that a specific target person is in a state of interest, the word extracted by the word extraction unit at the timing when the determination is performed, or the word is similar to the word An information management system characterized by introducing other subjects having a history of uttering words to the specific subject.
JP2021101405A 2021-06-18 2021-06-18 Information management system Pending JP2023000524A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2021101405A JP2023000524A (en) 2021-06-18 2021-06-18 Information management system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021101405A JP2023000524A (en) 2021-06-18 2021-06-18 Information management system

Publications (1)

Publication Number Publication Date
JP2023000524A true JP2023000524A (en) 2023-01-04

Family

ID=84687052

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021101405A Pending JP2023000524A (en) 2021-06-18 2021-06-18 Information management system

Country Status (1)

Country Link
JP (1) JP2023000524A (en)

Similar Documents

Publication Publication Date Title
KR102408257B1 (en) The method and apparatus for early warning the danger
US20220032482A1 (en) Information processing device and storage medium
US9922236B2 (en) Wearable eyeglasses for providing social and environmental awareness
KR100593688B1 (en) Image transmission device of mobile robot
US9888845B2 (en) System and method for optical detection of cognitive impairment
CN111401237A (en) Organism search system
JP6579411B1 (en) Monitoring system and monitoring method for care facility or hospital
KR101654708B1 (en) Individual safety System based on wearable Sensor and the method thereof
JP2004302785A (en) Image transmitting apparatus of mobile robot
KR20090001848A (en) Method and system monitoring facial expression
KR20200104758A (en) Method and apparatus for determining a dangerous situation and managing the safety of the user
JP5970232B2 (en) Evacuation information provision device
JP6815104B2 (en) Video display device and video display method
KR20180057839A (en) Intelligent robot capable of human recognition and operation method thereof
KR20160015142A (en) Method and program for emergency reporting by wearable glass device
JP5143780B2 (en) Monitoring device and monitoring method
US11681496B2 (en) Communication support device, communication support method, and computer-readable storage medium including program
JP2023000524A (en) Information management system
Saha et al. Visual, navigation and communication aid for visually impaired person
KR20120059752A (en) Emotion recognition apparatus and system for announce blind persons, method for announce using the same and recording medium thereof
Prakash et al. An IoT‐Based Gadget for Visually Impaired People
JP6283620B2 (en) Biological information acquisition apparatus, biological information acquisition method, and biological information acquisition program in a predetermined space
KR20220144983A (en) Emotion recognition system using image and electrocardiogram
KR20210146474A (en) Method, apparatus, computer program and computer readable recording medium for performing emergency call processing based on patient status
CN112433602A (en) Information processing apparatus, storage medium, and information processing method