JP2023152840A - Information processing apparatus and information processing method - Google Patents

Information processing apparatus and information processing method Download PDF

Info

Publication number
JP2023152840A
JP2023152840A JP2023044711A JP2023044711A JP2023152840A JP 2023152840 A JP2023152840 A JP 2023152840A JP 2023044711 A JP2023044711 A JP 2023044711A JP 2023044711 A JP2023044711 A JP 2023044711A JP 2023152840 A JP2023152840 A JP 2023152840A
Authority
JP
Japan
Prior art keywords
user
information
processor
information processing
biological information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2023044711A
Other languages
Japanese (ja)
Inventor
基文 馬場
Motofumi Baba
賢吾 得地
Kengo Tokuchi
樹一郎 有川
Kiichiro Arikawa
努 木村
Tsutomu Kimura
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Agama X Co Ltd
Agama X Co Ltd
Original Assignee
Agama X Co Ltd
Agama X Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from US17/707,999 external-priority patent/US11769595B2/en
Application filed by Agama X Co Ltd, Agama X Co Ltd filed Critical Agama X Co Ltd
Publication of JP2023152840A publication Critical patent/JP2023152840A/en
Pending legal-status Critical Current

Links

Abstract

To provide an information processing apparatus and an information processing method for determining a state of at least one user on the basis of biometric information of the at least one user.SOLUTION: An information processing system includes an information processing apparatus, and one or more biometric information measuring apparatus. The biometric information measuring apparatus includes various sensors to measure biometric information of a user and transmits the information to the information processing apparatus. A processor of the information processing apparatus acquires biometric information of at least one user, determines a state of the user on the basis of biometric information including brain waves of the user and historical information including time series of context information indicating contexts under which measurements of the biological information at respective points of time are made, and outputs the state of the user to the at least one user.SELECTED DRAWING: Figure 1

Description

本発明は、情報処理装置及び情報処理方法に関する。 The present invention relates to an information processing device and an information processing method.

脳波等の生体情報を用いて操作対象を操作することが考えられる。 It is conceivable to operate an operation target using biological information such as brain waves.

特許文献1には、定常視覚刺激誘発電位(SSVEP)を利用したBMI装置が記載されている。 Patent Document 1 describes a BMI device that uses steady visual stimulus evoked potentials (SSVEP).

特許文献2には、使用者の脳波から脳波生体信号を検出し、使用者の表面筋電位から表面筋電位生体信号を検出し、両方の生体信号に基づいて制御信号を演算するBMI運動補助装置が記載されている。 Patent Document 2 describes a BMI exercise assisting device that detects an electroencephalogram biosignal from a user's brain waves, detects a surface myoelectric potential biosignal from the user's surface myoelectric potential, and calculates a control signal based on both biosignals. is listed.

特許文献3には、身体についての特定の動作を想起した場合に生じる脳波の条件である脳波条件を予め格納し、脳波情報を取得し、取得した脳波情報に含まれる脳波が、格納されている脳波条件を満たす場合、撮像装置が被写体を撮像する場合の条件である撮像条件を当該撮像装置に出力する撮像制御装置が記載されている。 In Patent Document 3, brain wave conditions, which are conditions for brain waves that occur when recalling a specific motion about the body, are stored in advance, brain wave information is acquired, and brain waves included in the acquired brain wave information are stored. An imaging control device is described that outputs imaging conditions, which are conditions under which the imaging device images a subject, to the imaging device when an electroencephalogram condition is satisfied.

特許文献4には、脳波信号と人の意思とを一致させる方法が記載されている。 Patent Document 4 describes a method of matching an electroencephalogram signal with a person's intention.

特開2014-071825号公報JP2014-071825A 特開2015-211705号公報Japanese Patent Application Publication No. 2015-211705 特開2015-102650号公報Japanese Patent Application Publication No. 2015-102650 特開2002-166050号公報Japanese Patent Application Publication No. 2002-166050

本発明の目的は、少なくとも一人のユーザの生体情報に基づいて少なくとも一人のユーザの状態を判定することにある。 An object of the present invention is to determine the condition of at least one user based on the biometric information of at least one user.

第1の実施形態は、プロセッサが、少なくとも1人のユーザの生体情報を取得し、前記少なくとも1人のユーザの脳波を少なくとも含む生体情報と、前記生体情報が測定された各時点におけるコンテキストを示すコンテキスト情報の少なくとも1つの時系列を含む履歴情報と、に基づいて前記少なくとも1人のユーザの状態を判定し、前記少なくとも1人のユーザの状態を前記少なくとも1人のユーザに出力する、情報処理方法である。 In a first embodiment, a processor acquires biometric information of at least one user, and indicates the biometric information including at least brain waves of the at least one user and the context at each time point in which the biometric information was measured. historical information including at least one time series of context information; It's a method.

第2の実施形態は、第1の実施形態において、前記履歴情報は、複数の時系列に基づいて分類され、前記複数の時系列の各々について、前記生体情報と前記履歴情報を分析することで、前記少なくとも1人のユーザの少なくとも1つの状態が判定される。 In a second embodiment, in the first embodiment, the historical information is classified based on a plurality of time series, and the biological information and the historical information are analyzed for each of the plurality of time series. , at least one state of the at least one user is determined.

第3の実施形態は、第2の実施形態において、前記複数の時系列の各々には、前記ユーザが置かれたコンテキストに応じた重みが割り当てられ、前記少なくとも1人のユーザについて判定された前記少なくとも1つの状態が、前記重みによって決定された優先順位で出力されるか、又は前記少なくとも1人のユーザについて判定された前記少なくとも1つの状態の部分集合が、前記重みに応じて出力される。 In a third embodiment, in the second embodiment, each of the plurality of time series is assigned a weight according to a context in which the user is placed, and the weight determined for the at least one user is At least one state is output with a priority determined by the weight, or a subset of the at least one state determined for the at least one user is output depending on the weight.

第4の実施形態は、第1の実施形態において、前記少なくとも1人のユーザの状態は、前記生体情報と、複数の時系列で収集された前記履歴情報との組み合わせに基づいて判定される。 In a fourth embodiment, in the first embodiment, the state of the at least one user is determined based on a combination of the biometric information and the history information collected in a plurality of time series.

第5の実施形態は、第1の実施形態において、前記少なくとも1人のユーザの状態を、少なくとも1人の他のユーザに出力する。 In the fifth embodiment, in the first embodiment, the state of the at least one user is output to at least one other user.

第6の実施形態は、第5の実施形態において、前記少なくとも1人のユーザ、又は前記少なくとも1人の他のユーザの状態若しくは履歴情報に基づいて提案された介入手段を決定し、前記提案された介入手段を前記少なくとも1人のユーザ、又は前記少なくとも1人の他のユーザに出力することをさらに含み、前記提案された介入手段を出力するための少なくとも1つの介入装置が、前記少なくとも1人のユーザがいる環境から選択される。 In a sixth embodiment, in the fifth embodiment, the proposed intervention means is determined based on the state or history information of the at least one user or the at least one other user, and the at least one intervention device for outputting the proposed intervention means to the at least one user, or the at least one other user; selected from environments with users.

第7の実施形態は、第1の実施形態において、前記少なくとも1人のユーザの状態又は履歴情報に基づいて、前記提案された介入手段を決定し、前記提案された介入手段を前記少なくとも1人のユーザに出力することをさらに含む。 In a seventh embodiment, in the first embodiment, the proposed intervention means is determined based on the state or history information of the at least one user, and the proposed intervention means is applied to the at least one user. further comprising outputting to the user.

第8の実施形態は、第1の実施形態において、前記少なくとも1人のユーザから測定された生体電位の周波数スペクトルに基づいて、前記少なくとも1人のユーザの状態を決定することをさらに含む。 An eighth embodiment in the first embodiment further includes determining the state of the at least one user based on the frequency spectrum of the biopotential measured from the at least one user.

第9の実施形態は、第7の実施形態において、前記プロセッサは、生体情報測定装置と、音声入出力装置と、メモリと、を備えたヒアラブルデバイスに含まれ、前記方法は、前記プロセッサによって、前記提案された介入手段を、前記音声入出力装置を介して前記少なくとも1人のユーザに出力し、前記提案された介入手段に対する前記少なくとも1人のユーザの応答を取得し、前記応答を前記メモリに記憶する。 In a ninth embodiment, in the seventh embodiment, the processor is included in a hearable device including a biological information measuring device, an audio input/output device, and a memory, and the method is implemented by the processor. , outputting the proposed intervention means to the at least one user via the audio input/output device, obtaining a response of the at least one user to the proposed intervention means, and transmitting the response to the at least one user. Store in memory.

第10の実施形態は、第9の実施形態において、前記提案された介入手段を実行する前に、前記少なくとも1人のユーザから前記応答を取得する第1のモード、又は前記提案された介入手段を人工知能によって自動的に実行する第2のモードのいずれかを選択することをさらに含む。 A tenth embodiment provides, in the ninth embodiment, a first mode of obtaining the response from the at least one user before executing the proposed intervention, or the proposed intervention. The method further includes selecting one of the second modes in which the method is automatically executed by the artificial intelligence.

第11の実施形態は、第7の実施形態において、光、画像、映像、音声、音声、音楽、振動、温度変化、衝突、刺激、臭いのうちの少なくとも1つを伝達することで前記提案された介入手段を実行することをさらに含む。 In the eleventh embodiment, in the seventh embodiment, transmitting at least one of light, image, video, voice, sound, music, vibration, temperature change, collision, stimulation, and odor is provided. further comprising implementing the intervention measures.

第12の実施形態は、プロセッサによって、少なくとも1人のユーザの生体情報を取得し、前記少なくとも1人のユーザの生体情報に基づいて前記少なくとも1人のユーザの状態を判定し、前記少なくとも1人のユーザの状態に基づいて、前記少なくとも1人のユーザによる情報のコミュニケーションを支援する、情報処理方法である。 In the twelfth embodiment, a processor acquires biometric information of at least one user, determines the state of the at least one user based on the biometric information of the at least one user, and The information processing method supports communication of information by the at least one user based on the state of the user.

第13の実施形態は、第12の実施形態において、前記少なくとも1人のユーザが複数のユーザを含み、前記プロセッサは、一方のユーザから他方のユーザへの情報のコミュニケーションを支援する場合、前記一方のユーザの承認を得てから前記他方のユーザに前記情報を送信する。 A thirteenth embodiment, in the twelfth embodiment, when the at least one user includes a plurality of users, and the processor supports communication of information from one user to another, After obtaining approval from the other user, the information is transmitted to the other user.

第14の実施形態は、第13の実施形態において、前記一方のユーザが、前記他方のユーザに送信すべき前記情報を拒否した場合、前記一方のユーザに関連付けられたメモリに前記情報を記憶することをさらに含む。 In a fourteenth embodiment, in the thirteenth embodiment, if the one user rejects the information to be sent to the other user, the information is stored in a memory associated with the one user. It further includes:

第15の実施形態は、第13の実施形態において、前記一方のユーザが、前記他方のユーザに送信すべき前記情報を拒否した場合、前記一方のユーザに対して、少なくとも1つの代替アクションを含む選択肢を提案することをさらに含む。 A fifteenth embodiment, in the thirteenth embodiment, includes at least one alternative action for the one user if the one user rejects the information to be sent to the other user. Further including suggesting options.

第16の実施形態は、第13の実施形態において、前記一方のユーザが、前記他方のユーザへの前記情報の送信を確認した場合、判定された前記一方のユーザの状態に対応付けて前記情報を学習データとしてメモリに記憶し、判定された前記一方のユーザの状態に基づく前記情報の次回の判定に前記学習データを使用することをさらに含む。 In the sixteenth embodiment, in the thirteenth embodiment, when the one user confirms transmission of the information to the other user, the information is transmitted in association with the determined state of the one user. The method further includes storing the information in a memory as learning data, and using the learning data for a next determination of the information based on the determined state of the one user.

第17の実施形態は、第13の実施形態において、前記一方のユーザが、前記他方のユーザへの前記情報の送信を承認した場合、前記他方のユーザへの前記情報の送信が成功したか否かを示すデータをメモリに記憶することをさらに含む。 In the seventeenth embodiment, in the thirteenth embodiment, if the one user approves the transmission of the information to the other user, it is determined whether the transmission of the information to the other user is successful or not. The method further includes storing data indicative of the information in the memory.

第18の実施形態は、第12の実施形態において、前記少なくとも1人のユーザから測定された生体電位の周波数スペクトルに基づいて、前記少なくとも1人のユーザの状態を判定することをさらに含む。 The eighteenth embodiment is the same as the twelfth embodiment, further including determining the state of the at least one user based on the frequency spectrum of the biopotential measured from the at least one user.

第19の実施形態は、少なくとも1人のユーザの生体情報を取得し、前記少なくとも1人のユーザの脳波を少なくとも含む生体情報と、前記生体情報が測定された各時点におけるコンテキストを示すコンテキスト情報の少なくとも1つの時系列を含む履歴情報と、に基づいて前記少なくとも1人のユーザの状態を判定し、前記少なくとも1人のユーザの状態を前記少なくとも1人のユーザに出力する、ように構成されたプロセッサを備えた情報処理装置である。 The nineteenth embodiment acquires biometric information of at least one user, and includes biometric information that includes at least a brain wave of the at least one user, and context information that indicates the context at each point in time when the biometric information was measured. historical information including at least one time series, and is configured to determine the state of the at least one user based on the at least one user's state, and output the state of the at least one user to the at least one user. It is an information processing device equipped with a processor.

第20の実施形態は、少なくとも1人のユーザの生体情報を取得し、前記少なくとも1人のユーザの生体情報に基づいて前記少なくとも1人のユーザの状態を判定し、前記少なくとも1人のユーザの状態に基づいて、前記少なくとも1人のユーザによる情報のコミュニケーションを支援する、ように構成されたプロセッサを備えた情報処理装置である。 The 20th embodiment acquires biometric information of at least one user, determines the state of the at least one user based on the biometric information of the at least one user, and determines the state of the at least one user. The information processing apparatus includes a processor configured to support communication of information by the at least one user based on a state.

第1~第20の実施形態によれば、少なくとも一人のユーザの生体情報に基づいて少なくとも一人のユーザの状態を判定することができる。 According to the first to twentieth embodiments, the condition of at least one user can be determined based on the biometric information of at least one user.

本実施形態に係る情報処理システムの構成を示すブロック図である。FIG. 1 is a block diagram showing the configuration of an information processing system according to the present embodiment. 情報処理装置のハードウェアの構成を示すブロック図である。FIG. 2 is a block diagram showing the hardware configuration of the information processing device. 端末装置のハードウェアの構成を示すブロック図である。FIG. 2 is a block diagram showing the hardware configuration of a terminal device. 管理テーブルを示す図である。It is a figure showing a management table. 管理テーブルを示す図である。It is a figure showing a management table. 管理テーブルを示す図である。It is a figure showing a management table. 管理テーブルを示す図である。It is a figure showing a management table. ある場所に存在する人及び機器を模式的に示す図である。FIG. 2 is a diagram schematically showing people and equipment present in a certain place. ある場所に存在する人及び機器を模式的に示す図である。FIG. 2 is a diagram schematically showing people and equipment present in a certain place. 画面を示す図である。It is a figure showing a screen. 画面を示す図である。It is a figure showing a screen. 画面を示す図である。It is a figure showing a screen. 画面を示す図である。It is a figure showing a screen. 画面を示す図である。It is a figure showing a screen. ある場所に存在する人及び機器を模式的に示す図である。FIG. 2 is a diagram schematically showing people and equipment present in a certain place. 画面を示す図である。It is a figure showing a screen. 画面を示す図である。It is a figure showing a screen. 脳の断層画像を模式的に示す図である。FIG. 2 is a diagram schematically showing a tomographic image of the brain. 画面を示す図である。It is a figure showing a screen. 画面を示す図である。It is a figure showing a screen. グラフの具体例を示す図である。FIG. 3 is a diagram showing a specific example of a graph. グラフの具体例を示す図である。FIG. 3 is a diagram showing a specific example of a graph. 設定画面を示す図である。It is a figure showing a setting screen. 画面を示す図である。It is a figure showing a screen. 画面を示す図である。It is a figure showing a screen. 画面を示す図である。It is a figure showing a screen. 実施例20に係る処理の流れを示すフローチャートである。12 is a flowchart showing the flow of processing according to Example 20. 実施例20に係る処理の流れを示すフローチャートである。12 is a flowchart showing the flow of processing according to Example 20. ヒアラブルデバイスの全体を示す斜視図である。FIG. 1 is a perspective view showing the entire hearable device. 生体情報測定装置を上方向から見たときの図である。FIG. 2 is a diagram when the biological information measuring device is viewed from above. 左側イヤフォンを左方向から見たときの図である。It is a diagram when the left earphone is viewed from the left. 右側イヤフォンを示す斜視図である。FIG. 3 is a perspective view showing the right earphone. 左側イヤフォンを示す斜視図である。It is a perspective view showing a left earphone. 右側イヤフォンを上方向から見たときの図である。It is a diagram when the right earphone is viewed from above. 右側イヤフォンを示す分解斜視図である。FIG. 3 is an exploded perspective view showing the right earphone. 右側イヤフォンの断面図である。FIG. 3 is a cross-sectional view of the right earphone. 左側イヤフォンの内部を示す斜視図である。FIG. 3 is a perspective view showing the inside of the left earphone. 好き/嫌いの心理状態にある人物の脳波データを示す図である。FIG. 3 is a diagram showing brain wave data of a person who is in the psychological state of liking/disliking. 驚きの心理状態にある人物の脳波データを示す図である。FIG. 3 is a diagram showing brain wave data of a person in a surprised psychological state. モンスター状の生物を含むVR画像を視聴している人物の脳波データを示す図である。FIG. 3 is a diagram showing brain wave data of a person viewing a VR image including a monster-like creature. ホワイトパズルを完成させるメンタルンタスクを行っている者の脳波データを示す図である。FIG. 3 is a diagram showing brain wave data of a person performing a mental task to complete a white puzzle. 頭部マッサージを受けている人物の脳波データを示す図である。FIG. 3 is a diagram showing brain wave data of a person receiving a head massage. 音楽を視聴したり、サプリメントを服用したりした人物の脳波データを示す図である。FIG. 3 is a diagram showing brain wave data of a person who listened to music or took supplements. 入眠時と入眠後睡眠のステージが進行した人物の脳波データを示す図である。FIG. 4 is a diagram showing brain wave data of a person who has progressed to the stage of sleep when falling asleep and after falling asleep. ユーザがかゆみを感じた場合の脳波の変化を示す図である。FIG. 3 is a diagram showing changes in brain waves when a user feels itching.

図1を参照して、本実施形態に係る情報処理システムについて説明する。図1には、本実施形態に係る情報処理システムの構成の一例が示されている。 An information processing system according to this embodiment will be described with reference to FIG. FIG. 1 shows an example of the configuration of an information processing system according to this embodiment.

本実施形態に係る情報処理システムは、情報処理装置10と、1又は複数の生体情報測定装置12と、1又は複数の環境情報測定装置14と、1又は複数の機器16と、1又は複数の端末装置18を含む。図1に示されている各装置の数は一例に過ぎず、各装置の数が、図1に示されている各装置の数に限定されるものではない。また、情報処理システムは、図1に示されている装置以外の他の装置(例えばサーバ等の外部装置)を含んでもよい。機器16が用いられない場合、機器16は情報処理システムに含まれなくてもよい。端末装置18が用いられない場合、端末装置18は情報処理システムに含まれてなくてもよい。 The information processing system according to this embodiment includes an information processing device 10, one or more biological information measuring devices 12, one or more environmental information measuring devices 14, one or more devices 16, and one or more biological information measuring devices 12. It includes a terminal device 18. The number of each device shown in FIG. 1 is only an example, and the number of each device is not limited to the number of each device shown in FIG. 1. Further, the information processing system may include devices other than the devices shown in FIG. 1 (for example, external devices such as servers). If device 16 is not used, device 16 may not be included in the information handling system. If the terminal device 18 is not used, the terminal device 18 may not be included in the information processing system.

情報処理システムに含まれている各装置は、他の装置と通信するように構成されている。その通信は、ケーブルを利用する有線通信であってもよいし、無線通信であってもよい。つまり、各装置は、他の装置とケーブルによって物理的に接続されて、情報を互いに送受信してもよいし、無線通信によって互いに情報を送受信してもよい。無線通信として、例えば、近距離無線通信やWi-Fi(登録商標)等が用いられる。これら以外の規格の無線通信が用いられてもよい。近距離無線通信は、例えば、Bluetooth(登録商標)やRFID(Radio Frequency Identifier)やNFC等である。各装置は、LAN(Local Area Network)やインターネット等の通信経路を介して他の装置と通信してもよい。 Each device included in the information handling system is configured to communicate with other devices. The communication may be wired communication using a cable or wireless communication. That is, each device may be physically connected to another device by a cable to send and receive information to each other, or may send and receive information to and from each other by wireless communication. As the wireless communication, for example, short-range wireless communication, Wi-Fi (registered trademark), etc. are used. Wireless communication standards other than these may also be used. Examples of short-range wireless communication include Bluetooth (registered trademark), RFID (Radio Frequency Identifier), and NFC. Each device may communicate with other devices via a communication path such as a LAN (Local Area Network) or the Internet.

情報処理装置10は、例えば、パーソナルコンピュータ(以下、「PC」と称する)、タブレットPC、スマートフォン、携帯電話、又は、その他の装置(例えば、サーバやロボットやその他の機器等)である。情報処理装置10は、人が携帯することが可能な端末装置(例えば、タブレットPCやスマートフォンや携帯電話等)であってもよいし、テーブル等に設置されて使用される装置であってもよいし、移動可能な装置(例えば自走式の装置)であってもよいし、作業を行う装置であってもよいし、人と対話することが可能な装置であってもよい。例えば、情報処理装置10は、通信機能とマイクとスピーカとを有するスマートスピーカであってもよいし、人と対話し、作業するロボットであってもよい。情報処理装置10は、人工知能(AI)を搭載した装置であってもよい。 The information processing device 10 is, for example, a personal computer (hereinafter referred to as “PC”), a tablet PC, a smartphone, a mobile phone, or other devices (for example, a server, a robot, or other equipment). The information processing device 10 may be a terminal device that can be carried by a person (for example, a tablet PC, a smartphone, a mobile phone, etc.), or a device that is installed on a table or the like. However, it may be a movable device (for example, a self-propelled device), a device that performs work, or a device that can interact with people. For example, the information processing device 10 may be a smart speaker having a communication function, a microphone, and a speaker, or may be a robot that interacts with and works with people. The information processing device 10 may be a device equipped with artificial intelligence (AI).

生体情報測定装置12は、生物の生体情報を測定するように構成されている装置である。生物は、人、人以外の動物、又は、植物である。 The biological information measuring device 12 is a device configured to measure biological information of living things. Living things are humans, non-human animals, or plants.

例えば、生体情報測定装置12は、各種のセンサや電極等を有し、生物の生体情報を測定する。複数の生体情報測定装置12が用いられる場合、各生体情報測定装置12は、異なる種類の生体情報を測定してもよい。複数の生体情報測定装置12の中の一部又は全部は、同じ種類の生体情報を測定してもよい。また、生体情報測定装置12は、1つの種類の生体情報を測定してもよいし、複数の種類の生体情報を測定してもよい。 For example, the biological information measuring device 12 includes various sensors, electrodes, etc., and measures biological information of living things. When a plurality of biological information measuring devices 12 are used, each biological information measuring device 12 may measure different types of biological information. Some or all of the plurality of biological information measuring devices 12 may measure the same type of biological information. Furthermore, the biological information measuring device 12 may measure one type of biological information or multiple types of biological information.

生体情報は、生物から発する様々な情報を含んでもよい。生体情報は、例えば、脳の活動を示す情報(例えば、脳波、脳の血流量、脳磁場信号等)、脈拍数を示す情報、筋電波形等の筋電情報、唾液に関する情報(例えば唾液量を示す情報)、脈波を示す情報、血圧を示す情報、血流量を示す情報、脈拍を示す情報、心拍数を示す情報、心電波形を示す情報、眼球運動を示す情報、体温を示す情報、発汗量を示す情報、視線を示す情報、音声情報、人の動きを示す情報、又は、体液(例えば血液等)から得られる情報等である。また、バイオマーカによって特定される情報が、生体情報として用いられてもよい。また、生体情報は、生物から検出される電位に起因する情報であってもよい。例えば、生体情報は、脳の活動に伴い発生する微小電流の測定結果である脳波、心臓の拍動に伴い発生する微小電流の測定結果である心電図、筋肉の活動に伴い発生する微小電流の測定結果である筋電図、又は、皮膚に生じる微小電流の測定結果である皮膚電位等であってもよい。これらは生体情報の一例に過ぎず、これら以外の生体情報が用いられてもよい。 Biological information may include various information emitted from living things. Biological information includes, for example, information indicating brain activity (e.g., brain waves, cerebral blood flow, brain magnetic field signals, etc.), information indicating pulse rate, myoelectric information such as myoelectric waveforms, and information regarding saliva (e.g., saliva volume). information indicating pulse wave, information indicating blood pressure, information indicating blood flow, information indicating pulse, information indicating heart rate, information indicating electrocardiogram waveform, information indicating eye movement, information indicating body temperature , information indicating the amount of perspiration, information indicating the line of sight, audio information, information indicating the movement of a person, or information obtained from body fluids (for example, blood, etc.). Furthermore, information specified by a biomarker may be used as biological information. Furthermore, the biological information may be information resulting from an electric potential detected from a living organism. For example, biological information includes electroencephalograms, which are the measurement results of minute currents generated by brain activity, electrocardiograms, which are the measurement results of minute currents generated by heart beats, and measurements of minute currents generated by muscle activity. It may be an electromyogram, which is the result, or a skin potential, which is the measurement result of microcurrent generated in the skin. These are only examples of biometric information, and biometric information other than these may be used.

生体情報を解析することで、人の状態情報として感情情報、精神情報、又は、心理情報等が得られてもよい。例えば、人の生体情報を解析することで、当該人の感情を示す情報、当該人の精神状態を示す情報、又は、当該人の心理状態を示す情報等が得られてもよい。もちろん、人以外の動物や植物の生体情報を解析することで、人以外の動物や植物の状態を示す情報が得られてもよい。例えば人の状態情報として、三大欲求の食欲、睡眠欲、性欲を感じる状態や、気持ちを主とする意識等があるが、より具体的には、安心、不安、感謝、驚愕、興奮、性的興奮、好奇心、性的好奇心、冷静、焦燥(焦り)、不思議(困惑)、幸福、幸運、リラックス、緊張、名誉、責任、尊敬、親近感(親しみ)、憧憬(憧れ)、欲望(意欲)、恐怖、勇気、快、快感(善行・徳に関して)、後悔、満足、不満、無念、嫌悪、恥、軽蔑、嫉妬、罪悪感、殺意、シャーデンフロイデ、サウダージ、期待、優越感、劣等感、恨、怨み、苦しみ、悲しみ、切なさ、感動、怒り、悩み(苦悩、懊悩、煩悶)、諦念(諦め)、絶望、希望、憎悪(愛憎)、愛しさ、空虚といった情報である。その他にも、痒み、痛み、尿意、便意、空腹感、満腹感等もある。また、人から人へのコミュニケーション伝達情報として、人の考えや意思に関する情報がある。例えば、賛同、同意、反対、拒絶、迷い、混乱等である。特に、人の脳波情報は他の生体情報に対して上記情報を多く検出できる可能性が高く、主要な生体情報である。 By analyzing biological information, emotional information, mental information, psychological information, etc. may be obtained as information on a person's condition. For example, by analyzing a person's biological information, information indicating the person's emotions, information indicating the person's mental state, information indicating the person's psychological state, etc. may be obtained. Of course, information indicating the condition of non-human animals and plants may be obtained by analyzing biological information of non-human animals and plants. For example, information on a person's state includes the state of feeling the three major needs of appetite, desire for sleep, and sexual desire, as well as consciousness centered on feelings. Excitement, curiosity, sexual curiosity, calm, impatience, wonder (confusion), happiness, good fortune, relaxation, tension, honor, responsibility, respect, closeness, admiration, desire ( desire), fear, courage, pleasure, pleasure (regarding good deeds and virtues), regret, satisfaction, dissatisfaction, regret, disgust, shame, contempt, jealousy, guilt, murderous intent, schadenfreude, saudade, expectation, sense of superiority, inferiority It is information such as feeling, resentment, resentment, suffering, sadness, sadness, emotion, anger, worry (anguish, anguish, anguish), resignation (giving up), despair, hope, hatred (love/hate), love, and emptiness. Other symptoms include itching, pain, the urge to urinate, the urge to defecate, a feeling of hunger, and a feeling of fullness. Furthermore, as communication information transmitted from person to person, there is information regarding people's thoughts and intentions. For example, agreeing, agreeing, disagreeing, rejecting, being confused, confused, etc. In particular, human brain wave information has a high possibility of detecting more of the above information than other biological information, and is the main biological information.

脳波は、一般に次のように分類される。デルタ(δ)波は、周波数範囲が1~4Hzであり、夢のない深い睡眠や、ノンレム睡眠の状態に対応し、睡眠が浅くなるにつれて減少し、無意識状態に対応する。シータ(θ)波の周波数範囲は4~8Hzであり、やすらぎ状態、まどろみ状態、浅い睡眠状態、直感的な状態、創造的な状態、記憶にアクセスしている状態、及びひらめきの状態などに対応する。低アルファ(α)波は、周波数範囲が8~10Hzであり、リラックス状態(平穏、意識的だが内向きな状態)に対応し、閉眼時に出現し、開眼時に減少する。高アルファ(α)波は、周波数範囲が10~12Hzであり、リラックス状態(集中がともなう、外に意識が向いている状態)に対応し、閉眼時に出現し、開眼時に減少する。SMR(sensorimotor rhythm)は、周波数範囲が12~15Hzであり、ゾーンに入った状態、リラックス状態と集中状態のバランスのとれた状態などに対応し、動く前、考える前に現れる。低ベータ(β)波は、周波数範囲が15~20Hzであり、思考したり、問題を解いたりしているときなどに対応する。高ベータ(β)波は、周波数範囲が20~30Hzであり、警戒状態、動揺している状態、緊張状態、及び不安状態などに対応する。低ガンマ(γ)波は、周波数範囲が31~40Hzであり、記憶形成、高次精神活動、高次認知活動、及び幸福状態などに対応する。また、中ガンマ(γ)波の周波数範囲は41~50Hzであり、視覚情報処理などに相当する。また、生体情報測定装置12は、上述した全ての脳波の一部又はすべてを測定してもよい。 Brain waves are generally classified as follows. Delta (δ) waves have a frequency range of 1 to 4 Hz, and correspond to a state of dreamless deep sleep or non-REM sleep, and decrease as sleep becomes lighter, corresponding to an unconscious state. Theta (θ) waves have a frequency range of 4 to 8 Hz and correspond to states of relaxation, slumber, light sleep, intuitive states, creative states, accessing memories, and states of inspiration. do. Low alpha (α) waves have a frequency range of 8-10 Hz and correspond to a relaxed state (calm, conscious but introverted state), appearing when the eyes are closed and decreasing when the eyes are open. High alpha (α) waves have a frequency range of 10 to 12 Hz and correspond to a relaxed state (a state of concentration and outward awareness), appearing when the eyes are closed and decreasing when the eyes are open. SMR (sensorimotor rhythm) has a frequency range of 12 to 15 Hz, and corresponds to a state of being in a zone, a state of balance between a state of relaxation and a state of concentration, and appears before moving or thinking. Low beta (β) waves have a frequency range of 15 to 20 Hz and correspond to times when we are thinking or solving problems. High beta (β) waves have a frequency range of 20-30 Hz and correspond to states such as alertness, agitation, tension, and anxiety. Low gamma (γ) waves have a frequency range of 31 to 40 Hz and correspond to memory formation, higher mental activities, higher cognitive activities, and states of well-being. Furthermore, the frequency range of medium gamma (γ) waves is 41 to 50 Hz, which corresponds to visual information processing and the like. Furthermore, the biological information measuring device 12 may measure some or all of the above-mentioned brain waves.

生体情報測定装置12は、被検体である生物に装着されて生体情報を測定する装置(例えばウェアラブルデバイス)であってもよいし、生物に装着されずに生体情報を測定する装置であってもよい。 The biological information measuring device 12 may be a device (for example, a wearable device) that is attached to a living organism that is a subject to measure biological information, or a device that measures biological information without being attached to a living organism. good.

ウェアラブルデバイスは、例えば、動物の耳に装着されるヒアラブルデバイス、動物の頭部に装着されるデバイス、動物の手首や腕や指(以下、「手首等」と称する)に装着されるデバイス(例えば、スマートウォッチ等の腕時計型のデバイス)、動物の首に装着されるデバイス、動物の胴体(例えば胸部や腹部等)に装着されるデバイス、下肢(例えば、人の大腿、下腿、膝、足、足首等)に装着されるデバイス、メガネ型のデバイス、又は、コンタクトレンズ型のデバイス等である。生体情報測定装置12は、これら以外の部位に装着されるウェアラブルデバイスであってもよい。また、複数の部位に生体情報測定装置12が装着されてもよい。 Wearable devices include, for example, hearable devices that are attached to an animal's ears, devices that are attached to an animal's head, and devices that are attached to an animal's wrist, arm, or finger (hereinafter referred to as "wrist, etc."). For example, wristwatch-type devices such as smart watches), devices worn around the animal's neck, devices worn on the animal's torso (such as the chest or abdomen), and lower limbs (such as human thighs, lower legs, knees, and feet). , ankle, etc.), a glasses-type device, a contact lens-type device, etc. The biological information measuring device 12 may be a wearable device that is attached to a part other than these. Furthermore, the biological information measuring device 12 may be attached to multiple locations.

ヒアラブルデバイスは、例えば、イヤフォン、補聴器、ピアス型のデバイス、クリップ型のデバイス、又は、耳に巻き付けられるバンドやケーブルを含むデイバス等であってもよい。頭部に装着されるデバイスは、例えば、頭部に巻き付けられるバンドやケーブル等を含むヘッドセットであってもよい。手首等に装着されるデバイスは、例えば、手首等に巻き付けられるバンドやケーブル等を含むデバイスであってもよい。その他の部位に装着されるデバイスも、バンドやケーブル等を含んでもよい。特に脳波情報を測定する場合には、自然な見た目で測定可能なヒアラブルデバイスは好ましく、脳波を測定するデバイスとしては一般に普及しているイヤフォンのように汎用性の高い形態をしている点で優れる。一見脳波を計測していることを人から見てわからないような自然な見た目は重要な要素であり、頭部に電極を構成する医療用の脳波計等は、いかにも脳波を測定していることが顕在化しているため、例えば日常的に装着して測定する場合には大きな障害になり、装着をためらうという声が多い。また、ヒアラブルデバイスは、人の耳への音声による入力、口からの声の情報の出力ができる手段を利用できるため、脳波情報を検出しながら、その情報の解釈の結果を音声で確認したり、解釈に誤りがあった場合には解釈を修正したりすることができる点で優れる。さらに、脳波を主に利用するBMI/BCIにおいては、機器を操作したり人と人とのコミュニケーションを実行したりするシーンで使用される場合が多いが、いかに精度を高く機器を操作するか、伝えたいコミュニケーションの内容を正しく判断できるかが課題となる。ヒアラブルデバイスを活用したBMI/BCIは耳に装着されるため、先に示した音声による入力手段や口からの声の情報を活用したり、脳波以外に人が意図的に発現させることができる生体情報を活用したりすることで精度を高めることが可能になる(例えば意図的に顎を三回動かすと筋電情報として現れることや、意図的に眼球を強く動かしたときに現れる眼電情報等を、正しく判断できているかを確認し、操作の実施判断、コミュニケーションの伝達実施判断に利用すること等が可能である)。 The hearable device may be, for example, an earphone, a hearing aid, a piercing device, a clip-on device, or a device that includes a band or cable that is wrapped around the ear. The head-worn device may be, for example, a headset that includes a band, cable, or the like that is wrapped around the head. The device worn on the wrist or the like may be, for example, a device that includes a band, cable, or the like that is wrapped around the wrist or the like. Devices worn at other locations may also include bands, cables, and the like. In particular, when measuring brain wave information, a hearable device is preferable because it can measure brain waves with a natural appearance. Excellent. A natural appearance that makes it difficult for people to tell at first glance that they are measuring brain waves is an important element, and medical electroencephalographs that have electrodes on the head are clearly measuring brain waves. Because it is so visible, it can be a big hindrance when wearing it on a daily basis to take measurements, and many say they are hesitant to wear it. In addition, hearable devices can use methods that can input voice information to the human ear and output voice information from the mouth, so while detecting brain wave information, the results of the interpretation of that information can be confirmed by voice. It is excellent in that it allows you to correct the interpretation if there is a mistake in the interpretation. Furthermore, BMI/BCI, which mainly uses brain waves, is often used in situations where equipment is operated or communication is performed between people, but it is important to know how to operate the equipment with high precision. The challenge is whether you can correctly judge the content of the communication you want to convey. Since BMI/BCI using hearable devices is worn in the ear, it can be intentionally expressed by a person by using the audio input method mentioned earlier or by using voice information from the mouth, or by using other methods other than brain waves. Accuracy can be improved by utilizing biological information (for example, electromyographic information that appears when you intentionally move your jaw three times, or electrooculography that appears when you intentionally move your eyeballs strongly) It is possible to confirm whether the judgment is correctly made, and to use it for determining the implementation of operations and transmission of communication, etc.).

生体情報測定装置12は、生物に接触して当該生物の生体情報を測定する装置である接触型装置であってもよいし、生体情報測定装置12は、生物に接触せずに当該生物の生体情報を測定である非接触型装置であってもよい。生体情報測定装置12は、接触型装置と非接触型装置の両方を兼ね備えた装置であってもよい。つまり、生体情報測定装置12は、生物に接触して当該生物の生体情報を測定し、更に、生物に接触せずに当該生物の生体情報を測定してもよい。生物に接触して測定される生体情報と、生物に接触せずに測定される生体情報は、同じ種類の生体情報であってもよいし、異なる種類の生体情報であってもよい。 The biological information measuring device 12 may be a contact type device that measures the biological information of the living organism by contacting the living organism, or the biological information measuring device 12 may measure the biological information of the living organism without coming into contact with the living organism. It may also be a non-contact type device that measures information. The biological information measuring device 12 may be a device having both a contact type device and a non-contact type device. In other words, the biological information measurement device 12 may measure the biological information of the living organism by contacting the living organism, and may also measure the biological information of the living organism without contacting the living organism. The biological information measured by contacting a living organism and the biological information measured without contacting a living organism may be the same type of biological information or may be different types of biological information.

生体情報測定装置12は、生体情報を測定するための電極や電極以外のセンサ等を含む。電極は、生体に接触して、生体情報の一例である電位を検出してもよいし、生体に接触せずに電位を検出してもよい。電極以外のセンサは、生体に接触して生体情報を測定してもよいし、生体に接触せずに生体情報を測定してもよい。例えば、電極は動物に接触して、当該動物の脳波を示す電位を検出する。また、センサは動物に接触せずに、当該動物の体温を示す生体情報を測定してもよい。もちろん、これらは一例に過ぎず、これ以外の生体情報が測定されてもよい。 The biological information measuring device 12 includes electrodes for measuring biological information, sensors other than electrodes, and the like. The electrode may be in contact with a living body to detect an electric potential, which is an example of biological information, or may be in contact with a living body to detect an electric potential. Sensors other than electrodes may measure biological information by contacting a living body, or may measure biological information without contacting a living body. For example, electrodes may be brought into contact with an animal and detect electrical potentials indicative of the animal's brain waves. Further, the sensor may measure biological information indicating the body temperature of the animal without coming into contact with the animal. Of course, these are just examples, and other biological information may be measured.

例えば、生体情報測定装置12は、1又は複数の電極を含む。例えば、複数の電極が生物に設けられて、当該複数の電極によって電位が検出される。検出された電位には、当該生物の生体情報の一例である生体電位が含まれており、検出された電位を処理することで、検出された電位から生体電位が抽出される。例えば、検出された電位には生体電位由来以外のノイズが含まれている場合があり、ノイズキャンセル処理等の処理を実行することで、ノイズが除去された生体電位が得られる。ノイズは、例えば、生物の動きに起因して発生する電位や、生物の外部から伝わる電位や、地球環境由来で発生する電位や、測定対象以外の生体情報を表す電位等である。PCやスマートフォン等の装置にて発生する電位等がノイズに含まれてもよい。電位の検出感度やノイズ等の測定状況に応じて、電位の検出に用いられる電極が切り換えられてもよい。また、様々な生体電位由来の電位が複合して測定される場合には、生体電位毎に測定された電位を周波数によって分ける処理をしたり、測定する時間の中で、複合している部分と複合が弱い部分に分ける処理をしたりすることにより、様々な生体電位由来の電位を推定して分離してもよい。例えば、前述のヒアラブルデバイスでは、脳の活動を示す情報、脈拍数を示す情報、筋肉等の動きに由来する筋電情報、脈波、心拍数などの血流に起因する情報等が複合的に計測される場合があるが、これらの情報は周波数や出力の絶対値が異なる場合が多く、測定信号の周波数分析や出力値レベルの違いによって分けて推定することができる。例えば脳波の場合にはその周波数によりα、β、θ、δ、γ波の帯域に分けられる。これとは別の方法として、同じ状態条件でそれぞれ、ヒアラブルデバイスによって測定し、更に、市販の脳波計や筋電計測装置や血流に関する測定装置で単独の測定信号を個別に複数回測定し、どの生体情報由来の情報であるかを、複合して測定されたヒアラブルデバイスの測定信号情報をフーリエ変換やウェーブレット変換等による周波数解析手法で分析した後に、統計処理を入れて推定的に分離する手段を導入してもよい。 For example, the biological information measuring device 12 includes one or more electrodes. For example, a plurality of electrodes are provided on a living organism, and electric potential is detected by the plurality of electrodes. The detected potential includes a biopotential that is an example of biological information of the living organism, and by processing the detected potential, the biopotential is extracted from the detected potential. For example, the detected potential may contain noise other than that derived from the biopotential, and by performing processing such as noise cancellation processing, the biopotential from which noise has been removed can be obtained. The noise includes, for example, an electric potential generated due to the movement of an organism, an electric potential transmitted from outside the organism, an electric potential generated from the earth's environment, an electric potential representing biological information other than the object to be measured, and the like. The noise may include a potential generated in a device such as a PC or a smartphone. The electrodes used for potential detection may be switched depending on the potential detection sensitivity, noise, and other measurement conditions. In addition, when potentials derived from various biopotentials are measured in combination, the potentials measured for each biopotential may be processed to be separated by frequency, or the composite portion may be separated during the measurement time. Potentials derived from various biopotentials may be estimated and separated by performing processing to separate the parts into weakly composite parts. For example, in the aforementioned hearable device, information indicating brain activity, information indicating pulse rate, myoelectric information derived from the movement of muscles, etc., information resulting from blood flow such as pulse waves and heart rate, etc. are combined. However, this information often differs in frequency and absolute value of output, and can be estimated separately based on frequency analysis of the measurement signal and differences in output value level. For example, brain waves are divided into α, β, θ, δ, and γ wave bands depending on their frequency. Another method is to measure each signal with a hearable device under the same state conditions, and then measure a single measurement signal multiple times individually with a commercially available electroencephalogram, electromyography measurement device, or blood flow measurement device. After analyzing the combined measurement signal information of the hearable device using frequency analysis methods such as Fourier transform and wavelet transform, we perform statistical processing to estimate which biological information is derived from. You may introduce means to do so.

生体情報測定装置12は、測定された生体情報を情報処理装置10に送信する。生体情報測定装置12は、生体情報を測定する度に生体情報を情報処理装置10に送信してもよいし、生体情報を記憶し、予め定められた時間間隔毎に生体情報を情報処理装置10に送信してもよいし、人が指定したタイミングで生体情報を情報処理装置10に送信してもよい。また、生体情報測定装置12は、他の生体情報測定装置12が測定した生体情報を当該他の生体情報測定装置12から受信し、自身が測定した生体情報と当該他の生体情報測定装置12が測定した生体情報とを情報処理装置10に送信してもよい。 The biological information measuring device 12 transmits the measured biological information to the information processing device 10. The biological information measuring device 12 may transmit biological information to the information processing device 10 every time it measures biological information, or may store the biological information and transmit the biological information to the information processing device 10 at predetermined time intervals. The biometric information may be transmitted to the information processing apparatus 10 at a timing specified by a person. In addition, the biological information measuring device 12 receives biological information measured by another biological information measuring device 12 from the other biological information measuring device 12, and compares the biological information measured by itself with the other biological information measuring device 12. The measured biological information may also be transmitted to the information processing device 10.

生体情報測定装置12は、自装置又は他の生体情報測定装置が測定した生体情報を解析し、その解析の結果を示す情報を情報処理装置10に送信してもよい。例えば、生体情報測定装置12はプロセッサを含み、当該プロセッサが生体情報を解析してもよい。もちろん、その解析は情報処理装置10又は他の装置によって行われてもよい。 The biological information measuring device 12 may analyze biological information measured by itself or another biological information measuring device, and may transmit information indicating the result of the analysis to the information processing device 10. For example, the biological information measuring device 12 may include a processor, and the processor may analyze the biological information. Of course, the analysis may be performed by the information processing device 10 or other devices.

生体情報測定装置12は、バッテリを含み、当該バッテリから供給される電力によって駆動してもよいし、他の装置(例えば情報処理装置10等)から電力の供給を受けて駆動してもよい。 The biological information measuring device 12 includes a battery, and may be driven by power supplied from the battery, or may be driven by receiving power from another device (for example, the information processing device 10, etc.).

情報処理装置10は、生体情報測定装置12から生体情報を受け付けて、生体情報の解析、生体情報の記憶、生体情報の出力、生体情報の解析の結果を示す情報の記憶、及び、生体情報の解析の結果を示す情報の出力等を行う。もちろん、生体情報の解析は、生体情報測定装置12又は他の装置によって行われてもよい。生体情報を出力することは、例えば、生体情報を表示することや、生体情報を音声情報として出力すること等である。生体情報の解析の結果を示す情報を出力することは、例えば、解析の結果を示す情報を表示することや、解析の結果を音声情報として出力すること等である。情報処理装置10は、生体情報や解析の結果を示す情報を他の装置に送信してよい。 The information processing device 10 receives biological information from the biological information measuring device 12, analyzes the biological information, stores the biological information, outputs the biological information, stores information indicating the result of the biological information analysis, and stores the biological information. Outputs information indicating the results of the analysis. Of course, the analysis of biological information may be performed by the biological information measuring device 12 or other devices. Outputting biometric information includes, for example, displaying biometric information, outputting biometric information as voice information, and the like. Outputting information indicating the results of the analysis of biological information includes, for example, displaying information indicating the results of the analysis, outputting the results of the analysis as audio information, and the like. The information processing device 10 may transmit information indicating biological information and analysis results to other devices.

情報処理装置10は、1又は複数の生体情報測定装置12を含んでもよい。つまり、1又は複数の生体情報測定装置12は、情報処理装置10に組み込まれて、1つの装置が構成されてもよい。1又は複数の生体情報測定装置12を含む情報処理装置10全体が、生物に装着されて生体情報を測定してもよい。つまり、情報処理装置10はウェアラブルデバイスであってもよい。例えば、情報処理装置10は、人の頭部(例えば額等)に装着される装置であってもよいし、人の耳に装着されるヒアラブルデバイス(例えば、イヤフォンやヘッドフォン等)であってもよいし、人の腕や手や手首や指等に装着される装置(例えば、スマートウォッチ等の腕時計型の装置等)であってもよいし、人の首に掛けられる装置であってもよいし、人の胴体(例えば腹部や胸部等)に装着される装置であってもよいし、人の下肢(例えば、大腿、下腿、膝、足、足首等)に装着される装置であってもよい。情報処理装置10は、人の腕や手や胴体や下肢に装着される健康器具等であってもよい。情報処理装置10は、これら以外の部位に装着されてもよい。 The information processing device 10 may include one or more biological information measuring devices 12. That is, one or more biological information measuring devices 12 may be incorporated into the information processing device 10 to configure one device. The entire information processing device 10 including one or more biological information measuring devices 12 may be attached to a living thing to measure biological information. In other words, the information processing device 10 may be a wearable device. For example, the information processing device 10 may be a device worn on a person's head (for example, forehead) or a hearable device (for example, earphones, headphones, etc.) worn on a person's ears. It may be a device that is worn on a person's arm, hand, wrist, finger, etc. (for example, a wristwatch-type device such as a smart watch), or it may be a device that is worn around a person's neck. It may be a device that is attached to a person's torso (e.g., abdomen or chest), or it may be a device that is attached to a person's lower limbs (e.g., thigh, lower leg, knee, foot, ankle, etc.). Good too. The information processing device 10 may be a health appliance or the like that is worn on a person's arm, hand, torso, or lower limb. The information processing device 10 may be attached to parts other than these.

情報処理装置10と生体情報測定装置12は、別々の装置であってもよい。例えば、情報処理装置10は、ロボットやスマートスピーカやサーバ等の装置であり、生体情報測定装置12は、生物に装着されるウェアラブルデイバスであってもよい。 The information processing device 10 and the biological information measuring device 12 may be separate devices. For example, the information processing device 10 may be a device such as a robot, a smart speaker, or a server, and the biological information measuring device 12 may be a wearable device attached to a living creature.

環境情報測定装置14は、生物や当該環境情報測定装置14の周囲の環境に関する環境情報を測定するように構成されている。例えば、環境情報測定装置14は、撮影装置であるカメラ、集音するマイク、温度を測定する温度センサ、湿度を測定する湿度センサ、匂いを測定する臭気センサ、明るさを測定する照度センサ、赤外線センサ、気圧センサ等の圧力センサ、対象物の動きを検知する位置センサ、又は、人感センサ等である。これらのセンサの中の1又は複数のセンサが、環境情報測定装置14として情報処理システムに含まれてもよい。 The environmental information measuring device 14 is configured to measure environmental information regarding living things and the environment around the environmental information measuring device 14 . For example, the environmental information measuring device 14 includes a camera that is a photographing device, a microphone that collects sound, a temperature sensor that measures temperature, a humidity sensor that measures humidity, an odor sensor that measures odor, an illuminance sensor that measures brightness, and an infrared sensor that measures brightness. A sensor, a pressure sensor such as an atmospheric pressure sensor, a position sensor that detects the movement of an object, a human sensor, or the like. One or more of these sensors may be included in the information processing system as the environmental information measuring device 14.

例えば、情報処理装置10の周囲やその他の場所がカメラによって撮影されて、当該周囲を表す画像データやその他の場所を表す画像データが生成される。画像データは、動画像データであってもよいし、静止画像データであってもよい。カメラによって撮影された画像データは、カメラの撮影範囲に含まれている環境に関する環境情報の一例に相当する。また、カメラによって生物が撮影されることで生成された、当該生物を表す画像データは、当該生物の生体情報として用いられてもよい。例えば、当該画像データから検知される当該生物(例えば人)の動きや当該生物の体型等は、当該生物の生体情報の一例に相当する。その意味で、カメラは、当該生物の生体情報を測定する生体情報測定装置12の一例に相当する。 For example, the surroundings of the information processing device 10 and other places are photographed by a camera, and image data representing the surroundings and image data representing the other places are generated. The image data may be moving image data or still image data. Image data photographed by a camera corresponds to an example of environmental information regarding the environment included in the photographing range of the camera. Further, image data representing the living creature generated by photographing the living creature with a camera may be used as biological information of the living creature. For example, the movement of the living creature (for example, a human), the body shape of the living creature, etc. detected from the image data corresponds to an example of biological information of the living creature. In that sense, the camera corresponds to an example of the biological information measuring device 12 that measures biological information of the living creature.

また、マイクの周囲の音(例えば、人の音声やその他の音)がマイクに入力されて、マイクによって音データが生成される。マイクに入力された音を表す音データは、マイクの周囲の環境に関する環境情報の一例に相当する。また、マイクに入力された人の音声を表す音データは、当該人の生体情報として用いられてもよい。その意味で、マイクは、当該人の生体情報を測定する生体情報測定装置12の一例に相当する。また、マイクに入力された、人以外の動物の鳴き声等を表す音データは、当該動物の生体情報として用いられてもよい。 Further, sounds around the microphone (for example, human voices and other sounds) are input to the microphone, and sound data is generated by the microphone. Sound data representing the sound input to the microphone corresponds to an example of environmental information regarding the environment around the microphone. Further, sound data representing a person's voice input into a microphone may be used as biological information of the person. In that sense, the microphone corresponds to an example of the biological information measuring device 12 that measures the biological information of the person. Further, sound data input into a microphone and representing the sounds of an animal other than a human may be used as biological information of the animal.

また、温度センサ、湿度センサ、臭気センサ、照度センサ、赤外線センサ、圧力センサ、位置センサ、及び、人感センサ等によって測定されたデータは、環境情報の一例に相当する。また、これらのセンサによって生物から測定されたデータは、当該生物の生体情報として用いられてもよい。その意味で、これらのセンサは、当該生物の生体情報を測定する生体情報測定装置12の一例に相当する。 Further, data measured by a temperature sensor, humidity sensor, odor sensor, illuminance sensor, infrared sensor, pressure sensor, position sensor, human sensor, etc. corresponds to an example of environmental information. Further, data measured from living things by these sensors may be used as biological information of the living things. In that sense, these sensors correspond to an example of the biological information measuring device 12 that measures biological information of the living organism.

環境情報は、生物がいる部屋の大きさを示す情報や、機器16が設置されている部屋の大きさを示す情報や、部屋に設けられている窓の数を示す情報等を含む情報であってもよい。また、環境情報は、環境情報測定装置14によって測定された情報に限らず、予め定められた情報や、予め測定された情報であってもよい。 The environmental information includes information indicating the size of the room in which the living creature is located, information indicating the size of the room in which the device 16 is installed, information indicating the number of windows provided in the room, etc. You can. Furthermore, the environmental information is not limited to information measured by the environmental information measuring device 14, but may be predetermined information or information measured in advance.

なお、1又は複数の環境情報測定装置14が、情報処理装置10に含まれてもよい。 Note that one or more environmental information measuring devices 14 may be included in the information processing device 10.

機器16は、操作対象の一例である。機器16は、例えば、PC、タブレットPC、スマートフォン、携帯電話、ロボット(例えば、人型ロボット、人以外の動物型ロボット、掃除ロボット、及び、それら以外のロボット等)、プロジェクタ、液晶ディスプレイ等の表示装置、記録装置、再生装置、カメラ等の撮像装置、冷蔵庫、炊飯器、電子レンジ、コーヒーメーカー、掃除機、洗濯機、空調機、照明機器、時計、監視カメラ、自動車、二輪車、航空機(例えば無人航空機(例えばドローン))、ゲーム機、ガスレンジ、温水洗浄便座、換気扇、呼び鈴、玄関モニタ、エレベータ、ドア、窓、又は、各種のセンシング機器(例えば温度センサ、湿度センサ、電圧センサ、電流センサ等)等の装置である。機器16の概念の範疇には機器全般が含まれてもよい。例えば、情報機器、映像機器、音響機器、その他の機器も、本実施形態に係る機器16の範疇に含まれてもよい。 The device 16 is an example of an operation target. The devices 16 include, for example, a PC, a tablet PC, a smartphone, a mobile phone, a robot (for example, a humanoid robot, a non-human animal robot, a cleaning robot, and other robots), a projector, a display device such as a liquid crystal display, etc. devices, recording devices, playback devices, imaging devices such as cameras, refrigerators, rice cookers, microwave ovens, coffee makers, vacuum cleaners, washing machines, air conditioners, lighting equipment, clocks, surveillance cameras, automobiles, motorcycles, aircraft (e.g. unmanned Aircraft (e.g. drones)), game consoles, gas ranges, heated toilet seats, ventilation fans, doorbells, entrance monitors, elevators, doors, windows, or various sensing devices (e.g. temperature sensors, humidity sensors, voltage sensors, current sensors, etc.) ) etc. The concept of equipment 16 may include equipment in general. For example, information equipment, video equipment, audio equipment, and other equipment may also be included in the category of equipment 16 according to this embodiment.

機器16は、通信インターフェースである通信装置、情報を記憶するメモリ、及び、当該機器16の動作を制御するプロセッサを含む。機器16は、ディスプレイや操作装置等を含むユーザインターフェースを有してもよい。機器16は、自装置である機器16を識別するための機器識別情報を情報処理装置10に送信してもよい。機器識別情報は、例えば、機器16のID、名称、型番、又は、アドレス(例えばMACアドレスやIPアドレス等)等である。 The device 16 includes a communication device that is a communication interface, a memory that stores information, and a processor that controls the operation of the device 16. The device 16 may have a user interface including a display, an operating device, and the like. The device 16 may transmit device identification information for identifying the device 16 itself to the information processing device 10. The device identification information is, for example, the ID, name, model number, or address (eg, MAC address, IP address, etc.) of the device 16.

本実施形態においては、1又は複数の生物(例えば、1又は複数の人)の生体情報に基づいて操作対象が操作される。例えば、情報処理装置10は、生物の生体情報を生体情報測定装置12から取得し、その取得した生体情報に基づいて操作対象を操作する。例えば、情報処理装置10は、生物の生体情報を生体情報測定装置12から取得し、その取得した生体情報に基づいて操作対象の操作内容を特定し、その特定した操作内容に従って操作対象を操作する。操作内容を特定する処理は、生体情報測定装置12又は他の装置(例えばサーバや機器16や端末装置18等)によって行われてもよい。情報処理装置10以外の装置(例えばサーバや端末装置18等)が、操作対象を操作してもよい。例えば、情報処理装置10が生体情報に基づいて操作内容を特定し、情報処理装置10以外の装置が、情報処理装置10によって特定された操作内容に従って操作対象を操作してもよい。 In this embodiment, an operation target is operated based on biometric information of one or more living things (for example, one or more people). For example, the information processing device 10 acquires biological information of a living thing from the biological information measuring device 12, and operates the operation target based on the acquired biological information. For example, the information processing device 10 acquires biological information of a living creature from the biological information measuring device 12, specifies the operation content of the operation target based on the acquired biological information, and operates the operation target according to the specified operation content. . The process of specifying the operation details may be performed by the biological information measuring device 12 or other devices (for example, the server, the device 16, the terminal device 18, etc.). A device other than the information processing device 10 (for example, a server, a terminal device 18, etc.) may operate the operation target. For example, the information processing device 10 may specify the operation content based on biometric information, and a device other than the information processing device 10 may operate the operation target according to the operation content specified by the information processing device 10.

操作対象は、ハードウェアであってもよいし、ソフトウェアであってもよいし、ハードウェアとソフトウェアの両方であってもよい。 The operation target may be hardware, software, or both hardware and software.

操作対象のハードウェアは特に限定されるものではなく、例えば、機器16、又は、機器16以外の装置(例えば、情報処理装置10、生体情報測定装置12、環境情報測定装置14又はサーバ等)である。複数のハードウェアが操作対象であってもよい。 The hardware to be operated is not particularly limited, and may be, for example, the device 16 or a device other than the device 16 (for example, the information processing device 10, the biological information measuring device 12, the environmental information measuring device 14, or a server). be. A plurality of pieces of hardware may be the objects of operation.

操作対象のソフトウェアは特に限定されるものではなく、例えば、アプリケーションプログラムやOS(オペレーティングシステム)等である。操作対象のソフトウェアは、情報処理装置10にインストールされているソフトウェアであってもよいし、機器16にインストールされているソフトウェアであってもよいし、端末装置18にインストールされているソフトウェアであってもよし、その他の装置(例えば、生体情報測定装置12、環境情報測定装置14、サーバ又は他の装置)にインストールされているソフトウェアであってもよいし、インターネット等の通信経路を介して提供されるソフトウェアであってもよい。複数のソフトウェアが操作対象であってもよい。複数のソフトウェアが操作対象である場合、各ソフトウェアは、同じハードウェアにインストールされていてもよいし、異なるハードウェアにインストールされていてもよい。 The software to be operated is not particularly limited, and may be, for example, an application program or an OS (operating system). The software to be operated may be software installed in the information processing device 10, software installed in the device 16, or software installed in the terminal device 18. Alternatively, it may be software installed on other devices (for example, the biological information measuring device 12, the environmental information measuring device 14, a server, or other devices), or it may be provided via a communication path such as the Internet. It may be software that A plurality of pieces of software may be the target of operation. When multiple pieces of software are to be operated, each piece of software may be installed on the same hardware or on different pieces of hardware.

以下、図2を参照して、情報処理装置10の構成について詳しく説明する。図2には、情報処理装置10のハードウェアの構成の一例が示されている。 Hereinafter, the configuration of the information processing device 10 will be described in detail with reference to FIG. 2. FIG. 2 shows an example of the hardware configuration of the information processing device 10.

情報処理装置10は、例えば、通信装置20と、UI22と、メモリ24と、プロセッサ26とを含む。情報処理装置10は、これら以外の構成を含んでもよい。 The information processing device 10 includes, for example, a communication device 20, a UI 22, a memory 24, and a processor 26. The information processing device 10 may include configurations other than these.

通信装置20は、通信チップや通信回路等を有する通信インターフェースであり、他の装置に情報を送信する機能、及び、他の装置から送信されてきた情報を受信する機能を有する。通信装置20は、無線通信機能を有してもよいし、有線通信機能を有してもよい。通信装置20は、例えば近距離無線通信を利用することで他の装置と通信してもよいし、LANやインターネット等の通信経路を介して他の装置と通信してもよい。 The communication device 20 is a communication interface having a communication chip, a communication circuit, etc., and has a function of transmitting information to other devices and a function of receiving information transmitted from other devices. The communication device 20 may have a wireless communication function or a wired communication function. The communication device 20 may communicate with other devices by using, for example, short-range wireless communication, or may communicate with other devices via a communication path such as a LAN or the Internet.

UI22はユーザインターフェースであり、ディスプレイ及び操作装置の中の少なくとも1つを含む。ディスプレイは、液晶ディスプレイやELディスプレイ等である。操作装置は、キーボードや入力キーや操作パネル等である。UI20は、ディスプレイと操作装置とを兼ね備えたタッチパネル等のUIであってもよい。UI20は、マイクやスピーカを含んでもよい。なお、情報処理装置10は、UI20を含まなくてもよい。 The UI 22 is a user interface and includes at least one of a display and an operating device. The display is a liquid crystal display, an EL display, or the like. The operating device is a keyboard, input keys, operation panel, or the like. The UI 20 may be a UI such as a touch panel that has both a display and an operation device. The UI 20 may include a microphone and a speaker. Note that the information processing device 10 does not need to include the UI 20.

メモリ24は、各種の情報を記憶する1又は複数の記憶領域を構成する装置である。メモリ24は、例えば、ハードディスクドライブ、各種のメモリ(例えばRAMやDRAMやROM等)、その他の記憶装置(例えば光ディスク等)、又は、それらの組み合わせである。1又は複数のメモリ24が情報処理装置10に含まれている。 The memory 24 is a device that constitutes one or more storage areas that store various types of information. The memory 24 is, for example, a hard disk drive, various types of memory (eg, RAM, DRAM, ROM, etc.), other storage devices (eg, optical disk, etc.), or a combination thereof. One or more memories 24 are included in the information processing device 10.

メモリ24には、管理情報が記憶される。管理情報は、生体情報に基づいて操作対象の操作内容を特定するための情報である。 Management information is stored in the memory 24. The management information is information for specifying the operation content of the operation target based on biometric information.

プロセッサ26は、情報処理装置10の各部の動作を制御するように構成されている。プロセッサ26は、メモリを有してもよい。 The processor 26 is configured to control the operation of each part of the information processing device 10. Processor 26 may have memory.

例えば、予め定められた基準生体情報と、操作対象の操作内容を示す操作情報とが、予め紐付けられて、上記の管理情報に登録されている。基準生体情報は、当該基準生体情報に紐付けられている操作を行う動物(例えば人やその他の動物)から発生すると推測される生体情報であってもよいし、当該操作の実行を要求したり欲したりする動物から発生すると推測される生体情報であってもよいし、植物から発生すると推定される生体情報であってもよい。基準生体情報は、操作対象の操作内容を示す生体情報であるともいえる。操作内容を示す操作情報は、当該操作内容に従って操作される操作対象を示す情報を含んでもよい。 For example, predetermined reference biological information and operation information indicating the operation contents of the operation target are linked in advance and registered in the above-mentioned management information. The reference biological information may be biological information that is assumed to be generated from an animal (e.g., a human or other animal) that performs the operation linked to the reference biological information, or may be biological information that is assumed to be generated from an animal (e.g., a human or other animal) that performs the operation linked to the reference biological information, or may request the execution of the operation. It may be biological information estimated to be generated from the desired animal, or it may be biological information estimated to be generated from a plant. The reference biometric information can also be said to be biometric information indicating the operation content of the operation target. The operation information indicating the operation content may include information indicating an operation target to be operated according to the operation content.

生物毎に、基準生体情報と操作情報とが紐付けられて管理情報に登録されてもよい。例えば、生物の種類毎に、基準生体情報と操作情報とが紐付けられて管理情報に登録されてもよい。例えば、人用の管理情報と、人以外の動物用の管理情報と、植物用の管理情報とが作成されて、各管理情報がメモリ24に記憶されてもよい。人用の管理情報には、人から測定されると推測される基準生体情報と操作情報とが紐付けられて登録されている。個々の人毎(例えば個々のユーザ毎)に、基準生体情報と操作情報とが紐付けられて管理情報に登録されてもよい。人以外の動物用の管理情報には、当該動物から測定されると推測される基準生体情報と操作情報とが紐付けられて登録される。人以外の動物の種類毎に管理情報が作成されてもよい。また、植物用の管理情報には、植物から測定されると推測される基準生体情報と操作情報とが紐付けられて登録される。植物の種類毎に管理情報が作成されてもよい。 For each creature, the reference biological information and the operation information may be linked and registered in the management information. For example, reference biological information and operation information may be linked and registered in the management information for each type of living organism. For example, management information for humans, management information for animals other than humans, and management information for plants may be created and each management information may be stored in the memory 24. In the management information for humans, reference biological information that is assumed to be measured from humans and operation information are registered in a linked manner. The reference biological information and the operation information may be linked and registered in the management information for each person (for example, for each user). In the management information for animals other than humans, reference biological information estimated to be measured from the animal and operation information are registered in a linked manner. Management information may be created for each type of animal other than humans. Further, in the management information for plants, reference biological information estimated to be measured from plants and operation information are registered in a linked manner. Management information may be created for each type of plant.

操作情報は、機器16の電源の操作内容を示す情報であってもよいし、機器16の機能レベルの操作内容を示す情報であってもよいし、電源の操作内容と機能レベルの操作内容の両方を示す情報であってもよい。 The operation information may be information indicating the operation contents of the power supply of the device 16, information indicating the operation contents at the functional level of the device 16, or information indicating the operation contents of the power supply and the operation contents at the functional level. The information may indicate both.

機器16の電源の操作内容は、機器16の電源をオン又はオフする操作である。電源の操作内容に関する操作情報は、機器16の電源をオン又はオフする操作を示す情報である。電源の操作内容に関する操作情報に紐付けらえている生体情報は、機器16の電源のオン又はオフに対応する生体情報であるといえる。生物の種類毎や個々の生物毎に、機器16の電源の操作内容に関する操作情報と基準生体情報とが紐付けられて管理情報に登録されてもよい。 The content of the operation for powering the device 16 is to turn on or turn off the power to the device 16. The operation information regarding the details of the power supply operation is information indicating an operation for turning on or off the power of the device 16. It can be said that the biometric information that is linked to the operation information regarding the operation content of the power source is the biometric information that corresponds to whether the power of the device 16 is turned on or off. For each type of living creature or for each individual living creature, the operation information regarding the operation content of the power supply of the device 16 and the reference biological information may be linked and registered in the management information.

機器16の機能レベルの操作内容は、機器16の機能レベルを設定する操作である。機能レベルの操作内容に関する操作情報は、機器16の機能レベルを設定する操作を示す情報である。機能レベルの操作内容に関する操作情報に紐付けられている生体情報は、機器16の機能レベルに対応する生体情報であるといえる。生物の種類毎や個々の生物毎に、機器16の機能レベルの操作内容に関する操作情報と基準生体情報とが紐付けられて管理情報に登録されてもよい。 The operation content for the functional level of the device 16 is an operation for setting the functional level of the device 16. The operation information regarding the operation content of the functional level is information indicating an operation for setting the functional level of the device 16. It can be said that the biometric information that is linked to the operation information regarding the operation content at the functional level is biometric information that corresponds to the functional level of the device 16. For each type of living organism or for each individual living organism, operation information regarding the functional level operation content of the device 16 and reference biological information may be linked and registered in the management information.

機能レベルは、例えば、機器16の性能や出力に関するレベルである。具体例を挙げて説明すると、空調機の設定温度、空調機の風量、空調機の風向き、空調機の除湿機能の有無、表示装置の輝度、照明装置の輝度、スピーカの音量、自走可能な装置(例えばロボットや自走式の掃除機等)の移動速度、撮影装置や記録装置や再生装置等の装置の設定値、冷蔵庫や炊飯器や電子レンジ等の装置の設定値、及び、各種のセンシング機器の設定値等が、機器レベルの一例に相当する。これらは一例に過ぎず、これら以外の設定値等が機能レベルであってもよい。 The functional level is, for example, a level related to the performance and output of the device 16. To explain with specific examples, the set temperature of the air conditioner, the air volume of the air conditioner, the direction of the air conditioner, whether or not the air conditioner has a dehumidifying function, the brightness of the display device, the brightness of the lighting device, the volume of the speaker, and the ability to run on its own. The moving speed of devices (e.g. robots, self-propelled vacuum cleaners, etc.), the setting values of devices such as photographing devices, recording devices, playback devices, etc., the setting values of devices such as refrigerators, rice cookers, microwave ovens, etc. Setting values of a sensing device, etc. correspond to an example of the device level. These are just examples, and setting values other than these may be used at the functional level.

なお、管理情報は、情報処理装置10に記憶されずに、又は、情報処理装置10に記憶されると共に、情報処理装置10以外の装置に記憶されてもよい。 Note that the management information may not be stored in the information processing device 10, or may be stored in the information processing device 10 and in a device other than the information processing device 10.

プロセッサ26は、生物の生体情報を取得し、当該生体情報に基づいて操作対象を操作するように構成されている。 The processor 26 is configured to acquire biometric information of a living creature and operate the operation target based on the biometric information.

例えば、生体情報測定装置12によって生物から生体情報が測定されると、当該生体情報は生体情報測定装置12から情報処理装置10に送信される。プロセッサ26は、当該生体情報を受け付け、当該生体情報に基づいて操作対象の操作内容を特定する。プロセッサ26は、その特定した操作内容に従って操作対象を操作する。プロセッサ26は、生物の生体情報に基づいて、操作対象と当該操作対象の操作内容とを特定してもよい。別の例として、操作対象は予め定められていてもよい。例えば、人によって操作対象が指定されてもよい。この場合、プロセッサ26は、生物の生体情報に基づいて、その定められた操作対象の操作内容を特定する。 For example, when biometric information is measured from a living organism by the biometric information measuring device 12, the biometric information is transmitted from the biometric information measuring device 12 to the information processing device 10. The processor 26 receives the biometric information and specifies the operation content of the operation target based on the biometric information. The processor 26 operates the operation target according to the specified operation content. The processor 26 may specify the operation target and the operation content of the operation target based on the biological information of the living creature. As another example, the operation target may be determined in advance. For example, the operation target may be specified by a person. In this case, the processor 26 specifies the operation content of the determined operation target based on the biological information of the living creature.

操作対象が機器16である場合、プロセッサ26は、特定した操作内容を示す操作情報を含む制御情報を機器16に送信することで、当該機器16を操作する。操作対象である機器16は、当該制御情報に従って動作する。機器16以外のハードウェアが操作対象である場合も同様である。 When the operation target is the device 16, the processor 26 operates the device 16 by transmitting control information including operation information indicating the specified operation content to the device 16. The device 16 to be operated operates according to the control information. The same applies when hardware other than the device 16 is the object of operation.

操作対象がソフトウェアである場合、プロセッサ26は、特定した操作内容に従ってソフトウェアを操作する。例えば、プロセッサ26は、ソフトウェアを起動したり、ソフトウェアを用いて処理を行ったりする。ソフトウェアが情報処理装置10にインストールされている場合、プロセッサ26は、情報処理装置10にインストールされているソフトウェアを操作する。ソフトウェアが情報処理装置10以外の装置にインストールされている場合、プロセッサ26は、操作内容を示す操作情報を含む制御情報を、ソフトウェアがインストールされている装置に送信することでソフトウェアを操作する。 If the operation target is software, the processor 26 operates the software according to the specified operation details. For example, the processor 26 starts software or performs processing using software. If software is installed on the information processing device 10, the processor 26 operates the software installed on the information processing device 10. If the software is installed on a device other than the information processing device 10, the processor 26 operates the software by transmitting control information including operation information indicating operation details to the device where the software is installed.

例えば、プロセッサ26は、生物から測定された生体情報と、上記の管理情報に登録されている各基準生体情報とを比較し、当該生体情報との差異が許容範囲内に含まれる基準生体情報を検索する。プロセッサ26は、その検索された基準生体情報に紐付けられている、操作対象に対する操作内容を特定する。これにより、操作対象と当該操作対象の操作内容とが特定される。許容範囲は予め定められている。許容範囲はユーザによって変更されてもよい。許容範囲は生物の種類毎や個々の生物毎に定められてもよい。 For example, the processor 26 compares the biometric information measured from the living organism with each reference biometric information registered in the above-mentioned management information, and selects the reference biometric information whose difference from the biometric information is within an allowable range. search for. The processor 26 identifies the operation details for the operation target that are linked to the retrieved reference biological information. Thereby, the operation target and the operation details of the operation target are specified. The permissible range is predetermined. The tolerance range may be changed by the user. The permissible range may be determined for each type of organism or for each individual organism.

生物から測定された生体情報との差異が許容範囲内に含まれる複数の基準生体情報が検索された場合、プロセッサ26は、当該複数の基準生体情報の中で、当該生体情報との差異が最小となる基準生体情報を特定し、特定した当該基準生体情報に紐付けられている操作内容を特定してもよいし、当該複数の基準生体情報のそれぞれに紐付けられている操作内容を特定してもよい。 When a plurality of reference biological information is retrieved that includes a difference from the biological information measured from a living organism within an allowable range, the processor 26 selects the biological information that has the smallest difference from the biological information among the plurality of reference biological information. It is also possible to specify the reference biological information that is the reference biological information and specify the operation details linked to the identified reference biological information, or to specify the operation details linked to each of the plurality of reference biological information. It's okay.

基準生体情報は、生体情報の特徴的な成分を示す情報であってもよい。この場合、プロセッサ26は、生物から測定された生体情報から特徴的な成分を抽出し、その抽出された成分との差異が許容範囲内に含まれる成分を有する基準生体情報を検索してもよい。例えば、生体情報として脳波が用いられる場合、プロセッサ26は、動物の脳波から特徴的な成分を抽出し、当該成分を解析することで、当該脳波が表す操作内容を推測してもよい。 The reference biological information may be information indicating a characteristic component of the biological information. In this case, the processor 26 may extract a characteristic component from the biological information measured from the living organism, and search for reference biological information having a component whose difference from the extracted component is within an acceptable range. . For example, when brain waves are used as biological information, the processor 26 may extract characteristic components from the animal's brain waves and analyze the components to infer the operation content represented by the brain waves.

基準生体情報が閾値として用いられてもよい。例えば、基準生体情報が波形を示している場合、その波形中のピークの振幅が閾値として用いられる。この場合、プロセッサ26は、生物から測定された生体情報が示す波形に相似又は類似する波形を有する基準生体情報であって、測定された生体情報が閾値以上となる基準生体情報を検索し、検索した当該基準生体情報に紐付けられている操作内容を特定する。つまり、測定された生体情報が示す波形が、ある基準生体情報が示す波形に相似又は類似し、測定された生体情報が示す波形のピークの振幅が、当該基準生体情報が示す波形のピークの振幅である閾値以上である場合、プロセッサ26は、当該基準生体情報に紐付けられている操作内容を特定する。 Reference biological information may be used as a threshold value. For example, when the reference biological information shows a waveform, the amplitude of the peak in the waveform is used as the threshold. In this case, the processor 26 searches for reference biological information having a waveform similar to or similar to the waveform shown by the biological information measured from the living organism, and for which the measured biological information is equal to or higher than a threshold value, and searches Specify the operation details linked to the reference biometric information. In other words, the waveform shown by the measured biological information is similar to or similar to the waveform shown by some reference biological information, and the amplitude of the peak of the waveform shown by the measured biological information is the amplitude of the peak of the waveform shown by the reference biological information. If the threshold value is greater than or equal to a certain threshold value, the processor 26 specifies the operation content linked to the reference biometric information.

動物の脳の活動を示す情報を用いて操作対象を操作する場合、脳の活動を測定する生体情報測定装置12と情報処理装置10とによって、ブレイン・マシン・インターフェース(Brain-machine Interface : BMI)が構築されてもよい。一般的に、ブレイン・マシン・インターフェースとは、脳波等の検出、又は、逆に脳への刺激等といった手法により、脳とコンピュータ等とのインターフェースをとる機器等の総称である。接続先がコンピュータである場合にはブレイン・コンピュータ・インターフェース(Brain-computer Interface : BCI)とも呼ばれる。本実施形態では、脳波を含む生体情報を活用して、機器を操作したり、人と人とのコミュニケーション(人の考えや意思に関する情報や状態情報の相互伝達等)を行う等の利用例を示すが、これらはブレイン・マシン・インターフェースの一部であると捉え、以後表記する。ブレイン・マシン・インターフェースの方式は、侵襲式であってもよいし、非侵襲式であってもよい。この場合、プロセッサ26は、脳の活動(例えば脳波等)に基づいて操作対象を操作する。プロセッサ26は、操作対象を操作するために、脳波から特徴的な成分を抽出し、その抽出された成分に基づいて操作対象を操作してもよい。脳波から特徴的な成分を抽出するために、高速フーリエ変換(FFT:Fast Fourier Transform)や、ウェーブレット変換(WT:Wavelet Transform)、TFD(Time Frequency Distribution)、EM(Eigenvector Methods)、自己回帰モデル(ARM:Auto Regressive Method)等が用いられてもよい。また、特徴の抽出によって得られた特徴ベクトルを用いて、脳波と操作対象の操作内容とを結び付ける方法として、又は、人と人とのコミュニケーション伝達における伝達対象と伝達内容とを結び付ける方法として、例えば、独立成分分析(ICA:Independent Component Analysis)、k平均法、サポートベクターマシン(SVM:Support Vector Machine)、畳み込みニューラルネットワーク等が用いられてもよい。 When operating an object using information indicating the animal's brain activity, a brain-machine interface (BMI) is established by the biological information measuring device 12 that measures the brain activity and the information processing device 10. may be constructed. Generally, a brain-machine interface is a general term for devices that interface the brain with a computer, etc. by detecting brain waves or the like, or conversely by stimulating the brain. When the connection destination is a computer, it is also called a Brain-computer Interface (BCI). In this embodiment, we will discuss usage examples such as operating devices and communicating with people (mutual transmission of information about people's thoughts and intentions, status information, etc.) by utilizing biological information including brain waves. However, these are considered to be part of the brain-machine interface and will be described hereafter. The brain-machine interface method may be invasive or non-invasive. In this case, the processor 26 operates the operation target based on brain activity (for example, brain waves, etc.). In order to operate the operation target, the processor 26 may extract characteristic components from the brain waves and operate the operation target based on the extracted components. In order to extract characteristic components from brain waves, Fast Fourier Transform (FFT), Wavelet Transform (WT), Time Frequency Distribution (TFD), and Eigenvector (EM) are used. Methods), autoregressive model ( ARM (Auto Regressive Method) or the like may be used. In addition, the feature vector obtained by extracting the features can be used as a method of linking brain waves and the operation content of the operation target, or as a method of linking the communication target and the communication content in communication between people, for example. , Independent Component Analysis (ICA), k-means method, Support Vector Machine (SVM), convolutional neural network, etc. may be used.

また、プロセッサ26は、操作対象から送信されてきた、当該操作対象の識別情報を受け付けて、当該操作対象を識別してもよい。例えば、プロセッサ26は、識別情報の取得の要求を操作対象に送信し、その要求に応じて操作対象から送信されてきた識別情報を取得する。また、情報処理装置10と接続される等して情報処理装置10と通信することが可能になったハードウェアから、当該ハードウェアの識別情報や、当該ハードウェアにインストールされているソフトウェアの識別情報が、情報処理装置10に送信されてもよい。プロセッサ26は、そのようにして送信されてきた識別情報を受け付ける。 Further, the processor 26 may receive identification information of the operation target transmitted from the operation target to identify the operation target. For example, the processor 26 transmits a request to obtain identification information to the operation target, and acquires the identification information transmitted from the operation target in response to the request. In addition, from hardware that is connected to the information processing device 10 and becomes able to communicate with the information processing device 10, identification information of the hardware and identification information of software installed on the hardware. may be transmitted to the information processing device 10. Processor 26 receives the identification information thus transmitted.

なお、プロセッサ26による処理は、情報処理装置10以外の装置(例えば、生体情報測定装置12、環境情報測定装置14、機器16、端末装置18又はその他の装置等)によって実行されてもよい。また、処理の一部が情報処理装置10によって実行され、処理の別の一部が情報処理装置10以外の装置によって実行されてもよい。例えば、生体情報の解析(例えば操作内容を特定する処理)が、情報処理装置10以外の装置によって実行され、操作対象の操作が、情報処理装置10によって実行されてもよい。 Note that the processing by the processor 26 may be executed by a device other than the information processing device 10 (for example, the biological information measuring device 12, the environmental information measuring device 14, the device 16, the terminal device 18, or other devices). Further, part of the process may be executed by the information processing apparatus 10, and another part of the process may be executed by a device other than the information processing apparatus 10. For example, the analysis of biological information (for example, the process of specifying the operation details) may be performed by a device other than the information processing device 10, and the operation of the operation target may be performed by the information processing device 10.

以下、図3を参照して、端末装置18の構成について詳しく説明する。図3には、端末装置18のハードウェアの構成の一例が示されている。 The configuration of the terminal device 18 will be described in detail below with reference to FIG. 3. FIG. 3 shows an example of the hardware configuration of the terminal device 18.

端末装置18は、例えば、通信装置28と、UI30と、メモリ32と、プロセッサ34とを含む。 The terminal device 18 includes, for example, a communication device 28, a UI 30, a memory 32, and a processor 34.

通信装置28は、通信チップや通信回路等を有する通信インターフェースであり、他の装置に情報を送信する機能、及び、他の装置から送信されてきた情報を受信する機能を有する。通信装置28は、無線通信機能を有してもよいし、有線通信機能を有してもよい。通信装置28は、例えば近距離無線通信を利用することで他の装置と通信してもよいし、LANやインターネット等の通信経路を介して他の装置と通信してもよい。 The communication device 28 is a communication interface having a communication chip, a communication circuit, etc., and has a function of transmitting information to other devices and a function of receiving information transmitted from other devices. The communication device 28 may have a wireless communication function or a wired communication function. The communication device 28 may communicate with other devices by using short-range wireless communication, for example, or may communicate with other devices via a communication path such as a LAN or the Internet.

UI30はユーザインターフェースであり、ディスプレイ及び操作装置の中の少なくとも1つを含む。ディスプレイは、液晶ディスプレイやELディスプレイ等である。操作装置は、キーボードや入力キーや操作パネル等である。UI30は、ディスプレイと操作装置とを兼ね備えたタッチパネル等のUIであってもよい。UI30は、マイクやスピーカを含んでもよい。 The UI 30 is a user interface and includes at least one of a display and an operating device. The display is a liquid crystal display, an EL display, or the like. The operating device is a keyboard, input keys, operation panel, or the like. The UI 30 may be a UI such as a touch panel that functions as both a display and an operation device. The UI 30 may include a microphone and a speaker.

メモリ32は、各種の情報を記憶する1又は複数の記憶領域を構成する装置である。メモリ32は、例えば、ハードディスクドライブ、各種のメモリ(例えばRAMやDRAMやROM等)、その他の記憶装置(例えば光ディスク等)、又は、それらの組み合わせである。1又は複数のメモリ32が端末装置18に含まれている。 The memory 32 is a device that constitutes one or more storage areas that store various types of information. The memory 32 is, for example, a hard disk drive, various types of memory (eg, RAM, DRAM, ROM, etc.), other storage devices (eg, optical disk, etc.), or a combination thereof. One or more memories 32 are included in terminal device 18 .

プロセッサ34は、端末装置18の各部の動作を制御するように構成されている。プロセッサ34は、メモリを有してもよい。 The processor 34 is configured to control the operation of each part of the terminal device 18. Processor 34 may include memory.

以下、管理情報の具体例について説明する。 A specific example of the management information will be described below.

図4には、管理情報の一例である管理テーブルの一例が示されている。管理テーブルのデータはメモリ24に記憶されている。管理テーブルのデータは、メモリ24に記憶されずに、情報処理装置10以外の他の装置(例えばサーバ等の装置)に記憶されてもよい。 FIG. 4 shows an example of a management table that is an example of management information. The data of the management table is stored in the memory 24. The data of the management table may not be stored in the memory 24, but may be stored in a device other than the information processing device 10 (for example, a device such as a server).

管理テーブルにおいては、IDと、基準脳波と、操作対象の操作内容を示す操作情報とが、予め紐付けられている。 In the management table, the ID, the reference electroencephalogram, and the operation information indicating the operation contents of the operation target are linked in advance.

IDは、管理テーブルに登録されている情報を管理するための情報である。 The ID is information for managing information registered in the management table.

基準脳波は基準生体情報の一例である。また、基準脳波は、人から測定されると推測される脳波である。ここでは、基準生体情報の一例として脳波が用いられているが、脳波以外の生体情報が基準生体情報として用いられてもよい。 The reference electroencephalogram is an example of reference biological information. Further, the reference brain wave is a brain wave that is estimated to be measured from a person. Although brain waves are used here as an example of the reference biological information, biological information other than brain waves may be used as the reference biological information.

基準脳波は、例えば、統計的な処理によって定められ、当該基準脳波に紐付けられている操作内容を行う人から発生すると推測される脳波、又は、当該操作内容の実行を要求する人から発生すると推測される脳波である。 A reference brain wave is, for example, a brain wave that is determined by statistical processing and is estimated to be generated by a person performing the operation content linked to the reference brain wave, or a brain wave that is estimated to be generated from a person requesting the execution of the operation content. These are estimated brain waves.

基準脳波は、特定の周波数帯の脳波であってもよいし、複数の周波数帯の脳波を含む脳波であってもよい。 The reference brain wave may be a brain wave in a specific frequency band, or may be a brain wave including brain waves in a plurality of frequency bands.

図4に示す例では、操作対象は、ハードウェアの一例である機器16である。もちろん、操作対象は、機器16以外のハードウェアであってもよいし、ソフトウェアであってもよい。 In the example shown in FIG. 4, the operation target is the device 16, which is an example of hardware. Of course, the object to be operated may be hardware other than the device 16, or may be software.

操作情報は、操作される機器16を識別するための機器識別情報と、当該機器16に対して行われる操作内容を示す情報とを含む情報である。例えば、操作内容は、機器16の電源をオン又はオフする操作であってもよいし、機器16の機能レベルを設定する操作であってもよいし、電源をオン又はオフする操作と機能レベルを設定する操作の両方であってもよい。 The operation information is information including device identification information for identifying the device 16 to be operated and information indicating the details of the operation performed on the device 16. For example, the operation content may be an operation to turn on or off the power of the device 16, an operation to set the function level of the device 16, or an operation to turn the power on or off and a function level. It may be both the setting operation and the setting operation.

例えば、ID「1」の基準脳波は、空調機の冷房をオンするという操作内容を表す脳波である。ID「2」の基準脳波は、空調機の冷房をオフするという操作内容を表す脳波である。 For example, the reference brain wave with ID "1" is a brain wave representing an operation of turning on the cooling of an air conditioner. The reference brain wave with ID "2" is a brain wave representing the operation content of turning off the cooling of the air conditioner.

例えば、ID「1」の基準脳波との差異が許容範囲内に含まれる脳波が人から測定された場合、プロセッサ26は、当該基準脳波に紐付けられている「空調機の冷房をオンする」という操作内容を特定する。そして、プロセッサ26は、「空調機の冷房をオンする」という操作内容を示す情報を含む制御情報を、当該空調機に送信する。当該空調機は当該制御情報に従って動作する。これにより、当該空調機の冷房がオンする。 For example, when a brain wave whose difference from the reference brain wave with ID "1" is within an acceptable range is measured from a person, the processor 26 "turns on the cooling of the air conditioner" linked to the reference brain wave. Specify the operation content. Then, the processor 26 transmits control information including information indicating the operation content of "turning on the cooling of the air conditioner" to the air conditioner. The air conditioner operates according to the control information. This turns on the cooling of the air conditioner.

また、プロセッサ26は、人から測定された脳波と基準脳波との間の類似度を算出し、その類似度が閾値以上であるか否かを判断してもよい。閾値は許容範囲に対応する値である。人から測定された脳波と基準脳波との間の類似度が閾値以上である場合、プロセッサ26は、人から測定された脳波と基準脳波とは類似していると判断する。つまり、プロセッサ26は、人から測定された脳波と基準脳波との差異が許容範囲内に含まれると判断する。プロセッサ26は、ID「1」の基準脳波との間の類似度が閾値以上となる脳波が人から測定された場合、「空調機の冷房をオンする」という操作内容を特定する。 Further, the processor 26 may calculate the degree of similarity between the brain waves measured from the person and the reference brain waves, and determine whether the degree of similarity is equal to or greater than a threshold value. The threshold value is a value corresponding to an acceptable range. If the degree of similarity between the brain waves measured from the person and the reference brain waves is greater than or equal to the threshold, the processor 26 determines that the brain waves measured from the person and the reference brain waves are similar. In other words, the processor 26 determines that the difference between the brain waves measured from the person and the reference brain waves is within the permissible range. When a brain wave whose similarity with the reference brain wave of ID "1" is equal to or higher than a threshold is measured from a person, the processor 26 specifies the operation content of "turning on the cooling of the air conditioner".

なお、図4に示す例では、生体情報の一例である基準脳波が管理テーブルに登録されているが、生体情報を解析することで得られる感情情報、精神情報又は心理情報等が、基準脳波の代わりに管理テーブルに登録されてもよい。例えば、暑い又は寒い等といった感情や精神状態や心理状態を示す情報が、基準脳波の代わりに基準情報として管理テーブルに登録されてもよい。プロセッサ26は、人から測定された脳波を解析することで、当該人の感情や精神状態や心理状態を特定し、その特定した感情や精神状態や心理状態を示す基準情報を特定し、管理テーブルにおいて、その特定した基準情報に紐付けられている操作内容を特定する。 In the example shown in FIG. 4, the reference brain wave, which is an example of biological information, is registered in the management table, but emotional information, mental information, psychological information, etc. obtained by analyzing the biological information are not included in the reference brain wave. Alternatively, it may be registered in the management table. For example, information indicating emotions such as hot or cold, mental state, or psychological state may be registered in the management table as reference information instead of reference brain waves. The processor 26 identifies the emotion, mental state, or psychological state of the person by analyzing the brain waves measured from the person, identifies reference information indicating the identified emotion, mental state, or psychological state, and stores the information in the management table. In this step, the operation details associated with the specified reference information are specified.

例えば、図38に示されるように、対応する脳波データの差に基づいて、好き/嫌いの心理状態における脳波の差が検出できる。図38において、人が好きなものを書いている場合、脳波は特定の範囲(例えば、「like-zone」)内にとどまり、人が好きでないものを書いている場合、脳波の一部が異なる領域(例えば、「dis-like zone」)に現れる。 For example, as shown in FIG. 38, the difference in brain waves in the psychological state of liking/disliking can be detected based on the difference in the corresponding brain wave data. In Figure 38, when a person is writing something they like, their brain waves stay within a certain range (for example, "like-zone"), and when a person is writing something they don't like, some of their brain waves are different. area (eg, a "dis-like zone").

別の例として、図39に示されるように、驚きの心理状態を検知することができる。例えば、ユーザは、運転中に事故寸前になる状況に遭遇する可能性がある。この場合、センサやカメラによって検知された運転状況と、検知されたユーザの脳状態とに基づいて、ブレーキを自動的にかけ、回避行動を自動的にとることができる。 As another example, as shown in FIG. 39, a psychological state of surprise can be detected. For example, a user may encounter a near-accident situation while driving. In this case, the brakes can be automatically applied and evasive action can be automatically taken based on the driving situation detected by the sensor or camera and the detected brain state of the user.

具体例を挙げて説明すると、「暑い」という感情や精神状態や心理状態を示す基準情報が、「空調機の冷房をオンする」という操作内容を示す操作情報に紐付けられて管理テーブルに登録されている。プロセッサ26は、人から測定された生体情報(例えば脳波)を解析することで、当該人の感情や精神状態や心理状態を特定する。その感情等が「暑い」という感情等である場合、プロセッサ26は、「暑い」という基準情報に紐付けられている操作内容「空調機の冷房をオンする」を特定する。 To explain with a specific example, standard information indicating the emotion, mental state, and psychological state of ``hot'' is registered in a management table in association with operation information indicating the operation content of ``turn on the cooling of the air conditioner.'' has been done. The processor 26 identifies the person's emotions, mental state, and psychological state by analyzing biological information (for example, brain waves) measured from the person. If the emotion or the like is “hot”, the processor 26 specifies the operation content “turn on the cooling of the air conditioner” that is linked to the reference information “hot”.

このように、プロセッサ26は、生体情報そのものに基づいて操作内容を特定してもよいし、生体情報から得られる各種の情報(例えば、感情情報、精神情報、心理情報等)に基づいて操作内容を特定してもよい。以下の各実施形態においても同様である。 In this way, the processor 26 may specify the operation content based on the biological information itself, or specify the operation content based on various types of information obtained from the biological information (e.g., emotional information, mental information, psychological information, etc.). may be specified. The same applies to each of the following embodiments.

生物毎に、基準生体情報と操作情報とが紐付けられて管理テーブルに登録されてもよい。例えば、個々の人から測定された生体情報が、当該人の基準生体情報として管理テーブルに登録されてもよい。人以外の動物や生物についても、個々の動物や個々の生物から測定された生体情報が、当該動物や当該生物の基準生体情報として管理テーブルに登録されてもよい。 For each creature, the reference biological information and the operation information may be linked and registered in the management table. For example, biometric information measured from an individual person may be registered in the management table as the reference biometric information of that person. Regarding animals and living things other than humans, biometric information measured from each individual animal or living creature may be registered in the management table as reference biometric information of the animal or living creature.

図5には、個々の人の具体的な基準生体情報が登録されている管理テーブルの一例が示されている。図5に示されている管理テーブルにおいては、IDと、基準生体情報の一例である基準脳波と、操作情報と、ユーザ情報とが紐付けられている。ユーザ情報は、人であるユーザを識別するための情報(例えば、ユーザ名やユーザID等)である。 FIG. 5 shows an example of a management table in which specific reference biological information of each person is registered. In the management table shown in FIG. 5, an ID, a reference electroencephalogram that is an example of reference biological information, operation information, and user information are linked. The user information is information for identifying a human user (eg, user name, user ID, etc.).

ユーザ情報に紐付けられている基準脳波は、当該ユーザ情報が示すユーザが、当該基準脳波に紐付けられている操作内容を行うときに当該ユーザから測定された脳波、又は、当該ユーザが当該操作内容を要求するときに当該ユーザから測定された脳波である。各ユーザから測定された各基準脳波は、予め各ユーザから測定されて管理テーブルに登録される。 The reference electroencephalogram linked to user information is the electroencephalogram measured from the user when the user indicated by the user information performs the operation linked to the reference electroencephalogram, or the electroencephalogram when the user performs the operation linked to the reference electroencephalogram. This is the brain wave measured from the user when requesting content. Each reference brain wave measured from each user is measured from each user in advance and registered in the management table.

例えば、ユーザAが「空調機」の冷房を手動でオンしたときにユーザAの脳波が生体情報測定装置12によって測定され、その測定された脳波が、ユーザAが「空調機の冷房をオンする」という操作内容を表す基準脳波として、管理テーブルに登録される。この場合、測定されたユーザAの当該基準脳波と、「空調機の冷房をオン」するという操作内容を示す操作情報と、ユーザAを識別するためのユーザ情報とが紐付けられて管理テーブルに登録される。その登録は、情報処理装置10を用いて行われてもよいし、他の装置を用いて行われてもよい。図5に示す例では、これらの情報はID「1」の情報として登録される。他の操作や他のユーザについても同様である。 For example, when user A manually turns on the cooling of the "air conditioner," the brain waves of user A are measured by the biological information measuring device 12, and the measured brain waves are reflected when user A "turns on the cooling of the air conditioner." '' is registered in the management table as a reference brain wave representing the operation content. In this case, the measured reference brain waves of user A, operation information indicating the operation content of "turning on the cooling of the air conditioner", and user information for identifying user A are linked and stored in the management table. be registered. The registration may be performed using the information processing device 10 or may be performed using another device. In the example shown in FIG. 5, these pieces of information are registered as information with ID "1". The same applies to other operations and other users.

なお、登録の作業を複数回行い、これによって測定された複数の脳波の平均を、基準脳波として登録してもよい。例えば、ユーザAが「空調機」の冷房を手動でオンし、そのときにユーザAから発生した脳波を生体情報測定装置12によって測定するという作業を、複数回行い、これによって測定された複数の脳波の平均を、ユーザAの基準脳波として管理テーブルに登録してもよい。 Note that the registration process may be performed multiple times, and the average of the multiple brain waves measured thereby may be registered as the reference brain wave. For example, user A manually turns on the cooling of an "air conditioner" and the brain waves generated by user A at that time are measured by the biological information measuring device 12 multiple times. The average brain wave may be registered in the management table as user A's reference brain wave.

例えば、ユーザAが情報処理装置10にログインしている状態で、ユーザAから、ID「1」の基準脳波との差異が許容範囲内に含まれる脳波が測定された場合、プロセッサ26は、ID「1」の操作情報を含む制御情報を「空調機」に送信することで、「空調機」の冷房をオンする。より詳しく説明すると、ユーザAが情報処理装置10にログインしているときに、生体情報測定装置12によって脳波が測定されると、プロセッサ26は、ログインしているユーザAを識別するためのユーザ情報に紐付けられて管理テーブルに登録されている基準脳波を検索する。図5に示す例では、ID「1」の基準脳波と、ID「3」の基準脳波が、ユーザAの基準脳波として管理テーブルに登録されているため、これらの基準脳波が検索される。測定された脳波とID「1」の基準脳波との差異が許容範囲内である場合、プロセッサ26は、ID「1」の操作情報を含む制御情報を「空調機」に送信することで、「空調機」の冷房をオンする。測定された脳波とID「3」の基準脳波との差異が許容範囲内である場合、プロセッサ26は、ID「3」の操作情報を含む制御情報を「空調機」に送信することで、「空調機」の冷房をオフする。 For example, if user A is logged in to the information processing device 10 and a brain wave whose difference from the reference brain wave with ID "1" is within an allowable range is measured from user A, the processor 26 By transmitting control information including the operation information of "1" to the "air conditioner", the cooling of the "air conditioner" is turned on. To explain in more detail, when a brain wave is measured by the biological information measuring device 12 while the user A is logged in to the information processing device 10, the processor 26 collects user information for identifying the logged-in user A. Search for the reference electroencephalogram that is linked to and registered in the management table. In the example shown in FIG. 5, the reference brain waves with ID "1" and the reference brain waves with ID "3" are registered in the management table as user A's reference brain waves, so these reference brain waves are searched. If the difference between the measured brain waves and the reference brain waves with ID "1" is within the allowable range, the processor 26 transmits control information including the operation information with ID "1" to the "air conditioner". Turn on the air conditioner. If the difference between the measured brain waves and the reference brain waves with ID "3" is within the allowable range, the processor 26 transmits control information including the operation information with ID "3" to the "air conditioner". Turn off the air conditioner.

別の例として、機器16を操作するユーザが「ユーザA」であることが情報処理装置10に設定されている状態で、ユーザAから、ID「1」の基準脳波との差異が許容範囲内に含まれる脳波が測定された場合、プロセッサ26は、ID「1」の操作情報を含む制御情報を「空調機」に送信することで、「空調機」の冷房をオンしてもよい。より詳しく説明すると、機器16を操作するユーザが「ユーザA」であることが情報処理装置10に設定されている状態で、生体情報測定装置12によって脳波が測定されると、プロセッサ26は、機器16を操作するユーザであるユーザAを識別するためのユーザ情報に紐付けられて管理テーブルに登録されている基準脳波を検索する。測定された脳波とID「1」の基準脳波との差異が許容範囲内である場合、プロセッサ26は、ID「1」の操作情報を含む制御情報を「空調機」に送信することで、「空調機」の冷房をオンする。機器16を操作するユーザは、例えば、ユーザによって情報処理装置10に設定される。 As another example, in a state where the information processing device 10 is set that the user who operates the device 16 is "user A", user A informs us that the difference from the reference brain wave of ID "1" is within the allowable range. If the brain waves included in the "air conditioner" are measured, the processor 26 may turn on the cooling of the "air conditioner" by transmitting control information including the operation information of ID "1" to the "air conditioner". To explain in more detail, when a brain wave is measured by the biological information measuring device 12 in a state where the information processing device 10 is set that the user who operates the device 16 is “user A”, the processor 26 The reference brain wave registered in the management table is searched for in association with user information for identifying user A, who operates 16. If the difference between the measured brain waves and the reference brain waves with ID "1" is within the allowable range, the processor 26 transmits control information including the operation information with ID "1" to the "air conditioner". Turn on the air conditioner. The user who operates the device 16 is set in the information processing device 10 by the user, for example.

ユーザA以外の他のユーザについても、ユーザAと同様に、各情報が管理テーブルに登録される。例えば、ID「2」に紐付けられている各情報は、ユーザBが「空調機」の冷房をオンしたときの操作に関する情報である。ID「3」に紐付けられている各情報は、ユーザAが「空調機」の冷房をオフにしたときの操作に関する情報である。 For users other than user A, each piece of information is registered in the management table in the same way as for user A. For example, each piece of information associated with ID "2" is information related to the operation when user B turns on the cooling of the "air conditioner." Each piece of information associated with ID "3" is information related to the operation performed when user A turns off the cooling of the "air conditioner."

図4及び図5に示されている管理テーブルには、機器16の電源をオン又はオフする操作を示す操作情報が登録されているが、機器16の機能レベルを示す操作情報が管理テーブルに登録されてもよい。 In the management table shown in FIGS. 4 and 5, operation information indicating the operation of turning on or off the power of the device 16 is registered, but operation information indicating the functional level of the device 16 is registered in the management table. may be done.

図6には、管理テーブルの別の例が示されている。図6に示されている管理テーブルは、ユーザ毎に基準生体情報と操作情報とが紐付けられて登録されている管理テーブルである。図6に示す例では、一例として、脳波と体温とが基準生体情報として用いられている。したがって、管理テーブルには、IDと、基準生体情報の一例である基準脳波と、基準生体情報の一例である基準体温と、操作情報と、ユーザ情報とが紐付けられている。 FIG. 6 shows another example of the management table. The management table shown in FIG. 6 is a management table in which reference biological information and operation information are registered in association with each other for each user. In the example shown in FIG. 6, as an example, brain waves and body temperature are used as reference biological information. Therefore, in the management table, the ID, a reference electroencephalogram that is an example of reference biological information, a reference body temperature that is an example of reference biological information, operation information, and user information are linked.

例えば、ID「1」の基準脳波との差異が許容範囲内に含まれる脳波がユーザAから測定され、かつ、閾値以上の体温がユーザAから測定された場合、プロセッサ26は、ID「1」の操作情報が示す操作内容を、機器16に対する操作内容として特定する。そして、プロセッサ26は、ID「1」の操作内容を示す操作情報を含む制御情報を空調機に送信することで、当該空調機の冷房をオンする。 For example, if a brain wave whose difference from a reference brain wave with ID "1" is within an allowable range is measured from user A, and a body temperature that is equal to or higher than a threshold is measured from user A, the processor 26 The operation content indicated by the operation information is specified as the operation content for the device 16. Then, the processor 26 turns on the cooling of the air conditioner by transmitting control information including operation information indicating the operation details of ID "1" to the air conditioner.

なお、図6に示す例では、人毎に、基準体温と基準脳波と操作情報とが紐付けられているが、人毎ではなく、基準体温と基準脳波と操作情報とが紐付けられてもよい。 In the example shown in FIG. 6, the reference body temperature, reference brain waves, and operation information are linked for each person, but even if the reference body temperature, reference brain waves, and operation information are linked, not for each person. good.

図7には、管理テーブルの別の例が示されている。図7に示されている管理テーブルは、ユーザ毎に基準脳波と基準環境情報と操作情報とが紐付けられて登録されている管理テーブルである。基準生体情報の一例として基準脳波が用いられているが、別の生体情報が基準生体情報として用いられてもよい。 FIG. 7 shows another example of the management table. The management table shown in FIG. 7 is a management table in which reference electroencephalograms, reference environment information, and operation information are registered in association with each other for each user. Although a reference electroencephalogram is used as an example of the reference biological information, other biological information may be used as the reference biological information.

基準環境情報は、当該基準環境情報に紐付けられている基準脳波が測定されると推測される環境を示す情報である。基準環境情報として室温が用いられているが、別の環境情報が基準環境情報として用いられてもよい。 The reference environment information is information indicating an environment in which the reference brain waves associated with the reference environment information are estimated to be measured. Although room temperature is used as the reference environment information, other environmental information may be used as the reference environment information.

例えば、ID「1」の基準脳波との差異が許容範囲内に含まれる脳波がユーザAから測定され、かつ、当該脳波が測定されたときの室温が閾値以上である場合、プロセッサ26は、ID「1」の操作情報が示す操作内容を、機器16に対する操作内容として特定する。このように、ユーザから測定された脳波と、当該脳波が測定されたときの室温とに基づいて、機器16に対する操作内容が特定される。 For example, if a brain wave whose difference from the reference brain wave with ID "1" is within an allowable range is measured from user A, and the room temperature at the time the brain wave was measured is equal to or higher than the threshold, the processor 26 The operation content indicated by the operation information "1" is specified as the operation content for the device 16. In this way, the operation details for the device 16 are specified based on the brain waves measured from the user and the room temperature at the time the brain waves were measured.

なお、図7に示す例では、人毎に、基準生体情報と基準環境情報と操作情報とが紐付けられているが、人毎ではなく、基準生体情報と基準環境情報と操作情報とが紐付けられてもよい。 Note that in the example shown in FIG. 7, the reference biological information, reference environment information, and operation information are linked for each person, but the reference biological information, reference environment information, and operation information are linked, not for each person. May be attached.

以下、各実施例について説明する。 Each example will be described below.

<実施例1>
以下、実施例1について説明する。実施例1では、現実空間のある場所にいる複数の生物から測定された生体情報が利用される。ここでは一例として、ある部屋に集まった複数の人から測定された生体情報に基づいて機器16を操作する例について説明する。
<Example 1>
Example 1 will be described below. In the first embodiment, biological information measured from a plurality of living things located at a certain location in real space is used. Here, as an example, an example will be described in which the device 16 is operated based on biological information measured from a plurality of people gathered in a certain room.

図8には、その部屋36が模式的に示されている。部屋36内には、人であるユーザA,B,Cがいる。また、部屋36内には機器16が設置されている。なお、ユーザ及び機器16の数は一例であり、複数の機器16が部屋36内に設置されてもよい。 FIG. 8 schematically shows the room 36. Inside the room 36 are users A, B, and C, who are humans. Moreover, the equipment 16 is installed in the room 36. Note that the number of users and devices 16 is an example, and a plurality of devices 16 may be installed in the room 36.

各ユーザの生体情報が生体情報測定装置12によって測定される。例えば、ユーザA,B,Cにはそれぞれ、ウェアラブルデバイスである生体情報測定装置12が装着され、ユーザA,B,Cのそれぞれの生体情報が、各ユーザに装着された生体情報測定装置12によって測定される。生体情報測定装置12が各ユーザに装着されると共に、又は、生体情報測定装置12が各ユーザに装着されずに、ユーザに装着されない生体情報測定装置12によって各ユーザの生体情報が測定されてもよい。1又は複数の種類の生体情報が、各ユーザから測定されてもよい。ここでは一例として、ユーザA,B,Cのそれぞれから脳波が測定されるものとする。もちろん、脳波以外の生体情報が測定されてもよい。 The biometric information of each user is measured by the biometric information measuring device 12 . For example, users A, B, and C are each equipped with a biometric information measuring device 12 that is a wearable device, and the biometric information of users A, B, and C is measured by the biometric information measuring device 12 that is attached to each user. be measured. Even if the biometric information measuring device 12 is attached to each user, or the biometric information measuring device 12 is not attached to each user, and the biometric information of each user is measured by the biometric information measuring device 12 that is not attached to the user. good. One or more types of biometric information may be measured from each user. Here, as an example, it is assumed that brain waves are measured from each of users A, B, and C. Of course, biological information other than brain waves may be measured.

例えば、部屋36内にいるユーザの生体情報(例えば脳波信号)が、各ユーザの生体情報測定装置12から情報処理装置10に送信される。図8に示す例では、ユーザA,B,Cのそれぞれの生体情報(例えば脳波信号)が、各ユーザの生体情報測定装置12から情報処理装置10に送信される。 For example, biometric information (for example, electroencephalogram signals) of users in the room 36 is transmitted from each user's biometric information measuring device 12 to the information processing device 10 . In the example shown in FIG. 8, biometric information (for example, electroencephalogram signals) of users A, B, and C is transmitted from each user's biometric information measurement device 12 to the information processing device 10.

情報処理装置10のプロセッサ26は、ユーザA,B,Cのそれぞれの脳波に基づいて機器16を操作する。例えば、プロセッサ26は、ユーザA,B,Cのそれぞれから測定された脳波の平均を算出し、その平均の脳波に基づいて機器16の操作内容を特定する。例えば、プロセッサ26は、図4に示されている管理テーブルを参照し、その平均の脳波との差異が許容範囲内に含まれる基準脳波を特定し、その特定した基準脳波に紐付けられている操作内容を特定する。そして、プロセッサ26は、その特定した操作内容に従って機器16を操作する。例えば、プロセッサ26は、脳波の振幅の平均を算出し、その平均の振幅を有する脳波との差異が許容範囲内に含まれる基準脳波を特定し、操作内容を特定する。 The processor 26 of the information processing device 10 operates the device 16 based on the brain waves of each of the users A, B, and C. For example, the processor 26 calculates the average of the brain waves measured from each of the users A, B, and C, and specifies the operation details of the device 16 based on the average brain waves. For example, the processor 26 refers to the management table shown in FIG. 4, identifies a reference brain wave whose difference from the average brain wave is within an allowable range, and connects the reference brain wave to the identified reference brain wave. Specify the operation content. The processor 26 then operates the device 16 according to the specified operation details. For example, the processor 26 calculates the average amplitude of the brain waves, specifies a reference brain wave whose difference from the brain wave having the average amplitude is within an acceptable range, and specifies the operation content.

別の例として、機器16の操作内容が機能レベルの設定である場合、プロセッサ26は、ユーザA,B,Cのそれぞれの脳波に基づいて、機器16の機能レベルを別々に特定してもよい。そして、プロセッサ26は、各機能レベルの平均を算出し、その平均の機能レベルに従って機器16を操作する。例えば、機器16が冷房機能を有する空調機である場合において、ユーザAの脳波に基づいて特定される操作内容が、「空調機の冷房の設定温度を26℃に設定する」という操作内容であり、ユーザBの脳波に基づいて特定される操作内容が、「空調機の冷房の設定温度を27℃に設定する」という操作内容であり、ユーザCの脳波に基づいて特定される操作内容が、「空調機の冷房の設定温度を28℃に設定する」という操作内容である場合、プロセッサ26は、これらの設定温度の平均を算出する。そして、プロセッサ26は、空調機の冷房の設定温度をその平均の温度に設定する。 As another example, if the operation content of the device 16 is to set the functional level, the processor 26 may separately identify the functional level of the device 16 based on the brain waves of each of users A, B, and C. . The processor 26 then calculates the average of each functional level and operates the device 16 according to the average functional level. For example, when the device 16 is an air conditioner with a cooling function, the operation content specified based on user A's brain waves is "set the cooling temperature of the air conditioner to 26 degrees Celsius". , the operation content specified based on user B's brain waves is the operation content "setting the cooling temperature of the air conditioner to 27 degrees Celsius", and the operation content specified based on user C's brain waves is, If the operation content is "set the cooling temperature of the air conditioner to 28° C.", the processor 26 calculates the average of these temperature settings. Then, the processor 26 sets the cooling set temperature of the air conditioner to the average temperature.

機器16の操作内容が機器16をオン又はオフする操作である場合、プロセッサ26は、ユーザA,B,Cのそれぞれの脳波に基づいて、機器16のオン又はオフを別々に特定してもよい。そして、プロセッサ26は、ユーザA,B,Cの多数決に従って、機器16のオン又はオフを決定し、その決定に従って機器16をオン又はオフする。 If the operation content of the device 16 is to turn the device 16 on or off, the processor 26 may separately identify whether the device 16 is on or off based on the brain waves of each of users A, B, and C. . Then, the processor 26 determines whether the device 16 should be turned on or off according to the majority vote of the users A, B, and C, and turns the device 16 on or off according to that decision.

(機器16とユーザとの間の距離に基づく操作)
情報処理装置10のプロセッサ26は、操作対象の機器16との間の距離が閾値以下となるユーザの生体情報(例えば脳波信号)に基づいて機器16の操作内容を特定し、その操作内容に従って機器16を操作してもよい。機器16及び各ユーザの位置は、例えば、GPS(Global Positioning System)や他の通信技術等を用いることで特定され、機器16及び各ユーザの位置情報は、情報処理装置10に送信される。例えば、ユーザが生体情報測定装置12や端末装置18を携帯している場合、生体情報測定装置12や端末装置18の位置がGPS等を利用することで特定され、その位置を示す位置情報が、当該ユーザの位置を示す位置情報として情報処理装置10に送信される。
(Operation based on distance between device 16 and user)
The processor 26 of the information processing device 10 specifies the operation content of the device 16 based on the user's biological information (for example, an electroencephalogram signal) whose distance to the device 16 to be operated is equal to or less than a threshold value, and controls the device 16 according to the operation content. 16 may be operated. The location of the device 16 and each user is specified, for example, by using GPS (Global Positioning System) or other communication technology, and the location information of the device 16 and each user is transmitted to the information processing device 10. For example, when a user carries the biometric information measuring device 12 or the terminal device 18, the location of the biometric information measuring device 12 or the terminal device 18 is specified using GPS or the like, and the location information indicating the location is The information is transmitted to the information processing device 10 as location information indicating the location of the user.

例えば、ユーザA,Bと機器16との間の距離が閾値以下であり、ユーザCと機器16との間の距離が閾値を超えている場合、情報処理装置10のプロセッサ26は、ユーザA,Bの脳波の平均を算出し、その平均の脳波に基づいて機器16の操作内容を特定し、その特定した操作内容に従って機器16を操作する。ユーザCの脳波信号が情報処理装置10に送信されている場合であっても、プロセッサ26は、ユーザCの脳波を用いずに、機器16の操作内容を特定する。こうすることで、機器16との間の距離が閾値以下となるユーザの生体情報に基づいて機器16を操作することができる。 For example, if the distance between users A and B and the device 16 is less than or equal to the threshold, and the distance between user C and the device 16 exceeds the threshold, the processor 26 of the information processing device 10 The average brain wave of B is calculated, the operation content of the device 16 is specified based on the average brain wave, and the device 16 is operated according to the specified operation content. Even if the user C's brain wave signal is being transmitted to the information processing device 10, the processor 26 identifies the operation content of the device 16 without using the user C's brain wave. By doing so, the device 16 can be operated based on the biometric information of the user whose distance to the device 16 is equal to or less than the threshold value.

(情報処理装置10とユーザとの間の距離に基づく操作)
情報処理装置10のプロセッサ26は、情報処理装置10との間の距離が閾値以下となるユーザの生体情報に基づいて機器16の操作内容を特定し、その操作内容に従って機器16を操作してもよい。例えば、情報処理装置10がスマートスピーカ等の装置であって、部屋36内に設置されている場合、プロセッサ26は、情報処理装置10との間の距離が閾値以下となるユーザの生体情報に基づいて機器16を操作してもよい。
(Operation based on distance between information processing device 10 and user)
The processor 26 of the information processing device 10 specifies the operation details of the device 16 based on the biometric information of the user whose distance to the information processing device 10 is equal to or less than a threshold value, and operates the device 16 according to the operation details. good. For example, when the information processing device 10 is a device such as a smart speaker and is installed in a room 36, the processor 26 uses the biometric information of the user whose distance to the information processing device 10 is less than or equal to a threshold value. The device 16 may also be operated by the operator.

(重み付け処理)
情報処理装置10のプロセッサ26は、各ユーザの脳波に重み付け処理を行い、重み付けされた脳波の平均を算出し、その平均の脳波に基づいて機器16の操作内容を特定してもよい。
(Weighting process)
The processor 26 of the information processing device 10 may perform weighting processing on each user's brain waves, calculate the average of the weighted brain waves, and specify the operation details of the device 16 based on the average brain waves.

例えば、ユーザ毎に重み係数が定められ、各ユーザの重み係数を示す情報が、情報処理装置10のメモリ24に記憶される。例えば、各ユーザが自身の重み係数を決定してもよいし、ユーザA,B,Cの中から選ばれたユーザが、各ユーザの重み係数を決定してもよい。各ユーザの重み係数を示す情報は、例えば、各ユーザの端末装置18から情報処理装置10に送信されてもよいし、情報処理装置10のUI22を用いて情報処理装置10に入力されてもよい。 For example, a weighting coefficient is determined for each user, and information indicating the weighting coefficient of each user is stored in the memory 24 of the information processing device 10. For example, each user may determine his or her own weighting coefficient, or a user selected from users A, B, and C may determine each user's weighting coefficient. Information indicating the weighting coefficient of each user may be transmitted to the information processing device 10 from the terminal device 18 of each user, or may be input to the information processing device 10 using the UI 22 of the information processing device 10, for example. .

各ユーザの重み係数は、ユーザの属性に基づいて定められてもよい。属性は、例えば、年齢、性別、身長又は体重等である。各属性の重み係数が予め定められており、各属性の重み係数を示す情報が、情報処理装置10のメモリ24に予め記憶されている。例えば、各ユーザの属性を示す情報が、各ユーザの端末装置18から情報処理装置10に送信され、情報処理装置10のプロセッサ26は、各ユーザの属性を示す情報に基づいて、各ユーザの重み係数を決定する。 The weighting coefficient for each user may be determined based on the user's attributes. The attributes are, for example, age, gender, height, or weight. A weighting coefficient for each attribute is determined in advance, and information indicating the weighting coefficient for each attribute is stored in advance in the memory 24 of the information processing device 10. For example, information indicating the attributes of each user is transmitted from the terminal device 18 of each user to the information processing apparatus 10, and the processor 26 of the information processing apparatus 10 determines the weight of each user based on the information indicating the attributes of each user. Determine the coefficients.

また、機器16とユーザとの間の距離に基づいて重み係数が決定されてもよい。例えば、機器16とユーザとの間の距離が近いほど重み係数を大きくし、その距離が長いほど重み係数を小さくしてもよい。もちろん、その逆であってもよい。その距離は、機器16とユーザのそれぞれの位置情報に基づいて算出される。 Further, the weighting coefficient may be determined based on the distance between the device 16 and the user. For example, the shorter the distance between the device 16 and the user, the larger the weighting coefficient, and the longer the distance, the smaller the weighting coefficient. Of course, the opposite may be true. The distance is calculated based on the respective position information of the device 16 and the user.

(生体情報が変化した場合)
ユーザA,B,Cのそれぞれの脳波が変化した場合、情報処理装置10のプロセッサ26は、その変化に応じて、機器16の操作内容を変更する。例えば、プロセッサ26は、予め定められた期間毎に、ユーザA,B,Cの脳波の平均を算出し、その平均に基づいて期間毎に操作内容を特定し、その特定した操作内容に従って、期間毎に機器16を操作する。この場合も、上述した重みづけ処理が行われてもよい。
(If biological information changes)
When the brain waves of users A, B, and C change, the processor 26 of the information processing device 10 changes the operation details of the device 16 in accordance with the change. For example, the processor 26 calculates the average of the brain waves of users A, B, and C for each predetermined period, specifies the operation content for each period based on the average, and calculates the operation content for each period according to the specified operation content. The device 16 is operated each time. In this case as well, the weighting process described above may be performed.

なお、実施例1において、生体情報が測定される複数の生物は、人、人以外の動物、及び、植物の中の少なくとも2つの組み合わせであってもよい。例えば、人及び生物のそれぞれの生体情報に基づいて、機器16が操作されてもよい。以下に説明する実施例においても同様である。 In Example 1, the plurality of living things whose biological information is measured may be a combination of at least two of humans, non-human animals, and plants. For example, the device 16 may be operated based on biometric information of a person and a living thing. The same applies to the embodiments described below.

(生物が移動した場合の処理)
以下、図9を参照して、生物が移動した場合の処理について説明する。図9には、部屋36が模式的に示されている。図8に示す例と同様に、部屋36内には、人であるユーザA,B,Cがいる。また、部屋36内に機器16が設置されている。
(Treatment when living organisms move)
Hereinafter, with reference to FIG. 9, a process when a creature moves will be described. In FIG. 9, a room 36 is schematically shown. Similar to the example shown in FIG. 8, there are users A, B, and C, who are humans, in the room 36. Moreover, the equipment 16 is installed in the room 36.

例えば、図9中の矢印が指し示すように、ユーザAが移動し、ユーザAと機器16との間の距離が閾値を超えて、ユーザB,Cと機器16との間の距離が閾値以下である場合、情報処理装置10のプロセッサ26は、ユーザB,Cの脳波に基づいて操作内容を特定し、その特定した操作内容に従って機器16を操作する。上述したように、プロセッサ26は、ユーザB,Cの脳波の平均に基づいて操作内容を特定し、その特定した操作内容に従って機器16を操作してもよいし、ユーザB,Cのそれぞれの脳波に基づいて機能レベルを特定し、その特定した機能レベルの平均に従って機器16を操作してもよいし、ユーザB,Cのそれぞれの脳波に基づいてオン又はオフを決定し、その決定に従って機器16をオン又はオフしてもよい。 For example, as indicated by the arrow in FIG. 9, user A moves, the distance between user A and device 16 exceeds the threshold, and the distance between users B and C and device 16 becomes less than or equal to the threshold. In some cases, the processor 26 of the information processing device 10 specifies the operation content based on the brain waves of the users B and C, and operates the device 16 according to the specified operation content. As described above, the processor 26 may specify the operation content based on the average of the brain waves of the users B and C, and operate the device 16 according to the specified operation content, or may operate the device 16 based on the average of the brain waves of the users B and C. The functional level may be specified based on the function level, and the device 16 may be operated according to the average of the specified functional level, or the device 16 may be turned on or off based on the respective brain waves of users B and C, and the device 16 may be operated according to that determination. may be turned on or off.

プロセッサ26は、上述した重み付け処理を行ってもよい。この場合、移動する前のユーザAが、操作内容の決定に影響を与えるユーザである場合(例えば、ユーザAの重み係数が他のユーザの重み係数よりも大きい場合)、ユーザAが移動することで、機器16の操作内容が変わることがある。 The processor 26 may perform the weighting process described above. In this case, if the user A before moving is a user who influences the decision of the operation content (for example, if the weighting coefficient of user A is larger than the weighting coefficient of other users), the user A cannot move. Therefore, the operation details of the device 16 may change.

なお、人以外の動物や生物の生体情報が測定される場合においても、人以外の動物が移動したり、生物の配置位置が変わったりすると、それに応じて、機器16の操作内容が変更することがある。 Note that even when biological information of an animal or living creature other than a human being is measured, if the non-human animal moves or the placement position of the living creature changes, the operation details of the device 16 may be changed accordingly. There is.

<実施例2>
以下、実施例2について説明する。実施例2では、それぞれ別々の場所にいる複数の生物から測定された生体情報が利用される。ここでは一例として、それぞれ別々の場所(例えば同じ部屋ではない場所)にいる人から測定された生体情報に基づいて機器16を操作する例について説明する。実施例2が適用される場面は、例えば、複数の人がオンラインで会話や会議等を行う場面(例えばリモート会議やWeb会議等)である。
<Example 2>
Example 2 will be described below. In the second embodiment, biological information measured from a plurality of living things located at different locations is used. Here, as an example, an example will be described in which the device 16 is operated based on biological information measured from people in different locations (for example, locations that are not in the same room). The second embodiment is applied to, for example, a situation where a plurality of people have an online conversation or a meeting (for example, a remote meeting, a web meeting, etc.).

例えば、人であるユーザA,B,C,Dが、オンラインでの会議に参加しているものとする。ユーザAは端末装置18Aを利用し、ユーザBは端末装置18Bを利用し、ユーザCは端末装置18Cを利用し、ユーザDは端末装置18Dを利用している。端末装置18A,18B,18C,18Dは、端末装置18と同じ構成を有する。 For example, assume that users A, B, C, and D are participating in an online conference. User A uses terminal device 18A, user B uses terminal device 18B, user C uses terminal device 18C, and user D uses terminal device 18D. Terminal devices 18A, 18B, 18C, and 18D have the same configuration as terminal device 18.

端末装置18A,18B,18C,18Dは、例えば、オンラインで会話や会議するサービスを提供するサーバから当該サービスの提供を受けて、当該サーバを介して、互いに情報(例えば、画像、音声、文字列等)をやり取りすることができる。そのようなサービスとして、例えば公知のサービスが用いられる。 For example, the terminal devices 18A, 18B, 18C, and 18D receive services from a server that provides online conversation and conference services, and exchange information (e.g., images, sounds, character strings) with each other via the server. etc.) can be exchanged. As such a service, for example, a known service is used.

以下、図10を参照して、実施例2について詳しく説明する。図10には、画面38Aが示されている。画面38Aは、ユーザAの端末装置18AのUI30のディスプレイに表示される画面である。 Embodiment 2 will be described in detail below with reference to FIG. FIG. 10 shows screen 38A. The screen 38A is a screen displayed on the display of the UI 30 of the user A's terminal device 18A.

画面38Aには、オンライン会議に参加しているユーザA,B,C,Dの画像が表示される。例えば、画面38Aは、領域40A,40B,40C,40Dを含む。領域40AにユーザAの画像が表示され、領域40BにユーザBの画像が表示され、領域40CにユーザCの画像が表示され、領域40DにユーザDの画像が表示される。端末装置18B,18C,18Dのそれぞれのディスプレイにも、画面38Aと同様の構成を有する画面が表示される。 Images of users A, B, C, and D participating in the online conference are displayed on the screen 38A. For example, screen 38A includes areas 40A, 40B, 40C, and 40D. An image of user A is displayed in area 40A, an image of user B is displayed in area 40B, an image of user C is displayed in area 40C, and an image of user D is displayed in area 40D. A screen having the same configuration as the screen 38A is also displayed on each display of the terminal devices 18B, 18C, and 18D.

例えば、ユーザAの端末装置18Aに設けられているカメラ、又は、端末装置18Aに設けられていないカメラによってユーザAが撮影され、端末装置18Aのプロセッサ34は、その撮影によって生成された画像が領域40Aに表示する。また、ユーザAの画像のデータが、端末装置18Aからサーバを介して端末装置18B,18C,18Dに送信され、端末装置18B,18C,18DのそれぞれのディスプレイにユーザAの画像が表示される。同様に、ユーザB,C,Dのそれぞれの画像についても同様である。 For example, user A is photographed by a camera installed in user A's terminal device 18A or by a camera not installed in terminal device 18A, and the processor 34 of terminal device 18A stores the image generated by the photographing in an area. Display on 40A. Further, the data of the image of user A is transmitted from the terminal device 18A to the terminal devices 18B, 18C, and 18D via the server, and the image of user A is displayed on the respective displays of the terminal devices 18B, 18C, and 18D. Similarly, the same applies to each of the images of users B, C, and D.

実施例1と同様に、各ユーザの生体情報が生体情報測定装置12によって測定される。ここでは一例として、実施例1と同様に、ユーザA,B,C,Dのそれぞれから脳波が測定されるものとする。もちろん、脳波以外の生体情報が測定されてもよい。ユーザA,B,C,Dのそれぞれの生体情報(例えば脳波信号)が、各ユーザの生体情報測定装置12から情報処理装置10に送信される。 As in the first embodiment, the biometric information of each user is measured by the biometric information measuring device 12. Here, as an example, it is assumed that the brain waves of each of users A, B, C, and D are measured similarly to the first embodiment. Of course, biological information other than brain waves may be measured. The biometric information (for example, electroencephalogram signals) of each of the users A, B, C, and D is transmitted from the biometric information measuring device 12 of each user to the information processing device 10 .

情報処理装置10のプロセッサ26は、ユーザA,B,C,Dのそれぞれの脳波に基づいて機器16を操作する。操作対象の機器16は、端末装置18A,18B,18C,18Dであってもよいし、端末装置18以外の機器であってもよい。 The processor 26 of the information processing device 10 operates the device 16 based on the brain waves of each of the users A, B, C, and D. The device 16 to be operated may be the terminal devices 18A, 18B, 18C, or 18D, or may be a device other than the terminal device 18.

各端末装置18が、情報処理装置10の機能を有し、各端末装置18のプロセッサ34が、操作対象の機器16を操作してもよい。例えば、各端末装置18は、通信経路を介して、各ユーザの生体情報測定装置12から生体情報を受信して機器16を操作する。 Each terminal device 18 may have the function of the information processing device 10, and the processor 34 of each terminal device 18 may operate the device 16 to be operated. For example, each terminal device 18 receives biometric information from each user's biometric information measuring device 12 via a communication path and operates the device 16 .

例えば、各端末装置18のプロセッサ34は、各ユーザの脳波に基づいて、端末装置18に設けられているスピーカの音量を制御する。例えば、ユーザBの脳波を解析することで、ユーザBが興奮していると判断された場合、各端末装置18のプロセッサ34は、ユーザBの音量が小さくなるように、各端末装置18のスピーカの音量を制御する。例えば、端末装置18Aのプロセッサ34は、ユーザBの音量が小さくなるように、端末装置18Aのスピーカの音量を制御する。他の端末装置18についても同様である。なお、端末装置18に設けられていないスピーカが用いられる場合、プロセッサ34は、当該スピーカの音量を制御する。 For example, the processor 34 of each terminal device 18 controls the volume of the speaker provided in the terminal device 18 based on each user's brain waves. For example, if user B's brain waves are analyzed and it is determined that user B is excited, the processor 34 of each terminal device 18 sets the speaker of each terminal device 18 so that the volume of user B is reduced. control the volume. For example, the processor 34 of the terminal device 18A controls the volume of the speaker of the terminal device 18A so that the user B's volume becomes low. The same applies to other terminal devices 18. Note that when a speaker not provided in the terminal device 18 is used, the processor 34 controls the volume of the speaker.

なお、オンライン会議に参加するユーザの認証が行われてもよい。認証が成功したユーザが、オンライン会議に参加することができる。例えば、顔認証、音声認証、網膜認証、又は、耳音響認証等の認証技術が用いられる。認証は、情報処理装置10によって行われてもよいし、認証サーバによって行われてもよい。 Note that users participating in the online conference may be authenticated. Users who are successfully authenticated can participate in the online conference. For example, authentication techniques such as face authentication, voice authentication, retinal authentication, or ear acoustic authentication are used. Authentication may be performed by the information processing device 10 or by an authentication server.

実施例2においても、情報処理装置10のプロセッサ26は、各ユーザの脳波に基づいて(例えば脳波の平均に基づいて)、機器16を操作してもよい。操作対象の機器16は、ユーザA,B,C,Dの中の少なくとも1人によって利用される機器であってもよいし、それ以外の機器であってもよい。この場合、重みづけ処理が行われてもよい。 In the second embodiment as well, the processor 26 of the information processing device 10 may operate the device 16 based on each user's brain waves (for example, based on the average of the brain waves). The device 16 to be operated may be a device used by at least one of the users A, B, C, and D, or may be another device. In this case, weighting processing may be performed.

(生物が移動した場合の処理)
以下、図11を参照して、生物が移動した場合の処理について説明する。図11には、画面38Aが示されている。
(Treatment when living organisms move)
Hereinafter, with reference to FIG. 11, a process when a creature moves will be described. FIG. 11 shows the screen 38A.

例えば、オンライン会議に参加していたユーザBが、オンライン会議に参加しなくなった場合や、領域40BにユーザBの画像が表示されなくなった場合、情報処理装置10のプロセッサ26は、ユーザA,C,Dのそれぞれの脳波に基づいて機器16を操作する。 For example, if user B who was participating in the online conference no longer participates in the online conference or if the image of user B is no longer displayed in the area 40B, the processor 26 of the information processing device 10 , D is operated based on the brain waves of each of them.

<実施例3>
以下、図12を参照して、実施例3について説明する。実施例3は、実施例1,2の組み合わせである。図12には、画面38Aが示されている。
<Example 3>
Example 3 will be described below with reference to FIG. 12. Example 3 is a combination of Examples 1 and 2. FIG. 12 shows the screen 38A.

例えば、ユーザA1,A2が端末装置18Aを利用してオンライン会議に参加しており、ユーザB1,B2が端末装置18Bを利用してオンライン会議に参加しており、ユーザC1が端末装置18Cを利用してオンライン会議に参加しており、ユーザD1,D2,D3が端末装置18Dを利用してオンライン会議に参加している。例えば、ユーザA1,A2がグループAに属し、ユーザB1、B2がグループBに属し、ユーザC1がグループCに属し、ユーザD1,D2,D3がグループDに属する。グループに関する情報(例えば、グループの識別情報、及び、グループに属する各ユーザの識別情報等)は、情報処理装置10やサーバ等に記憶される。 For example, users A1 and A2 are participating in an online conference using the terminal device 18A, users B1 and B2 are participating in the online conference using the terminal device 18B, and user C1 is using the terminal device 18C. Users D1, D2, and D3 are participating in the online conference using the terminal device 18D. For example, users A1 and A2 belong to group A, users B1 and B2 belong to group B, user C1 belongs to group C, and users D1, D2, and D3 belong to group D. Information regarding the group (for example, identification information of the group, identification information of each user belonging to the group, etc.) is stored in the information processing device 10, a server, or the like.

領域40AにユーザA1,A2の画像が表示され、領域40BにユーザB1,B2の画像が表示され、領域40CにユーザC1の画像が表示され、領域40DにユーザD1,D2,D3の画像が表示される。 Images of users A1 and A2 are displayed in area 40A, images of users B1 and B2 are displayed in area 40B, images of user C1 are displayed in area 40C, and images of users D1, D2, and D3 are displayed in area 40D. be done.

実施例1と同様に、各ユーザの生体情報が生体情報測定装置12によって測定される。なお、オンライン会議に参加している1又は複数のユーザの生体情報が測定されなくてもよい。ここでは一例として、実施例1と同様に、各ユーザから脳波が測定されるものとする。もちろん、脳波以外の生体情報が測定されてもよい。各ユーザの生体情報(例えば脳波信号)が、各ユーザの生体情報測定装置12から情報処理装置10に送信される。 As in the first embodiment, the biometric information of each user is measured by the biometric information measuring device 12. Note that the biometric information of one or more users participating in the online conference may not be measured. Here, as an example, it is assumed that brain waves are measured from each user similarly to the first embodiment. Of course, biological information other than brain waves may be measured. Each user's biological information (for example, an electroencephalogram signal) is transmitted from each user's biological information measurement device 12 to the information processing device 10.

実施例2と同様に、情報処理装置10のプロセッサ26は、各ユーザの脳波に基づいて機器16を操作する。操作対象の機器16は、端末装置18A,18B,18C,18Dであってもよいし、端末装置18以外の機器であってもよい。各端末装置18が、情報処理装置10の機能を有し、各端末装置18のプロセッサ34が、操作対象の機器16を操作してもよい。 Similar to the second embodiment, the processor 26 of the information processing device 10 operates the device 16 based on each user's brain waves. The device 16 to be operated may be the terminal devices 18A, 18B, 18C, or 18D, or may be a device other than the terminal device 18. Each terminal device 18 may have the function of the information processing device 10, and the processor 34 of each terminal device 18 may operate the device 16 to be operated.

例えば、実施例2と同様に、各端末装置18のプロセッサ34は、各ユーザの脳波に基づいて、端末装置18に設けられているスピーカの音量を制御する。例えば、ユーザB1の脳波を解析することで、ユーザB1が興奮していると判断された場合、各端末装置18のプロセッサ34は、ユーザB1の音量が小さくなるように、各端末装置18のスピーカの音量を制御する。 For example, similar to the second embodiment, the processor 34 of each terminal device 18 controls the volume of the speaker provided in the terminal device 18 based on each user's brain waves. For example, if it is determined that the user B1 is excited by analyzing the brain waves of the user B1, the processor 34 of each terminal device 18 sets the speaker of each terminal device 18 so that the volume of the user B1 is reduced. control the volume.

別の例として、各端末装置18のプロセッサ34は、グループに属する1又は複数のユーザの脳波の平均を算出し、その平均に基づいてグループの状態を判断してもよい。例えば、グループBに属するユーザB1,B2の脳波の平均を解析することで、ユーザB1,B2が興奮していると判断された場合、各端末装置18のプロセッサ34は、ユーザB1,B2の音量が小さくなるように、各端末装置18のスピーカの音量を制御する。 As another example, the processor 34 of each terminal device 18 may calculate the average of the brain waves of one or more users belonging to the group, and determine the state of the group based on the average. For example, if it is determined that users B1 and B2 are excited by analyzing the average brain waves of users B1 and B2 belonging to group B, the processor 34 of each terminal device 18 controls the volume of the users B1 and B2. The volume of the speaker of each terminal device 18 is controlled so that the volume of the speaker becomes small.

実施例3においても、情報処理装置10のプロセッサ26は、各ユーザの脳波に基づいて(例えば脳波の平均に基づいて)、機器16を操作してもよい。また、プロセッサ26は、グループに属する1又は複数のユーザの脳波に基づいて(例えば、グループに属する1又は複数のユーザの脳波の平均に基づいて)、機器16を操作してもよい。 In the third embodiment as well, the processor 26 of the information processing device 10 may operate the device 16 based on each user's brain waves (for example, based on the average of the brain waves). The processor 26 may also operate the device 16 based on the brain waves of one or more users belonging to the group (eg, based on the average of the brain waves of one or more users belonging to the group).

(生物が移動した場合の処理)
以下、図13を参照して、生物が移動した場合の処理について説明する。図13には、画面38Aが示されている。
(Treatment when living organisms move)
Hereinafter, with reference to FIG. 13, the process when the living thing moves will be described. FIG. 13 shows a screen 38A.

例えば、オンライン会議に参加していたユーザC1が、オンライン会議に参加しなくなった場合や、領域40CにユーザCの画像が表示されなくなった場合、情報処理装置10のプロセッサ26は、グループA,B,Dのそれぞれに属するユーザの脳波に基づいて機器16を操作する。 For example, if the user C1 who was participating in the online conference no longer participates in the online conference, or if the image of the user C is no longer displayed in the area 40C, the processor 26 of the information processing device 10 , D, the device 16 is operated based on the brain waves of the users belonging to each of the groups.

<実施例4>
以下、実施例4について説明する。実施例4では、人の移動を促す処理を行われる。
<Example 4>
Example 4 will be described below. In the fourth embodiment, processing is performed to encourage people to move.

例えば、情報処理装置10のプロセッサ26は、人の生体情報を解析することで、当該人の感情情報や精神情報や心理情報を得る。複数の種類の生体情報が測定される場合、プロセッサ26は、当該複数の生体情報の全部又は一部を解析することで、当該人の感情情報や精神情報や心理情報を得てもよい。プロセッサ26は、各生体情報の優先順位に基づいて各生体情報に重み付け処理を行い、その重み付け処理の結果に基づいて、当該人の感情情報や精神情報や心理情報を得てもよい。また、各種の生体情報に対して基準レベルが定められ、プロセッサ26は、基準レベルが同じ生体情報は、感情や精神状態や心理情報が同じ傾向を示していると判断してもよい。 For example, the processor 26 of the information processing device 10 obtains emotional information, mental information, and psychological information of the person by analyzing the person's biological information. When a plurality of types of biometric information are measured, the processor 26 may obtain emotional information, mental information, or psychological information of the person by analyzing all or part of the plurality of biometric information. The processor 26 may perform weighting processing on each piece of biometric information based on the priority order of each piece of biometric information, and obtain emotional information, mental information, or psychological information of the person based on the result of the weighting process. Further, reference levels are determined for various types of biological information, and the processor 26 may determine that biological information having the same reference level indicates the same tendency in emotion, mental state, or psychological information.

プロセッサ26は、生体情報の解析の結果に基づいて、最適な場所への移動を当該人に促す。例えば、プロセッサ26は、生体情報の解析の結果に基づいて、当該人が不快を感じていると判断した場合、当該人が快適と感じ得る場所への移動を当該人に促す。その快適と感じ得る場所が、最適な場所の一例に相当する。 The processor 26 prompts the person to move to an optimal location based on the results of the biometric information analysis. For example, if the processor 26 determines that the person is feeling uncomfortable based on the results of the analysis of the biometric information, the processor 26 prompts the person to move to a place where the person can feel comfortable. A place where you feel comfortable is an example of an optimal place.

プロセッサ26は、生体情報測定装置12によって測定された生体情報、及び、環境情報測定装置14によって測定された環境情報に基づいて、最適な場所(例えば、人が快適と感じ得る場所)を特定する。 The processor 26 identifies an optimal place (for example, a place where a person can feel comfortable) based on the biological information measured by the biological information measuring device 12 and the environmental information measured by the environmental information measuring device 14. .

具体例を挙げて説明すると、プロセッサ26は、人の生体情報に基づいて、当該人が暑いと感じていると判断した場合、涼しい場所への移動を当該人に促す。涼しい場所が、最適な場所の一例に相当する。例えば、プロセッサ26は、人の発汗量と脳波を解析し、発汗量が閾値以上であり、脳波が不快感を示している場合、当該人が暑いと感じていると判断する。例えば、環境情報測定装置14によって、各場所の温度、湿度及び風量等の環境情報が測定され、各場所の環境情報が、環境情報測定装置14から情報処理装置10に送信される。プロセッサ26は、各場所の環境情報に基づいて、当該人が涼しいと感じ得る場所を特定する。例えば、プロセッサ26は、当該人がいる現在の場所の温度よりも温度が低い場所を特定し、その特定した場所への移動を当該人に促す。 To explain with a specific example, when the processor 26 determines that the person is feeling hot based on the person's biometric information, the processor 26 prompts the person to move to a cooler place. A cool place is an example of an optimal place. For example, the processor 26 analyzes the amount of perspiration and brain waves of the person, and determines that the person is feeling hot if the amount of perspiration is above a threshold and the brain waves indicate discomfort. For example, the environmental information measuring device 14 measures environmental information such as temperature, humidity, and air volume at each location, and the environmental information at each location is transmitted from the environmental information measuring device 14 to the information processing device 10 . The processor 26 identifies locations where the person may feel cool based on the environmental information of each location. For example, the processor 26 identifies a location where the temperature is lower than the temperature of the current location of the person, and prompts the person to move to the identified location.

また、プロセッサ26は、人の生体情報に基づいて、当該人が寒いと感じていると判断した場合、暖かい場所への移動を当該人に促す。この場合、暖かい場所が、最適な場所の一例に相当する。 Further, when the processor 26 determines that the person feels cold based on the person's biometric information, the processor 26 urges the person to move to a warm place. In this case, a warm place is an example of an optimal place.

例えば、プロセッサ26は、個々の人毎に、最適な場所への移動を促す。例えば図8に示すように、部屋36内にユーザA,B,Cがいる場合、プロセッサ26は、ユーザA,B,Cのそれぞれに対して、各ユーザの最適な場所への移動を促す。プロセッサ26は、生体情報が同じ傾向を有するユーザを同じ場所に案内してもよい。例えば、ユーザA,Bが暑いと感じており、ユーザCが寒いと感じている場合、プロセッサ26は、ユーザA,Bを涼しい場所に案内し、ユーザCを暖かい場所に案内する。 For example, the processor 26 prompts each individual to move to an optimal location. For example, as shown in FIG. 8, when users A, B, and C are in the room 36, the processor 26 prompts each of the users A, B, and C to move to the optimal location for each user. The processor 26 may guide users whose biometric information has the same tendency to the same location. For example, if users A and B feel hot and user C feels cold, processor 26 guides users A and B to a cooler location and guides user C to a warmer location.

別の例として、人がディスプレイに表示されている画像や文字を見ている場合において、プロセッサ26が、当該人の生体情報に基づいて、画像や文字が見え難いと当該人が感じていると判断した場合、当該ディスプレイに近づくように当該人を促す。 As another example, when a person is looking at an image or text displayed on a display, the processor 26 determines that the person feels that the image or text is difficult to see based on the person's biometric information. If determined, the person is prompted to approach the display.

更に別の例として、スピーカから音が発せられている場合において、プロセッサ26が、人の生体情報に基づいて、音が聞き難いと人が感じていると判断した場合、当該スピーカに近づくように当該人を促す。 As yet another example, when sound is being emitted from a speaker, if the processor 26 determines that the person feels that the sound is difficult to hear based on the person's biological information, it may cause the processor 26 to move closer to the speaker. Encourage the person.

例えば、プロセッサ26は、当該人の端末装置18に、移動を促す情報(例えば、案内や誘導を示す情報等)を送信する。当該端末装置18のプロセッサ34は、その情報をUI30のディスプレイに表示させる。図14には、その表示例が示されている。画面42は、端末装置18のディスプレイに表示される画面である。画面42には、例えば、「XX(快適な場所)に移動してください。」といったメッセージや、その場所を示す地図44が表示される。地図44上には、例えば、当該人の現在の位置を表すマーク46と、快適な場所を表すマーク48と、当該快適な場所へ人を案内する矢印50とが表示される。当該人の現在の位置、及び、快適な場所は、GPS等の技術を用いることで特定される。図8に示す例では、ユーザA,B,Cのそれぞれの端末装置18のディスプレイに、移動を促す情報が表示される。 For example, the processor 26 transmits information encouraging movement (for example, information indicating guidance or guidance) to the terminal device 18 of the person. The processor 34 of the terminal device 18 causes the information to be displayed on the display of the UI 30. FIG. 14 shows an example of the display. The screen 42 is a screen displayed on the display of the terminal device 18. For example, a message such as "Please move to XX (comfortable location)" and a map 44 showing the location are displayed on the screen 42. On the map 44, for example, a mark 46 representing the current position of the person, a mark 48 representing a comfortable place, and an arrow 50 guiding the person to the comfortable place are displayed. The person's current location and comfortable location are determined using technology such as GPS. In the example shown in FIG. 8, information prompting users to move is displayed on the display of each terminal device 18 of users A, B, and C.

図15には、別の表示例が示されている。図15には部屋36が示されている。例えば、情報処理装置10のプロセッサ26は、符号52が指し示すように、部屋36の床の上に、光等によって案内を表示してもよい。例えば、プロセッサ26は、部屋36内に設置されている照明を制御することで案内を表示する。人がいる場所が道路等であれば、プロセッサ26は、地面等に案内を表示する。その他、プロセッサ26は、壁に案内を表示してもよいし、音声によって人を案内してもよい。その音声は、端末装置18から発せられてもよいし、他のスピーカから発せられてもよい。また、プロセッサ26は、人の周囲に設置されているディスプレイに案内を表示させてもよい。 FIG. 15 shows another display example. A room 36 is shown in FIG. For example, the processor 26 of the information processing device 10 may display guidance using light or the like on the floor of the room 36, as indicated by the reference numeral 52. For example, the processor 26 displays guidance by controlling lighting installed in the room 36. If the place where there is a person is a road or the like, the processor 26 displays a guide on the ground or the like. In addition, the processor 26 may display guidance on a wall or may guide a person by voice. The sound may be emitted from the terminal device 18 or may be emitted from another speaker. Furthermore, the processor 26 may display guidance on displays placed around the person.

プロセッサ26は、生体情報が同じ傾向を示す複数の人を同じ場所に案内し、生体情報が異なる傾向を示す複数の人をそれぞれ別々の場所に案内してもよい。例えば、プロセッサ26は、互いに好意を有する複数の人を同じ場所に案内し、互いに嫌悪感を有する複数の人を異なる場所に案内してもよい。 The processor 26 may guide a plurality of people whose biometric information shows the same tendency to the same place, and guide a plurality of people whose biometric information shows different trends to different places. For example, processor 26 may guide people who like each other to the same location, and guide people who dislike each other to different locations.

<実施例5>
以下、実施例5について説明する。実施例5では、生物の生体情報が表示される。図16を参照して、実施例5について詳しく説明する。図16には、画面38Aが示されている。ここでは一例として、実施例3と同様に、複数のユーザによってオンライン会議が行われているものとする。
<Example 5>
Example 5 will be described below. In Example 5, biological information of living things is displayed. Example 5 will be described in detail with reference to FIG. 16. FIG. 16 shows a screen 38A. Here, as an example, it is assumed that an online conference is being held by a plurality of users, similar to the third embodiment.

例えば、各ユーザの生体情報は、各ユーザの端末装置18に送信され、端末装置18のプロセッサ34は、各ユーザの生体情報をディスプレイに表示させる。図16には、ユーザAの端末装置18Aの画面38Aが示されており、端末装置18Aのプロセッサ34は、各ユーザの生体情報を画面38Aに表示する。図16には、生体情報の一例である脳波が表示されている。例えば、脳波の波形が表示される。 For example, each user's biometric information is transmitted to each user's terminal device 18, and the processor 34 of the terminal device 18 causes each user's biometric information to be displayed on a display. FIG. 16 shows a screen 38A of the terminal device 18A of user A, and the processor 34 of the terminal device 18A displays each user's biometric information on the screen 38A. In FIG. 16, brain waves, which are an example of biological information, are displayed. For example, the waveform of an electroencephalogram is displayed.

図16に示す例では、ユーザA1の脳波54、ユーザB1の脳波56、ユーザC1の脳波58、及び、ユーザD3の脳波60が、表示されている。例えば、端末装置18Aのプロセッサ34は、ユーザA1の脳波54をユーザA1の画像に紐付けて領域40A内に表示する。他のユーザの脳波も同様である。 In the example shown in FIG. 16, user A1's brain waves 54, user B1's brain waves 56, user C1's brain waves 58, and user D3's brain waves 60 are displayed. For example, the processor 34 of the terminal device 18A displays the brain waves 54 of the user A1 in association with the image of the user A1 in the area 40A. The same goes for other users' brain waves.

ユーザは、脳波の表示又は非表示を選択することができる。端末装置18Aのプロセッサは、例えば、端末装置18Aのユーザの指示に従って、各ユーザの脳波を表示し、又は、各ユーザの脳波を表示しなくてもよいし、脳波が測定されたユーザの指示に従って、当該ユーザの脳波を表示し、又は、当該ユーザの脳波を表示しなくてもよい。 The user can select whether to display or hide the brain waves. The processor of the terminal device 18A may, for example, display the brain waves of each user according to the instructions of the user of the terminal device 18A, or may not display the brain waves of each user, or may display the brain waves of each user according to the instructions of the user whose brain waves were measured. , the brain waves of the user may be displayed, or the brain waves of the user may not be displayed.

例えば、端末装置18Aのユーザが、ユーザA1,B1,C1,D3のそれぞれの脳波を表示することを指示した場合、端末装置18Aのプロセッサ34は、図16に示すように、ユーザA1,B1,C1,D3のそれぞれの脳波を表示する。 For example, when the user of the terminal device 18A instructs to display the brain waves of the users A1, B1, C1, and D3, the processor 34 of the terminal device 18A displays the brain waves of the users A1, B1, and D3, as shown in FIG. The brain waves of C1 and D3 are displayed.

別の例として、ユーザA1が、ユーザA1自身の脳波の表示又は非表示を設定してもよい。表示が設定された場合、ユーザA1の脳波が表示され、非表示が設定された場合、ユーザA1の脳波は表示されない。他のユーザについても同様である。 As another example, the user A1 may set display or non-display of the user A1's own brain waves. When display is set, user A1's brain waves are displayed, and when non-display is set, user A1's brain waves are not displayed. The same applies to other users.

また、端末装置18のプロセッサ34は、脳波の波形を表示すると共に、その脳波を解析することで得られる感情や精神状態や心理状態を示す情報を表示してもよい。例えば、脳波58は「覚醒(興奮)」という状態を表しており、プロセッサ34は、その「覚醒(興奮)」を示す文字列を脳波58と共に領域40Cに表示する。他の脳波についても同様である。 Further, the processor 34 of the terminal device 18 may display the waveform of the brain waves, and may also display information indicating emotions, mental state, and psychological state obtained by analyzing the brain waves. For example, the brain wave 58 represents a state of "awakening (excitement)," and the processor 34 displays a character string indicating the "awakening (excitement)" together with the brain wave 58 in the area 40C. The same applies to other brain waves.

情報処理装置10のプロセッサ26は、オンライン会議中の音声データをテキストデータに変換し、そのテキストデータを各ユーザの生体情報(例えば脳波)に紐付けてメモリに記憶させてもよい。また、プロセッサ26は、音声データを各ユーザの生体情報に紐付けてメモリに記憶させてもよい。また、端末装置18のプロセッサ34は、当該テキストデータを取得し、そのテキストを表示してもよい。例えば、生体情報を検索キーとして、その生体情報に紐付けられている音声データやテキストデータを検索できるようにしてもよい。 The processor 26 of the information processing device 10 may convert the audio data during the online conference into text data, associate the text data with each user's biological information (for example, brain waves), and store the text data in the memory. Further, the processor 26 may store the audio data in the memory in association with each user's biometric information. Further, the processor 34 of the terminal device 18 may obtain the text data and display the text. For example, it may be possible to use biometric information as a search key to search for audio data or text data linked to the biometric information.

また、端末装置18のプロセッサ34は、予め定められた感情や精神状態や心理状態や意思情報を表す脳波を表示してもよい。例えば、会議に適さない脳波(例えば、眠気や睡眠等を表す脳波)が測定された場合、プロセッサ34は、当該脳波が測定されたユーザの画像に当該脳波を紐付けて表示する。 Further, the processor 34 of the terminal device 18 may display brain waves representing predetermined emotions, mental states, psychological states, and intention information. For example, if brain waves unsuitable for a meeting (for example, brain waves indicating drowsiness or sleep) are measured, the processor 34 displays the brain waves in association with the image of the user whose brain waves were measured.

感情や精神状態や心理状態や意思情報を表す画像が表示されてもよい。図17には、その表示例が示されている。例えば、集中を表す画像62、眠気を表す画像64、リラックスを表す画像66等が表示される。例えば、端末装置18のプロセッサ34は、脳波と共に、又は、脳波の代わりに、各画像をユーザに紐付けて表示する。 An image representing emotion, mental state, psychological state, or intention information may be displayed. FIG. 17 shows an example of the display. For example, an image 62 representing concentration, an image 64 representing sleepiness, an image 66 representing relaxation, etc. are displayed. For example, the processor 34 of the terminal device 18 displays each image in association with the user, together with or instead of the brain waves.

端末装置18のプロセッサ34は、感情や精神状態や心理状態や意思情報の程度に応じて、画像の数、色、強調、及び、画像の種類等を変えてもよい。 The processor 34 of the terminal device 18 may change the number, color, emphasis, type of images, etc. of images depending on the emotion, mental state, psychological state, and degree of intention information.

プロセッサ34は、感情や精神状態や心理状態や意思情報の程度に応じたスコアを、ユーザに紐付けて表示してもよい。 The processor 34 may display a score according to the degree of emotion, mental state, psychological state, and intention information in association with the user.

プロセッサ34は、感情や精神状態や心理状態や意思情報の程度に応じて、ユーザの画像自体(例えば、ユーザの顔の画像)を加工して表示してもよいし、ユーザの背景の画像を変えたりしてもよい。例えば、プロセッサ34は、ユーザの気持ちがネガティブである場合、当該ユーザの顔の色を白く又は青白く表示し、当該ユーザの気持ちがポジティブである場合、当該ユーザの顔の肌色を明るく表示する。プロセッサ34は、ユーザの気持ちがネガティブである場合、背景の画像を暗くして表示し、ユーザの気持ちがポジティブである場合、背景の画像を明るくしてもよい。 The processor 34 may process and display the user's image itself (for example, an image of the user's face), or may process and display the user's background image, depending on the level of emotion, mental state, psychological state, and intention information. You may change it. For example, when the user's feelings are negative, the processor 34 displays the color of the user's face as white or pale, and when the user's feelings are positive, the processor 34 displays the skin color of the user's face as bright. The processor 34 may darken and display the background image when the user's feelings are negative, and may brighten the background image when the user's feelings are positive.

<実施例6>
以下、図18を参照して、実施例6について説明する。図18には、人の脳の断層画像が模式的に示されている。
<Example 6>
Embodiment 6 will be described below with reference to FIG. 18. FIG. 18 schematically shows a tomographic image of a human brain.

例えば、生体情報測定装置12によって人の脳波が測定され、情報処理装置10のプロセッサ26は、その測定された脳波に基づいて、当該人の脳において活性化している部位を特定する。例えば、人の頭部にて3か所以上の箇所に電極を設けて脳波を測定することで、プロセッサ26は、測定された脳波が発生している部位を特定する。プロセッサ26は、当該人の脳の断層画像上において、その特定した部位を指し示すマーク等を表示してもよいし、その特定した部位を塗り潰してもよい。 For example, a person's brain waves are measured by the biological information measuring device 12, and the processor 26 of the information processing device 10 identifies the activated part of the person's brain based on the measured brain waves. For example, by providing electrodes at three or more locations on a person's head and measuring brain waves, the processor 26 identifies the location where the measured brain waves are occurring. The processor 26 may display a mark or the like pointing to the identified region on the tomographic image of the person's brain, or may fill out the identified region.

なお、断層画像は、CT(Computed Tomography)装置やMRI(Magnetic Resonance Imaging)装置によって撮影された画像であってもよいし、脳を模式的に表す画像(例えば予め作成された画像)であってもよい。 Note that the tomographic image may be an image taken by a CT (Computed Tomography) device or an MRI (Magnetic Resonance Imaging) device, or an image that schematically represents the brain (for example, an image created in advance). Good too.

<実施例7>
以下、生体情報が表示される画面について説明する。図19には、ホーム画面の一例が示されている。
<Example 7>
The screen on which biometric information is displayed will be described below. FIG. 19 shows an example of the home screen.

ホーム画面100は、例えば、端末装置18のディスプレイに表示される。ホーム画面100には、「Scan」ボタン、「Record」ボタン、「Reset」ボタン、「File」ボタン、及び、「Edit」ボタンが表示される。また、画面100には、表示領域102,104,106が含まれる。図19に示す例では、領域102,104,106が、その順番で縦に並んで配置されているが、この配置は一例に過ぎない。その配置がユーザによって変更されてもよい。 Home screen 100 is displayed on the display of terminal device 18, for example. The home screen 100 displays a "Scan" button, a "Record" button, a "Reset" button, a "File" button, and an "Edit" button. The screen 100 also includes display areas 102, 104, and 106. In the example shown in FIG. 19, the regions 102, 104, and 106 are arranged vertically in that order, but this arrangement is only an example. The arrangement may be changed by the user.

「Scan」ボタンが押されると、端末装置18と通信可能(例えばBLE等のペアリング可能)な生体情報測定装置12の一覧がホーム画面100に表示される。「Record」ボタンが押されると、生体情報測定装置12によって測定された生体情報がメモリに記憶される。例えば、生体情報測定装置12と端末装置18とが通信し、生体情報測定装置12によって測定された生体情報が、生体情報測定装置12から端末装置18に送信されて、端末装置18のメモリ32に記憶される。「Reset」ボタンが押されると、キャリブレーションの設定がリセットされる。「File」ボタンが押されると、生体情報のファイルを管理するための画面が表示される。「Edit」ボタンが押されると、後述する設定画面(図23参照)が表示される。 When the "Scan" button is pressed, a list of biological information measuring devices 12 that can communicate with the terminal device 18 (for example, can be paired with BLE, etc.) is displayed on the home screen 100. When the "Record" button is pressed, the biological information measured by the biological information measuring device 12 is stored in the memory. For example, the biological information measuring device 12 and the terminal device 18 communicate, and the biological information measured by the biological information measuring device 12 is transmitted from the biological information measuring device 12 to the terminal device 18 and stored in the memory 32 of the terminal device 18. be remembered. When the "Reset" button is pressed, the calibration settings are reset. When the "File" button is pressed, a screen for managing biometric information files is displayed. When the "Edit" button is pressed, a setting screen (see FIG. 23), which will be described later, is displayed.

領域102には、生体情報測定装置12によって測定された生体情報そのものが表示され、領域104には、生体情報を処理することで得られた情報が表示される。以下、処理が施されていない生体除法を「Rawデータ」と称することとする。例えば、領域102には、Rawデータのグラフ(以下、「グラフ1」と称する)が表示され、領域104には、処理済みの生体情報のグラフ(以下、「グラフ2」と称する)が表示される。
領域106には、領域104に表示されるグラフの設定値等が表示される。
In the area 102, the biological information itself measured by the biological information measuring device 12 is displayed, and in the area 104, information obtained by processing the biological information is displayed. Hereinafter, the unprocessed biological removal method will be referred to as "Raw data." For example, the area 102 displays a graph of raw data (hereinafter referred to as "graph 1"), and the area 104 displays a graph of processed biological information (hereinafter referred to as "graph 2"). Ru.
In the area 106, setting values of the graph displayed in the area 104, etc. are displayed.

グラフ1の縦軸(Y軸)は、生体情報を表す電位(例えば[μV])であり、横軸(X軸)は、時間である。例えば、ピンチ操作やズーム操作等によって、縦軸のレンジを変更することができる。 The vertical axis (Y-axis) of graph 1 is a potential (for example, [μV]) representing biological information, and the horizontal axis (X-axis) is time. For example, the range of the vertical axis can be changed by pinching or zooming.

切り替え前のグラフ2の縦軸(Y軸)は、生体情報を表す電位(例えば[μV])であり、横軸(X軸)は、時間である。例えば、ピンチ操作やズーム操作等によって、縦軸のレンジを変更することができる。 The vertical axis (Y-axis) of the graph 2 before switching is a potential (for example, [μV]) representing biological information, and the horizontal axis (X-axis) is time. For example, the range of the vertical axis can be changed by pinching or zooming.

領域104,106の表示内容を他の表示内容に切り替えることができる。例えば、フリック操作等のように、領域104,106をスライドさせる操作が行われた場合、表示内容が切り換えられる。もちろん、別の操作によって表示内容が切り換えられてもよい。 The display contents of the areas 104 and 106 can be switched to other display contents. For example, when an operation to slide the areas 104, 106 is performed, such as a flick operation, the display contents are switched. Of course, the display contents may be switched by another operation.

図20には、切り替え後の表示内容が示されている。 FIG. 20 shows the display contents after switching.

切り替え前のグラフ2は、例えば、Rawデータに対して後述する設定画面にて設定された処理を施すことで生成されるグラフ(例えばリアルタイムグラフ)である。切り替え前の領域106には、そのグラフに関する設定値等が表示される。例えば、生体情報(例えば脳波)が取得されていることを示す指数、生体情報が測定される人が集中していることを示す指数、生体情報が測定される人がリラックスしていることを示す指数、及び、生体情報測定装置12に搭載されている6軸センサの値(例えば、X,Y,Z軸の軸方向の移動量を示す値、X,Y,Z軸の軸回りの回転量を示す値等)等が、領域106に表示される。領域106に表示される各値は、例えば、予め定められた時間毎(例えば1秒毎)に更新される。また、各値に応じた色を有する画像が表示されてもよい。 The graph 2 before switching is, for example, a graph (for example, a real-time graph) generated by performing processing set on a setting screen to be described later on raw data. In the area 106 before switching, setting values and the like related to the graph are displayed. For example, an index that shows that biological information (e.g., brain waves) is being acquired, an index that shows that the person whose biological information is being measured is concentrated, an index that shows that the person whose biological information is being measured is relaxed. The index and the value of the 6-axis sensor installed in the biological information measuring device 12 (for example, the value indicating the amount of movement in the axial direction of the X, Y, and Z axes, the amount of rotation around the X, Y, and Z axes) etc.) are displayed in the area 106. Each value displayed in the area 106 is updated, for example, at every predetermined time (for example, every second). Furthermore, an image having a color corresponding to each value may be displayed.

切り替え後のグラフ2は、例えば、Rawデータに対してFFT(Fast Fourier Transform)処理を施すことで生成されたグラフ(以下、「FFTグラフ」と称する)である。切り替え後の領域106には、グラフ1、グラフ2及びFFTグラフに関する設定値が表示される。例えば、項目「Graph X」、項目「Graph Y」、項目「FFT Max X」、及び、項目「FFT Max Y」が、領域106に表示される。項目「Graph X」は、グラフ1及びFFTグラフに共通のX軸の目盛りの値を設定する項目である。項目「Graph Y」は、グラフ1,2のY軸の目盛りの値を別々に設定する項目である。項目「Graph1」は、グラフ1のY軸の目盛りの値を設定する項目であり、項目「Graph2」は、グラフ2のY軸の目盛りの値を設定する項目である。項目「FFT Max X」は、FFTグラフのX軸の最大値を設定する項目である。項目「FFT Max Y」は、FFTグラフのY軸の最大値を設定する項目である。 The graph 2 after switching is, for example, a graph generated by performing FFT (Fast Fourier Transform) processing on Raw data (hereinafter referred to as an "FFT graph"). In the area 106 after switching, setting values regarding graph 1, graph 2, and FFT graph are displayed. For example, the item “Graph X”, the item “Graph Y”, the item “FFT Max X”, and the item “FFT Max Y” are displayed in the area 106. The item "Graph X" is an item for setting the scale value of the X axis common to the graph 1 and the FFT graph. The item "Graph Y" is an item for setting the scale values of the Y axis of graphs 1 and 2 separately. The item "Graph1" is an item for setting the value of the Y-axis scale of Graph 1, and the item "Graph2" is an item for setting the value of the Y-axis scale of Graph 2. The item "FFT Max X" is an item for setting the maximum value of the X axis of the FFT graph. The item "FFT Max Y" is an item for setting the maximum value of the Y axis of the FFT graph.

図21には、Rawデータのグラフ1、及び、切り替え前のグラフ2の具体例が示されている。図22には、切り替え後のグラフ2(FFT処理後のグラフ)の具体例が示されている。 FIG. 21 shows specific examples of a raw data graph 1 and a graph 2 before switching. FIG. 22 shows a specific example of graph 2 after switching (graph after FFT processing).

図23には、設定画面の一例が示されている。ホーム画面100にて「Edit」ボタンが押されると、図23に示されている設定画面110が表示される。 FIG. 23 shows an example of a setting screen. When the "Edit" button is pressed on the home screen 100, a settings screen 110 shown in FIG. 23 is displayed.

項目「Micro Volts」は、グラフ1,2のY軸の表示を「μV」に設定するための項目である。 The item "Micro Volts" is an item for setting the Y-axis display of graphs 1 and 2 to "μV".

項目「Cut Off Filter」は、生体情報に適用されるフィルタ(例えば、ハイパスフィルタ(HPF)及びローパスフィルタ(LPS))の設定値を設定する項目である。ここで設定された設定値に従って、生体情報に対してフィルタ処理が適用される。例えば、グラフ1,2に対してフィルタ処理が適用される。フィルタ処理は、生体情報測定装置12によって実行されてもよいし、情報処理装置10によって実行されてもよいし、端末装置18によって実行されてもよい。フィルタ処理を実行することで、測定された生体情報から特定の周波数を有する情報を抽出することができる。例えば、脳波と他の筋電信号とを含む生体情報から、脳波のみを抽出したり、他の筋電信号(例えば、目の動きや顔の動きや顎の動き等に起因する信号)を抽出したりすることができる。抽出した信号に基づいて、機器16が操作されてもよい。例えば、情報処理装置10のプロセッサ26は、脳波と他の筋電信号とを区別して抽出し、脳波と他の筋電信号とに基づいて、同じ機器16を操作してもよい、異なる機器16を別々に操作してもよい。 The item "Cut Off Filter" is an item for setting setting values of a filter (for example, a high pass filter (HPF) and a low pass filter (LPS)) applied to biometric information. Filter processing is applied to the biometric information according to the setting values set here. For example, filter processing is applied to graphs 1 and 2. The filtering process may be performed by the biological information measuring device 12, the information processing device 10, or the terminal device 18. By performing filter processing, information having a specific frequency can be extracted from the measured biological information. For example, from biological information that includes brain waves and other myoelectric signals, extract only brain waves or extract other myoelectric signals (for example, signals caused by eye movements, facial movements, jaw movements, etc.) You can do it. The device 16 may be operated based on the extracted signal. For example, the processor 26 of the information processing device 10 may distinguish and extract brain waves and other myoelectric signals, and operate the same device 16 based on the brain waves and other myoelectric signals, or may operate different devices 16. may be operated separately.

項目「Peak Filter」は、Rawデータのピーク値に対する処理に関する値を設定する項目である。例えば、Rawデータのピーク値が設定値以上のときに生体情報(例えば脳波)の測定が不可能であることを設定するための項目、及び、インパルス型ノイズを測定するための設定値を設定するための項目が、項目「Peak Filter」に含まれる。 The item "Peak Filter" is an item for setting values related to processing for peak values of Raw data. For example, an item for setting that it is impossible to measure biological information (e.g., brain waves) when the peak value of raw data is equal to or higher than a set value, and a setting value for measuring impulse noise are set. Items for this are included in the item "Peak Filter."

<実施例8>
以下、実施例8について説明する。実施例8では、情報処理装置10のプロセッサ26は、人の生体情報に基づいて、当該人と特定の関係を有する別の人の感情や精神状態や心理状態を推測する。プロセッサ26は、人の感情情報や精神情報や心理情報に基づいて、別の人の感情や精神状態や心理状態を推測してもよい。
<Example 8>
Example 8 will be described below. In the eighth embodiment, the processor 26 of the information processing device 10 estimates the emotions, mental state, and psychological state of another person who has a specific relationship with the person based on the person's biological information. The processor 26 may infer another person's emotions, mental state, or psychological state based on the person's emotional information, mental information, or psychological information.

特定の関係は、例えば、親子関係や血縁関係等である。例えば、プロセッサ26は、親の生体情報や感情情報や精神情報や心理情報に基づいて、子の感情や精神状態や心理状態を推測してもよいし、子の生体情報や感情情報や精神状態や心理状態に基づいて、親の感情や精神状態や心理上状態を推測してもよいし、ある人の生体情報や感情情報や精神情報や心理情報に基づいて、当該人の兄弟姉妹の感情や精神状態や心理状態を推測してもよい。 The specific relationship is, for example, a parent-child relationship or a blood relationship. For example, the processor 26 may estimate the child's emotions, mental state, or psychological state based on the biological information, emotional information, mental information, or psychological information of the parent, or may estimate the child's biological information, emotional information, or mental state. It is also possible to infer the emotions, mental state, and psychological state of a parent based on a person's biological, emotional, mental, and psychological information. You may also infer their mental or psychological state.

例えば、親の生体情報と子の生体情報がそれぞれ生体情報測定装置12によって測定され、情報処理装置10のプロセッサ26は、子の生体情報が親の生体情報に類似している場合(例えば、子の脳波が親の脳波に類似する波形である場合)、子の感情や精神状態や心理状態が、親の感情や精神状態や心理状態と同じであると推測する。例えば、プロセッサ26は、親の生体情報が「気分が良い」という感情を表している場合において、子の生体情報が親の生体情報に類似している場合、子も「気分が良い」という感情を有していると推測する。例えば、子が、感情や精神状態や心理状態をコントロールすることが困難な乳幼児や幼児等である場合、上記の推定が行われる。 For example, if the biological information of the parent and the biological information of the child are measured by the biological information measuring device 12, and the processor 26 of the information processing device 10 detects that the biological information of the child is similar to the biological information of the parent (for example, If the child's brain waves have a waveform similar to the parent's brain waves), it is inferred that the child's emotions, mental state, and psychological state are the same as the parent's emotions, mental state, and psychological state. For example, in a case where the parent's biometric information expresses the emotion of "feeling good," and the child's biometric information is similar to the parent's biometric information, the processor 26 may cause the child to also express the emotion of "feeling good." It is assumed that it has. For example, if the child is an infant or young child who has difficulty controlling their emotions, mental state, or psychological state, the above estimation is performed.

別の例として、親が、感情や精神状態や心理状態をコントロールすることが困難な人(例えば認知症等を患っている人)である場合、プロセッサ26は、子の生体情報や感情情報や精神情報や心理情報に基づいて、親の感情や精神状態や心理状態を推測してもよい。 As another example, if the parent is a person who has difficulty controlling their emotions, mental state, or psychological state (for example, a person suffering from dementia, etc.), the processor 26 may collect the child's biological information, emotional information, etc. Parents' emotions, mental state, and psychological state may be inferred based on mental information and psychological information.

更に別の例として、プロセッサ26は、生活習慣が類似する人同士の感情や精神状態や心理状態を推測してもよい。例えば、長い間、同居している人同士では、生活習慣が似てくる場合があり、その場合、プロセッサ26は、ある人の生体情報や感情情報や精神情報や心理情報に基づいて、当該人と類似する生活習慣を有する他の人の感情や精神状態や心理状態を推測する。 As yet another example, the processor 26 may estimate the emotions, mental states, and psychological states of people who have similar lifestyle habits. For example, people who have lived together for a long time may have similar lifestyle habits, and in that case, the processor 26 may determine whether the person is Inferring the emotions, mental state, and psychological state of other people who have similar lifestyle habits.

<実施例9>
以下、実施例9について説明する。実施例9では、情報処理装置10のプロセッサ26は、人である対象者が知り得ない特定の情報を当該対象者に知らせる。例えば、プロセッサ26は、当該対象者の端末装置18に当該特定の情報を送信する。
<Example 9>
Example 9 will be described below. In the ninth embodiment, the processor 26 of the information processing device 10 informs the human subject of specific information that the subject cannot know. For example, the processor 26 transmits the specific information to the terminal device 18 of the subject.

対象者に知らされる特定の情報は、例えば、特定の場所に関する視覚情報、環境情報、及び、雰囲気に関する情報等である。例えば、当該特定の場所にいないと知り得ない情報が、対象者に知らされる情報である。その場所は、例えば、情報処理装置10の管理者や対象者等によって指定される。また、管理者や対象者等の指定によって、当該特定の場所にて発生した危険、又は、当該特定の場所にて発生し得る危険を示す情報が、対象者の端末装置18に送信されてもよい。 The specific information to be informed to the subject includes, for example, visual information about a specific place, environmental information, information about the atmosphere, and the like. For example, information that cannot be known unless one is in the specific location is information that is made known to the target person. The location is specified, for example, by the administrator of the information processing device 10, the target person, or the like. Further, even if information indicating a danger that has occurred at a particular location or a danger that may occur at a particular location is sent to the terminal device 18 of the target person as specified by the administrator or the target person, etc. good.

視覚情報は、例えば、特定の場所に設置されている定点カメラによって撮影された画像や、特定の場所にいる人が装着しているカメラによって撮影された画像等である。視覚情報は、特定の場所に設置されているマイクや人が装着しているマイクによって測定された音情報を含んでもよい。環境情報は、特定の場所に設置されている各種のセンサによって測定された情報(例えば、気温、湿度、空気室、天気等)や、特定の場所にいる人が装着しているセンサによって測定された情報等である。雰囲気に関する情報は、例えば、特定の場所が人にとって快適又は不快な場所であることを示す情報や、特定の場所が人にとって集中できる又は気が散る場所であることを示す情報等である。例えば、特定の場所にいる人が、その特定の場所の雰囲気に関する情報を自身の端末装置18に入力すると、その入力された情報が、端末装置18から情報処理装置10に送信される。 The visual information is, for example, an image captured by a fixed point camera installed at a specific location, an image captured by a camera worn by a person at a specific location, or the like. The visual information may include sound information measured by a microphone installed at a specific location or a microphone worn by a person. Environmental information includes information measured by various sensors installed in a specific location (e.g., temperature, humidity, air chambers, weather, etc.) or by sensors worn by people in a specific location. information etc. Information regarding the atmosphere includes, for example, information indicating that a specific place is a comfortable or unpleasant place for a person, information indicating that a specific place is a place where a person can concentrate or a place that is distracting. For example, when a person in a specific location inputs information regarding the atmosphere of the specific location into his or her terminal device 18, the input information is transmitted from the terminal device 18 to the information processing device 10.

例えば、対象者が端末装置18を用いて、特定の場所を指定し、その特定の場所における特定の情報の取得を要求した場合、その要求を示す情報が、端末装置18から情報処理装置10に送信される。情報処理装置10のプロセッサ26は、その要求に応じて、その指定された特定の場所における特定の情報を端末装置18に送信する。端末装置18のプロセッサ34は、その特定の情報をディスプレイに表示させたり、音声としてスピーカから発生させたりする。 For example, when a target person uses the terminal device 18 to specify a specific location and requests the acquisition of specific information at that specific location, information indicating the request is sent from the terminal device 18 to the information processing device 10. Sent. In response to the request, the processor 26 of the information processing device 10 transmits specific information at the designated specific location to the terminal device 18. The processor 34 of the terminal device 18 causes the specific information to be displayed on a display or generated as audio from a speaker.

また、情報処理装置10のプロセッサ26は、各場所の状況を観察し、対象者によって指定された特定の場所における状況が、予め定められた条件に該当する場合、当該特定の場所における特定の情報を、対象者の端末装置18に送信してもよい。場所の状況は、例えば、環境情報を解析することで得られる環境に関する状況(例えば、気温や湿度や天気等)、視覚情報から得られる状況(例えば、街や電車等の混雑状況等)、及び、視覚情報や環境情報等から得られる危険な状況等である。場所の状況は、視覚情報や環境情報等から推測や予測されてもよい。 Further, the processor 26 of the information processing device 10 observes the situation at each location, and if the situation at a specific location designated by the subject corresponds to a predetermined condition, the processor 26 of the information processing device 10 provides specific information at the specific location. may be transmitted to the terminal device 18 of the subject. The situation of a place includes, for example, the environment-related situation obtained by analyzing environmental information (e.g., temperature, humidity, weather, etc.), the situation obtained from visual information (e.g., the congestion situation of the city, trains, etc.), , dangerous situations obtained from visual information, environmental information, etc. The situation of a place may be inferred or predicted from visual information, environmental information, or the like.

例えば、対象者によって指定された特定の場所の天気が、予め定められた天気に該当する場合、又は、予め定められた天気になると予測される場合、情報処理装置10のプロセッサ26は、当該特定の場所の天気に関する情報を、対象者の端末装置18に送信する。また、特定の場所の混雑状況が、予め定められた混雑状況になる、又は、予め定められた混雑状況になると予測される場合、情報処理装置10のプロセッサ26は、当該特定の場所の混雑状況に関する情報を、対象者の端末装置18に送信する。 For example, if the weather at a specific place designated by the subject corresponds to predetermined weather, or if it is predicted that the weather will become predetermined, the processor 26 of the information processing device 10 Information regarding the weather at the location is transmitted to the target person's terminal device 18. Further, when the congestion situation at a specific place becomes a predetermined congestion situation or is predicted to become a predetermined congestion situation, the processor 26 of the information processing device 10 determines the congestion situation at the specific place. information regarding the subject is transmitted to the terminal device 18 of the subject.

また、情報処理装置10のプロセッサ26は、対象者の目的(例えば危機の回避等)に基づいて、対象者の端末装置18に送信される特定の情報を選択してもよい。目的は、例えば対象者によって指定される。 Furthermore, the processor 26 of the information processing device 10 may select specific information to be transmitted to the terminal device 18 of the subject based on the subject's purpose (for example, avoiding a crisis). The purpose is specified by the subject, for example.

例えば、自動車が暴走している場合において、ある人が端末装置18を用いて、その暴走している自動車に関する情報を情報処理装置10に送信する指示を与えると、その自動車に関する情報(例えば、危険を示す情報を含む情報)が、端末装置18から情報処理装置10に送信される。その自動車に関する情報には、当該端末装置18の位置情報が含まれる。また、ある人が装着しているカメラによって、暴走している自動車が撮影された場合、自動車に関する情報には、その撮影された画像が含まれてもよい。情報処理装置10のプロセッサ26は、自動車に関する情報を受信すると、当該端末装置18の位置の周囲に設置されている定点カメラによって撮影された画像(例えば、より高い位置から撮影された画像)を当該定点カメラから取得し、その画像を対象者の端末装置18に送信する。対象者の端末装置18のディスプレイに、その画像が表示される。また、プロセッサ26は、危険を示す情報を、対象者の端末装置18に送信してもよい。対象者の端末装置18のディスプレイには、その危険を示す情報が表示される。また、複数の定点カメラが設置されている場合、プロセッサ26は、危険察知に最も有効な定点カメラによって撮影された画像を、対象者の端末装置18に送信してもよい。 For example, when a car is running out of control, if a person uses the terminal device 18 to instruct the information processing device 10 to send information about the car that is running out of control, information about the car (for example, dangerous (information including information indicating) is transmitted from the terminal device 18 to the information processing device 10. The information regarding the vehicle includes location information of the terminal device 18. Further, when a car running out of control is photographed by a camera worn by a certain person, the information regarding the car may include the photographed image. When the processor 26 of the information processing device 10 receives the information regarding the vehicle, the processor 26 of the information processing device 10 converts images taken by fixed-point cameras installed around the location of the terminal device 18 (for example, images taken from a higher position) to the relevant information. The image is acquired from a fixed point camera and transmitted to the terminal device 18 of the subject. The image is displayed on the display of the target person's terminal device 18. The processor 26 may also transmit information indicating the danger to the subject's terminal device 18. Information indicating the danger is displayed on the display of the target person's terminal device 18. Further, when a plurality of fixed point cameras are installed, the processor 26 may transmit an image taken by the fixed point camera most effective for detecting danger to the terminal device 18 of the subject.

また、プロセッサ26は、対象者の属性(例えば年齢や性別や病歴等)に応じて、特定の情報に含まれる情報を選択したり、特定の情報を加工したりして、特定の情報を対象者の端末装置18に送信してもよい。例えば、年齢によって視覚機能に差が生じ得るため(例えば、白内障や緑内障等が原因で視覚機能に差が生じ得るため)、プロセッサ26は、対象者の年齢に応じて、特定の情報に含まれる画像の鮮明さ等を調整してもよい。また、性別や年齢によって危機意識に差が生じ得るため、プロセッサ26は、対象者の性別や年齢に応じて、特定の情報に含まれる情報を選択してもよい。例えば、プロセッサ26は、対象者の性別や年齢に応じて、特定の情報に画像のみを含めてもよいし、特定の情報に文字列(例えば、危機を示す文字列)を含めてもよいし、特定の情報に画像と文字列の両方を含めてもよい。 Further, the processor 26 selects information included in specific information or processes specific information depending on the attributes of the target person (for example, age, gender, medical history, etc.), and targets specific information. The information may also be transmitted to the terminal device 18 of the user. For example, because differences in visual function may occur depending on age (e.g., differences in visual function may occur due to cataracts, glaucoma, etc.), processor 26 may determine whether certain information is included depending on the age of the subject. The clarity of the image, etc. may be adjusted. Furthermore, since there may be differences in sense of crisis depending on gender and age, the processor 26 may select information included in the specific information depending on the gender and age of the subject. For example, the processor 26 may include only an image in the specific information, or may include a character string (for example, a character string indicating a crisis) in the specific information, depending on the gender and age of the subject. , specific information may include both images and text strings.

<実施例10>
以下、実施例10について説明する。
<Example 10>
Example 10 will be described below.

例えば、生体情報測定装置12によって植物の生体情報が測定され、その測定された生体情報に基づいて機器16が操作されてもよい。測定される生体情報は、例えば、植物の電位(例えば膜電位等を含む電位)や水分量等である。もちろん、これら以外の情報が生体情報として測定されてもよい。 For example, biological information of a plant may be measured by the biological information measuring device 12, and the device 16 may be operated based on the measured biological information. The biological information to be measured is, for example, the potential of the plant (eg, potential including membrane potential), water content, etc. Of course, information other than these may be measured as biological information.

例えば、植物の生体情報が測定されている場合において、植物の付近にて音楽を流すことで、音楽を流していない場合と比べて、植物の成長が良くなった場合、情報処理装置10のプロセッサ26は、音楽を流しているときに測定された生体情報(例えば電位)が、植物から継続して測定されるように、音楽プレーヤー等の機器16から音楽が流れるように当該機器16を操作する。また、プロセッサ26は、植物に対する水や肥料の与え方を制御してもよい。例えば、プロセッサ26は、その生体情報が植物から継続して測定されるように、水や肥料を植物に与えてもよい。 For example, when biometric information of a plant is being measured, if playing music near the plant improves the growth of the plant compared to when no music is played, the processor of the information processing device 10 26 operates the device 16 such as a music player so that music is played from the device 16 so that biological information (for example, electric potential) measured while playing music is continuously measured from the plant. . The processor 26 may also control how water and fertilizer are given to plants. For example, processor 26 may provide water or fertilizer to the plant so that biometric information is continuously measured from the plant.

また、プロセッサ26は、植物から測定された生体情報に基づいて、当該植物の状態の変化を検知し、その変化に応じた情報(例えば画像や文字列等)を、端末装置18等の装置のディスプレイに表示させてもよい。プロセッサ26は、植物を擬人化して、その変化に応じた情報をディスプレイに表示させてもよい。 Further, the processor 26 detects a change in the state of the plant based on biological information measured from the plant, and transmits information (for example, an image, a character string, etc.) corresponding to the change to a device such as the terminal device 18. It may also be displayed on a display. The processor 26 may anthropomorphize the plant and display information corresponding to the change on the display.

プロセッサ26は、植物から測定された生体情報に基づいて、当該植物が病気を有しているか否かを判断し、その判断の結果を、端末装置18等の装置のディスプレイに表示させてもよい。 The processor 26 may determine whether or not the plant has a disease based on the biological information measured from the plant, and display the result of the determination on a display of a device such as the terminal device 18. .

また、生物の水分量は、時間に応じて変化し、その変化が生体電位に反映される。生体情報測定装置12によってその生体電位を測定され、情報処理装置10のプロセッサ26は、その測定された生体電位に基づいて、生物の行動や異常を検知してもよい。例えば、プロセッサ26は、異常が検知された場合、その異常を示す警告情報を端末装置18等の装置に送信してもよい。例えば、人の生体電位が測定され、その生体電位に基づいて当該人の異常が検知された場合、当該人の端末装置18に警告情報が送信され、当該端末装置18のディスプレイに警告情報が表示される。 Furthermore, the water content of living organisms changes over time, and this change is reflected in the biological potential. The biopotential of the living organism may be measured by the bioinformation measuring device 12, and the processor 26 of the information processing device 10 may detect the behavior or abnormality of the living creature based on the measured biopotential. For example, if an abnormality is detected, the processor 26 may transmit warning information indicating the abnormality to a device such as the terminal device 18. For example, when a person's biopotential is measured and an abnormality of the person is detected based on the biopotential, warning information is sent to the terminal device 18 of the person and the warning information is displayed on the display of the terminal device 18. be done.

また、一般的に、朝は、水分が人の全体に平均的に分布し、日中は、人が活動していると徐々に体の下方に水分が増える。その水分量の変化が生体電位に反映される。情報処理装置10のプロセッサ26は、人の各部位の生体電位を測定し、その生体電位の変化に基づいて、時間を測定してもよい。例えば、その生体電位の変化を、時計やタイマーとして用いてもよい。 In addition, in the morning, water is generally distributed evenly throughout a person, and during the day, when a person is active, water gradually increases in the lower part of the body. Changes in water content are reflected in biopotential. The processor 26 of the information processing device 10 may measure the biopotential of each part of the person and measure time based on changes in the biopotential. For example, changes in the biopotential may be used as a clock or timer.

また、情報処理装置10のプロセッサ26は、人以外の動物の生体情報(例えば脳波等)を測定し、その動物の状態(例えば病気)や、その動物がおかれている環境を推測してもよい。 The processor 26 of the information processing device 10 may also measure biological information (e.g., brain waves) of an animal other than a human and infer the state of the animal (e.g., illness) or the environment in which the animal is placed. good.

また、情報処理装置10のプロセッサ26は、生体情報測定装置12を装着している生物の種類を検知してもよい。 Further, the processor 26 of the information processing device 10 may detect the type of living creature wearing the biological information measuring device 12.

例えば、人と人以外の動物とでは、頭蓋骨の大きさが異なる。生体情報測定装置12が、当該生体情報測定装置12を頭部に装着するためのバンドを有し、そのバンドが頭部に巻き付けられることで生体情報測定装置12が頭部に装着される場合、プロセッサ26は、センサ等によってそのバンドの長さを検知し、そのバンドの長さに基づいて、生体情報測定装置12が装着されている動物の種類を検知してもよい。具体例を挙げて説明すると、人と犬とでは頭蓋骨の大きさが異なるため、それに応じてバンドの長さも異なる。プロセッサ26は、そのバンドの長さを検知し、生体情報測定装置12が装着されている生物が人であるか犬であるかを検知する。 For example, humans and non-human animals have different skull sizes. When the biometric information measuring device 12 has a band for attaching the biometric information measuring device 12 to the head, and the biometric information measuring device 12 is attached to the head by wrapping the band around the head, The processor 26 may detect the length of the band using a sensor or the like, and based on the length of the band, detect the type of animal to which the biological information measuring device 12 is attached. To give a specific example, the skull sizes of humans and dogs are different, so the length of the band is also different accordingly. The processor 26 detects the length of the band and detects whether the creature to which the biological information measuring device 12 is attached is a human or a dog.

別の例として、生体情報測定装置12が生物に耳に装着される装置である場合、プロセッサ26は、センサ等によって、生体情報測定装置12が装着されている耳の毛の長さを検知し、その毛の長さに基づいて、生体情報測定装置12が装着されている動物の種類を検知してもよい。 As another example, if the biological information measuring device 12 is a device worn on the ear of a living being, the processor 26 uses a sensor or the like to detect the length of the hair on the ear to which the biological information measuring device 12 is attached. The type of animal to which the biological information measuring device 12 is attached may be detected based on the length of its hair.

更に別の例として、生物の種類によって体温が異なるため、プロセッサ26は、生体情報測定装置12を装着している生物の体温を測定し、その体温に基づいて、当該生物の種類を特定してもよい。 As yet another example, since the body temperature differs depending on the type of living thing, the processor 26 measures the body temperature of the living creature wearing the biological information measuring device 12, and identifies the type of living creature based on the body temperature. Good too.

更に別の例として、生物の種類によって身長や体重が異なり、それに応じて抵抗値も異なるため、プロセッサ26は、その抵抗値に基づいて、生体情報測定装置12を装着している生物の種類を特定してもよい。 As yet another example, the height and weight of living things differ depending on the type of living being, and the resistance value also differs accordingly, so the processor 26 determines the type of living creature wearing the biological information measuring device 12 based on the resistance value. May be specified.

生物から測定された生体情報に、当該生物の種類(例えば、人、犬、植物等)が紐付けられてもよい。その紐付けは、生体情報測定装置12によって行われてもよいし、情報処理装置10によって行われてもよい。こうすることで、ある生体情報が、どのような生物から測定されたのかを特定することができる。上記のように、生体情報が測定される生物の種類が特定された場合、その特定された種類を示す情報が、生体情報に紐付けられてもよい。 The type of living organism (for example, human, dog, plant, etc.) may be linked to biological information measured from the living organism. The linking may be performed by the biological information measuring device 12 or the information processing device 10. By doing this, it is possible to specify what kind of organism a certain biological information was measured from. As described above, when the type of living organism whose biological information is measured is specified, information indicating the specified type may be linked to the biological information.

脳波等の生体情報を用いて動物同士で意思疎通が行われてもよい。例えば、人と人との間や、人と人以外の動物(例えば犬)との間で、生体情報を用いて意思疎通が行われてもよい。上記のように生体情報が測定される生物の種類が特定された場合、プロセッサ26は、その意思疎通における脳波の変換の方法等を変更してもよい。 Animals may communicate with each other using biological information such as brain waves. For example, biological information may be used to communicate between people or between people and non-human animals (for example, dogs). When the type of living organism whose biological information is to be measured is specified as described above, the processor 26 may change the method of converting brain waves during communication.

<実施例11>
以下、実施例11について説明する。実施例11では、生物に刺激が与えられ、情報処理装置10のプロセッサ26は、その刺激の内容を示す刺激情報と、当該生物から測定された生体情報とを紐付ける。紐付けられた刺激情報と生体情報は、例えば、情報処理装置10のメモリ24等に記憶される。複数の生体情報が紐付けられてもよい。例えば、脳波、脈拍、血圧、顔色、及び、体温等が、刺激情報に紐付けられてもよい。
<Example 11>
Example 11 will be described below. In Example 11, a stimulus is given to a living creature, and the processor 26 of the information processing device 10 links stimulus information indicating the content of the stimulus with biological information measured from the living creature. The linked stimulus information and biological information are stored in, for example, the memory 24 of the information processing device 10. A plurality of pieces of biometric information may be linked. For example, brain waves, pulse, blood pressure, complexion, body temperature, etc. may be linked to the stimulation information.

刺激は、例えば、静止画像や動画像等の画像や、環境や、味覚等である。例えば、喜怒哀楽を表す画像や、恐怖を感じる画像や環境、癒しを感じる画像や環境等が、刺激として与えられる。当該画像は、例えば、VR(Virtual Reality)等の仮想の画像である。もちろん、現実の物体を表す画像が用いられてもよい。刺激は、生体情報測定装置12に設けられている電極によって与えられる電気刺激であってもよい。 The stimulus is, for example, an image such as a still image or a moving image, an environment, a taste, or the like. For example, images that express joy, anger, sadness, or fear, images or environments that feel soothing, or the like are given as stimuli. The image is, for example, a virtual image such as VR (Virtual Reality). Of course, images representing real objects may also be used. The stimulation may be electrical stimulation provided by electrodes provided in the biological information measuring device 12.

例えば、人が画像を見ているときに、生体情報測定装置12によって当該人から生体情報(例えば脳波)が測定され、当該画像と当該生体情報とが紐付けられる。なお、測定される脳波は、左脳から発せられる脳波、右脳から発せられる脳波、又は、左右両方の脳波から発せられる脳波である。 For example, when a person is viewing an image, the biological information measuring device 12 measures biological information (for example, brain waves) from the person, and the image and the biological information are linked. Note that the brain waves to be measured are brain waves emitted from the left hemisphere, brain waves emitted from the right hemisphere, or brain waves emitted from both left and right brain waves.

また、プロセッサ26は、刺激が与えられたときに人が発した言葉(つまり音声情報)を、刺激情報と生体情報とに紐付けてもよい。更に、プロセッサ26は、当該人の動作を示す情報を、刺激情報と生体情報とに紐付けてもよい。 Furthermore, the processor 26 may link the words uttered by the person (that is, voice information) when the stimulus is applied to the stimulus information and the biological information. Furthermore, the processor 26 may link information indicating the person's movements to the stimulus information and biological information.

VR画像等の仮想の画像は、人の日常生活の中で撮影された背景を表す画像であってもよいし、VR画像と共に、周囲の音が再生されてもよい。 A virtual image such as a VR image may be an image representing a background photographed in a person's daily life, or surrounding sounds may be played along with the VR image.

また、VR画像として、生体情報が測定された人が今まで体験した事柄に応じた画像が用いられてもよい。事前に、当該人が今まで体験した事柄を調査してもよい(例えばアンケート)。 Further, as the VR image, an image corresponding to the experience of the person whose biological information is measured may be used. In advance, you may investigate what the person has experienced so far (for example, through a questionnaire).

プロセッサ26は、VR画像を見た人から測定された生体情報が大きく変化した場合、その変化した部分の生体情報を有効な生体情報として、刺激情報に紐付けてもよい。例えば、プロセッサ26は、生体情報の変化量が閾値以上となった場合、その部分の生体情報を有効な生体情報として刺激情報に紐付ける。 When the biometric information measured from the person who viewed the VR image changes significantly, the processor 26 may link the biometric information of the changed part to the stimulus information as valid biometric information. For example, when the amount of change in the biological information exceeds a threshold, the processor 26 associates that part of the biological information with the stimulation information as valid biological information.

刺激情報が人に与えられる順番が制御されてもよい。例えば、当該人が嫌いな視覚情報を当該人に与えた後、当該人が好きな聴覚情報や嗅覚情報や体感情報を当該人に与えてもよい。プロセッサ26は、そのときに測定された生体情報と、各刺激情報とを紐付けてもよい。 The order in which stimulus information is presented to a person may be controlled. For example, after giving the person visual information that the person does not like, auditory information, olfactory information, or sensory information that the person likes may be given to the person. The processor 26 may link the biological information measured at that time with each stimulus information.

プロセッサ26は、測定される生体情報の変化に応じて、人に与えられる刺激情報を変えてもよい。 The processor 26 may change the stimulation information given to the person according to changes in the measured biological information.

例えば、図40は、モンスター状の生物を含むVR画像を視聴している人物の脳波を示している。図40に示されるように、モンスター状の生物が現れる前の緊張状態と、モンスター状の生物が現れた時の驚きの心理状態との間で、脳波の変化が認められる。プロセッサ26は、このような変化を検知してそれに応じて刺激情報を変えてもよい。 For example, FIG. 40 shows the brain waves of a person viewing a VR image containing a monster-like creature. As shown in FIG. 40, changes in brain waves are observed between the tense state before the monster-like creature appears and the surprised psychological state when the monster-like creature appears. Processor 26 may detect such changes and change the stimulus information accordingly.

また、プロセッサ26は、VR画像の再生速度を変えてもよいし、VR画像の視点を変えてもよいし、VR画像の色合いを変えてもよいし、VR画像の画質や焦点を変えてもよい。 Further, the processor 26 may change the playback speed of the VR image, change the viewpoint of the VR image, change the color tone of the VR image, or change the image quality or focus of the VR image. good.

紐付けられた刺激情報と生体情報は、デジタルマーケティング(例えば、映像制作、アトラクション、機器等の商品等)や、デジタルヘルスケア(例えば、日々の生活を記録してストレスやリフレッシュの度合いの割合から生活を評価するサービス等)に活用されてもよい。 The linked stimulus information and biometric information can be used for digital marketing (e.g. video production, attractions, products such as equipment, etc.) and digital healthcare (e.g. recording daily life to determine the rate of stress and refreshment. It may also be used for services that evaluate daily life, etc.).

<実施例12>
生体情報測定装置12は、複数の人等によって共用されてもよい。例えば、人Aが生体情報測定装置12を用いた後、別の人である人Bが、当該人Aが使用していた当該生体情報測定装置12を用いてもよい。
<Example 12>
The biological information measuring device 12 may be shared by a plurality of people. For example, after person A uses the biological information measuring device 12, another person, person B, may use the biological information measuring device 12 that the person A was using.

例えば、接触型の生体情報測定装置12(つまり、電極やセンサが人等の生物に接触して生体情報を測定する装置)は、当該生体情報測定装置12を装着している生物(例えば人)が変わった場合に、その旨を示す情報や洗浄を促す情報を出力してもよい。情報を出力することは、例えば、ディスプレイに当該情報を表示すること、スピーカから当該情報を音声として発すること、又は、その両方である。 For example, a contact-type biological information measuring device 12 (that is, a device that measures biological information by having an electrode or a sensor come into contact with a living thing such as a human being) is a biological information measuring device 12 that is attached to a living creature (for example, a human being). If the water has changed, information indicating the change or information prompting cleaning may be output. Outputting information means, for example, displaying the information on a display, emitting the information as audio from a speaker, or both.

例えば、生体情報測定装置12にマイクが設けられている場合、生体情報測定装置12は、そのマイクから入力される人の声に基づいて、当該生体情報測定装置12を用いる人を認識することで、当該生体情報測定装置12を用いる人が変わったか否かを判断する。生体情報測定装置12は、当該生体情報測定装置12を用いる人が、端末装置18等に設けられているカメラによって撮影され、その撮影によって生成された画像に基づいて当該人を認識してもよい。 For example, if the biological information measuring device 12 is provided with a microphone, the biological information measuring device 12 can recognize the person using the biological information measuring device 12 based on the person's voice input from the microphone. , it is determined whether the person using the biological information measuring device 12 has changed. The biological information measuring device 12 may be photographed by a camera provided in the terminal device 18 or the like, and the person using the biological information measuring device 12 may be recognized based on the image generated by the photographing. .

別の例として、生体情報測定装置12を用いる人のアカウントが、情報処理装置10や生体情報測定装置12や端末装置18やサーバ等によって管理されており、そのアカウントが別のアカウントに切り替えられた場合、生体情報測定装置12は、当該生体情報測定装置12を用いる人が変わったと判断してもよい。 As another example, the account of the person using the biological information measuring device 12 is managed by the information processing device 10, the biological information measuring device 12, the terminal device 18, the server, etc., and the account is switched to another account. In this case, the biological information measuring device 12 may determine that the person using the biological information measuring device 12 has changed.

生体情報測定装置12を用いる人が変わった旨を示す情報を出力することで、当該生体情報測定装置12を用いる人は、当該生体情報測定装置12が別の人によって用いられていたことを認識することができる。これにより、例えば、当該生体情報測定装置12を新たに使用する人は、当該生体情報測定装置12の洗浄が必要であることを認識することができる。洗浄を促す情報が出力される場合も同様である。 By outputting information indicating that the person using the biological information measuring device 12 has changed, the person using the biological information measuring device 12 can recognize that the biological information measuring device 12 has been used by another person. can do. Thereby, for example, a person who newly uses the biological information measuring device 12 can recognize that the biological information measuring device 12 needs to be cleaned. The same applies when information prompting cleaning is output.

また、生体情報測定装置12が洗浄されたことを検知するセンサ等が用いられてもよい。例えば、生体情報を測定する電極やセンサがアルコール洗浄されたことを検知するセンサ(例えばアルコールを検知するセンサ)が用いられ、電極やセンサがアルコール洗浄されていない状態で、生体情報測定装置12が使用されようとしている場合(例えば生体情報測定装置12の電源がオンにされた場合)、生体情報測定装置12は、生体情報測定装置12が洗浄されていないことを示す情報を出力する。また、生体情報測定装置12は、当該生体情報測定装置12の電源をオンにしなくてもよい。電極やセンサがアルコール洗浄されている状態で、生体情報測定装置12が使用されようとしている場合、生体情報測定装置12は、当該生体情報測定装置12が洗浄されていることを示す情報を出力してもよいし、そのような情報を出力しなくてもよい。 Further, a sensor or the like that detects that the biological information measuring device 12 has been cleaned may be used. For example, a sensor (for example, a sensor that detects alcohol) that detects that an electrode or sensor for measuring biological information has been cleaned with alcohol is used, and the biological information measuring device 12 is used when the electrode or sensor is not cleaned with alcohol. When the biological information measuring device 12 is about to be used (for example, when the biological information measuring device 12 is turned on), the biological information measuring device 12 outputs information indicating that the biological information measuring device 12 has not been cleaned. Further, the biological information measuring device 12 does not need to turn on the power of the biological information measuring device 12. When the biological information measuring device 12 is about to be used with the electrodes and sensors cleaned with alcohol, the biological information measuring device 12 outputs information indicating that the biological information measuring device 12 has been cleaned. It is also possible to output such information.

<実施例13>
以下、図24を参照して、実施例13について説明する。図24には、画面38Aが示されている。画面38Aは、実施例3に係る画面と同じ画面である(図12参照)。
<Example 13>
Example 13 will be described below with reference to FIG. 24. FIG. 24 shows a screen 38A. The screen 38A is the same screen as the screen according to the third embodiment (see FIG. 12).

実施例13では、感情や意思や精神状態や心理状態等を表す情報(例えば、バーを表す画像や数値等)が表示される。感情や意思や精神状態や心理状態は、プロセッサ26によって、ユーザの生体情報に基づいて推定される。例えば、ユーザの集中度やリラックスの程度やストレスの程度等を表すバーが表示されたり、それらを表す数値が表示されたりする。全ユーザについてのバーや数値が表示されてもよいし、管理者等によって指定されたユーザについてのバーや数値が表示されてもよい。 In the thirteenth embodiment, information representing emotions, intentions, mental states, psychological states, etc. (for example, images representing bars, numerical values, etc.) is displayed. Emotions, intentions, mental states, and psychological states are estimated by the processor 26 based on the user's biological information. For example, a bar representing the user's concentration level, relaxation level, stress level, etc., or numerical values representing these values may be displayed. Bars and numerical values for all users may be displayed, or bars and numerical values for users specified by an administrator or the like may be displayed.

一例として、朝、昼、夕方にホワイトパズルを完成させるメンタルタスクを行っている人物の脳波を図41に示す。ベータ波とガンマ波が存在する時間は夕方に向かって短くなり、集中による疲労の程度を特徴づけることが分かった。 As an example, FIG. 41 shows the brain waves of a person who performs the mental task of completing a white puzzle in the morning, afternoon, and evening. It was found that the length of time that beta waves and gamma waves exist becomes shorter toward the evening, which characterizes the degree of fatigue caused by concentration.

他の例として、頭部マッサージを受けている人物の脳波を図42に示す。図42を見ると、シータ波帯域の上昇が見られ、その後、意識がなくなりまどろんでいる状態に入るにつれてアルファ波帯域の上昇が見られ、リラクゼーション効果の度合いが見て取られる。 As another example, FIG. 42 shows the brain waves of a person receiving a head massage. Looking at FIG. 42, an increase in the theta wave band is seen, and then, as the person loses consciousness and enters a slumbering state, an increase in the alpha wave band is seen, indicating the degree of relaxation effect.

また、他の例として、音楽を視聴したり、サプリメントを服用したりした人物の脳波を図43に示す。脳波の測定は、(a)通常の開眼時、(b)開眼して音楽のみを聴く場合、(c)開眼してサプリメントのみを服用する場合、(d)開眼して音楽を聴きかつサプリメントを服用する場合、のそれぞれについて眼を開いた状態で4分間行った。使用する楽曲の種類は963Hzであった。サプリメントは、CBDを5滴(25mg)服用してから3分後に行われた測定に基づく。また、各脳波範囲の周波数範囲について、高速フーリエ変換を毎秒行った。(b)、(c)、(d)では、アルファ波帯域のFFT強度が増加し、(d)で最大の増加が認められ、9.67Hz帯において通常時(a)と比べて43%増加した。 As another example, FIG. 43 shows the brain waves of a person who listened to music or took supplements. EEG measurements were performed in the following conditions: (a) normal eyes open, (b) eyes open and only listening to music, (c) eyes open and taking only supplements, and (d) eyes open, listening to music and taking supplements. Each dose was administered for 4 minutes with the eyes open. The type of music used was 963Hz. The supplement is based on measurements taken 3 minutes after taking 5 drops (25mg) of CBD. In addition, fast Fourier transform was performed every second for the frequency range of each electroencephalogram range. In (b), (c), and (d), the FFT intensity in the alpha wave band increases, and the maximum increase is observed in (d), which is a 43% increase in the 9.67 Hz band compared to normal (a). did.

別の例として、入眠時と入眠後睡眠のステージが進行した時との脳波の差が、図44に示されている。睡眠が始まると、シータ波が現れ始める。睡眠のステージが進むにつれて、紡錘波が現れ始める。これにより、脳波の種類により睡眠の深さを特徴づけることができ、入眠時からの経過時間を推定することができる。 As another example, FIG. 44 shows the difference in brain waves between when a person falls asleep and when the sleep stage progresses after falling asleep. When sleep begins, theta waves begin to appear. As sleep stages progress, spindle waves begin to appear. As a result, the depth of sleep can be characterized by the type of brain waves, and the time elapsed since falling asleep can be estimated.

別の例として、排泄の欲求又はかゆみの感触などのユーザの生理学的事象を検出することができる。図45は、ユーザがかゆみを感じた場合の脳波の変化を示す図である。 As another example, a user's physiological event, such as a desire to defecate or the sensation of itching, can be detected. FIG. 45 is a diagram showing changes in brain waves when the user feels itching.

このような脳波の特性は、バーや値に変換してユーザに表示させるようにしてもよい。これにより、ユーザの心理状態を視覚化することができる。 Such brain wave characteristics may be converted into bars or values and displayed to the user. This allows the user's psychological state to be visualized.

図24に示す例では、ユーザC1の精神状態等を表すバーや数値が表示されている。バー120は、ユーザC1のリラックスの程度を表す画像である。バー122は、ユーザC1のストレスの程度を表す画像である。リラックスの程度は「100」であり、ストレスの程度は「30」である。これらの数値は、ユーザC1の生体情報に基づいてプロセッサ26によって算出される。 In the example shown in FIG. 24, bars and numerical values representing the mental state and the like of the user C1 are displayed. Bar 120 is an image representing the degree of relaxation of user C1. The bar 122 is an image representing the degree of stress of the user C1. The degree of relaxation is "100" and the degree of stress is "30". These numerical values are calculated by the processor 26 based on the biometric information of the user C1.

また、プロセッサ26は、ユーザの状態(例えば感情や意思や精神状態や心理状態等)に寄与した事象を特定し、その事象がユーザの状態に寄与した程度を算出してもよい。例えば、プロセッサ26は、ストレスやそのストレスからの回復に寄与した事象を特定し、その寄与の程度を示す情報を画面38Aに表示してもよい。こうすることで、どのような事象がどの程度ユーザの状態に影響を与えたのかがユーザにとって分かり易い。例えば、プロセッサ26は、各種のセンサ等によって事象の発生を検出し、ユーザの生体情報に基づいて、その事象が発生したときのユーザの状態の変化や、その事象の発生の前後のユーザの状態を推定する。プロセッサ26は、例えば、ユーザの状態の変化に基づいて、その事象がユーザの状態に寄与した程度を推定する。 Further, the processor 26 may identify an event that contributed to the user's state (for example, emotion, intention, mental state, psychological state, etc.) and calculate the extent to which the event contributed to the user's state. For example, the processor 26 may identify stress or an event that contributed to recovery from the stress, and display information indicating the extent of that contribution on the screen 38A. This makes it easy for the user to understand what kind of event has affected the user's condition and to what extent. For example, the processor 26 detects the occurrence of an event using various sensors, etc., and based on the user's biological information, the processor 26 detects a change in the state of the user when the event occurs, and the state of the user before and after the occurrence of the event. Estimate. Processor 26 estimates the extent to which the event contributed to the user's state, for example, based on the change in the user's state.

また、プロセッサ26は、事象の発生、事象の発生の前後のユーザの生体情報、ユーザの生体情報の変化、事象の発生の前後のユーザの状態、及び、ユーザの状態の変化等に関する履歴を示す履歴情報をメモリ24に記憶させてもよい。プロセッサ26は、その履歴情報が示す履歴に基づいて、過去の事象を再現してもよい。例えば、プロセッサ26は、ユーザがリラックスした時点の前後の事象を記録し、その時と同じ状況を再現してもよい。例えば、そのリラックスの目標値が指定され、プロセッサ26は、その目標値が得られる状況を再現する。プロセッサ26は、音楽の再生、画像等の表示、及び、人に対する動作指示等を組み合わせることで、その状況を再現してもよい。プロセッサ26は、ユーザの脳波の状態を取得し、脳波の状態を分類し、勤怠時間(例えば睡眠時間を除く時間)に紐付けて履歴を記録してもよい。なお、プロセッサ26は、リラックス等の状態を示す数値やバーを、仮想カメラによって会議の画像に挟み込むように表示してもよい。 Further, the processor 26 indicates a history regarding the occurrence of an event, the user's biometric information before and after the event, changes in the user's biometric information, the user's state before and after the event, and changes in the user's state. History information may be stored in the memory 24. The processor 26 may reproduce past events based on the history indicated by the history information. For example, processor 26 may record events before and after the user relaxes and recreate the same situation at that time. For example, a target value for relaxation is specified, and processor 26 reproduces a situation in which the target value is obtained. The processor 26 may reproduce the situation by a combination of playing music, displaying images, etc., and giving action instructions to the person. The processor 26 may acquire the state of the user's brain waves, classify the state of the brain waves, and record the history in association with work hours (for example, time excluding sleeping time). Note that the processor 26 may display a numerical value or a bar indicating a state of relaxation or the like by inserting it into the image of the meeting using a virtual camera.

<実施例14>
以下、図25及び図26を参照して、実施例14について説明する。図25には、図17と同様に、ユーザA,B,Cのそれぞれを表す画像が示されている。また、各ユーザの状態を示す情報(例えば脳波等)が、各ユーザに紐付けて表示されている。ここでは一例として、ユーザA,B,Cが同じオンライン会議に参加しているものとする。
<Example 14>
Embodiment 14 will be described below with reference to FIGS. 25 and 26. Similar to FIG. 17, FIG. 25 shows images representing each of users A, B, and C. Furthermore, information indicating the state of each user (eg, brain waves, etc.) is displayed in association with each user. Here, as an example, assume that users A, B, and C are participating in the same online conference.

例えば、プロセッサ26は、オンライン会議に参加している全ユーザ、又は、予め定められた人数以上の数のユーザが、同じ状態(例えば、同じ感情や意思や精神状態や心理状態)を有する場合、その同じ状態を有するユーザの画像の枠を、特定の色(例えば赤色等)で表示したり、特定の装飾を施したりしてもよい。ユーザの状態は、ユーザの生体情報に基づいて推定される。 For example, if all users participating in the online conference or a predetermined number of users or more have the same state (for example, the same emotion, intention, mental state, or psychological state), The frame of the image of the user in the same state may be displayed in a specific color (for example, red, etc.) or may be decorated with a specific decoration. The user's condition is estimated based on the user's biometric information.

例えば、ユーザA,B,Cが同じ状態(例えば覚醒状態)を有する場合、図26に示すように、プロセッサ26は、ユーザA,B,Cの画像を囲む全体の枠を、特定の色で表示したり、特定の装飾(例えば太枠)を施したりする。こうすることで、ユーザA,B,Cが同じ状態を有していることを示すことができる。例えば、オンライン会議に参加している全ユーザの状態が覚醒状態にある場合、このような表示や装飾を施すことで、会議のモードが熱血モードであることが示される。 For example, if users A, B, and C have the same state (e.g., awake state), the processor 26 colors the entire frame surrounding the images of users A, B, and C in a specific color, as shown in FIG. Display or add a specific decoration (for example, a thick border). By doing so, it can be shown that users A, B, and C have the same status. For example, when all users participating in an online conference are in the awake state, such display or decoration indicates that the conference mode is hot-blooded mode.

実施例14のように、会議に参加している複数のユーザの状態をまとめて表現する情報が表示されてもよい。 As in the fourteenth embodiment, information that collectively represents the status of multiple users participating in the conference may be displayed.

<実施例15>
以下、実施例15について説明する。
<Example 15>
Example 15 will be described below.

生体情報測定装置12から他の装置(例えば情報処理装置10)に送信されるデータは、生体情報のRawデータではなく、FFT等の処理を適用することで生成されたデータであってもよい。こうすることで、Rawデータに含まれるがFFT等の処理後のデータには含まれない情報が漏洩することが抑制される。 The data transmitted from the biological information measurement device 12 to another device (for example, the information processing device 10) may be data generated by applying processing such as FFT instead of raw data of the biological information. By doing so, leakage of information that is included in the raw data but not included in the data after processing such as FFT is suppressed.

また、測定された生体情報の項目を示す情報(例えば、チャンネルや部位を示す情報)が、生体情報測定装置12にて暗号化されて生体情報測定装置12から他の装置(例えば情報処理装置10)に送信されてもよい。こうすることで、送信された生体情報が、どのような項目の生体情報であるのかが分かり難くなるので、生体情報のセキュリティが向上する。 Additionally, information indicating items of measured biological information (for example, information indicating channels and parts) is encrypted in the biological information measuring device 12 and transferred from the biological information measuring device 12 to other devices (for example, information processing device 10). ) may be sent. By doing so, it becomes difficult to understand what type of biometric information the transmitted biometric information belongs to, thereby improving the security of the biometric information.

また、測定された生体情報や、生体情報から得られた情報を、ユーザに貸し出しする場合や販売する場合、プロセッサ26は、その生体情報の利用を制限してもよい。その制限の内容は、例えば、予め定められた期間が経過した場合にその情報を削除するという内容や、その情報を提供元に返却するという内容等である。また、その情報の利用が許可される場所や、その利用の目的等が定められてもよい。 Further, when the measured biometric information or information obtained from the biometric information is rented or sold to a user, the processor 26 may restrict the use of the biometric information. The restrictions include, for example, the information will be deleted after a predetermined period has elapsed, or the information will be returned to the provider. Further, the location where the information is permitted to be used, the purpose of its use, etc. may be determined.

<実施例16>
以下、実施例16について説明する。
<Example 16>
Example 16 will be described below.

実施例16では、音声を発するAIアシスタント(つまり人工知能アシスタント)が用いられる。例えば、AIアシスタントは、ユーザの生体情報やユーザの指示に従って、処理を実行したり、機器を操作したりする。AIアシスタントは、例えば、ユーザの端末装置に搭載されてもよいし、端末装置以外の機器に搭載されてもよいし、情報処理装置10やサーバ等に搭載されてもよい。 In the sixteenth embodiment, an AI assistant (that is, an artificial intelligence assistant) that emits voice is used. For example, an AI assistant executes processing or operates equipment according to the user's biometric information or user instructions. The AI assistant may be installed, for example, in a user's terminal device, in a device other than the terminal device, or in the information processing device 10, a server, or the like.

例えば、プロセッサ26は、ユーザの生体情報に応じて、AIアシスタントから発せられる音声の大きさや、AIアシスタントが話す速さを変えてもよい。 For example, the processor 26 may change the volume of the voice emitted from the AI assistant or the speed at which the AI assistant speaks depending on the user's biometric information.

具体的には、ユーザの生体情報が、ユーザがリラックスしたいという要求を表している場合、プロセッサ26は、AIアシスタントから発せられる音声を、そのユーザが好きな音声(例えば、高音、低音、話す速さ等)に変更したり、そのユーザの家族の音声に変更したりする。 Specifically, if the user's biometric information indicates that the user wants to relax, the processor 26 adjusts the voice emitted from the AI assistant to the user's preferred voice (e.g., high pitch, low pitch, speaking speed). etc.) or change it to the voice of the user's family.

また、ユーザの生体情報が、ユーザが急いでいることを表している場合、プロセッサ26は、AIアシスタントが話す速さを速くしたり、AIアシスタントに素早く音声を出力させたりする。 Further, if the user's biometric information indicates that the user is in a hurry, the processor 26 increases the speed at which the AI assistant speaks or causes the AI assistant to quickly output voice.

また、AIアシスタントが発する音声によってユーザが学習する場合、プロセッサ26は、当該ユーザにとって学習効果の高い会話スピードや大きさで音声を発するようにAIアシスタントを制御してもよい。ユーザの学習効果はユーザの生体情報に基づいて推定される。例えば、プロセッサ26は、ユーザの生体情報に基づいて、AIアシスタントの会話スピードや大きさを変更する。 Furthermore, when a user learns using sounds emitted by the AI assistant, the processor 26 may control the AI assistant to emit sounds at a conversation speed and volume that are highly effective for learning for the user. The user's learning effect is estimated based on the user's biometric information. For example, the processor 26 changes the AI assistant's conversation speed and volume based on the user's biometric information.

また、ユーザがオンライン会議や電話会議等に参加している場合、プロセッサ26は、当該ユーザの相手の状態を当該相手の生体情報に基づいて推定し、その推定の結果に基づいて、その相手にユーザの発した音声が伝わりやすい態様で、ユーザが発した音声を変更してもよい。例えば、ユーザが怒っていて、相手が恐怖する音声をユーザが発している場合、プロセッサ26は、そのユーザの音声をマイルドな音声に変えたり、音声を相手に伝えずに、ユーザが発した内容を図形や文章等によって表現したりしてもよい。このような処理が、AIアシスタントによって実行されてもよい。 Further, when the user is participating in an online conference, a telephone conference, etc., the processor 26 estimates the state of the user's other party based on the other party's biometric information, and based on the result of the estimation, the processor 26 The voice uttered by the user may be changed in a manner that makes it easier to convey the voice uttered by the user. For example, if the user is angry and the user is making a sound that the other party is afraid of, the processor 26 may change the user's voice to a milder sound, or may change the user's voice to the other party without transmitting the sound to the other party. may be expressed using figures, text, etc. Such processing may be performed by an AI assistant.

また、オンライン会議等において、あるユーザ(例えば第1ユーザ)が生体情報測定装置12を装着しており、その相手の他のユーザ(例えば第2ユーザ)が生体情報測定装置12を装着していない場合がある。この場合、第1ユーザの生体情報が取得され、第2ユーザの生体情報は取得されない。このような場合であっても、第1ユーザは、画面を通じて第2ユーザの表情を認識することができる場合、第2ユーザの表情の変化や音声等によって、第1ユーザの生体情報が変化することがある。このように第1ユーザの生体情報に変化が発生した場合、プロセッサ26は、第2ユーザに起因して第1ユーザの生体情報に変化が発生したと判断する。プロセッサ26は、その判断に基づいて、第2ユーザの状態(例えば感情や精神状態や心理状態)を推定してもよい。例えば、第2ユーザの顔の表情が苦しそうな表情である場合、その顔を見た第1ユーザは、申し訳なさそうな感情を有することがあり得るため、プロセッサ26は、その第1ユーザの生体情報に基づいて、第2ユーザの状態を推測する。また、AIアシスタントは、そのような状態を有する第2ユーザに対してどのような接し方で接するべきであるのかを第1ユーザに伝えてもよい。 Further, in an online conference or the like, a certain user (for example, the first user) is wearing the biological information measuring device 12, and another user (for example, the second user) is not wearing the biological information measuring device 12. There are cases. In this case, the first user's biometric information is acquired, but the second user's biometric information is not acquired. Even in such a case, if the first user can recognize the second user's facial expression through the screen, the first user's biological information may change due to changes in the second user's facial expression, voice, etc. Sometimes. When a change occurs in the first user's biometric information in this way, the processor 26 determines that the first user's biometric information changes due to the second user. The processor 26 may estimate the second user's state (for example, emotion, mental state, or psychological state) based on the judgment. For example, if the second user's facial expression is a pained expression, the first user who sees the face may feel apologetic. The second user's condition is estimated based on the biometric information. The AI assistant may also tell the first user how to interact with the second user who has such a condition.

また、アニメーションのキャラクターに音声を付ける場合や、ドラマや映画に吹き替えの音声を付ける場合、音声を決定する権限を有するユーザが、そのキャラクターや俳優に仮付けされた声優の音声を聞き、プロセッサ26は、そのユーザの生体情報に基づいて、正式な声優を決定してもよい。例えば、納得を表す生体情報がそのユーザから得られた場合、プロセッサ26は、その音声を発した声優を正式な声優として決定する。違和感や不快感を表す生体情報がそのユーザから得られた場合、プロセッサ26は、別の声優をユーザに案内してもよい。 In addition, when adding voices to animated characters or dubbing voices to dramas and movies, a user who has the authority to determine the voices listens to the voice of the voice actor temporarily attached to the character or actor, and the processor 2 may determine the official voice actor based on the user's biometric information. For example, if biometric information indicating approval is obtained from the user, processor 26 determines the voice actor who uttered the voice as the official voice actor. If biometric information indicating discomfort or discomfort is obtained from the user, processor 26 may direct the user to another voice actor.

<実施例17>
以下、実施例17について説明する。
<Example 17>
Example 17 will be described below.

本実施形態は、ゲーム等のコンテンツサービスに適用されてもよい。例えば、ゲームは、ユーザの端末装置を介してユーザに提供されてもよいし、その他の機器(例えばゲーム機器)を介してユーザに提供されてもよい。ゲームは、オンラインゲームであってもよいし、端末装置やゲーム機器にインストールされているプログラムが実行されることで提供されるゲームであってもよい。また、ゲームのプログラムが記憶された記録媒体が用いられ、端末装置やゲーム機器がそのプログラムを実行することでゲームが提供されてもよい。 This embodiment may be applied to content services such as games. For example, the game may be provided to the user via the user's terminal device, or may be provided to the user via another device (eg, a game device). The game may be an online game, or a game provided by executing a program installed on a terminal device or game device. Alternatively, a recording medium storing a game program may be used, and the game may be provided by a terminal device or a game device executing the program.

例えば、ユーザがゲームをしているときの当該ユーザの生体情報が生体情報測定装置12によって測定される。プロセッサ26は、その生体情報から得られるユーザの感情に応じて、ゲームの進行や、ゲームのシーンや、ゲームの音声や、画像の演出等を変更してもよい。 For example, the biometric information measuring device 12 measures the biometric information of the user while the user is playing a game. The processor 26 may change the progress of the game, the scenes of the game, the sound of the game, the presentation of images, etc. in accordance with the user's emotions obtained from the biometric information.

例えば、怖いゲームや怖いことが苦手なユーザに対しては、予め定められたレベル以上の怖いという感情を表す生体情報が測定された場合、プロセッサ26は、暴力シーンを省略したり、ゲームの音声を小さくしたり、演出を簡素なものに変更したり、表現を易しい表現に変更したりする。 For example, for a user who is not good at scary games or things that are scary, if biometric information indicating the emotion of fear at a predetermined level or higher is measured, the processor 26 may omit violent scenes or Make it smaller, change the presentation to something simpler, or change the expression to something easier.

一方で、より怖いシーンが好きなユーザに対しては、予め定められたレベル以上の怖いという感情を表す生体情報が測定されない場合、プロセッサ26は、より暴力的なシーンやより怖い演出が強調されたシーンが出現するように、ゲームの演出を変更してもよい。 On the other hand, for a user who likes scarier scenes, if biometric information indicating the feeling of fear at a predetermined level or higher is not measured, the processor 26 may emphasize more violent scenes or scarier effects. The presentation of the game may be changed so that a scene appears.

なお、ユーザの嗜好性は、ゲームを開始する前に設定される。また、プロセッサ26は、ユーザの持病や年齢的な負荷に応じて、生体情報と連動してゲームの演出を変更してもよい。また、プロセッサ26は、教育上の理由によって演出を変更してもよい。 Note that the user's preferences are set before starting the game. Further, the processor 26 may change the presentation of the game in conjunction with the biometric information depending on the user's chronic illness or age-related burden. Processor 26 may also change the presentation for educational reasons.

プロセッサ26は、予め定められた期間毎に、ユーザの生体情報に基づいてユーザの状態を判定してもよい。これにより、リアルタイムにシーンを変更して、ユーザが不快感や違和感を有さずにゲームを進行することができる。なお、ゲームのストーリの都合で変更できないシーンが設定されてもよい。 The processor 26 may determine the user's condition based on the user's biometric information at predetermined intervals. Thereby, the scene can be changed in real time and the user can proceed with the game without feeling uncomfortable or strange. Note that a scene may be set that cannot be changed due to the story of the game.

また、ゲームが難しいという感情や簡単であるという感情が検出された場合、プロセッサ26は、その感情に応じてゲームの難易度を変更してもよい。例えば、プロセッサ26は、ユーザの敵となるAIの行動レベルを上げたり下げたり、敵のキャラクターの数を増やしたり減らしたりしてもよい。また、推理ゲームが実行されている場合、プロセッサ26は、答えに辿り着くヒントの数を増やしたり減らしたりしてもよい。また、プロセッサ26は、ユーザが操作するキャラクターの攻撃力や防御力等のような設定値を上げたり下げたりしてもよい。 Further, if a feeling that the game is difficult or easy is detected, the processor 26 may change the difficulty level of the game depending on the feeling. For example, the processor 26 may increase or decrease the action level of the AI that is the user's enemy, or increase or decrease the number of enemy characters. Additionally, when a deduction game is being executed, processor 26 may increase or decrease the number of hints that lead to an answer. Furthermore, the processor 26 may increase or decrease set values such as the attack power and defense power of the character operated by the user.

プロセッサ26は、生体情報に基づく難易度の変更をユーザに通知してもよい。こうすることで、ユーザは、例えば、どのような難易度の設定でゲームをクリアすることができたのかを把握することができる。この場合、ゲームのプレイ時間と、そのプレイ時間中のユーザの感情の変化と、ゲームの難易度等が、グラフ等の図形によって表示されてもよい。 The processor 26 may notify the user of the change in difficulty level based on biometric information. By doing so, the user can understand, for example, what difficulty setting was used to clear the game. In this case, the play time of the game, changes in the user's emotions during the play time, the difficulty level of the game, etc. may be displayed in a graphic such as a graph.

また、ユーザがゲームを行うことでユーザが得たい状態が得られた場合、その状態を示す情報が、履歴情報として情報処理装置10のメモリ24に記憶されてもよい。プロセッサ26は、ユーザの状態が、ユーザが得たいその状態になるように、ゲームのシーンや難易度を変更してもよい。例えば、ストレスを解消して気分がすっきり爽快になりたいという目標の状態が情報処理装置10に設定された場合、プロセッサ26は、ユーザの状態がその目標の状態になるように、ゲームのシーンや難易度を変更してもよい。例えば、プロセッサ26は、ゲームのシーンを、爽やかな青空と平原を表すシーンに変更してもよい。別の例として、プロセッサ26は、ユーザが操作するキャラクターによって敵のキャラクターを簡単に倒せるように、敵のキャラクターを弱いキャラクターに変更してもよい。 Further, when the user obtains a desired state by playing the game, information indicating the state may be stored in the memory 24 of the information processing device 10 as history information. The processor 26 may change the scene or difficulty level of the game so that the user's state becomes the state that the user desires. For example, if a goal state of wanting to relieve stress and feel refreshed is set in the information processing device 10, the processor 26 sets the game scene or difficulty level so that the user's state becomes the goal state. You may change the degree. For example, the processor 26 may change the game scene to a scene depicting a refreshing blue sky and a plain. As another example, the processor 26 may change the enemy character to a weaker character so that the enemy character can be easily defeated by the user-controlled character.

<実施例18>
以下、実施例18について説明する。
<Example 18>
Example 18 will be described below.

実施例18では、生体情報測定装置12はヒアラブルデバイスであり、ユーザの耳に装着される。ヒアラブルデバイスは、音声アシスタント機能を有してもよい。音声アシスタント機能は、例えば、ユーザの生体情報に基づいてユーザを支援する機能である。音声アシスタント機能は、AIによって実現されてもよい。 In Example 18, the biological information measuring device 12 is a hearable device, and is worn in the user's ear. Hearable devices may have voice assistant functionality. The voice assistant function is, for example, a function that supports the user based on the user's biometric information. The voice assistant function may be realized by AI.

以下、実施例18に係る処理について説明する。 The processing according to the 18th embodiment will be described below.

まず、生体情報測定装置12の一例であるヒアラブルデバイスが、ユーザの耳(例えば外耳道)から生体情報(例えば、心電波形、脳波、筋電波形、皮膚電位等)を測定し、更に、ユーザの音声を測定する。ヒアラブルデバイスは、生体情報と音声情報とを時系列順に紐付けて記憶する。これらの情報は、ヒアラブルデバイスに記憶されてもよいし、ユーザの端末装置に記憶されてもよいし、情報処理装置10に記憶されてもよい。ここでは一例として、これらの情報が情報処理装置10に記憶されるものとする。 First, a hearable device, which is an example of the biological information measuring device 12, measures biological information (e.g., electrocardiographic waveform, brain wave, myoelectric waveform, skin potential, etc.) from the user's ear (e.g., external auditory canal), and Measuring the sound of Hearable devices store biometric information and voice information in a chronological order. This information may be stored in a hearable device, a user's terminal device, or the information processing device 10. Here, as an example, it is assumed that these pieces of information are stored in the information processing device 10.

情報処理装置10のプロセッサ26は、ユーザの生体情報に大きな揺らぎが発生したか否かを判断する。例えば、生体情報が脳波である場合、大きな揺らぎとは、てんかん性異常波のことであり、生体情報が心電波形である場合、大きな揺らぎとは、不整脈等のように心筋の異常を示す波形のことである。 The processor 26 of the information processing device 10 determines whether or not a large fluctuation has occurred in the user's biometric information. For example, when the biological information is brain waves, large fluctuations refer to epileptic abnormal waves, and when the biological information is electrocardiographic waveforms, large fluctuations refer to waveforms that indicate cardiac abnormalities such as arrhythmia. It is about.

プロセッサ26は、ユーザの生体情報に大きな揺らぎが発生したことを検知した場合、その大きな揺らぎが発生した時間、そのときにユーザがいる場所、及び、ユーザの状態を示す情報(以下、これらの情報を「コンテキスト情報」と称する)を記録する。プロセッサ26は、ノイズを除去して、その大きな揺らぎが、心身の刺激応答に起因するものであるか否かを判定してもよい。 When the processor 26 detects that a large fluctuation has occurred in the user's biometric information, the processor 26 collects information indicating the time when the large fluctuation occurred, the location where the user is at that time, and the state of the user (hereinafter, these information (referred to as “context information”). Processor 26 may remove noise and determine whether the large fluctuation is due to a mind-body stimulus response.

上記の大きな揺らぎ(つまり、心身の刺激応答の変化)が、危機的な状況である場合、プロセッサ26は、ヒアラブルデバイスの音声機能の制御を行う。危機的な状況とは、例えば、心疾患が発生している場合(例えば、生体情報である脈拍に基づいて不整脈が検知された場合)や、ユーザが転倒した場合(例えば、生体情報である筋電波形や加速度センサのデータに基づいて、ユーザの転倒が検知された場合)や、ユーザが嚥下した場合(例えば、生体情報である筋電波形に不規則な波形が含まれており、その不規則な波形に基づいて嚥下が発生している可能性があることが検知された場合)等である。 When the above-mentioned large fluctuations (ie, changes in the stimulus response of the mind and body) are a critical situation, the processor 26 takes control of the audio function of the hearable device. A critical situation is, for example, when a heart disease occurs (for example, when an arrhythmia is detected based on the pulse, which is biological information), or when the user falls (for example, when the user falls down) If the user's fall is detected based on radio waveforms or acceleration sensor data) or if the user swallows (for example, if the myoelectric waveform, which is biological information, contains irregular waveforms, (when it is detected that swallowing may be occurring based on a regular waveform), etc.

また、プロセッサ26は、上記のコンテキスト情報、生体情報及び音声情報を、予め定められた場所(例えば病院等)に設置された装置(例えばPC等)に送信する。このとき、プロセッサ26は、大きな揺らぎが発生した時点を含む前後の時間(例えば予め定められた長さの時間)に測定された、コンテキスト情報、生体情報及び音声情報を、当該装置に送信する。 Further, the processor 26 transmits the above-mentioned context information, biological information, and voice information to a device (eg, a PC, etc.) installed at a predetermined location (eg, a hospital, etc.). At this time, the processor 26 transmits to the device the context information, biological information, and audio information measured at a time (for example, a predetermined length of time) before and after the time when the large fluctuation occurs.

また、プロセッサ26は、上記のコンテキスト情報、生体情報及び音声情報に基づいて、ヒアラブルデバイスから発せられる音声を制御してもよい。例えば、プロセッサ26は、ヒアラブルデバイスにて再生されるコンテンツの再生速度を制御する。具体的には、プロセッサ26は、学習動画や電子書籍の読み上げ速度を変更する。また、プロセッサ26は、コンテンツの再生を停止してもよい。また、プロセッサ26は、ユーザの好みに合ったコンテンツ(例えば科目や漫画や音楽等)を再生してもよい。また、プロセッサ26は、オートコール機能を実行してもよい。ここでのオートコール機能は、予め指定された緊急連絡先(例えば、家族や掛かりつけの医者等)に電話やメッセージを自動的に通知する機能である。複数人に同時に電話やメッセージが通知されてもよいし、徐々に外部の人に電話やメッセージが通知されてもよい。また、プロセッサ26は、ユーザの病状の深刻度に応じて連絡先を変更してもよい。もちろん、ユーザ本人に通知されてもよい。 Furthermore, the processor 26 may control the sound emitted from the hearable device based on the above-mentioned context information, biological information, and sound information. For example, processor 26 controls the playback speed of content played on the hearable device. Specifically, the processor 26 changes the reading speed of the learning video or electronic book. Additionally, the processor 26 may stop playing the content. Additionally, the processor 26 may reproduce content (for example, subjects, comics, music, etc.) that matches the user's preferences. Processor 26 may also perform a call-to-call function. The auto-call function here is a function that automatically notifies pre-specified emergency contacts (for example, family members, family doctor, etc.) of a phone call or message. Multiple people may be notified of the call or message at the same time, or external people may be notified of the call or message gradually. Additionally, processor 26 may change the contact information depending on the severity of the user's medical condition. Of course, the user himself/herself may be notified.

上記の音声アシスタント機能は、ヒアラブルデバイス毎やユーザのアカウント毎に切り替えられてもよい。また、生体情報に基づいて音声アシスタント機能を実行するか否かを設定する機能が設けられてもよい。生体情報に基づかずに、ヒアラブルデバイスの音声アシスタント機能が実行されてもよい。また、生体情報に基づく音声アシスタント機能が適用される場面が、病気の兆候を診断する場面に限定されてもよいし、コンテンツサービスのような読み上げ機能に限定されてもよい。このような限定を設定するための機能が設けられてもよい。 The voice assistant function described above may be switched for each hearable device or for each user account. Further, a function for setting whether or not to execute the voice assistant function based on biometric information may be provided. The voice assistant function of a hearable device may be performed without being based on biometric information. Furthermore, the situations to which the voice assistant function based on biometric information is applied may be limited to situations in which signs of illness are diagnosed, or may be limited to a reading function such as a content service. A function for setting such limitations may be provided.

プロセッサ26は、上記のコンテキスト情報、生体情報及び音声情報を、音声アシスタント機能を実現するAIに学習させてもよい。 The processor 26 may cause the AI that implements the voice assistant function to learn the above context information, biological information, and voice information.

例えば、プロセッサ26は、ユーザがリラックスした状態で話しているときの音声情報を蓄積し、その音声情報をAIに学習させてもよい。例えば、音声合成や音声調整の技術を応用することで、AIは、生体反応に最適化されたボイスアシスタント音声を合成し、その音声を読み上げてもよい。 For example, the processor 26 may accumulate audio information when the user is speaking in a relaxed state, and cause the AI to learn the audio information. For example, by applying voice synthesis and voice adjustment techniques, AI may synthesize a voice assistant voice optimized for biological reactions and read out the voice.

別の例として、プロセッサ26は、ユーザがストレスを感じている状態で話しているときの音声情報を蓄積し、その音声情報をAIに学習させてもよい。例えば、音声合成や音声調整の技術を応用することで、AIは、ユーザが落ち着きを取り戻すための最適化されたボイスアシスタント音声を合成し、その音声を読み上げてもよい。 As another example, the processor 26 may accumulate audio information when the user is speaking under stress, and cause the AI to learn the audio information. For example, by applying voice synthesis and voice adjustment techniques, AI may synthesize an optimized voice assistant voice to calm the user and read it out loud.

更に別の例として、プロセッサ26は、ユーザが緊張しているときの音声情報を蓄積し、いつ、どこで、どのような状態で、ユーザが緊張したのかを、AIに学習させてもよい。例えば、音声合成や音声調整の技術を応用することで、AIは、ユーザが落ち着きを取り戻すための最適化されたボイスアシスタント音声を合成し、その音声を読み上げてもよい。 As yet another example, the processor 26 may accumulate voice information when the user is nervous, and cause the AI to learn when, where, and under what conditions the user becomes nervous. For example, by applying voice synthesis and voice adjustment techniques, AI may synthesize an optimized voice assistant voice to calm the user and read it out loud.

更に別の例として、プロセッサ26は、ユーザの音声をテキスト化し、そのテキスト化されたデータを、ユーザの喜怒哀楽を示す情報等と共に、時系列順に蓄積し、これらをAIに学習させてもよい。メモリに記憶させてもよい。なお、喜怒哀楽は、ユーザによって選択されてもよい。また、プロセッサ26は、ユーザの音声に応じて、テキスト化された文字の大小や色等を変更してもよい。音声合成や音声調整の技術を応用することで、AIは、ユーザが落ち着きを取り戻すための最適化されたボイスアシスタント音声を合成し、その音声を読み上げてもよい。 As yet another example, the processor 26 may convert the user's voice into text, store the text data together with information indicating the user's happiness, anger, sadness, etc. in chronological order, and have the AI learn these data. good. It may also be stored in memory. Note that the emotions may be selected by the user. Further, the processor 26 may change the size, color, etc. of the characters converted into text according to the user's voice. By applying voice synthesis and voice conditioning techniques, AI may synthesize an optimized voice assistant voice that calms the user and read it out loud.

例えば、プロセッサ26は、ユーザの端末装置(例えばスマートフォンやPC等)から得られるユーザの音声情報や、ユーザによって入力されたアイコンや文字や絵等情報と、ユーザから測定された生体情報とを紐付けて記録する。プロセッサ26は、ユーザの生体情報を、喜怒哀楽、ストレス、集中、リラックス、負荷、理解、習熟又は興味等の感情指標データに変換する。 For example, the processor 26 links the user's voice information obtained from the user's terminal device (e.g., smartphone, PC, etc.), information such as icons, characters, pictures, etc. input by the user, and biological information measured from the user. Attach and record. The processor 26 converts the user's biometric information into emotional index data such as happiness, anger, sadness, stress, concentration, relaxation, load, understanding, mastery, or interest.

例えば、精神活動状態を示すパラメータとして、皮膚電気活動(Electro Dermal Activity)が用いられてもよい。また、皮膚電位活動(SPA)の直流成分である皮膚電位水準(SPL)が用いられてもよい。SPLは、一般的に、覚醒水準が高いとき(つまり興奮しているとき)は陰性に高い値を示し、眠気を催しているときやリラックスしているときには陽性に高い値を示す。皮膚電位活動(SPA)の交流成分である皮膚電位反射(SPR)が用いられてもよい。痛覚、触覚、聴覚及び視覚に対する外部環境変化による刺激や、深呼吸や、身体の動きや、考え事等によってSPRが頻発する。 For example, electrodermal activity may be used as a parameter indicating the state of mental activity. Additionally, skin potential level (SPL), which is a direct current component of skin potential activity (SPA), may be used. SPL generally shows a negative high value when the arousal level is high (that is, when the person is excited), and a positive high value when the person is drowsy or relaxed. Potential skin reflex (SPR), which is the alternating current component of potential skin activity (SPA), may be used. SPR frequently occurs due to stimulation of pain, touch, hearing, and vision due to changes in the external environment, deep breathing, body movements, thoughts, etc.

プロセッサ26は、カメラやキーボード等のインターフェースから取得される、ユーザの状態を示す情報と共に、感情指標データが表す状態(例えば、喜怒哀楽、ストレス、集中、リラックス、負荷、理解、習熟、興味等)の程度と、その状態の種類を可視化して表示する。例えば、プロセッサ26は、その状態の程度や種類に応じて、表示色を変えたり、文字のフォントの種類や、文字の大きさを変更したりする。例えば、プロセッサ26は、既存のソフトウェアによって実現される読み上げ機能において、発話スタイル(例えば、喜び、怒り、悲しみ、恐れ、優しさ等)や、声の調子(例えば、強調、話す速さ、声の高さ、抑揚、音量等)を、刺激応答(例えば、リラックス、ストレス、緊張等)に応じて、変更してもよい。プロセッサ26は、ユーザの感情の程度に応じて、読み上げ機能の音声の大きさや速さを変更してもよい。 The processor 26 collects information indicating the state of the user obtained from an interface such as a camera or a keyboard, as well as the state represented by the emotional index data (e.g., happiness, anger, sadness, stress, concentration, relaxation, load, understanding, mastery, interest, etc.). ) and the type of condition. For example, the processor 26 changes the display color, the type of font of the characters, and the size of the characters depending on the degree and type of the state. For example, in a reading function implemented by existing software, the processor 26 may change the speech style (e.g., joy, anger, sadness, fear, kindness, etc.) and the tone of voice (e.g., emphasis, speaking speed, tone of voice, etc.). pitch, intonation, volume, etc.) may be changed depending on the stimulus response (e.g., relaxed, stressed, tense, etc.). The processor 26 may change the volume and speed of the voice of the reading function depending on the level of emotion of the user.

上記の各例は、例えば、電子書籍や、映画コンテンツ(例えばインターネット経由で配信されるコンテンツを含む)や、電子学習教材や、オンライン会議のツール等に適用されてもよい。 Each of the above examples may be applied to, for example, electronic books, movie content (including content distributed via the Internet, for example), electronic learning materials, online conference tools, and the like.

更に別の例として、文章や資料を作成するときに、ユーザの生体情報に応じて、文字や図の大きさや色を変える機能が実行される場合に、その機能が常に実行されると、文章や資料の統一性が無くなる可能性がある。したがって、プロセッサ26は、文章や資料中の特定の領域においては、生体情報に応じて文字や図の大きさや色を変更しなくてもよい。換言すると、プロセッサ26は、変更が許可された領域内の文字や図形の大きさや色を、ユーザの生体情報に応じて変更してもよい。 As another example, when creating texts or materials, if a function is executed to change the size or color of text or graphics depending on the user's biometric information, if that function is always executed, the text There is a possibility that the uniformity of information and materials may be lost. Therefore, the processor 26 does not need to change the size or color of characters or figures in a specific area of a text or document according to biometric information. In other words, the processor 26 may change the size and color of characters and graphics within the area that is permitted to be changed, depending on the user's biometric information.

また、読み上げ機能が実行されることで、文章や資料に記載された文字が読み上げられる場合に、プロセッサ26は、ユーザの生体情報に応じて、その読み上げ時の音声の大きさや速さを変更してもよい。また、読み上げ速度が、速すぎず遅すぎない範囲に制限されてもよい。 Furthermore, when the text-to-speech function is executed to read out the characters written in the text or materials, the processor 26 changes the volume and speed of the voice during the reading, depending on the user's biometric information. It's okay. Furthermore, the reading speed may be limited to a range that is neither too fast nor too slow.

なお、生体情報に基づいて感情や精神状態や心理状態を判定する処理に要する時間や、感情や精神状態や心理状態を測定するために要する時間は、感情や精神状態や心理状態の種類によって、ばらつくことがある。例えば、集中度やリラックス度の測定間隔は1秒であり、興味度、理解度、習熟度、活動負荷、感情の強さ及び創造性の測定間隔は1~5秒であり、快及び不快の測定間隔は5秒又は10秒である。もちろん、これらの時間は一例に過ぎず、生体情報測定装置12の性能等によって変わることはある。 The time required for processing to determine emotions, mental states, and psychological states based on biological information, and the time required to measure emotions, mental states, and psychological states, vary depending on the type of emotions, mental states, and psychological states. It may vary. For example, the measurement interval for concentration and relaxation is 1 second, the measurement interval for interest, understanding, mastery, activity load, emotional intensity, and creativity is 1 to 5 seconds, and the measurement interval for pleasure and discomfort is 1 second. The interval is 5 seconds or 10 seconds. Of course, these times are just examples, and may change depending on the performance of the biological information measuring device 12, etc.

上記のように時間にばらつきがある場合、プロセッサ26は、特定のモードにおいては、予め定められた全ての感情や精神状態や心理状態を判定せずに、予め定められた一部の感情や精神状態や心理状態を判定してもよいし、その判定を行う時間や場面を限定してもよい。例えば、ユーザが学習している場合、プロセッサ26は、ユーザの生体情報に基づいて学習効果のみを判定し、その学習効果以外の感情等を判定しなくてもよい。但し、ユーザの状態が特定の状態である場合(例えば、ユーザが基礎疾患等のような病気を患っている場合)、プロセッサ26は、予め定められた全ての感情や精神状態や心理状態を、常時判定してもよい。 When there are variations in time as described above, in a particular mode, the processor 26 does not determine all predetermined emotions, mental states, or psychological states, but only determines some predetermined emotions, mental states, or psychological states. The state or psychological state may be determined, or the time and scene for making the determination may be limited. For example, if the user is learning, the processor 26 may determine only the learning effect based on the user's biometric information, and may not determine emotions other than the learning effect. However, if the user's state is a specific state (for example, if the user is suffering from an underlying disease), the processor 26 may record all predetermined emotions, mental states, and psychological states. It may be determined constantly.

なお、ユーザがヒアラブルデバイスの装着を止めたが、他の生体情報測定装置12を装着している場合、プロセッサ26は、当該他の生体情報測定装置12によって測定された生体情報に基づいて、感情や精神状態や心理状態を判定してもよい。例えば、ユーザが、ヒアラブルデバイスとスマートウォッチとを装着しており、ヒアラブルデバイスの装着を止めた場合、スマートウォッチによって測定された生体情報に基づいて、感情や精神状態や心理状態を判定してもよい。 Note that if the user stops wearing the hearable device but is wearing another biological information measuring device 12, the processor 26, based on the biological information measured by the other biological information measuring device 12, Emotions, mental states, and psychological states may also be determined. For example, if a user wears a hearable device and a smart watch and then stops wearing the hearable device, the user's emotions, mental state, and psychological state are determined based on biological information measured by the smart watch. It's okay.

<実施例19>
以下、実施例19について説明する。上述した各実施例において、特定の周波数帯域の生体情報(例えば特定の周波数帯域の脳波)が測定され、その特定の周波数帯域以外の他の周波数帯域の生体情報が測定されない場合、プロセッサ26は、当該他の周波数帯域の生体情報を推定してもよい。例えば、プロセッサ26は、測定された生体情報と同じ種類の生体情報であるが、測定された周波数帯域とは異なる周波数帯域の生体情報を推定する。
<Example 19>
Example 19 will be described below. In each of the embodiments described above, when biological information in a specific frequency band (for example, brain waves in a specific frequency band) is measured, and biological information in other frequency bands other than the specific frequency band is not measured, the processor 26 The biometric information of the other frequency band may be estimated. For example, the processor 26 estimates biological information of the same type as the measured biological information, but in a frequency band different from the measured frequency band.

例えば、脳波の一例であるα波の周波数帯域の電位のみが測定され、α波以外の周波数帯域の電位が測定されない場合、プロセッサ26は、その測定時における各種のセンサ(例えば、ジャイロセンサや加速度センサ等)によって測定された情報、環境情報(例えば、温度や湿度や天候や位置等を示す情報)、ユーザの現在の行動に関する情報(例えば、運動中やデスクワーク中や睡眠中等を示す情報)、ユーザの現在の病気に関する情報、及び、測定されたα波の測定の履歴に関する情報(例えば、α波の波形の形状や周期や振幅の大きさ等を示す情報)の中の1又は複数の情報に基づいて、実際に測定されていない周波数帯域の脳波(例えば、β波等のα波以外の脳波)や明確に検出されていない周波数帯域の脳波を推定する。例えば、プロセッサ26は、上記の各種の情報の相関関係に基づいて、測定されていない周波数帯域の脳波を推定する。プロセッサ26は、その推定した周波数帯域の脳波を端末装置等に出力してもよい。例えば、推定された周波数帯域の脳波が端末装置のディスプレイに表示される。このとき、測定された周波数帯域の脳波(例えばα波)と、推定された周波数帯域の脳波(例えばβ波)が、同じスケールを有するグラフ(例えば、横軸が時間を示し、縦軸が電位を示すグラフ)として表示されてもよい。プロセッサ26は、その推定した周波数帯域の脳波を、その周波数帯域の脳波の候補として出力してもよい。α波が測定されずβ波のみが測定され場合も同様にして、α波が推定されてもよい。 For example, if only the potential in the frequency band of alpha waves, which is an example of brain waves, is measured, and the potential in frequency bands other than alpha waves is not measured, the processor 26 uses various sensors (for example, a gyro sensor, an acceleration information measured by sensors, etc.), environmental information (e.g., information indicating temperature, humidity, weather, location, etc.), information regarding the user's current behavior (e.g., information indicating whether they are exercising, working at a desk, sleeping, etc.), One or more pieces of information among information regarding the user's current illness and information regarding the history of measured α waves (for example, information indicating the shape, period, amplitude, etc. of the α wave waveform) Based on this, brain waves in frequency bands that are not actually measured (for example, brain waves other than alpha waves such as beta waves) or brain waves in frequency bands that are not clearly detected are estimated. For example, the processor 26 estimates brain waves in unmeasured frequency bands based on the correlation of the various types of information described above. The processor 26 may output the brain waves in the estimated frequency band to a terminal device or the like. For example, brain waves in the estimated frequency band are displayed on the display of the terminal device. At this time, brain waves in the measured frequency band (e.g., alpha waves) and brain waves in the estimated frequency band (e.g., beta waves) are graphed on the same scale (e.g., the horizontal axis shows time, and the vertical axis shows electric potential. may also be displayed as a graph showing The processor 26 may output the brain waves in the estimated frequency band as brain wave candidates in that frequency band. Even when alpha waves are not measured and only beta waves are measured, alpha waves may be estimated in the same manner.

プロセッサ26は、複数の周波数帯域の生体情報が測定されている場合、当該複数の周波数帯域の生体情報に基づいて、測定されていない周波数帯域の生体情報を推定してもよい。例えば、α波とβ波とが測定され、これら以外の脳波が測定されていない場合、プロセッサ26は、実際に測定されたα波とβ波とに基づいて、これら以外の周波数帯域の脳波を推定してもよい。 When biometric information in a plurality of frequency bands is measured, the processor 26 may estimate biometric information in a frequency band that is not measured based on the biometric information in the plurality of frequency bands. For example, if alpha waves and beta waves are measured and brain waves other than these are not measured, the processor 26 measures brain waves in frequency bands other than these based on the actually measured alpha waves and beta waves. It may be estimated.

なお、複数の候補が推定された場合、プロセッサ26は、当該複数の候補を、端末装置のディスプレイに表示させたり、複数の候補が推定されたことを表す音声を出力したりしてもよい。また、プロセッサ26は、当該複数の候補のそれぞれの発生の確率や可能性の大小に応じて、当該複数の候補の表示の順番を変えたり、その大小に応じたスコアを表示したりしてもよい。 Note that when a plurality of candidates are estimated, the processor 26 may display the plurality of candidates on the display of the terminal device, or output a sound indicating that the plurality of candidates have been estimated. Further, the processor 26 may change the order in which the plurality of candidates are displayed depending on the probability of occurrence or the size of the possibility of each of the plurality of candidates, or display a score according to the size. good.

例えば、ヒアラブルデバイスによって脳波を測定する場合、頭部において耳から比較的に遠い場所から発生する生体電位を検出し難いことがあり得る。このような場合に、測定された周波数帯域の脳波やその他の情報(例えば環境情報やユーザに関する情報)に基づいて、測定されていない周波数帯域の脳波を推定することが考えられる。 For example, when measuring brain waves with a hearable device, it may be difficult to detect bioelectrical potentials generated from a location on the head that is relatively far from the ears. In such a case, it is conceivable to estimate the brain waves in the unmeasured frequency band based on the brain waves in the measured frequency band and other information (for example, environmental information or information regarding the user).

測定されていない周波数帯域の生体情報を推定する機能のオン又はオフは、ユーザによって設定されてもよい。例えば、ユーザが端末装置等を用いて当該機能をオンにした場合、当該機能が実行される。ユーザが端末装置等を用いて当該機能をオフにした場合、当該機能は実行されない。測定されていない生体情報(例えば、測定されていない周波数帯域の脳波)は、ユーザの脳から実際に発生していない場合があるため、そのような場合に、当該機能をオフにすることが考えられる。 The user may be able to turn on or off the function of estimating biological information in unmeasured frequency bands. For example, when a user turns on the function using a terminal device or the like, the function is executed. If the user turns off the function using a terminal device or the like, the function will not be executed. Unmeasured biological information (for example, brain waves in unmeasured frequency bands) may not actually be generated from the user's brain, so in such cases it may be a good idea to turn off the function. It will be done.

<実施例20>
以下、実施例20について説明する。
<Example 20>
Example 20 will be described below.

BMIとして、人と人とのコミュニケーション伝達に脳波等の使用する場合には、伝えたい情報を特定し、伝えたい情報を伝達する手段を設ける。 When using brain waves, etc. as a BMI for communicating between people, identify the information you want to convey and provide a means to convey the information you want to convey.

例えば、伝達対象の抽出や伝えたい情報内容を特定し、情報発信側が受信側に伝達する。伝達対象は1つの発信側に対して1つの受信側でもよいし、1つの発信側に対して複数の受信側(例えば多数の受信側)でもよい。伝えたい情報内容は人の考えや意思に関する情報や状態情報であり、例えば、賛同、同意、反対、拒絶、迷い、混乱等である。人に情報が提供されたとき、その情報に対して賛同なのか考えを情報発信側が受信側に伝える。伝え方は、人の五感に刺激を与える方法として、例えば、音声による情報伝達、発光による情報伝達、振動による刺激伝達等がある。より具体的な事例を示すと、例えばヒアラブルデバイスであれば、脳波等の生体情報の測定(伝えたい情報内容の測定)と音声による情報伝達とが耳という部位を活用することで同時に実現できるため、様々なデバイスを準備することなくBMIが実現できる点で優れる。ここで音声とは、言語情報以外にも予め何を意味するのかを相互に定めておけば例えば音楽やチャイム等でもよい。賛同の意を二回のチャイム音で知らせたり、音域を変えたりすることで、意思の度合いや程度を伝える手段もある。低音のチャイム音であれば賛同の程度が低いが、高音のチャイム音では賛同の程度が高いといった伝え方が多様化する。人と人とのコミュニケーションはこのようなBMIの登場により、従来の音声やGUI(グラフィカル・ユーザー・インターフェース)を通じた言語を中心とした伝達以外にも、脳波等の生体情報を活用した多様な伝達の方法を獲得することが可能になる。 For example, the information transmitting side identifies the information to be conveyed or extracts the information to be conveyed, and transmits the information to the receiving side. The transmission target may be one sender and one receiver, or one sender and a plurality of receivers (for example, a large number of receivers). The information content to be conveyed is information about the person's thoughts and intentions, and status information, such as agreement, consent, opposition, rejection, hesitation, confusion, etc. When information is provided to someone, the person sending the information tells the recipient whether they agree with the information or not. Information can be conveyed using methods that stimulate a person's five senses, such as information transmission by voice, information transmission by light emission, stimulation transmission by vibration, etc. To give a more specific example, for example, with a hearable device, it is possible to measure biological information such as brain waves (measuring the information content to be conveyed) and transmit information through voice at the same time by utilizing the ear. Therefore, it is excellent in that BMI can be realized without preparing various devices. Here, the sound may be, for example, music, chimes, etc., as long as the meaning of the sound is mutually determined in advance in addition to linguistic information. There are also ways to convey the level and degree of intention by signaling approval with two chimes or by changing the range of the chime. There are various ways of conveying that a low-pitched chime sound indicates a low level of approval, while a high-pitched chime sound indicates a high level of approval. With the advent of BMI, human-to-human communication has expanded to include a variety of forms of communication that utilize biological information such as brain waves, in addition to the conventional language-based communication through voice and GUI (graphical user interface). It becomes possible to acquire the method of

以下、図27及び図28を参照して、実施例20に係る処理の具体例について説明する。図27及び図28には、その具体例の流れを示すフローチャートが示されている。図27には、機器を操作するときの処理の流れが示されている。図28には、人と人とがコミュニケーションをとるときの処理の流れが示されている。 A specific example of the process according to the 20th embodiment will be described below with reference to FIGS. 27 and 28. 27 and 28 show flowcharts showing the flow of a specific example. FIG. 27 shows the flow of processing when operating the device. FIG. 28 shows the flow of processing when communicating between people.

図27に示すように、まず、操作モード(OPモード)が選択され(S01)、ユーザの操作意思情報が抽出及び検出される(S02)。これにより、操作対象の機器と操作内容とが抽出され、それらが紐付けられる。また、操作意思の確度の判断方法がユーザに提示される。操作意思の確度が高い場合(S03,確度高い)、即時、機器に対する操作が実行される(S04)。その後、操作の正しさが検証される(S05)。例えば、その検証はユーザによって行われる。その操作が正しい場合(S06,Yes)、次回も同様に機器が操作される(S07)。例えば、その操作内容が当該機器に設定されて、次回も同様の操作が行われる。その操作が正しくない場合(S06,No)、処理はステップS11に移行する。また、操作意思の確度が低い場合(S03,確度低い)、別の手法を用いて操作意思が確認される(S08)。なお、操作意思の確度が高い場合も、別の手法を用いて操作意思が確認されてもよい。例えば、別の手法を示す情報が、ディスプレイに表示されたり、ヒアラブルデバイスのイヤフォンから音声として出力されたりする。これにより、別の手法がユーザに提示される。確認された操作意思が正しい場合(S09,Yes)、つまり、確認された操作意思が、ユーザが考えていた操作意思と合致する場合、機器に対する操作が実行される(S10)。確認された操作意思が正しくない場合(S09,No)、処理はステップS11に移行する。ステップS11では、操作意思が正しくなかった理由が分析される。例えば、ユーザによってその分析が行われる。その分析結果に基づいて、次回の決定方法(つまり操作の決定方法)が選択される(S12)。また、操作意思の判断基準が変更され(S13)、変更後の内容が、ステップS03以降の処理に反映される。例えば、管理テーブルに登録されている閾値が変更され、その変更後の閾値に基づいて、操作意思の確認や確度の判断等が行われる。なお、上記の各処理は、ユーザによって選択されてもよい。 As shown in FIG. 27, first, an operation mode (OP mode) is selected (S01), and user operation intention information is extracted and detected (S02). As a result, the device to be operated and the operation details are extracted and linked. Furthermore, a method for determining the accuracy of the user's intention to operate is presented to the user. When the accuracy of the operation intention is high (S03, high accuracy), the operation on the device is immediately executed (S04). Thereafter, the correctness of the operation is verified (S05). For example, the verification is performed by the user. If the operation is correct (S06, Yes), the device will be operated in the same way next time (S07). For example, the operation details are set in the device, and the same operation is performed next time. If the operation is incorrect (S06, No), the process moves to step S11. Further, when the accuracy of the operation intention is low (S03, accuracy is low), the operation intention is confirmed using another method (S08). Note that even when the accuracy of the operation intention is high, the operation intention may be confirmed using another method. For example, information indicating another method may be displayed on a display or output as audio from the earphones of a hearable device. This presents the user with another method. If the confirmed operation intention is correct (S09, Yes), that is, if the confirmed operation intention matches the operation intention that the user had in mind, the operation on the device is executed (S10). If the confirmed operation intention is not correct (S09, No), the process moves to step S11. In step S11, the reason why the operation intention was incorrect is analyzed. For example, the analysis is performed by the user. Based on the analysis result, the next determination method (that is, the operation determination method) is selected (S12). Furthermore, the criterion for determining the intention to operate is changed (S13), and the changed content is reflected in the processing from step S03 onwards. For example, the threshold value registered in the management table is changed, and based on the changed threshold value, the intention of the operation is confirmed, the accuracy is determined, and the like. Note that each of the above processes may be selected by the user.

また、人と人とがコミュニケーションをとる場合、図28に示すように、コミュニケーションモード(以下、「CMモード」と称する)が選択される(S20)。例えば、自動選択モード又はマニュアル選択モードのいずれかがユーザによって設定され、その設定に従ってCMモードが選択される。次に、コミュニケーションの対象者(以下、「CM対象者」と称する)が選択される(S21)。例えば、CM対象者が自動的に選択されるモードでは、会議の参加者等がCM対象者として選択される。CM対象者がユーザのマニュアル操作によって選択されるモードでは、例えばヒアラブルデバイスの音声やディスプレイの表示等によって、CM対象者の候補がユーザに提示され、ユーザがCM対象者を選択する。次に、CM対象者に伝えてもよい情報がユーザによって選択される(S22)。例えば、意思情報群や状態情報群等の中から、CM対象者に伝えてもよい情報が選択される。また、CM対象者に対して伝えたくない情報が選択されてもよい。例えば、感情を示す情報が、CM対象者に伝えたくない情報として選択される。次に、生体情報が測定や観察され、その生体情報に基づいて、意思情報や状態情報等が抽出される(S23)。次に、その抽出された意思情報や状態情報等から、CM対象者に伝えられる情報が検出される(S24)。例えば、予め検出テストが実行され、そのテストによって検出された情報と類似する意思情報や状態情報等(例えば、類似度が閾値以上となる意思情報や状態情報等)が、抽出された意思情報や状態情報等から検出される。なお、その検出方法がユーザに提示されてもよい。そして、その検出された意思情報や状態情報等が、CM対象者に伝えられる。例えば、その伝達方法がユーザに提示され、ユーザが伝達方法を選択してもよい。伝達方法は、例えば、振動による伝達(例えば音声による伝達)、光による伝達等である。言語や音楽や発光信号等によって、情報がCM対象者に伝えられてもよい。情報がCM対象者に伝えられた場合、その伝達が完了した旨が、発信者であるユーザに通知されてもよい。その通知は省略されてもよい。また、ステップS24の処理が実行された後、図27に示されているステップS03以降の処理が実行されてもよい。 Further, when communicating between people, a communication mode (hereinafter referred to as "CM mode") is selected as shown in FIG. 28 (S20). For example, either automatic selection mode or manual selection mode is set by the user, and CM mode is selected according to the setting. Next, a communication target (hereinafter referred to as a "CM target") is selected (S21). For example, in a mode in which CM targets are automatically selected, conference participants and the like are selected as CM targets. In the mode in which the CM target person is selected by the user's manual operation, candidates for the CM target person are presented to the user by, for example, audio on a hearable device, display, etc., and the user selects the CM target person. Next, the user selects information that may be conveyed to the CM target person (S22). For example, information that may be conveyed to the CM target person is selected from a group of intention information, a group of status information, and the like. Further, information that the user does not want to convey to the CM target person may be selected. For example, information indicating emotions is selected as information that the user does not want to convey to the CM target. Next, biological information is measured or observed, and intention information, status information, etc. are extracted based on the biological information (S23). Next, information to be conveyed to the CM target person is detected from the extracted intention information, state information, etc. (S24). For example, a detection test is performed in advance, and intention information or state information that is similar to the information detected by the test (for example, intention information or state information whose degree of similarity is equal to or higher than a threshold) is extracted as intention information or state information. Detected from status information, etc. Note that the detection method may be presented to the user. The detected intention information, status information, etc. are then conveyed to the CM target person. For example, the transmission method may be presented to the user, and the user may select the transmission method. Examples of the transmission method include transmission by vibration (for example, transmission by sound), transmission by light, and the like. Information may be conveyed to the CM target person by language, music, light emitting signals, or the like. When the information has been conveyed to the CM target person, the user who is the sender may be notified that the information has been conveyed. The notification may be omitted. Moreover, after the process of step S24 is executed, the processes after step S03 shown in FIG. 27 may be executed.

また、ヒアラブルデバイスを用いて実施例20に係る処理が実行されてもよい。ヒアラブルデバイスが人の耳に装着された状態で生体情報が測定されるため、生体情報を測定することができる状態で、音声によって各情報をユーザに伝えることができる。また、ヒアラブルデバイスは耳に装着されるため、脳波等を測定するために頭部に装着される脳波計等と比べると、その見た目が自然であるという利点がある。また、ヒアラブルデバイスを用いたBCIにて、上記の操作モード及びCMモードの確度を高めることができる。 Furthermore, the process according to the 20th embodiment may be performed using a hearable device. Since biometric information is measured while the hearable device is attached to a person's ear, various information can be conveyed to the user by voice while biometric information can be measured. Furthermore, since hearable devices are worn on the ears, they have the advantage of having a more natural appearance compared to electroencephalographs and the like that are worn on the head to measure brain waves and the like. Furthermore, BCI using a hearable device can improve the accuracy of the above operation mode and CM mode.

なお、上記の各実施例において、情報処理装置10のプロセッサ26によって実行される処理の全部又は一部は、端末装置18のプロセッサ34によって実行されてもよいし、生体情報測定装置12によって実行されてもよい。また、その処理が、情報処理装置10、端末装置18及び生体情報測定装置12の中から選択された1又は複数の装置によって実行されてもよい。 In each of the above embodiments, all or part of the processing executed by the processor 26 of the information processing device 10 may be executed by the processor 34 of the terminal device 18, or may be executed by the biological information measuring device 12. It's okay. Further, the processing may be executed by one or more devices selected from the information processing device 10, the terminal device 18, and the biological information measuring device 12.

<実施例21>
何らかのタスクを遂行している時や問題を解いている時の人の心理状態(例えば、意思決定等)は、脳波に反映されることが知られている。例えば、人があるタスクの遂行をあきらめるとシータ波が大きくなり、ある問題を解決できた場合、アルファ波が大きくなることが知られている(http://qlifepro.com/news/20211124/eeg-rhythm.html)。
<Example 21>
It is known that a person's psychological state (for example, decision-making) while performing a certain task or solving a problem is reflected in brain waves. For example, it is known that theta waves become larger when a person gives up on completing a certain task, and alpha waves become larger when a person is able to solve a certain problem (http://qlifepro.com/news/20211124/eeg -rhythm.html).

実施例21では、生体情報測定装置12がユーザの脳波を測定し、情報処理装置10が、測定された脳波に基づいてユーザが置かれている状況を判定し、ユーザにとって必要な介入手段(インターベンション)の種類を判定する。また、その判定に応じて、介入装置(例えば、端末装置18)が、ユーザに対する直接的な刺激(例えば、電気的な刺激や音楽の再生など)を与えることで、ユーザの脳波状態に影響を与えてユーザの心理状態に影響を与えるような介入を行ったり、ユーザの状態を第三者(例えば、教師、親、ユーザの上司など)に報告し、ユーザに適切な介助/介入手段を提供したりすることができる。 In the 21st embodiment, the biological information measuring device 12 measures the user's brain waves, the information processing device 10 determines the situation the user is in based on the measured brain waves, and provides intervention means (interventions) necessary for the user. determination of the type of intervention). Depending on the determination, the intervention device (e.g., terminal device 18) applies direct stimulation to the user (e.g., electrical stimulation, music playback, etc.) to influence the user's brain wave state. perform interventions that affect the user's psychological state, report the user's state to a third party (e.g., teacher, parent, user's boss, etc.), and provide the user with appropriate assistance/intervention measures. You can do it.

より一般的には、生体情報測定装置12は、少なくとも1人のユーザの生体情報を取得する。そして、情報処理装置10は、少なくとも1人のユーザの脳波を少なくとも含む生体情報と、生体情報が測定された各時点におけるコンテキストを示すコンテキスト情報の少なくとも1つの時系列を含む履歴情報と、に基づいて、少なくとも1人のユーザの状態を判定する。そして、少なくとも1人のユーザの状態を当該少なくとも1人のユーザに出力してもよい。 More generally, the biological information measuring device 12 acquires biological information of at least one user. The information processing device 10 is then configured based on biological information including at least the brain waves of at least one user and historical information including at least one time series of context information indicating the context at each point in time when the biological information was measured. and determine the status of at least one user. Then, the status of at least one user may be output to the at least one user.

履歴情報は、ユーザの行動履歴を示す時系列、又は生体情報が測定された各時点におけるコンテキストを示すコンテキスト情報の時系列を少なくとも1つ含んでもよい。例えば、コンテキスト情報は、誰が測定を行ったか、いつ測定を行ったか、どこで測定を行ったか、何が測定されたか、測定理由、測定方法、測定前に行ったユーザの行為、測定前にユーザが他のユーザと行った行為、ユーザが測定を行った環境の位置、場所、建物、部屋、または温度などの環境情報、ユーザが参加しているシーンまたはイベント、又は、測定が行われたコンテキストを示すその他の様々な情報を含んでよい。さらに、履歴情報は、それが含むコンテンツの種類に関して(例えば、特定のイベントまたは特定のシーンに応じて検索可能とするなど)、および/または異なる時間範囲に関して、(ユーザによって、または人工知能Iなどの他の自動プロセスによって)検索可能とすることができる。履歴情報は、カメラ、マイク、又はインターネットに記録された情報から取得してもよい。 The history information may include at least one time series indicating the user's behavior history or a time series of context information indicating the context at each point in time when biometric information was measured. For example, context information may include who made the measurement, when the measurement was made, where the measurement was made, what was measured, why the measurement was made, how the measurement was made, what the user did before the measurement, and what the user did before the measurement. activities performed with other users; environmental information such as the location, location, building, room, or temperature of the environment in which the user took measurements; scenes or events in which the user is participating; or the context in which the measurements were taken. may include various other information that indicates the Furthermore, the historical information may be modified with respect to the type of content it contains (e.g., searchable according to a particular event or a particular scene) and/or with respect to different time ranges (e.g., by the user or by artificial intelligence). searchable (by other automated processes). Historical information may be obtained from cameras, microphones, or information recorded on the Internet.

履歴情報は、一連の生体情報若しくはコンテキスト情報を収集する時間間隔が異なる複数の異なる時系列、又は生体情報若しくはコンテキスト情報を収集する時点の数が異なることに応じて分類してもよく、時系列ごとに生体情報及び履歴情報を分析することに基づいて、少なくとも1人のユーザの状態に関する少なくとも1つの判定を出力するようにしてもよい。例えば、第1の時間間隔(例えば、短い時間間隔)ずつ離れた複数の時点を有する第1の時系列と、第2の時間間隔(例えば、短い時間間隔と比して時間間隔が長い時間間隔)ずつ離れた複数の時点を有する第2の時系列で収集された生体情報及び履歴情報との組み合わせに基づいて、少なくとも1人のユーザの状態を判定することができる。 Historical information may be classified according to a number of different time series with different time intervals for collecting a series of biometric information or contextual information, or according to a different number of points in time during which biometric information or contextual information is collected; At least one determination regarding the condition of at least one user may be output based on analyzing biometric information and historical information for each user. For example, a first time series having multiple time points separated by a first time interval (e.g., a short time interval) and a time series having a plurality of time points separated by a first time interval (e.g., a short time interval) and a time series having a plurality of time points separated by a second time interval (e.g., a time interval having a long time interval compared to a short time interval). ) The state of at least one user can be determined based on a combination of biometric information and historical information collected in a second time series having a plurality of time points separated by .

さらに、少なくとも1人のユーザの判定された状態に対する信頼度が、異なる時系列に対して判定された状態の類似性または同一性に基づいて評価されてもよい。例えば、短い時間間隔と長い時間間隔の結果が異なる場合と比較して、短い時間間隔と長い時間間隔の結果が同じである場合、より高い信頼度が割り当てられる。判定された状態は、ユーザに出力されてもよいし、判定された信頼度に基づいて無視されてもよい。 Additionally, confidence in the determined states of at least one user may be evaluated based on the similarity or identity of the determined states for different time series. For example, a higher confidence level is assigned if the results for a short time interval and a long time interval are the same compared to when the results for a short time interval and a long time interval are different. The determined state may be output to the user or may be ignored based on the determined reliability.

また、各時系列は、ユーザが現在置かれたコンテキストに応じてユーザによって重みを割り当てられてもよく、判定された状態が当該重みに基づいて判定された優先順位の順序でユーザに出力されてもよく、判定された状態の部分集合が当該重みに応じてユーザに出力されてもよい。 Each time series may also be assigned a weight by the user depending on the context in which the user is currently placed, and the determined states may be output to the user in priority order determined based on the weight. Alternatively, a subset of the determined states may be output to the user according to the weights.

言い換えると、どの時系列に基づくどの結果を出力するのかをコンテキスト情報に基づいて決めることにより、コンテキストによって定まる、所定の状況に対するユーザの期待に最も合致するような結果を出力するようにしてもよい。なお、ユーザの期待値と最も合致する判定は、ユーザによって様々なコンテキストに対して設定されてもよいし、過去の判定に基づいて人工知能(機械学習など)を用いて学習されてもよい。 In other words, by determining which results based on which time series to output based on context information, the results that best match the user's expectations for a given situation determined by the context may be output. . Note that the determination that most matches the user's expected value may be set by the user for various contexts, or may be learned using artificial intelligence (machine learning, etc.) based on past determinations.

例えば、短い時間間隔に基づいて判定された状態は異常を示し、長い時間間隔に基づいて判定された状態は正常を示してもよい。また、判定された状態が誤っている場合や外れ値の情報である場合など(例えば、装置の接触不良や、外部から短時間で一時的なストレスがユーザに加わった場合)、短時間に生じる異常を無視できることをコンテキストが示している場合は、その結果をユーザに出力しないとものと決定してもよい。言い換えると、このような場合には、短い時間間隔と長い時間間隔の判定結果が同一である場合にのみ、結果をユーザに出力するようにしてもよい。一方、例えば、ユーザが病気であり、ユーザの状態の任意の短時間の変化を報告する必要がある場合など、短時間の異常が重要であり得ることをコンテキストが示している場合もある。この場合、短い時間間隔での結果の重みを大きくし、優先的に出力するようにしてもよい。 For example, a condition determined based on a short time interval may indicate abnormality, and a condition determined based on a long time interval may indicate normality. In addition, it may occur in a short period of time, such as when the determined state is incorrect or the information is an outlier (for example, when there is a poor contact with the device or when temporary stress is applied to the user from the outside in a short period of time). If the context indicates that the anomaly can be ignored, you may decide not to output the results to the user. In other words, in such a case, the results may be output to the user only when the determination results for the short time interval and the long time interval are the same. On the other hand, the context may indicate that short-term anomalies may be important, for example if the user is ill and any short-term changes in the user's condition need to be reported. In this case, results at short time intervals may be given greater weight and output preferentially.

また、時間間隔の長さや時点の数は、ユーザが測定を行う際のコンテキスト(シーンやイベント)に応じて変更又は設定可能である。コンテキストと、時間間隔の長さや時点数との対応関係は、ユーザによって設定されてもよいし、過去のデータに基づいて人工知能(機械学習など)によって学習されてもよい。 Further, the length of the time interval and the number of time points can be changed or set depending on the context (scene or event) in which the user performs the measurement. The correspondence between the context and the length of the time interval or the number of time points may be set by the user, or may be learned by artificial intelligence (machine learning, etc.) based on past data.

なお、上記では、2つの時間間隔(相対的に短い場合と長い場合)を有する2つの時系列についていくつかの例を示したが、本実施形態はこれに限定されず、任意の数の時系列に適用可能である。 Note that although some examples have been shown above regarding two time series having two time intervals (relatively short and long), this embodiment is not limited to this, and can be applied to any number of time series. Applicable to series.

あるいは、提案される介入手段は、少なくとも1人のユーザの状態および/または履歴情報に基づいて判定されてもよく、提案される介入手段は、当該少なくとも1人のユーザに対して出力されてもよい。 Alternatively, the proposed intervention may be determined based on the state and/or historical information of the at least one user, and the proposed intervention may be output to the at least one user. good.

また、生体情報測定装置12は、音声入出力装置を含むヒアラブルデバイス(以下で説明する)の形態であってもよく、情報処理装置10は、音声入出力装置を介して、提案された介入手段を少なくとも1人のユーザに出力し、提案された介入手段に対する少なくとも1人のユーザの応答を取得し、その応答をメモリに記憶させてもよい。 Furthermore, the biological information measuring device 12 may be in the form of a hearable device (described below) that includes an audio input/output device, and the information processing device 10 can receive the proposed intervention via the audio input/output device. The measure may be output to at least one user, the at least one user's response to the proposed intervention measure may be obtained, and the response may be stored in memory.

提案された介入手段及び少なくとも1人のユーザの応答は、履歴情報の一部として記憶してもよい。このようにして、提案された介入手段の判定は、ユーザが類似または同一の状態若しくはコンテキストに置かれていた時の過去の介入手段、応答、およびそれらのコンテキスト、ならびにユーザが現在置かれたコンテキストに基づいて行ってもよい。また、コンテキストと提案された介入手段との対応関係は、ユーザによって設定されてもよいし、過去のデータに基づいて人工知能(機械学習など)によって学習されてもよい。 The proposed intervention and the at least one user's response may be stored as part of the historical information. In this way, the determination of the proposed intervention is based on past interventions, responses, and their contexts when the user was in similar or identical conditions or contexts, as well as the context in which the user is currently placed. It may be done based on. Further, the correspondence between the context and the proposed intervention means may be set by the user, or may be learned by artificial intelligence (machine learning, etc.) based on past data.

また、情報処理装置10は、提案した介入手段を実行する前に少なくとも1人のユーザから応答を取得する第1のモードと、提案した介入手段を人工知能によって自動的に実行する第2のモードのいずれかを選択してもよい。 Furthermore, the information processing device 10 operates in a first mode in which a response is obtained from at least one user before executing the proposed intervention means, and in a second mode in which the proposed intervention means is automatically executed by artificial intelligence. You may choose either one.

あるいは、介入装置(例えば、端末装置18)によって、光(光色、光強度、光パルスによる)、画像、映像、音、音声、音楽、振動、温度変化(熱い、冷たい)、衝撃(物との衝突、物を投げる)、刺激(つまむ、引く)、匂い、香りの少なくとも一つを介した伝達手段によって介入手段を実行してもよい。例えば、https://www.youtube.com/watch?v=Vr8hSeAjY2Iには、光によって介入手段が実行される例が示されている。 Alternatively, an intervention device (e.g., terminal device 18) may be used to control light (by light color, light intensity, light pulses), images, images, sounds, sounds, music, vibrations, temperature changes (hot, cold), shocks (by objects, etc.). The intervention may be carried out by means of communication via at least one of the following: impact (bumping, throwing an object), stimulation (pinch, pull), smell, scent. For example, https://www. youtube. com/watch? v=Vr8hSeAjY2I shows an example in which the intervention means are carried out by light.

他の介入手段の形態またはモードとしては、空気温度の調整(例えば、エアコンの温度設定)、人工知能との対話(例えば、慰める、励ます、助ける、アドバイスをする)、またはロボットによる慰めの表現またはジェスチャー(例えば、ペットロボットから出る音またはペットロボットの慰めとなる行動/動作)などとしてもよい。 Other forms or modes of intervention include adjusting the air temperature (e.g. setting the temperature of an air conditioner), interacting with artificial intelligence (e.g. comforting, encouraging, helping, giving advice), or expressing comfort or It may also be a gesture (for example, a sound emitted by the pet robot or a comforting action/movement of the pet robot).

また、少なくとも1人のユーザの状態を少なくとも1人の他のユーザに出力してもよい。 Additionally, the status of at least one user may be output to at least one other user.

少なくとも1人の他のユーザに出力する場合、少なくとも1人のユーザ又は少なくとも1人の他のユーザの生体情報と履歴情報とに基づいて、少なくとも1人のユーザの状態の判定を、少なくとも1人の他のユーザの情報処理装置10が行ってもよい。同様に、提案される介入手段は、少なくとも1人のユーザと少なくとも1人の他のユーザによって共有される介入装置によって実行されてもよい。また、少なくとも1人のユーザの生体情報を少なくとも1人の他のユーザに送信し、少なくとも1人の他のユーザの情報処理装置10が、使用する介入手段(又は介入装置)を判定してもよい。 When outputting to at least one other user, the determination of the state of the at least one user is performed based on the biometric information and history information of the at least one user or at least one other user. The information processing device 10 of another user may perform the processing. Similarly, the proposed intervention means may be performed by an intervention device shared by at least one user and at least one other user. Alternatively, the biometric information of at least one user may be transmitted to at least one other user, and the information processing device 10 of the at least one other user may determine the intervention means (or intervention device) to be used. good.

少なくとも1人のユーザと少なくとも1人の他のユーザが同じ場所にいる場合、介入手段を実行するために同じ介入装置を選択することができる。より詳細には、少なくとも1人のユーザと少なくとも1人の他のユーザの位置情報に基づいて、少なくとも1人のユーザの状態を共有する空間の範囲、または使用する介入装置を決定することができる。 If at least one user and at least one other user are in the same location, the same intervention device can be selected to perform the intervention measure. More specifically, based on the location information of the at least one user and at least one other user, the range of space that shares the state of the at least one user or the intervention device to be used can be determined. .

なお、このような少なくとも1人のユーザの状態の共有は、少なくとも1人のユーザと少なくとも1人の他のユーザとの関係の種類(例えば、患者と医師との関係、協力関係にある労働者同士の関係など)によって決定してもよい。 It should be noted that such sharing of the status of at least one user may be based on the type of relationship between at least one user and at least one other user (e.g., patient-doctor relationship, worker-to-worker relationship, etc.). It may also be determined based on the relationship between the two.

少なくとも1人のユーザの状態の判定または介入手段の判定は、少なくとも1人のユーザおよび少なくとも1人の他のユーザについて行われた過去の判定に基づいてもよく、これは、1人のユーザの情報に依存することによってのみ行われる判定結果に多様性を与える。また、少なくとも1人の他のユーザの生体情報が、少なくとも1人のユーザの生体情報と類似又は同一であることが分かり、その場合、少なくとも1人の他のユーザを、同一の介入を行うことができる候補として追加してもよい。また、介入手段自体の判断や、どの介入装置を使用するかの選択において、過去の介入手段(又は介入装置)の有効性を履歴情報に記録し、最も効果の高い(優先度の高い)介入手段(又は介入装置)を選択できるように優先度を付与してもよい。過去のデータから、どのような介入手段(又は介入装置)が有効であるかを知ることは、人口知能(機械学習など)によって行ってもよい。また、新たな介入手段の候補(若しくは介入装置の候補)が存在する場合、又は、介入手段の候補(若しくは介入装置の候補)が複数存在する場合、ユーザがその中から選択するようにしてもよい。あるいは、少なくとも1人の他のユーザは、少なくとも1人のユーザに対する過去の有効性に基づいて、介入手段の候補(又は介入装置の候補)を選択してもよい。あるいは、少なくとも1人のユーザは、介入手段(又は介入装置)を選択しないことを決定し、少なくとも1人のユーザに代わって介入手段(又は介入装置)を選択する許可を与えられた少なくとも1人の他のユーザがその選択を行うことを許可してもよい。これは、自分よりも他の者による介入手段の選択の方が効果的である場合があるためである。 The determination of the state of the at least one user or the determination of the intervention measure may be based on previous determinations made for the at least one user and at least one other user, which may be based on previous determinations made for the at least one user and at least one other user. Provides diversity in decision results that can only be made by relying on information. Additionally, if the biometric information of at least one other user is found to be similar or identical to the biometric information of at least one user, in that case, the at least one other user may be subject to the same intervention. You may add it as a possible candidate. In addition, when determining the intervention method itself or selecting which intervention device to use, the effectiveness of past intervention methods (or intervention devices) is recorded in historical information, and the most effective (high priority) intervention is selected. Priorities may be given to allow selection of means (or intervention devices). Artificial intelligence (machine learning, etc.) may be used to determine what intervention measures (or intervention devices) are effective from past data. Furthermore, if there are new intervention method candidates (or intervention device candidates), or if there are multiple intervention method candidates (or intervention device candidates), the user may be allowed to select from among them. good. Alternatively, the at least one other user may select the candidate intervention measure (or candidate intervention device) based on past effectiveness for the at least one user. Alternatively, at least one user decides not to select an interventional measure (or interventional device) and at least one user is authorized to select an interventional measure (or interventional device) on behalf of the at least one user. may allow other users to make that selection. This is because the selection of intervention methods by others may be more effective than by oneself.

<実施例22>
また、情報処理装置10は、少なくとも一人のユーザのコミュニケーションを支援するために用いられてもよい。
<Example 22>
Further, the information processing device 10 may be used to support communication of at least one user.

実施例22では、生体情報測定装置10は、少なくとも1人のユーザの生体情報を取得する。情報処理装置10は、少なくとも1人のユーザの生体情報に基づいて、当該少なくとも1人のユーザの状態を判定する。そして、情報処理装置10は、少なくとも1人のユーザの状態に基づいて、当該少なくとも1人のユーザによる情報のコミュニケーションを支援する。 In Example 22, the biological information measuring device 10 acquires biological information of at least one user. The information processing device 10 determines the state of at least one user based on the biometric information of the at least one user. The information processing device 10 then supports communication of information by at least one user based on the state of the at least one user.

また、情報処理装置10は、一方のユーザから他方のユーザへの情報のコミュニケーションを支援する場合、一方のユーザから承諾を得てから他方のユーザに情報を送信してもよい。 Further, when supporting communication of information from one user to another user, the information processing device 10 may transmit information to the other user after obtaining consent from the one user.

また、一方のユーザが、他方のユーザに送信すべき情報を拒否した場合に、当該一方のユーザに対応付けられたメモリに当該情報を記憶させてもよい。 Further, when one user rejects information to be transmitted to the other user, the information may be stored in a memory associated with the one user.

あるいは、一方のユーザが、他方のユーザに送信すべき情報を拒否した場合、少なくとも1つの代替アクションを含む選択肢を一方のユーザに提案することができる。代替アクションとしては、所定の期間が経過した後に当該情報を他のユーザに再送信すること、当該情報を異なるユーザに送信すること、または当該情報の送信を放棄することのうちの少なくとも1つを含むことができる。 Alternatively, if one user rejects information to be sent to the other user, options including at least one alternative action may be offered to the other user. The alternative actions include at least one of retransmitting the information to another user after a predetermined period of time, transmitting the information to a different user, or abandoning the transmission of the information. can be included.

また、情報処理装置10は、一方のユーザが他方のユーザへの情報の送信を承諾した場合、一方のユーザの状態と対応付けて当該情報を学習データとしてメモリに記憶させ、一方のユーザの状態に基づく情報の次回の判定に利用してもよい。 Further, when one user consents to transmit information to the other user, the information processing device 10 stores the information in the memory as learning data in association with the state of the other user, and stores the information in the memory as learning data. It may be used for the next judgment based on the information.

また、一方のユーザが他方のユーザへの情報の送信を承諾した場合、情報処理装置10は、他方のユーザへの送信が成功したか否かを示すデータを記憶してもよい。 Furthermore, when one user consents to transmitting information to the other user, the information processing device 10 may store data indicating whether or not the transmission to the other user was successful.

また、情報処理装置10は、少なくとも1人のユーザから測定された生体電位の周波数スペクトルに基づいて、当該少なくとも1人のユーザの状態を判定してもよい。 Further, the information processing device 10 may determine the state of at least one user based on the frequency spectrum of the biopotential measured from the at least one user.

<ヒアラブルデバイス>
以下、図29から図37を参照して、本実施形態に係る生体情報測定装置12の一例であるヒアラブルデバイスについて詳しく説明する。以下では、ヒアラブルデバイスの一例として、人の耳に装着されるイヤフォンを例に挙げて説明するが、ここで説明されるヒアラブルデバイスは、イヤフォン以外のヒアラブルデバイスであってもよい。
<Hearable device>
Hereinafter, a hearable device that is an example of the biological information measuring device 12 according to this embodiment will be described in detail with reference to FIGS. 29 to 37. In the following description, an earphone worn in a person's ear will be described as an example of a hearable device, but the hearable device described here may be a hearable device other than earphones.

例えば、1又は複数の電極が、生体電位を含む電位を検出するための生体電位検出用電極(以下、「センサ電極」と称する)として用いられ、別の1又は複数の電極が、接地のための電極(以下、「グランド電極」と称する)として用いられ、更に別の1又は複数の電極が、センサ電極によって検出された電位と比較するための電位を検出する電極(以下、「レファレンス電極」と称する)として用いられる。 For example, one or more electrodes are used as biopotential detection electrodes (hereinafter referred to as "sensor electrodes") for detecting potentials including biopotentials, and another one or more electrodes are used for grounding. (hereinafter referred to as "ground electrode"), and one or more other electrodes are used as electrodes for detecting a potential for comparison with the potential detected by the sensor electrode (hereinafter referred to as "reference electrode"). ).

以下、センサ電極によって検出された電位を「センサ電位」と称し、レファレンス電極によって検出された電位を「レファレンス電位」と称し、グランド電極によって検出された電位を「グランド電位」と称することとする。 Hereinafter, the potential detected by the sensor electrode will be referred to as the "sensor potential", the potential detected by the reference electrode will be referred to as the "reference potential", and the potential detected by the ground electrode will be referred to as the "ground potential".

図29は、ヒアラブルデバイス200の全体を示す斜視図である。図30は、ヒアラブルデバイス200を上方向から見たときの図である。図31は、左側イヤフォンを左方向から見たときの図である。図32は、右側イヤフォンを示す斜視図である。図33は、左側イヤフォンを示す斜視図である。図34は、右側イヤフォンを上方向から見たときの図である。図35は、右側イヤフォンの分解斜視図である。図36は、右側イヤフォンの断面図である。図37は、左側イヤフォンの内部を示す斜視図である。 FIG. 29 is a perspective view showing the entire hearable device 200. FIG. 30 is a diagram when the hearable device 200 is viewed from above. FIG. 31 is a diagram of the left earphone viewed from the left side. FIG. 32 is a perspective view of the right earphone. FIG. 33 is a perspective view of the left earphone. FIG. 34 is a diagram of the right earphone viewed from above. FIG. 35 is an exploded perspective view of the right earphone. FIG. 36 is a cross-sectional view of the right earphone. FIG. 37 is a perspective view showing the inside of the left earphone.

ここで、説明の便宜上、図29に示すように、前後方向、上下方向及び左右方向を定義する。前方向は、人の顔が向く方向であり、後方向は、その前方向とは逆の方向である。上方向は、人の頭頂が向く方向であり、下方向は、その上方向とは逆の方向である。右方向は、人の右手側の方向であり、左方向は、人の左手側の方向である。前後方向、上下方向及び左右方向は互いに直交する。 Here, for convenience of explanation, as shown in FIG. 29, the front-back direction, the up-down direction, and the left-right direction are defined. The front direction is the direction that a person's face faces, and the back direction is the direction opposite to the front direction. The upward direction is the direction toward which the top of a person's head faces, and the downward direction is the opposite direction to the upward direction. The right direction is the direction to the right hand side of a person, and the left direction is the direction to the left hand side of the person. The front-rear direction, the up-down direction, and the left-right direction are orthogonal to each other.

また、ここでは一例として、ヒアラブルデバイス200は、脳波を含む生体情報を測定するものとする。もちろん、ヒアラブルデバイス200は、脳波を測定すると共に、又は、脳波をだけを測定せずに、脳波以外の生体情報を測定してもよい。例えば、後述する右側イヤフォン216Rや左側イヤフォン216Lが人の耳に装着されると、生体情報を表す電位が検出される。検出された電位を示す電位信号には、通常、脳波を表す電位信号が含まれるが、脳波を表す電位信号の他に、人の頭部の動きに起因して発生する電位を示す電位信号として、顔の表情に起因する動き、首や顎、眼球の動きに起因して発生する電位を示す電位信号等が含まれる場合がある。また、人の頭部の動きに伴った血流の変化に起因する生体情報として、脳血流、心臓血脈に関する脈波、心拍等も顕著に計測できる場合がある。このように、ヒアラブルデバイス200は、脳波と共に脳波以外の生体情報も測定することがある。脳波以外の生体情報は、ノイズとして処理されてもよいし(例えば除去されてもよいし)、脳波と分離されて何らかの処理に用いられてもよい。 Further, here, as an example, it is assumed that the hearable device 200 measures biological information including brain waves. Of course, the hearable device 200 may measure biological information other than brain waves while measuring brain waves, or without measuring only brain waves. For example, when a right earphone 216R or a left earphone 216L, which will be described later, is attached to a person's ear, a potential representing biological information is detected. The potential signal indicating the detected potential usually includes a potential signal indicating the brain wave, but in addition to the potential signal indicating the brain wave, there is also a potential signal indicating the potential generated due to the movement of the human head. , movements caused by facial expressions, and potential signals indicating potentials generated due to movements of the neck, jaw, and eyeballs. In addition, as biological information caused by changes in blood flow due to the movement of a person's head, cerebral blood flow, pulse waves related to cardiac blood vessels, heartbeat, etc. can be significantly measured in some cases. In this way, the hearable device 200 may measure biological information other than brain waves as well as brain waves. Biological information other than brain waves may be processed as noise (for example, removed), or may be separated from brain waves and used for some processing.

図29及び図30に示すように、ヒアラブルデバイス200は、大別して、人の右耳に装着される右側イヤフォン216Rと、人の左耳に装着される左側イヤフォン216Lと、右側イヤフォン216Rと左側イヤフォン216Lとを電気的に接続するケーブル218とを含む。右側イヤフォン216Rと左側イヤフォン216Lは、ケーブル218を介して信号やデータを送受信してもよい。ケーブル218には、ヒアラブルデバイス200を操作するためのリモコンが設けられてもよい。 As shown in FIGS. 29 and 30, the hearable device 200 can be roughly divided into a right earphone 216R that is attached to a person's right ear, a left earphone 216L that is attached to a person's left ear, and a right earphone 216R and a left earphone 216R that is attached to a person's left ear. It includes a cable 218 that electrically connects the earphone 216L. The right earphone 216R and the left earphone 216L may transmit and receive signals and data via the cable 218. The cable 218 may be provided with a remote control for operating the hearable device 200.

右側イヤフォン216R又は左側イヤフォン216Lのいずれか一方が、生体情報を測定する生体情報測定装置として機能してもよいし、右側イヤフォン216R及び左側イヤフォン216Lの両方が、生体情報測定装置として機能してもよい。 Either the right earphone 216R or the left earphone 216L may function as a biological information measuring device that measures biological information, or both the right earphone 216R and the left earphone 216L may function as a biological information measuring device. good.

例えば、一方のイヤフォンが、センサ電極、レファレンス電極及びグランド電極を有し、他方のイヤフォンは電極を有していなくてもよい。 For example, one earbud may have a sensor electrode, a reference electrode, and a ground electrode, and the other earbud may have no electrodes.

別の例として、右側イヤフォン216R及び左側イヤフォン216Lの両方が、センサ電極、レファレンス電極及びグランド電極を有してもよい。 As another example, both the right earbud 216R and the left earbud 216L may have a sensor electrode, a reference electrode, and a ground electrode.

更に別の例として、一方のイヤフォンが、センサ電極、レファレンス電極及びグランド電極の中の1つ又は2つの電極を有し、他方のイヤフォンが、当該一方のイヤフォンが有していない電極を有してもよい。 As yet another example, one earbud has one or two of the sensor electrode, reference electrode, and ground electrode, and the other earbud has an electrode that the one earbud does not have. It's okay.

更に別の例として、右側イヤフォン216R及び左側イヤフォン216Lのそれぞれに1又は複数の電極が設けられており、センサ電極、レファレンス電極及びグランド電極のそれぞれが、いずれかの電極に割り当てられてもよい。 As yet another example, each of the right earphone 216R and the left earphone 216L is provided with one or more electrodes, and each of the sensor electrode, reference electrode, and ground electrode may be assigned to one of the electrodes.

更に別の例として、一方のイヤフォンに、複数のセンサ電極や、複数のレファレンス電極や、複数のグランド電極が設けられてもよい。例えば、右側イヤフォン216Rに複数のセンサ電極が設けられ、左側イヤフォン216Lに、複数のレファレンス電極が設けられてもよい。 As yet another example, one earphone may be provided with multiple sensor electrodes, multiple reference electrodes, and multiple ground electrodes. For example, the right earphone 216R may be provided with a plurality of sensor electrodes, and the left earphone 216L may be provided with a plurality of reference electrodes.

右側イヤフォン216Rは、例えばカナル型のイヤフォンであり、右側筐体220Rと、右側イヤーピース222Rと、右側支持体224Rと、右側耳掛け226Rと、電極部材228Rとを含む。イヤーピースはイヤーパットと称されることもある。 The right earphone 216R is, for example, a canal-type earphone, and includes a right housing 220R, a right earpiece 222R, a right support 224R, a right ear hook 226R, and an electrode member 228R. Earpieces are sometimes called ear pads.

右側筐体220Rは、例えば、薄型の直方体状の形状を有し、電子回路等を格納する筐体である。右側筐体220Rにおいて、ユーザがヒアラブルデバイス200を装着したときに人の右耳に対向する面に、右側イヤーピース222Rと右側支持体224Rが設けられている。右側筐体220R内には、制御装置、スピーカ、通信装置(例えば通信チップ)、生体情報を解析や処理する電子回路、6軸センサ(例えば、加速度を検出する3軸センサと角速度を検出する3軸センサとを有するセンサ等)、メモリ、及び、GPS(Global Positioning System)センサ等が格納されている。通信装置は、例えばBluetoothやBLE(Bluetooth Low Energy)等の無線通信機能を実現するための装置である。この通信装置は、無線LAN(例えばWiFi等を利用するネットワーク等)、セルラー(3G、4G、5G、LPWA等)のモジュールを搭載して通信領域を広域にし、Bluetoothよりも通信距離が長いローカルエリアの機器やインターネットを介して遠方の機器に直接データを送信すること可能である。6軸センサによって、右側筐体220Rの移動方向、向き及び回転が検出される。生体情報はメモリに記憶されてもよい。なお、生体情報を解析する電子回路は、生体情報測定装置12に設けられていなくてもよい。 The right housing 220R has, for example, a thin rectangular parallelepiped shape, and is a housing that stores electronic circuits and the like. In the right housing 220R, a right earpiece 222R and a right support 224R are provided on the surface facing the right ear of the person when the user wears the hearable device 200. Inside the right housing 220R, there are a control device, a speaker, a communication device (for example, a communication chip), an electronic circuit that analyzes and processes biological information, and a 6-axis sensor (for example, a 3-axis sensor that detects acceleration and 3-axis sensor that detects angular velocity). A sensor having an axis sensor, etc.), a memory, a GPS (Global Positioning System) sensor, etc. are stored. The communication device is a device for realizing a wireless communication function such as Bluetooth or BLE (Bluetooth Low Energy), for example. This communication device is equipped with wireless LAN (for example, a network that uses WiFi, etc.) and cellular (3G, 4G, 5G, LPWA, etc.) modules to widen the communication area, and has a longer communication distance than Bluetooth. It is possible to send data directly to other devices or to distant devices via the Internet. The six-axis sensor detects the moving direction, orientation, and rotation of the right housing 220R. Biometric information may be stored in memory. Note that the electronic circuit for analyzing biological information does not need to be provided in the biological information measuring device 12.

右側支持体224Rは、円柱等の柱状の形状を有して右側筐体220Rの側面(例えば、右側イヤフォン216Rが右耳に装着されたときに右耳に対向する面)から突出し、右側筐体220Rと右側イヤーピース222Rとの間に設けられている。例えば、右側支持体224Rの外径は、右側イヤーピース222Rの外径よりも大きい。右側支持体224Rの側面の一部又は全部に電極部材228Rが設けられている。 The right support 224R has a columnar shape such as a cylinder, protrudes from the side surface of the right housing 220R (for example, the surface facing the right ear when the right earphone 216R is attached to the right ear), and is attached to the right housing 220R. 220R and the right earpiece 222R. For example, the outer diameter of the right support 224R is larger than the outer diameter of the right earpiece 222R. An electrode member 228R is provided on a part or all of the side surface of the right support 224R.

例えば、電極部材228Rはリング状の形状を有し、柱状の右側支持体224Rに支持されている。電極部材228Rの全体又は一部が電極として機能する。つまり、電極部材228Rの全表面に電極が設けられてもよいし、電極部材228Rの一部の表面に電極が設けられ、その部分の表面には電極が設けられなくてもよい。電極部材228Rは、例えば、カーボン製の導電性ゴムによって構成されている。この場合においても、電極部材228Rの全部が導電性ゴムによって構成されて、電極部材228Rの全部(例えば全表面)が電極として機能してもよいし、電極部材228Rの一部が導電性ゴムによって構成されて、電極部材228Rの一部(例えば一部の表面)が電極として機能してもよい。 For example, the electrode member 228R has a ring shape and is supported by the columnar right support 224R. The whole or part of the electrode member 228R functions as an electrode. That is, an electrode may be provided on the entire surface of the electrode member 228R, or an electrode may be provided on a part of the surface of the electrode member 228R, and no electrode may be provided on the surface of that part. The electrode member 228R is made of conductive rubber made of carbon, for example. In this case as well, the entire electrode member 228R may be made of conductive rubber, and the entire electrode member 228R (for example, the entire surface) may function as an electrode, or a portion of the electrode member 228R may be made of conductive rubber. Accordingly, a portion (for example, a portion of the surface) of the electrode member 228R may function as an electrode.

右側イヤーピース222Rは、右側支持体224Rの先端(つまり、右側筐体220Rに接続する端部とは反対側の端部)に設けられている。例えば、右側イヤーピース222Rは、先端に向かって幅が狭くなる円柱状の形状を有する。もちろん、この形状は一例に過ぎず、右側イヤーピース222Rは別の形状を有してもよい。 The right earpiece 222R is provided at the tip of the right support 224R (that is, the end opposite to the end connected to the right housing 220R). For example, the right earpiece 222R has a cylindrical shape whose width becomes narrower toward the tip. Of course, this shape is just an example, and the right earpiece 222R may have another shape.

右側イヤーピース222R内には、音導管等(例えば、後述する導電管部材)が格納されており、スピーカによって発せられた音は、右側イヤーピース222R内の音導管等を伝達して右側イヤーピース222Rから外部に発せられる。右側イヤーピース222Rの外表面(例えば側面等)の一部又は全部には、電極が設けられている。その電極は、例えば、カーボン製の導電性ゴムによって構成されている。右側イヤーピース222R自体が、導電性ゴムによって構成されてもよい。例えば、右側イヤーピース222Rの全体又は一部が、導電性ゴムによって構成されてもよい。つまり、右側イヤーピース222Rの全表面又は一部の表面が電極として機能してもよい。 A sound conduit or the like (for example, a conductive tube member to be described later) is housed in the right earpiece 222R, and the sound emitted by the speaker is transmitted through the sound conduit or the like in the right earpiece 222R and externally from the right earpiece 222R. is issued. An electrode is provided on part or all of the outer surface (for example, the side surface, etc.) of the right earpiece 222R. The electrode is made of conductive rubber made of carbon, for example. The right earpiece 222R itself may be made of conductive rubber. For example, the entire or part of the right earpiece 222R may be made of conductive rubber. That is, the entire surface or a portion of the surface of the right earpiece 222R may function as an electrode.

右側イヤーピース222R及び電極部材228Rは、例えば、弾性部材によって構成されてもよい。その弾性部材として、例えば、ゴム等の樹脂が用いられる。具体的には、Si系のゴム(例えば、NOK社製のS1734)やウレタン系のゴム等が、右側イヤーピース222R及び電極部材228Rに用いられてもよい。また、右側イヤーピース222R及び電極部材228Rのそれぞれの硬度(例えば、デュロメータタイプA(瞬時)の規格に従った硬度)は、例えば40~75である。一例として、硬度が70の樹脂が、右側イヤーピース222R及び電極部材228Rに用いられてもよい。 The right earpiece 222R and the electrode member 228R may be made of, for example, an elastic member. As the elastic member, for example, resin such as rubber is used. Specifically, Si-based rubber (for example, S1734 manufactured by NOK), urethane-based rubber, or the like may be used for the right earpiece 222R and the electrode member 228R. Further, the hardness of each of the right earpiece 222R and the electrode member 228R (for example, the hardness according to the durometer type A (instantaneous) standard) is, for example, 40 to 75. As an example, a resin having a hardness of 70 may be used for the right earpiece 222R and the electrode member 228R.

後述するように、右側イヤーピース222Rは、右耳の外耳道に挿入されて外耳道に接触するように右耳に配置され、右側支持体224Rに支持されている電極部材228Rは、右耳の耳甲介腔に接触するように右耳に配置される。 As will be described later, the right ear piece 222R is inserted into the external auditory canal of the right ear and placed in the right ear so as to be in contact with the external auditory canal, and the electrode member 228R supported by the right support 224R is connected to the concha of the right ear. It is placed in the right ear so that it contacts the cavity.

右側耳掛け226Rは、全体として湾曲した形状を有し、ユーザが右側イヤフォン216Rを装着したときにユーザの右耳に掛けられる部材である。例えば、右側耳掛け226Rは、右耳の耳輪に掛けられる。より詳しく説明すると、右側耳掛け226Rは、耳輪の裏側において耳輪に接して設けられる。右側耳掛け226Rの一方の端部は、右側筐体220Rの前方側の部分に接続されており、右側耳掛け226Rは、その接続部分から右側筐体220Rの後方側にかけて湾曲した形状を有しており、その部分が湾曲部を構成する。その湾曲部が、右耳の耳輪の裏側において耳輪に接して設けられる。例えば、湾曲部は、耳輪の裏側の形状に沿った形状を有する。右側耳掛け226Rの他方の部分は、ケーブル218の一方の端部に接続されている。 The right ear hook 226R has a generally curved shape, and is a member that is hung on the user's right ear when the user wears the right earphone 216R. For example, the right ear hook 226R is hung on the helix of the right ear. To explain in more detail, the right ear hook 226R is provided in contact with the helix on the back side of the helix. One end of the right ear hook 226R is connected to the front side of the right housing 220R, and the right ear hook 226R has a curved shape from the connecting portion to the rear side of the right housing 220R. This part constitutes the curved part. The curved portion is provided in contact with the helix on the back side of the helix of the right ear. For example, the curved portion has a shape that follows the shape of the back side of the helix. The other portion of the right ear hook 226R is connected to one end of the cable 218.

右側イヤーピース222R及び右側支持体224Rは、交換可能な部材である。例えば、形状や大きさの異なる複数種類(例えば3~5種類等)の右側イヤーピース222Rと右側支持体224Rが予め用意されており、ユーザの耳の形状(例えば、外耳道や耳甲介腔やその他の部位)に合わせて、右側イヤーピース222Rと右側支持体224Rを交換することができる。 The right earpiece 222R and the right support 224R are replaceable members. For example, a plurality of types (for example, 3 to 5 types) of right earpieces 222R and right side supports 224R with different shapes and sizes are prepared in advance, and the shape of the user's ear (for example, the external auditory canal, concha cavity, etc.) is prepared in advance. The right earpiece 222R and the right support 224R can be replaced according to the position of the user.

左側イヤフォン216Lは、例えばカナル型のイヤフォンであり、左側筐体220Lと、左側イヤーピース222Lと、左側支持体224Lと、左側耳掛け226Lと、電極部材228Lとを含む。 The left earphone 216L is, for example, a canal-type earphone, and includes a left housing 220L, a left earpiece 222L, a left support 224L, a left ear hook 226L, and an electrode member 228L.

左側筐体220Lは、例えば、薄型の直方体状の形状を有し、バッテリ等を格納する筐体である。左側筐体220Lにおいて、ユーザがヒアラブルデバイス200を装着したときにユーザの左耳に対向する面に、左側イヤーピース222Lと左側支持体224Lが設けられている。バッテリからの電力が、右側イヤフォン216R及び左側イヤフォン216Lに供給され、これにより、右側イヤフォン216R及び左側イヤフォン216Lが駆動する。例えば、バッテリからの電力が、スピーカや各回路に供給される。なお、バッテリは、右側筐体220R及び左側筐体220Lの両方に設けられてもよいし、右側筐体220R又は左側筐体220Lのいずれか一方に設けられてもよい。 The left housing 220L has, for example, a thin rectangular parallelepiped shape, and is a housing that stores a battery and the like. In the left housing 220L, a left earpiece 222L and a left support 224L are provided on a surface facing the user's left ear when the user wears the hearable device 200. Power from the battery is supplied to the right earphone 216R and the left earphone 216L, thereby driving the right earphone 216R and the left earphone 216L. For example, power from a battery is supplied to the speaker and each circuit. Note that the battery may be provided in both the right case 220R and the left case 220L, or may be provided in either the right case 220R or the left case 220L.

左側支持体224Lは、円柱等の柱状の形状を有して左側筐体220Lの側面(例えば、左側イヤフォン216Lが左耳に装着されたときに左耳に対向する面)から突出し、左側筐体220Lと左側イヤーピース222Lとの間に設けられている。例えば、左側支持体224Lの外径は、左側イヤーピース222Lの外径よりも大きい。左側支持体224Lの側面の一部又は全部に電極部材228Lが設けられている。 The left support 224L has a columnar shape such as a cylinder, protrudes from the side surface of the left housing 220L (for example, the surface facing the left ear when the left earphone 216L is attached to the left ear), and is attached to the left housing 220L. 220L and the left earpiece 222L. For example, the outer diameter of the left support 224L is larger than the outer diameter of the left earpiece 222L. An electrode member 228L is provided on a part or all of the side surface of the left support 224L.

例えば、電極部材228Lはリング状の形状を有し、柱状の左側支持体224Lに支持されている。電極部材228Lの全体又は一部が電極として機能する。つまり、電極部材228Lの全表面に電極が設けられてもよいし、電極部材228Lの一部の表面に電極が設けられ、その部分の表面には電極が設けられなくてもよい。電極部材228Lは、例えば、カーボン製の導電性ゴムによって構成されている。この場合においても、電極部材228Lの全部が導電性ゴムによって構成されて、電極部材228Lの全部(例えば全表面)が電極として機能してもよいし、電極部材228Lの一部が導電性ゴムによって構成されて、電極部材228Lの一部(例えば一部の表面)が電極として機能してもよい。 For example, the electrode member 228L has a ring shape and is supported by the columnar left support 224L. The whole or part of the electrode member 228L functions as an electrode. That is, an electrode may be provided on the entire surface of the electrode member 228L, or an electrode may be provided on a part of the surface of the electrode member 228L, and no electrode may be provided on the surface of that part. The electrode member 228L is made of conductive rubber made of carbon, for example. In this case as well, the entire electrode member 228L may be made of conductive rubber, and the entire electrode member 228L (for example, the entire surface) may function as an electrode, or a portion of the electrode member 228L may be made of conductive rubber. A portion (for example, a portion of the surface) of the electrode member 228L may function as an electrode.

左側イヤーピース222Lは、左側支持体224Lの先端(つまり、左側筐体220Lに接続する端部とは反対側の端部)に設けられている。例えば、左側イヤーピース222Lは、先端に向かって幅が狭くなる円柱状の形状を有する。もちろん、この形状は一例に過ぎず、左側イヤーピース222Lは別の形状を有してもよい。 The left earpiece 222L is provided at the tip of the left support 224L (that is, the end opposite to the end connected to the left housing 220L). For example, the left earpiece 222L has a cylindrical shape whose width becomes narrower toward the tip. Of course, this shape is just an example, and the left earpiece 222L may have another shape.

左側イヤーピース222L内には、音導管等が格納されており、スピーカによって発せられた音は、左側イヤーピース222L内の音導管等を伝達して左側イヤーピース222Lから外部に発せられる。左側イヤーピース222Lの外表面(例えば側面等)の一部又は全部には、電極が設けられている。その電極は、例えば、カーボン製の導電性ゴムによって構成されている。左側イヤーピース222L自体が、導電性ゴムによって構成されてもよい。例えば、左側イヤーピース222Lの全体又は一部が、導電性ゴムによって構成されてもよい。つまり、左側イヤーピース222Lの全表面又は一部の表面が電極として機能してもよい。 A sound conduit etc. is housed in the left earpiece 222L, and the sound emitted by the speaker is transmitted through the sound conduit etc. in the left earpiece 222L and is emitted from the left earpiece 222L to the outside. An electrode is provided on a part or all of the outer surface (for example, the side surface, etc.) of the left earpiece 222L. The electrode is made of conductive rubber made of carbon, for example. The left earpiece 222L itself may be made of conductive rubber. For example, the entire or part of the left earpiece 222L may be made of conductive rubber. That is, the entire surface or a portion of the surface of the left earpiece 222L may function as an electrode.

左側イヤーピース222L及び電極部材228Lは、例えば、弾性部材によって構成されてもよい。その弾性部材として、例えば、ゴム等の樹脂が用いられる。具体的には、Si系のゴム(例えば、NOK社製のS1734)やウレタン系のゴム等が、左側イヤーピース222L及び電極部材228Lに用いられてもよい。また、左側イヤーピース222L及び電極部材228Lのそれぞれの硬度(例えば、デュロメータタイプA(瞬時)の規格に従った硬度)は、例えば40~75である。一例として、硬度が70の樹脂が、左側イヤーピース222L及び電極部材228Lに用いられてもよい。 The left earpiece 222L and the electrode member 228L may be made of, for example, an elastic member. As the elastic member, for example, resin such as rubber is used. Specifically, Si-based rubber (for example, S1734 manufactured by NOK), urethane-based rubber, or the like may be used for the left earpiece 222L and the electrode member 228L. Further, the hardness of each of the left earpiece 222L and the electrode member 228L (for example, hardness according to the durometer type A (instantaneous) standard) is, for example, 40 to 75. As an example, a resin having a hardness of 70 may be used for the left earpiece 222L and the electrode member 228L.

後述するように、左側イヤーピース222Lは、右耳の外耳道に挿入されて外耳道に接触するように右耳に配置され、左側支持体224Lに支持されている電極部材228Lは、左耳の耳甲介腔に接触するように左耳に配置される。 As will be described later, the left earpiece 222L is inserted into the external auditory canal of the right ear and placed in the right ear so as to be in contact with the external auditory canal, and the electrode member 228L supported by the left support 224L is connected to the concha of the left ear. It is placed in the left ear so that it contacts the cavity.

左側耳掛け226Lは、全体として湾曲した形状を有し、ユーザが左側イヤフォン216Lを装着したときにユーザの左耳に掛けられる部材である。例えば、左側耳掛け226Lは、左耳の耳輪に掛けられる。より詳しく説明すると、左側耳掛け226Lは、耳輪の裏側において耳輪に接して設けられる。左側耳掛け226Lの一方の端部は、左側筐体220Lの前方側の部分に接続されており、左側耳掛け226Lは、その接続部分から左側筐体220Lの後方側にかけて湾曲した形状を有しており、その部分が湾曲部を構成する。その湾曲部が、左耳の耳輪の裏側において耳輪に接して設けられる。例えば、湾曲部は、耳輪の裏側の形状に沿った形状を有する。左側耳掛け226Lの他方の部分は、ケーブル218の一方の端部に接続されている。 The left ear hook 226L has a generally curved shape, and is a member that is hung on the user's left ear when the user wears the left earphone 216L. For example, the left ear hook 226L is hung on the helix of the left ear. To explain in more detail, the left ear hook 226L is provided in contact with the helix on the back side of the helix. One end of the left ear hook 226L is connected to the front side of the left housing 220L, and the left ear hook 226L has a curved shape from the connecting portion to the rear side of the left housing 220L. This part constitutes the curved part. The curved portion is provided in contact with the helix on the back side of the helix of the left ear. For example, the curved portion has a shape that follows the shape of the back side of the helix. The other portion of the left ear hook 226L is connected to one end of the cable 218.

左側イヤーピース222L及び左側支持体224Lは、交換可能な部材である。例えば、形状や大きさの異なる複数種類(例えば3~5種類等)の左側イヤーピース222Lと左側支持体224Lが予め用意されており、ユーザの耳の形状(例えば、外耳道や耳甲介腔やその他の部位)に合わせて、左側イヤーピース222Lと左側支持体224Lを交換することができる。 The left earpiece 222L and the left support 224L are replaceable members. For example, multiple types (for example, 3 to 5 types) of left earpieces 222L and left side supports 224L with different shapes and sizes are prepared in advance, and the shape of the user's ear (for example, the external auditory canal, concha cavity, etc.) is prepared in advance. The left earpiece 222L and the left support 224L can be replaced according to the location of the player.

なお、制御装置、通信装置、電子回路、6軸センサ及びメモリ等は、右側筐体220R又は左側筐体220Lのいずれか一方に格納されてもよいし、右側筐体220R及び左側筐体220Lの両方に格納されてもよい。 Note that the control device, communication device, electronic circuit, 6-axis sensor, memory, etc. may be stored in either the right housing 220R or the left housing 220L, or may be stored in the right housing 220R and the left housing 220L. It may be stored in both.

また、右側筐体220R又は左側筐体220Lには、電源ボタンや、音量を調整するためのスイッチ等が設けられている。右側筐体220R及び左側筐体220Lの両方に、電源ボタンやスイッチ等が設けられてもよい。 Further, the right side housing 220R or the left side housing 220L is provided with a power button, a switch for adjusting the volume, and the like. A power button, a switch, etc. may be provided on both the right side housing 220R and the left side housing 220L.

例えば、右側イヤーピース222Rに設けられている電極、又は、左側イヤーピース222Lに設けられている電極のいずれか一方の電極が、センサ電極として用いられ、他方の電極が、レファレンス電極として用いられる。また、電極部材228R及び電極部材228Lが、グランド電極として用いられる。もちろん、電極部材228R又は電極部材228Lのいずれか一方がセンサ電極として用いられ、他方がレファレンス電極として用いられ、右側イヤーピース222R及び左側イヤーピース222Lに設けられている電極が、グランド電極として用いられてもよい。 For example, either the electrode provided on the right earpiece 222R or the electrode provided on the left earpiece 222L is used as a sensor electrode, and the other electrode is used as a reference electrode. Further, the electrode member 228R and the electrode member 228L are used as ground electrodes. Of course, either one of the electrode member 228R or the electrode member 228L may be used as a sensor electrode, the other may be used as a reference electrode, and the electrodes provided on the right earpiece 222R and the left earpiece 222L may be used as a ground electrode. good.

別の例として、右側イヤーピース222Rに、互いに分離された複数の電極が設けられ、当該複数の電極の中の少なくとも1つの電極が、センサ電極、レファレンス電極又はグランド電極として用いられてもよい。例えば、当該複数の電極がセンサ電極として用いられ、当該複数の電極のうち、検出感度が最も高い電極、ノイズが最も少ない電極、又は、ノイズのレベルが最も安定している電極によって検出された電位を、センサ電位として用いてもよい。当該複数の電極がレファレンス電極又はグランド電極として用いられる場合も同様である。また、左側イヤーピース222L、電極部材228R及び電極部材228Lについても同様である。 As another example, the right earpiece 222R may be provided with a plurality of electrodes separated from each other, and at least one of the plurality of electrodes may be used as a sensor electrode, a reference electrode, or a ground electrode. For example, the plurality of electrodes are used as sensor electrodes, and the potential detected by the electrode with the highest detection sensitivity, the electrode with the least noise, or the electrode with the most stable noise level among the plurality of electrodes. may be used as the sensor potential. The same applies when the plurality of electrodes are used as a reference electrode or a ground electrode. The same applies to the left earpiece 222L, the electrode member 228R, and the electrode member 228L.

図34に示すように、右側支持体224Rに支持されている電極部材228Rは、右側筐体220Rから高さhの位置に設置されている。つまり、電極部材228Rと右側筐体220Rとの間の距離は、高さhに設定される。高さhは、例えば、右側筐体220Rと耳輪との干渉を防止し、接触不良を防止する程度の値に設定される。具体的には、右側イヤーピース222Rが右耳の外耳道に挿入されて、右側イヤフォン216Rが右耳に装着されたときに、右側筐体220Rが右耳の耳輪に接触しないように、高さhが設定される。つまり、右側筐体220Rが耳輪に接触しない位置まで耳輪から離れるように、高さhが設定される。こうすることで、例えば、右側筐体220Rの上方向の面が耳輪に接触しない。右側筐体220Rが耳輪に接触し、右側筐体220Rと耳輪とが干渉すると、右側イヤーピース222Rが外耳道内にて安定する位置まで挿入されず、右側イヤーピース222Rの電極と外耳道との間で接触不良が発生する可能性がある。また、電極部材228Rが、右耳の耳甲介腔と良好に接触する位置に配置されず、電極部材228Rと右耳の耳甲介腔との間で接触不良が発生する可能性がある。そのような接触不良が発生すると、センサ電位やレファレンス電位やグランド電位の検出感度が低下し、生体情報の測定精度が低下する可能性がある。右側筐体220Rが耳輪に接触しないように高さhを設定することで、右側筐体220Rと耳輪とが干渉せず、右側イヤーピース222Rを外耳道内にて安定する位置まで挿入することができ、右側イヤーピース222Rの電極と外耳道との接触を良好にすることができる。また、電極部材228Rを、右耳の耳甲介腔と良好に接触する位置に配置することができ、電極部材228Rと耳甲介腔との接触を良好にすることができる。こうすることで、生体電位の検出感度を向上させることができる。左側イヤフォン216Lについても同様である。 As shown in FIG. 34, the electrode member 228R supported by the right support 224R is installed at a height h from the right housing 220R. In other words, the distance between the electrode member 228R and the right housing 220R is set to the height h. The height h is set, for example, to a value that prevents interference between the right side housing 220R and the ear helix and prevents poor contact. Specifically, when the right earpiece 222R is inserted into the external auditory canal of the right ear and the right earphone 216R is attached to the right ear, the height h is set such that the right housing 220R does not come into contact with the helix of the right ear. Set. In other words, the height h is set so that the right housing 220R is separated from the hemisphere to a position where it does not come into contact with the hemisphere. By doing so, for example, the upper surface of the right housing 220R does not come into contact with the helix. If the right housing 220R contacts the ear helix and interferes with the ear helix, the right ear piece 222R will not be inserted to a stable position within the ear canal, resulting in poor contact between the electrodes of the right ear piece 222R and the ear canal. may occur. Further, the electrode member 228R is not placed in a position where it can make good contact with the concha cavity of the right ear, and there is a possibility that poor contact occurs between the electrode member 228R and the concha cavity of the right ear. When such poor contact occurs, the detection sensitivity of the sensor potential, reference potential, and ground potential may decrease, and the measurement accuracy of biological information may decrease. By setting the height h so that the right housing 220R does not come into contact with the helix, the right housing 220R and the helix do not interfere, and the right earpiece 222R can be inserted to a stable position in the ear canal. Good contact between the electrode of the right earpiece 222R and the external auditory canal can be achieved. Furthermore, the electrode member 228R can be placed at a position where it makes good contact with the concha cavity of the right ear, and the contact between the electrode member 228R and the concha cavity can be made good. By doing so, the detection sensitivity of biopotential can be improved. The same applies to the left earphone 216L.

また、図30に示すように、右側耳掛け226Rは、右側イヤフォン216Rを上方向から見たときに、右側筐体220Rの位置から右側イヤーピース222Rが設置されている方向にずれて配置されている。つまり、右側イヤフォン216Rを上方向から見たときに、右側筐体220Rと右側耳掛け226Rとの間に隙間が形成されている。右側耳掛け226Rは、右側筐体220Rの位置から右側イヤーピース222Rが設置されている方向にオフセットして配置されているといえる。その隙間は耳用スペースであり、その隙間に、右耳が挿入されて配置されるようになっている。このような耳用スペースを設けて、その耳用スペースに右耳を挿入して配置するようにすることで、右耳の大きさに関わらず、右耳を耳用スペースに配置し、右側イヤフォン216Rを右耳に安定して装着することができる。その結果、右側イヤーピース222Rの電極と外耳道との間の接触、及び、電極部材228Rと耳甲介腔との間の接触を良好にすることができる。左側イヤフォン216Lについても同様である。 Further, as shown in FIG. 30, when the right earphone 216R is viewed from above, the right ear hook 226R is disposed offset from the position of the right housing 220R in the direction in which the right earpiece 222R is installed. . That is, when the right earphone 216R is viewed from above, a gap is formed between the right housing 220R and the right ear hook 226R. It can be said that the right ear hook 226R is arranged offset from the position of the right housing 220R in the direction in which the right earpiece 222R is installed. The gap is an ear space, and the right ear is inserted into the gap. By creating such an ear space and inserting the right ear into the ear space, the right ear can be placed in the ear space regardless of the size of the right ear, and the right earphone can be placed in the ear space. 216R can be stably worn in the right ear. As a result, it is possible to improve the contact between the electrode of the right earpiece 222R and the external auditory canal, and the contact between the electrode member 228R and the concha cavity. The same applies to the left earphone 216L.

図35に示すように、右側支持体224Rには、金属からなる導電管部材230Rが、右側筐体220Rから離れる方向に突出して設けられる。導電管部材230Rの後端は右側支持体224Rに設置され、導電管部材230Rの先端には右側イヤーピース222Rが設けられる。例えば、導電管部材230Rの後端は、ねじ止め等によって右側支持体224Rの先端に取り付けられる。右側支持体224Rの側面には、金属からなる導電管部材232Rが、その側面から突出する方向に設けられる。また、その側面には、導電管部材232Rを覆うように、リング状の電極部材228Rが設けられている。より詳しく説明すると、右側支持体224Rの側面には、右側支持体224Rの周方向に沿って溝が形成されており、その溝に、導電管部材232Rの一方端が挿入される孔224R1が形成されている。導電管部材232Rの一方端が、その孔224R1に挿入されることで、導電管部材232Rは右側支持体224Rの側面に取り付けられる。例えば、ねじ止め等によって、導電管部材232Rが右側支持体224Rの側面に取り付けられる。導電管部材232Rが右側支持体224Rの側面に取り付けられた状態で、電極部材228Rが、右側支持体224Rの側面の溝に嵌め込まれ、これにより、電極部材228Rが、導電管部材232Rに接触した状態で右側支持体224Rの側面に取り付けられる。導電管部材232Rは、右側支持体224R内において電線に接続される。これにより、電極部材228Rによって検出された電位を示す電位信号は、導電管部材232Rを介してその電線に送られ、その電線を介して、後述するメイン基板234に出力される。左側イヤフォン216Lも、右側イヤフォン216Rと同様の構成を有する。 As shown in FIG. 35, a conductive tube member 230R made of metal is provided on the right support body 224R so as to protrude in a direction away from the right housing 220R. The rear end of the conductive tube member 230R is installed on the right support 224R, and the right earpiece 222R is provided at the tip of the conductive tube member 230R. For example, the rear end of the conductive tube member 230R is attached to the tip of the right support 224R by screwing or the like. A conductive tube member 232R made of metal is provided on the side surface of the right support 224R in a direction protruding from the side surface. Further, a ring-shaped electrode member 228R is provided on the side surface of the ring-shaped electrode member 228R so as to cover the conductive tube member 232R. To explain in more detail, a groove is formed on the side surface of the right support 224R along the circumferential direction of the right support 224R, and a hole 224R1 into which one end of the conductive tube member 232R is inserted is formed in the groove. has been done. By inserting one end of the conductive tube member 232R into the hole 224R1, the conductive tube member 232R is attached to the side surface of the right support 224R. For example, the conductive tube member 232R is attached to the side surface of the right support 224R by screwing or the like. With the conductive tube member 232R attached to the side surface of the right side support 224R, the electrode member 228R was fitted into the groove on the side surface of the right side support 224R, so that the electrode member 228R came into contact with the conductive tube member 232R. In this state, it is attached to the side surface of the right support 224R. The conductive tube member 232R is connected to the electric wire within the right support 224R. As a result, a potential signal indicating the potential detected by the electrode member 228R is sent to the electric wire via the conductive tube member 232R, and output to the main board 234, which will be described later, via the electric wire. The left earphone 216L also has the same configuration as the right earphone 216R.

また、図36に示すように、右側筐体220R内には、メイン基板234とサブ基板236が収容されている。メイン基板234及びサブ基板236以外の基板が、左側筐体220Lに収容されてもよい。 Further, as shown in FIG. 36, a main board 234 and a sub-board 236 are housed in the right housing 220R. Boards other than the main board 234 and the sub-board 236 may be accommodated in the left housing 220L.

また、図37に示すように、左側筐体220L内には、バッテリ238と中継基板240が収容されている。バッテリ238から電力が中継基板240を介して、右側イヤフォン216R及び左側イヤフォン216Lに供給される。 Further, as shown in FIG. 37, a battery 238 and a relay board 240 are housed in the left side housing 220L. Power is supplied from the battery 238 to the right earphone 216R and the left earphone 216L via the relay board 240.

ケーブル218は、ケーブル218の全体の形状を維持することができる硬さを有する。例えば、ケーブル218は、ヒアラブルデバイス200が人の耳に装着されたときに、ケーブル218が人の後頭部や後頭部の髪の毛に接触しないように、右側筐体220R及び左側筐体220Lから後方向に向けて延びて配置される形状を有する。このように、ケーブル218が後頭部や後頭部の髪の毛に接触しないことで、その接触に起因するノイズが、生体情報に発生することを防止することができる。 Cable 218 has a stiffness that allows cable 218 to maintain its overall shape. For example, when the hearable device 200 is worn on a person's ear, the cable 218 is routed rearward from the right housing 220R and the left housing 220L so that the cable 218 does not come into contact with the back of the person's head or the hair on the back of the head. It has a shape that extends toward the target. In this way, since the cable 218 does not come into contact with the back of the head or the hair on the back of the head, it is possible to prevent noise caused by the contact from occurring in the biological information.

仮に、ケーブル218が後頭部等に接触した場合であっても、その接触による負荷がケーブル218に伝わり、図31中の矢印Yが指し示すように、左側イヤフォン216Lの全体が、後方向に向けて回転する。これにより、左側イヤーピース222L及び電極部材228Lが、左耳により強固に固定される。つまり、左側イヤフォン216Lの全体が、左側イヤーピース222L及び電極部材228Lをより強固に固定する方向に回転する。その結果、左側イヤーピース222Lの電極と外耳道との間の接触、及び、電極部材228Lと耳甲介腔との間の接触をより良好にして、検出感度を向上させることができる。右側イヤフォン216Rについても同様である。 Even if the cable 218 were to come into contact with the back of the head, etc., the load due to the contact would be transmitted to the cable 218, and the entire left earphone 216L would rotate toward the rear, as indicated by arrow Y in FIG. do. Thereby, the left earpiece 222L and the electrode member 228L are more firmly fixed to the left ear. In other words, the entire left earphone 216L rotates in a direction to more firmly fix the left earpiece 222L and the electrode member 228L. As a result, the contact between the electrode of the left earpiece 222L and the external auditory canal and the contact between the electrode member 228L and the concha cavity can be improved, and detection sensitivity can be improved. The same applies to the right earphone 216R.

なお、ヒアラブルデバイス200は、骨伝導の出力が可能な装置であってもよい。これにより、音ではなく骨伝導によって情報を人に伝えることができる。例えば、耳が聞こえないユーザであっても、ヒアラブルデバイス200を用いることで、脳波等の生体情報を測定すると共に、骨伝導によって情報をユーザに伝えることができる。 Note that the hearable device 200 may be a device capable of bone conduction output. This allows information to be transmitted to people through bone conduction rather than sound. For example, even a deaf user can use the hearable device 200 to measure biological information such as brain waves and transmit information to the user through bone conduction.

上述した各実施例が、ヒアラブルデバイス200を用いて実行されてもよい。つまり、ヒアラブルデバイス200を用いてユーザの生体情報が測定され、その測定された生体情報を用いて各実施例が実行されてもよい。もちろん、ヒアラブルデバイス200と他の生体情報測定装置12とを用いることで、複数種類の生体情報を測定し、その測定された複数種類の生体情報に基づいて、人の状態(例えば感情情報、精神情報及び心理情報等)が得られてもよい。 Each of the embodiments described above may be performed using the hearable device 200. That is, the user's biometric information may be measured using the hearable device 200, and each embodiment may be executed using the measured biometric information. Of course, by using the hearable device 200 and the other biological information measuring device 12, multiple types of biological information can be measured, and based on the measured multiple types of biological information, the state of the person (e.g., emotional information, mental information, psychological information, etc.) may be obtained.

上記各実施形態において、プロセッサとは広義的なプロセッサを指し、汎用的なプロセッサ(例えばCPU: Central Processing Unit、等)や、専用のプロセッサ(例えばGPU: Graphics Processing Unit、ASIC: Application Specific Integrated Circuit、FPGA: Field Programmable Gate Array、プログラマブル論理デバイス、等)を含むものである。また上記各実施形態におけるプロセッサの動作は、1つのプロセッサによって成すのみでなく、物理的に離れた位置に存在する複数のプロセッサが協働して成すものであってもよい。また、プロセッサの各動作の順序は上記各実施形態において記載した順序のみに限定されるものではなく、適宜変更してもよい。 In each of the above embodiments, the processor refers to a processor in a broad sense, and may include a general-purpose processor (for example, CPU: Central Processing Unit, etc.) or a dedicated processor (for example, GPU: Graphics Processing Unit, ASIC: Application Specific Integrator). ated circuit, FPGA: field programmable gate array, programmable logic device, etc.). Further, the operation of the processor in each of the above embodiments may be performed not only by one processor, but also by a plurality of processors located at physically separate locations. Further, the order of each operation of the processor is not limited to the order described in each of the above embodiments, and may be changed as appropriate.

10 情報処理装置、12 生体情報測定装置、14 環境情報測定装置、16 機器、18 端末装置。 Reference Signs List 10 information processing device, 12 biological information measuring device, 14 environmental information measuring device, 16 equipment, 18 terminal device.

Claims (20)

プロセッサが、
少なくとも1人のユーザの生体情報を取得し、
前記少なくとも1人のユーザの脳波を少なくとも含む生体情報と、前記生体情報が測定された各時点におけるコンテキストを示すコンテキスト情報の少なくとも1つの時系列を含む履歴情報と、に基づいて前記少なくとも1人のユーザの状態を判定し、
前記少なくとも1人のユーザの状態を前記少なくとも1人のユーザに出力する、
情報処理方法。
The processor
obtain biometric information of at least one user;
of the at least one user based on biometric information including at least the brain waves of the at least one user, and historical information including at least one time series of context information indicating the context at each point in time when the biometric information was measured. Determine the user's status,
outputting the state of the at least one user to the at least one user;
Information processing method.
前記履歴情報は、複数の時系列に基づいて分類され、前記複数の時系列の各々について、前記生体情報と前記履歴情報を分析することで、前記少なくとも1人のユーザの少なくとも1つの状態が判定される、請求項1に記載の情報処理方法。 The historical information is classified based on a plurality of time series, and at least one state of the at least one user is determined by analyzing the biological information and the history information for each of the plurality of time series. The information processing method according to claim 1. 前記複数の時系列の各々には、前記ユーザが置かれたコンテキストに応じた重みが割り当てられ、前記少なくとも1人のユーザについて判定された前記少なくとも1つの状態が、前記重みによって決定された優先順位で出力されるか、又は前記少なくとも1人のユーザについて判定された前記少なくとも1つの状態の部分集合が、前記重みに応じて出力される、請求項2に記載の情報処理方法。 Each of the plurality of time series is assigned a weight according to the context in which the user is placed, and the at least one state determined for the at least one user has a priority determined by the weight. 3. The information processing method according to claim 2, wherein a subset of the at least one state determined for the at least one user is output according to the weight. 前記少なくとも1人のユーザの状態は、前記生体情報と、複数の時系列で収集された前記履歴情報との組み合わせに基づいて判定される、請求項1に記載の情報処理方法。 The information processing method according to claim 1, wherein the state of the at least one user is determined based on a combination of the biometric information and the history information collected in a plurality of time series. 前記少なくとも1人のユーザの状態を、少なくとも1人の他のユーザに出力する、請求項1に記載の情報処理方法。 The information processing method according to claim 1, wherein the at least one user's status is output to at least one other user. 前記少なくとも1人のユーザ、又は前記少なくとも1人の他のユーザの状態若しくは履歴情報に基づいて提案された介入手段を決定し、前記提案された介入手段を前記少なくとも1人のユーザ、又は前記少なくとも1人の他のユーザに出力することをさらに含み、
前記提案された介入手段を出力するための少なくとも1つの介入装置が、前記少なくとも1人のユーザがいる環境から選択される、請求項5に記載の情報処理方法。
determining a proposed intervention measure based on state or history information of the at least one user or the at least one other user; and applying the proposed intervention measure to the at least one user or the at least one other user; further comprising outputting to one other user;
6. Information processing method according to claim 5, wherein at least one intervention device for outputting the proposed intervention means is selected from the environment in which the at least one user is present.
前記少なくとも1人のユーザの状態又は履歴情報に基づいて、提案された介入手段を決定し、前記提案された介入手段を前記少なくとも1人のユーザに出力することをさらに含む、請求項1に記載の情報処理方法。 2. The method of claim 1, further comprising: determining a proposed intervention based on state or historical information of the at least one user; and outputting the proposed intervention to the at least one user. information processing methods. 前記少なくとも1人のユーザから測定された生体電位の周波数スペクトルに基づいて、前記少なくとも1人のユーザの状態を決定することをさらに含む、請求項1に記載の情報処理方法。 The information processing method according to claim 1, further comprising determining a state of the at least one user based on a frequency spectrum of a biopotential measured from the at least one user. 前記プロセッサは、生体情報測定装置と、音声入出力装置と、メモリと、を備えたヒアラブルデバイスに含まれ、
前記プロセッサによって、前記提案された介入手段を、前記音声入出力装置を介して前記少なくとも1人のユーザに出力し、前記提案された介入手段に対する前記少なくとも1人のユーザの応答を取得し、前記応答を前記メモリに記憶する、
請求項7に記載の情報処理方法。
The processor is included in a hearable device that includes a biological information measuring device, an audio input/output device, and a memory,
outputting the proposed intervention measure to the at least one user via the audio input/output device, obtaining a response of the at least one user to the proposed intervention measure; storing the response in said memory;
The information processing method according to claim 7.
前記提案された介入手段を実行する前に、前記少なくとも1人のユーザから前記応答を取得する第1のモード、又は前記提案された介入手段を人工知能によって自動的に実行する第2のモードのいずれかを選択することをさらに含む、請求項9に記載の情報処理方法。 a first mode in which the response is obtained from the at least one user before executing the proposed intervention; or a second mode in which the proposed intervention is executed automatically by artificial intelligence. The information processing method according to claim 9, further comprising selecting one. 光、画像、映像、音声、音声、音楽、振動、温度変化、衝突、刺激、臭いのうちの少なくとも1つを伝達することで前記提案された介入手段を実行することをさらに含む、請求項7に記載の情報処理方法。 Claim 7, further comprising performing the proposed intervention means by transmitting at least one of light, images, video, sounds, sounds, music, vibrations, temperature changes, bumps, stimuli, odors. The information processing method described in . プロセッサによって、
少なくとも1人のユーザの生体情報を取得し、
前記少なくとも1人のユーザの生体情報に基づいて前記少なくとも1人のユーザの状態を判定し、
前記少なくとも1人のユーザの状態に基づいて、前記少なくとも1人のユーザによる情報のコミュニケーションを支援する、
情報処理方法。
By the processor
obtain biometric information of at least one user;
determining the state of the at least one user based on biometric information of the at least one user;
assisting the at least one user in communicating information based on the at least one user's status;
Information processing method.
前記少なくとも1人のユーザが複数のユーザを含み、
前記プロセッサは、一方のユーザから他方のユーザへの情報のコミュニケーションを支援する場合、前記一方のユーザの承認を得てから前記他方のユーザに前記情報を送信する、請求項12に記載の情報処理方法。
the at least one user includes a plurality of users;
13. The information processing according to claim 12, wherein when supporting communication of information from one user to another user, the processor transmits the information to the other user after obtaining approval from the one user. Method.
前記一方のユーザが、前記他方のユーザに送信すべき前記情報を拒否した場合、前記一方のユーザに関連付けられたメモリに前記情報を記憶することをさらに含む、請求項13に記載の情報処理方法。 The information processing method according to claim 13, further comprising storing the information in a memory associated with the one user if the one user rejects the information to be sent to the other user. . 前記一方のユーザが、前記他方のユーザに送信すべき前記情報を拒否した場合、前記一方のユーザに対して、少なくとも1つの代替アクションを含む選択肢を提案することをさらに含む、請求項13に記載の情報処理方法。 14. If the one user rejects the information to be sent to the other user, the method further comprises: proposing to the one user an option that includes at least one alternative action. information processing methods. 前記一方のユーザが、前記他方のユーザへの前記情報の送信を確認した場合、判定された前記一方のユーザの状態に対応付けて前記情報を学習データとしてメモリに記憶し、判定された前記一方のユーザの状態に基づく前記情報の次回の判定に前記学習データを使用することをさらに含む、請求項13に記載の情報処理方法。 When the one user confirms the transmission of the information to the other user, the information is stored in a memory as learning data in association with the determined state of the one user, and the one user 14. The information processing method according to claim 13, further comprising using the learning data for the next determination of the information based on the state of the user. 前記一方のユーザが、前記他方のユーザへの前記情報の送信を承認した場合、前記他方のユーザへの前記情報の送信が成功したか否かを示すデータをメモリに記憶することをさらに含む、請求項13に記載の情報処理方法。 If the one user approves the transmission of the information to the other user, further comprising storing in memory data indicating whether the transmission of the information to the other user was successful. The information processing method according to claim 13. 前記少なくとも1人のユーザから測定された生体電位の周波数スペクトルに基づいて、前記少なくとも1人のユーザの状態を判定することをさらに含む、請求項12に記載の情報処理方法。 The information processing method according to claim 12, further comprising determining a state of the at least one user based on a frequency spectrum of a biopotential measured from the at least one user. 少なくとも1人のユーザの生体情報を取得し、
前記少なくとも1人のユーザの脳波を少なくとも含む生体情報と、前記生体情報が測定された各時点におけるコンテキストを示すコンテキスト情報の少なくとも1つの時系列を含む履歴情報と、に基づいて前記少なくとも1人のユーザの状態を判定し、
前記少なくとも1人のユーザの状態を前記少なくとも1人のユーザに出力する、
ように構成されたプロセッサを備えた情報処理装置。
obtain biometric information of at least one user;
of the at least one user based on biometric information including at least the brain waves of the at least one user, and historical information including at least one time series of context information indicating the context at each point in time when the biometric information was measured. Determine the user's status,
outputting the state of the at least one user to the at least one user;
An information processing device including a processor configured as follows.
少なくとも1人のユーザの生体情報を取得し、
前記少なくとも1人のユーザの生体情報に基づいて前記少なくとも1人のユーザの状態を判定し、
前記少なくとも1人のユーザの状態に基づいて、前記少なくとも1人のユーザによる情報のコミュニケーションを支援する、
ように構成されたプロセッサを備えた情報処理装置。
obtain biometric information of at least one user;
determining the state of the at least one user based on biometric information of the at least one user;
assisting the at least one user in communicating information based on the at least one user's status;
An information processing device including a processor configured as follows.
JP2023044711A 2022-03-30 2023-03-20 Information processing apparatus and information processing method Pending JP2023152840A (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US17/707,999 US11769595B2 (en) 2020-10-01 2022-03-30 Information processing apparatus and non-transitory computer readable medium
US17/707,999 2022-03-30

Publications (1)

Publication Number Publication Date
JP2023152840A true JP2023152840A (en) 2023-10-17

Family

ID=88349617

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2023044711A Pending JP2023152840A (en) 2022-03-30 2023-03-20 Information processing apparatus and information processing method

Country Status (1)

Country Link
JP (1) JP2023152840A (en)

Similar Documents

Publication Publication Date Title
US10901509B2 (en) Wearable computing apparatus and method
US11344249B2 (en) Device for neurovascular stimulation
US20080214903A1 (en) Methods and Systems for Physiological and Psycho-Physiological Monitoring and Uses Thereof
US20240023892A1 (en) Method and system for collecting and processing bioelectrical signals
KR20190026651A (en) Methods and systems for acquiring, aggregating and analyzing vision data to approach a person&#39;s vision performance
KR102361026B1 (en) Bioelectrical signal measuring apparatus
US11635816B2 (en) Information processing apparatus and non-transitory computer readable medium
US10695529B2 (en) Methods, systems, and apparatus for configuring cognitive states
JP6285002B1 (en) System and program for treatment of dental diseases such as temporomandibular disorders
JP7207468B2 (en) Output control device, output control method and program
TW200927066A (en) Ear wearing type biofeedback device
US20230021336A1 (en) Methods and apparatus for predicting and preventing autistic behaviors with learning and ai algorithms
JP7359437B2 (en) Information processing device, program, and method
KR20230134118A (en) Monitoring biometric data to determine mental state and input commands
JP2024045281A (en) Information Processing Method
KR20200091261A (en) Electronic apparatus and method of inducing sleep
US11769595B2 (en) Information processing apparatus and non-transitory computer readable medium
JP2023152840A (en) Information processing apparatus and information processing method
WO2022209499A1 (en) Information processing system
JP7320261B2 (en) Information processing system, method, and program
JP2022153233A (en) Information processing system
CN112998723A (en) Information processing apparatus and computer readable medium