JP2023183280A - Electronic equipment, control method of electronic equipment, and control program of electronic equipment - Google Patents

Electronic equipment, control method of electronic equipment, and control program of electronic equipment Download PDF

Info

Publication number
JP2023183280A
JP2023183280A JP2022096811A JP2022096811A JP2023183280A JP 2023183280 A JP2023183280 A JP 2023183280A JP 2022096811 A JP2022096811 A JP 2022096811A JP 2022096811 A JP2022096811 A JP 2022096811A JP 2023183280 A JP2023183280 A JP 2023183280A
Authority
JP
Japan
Prior art keywords
information
subject
control unit
target person
internal state
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2022096811A
Other languages
Japanese (ja)
Inventor
楓子 ▲高▼野
Fuko TAKANO
淳吾 宮崎
Jungo Miyazaki
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Kyocera Corp
Original Assignee
Kyocera Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kyocera Corp filed Critical Kyocera Corp
Priority to JP2022096811A priority Critical patent/JP2023183280A/en
Priority to PCT/JP2023/020857 priority patent/WO2023243469A1/en
Publication of JP2023183280A publication Critical patent/JP2023183280A/en
Pending legal-status Critical Current

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/16Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q10/00Administration; Management
    • G06Q10/04Forecasting or optimisation specially adapted for administrative or management purposes, e.g. linear programming or "cutting stock problem"
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q10/00Administration; Management
    • G06Q10/10Office automation; Time management

Abstract

To provide electronic equipment, a control method of electronic equipment, and a control program of electronic equipment capable of improving estimation accuracy for an internal state of a target person.SOLUTION: Electronic equipment 1 includes an output unit 40 for outputting presentation information to be presented to a target person, an acquisition unit 30 for acquiring target person information on the target person, and a control unit 10 for estimating an internal state of the target person on the basis of the presentation information and the target person information.SELECTED DRAWING: Figure 1

Description

本開示は、電子機器、電子機器の制御方法及び制御プログラムに関する。 The present disclosure relates to an electronic device, a method of controlling the electronic device, and a control program.

非同期遠隔会議において、映像、音声情報に加え、使用者の音声、表情・動作、生体情報のデータから抽出した多様な心理状態推定情報を遠隔地の対話相手に表示するシステムが知られている(例えば特許文献1等参照)。 In asynchronous remote conferencing, a system is known that displays a variety of psychological state estimation information extracted from the user's voice, facial expressions/movements, and biological information to the remote conversation partner in addition to video and audio information ( For example, see Patent Document 1, etc.).

特開2006-262010号公報Japanese Patent Application Publication No. 2006-262010

対象者の内部状態の推定精度の向上が求められる。 There is a need to improve the accuracy of estimating a subject's internal state.

本開示は、対象者の内部状態の推定精度を向上できる電子機器、電子機器の制御方法及び制御プログラムを提供することを目的とする。 An object of the present disclosure is to provide an electronic device, a control method for the electronic device, and a control program that can improve the estimation accuracy of a subject's internal state.

本開示の一実施形態に係る電子機器は、出力部と、取得部と、制御部とを備える。前記出力部は、対象者に対して提示する提示情報を出力する。前記取得部は、前記対象者に関する対象者情報を取得する。前記制御部は、前記提示情報と前記対象者情報とに基づいて前記対象者の内部状態を推定する。 An electronic device according to an embodiment of the present disclosure includes an output section, an acquisition section, and a control section. The output unit outputs presentation information to be presented to the target person. The acquisition unit acquires target person information regarding the target person. The control unit estimates the internal state of the subject based on the presentation information and the subject information.

本開示の一実施形態に係る電子機器の制御方法は、対象者に対して提示する提示情報を出力し、前記対象者に関する対象者情報を取得し、前記提示情報と前記対象者情報とに基づいて前記対象者の内部状態を推定する。 A method for controlling an electronic device according to an embodiment of the present disclosure includes: outputting presentation information to be presented to a target person, acquiring target person information regarding the target person, and based on the presentation information and the target person information. and estimate the internal state of the subject.

本開示の一実施形態に係る電子機器の制御プログラムは、電子機器に、対象者に対して提示する提示情報を出力させる。前記制御プログラムは、前記電子機器に、前記対象者に関する対象者情報を取得させる。前記制御プログラムは、前記電子機器に、前記提示情報と前記対象者情報とに基づいて前記対象者の内部状態を推定させる。 A control program for an electronic device according to an embodiment of the present disclosure causes the electronic device to output presentation information to be presented to a target person. The control program causes the electronic device to acquire target person information regarding the target person. The control program causes the electronic device to estimate the internal state of the subject based on the presentation information and the subject information.

本開示に係る電子機器、電子機器の制御方法及び制御プログラムによれば、対象者の内部状態の推定精度が高められ得る。 According to the electronic device, the control method for the electronic device, and the control program according to the present disclosure, the accuracy of estimating the internal state of the subject can be improved.

一実施形態に係る電子機器の概略構成を示すブロック図である。FIG. 1 is a block diagram showing a schematic configuration of an electronic device according to an embodiment. 内部状態と生体情報との関係を示すモデルの一例を示す図である。FIG. 2 is a diagram showing an example of a model showing the relationship between internal states and biological information. 刺激情報に基づいて内部状態を推定する制御方法の手順例を示すフローチャートである。It is a flowchart which shows the example of a procedure of the control method which estimates an internal state based on stimulus information. 刺激を調整して内部状態を推定する制御方法の手順例を示すフローチャートである。2 is a flowchart illustrating an example of a procedure of a control method for estimating an internal state by adjusting a stimulus. 刺激を計測して内部状態を推定する制御方法の手順例を示すフローチャートである。It is a flowchart which shows the example of a procedure of the control method which measures a stimulus and estimates an internal state.

以下、図面を参照して、本開示を適用した電子機器1(図1参照)の実施形態が説明される。以下の説明は、本開示を適用した電子機器1の制御方法及び制御プログラムの実施形態の説明を兼ね得る。 Hereinafter, an embodiment of an electronic device 1 (see FIG. 1) to which the present disclosure is applied will be described with reference to the drawings. The following description may also serve as an explanation of an embodiment of a control method and a control program for the electronic device 1 to which the present disclosure is applied.

本開示において、「電子機器1」とは、電力により駆動する機器であってよい。一実施形態に係る電子機器1は、例えば対象者の感情又は集中度等の、対象者の内部状態を推定する。ここで、「対象者」は、一実施形態に係る電子機器1によって内部状態が推定される対象となる者(典型的には人間)であってよい。また、本開示において、「ユーザ」は、一実施形態に係る電子機器1を使用する者(典型的には人間)であってよい。「ユーザ」は、「対象者」と同じ者であってよいし、異なる者であってもよい。また、「ユーザ」及び「対象者」は、人間であってもよいし、人間以外の動物であってもよい。 In the present disclosure, the "electronic device 1" may be a device driven by electric power. The electronic device 1 according to one embodiment estimates the internal state of the subject, such as the subject's emotion or concentration level. Here, the "target person" may be a person (typically a human being) whose internal state is estimated by the electronic device 1 according to one embodiment. Furthermore, in the present disclosure, a "user" may be a person (typically a human) who uses the electronic device 1 according to one embodiment. The "user" may be the same person as the "target person" or may be a different person. Further, the "user" and the "target person" may be humans or animals other than humans.

一実施形態に係る電子機器1は、各種の機器としてよい。例えば、一実施形態に係る電子機器1は、専用に設計された端末の他、汎用のスマートフォン、タブレット、ファブレット、ノートパソコン(ノートPC)、コンピュータ、又はサーバなどのように、任意の機器としてよい。また、一実施形態に係る電子機器1は、例えば携帯電話又はスマートフォンのように、他の機器と通信を行う機能を有してもよい。ここで、上述の「他の機器」は、例えば携帯電話又はスマートフォンのような機器であってもよいし、例えば基地局、サーバ、専用端末、又はコンピュータのように、任意の機器であってもよい。また、本開示における「他の機器」は、電力によって駆動される機器又は装置等であってよい。一実施形態に係る電子機器1は、他の機器と有線及び/又は無線によって通信可能に構成されてよい。 The electronic device 1 according to one embodiment may be various types of devices. For example, the electronic device 1 according to one embodiment may be any device such as a specially designed terminal, a general-purpose smartphone, a tablet, a phablet, a notebook computer, a computer, or a server. good. Furthermore, the electronic device 1 according to one embodiment may have a function of communicating with other devices, such as a mobile phone or a smartphone. Here, the above-mentioned "other device" may be a device such as a mobile phone or a smartphone, or may be any device such as a base station, server, dedicated terminal, or computer. good. Further, "other equipment" in the present disclosure may be equipment, devices, etc. that are driven by electric power. The electronic device 1 according to one embodiment may be configured to be able to communicate with other devices by wire and/or wirelessly.

以下、電子機器1がオンライン会議に接続するサーバ又は端末等の機器である場合の実施形態の一例が説明される。この場合、電子機器1は、オンライン会議の画像又は音声等のコンテンツに含まれる、コンテンツの視聴者に対する刺激を考慮して、オンライン会議の参加者の所定の内部状態(例えば、所定の心理状態、感情又は集中度等)を推定してよい。電子機器1は、オンライン会議の主催者若しくはファシリテータ、又は、参加者自身に対して、参加者の内部状態の推定結果を通知したり参加者の内部状態の推定結果に基づく警報を出力したりしてよい。 An example of an embodiment in which the electronic device 1 is a device such as a server or a terminal that connects to an online conference will be described below. In this case, the electronic device 1 takes into consideration the stimulus for content viewers included in content such as images or audio of the online conference, and determines a predetermined internal state (for example, a predetermined psychological state, etc.) of the participants in the online conference. emotion or concentration level, etc.) may be estimated. The electronic device 1 notifies the organizer or facilitator of the online conference, or the participants themselves, of the estimation results of the participants' internal states, or outputs an alarm based on the estimation results of the participants' internal states. It's fine.

電子機器1が提供するオンライン会議の画像又は音声等のコンテンツは、提示情報とも称される。提示情報に含まれる、提示情報の視聴者に対する刺激に関する情報は、刺激情報とも称される。 Content such as images or audio of the online conference provided by the electronic device 1 is also referred to as presentation information. Information regarding stimulation for the viewer of the presentation information, which is included in the presentation information, is also referred to as stimulation information.

(電子機器1の構成例)
図1に示されるように、一実施形態に係る電子機器1は、制御部10、記憶部20、取得部30、及び出力部40を含んで構成されてよい。また、制御部10は、図1に示されるように、刺激調整部12及び刺激計測部14を含んで構成されてよい。一実施形態に係る電子機器1は、図1に示される全ての機能部を含んでもよいし、図1に示される機能部の少なくとも一部を含まなくてもよい。例えば、一実施形態に係る電子機器1は、図1に示される制御部10のみを備えてもよい。この場合、一実施形態に係る電子機器1は、外部機器として用意される、記憶部20、取得部30、及び出力部40等に接続されるように構成されてよい。
(Example of configuration of electronic device 1)
As shown in FIG. 1, an electronic device 1 according to an embodiment may include a control section 10, a storage section 20, an acquisition section 30, and an output section 40. Further, the control unit 10 may be configured to include a stimulation adjustment unit 12 and a stimulation measurement unit 14, as shown in FIG. The electronic device 1 according to one embodiment may include all the functional units shown in FIG. 1 or may not include at least some of the functional units shown in FIG. 1. For example, the electronic device 1 according to one embodiment may include only the control unit 10 shown in FIG. 1. In this case, the electronic device 1 according to one embodiment may be configured to be connected to the storage section 20, the acquisition section 30, the output section 40, etc., which are prepared as external devices.

制御部10は、電子機器1を構成する各機能部をはじめとして、電子機器1の全体を制御及び/又は管理する。制御部10は、種々の機能を実行するための制御及び処理能力を提供するために、例えばCPU(Central Processing Unit)又はDSP(Digital Signal Processor)のような、少なくとも1つのプロセッサを含んでよい。制御部10は、まとめて1つのプロセッサで実現してもよいし、いくつかのプロセッサで実現してもよいし、それぞれ個別のプロセッサで実現してもよい。プロセッサは、単一の集積回路として実現されてよい。集積回路は、IC(Integrated Circuit)ともいう。プロセッサは、複数の通信可能に接続された集積回路及びディスクリート回路として実現されてよい。プロセッサは、他の種々の既知の技術に基づいて実現されてよい。 The control unit 10 controls and/or manages the entire electronic device 1, including each functional unit that constitutes the electronic device 1. Control unit 10 may include at least one processor, such as a CPU (Central Processing Unit) or a DSP (Digital Signal Processor), to provide control and processing capabilities to perform various functions. The control unit 10 may be implemented by a single processor, several processors, or individual processors. A processor may be implemented as a single integrated circuit. An integrated circuit is also called an IC (Integrated Circuit). A processor may be implemented as a plurality of communicatively connected integrated and discrete circuits. The processor may be implemented based on various other known technologies.

制御部10は、1以上のプロセッサ及びメモリを含んでもよい。プロセッサは、特定のプログラムを読み込ませて特定の機能を実行する汎用のプロセッサ、及び特定の処理に特化した専用のプロセッサを含んでよい。専用のプロセッサは、特定用途向けIC(ASIC;Application Specific Integrated Circuit)を含んでよい。プロセッサは、プログラマブルロジックデバイス(PLD;Programmable Logic Device)を含んでよい。PLDは、FPGA(Field-Programmable Gate Array)を含んでよい。制御部10は、1つ又は複数のプロセッサが協働するSoC(System-on-a-Chip)、及びSiP(System In a Package)のいずれかであってもよい。制御部10は、電子機器1の各構成要素の動作を制御する。 Control unit 10 may include one or more processors and memory. The processor may include a general-purpose processor that loads a specific program to execute a specific function, and a dedicated processor specialized for specific processing. A dedicated processor may include an Application Specific Integrated Circuit (ASIC). The processor may include a programmable logic device (PLD). The PLD may include an FPGA (Field-Programmable Gate Array). The control unit 10 may be either an SoC (System-on-a-Chip) or an SiP (System In a Package) in which one or more processors cooperate. The control unit 10 controls the operation of each component of the electronic device 1.

制御部10は、例えば、ソフトウェア及びハードウェア資源の少なくとも一方を含んで構成されてよい。また、一実施形態に係る電子機器1において、制御部10は、ソフトウェアとハードウェア資源とが協働した具体的手段によって構成されてもよい。制御部10に含まれる刺激調整部12及び刺激計測部14の少なくともいずれかは、ソフトウェア及びハードウェア資源の少なくとも一方を含んで構成されてよい。また、一実施形態に係る電子機器1において、刺激調整部12及び刺激計測部14の少なくともいずれかは、ソフトウェアとハードウェア資源とが協働した具体的手段によって構成されてもよい。 The control unit 10 may be configured to include at least one of software and hardware resources, for example. Furthermore, in the electronic device 1 according to one embodiment, the control unit 10 may be configured by specific means in which software and hardware resources cooperate. At least one of the stimulation adjustment section 12 and the stimulation measurement section 14 included in the control section 10 may be configured to include at least one of software and hardware resources. Furthermore, in the electronic device 1 according to one embodiment, at least one of the stimulation adjustment section 12 and the stimulation measurement section 14 may be configured by concrete means in which software and hardware resources cooperate.

刺激調整部12は、提示情報に含まれる刺激を調整する。刺激調整部12は、提示情報に含まれる刺激を強めたり弱めたりしてよい。刺激調整部12は、提示情報に刺激を追加してよい。刺激計測部14は、提示情報に含まれる刺激を計測する。 The stimulus adjustment unit 12 adjusts the stimulus included in the presentation information. The stimulus adjustment unit 12 may strengthen or weaken the stimulus included in the presentation information. The stimulus adjustment unit 12 may add a stimulus to the presentation information. The stimulus measurement unit 14 measures the stimulus included in the presentation information.

刺激は、文字若しくは記号又は図形等を含む所定の画像を表示することによって提示されてよい。所定の画像は、静止画又は動画を含んでよい。所定の画像は、例えばタイマーの画像等を含んでよい。刺激は、表示を変化させることによって提示されてよい。例えば画面の少なくとも一部の表示輝度を明るくしたり暗くしたりすることによって刺激が提示されてよい。また、画面の少なくとも一部の表示を点滅させることによって刺激が提示されてよい。 The stimulus may be presented by displaying a predetermined image including characters, symbols, figures, or the like. The predetermined image may include a still image or a moving image. The predetermined image may include, for example, an image of a timer. Stimuli may be presented by changing the display. For example, the stimulus may be presented by brightening or dimming the display brightness of at least a portion of the screen. The stimulus may also be presented by flashing the display on at least a portion of the screen.

刺激は、所定の音声を出力することによって提示されてよい。所定の音声は、例えばブザー又はチャイム等の警告音又は通知音を含んでよい。刺激は、音声を変化させることによって提示されてよい。例えば音量を大きくしたり小さくしたりすることによって刺激が提示されてよい。また、音声の周波数を変化させることによって刺激が提示されてよい。また、刺激調整部12は、会議等での音声が一時的に途切れた時間、又は、音声等の音量が所定値以下になった時間を、刺激として定義してもよい。また、刺激調整部12は、会議等での笑い声又は怒鳴り声等の特定の感情に関連した音声を、刺激として定義してもよい。 The stimulus may be presented by outputting a predetermined sound. The predetermined sound may include, for example, a warning or notification sound such as a buzzer or a chime. Stimuli may be presented by changing audio. For example, the stimulus may be presented by increasing or decreasing the volume. Stimuli may also be presented by changing the frequency of the audio. Further, the stimulus adjustment unit 12 may define as a stimulus the time when the sound in a meeting or the like is temporarily interrupted, or the time when the volume of the sound or the like becomes lower than a predetermined value. Further, the stimulus adjustment unit 12 may define, as a stimulus, a sound associated with a specific emotion, such as laughter or yelling at a meeting or the like.

記憶部20は、各種の情報を記憶する。記憶部20は、例えば制御部10において実行されるプログラム、及び、制御部10において実行された処理の結果等を記憶してよい。また、記憶部20は、制御部10のワークメモリとして機能してよい。記憶部20は、図1に示されるように、制御部10に有線及び/又は無線で接続されてよい。記憶部20は、例えば、RAM(Random Access Memory)及びROM(Read Only Memory)の少なくとも一方を含んでもよい。記憶部20は、例えば半導体メモリ等を含んで構成され得るが、これに限定されず、任意の記憶装置を含んで構成されてよい。例えば、記憶部20は、一実施形態に係る電子機器1に挿入されたメモリカード等の記憶媒体として構成されてもよい。記憶部20は、制御部10として用いられるCPUの内部メモリであってもよいし、制御部10に別体として接続されるメモリであってもよい。 The storage unit 20 stores various information. The storage unit 20 may store, for example, programs executed by the control unit 10, results of processes executed by the control unit 10, and the like. Furthermore, the storage unit 20 may function as a work memory for the control unit 10. The storage unit 20 may be connected to the control unit 10 by wire and/or wirelessly, as shown in FIG. The storage unit 20 may include, for example, at least one of a RAM (Random Access Memory) and a ROM (Read Only Memory). The storage unit 20 may include, for example, a semiconductor memory, but is not limited thereto, and may include any storage device. For example, the storage unit 20 may be configured as a storage medium such as a memory card inserted into the electronic device 1 according to one embodiment. The storage unit 20 may be an internal memory of a CPU used as the control unit 10, or may be a memory connected to the control unit 10 as a separate body.

取得部30は、対象者に関する情報を取得可能に構成される。対象者に関する情報は、対象者情報とも称される。取得部30は、対象者情報を制御部10に出力する。 The acquisition unit 30 is configured to be able to acquire information regarding the target person. Information regarding the target person is also referred to as target person information. The acquisition unit 30 outputs the target person information to the control unit 10.

取得部30は、対象者情報として、例えば対象者の顔又は身体等を撮影するカメラを含んで構成されてよい。カメラは、CCD(Charge Coupled Device Image Sensor)又はCMOS(Complementary Metal Oxide Semiconductor)センサ等のように、光電変換を行う撮像素子を含んで構成されてよい。カメラは、可視光カメラであってもよいし、赤外カメラ等の他の種々のカメラであってもよい。 The acquisition unit 30 may be configured to include a camera that photographs the face or body of the target person, for example, as the target person information. The camera may be configured to include an image sensor that performs photoelectric conversion, such as a CCD (Charge Coupled Device Image Sensor) or a CMOS (Complementary Metal Oxide Semiconductor) sensor. The camera may be a visible light camera or various other cameras such as an infrared camera.

対象者がオンライン会議の参加者である場合、取得部30は、オンライン会議に接続する端末を利用する参加者の画像を取得する。一実施形態において、取得部30は、例えば対象者を所定時間ごと(例えば秒間30フレーム)の静止画として撮像してもよい。また、取得部30は、例えば対象者を連続した動画として撮像してもよい。取得部30は、RGBデータ、及び/又は、赤外線データなどの各種のデータ形態で対象者の画像を取得してよい。 If the target person is a participant in an online conference, the acquisition unit 30 acquires an image of the participant using a terminal connected to the online conference. In one embodiment, the acquisition unit 30 may capture still images of the subject at predetermined time intervals (eg, 30 frames per second), for example. Further, the acquisition unit 30 may capture images of the subject as a continuous moving image, for example. The acquisition unit 30 may acquire the image of the subject in various data formats such as RGB data and/or infrared data.

取得部30は、オンライン会議の参加者を撮像するために、例えば端末のインカメラとして構成されてよい。取得部30は、端末に接続されるカメラとして構成されてよい。 The acquisition unit 30 may be configured as, for example, an in-camera of a terminal in order to capture images of participants in an online conference. The acquisition unit 30 may be configured as a camera connected to the terminal.

取得部30は、撮像した参加者の画像を制御部10に出力する。取得部30は、図1に示されるように、制御部10に有線及び/又は無線で接続されてよい。制御部10は、取得部30で取得した画像から、例えば対象者の視線方向又は視点等の動きを解析してよい。取得部30は、対象者を撮影した画像から対象者の視線方向又は視点等の動きを解析した結果を対象者情報として制御部10に出力してよい。 The acquisition unit 30 outputs the captured image of the participant to the control unit 10. The acquisition unit 30 may be connected to the control unit 10 by wire and/or wirelessly, as shown in FIG. The control unit 10 may analyze, for example, the movement of the subject's gaze direction or viewpoint from the image acquired by the acquisition unit 30. The acquisition unit 30 may output the result of analyzing the movement of the target person's gaze direction, viewpoint, etc. from the photographed image of the target person to the control unit 10 as target person information.

取得部30は、対象者情報として、例えば対象者の心拍数、血圧、呼吸数、体温又は発汗量等の種々の生体情報を検出するセンサを含んで構成されてよい。取得部30は、対象者情報として、対象者の手、指、身体、足又は頭等の動き情報を取得する動き取得部、又は、対象者から発せられた音声情報を取得する音声取得部等を含んでよい。 The acquisition unit 30 may include a sensor that detects various biological information such as the subject's heart rate, blood pressure, respiratory rate, body temperature, or amount of perspiration as subject information. The acquisition unit 30 is a movement acquisition unit that acquires movement information of the target person's hands, fingers, body, feet, head, etc. as target person information, or a voice acquisition unit that acquires voice information emitted from the target person. may include.

取得部30は、ユーザ又は対象者から入力デバイスによって入力される情報又はデータを取得可能に構成されてよい。取得部30は、他の機器との通信によって情報又はデータを取得可能に構成されてよい。 The acquisition unit 30 may be configured to be able to acquire information or data input from a user or a target person using an input device. The acquisition unit 30 may be configured to be able to acquire information or data through communication with other devices.

出力部40は、電子機器1がオンライン会議のクライアントとして機能する場合、オンライン会議の参加者に対して会議の音声又は画像等の会議内容を出力してよい。また、出力部40は、制御部10から出力される、例えば警報信号等の所定の信号に基づいて、電子機器1のユーザ等に注意を促すための所定の警報を出力してよい。このため、図1に示されるように、出力部40は、制御部10に有線及び/又は無線で接続されてよい。出力部40は、例えば音、音声、光、文字、映像、又は振動等の、ユーザの聴覚、視覚、又は触覚の少なくともいずれかを刺激する態様で所定の警報を出力してよい。 When the electronic device 1 functions as a client of an online conference, the output unit 40 may output conference content such as audio or images of the conference to participants of the online conference. Further, the output unit 40 may output a predetermined alarm for calling attention to the user of the electronic device 1 based on a predetermined signal such as an alarm signal output from the control unit 10. Therefore, as shown in FIG. 1, the output section 40 may be connected to the control section 10 by wire and/or wirelessly. The output unit 40 may output a predetermined alarm in a manner that stimulates at least one of the user's auditory sense, visual sense, or tactile sense, such as sound, audio, light, text, video, or vibration.

出力部40は、例えばブザー又はスピーカ等の音声出力デバイスを含んで構成されてよい。出力部40は、LED(Light Emitting Diode)等の発光デバイス、LCD(Liquid Crystal Display)等の表示デバイス、又は、バイブレータ等の触感呈示デバイス等の種々の出力デバイスの少なくともいずれかを含んで構成されてよい。 The output unit 40 may include, for example, an audio output device such as a buzzer or a speaker. The output unit 40 is configured to include at least one of various output devices such as a light emitting device such as an LED (Light Emitting Diode), a display device such as an LCD (Liquid Crystal Display), or a tactile sensation presentation device such as a vibrator. It's fine.

一実施形態において、出力部40は、例えば対象者の内部状態として対象者自身の集中度が所定の閾値以下に低下していると推定された場合に、対象者自身の集中度が低下していることに対応する警報を出力してよい。例えば、一実施形態において、視覚情報を出力する出力部40は、対象者の集中度が低下していることを発光又は所定の表示等によって対象者自身に報知してよい。また、一実施形態において、聴覚情報を出力する出力部40は、対象者の集中度が低下していることを所定の音又は音声等によって対象者自身に報知してよい。また、一実施形態において、触覚情報を出力する出力部40は、対象者の集中度が低下していることを所定の振動等によって対象者自身に報知してよい。このようにして、対象者自身は、例えばオンライン会議に対する集中度が低下している旨を知ることができる。 In one embodiment, the output unit 40 outputs a signal indicating that the target person's own concentration level has decreased, for example, when it is estimated that the target person's own concentration level has decreased to a predetermined threshold value or less as an internal state of the target person. It is possible to output a corresponding alarm. For example, in one embodiment, the output unit 40 that outputs visual information may notify the subject that the subject's concentration level has decreased by emitting light, a predetermined display, or the like. In one embodiment, the output unit 40 that outputs the auditory information may notify the subject that the subject's concentration level has decreased by using a predetermined sound, voice, or the like. Further, in one embodiment, the output unit 40 that outputs tactile information may notify the subject that the subject's concentration level has decreased by using predetermined vibrations or the like. In this way, the subject himself/herself can know that, for example, his or her level of concentration on the online meeting is decreasing.

出力部40は、対象者としてのオンライン会議の参加者の集中度が所定の閾値以下に低下したと推定された場合に、オンライン会議の主催者若しくはファシリテータ、又は、他の参加者に対して、集中度が低下している参加者が存在することを報知してよい。出力部40は、種々の態様で、集中度が低下している参加者が存在することを報知してよい。 The output unit 40 outputs information to the host or facilitator of the online conference, or other participants when it is estimated that the concentration level of the participants in the online conference as the target audience has decreased below a predetermined threshold. It may be reported that there are participants whose concentration level has decreased. The output unit 40 may notify that there are participants whose concentration level has decreased in various ways.

(内部状態の推定動作例)
一実施形態に係る電子機器1による対象者の内部状態の推定動作の一例が以下説明される。
(Example of internal state estimation operation)
An example of the operation of estimating the internal state of a subject by the electronic device 1 according to an embodiment will be described below.

一実施形態に係る電子機器1は、自己符号化器(auto encoder)を用いて、対象者としてオンライン会議の参加者の画像等に基づく機械学習を行うことによって、参加者の集中度等のような内部状態を推定する。自己符号化器は、ニューラルネットワークのアーキテクチャの1つである。自己符号化器は、エンコーダ及びデコーダを含むニューラルネットワークであってよい。一実施形態に係る電子機器1において、制御部10は、自己符号化器としての機能を含んでよい。すなわち、一実施形態に係る電子機器1の制御部10は、エンコーダ及びデコーダとしての機能を備えてよい。 The electronic device 1 according to one embodiment uses an auto encoder to perform machine learning based on images of participants in an online conference as targets, so as to determine the degree of concentration of participants, etc. Estimate the internal state. An autoencoder is an architecture for neural networks. The autoencoder may be a neural network that includes an encoder and a decoder. In the electronic device 1 according to one embodiment, the control unit 10 may include a function as a self-encoder. That is, the control unit 10 of the electronic device 1 according to one embodiment may have functions as an encoder and a decoder.

図2に示されるように、一実施形態に係る電子機器1において自己符号化器として機能するニューラルネットワークは、深層生成モデル50として表され得る。深層生成モデル50は、対象者の集中度又は感情等の内部状態を表す情報Yに対応するブロック51と、観測ノイズ等のノイズを表す情報Eに対応するブロック52と、対象者が受ける刺激を表す情報Sに対応するブロック53と、対象者の生体情報等の対象者情報を含む、対象者の応答を表す情報Xに対応するブロック54とを備える。ブロック54は、ブロック51、52及び53から影響を受ける。つまり、対象者の応答を表す情報Xは、対象者の内部状態を表す情報Y、ノイズを表す情報E、及び対象者が受ける刺激を表す情報Sに起因して生じる。 As shown in FIG. 2, the neural network that functions as an autoencoder in the electronic device 1 according to one embodiment may be represented as a deep generative model 50. The deep generative model 50 includes a block 51 corresponding to information Y representing the subject's internal state such as concentration level or emotion, a block 52 corresponding to information E representing noise such as observation noise, and a block 52 corresponding to information Y representing the subject's internal state such as concentration level or emotion, and a block 52 corresponding to information E representing noise such as observation noise. A block 53 corresponding to information S representing the target person and a block 54 corresponding to information X representing the target person's response including target person information such as biological information of the target person are provided. Block 54 is influenced by blocks 51, 52 and 53. That is, information X representing the subject's response is generated due to information Y representing the subject's internal state, information E representing noise, and information S representing the stimulus received by the subject.

制御部10は、深層生成モデル50で表される因果関係を用いて、対象者の応答を表す情報X、対象者が受ける刺激を表す情報S、及びノイズを表す情報Eに基づいて、対象者の内部状態を表す情報Yを推定できる。制御部10は、深層生成モデル50で表される因果関係を利用して対象者の内部状態を表す情報Yを推定するための学習済みモデルを、機械学習を実行することによって生成してよい。 The control unit 10 uses the causal relationship represented by the deep generative model 50 to determine the target person based on information X representing the target person's response, information S representing the stimulus received by the target person, and information E representing noise. Information Y representing the internal state of can be estimated. The control unit 10 may generate a trained model for estimating the information Y representing the internal state of the subject using the causal relationship represented by the deep generative model 50 by performing machine learning.

本実施形態において、制御部10は、対象者情報と対象者の仮の内部状態とに基づいて対象者に関する未知の情報を推定し、未知の情報の推定結果に基づいて対象者情報を再構成するモデルを用いるとする。制御部10は、モデルに入力する仮の内部状態を種々の状態に設定し、モデルで再構成された生体情報がモデルに入力した元の生体情報を再現する度合いが最も高くなるときに設定していた仮の内部状態を、対象者の内部状態として推定してよい。制御部10は、上述した例に限られず、他の態様のモデルを用いて対象者の内部状態を推定してよい。 In the present embodiment, the control unit 10 estimates unknown information regarding the target person based on the target person information and a temporary internal state of the target person, and reconstructs the target person information based on the estimation result of the unknown information. Suppose we use a model that The control unit 10 sets various temporary internal states to be input to the model, and sets the state when the biological information reconstructed by the model has the highest degree of reproduction of the original biological information input to the model. The hypothetical internal state of the subject may be estimated as the subject's internal state. The control unit 10 is not limited to the above-mentioned example, and may estimate the internal state of the subject using a model in another mode.

例えば、制御部10は、対象者の内部状態が所定の状態になる状況を意図的に生成し、所定の状態を表す情報を、対象者の内部状態を表す情報Yとして取得してよい。制御部10は、例えば、対象者としてのオンライン会議の参加者がオンライン会議の内容のみに完全に集中している状態を意図的に生成してよい。また、制御部10は、例えば、対象者としてのオンライン会議の参加者がオンライン会議の内容に完全には集中できていない状態を意図的に生成してもよい。内部状態を示す情報Yは、例えば、集中している状態においてY=0となり、集中していない状態においてY=1となるように設定されてよい。 For example, the control unit 10 may intentionally generate a situation in which the subject's internal state becomes a predetermined state, and obtain information representing the predetermined state as information Y representing the subject's internal state. For example, the control unit 10 may intentionally create a state in which the target participants in the online conference are completely focused only on the content of the online conference. Further, the control unit 10 may, for example, intentionally create a state in which the participants in the online conference who are the target participants are not able to fully concentrate on the content of the online conference. Information Y indicating the internal state may be set, for example, so that Y=0 in a state of concentration and Y=1 in a state of not concentration.

オンライン会議の参加者がオンライン会議の内容に完全には集中できていない状態は、参加者がオンライン会議以外のタスクに注意を奪われている状態であるとしてよい。例えば、参加者がオンライン会議以外のタスクとして所定の暗算等のオンライン会議と無関係な作業を同時に行う状態が生成されてよい。作業の複雑さを調整することによって、参加者がオンライン会議の内容に集中できていない状態の度合いが調整されてもよい。作業の複雑さは、例えば暗算の問題の難易度によって調整され得る。例えば、オンライン会議の参加者がオンライン会議中に非常に簡単な暗算を同時に行う状態は、参加者が完全にはオンライン会議の内容に集中していないものの参加者の集中度が比較的高い状態であるとされてよい。また、参加者がオンライン会議中に相当複雑な暗算を同時に行う状態は、参加者の集中度が比較的低い状態であるとされてよい。 A state in which a participant in an online conference cannot fully concentrate on the content of the online meeting may be a state in which the participant's attention is taken up by tasks other than the online conference. For example, a state may be generated in which a participant simultaneously performs work unrelated to the online conference, such as predetermined mental arithmetic, as a task other than the online conference. By adjusting the complexity of the task, the degree to which participants are unable to concentrate on the content of the online meeting may be adjusted. The complexity of the task can be adjusted, for example, by the difficulty level of the mental arithmetic problem. For example, a situation in which participants in an online meeting simultaneously perform very simple mental arithmetic during the online meeting is a state in which participants are not fully focused on the content of the online meeting, but their level of concentration is relatively high. It may be assumed that there is. Further, a state in which participants simultaneously perform fairly complex mental calculations during an online conference may be considered to be a state in which the participants' concentration level is relatively low.

制御部10は、対象者の内部状態が所定の状態になる状況における対象者情報を、対象者の応答を表す情報Xとして取得してよい。制御部10は、対象者が受ける所定の刺激を意図的に生成し、所定の刺激を表す情報を、対象者が受ける刺激を表す情報Sとして取得してよい。制御部10は、ノイズを表す情報Eとして、白色ノイズ等の種々のノイズを表す情報を取得してよい。制御部10は、取得した情報を教師データとして学習することによって学習済みモデルを生成してよい。 The control unit 10 may acquire subject information in a situation where the subject's internal state is in a predetermined state as information X representing the subject's response. The control unit 10 may intentionally generate a predetermined stimulus that the subject receives, and obtain information representing the predetermined stimulus as information S representing the stimulus that the subject receives. The control unit 10 may acquire information representing various types of noise such as white noise as the information E representing noise. The control unit 10 may generate a learned model by learning the acquired information as teacher data.

上述したように、制御部10は、種々の内部状態を示す情報Yに基づいてモデルで再構成される対象者情報が、モデルに入力された元の対象者情報を再現した度合いに応じて、内部状態を示す情報Yの妥当性を判断してよい。例えば、ある内部状態を示す情報Y1に基づいて再構成された対象者情報が、元の対象者情報を再現する度合いが高い場合、内部状態を示す情報Y1の妥当性が高い(すなわち正解に近い)と判断してよい。一方、ある内部状態を示す情報Y2に基づいて再構成された対象者情報が、元の対象者情報を再現する度合いが低い場合、内部状態を示す情報Y2の妥当性が低い(すなわち正解から遠い)と判断してよい。 As described above, the control unit 10 determines, depending on the degree to which the subject information reconstructed by the model based on the information Y indicating various internal states reproduces the original subject information input into the model. The validity of the information Y indicating the internal state may be determined. For example, if the subject information reconstructed based on information Y1 indicating a certain internal state has a high degree of reproducing the original subject information, the validity of the information Y1 indicating the internal state is high (i.e., close to the correct answer). ). On the other hand, if the subject information reconstructed based on the information Y2 indicating a certain internal state has a low degree of reproducing the original subject information, the validity of the information Y2 indicating the internal state is low (that is, it is far from the correct answer). ).

<刺激を考慮した内部情報の推定>
上述したように、対象者が刺激を受けた場合、対象者情報は刺激の影響で変化し得る。また、生体情報に対して刺激が及ぼす影響は、対象者の内部状態に応じて、大きくなったり小さくなったりし得る。本実施形態に係る電子機器1の制御部10は、対象者に対して与えられる刺激を考慮した深層生成モデル50を用いて対象者の内部状態を推定する。以下、オンライン会議の参加者を対象者として、参加者がオンライン会議で提示される情報から受ける刺激を考慮して参加者の内部状態を推定する動作例が説明される。
<Estimation of internal information considering stimulus>
As described above, when a subject receives a stimulus, subject information may change under the influence of the stimulus. Further, the influence of stimulation on biological information can become larger or smaller depending on the internal state of the subject. The control unit 10 of the electronic device 1 according to the present embodiment estimates the internal state of the subject using the deep generative model 50 that takes into account the stimulation given to the subject. Hereinafter, an operation example will be described in which the internal state of a participant is estimated by taking into consideration the stimulation that the participant receives from information presented in the online conference, using the participant of the online conference as the target.

本実施形態に係る電子機器1は、オンライン会議を提供するホストに接続されるクライアントであるとする。ホストは、サーバ装置又はクラウドシステムとして構成されてよい。電子機器1は、ホストからオンライン会議の内容を取得し、電子機器1からオンライン会議に参加している参加者に対してオンライン会議の内容を提示する。電子機器1は、オンライン会議の内容として、他の参加者が発言する音声、他の参加者の映像、及び、共有される画像等の情報を提示する。電子機器1が提示するオンライン会議の内容等の情報は、提示情報に含まれる。 It is assumed that the electronic device 1 according to this embodiment is a client connected to a host that provides an online conference. The host may be configured as a server device or a cloud system. The electronic device 1 acquires the contents of the online conference from the host, and presents the contents of the online conference from the electronic device 1 to the participants participating in the online conference. The electronic device 1 presents information such as voices spoken by other participants, videos of other participants, and images to be shared as the content of the online conference. Information such as the content of the online conference presented by the electronic device 1 is included in the presentation information.

オンライン会議の内容は、参加者に対して刺激を与える内容を含み得る。参加者は、例えば、参加者自身が想定している内容と異なる内容が提示された場合に刺激を受け得る。参加者に対して刺激を与え得る内容として、例えば会議中に想定外に生じた発言若しくは笑い声、又は、誰も発言しない無音の期間等が挙げられる。 The content of the online conference may include content that provides stimulation to participants. Participants can be stimulated, for example, when presented with content that differs from what they expected. Contents that can stimulate participants include, for example, an unexpected remark or laughter during a meeting, or a silent period in which no one speaks.

制御部10は、オンライン会議の開催中に対象者を対象者として、対象者の内部状態を推定してよい。制御部10は、対象者情報とオンライン会議の内容とに基づいて対象者の内部状態を推定できる。オンライン会議の内容から対象者が受けた刺激は、対象者情報に影響を及ぼし得る。また、対象者の内部状態に応じて、刺激による対象者情報への影響の大きさが異なり得る。つまり、ある内容が対象者に対してどの程度の刺激を与えるかは、対象者の内部状態に応じて定まる。制御部10は、対象者に対して刺激を与え得る内容が提示情報に含まれる場合に、その刺激が対象者情報に及ぼした影響に基づいて対象者の内部状態を推定できる。 The control unit 10 may estimate the internal state of the target person while the online conference is being held. The control unit 10 can estimate the internal state of the target person based on the target person information and the content of the online conference. The stimulation received by the subject from the content of the online meeting can influence the subject's information. Furthermore, the magnitude of the influence of the stimulus on the subject's information may vary depending on the subject's internal state. In other words, the degree to which certain content stimulates a subject depends on the subject's internal state. When the presented information includes content that can stimulate the subject, the control unit 10 can estimate the internal state of the subject based on the influence of the stimulus on the subject's information.

制御部10は、対象者に対して刺激を与え得る内容を提示情報から抽出する。対象者に対して刺激を与え得る内容を表す情報は、刺激情報に含まれる。制御部10は、対象者情報を取得する。制御部10は、対象者が刺激を受けた可能性がある場合に、その刺激の影響が現れた可能性がある期間の生体情報を抽出する。 The control unit 10 extracts content that can stimulate the subject from the presentation information. Information representing content that can stimulate the subject is included in the stimulation information. The control unit 10 acquires target person information. When there is a possibility that the subject has received a stimulus, the control unit 10 extracts biological information for a period in which the influence of the stimulus may have appeared.

制御部10は、対象者の仮の内部状態として複数の状態を生成する。制御部10は、対象者の仮の内部状態として生成した複数の状態のそれぞれを適用したモデルに対象者の刺激情報と抽出した生体情報とを入力し、各モデルで再構成された生体情報を取得する。 The control unit 10 generates a plurality of states as temporary internal states of the subject. The control unit 10 inputs the stimulus information of the subject and the extracted biometric information into a model to which each of the plurality of states generated as a temporary internal state of the subject is applied, and inputs the biometric information reconstructed by each model. get.

制御部10は、再構成された生体情報の再現度が高いほど、仮の内部状態を対象者の内部状態として推定することの妥当性が高いと判定してよい。制御部10は、各モデルで再構成された生体情報の再現度を比較し、再現度が最も高くなったモデルに適用されていた仮の内部状態を、対象者の内部状態として推定してよい。 The control unit 10 may determine that the higher the degree of reproducibility of the reconstructed biological information, the higher the validity of estimating the temporary internal state as the internal state of the subject. The control unit 10 may compare the reproducibility of biological information reconstructed by each model, and estimate the temporary internal state applied to the model with the highest reproducibility as the internal state of the subject. .

例えば、制御部10は、対象者の内部状態を示す情報Yとして対象者の集中度を用いてよい。この場合、制御部10は、集中度の値を複数の値に仮定してよい。集中度の値を仮定した値は、仮定値とも称される。制御部10は、複数の仮定値のそれぞれを適用したモデルに対象者の刺激情報と抽出した生体情報とを入力し、各モデルで再構成された生体情報を取得する。制御部10は、再現度が最も高くなったモデルに適用されていた仮定値を、参加者の集中度の値として推定してよい。 For example, the control unit 10 may use the subject's concentration level as the information Y indicating the subject's internal state. In this case, the control unit 10 may assume a plurality of values for the degree of concentration. A value based on an assumed concentration degree value is also referred to as an assumed value. The control unit 10 inputs the stimulus information of the subject and the extracted biological information to a model to which each of the plurality of assumed values is applied, and obtains the biological information reconstructed by each model. The control unit 10 may estimate the assumed value applied to the model with the highest degree of reproducibility as the value of the concentration level of the participants.

対象者の内部状態は、対象者の感情を含んでよい。対象者の感情は、対象者の集中度を含んでよい。対象者の感情は、集中度に限られず、例えば喜怒哀楽等で示されてよい。対象者の感情は、例えば、喜怒哀楽のそれぞれの度合いを組み合わせた指標によって示されてもよい。対象者の感情は、快感若しくは不快感の度合い、又は、安心感若しくは不安感の度合い等によって示されてもよい。対象者の感情を示す情報は、感情ラベルとも称される。対象者の内部状態は、対象者のオンライン会議に対する意欲を含んでもよい。対象者の内部状態は、オンライン会議に対する対象者の理解度を含んでもよい。 The subject's internal state may include the subject's emotions. The subject's emotion may include the subject's concentration level. The subject's emotion is not limited to concentration level, and may be expressed as, for example, happiness, anger, sadness, or the like. The subject's emotions may be indicated by, for example, an index that combines degrees of happiness, anger, sadness, and happiness. The emotion of the subject may be indicated by the degree of pleasure or discomfort, the degree of security or anxiety, or the like. Information indicating the emotion of the subject is also referred to as an emotion label. The subject's internal state may include the subject's willingness to participate in an online meeting. The subject's internal state may include the subject's understanding of the online meeting.

制御部10は、仮の内部状態を、対象者の集中度又は感情等の複数のパラメータの組み合わせとして生成してよい。制御部10は、各パラメータについて想定される全ての値を総当たりで組み合わせた仮の内部状態をモデルに適用してよい。制御部10は、各パラメータについて想定される値の数を適宜設定し、各パラメータで設定した数の仮定値を組み合わせた仮の内部状態をモデルに適用してよい。制御部10は、各パラメータの値の組み合わせを何パターンかに絞って生成し、生成した各組み合わせの仮の内部状態をモデルに適用してよい。制御部10は、モデルに適用した仮の内部状態それぞれについて対象者情報を再構成し、再現度に基づいて対象者の内部状態の推定結果を示す仮の内部状態を決定してよい。 The control unit 10 may generate the temporary internal state as a combination of a plurality of parameters such as the subject's concentration level or emotion. The control unit 10 may apply to the model a temporary internal state obtained by combining all possible values for each parameter in a round-robin manner. The control unit 10 may appropriately set the number of assumed values for each parameter, and apply to the model a temporary internal state that is a combination of the set number of assumed values for each parameter. The control unit 10 may narrow down and generate several combinations of values of each parameter, and apply the temporary internal state of each generated combination to the model. The control unit 10 may reconstruct the subject information for each of the temporary internal states applied to the model, and determine the temporary internal state indicating the estimation result of the subject's internal state based on the degree of reproducibility.

制御部10は、対象者の内部状態の推定結果を、対象者又はユーザ等に対して出力してよい。例えば、オンライン会議のファシリテータは、各対象者の内部状態の推定結果に基づいて各対象者の集中度、意欲又は理解度等を把握することによって、オンライン会議の進行を調整できる。 The control unit 10 may output the estimation result of the subject's internal state to the subject, the user, or the like. For example, a facilitator of an online conference can adjust the progress of an online conference by understanding the concentration level, motivation, understanding level, etc. of each target person based on the estimation result of each target person's internal state.

制御部10は、対象者の内部状態の推定結果に基づいて、対象者又はユーザ等に対して警報を出力してよい。制御部10は、対象者の内部状態の推定結果が警報条件を満たした場合に警報を出力してよい。警報条件は、例えば対象者の集中度が判定閾値以上になっていることを含んでよい。警報条件は、例えば対象者の感情ラベルの値が判定範囲外になっていることを含んでよい。制御部10は、例えば対象者の集中度が低下していると推定された場合に警報条件が満たされたと判定し、対象者又はユーザ等に対して、対象者の集中度を高めるための施策を促す警報を出力してよい。制御部10は、例えば対象者の感情が悪化していると推定された場合に警報条件が満たされたと判定し、対象者又はユーザ等に対して、対象者の感情を改善するための施策を促す警報を出力してよい。制御部10は、出力部40によって警報を出力してよい。 The control unit 10 may output a warning to the subject, the user, etc. based on the estimation result of the subject's internal state. The control unit 10 may output a warning when the estimation result of the subject's internal state satisfies the warning condition. The alarm condition may include, for example, that the concentration level of the subject is equal to or higher than the determination threshold. The warning condition may include, for example, that the value of the subject's emotion label is outside the determination range. For example, the control unit 10 determines that the alarm condition is satisfied when it is estimated that the target person's concentration level is decreasing, and instructs the target person or user, etc., to take measures to increase the target person's concentration level. An alarm may be output to prompt the user. For example, when it is estimated that the subject's emotions are worsening, the control unit 10 determines that the alarm condition is satisfied, and instructs the subject or user to take measures to improve the subject's emotions. A warning may be output to prompt the user. The control unit 10 may output a warning through the output unit 40.

<制御方法の手順例>
電子機器1の制御部10は、図3に例示されるフローチャートの手順を含む、電子機器1の制御方法を実行してもよい。電子機器1の制御方法は、制御部10を構成するプロセッサに実行させる、電子機器1の制御プログラムとして実現されてもよい。電子機器1の制御プログラムは、非一時的なコンピュータ読み取り可能な媒体に格納されてよい。
<Example of control method procedure>
The control unit 10 of the electronic device 1 may execute a method of controlling the electronic device 1 including the procedure of the flowchart illustrated in FIG. 3 . The method for controlling the electronic device 1 may be implemented as a control program for the electronic device 1 that is executed by a processor that constitutes the control unit 10. The control program for the electronic device 1 may be stored in a non-transitory computer-readable medium.

オンライン会議のクライアントとして機能する電子機器1の制御部10は、刺激を含む提示情報を出力部40から出力する(ステップS1)。制御部10は、対象者情報を取得する(ステップS2)。制御部10は、提示情報に含まれる刺激に関する刺激情報を取得する(ステップS3)。 The control unit 10 of the electronic device 1 functioning as a client of the online conference outputs presentation information including stimulation from the output unit 40 (step S1). The control unit 10 acquires subject information (step S2). The control unit 10 acquires stimulus information regarding the stimulus included in the presentation information (step S3).

制御部10は、刺激情報及び対象者情報に基づいて対象者の内部状態を推定する(ステップS4)。制御部10は、対象者の内部状態の推定結果が警報条件を満たすか判定する(ステップS5)。制御部10は、警報条件が満たされる場合(ステップS5:YES)、出力部40によって警報を出力する(ステップS6)。制御部10は、警報条件が満たされない場合(ステップS5:NO)、ステップS6の手順をスキップしてステップS7の手順に進む。制御部10は、推定結果を出力する(ステップS7)。制御部10は、ステップS7の手順の実行後、図3のフローチャートの手順の実行を終了する。 The control unit 10 estimates the internal state of the subject based on the stimulus information and the subject information (step S4). The control unit 10 determines whether the estimation result of the subject's internal state satisfies the alarm condition (step S5). If the alarm condition is satisfied (step S5: YES), the control unit 10 outputs an alarm through the output unit 40 (step S6). When the alarm condition is not satisfied (step S5: NO), the control unit 10 skips the procedure of step S6 and proceeds to the procedure of step S7. The control unit 10 outputs the estimation result (step S7). After executing the procedure of step S7, the control unit 10 ends the execution of the procedure of the flowchart of FIG.

制御部10は、ステップS6の警報の出力手順の後に、ステップS7の推定結果の出力手順を省略してもよい。制御部10は、ステップS5の警報条件の判定手順及びステップS6の警報の出力手順を実行せずに、推定結果を出力してもよい。 The control unit 10 may omit the step S7 to output the estimation result after the warning output step S6. The control unit 10 may output the estimation result without executing the alarm condition determination procedure in step S5 and the alarm output procedure in step S6.

<小括>
以上述べてきたように、対象者の内部状態は、対象者が受けた刺激の影響を受け得る。本実施形態に係る電子機器1の制御部10は、対象者が受けた刺激を考慮して、対象者の内部状態を推定できる。刺激を考慮しない場合と比べて、対象者の内部状態の推定精度が向上され得る。
<Summary>
As described above, the subject's internal state can be influenced by the stimuli received by the subject. The control unit 10 of the electronic device 1 according to the present embodiment can estimate the internal state of the subject in consideration of the stimulus received by the subject. The accuracy of estimating the subject's internal state can be improved compared to the case where the stimulus is not considered.

(他の実施形態)
以下、他の実施形態が説明される。
(Other embodiments)
Other embodiments will be described below.

<刺激の調整>
上述してきた実施形態において、電子機器1の制御部10は、刺激を含む提示情報を出力する。制御部10は、提示情報に含まれる刺激を調整し、調整した刺激に基づいて対象者の内部状態を推定してよい。制御部10は、刺激調整部12によって、刺激を調整する情報を生成してよい。刺激を調整する情報は、刺激調整情報とも称される。制御部10は、刺激調整情報を提示情報に加えた情報を出力部40に出力させてよい。刺激調整情報を提示情報に加えた情報は、調整済提示情報とも称される。
<Stimulus adjustment>
In the embodiments described above, the control unit 10 of the electronic device 1 outputs presentation information including stimulation. The control unit 10 may adjust the stimulus included in the presentation information and estimate the subject's internal state based on the adjusted stimulus. The control unit 10 may generate information for adjusting stimulation using the stimulation adjustment unit 12. Information for adjusting stimulation is also referred to as stimulation adjustment information. The control unit 10 may cause the output unit 40 to output information obtained by adding the stimulation adjustment information to the presentation information. Information obtained by adding stimulation adjustment information to presentation information is also referred to as adjusted presentation information.

制御部10は、例えば、オンライン会議の内容として表示している画面に含まれる、オンライン会議の経過時間を表示するタイマーを大きくする指示を、刺激調整情報として生成してよい。制御部10は、タイマーを大きくした画面を出力部40に表示させる。対象者としてのオンライン会議の参加者は、タイマーの変化に気づいた場合、タイマーに対する操作を入力したりタイマーを注視したりし得る。つまり、対象者情報が変化し得る。 For example, the control unit 10 may generate, as the stimulus adjustment information, an instruction to increase a timer that displays the elapsed time of the online conference, which is included in the screen that is displayed as the content of the online conference. The control unit 10 causes the output unit 40 to display a screen with a larger timer. If a participant in the online conference notices a change in the timer, he or she may input an operation on the timer or watch the timer. In other words, subject information may change.

制御部10は、例えば、オンライン会議の音量を徐々に小さくする指示を、刺激調整情報として生成してよい。制御部10は、音量を小さくした音声を出力部40に出力させる。対象者としてのオンライン会議の参加者は、音量の変化に気づいた場合、音量を調整する操作を入力したりスピーカに耳を近づけたりし得る。つまり、対象者情報が変化し得る。 For example, the control unit 10 may generate an instruction to gradually reduce the volume of the online conference as the stimulation adjustment information. The control unit 10 causes the output unit 40 to output the sound with a reduced volume. If a participant in an online conference notices a change in volume, he or she may input an operation to adjust the volume or move his or her ear closer to the speaker. In other words, subject information may change.

制御部10は、刺激調整情報と対象者情報とに基づいて対象者の内部状態を推定できる。制御部10は、調整された刺激に対する対象者の反応に基づいて、例えば、対象者の集中度を推定できる。仮に、調整された刺激に対して対象者が反応した場合、制御部10は、対象者がオンライン会議の画面又は音声に集中できている状態として、対象者の内部状態を推定できる。逆に、調整された刺激に対する対象者の反応が少ない場合、制御部10は、対象者がオンライン会議の画面又は音声に集中できていない状態として、対象者の内部状態を推定できる。制御部10は、刺激に対して対象者が反応した時間に基づいて、対象者の内部状態を推定してもよい。 The control unit 10 can estimate the internal state of the subject based on the stimulation adjustment information and the subject information. The control unit 10 can estimate the subject's concentration level, for example, based on the subject's reaction to the adjusted stimulus. If the subject responds to the adjusted stimulus, the control unit 10 can estimate the subject's internal state as a state in which the subject is able to concentrate on the screen or audio of the online conference. Conversely, if the subject's reaction to the adjusted stimulus is small, the control unit 10 can estimate the subject's internal state as a state in which the subject is unable to concentrate on the screen or audio of the online conference. The control unit 10 may estimate the subject's internal state based on the time that the subject reacts to the stimulus.

制御部10は、図4に例示されるフローチャートの手順を含む、電子機器1の制御方法を実行してもよい。電子機器1の制御方法は、制御部10を構成するプロセッサに実行させる、電子機器1の制御プログラムとして実現されてもよい。電子機器1の制御プログラムは、非一時的なコンピュータ読み取り可能な媒体に格納されてよい。 The control unit 10 may execute a method of controlling the electronic device 1, including the procedure of the flowchart illustrated in FIG. 4. The method for controlling the electronic device 1 may be implemented as a control program for the electronic device 1 that is executed by a processor that constitutes the control unit 10. The control program for the electronic device 1 may be stored in a non-transitory computer-readable medium.

オンライン会議のクライアントとして機能する電子機器1の制御部10は、刺激調整情報を生成する(ステップS11)。制御部10は、刺激調整情報を提示情報に加えた調整済提示情報を出力する(ステップS12)。制御部10は、調整した刺激に対応する対象者情報を取得する(ステップS13)。 The control unit 10 of the electronic device 1 functioning as a client for the online conference generates stimulation adjustment information (step S11). The control unit 10 outputs adjusted presentation information in which the stimulation adjustment information is added to the presentation information (step S12). The control unit 10 acquires subject information corresponding to the adjusted stimulation (step S13).

制御部10は、刺激調整情報及び対象者情報に基づいて対象者の内部状態を推定する(ステップS14)。制御部10は、対象者の内部状態の推定結果が警報条件を満たすか判定する(ステップS15)。制御部10は、警報条件が満たされる場合(ステップS15:YES)、出力部40によって警報を出力する(ステップS16)。制御部10は、警報条件が満たされない場合(ステップS15:NO)、ステップS16の手順をスキップしてステップS17の手順に進む。制御部10は、推定結果を出力する(ステップS17)。制御部10は、ステップS17の手順の実行後、図4のフローチャートの手順の実行を終了する。 The control unit 10 estimates the internal state of the subject based on the stimulus adjustment information and the subject information (step S14). The control unit 10 determines whether the estimation result of the subject's internal state satisfies the alarm condition (step S15). If the alarm condition is satisfied (step S15: YES), the control unit 10 outputs an alarm through the output unit 40 (step S16). If the alarm condition is not satisfied (step S15: NO), the control unit 10 skips the procedure of step S16 and proceeds to the procedure of step S17. The control unit 10 outputs the estimation result (step S17). After executing the procedure of step S17, the control unit 10 ends the execution of the procedure of the flowchart of FIG.

制御部10は、ステップS16の警報の出力手順の後に、ステップS17の推定結果の出力手順を省略してもよい。制御部10は、ステップS15の警報条件の判定手順及びステップS16の警報の出力手順を実行せずに、推定結果を出力してもよい。 The control unit 10 may omit the step S17 to output the estimation result after the warning output step S16. The control unit 10 may output the estimation result without executing the alarm condition determination procedure in step S15 and the alarm output procedure in step S16.

<刺激の計測>
上述してきた実施形態において、電子機器1の制御部10は、刺激を含む提示情報を出力する。制御部10は、刺激計測部14によって、提示情報に含まれる刺激を計測してよい。計測された刺激に関する情報は、刺激計測情報とも称される。制御部10は、刺激計測情報に基づいて対象者の内部状態を推定してよい。
<Measurement of stimulation>
In the embodiments described above, the control unit 10 of the electronic device 1 outputs presentation information including stimulation. The control unit 10 may use the stimulation measuring unit 14 to measure the stimulation included in the presentation information. Information regarding the measured stimulation is also referred to as stimulation measurement information. The control unit 10 may estimate the subject's internal state based on the stimulus measurement information.

制御部10は、例えば、オンライン会議の音声に含まれる、突発的な笑い声等の想定外の音声、又は、参加者が無言になっている状態等の特徴的な音声を計測してよい。対象者としてのオンライン会議の参加者は、特徴的な音声に反応して何らかの動作をし得る。例えば、参加者は、笑い声につられて笑ったり無音の状態に戸惑ったりし得る。参加者の反応は、参加者の表情、発生、又は視線の動き等に現れ得る。つまり、対象者情報が変化し得る。 The control unit 10 may measure, for example, unexpected sounds such as sudden laughter included in the audio of the online conference, or characteristic sounds such as a state where participants are silent. A participant in an online conference as a target person may take some action in response to the characteristic sound. For example, participants may be tempted to laugh at the sound of laughter or be confused by the silence. The participant's reaction may appear in the participant's facial expressions, expressions, or eye movements. In other words, subject information may change.

制御部10は、例えば、オンライン会議の画像に含まれる、表示内容の変化、又は、他の参加者の反応等の特徴的な表示を計測してよい。対象者としてのオンライン会議の参加者は、特徴的な表示に反応して何らかの動作をし得る。参加者の反応は、参加者の表情、発生、又は視線の動き等に現れ得る。つまり、対象者情報が変化し得る。 The control unit 10 may measure characteristic displays, such as changes in display content or reactions of other participants, included in images of the online conference, for example. A participant in an online conference as a target person may take some action in response to the characteristic display. The participant's reaction may appear in the participant's facial expressions, expressions, or eye movements. In other words, subject information may change.

制御部10は、オンライン会議に含まれる特徴的な音声又は表示が発生してから対象者が反応するまでの時間を計測してもよい。 The control unit 10 may measure the time from when a characteristic sound or display included in the online conference occurs until the target person reacts.

制御部10は、刺激計測情報と対象者情報とに基づいて対象者の内部状態を推定できる。制御部10は、計測された刺激に対する対象者の反応に基づいて、例えば、対象者の集中度を推定できる。仮に、計測された刺激に対して対象者が反応した場合、制御部10は、対象者がオンライン会議の画面又は音声に集中できている状態として、対象者の内部状態を推定できる。逆に、調整された刺激に対する対象者の反応が少ない場合、制御部10は、対象者がオンライン会議の画面又は音声に集中できていない状態として、対象者の内部状態を推定できる。制御部10は、刺激に対して対象者が反応した時間に基づいて、対象者の内部状態を推定してもよい。 The control unit 10 can estimate the internal state of the subject based on the stimulus measurement information and the subject information. The control unit 10 can estimate the degree of concentration of the subject, for example, based on the subject's reaction to the measured stimulus. If the subject responds to the measured stimulus, the control unit 10 can estimate the internal state of the subject, assuming that the subject is able to concentrate on the screen or audio of the online conference. Conversely, if the subject's reaction to the adjusted stimulus is small, the control unit 10 can estimate the subject's internal state as a state in which the subject is unable to concentrate on the screen or audio of the online conference. The control unit 10 may estimate the subject's internal state based on the time that the subject reacts to the stimulus.

制御部10は、図5に例示されるフローチャートの手順を含む、電子機器1の制御方法を実行してもよい。電子機器1の制御方法は、制御部10を構成するプロセッサに実行させる、電子機器1の制御プログラムとして実現されてもよい。電子機器1の制御プログラムは、非一時的なコンピュータ読み取り可能な媒体に格納されてよい。 The control unit 10 may execute a method of controlling the electronic device 1, including the procedure of the flowchart illustrated in FIG. The method for controlling the electronic device 1 may be implemented as a control program for the electronic device 1 that is executed by a processor that constitutes the control unit 10. The control program for the electronic device 1 may be stored in a non-transitory computer-readable medium.

オンライン会議のクライアントとして機能する電子機器1の制御部10は、提示情報を出力する(ステップS21)。制御部10は、対象者情報を取得する(ステップS22)。制御部10は、提示情報に含まれる刺激を計測して刺激計測情報を生成する(ステップS23)。 The control unit 10 of the electronic device 1 functioning as a client for the online conference outputs presentation information (step S21). The control unit 10 acquires subject information (step S22). The control unit 10 measures the stimulation included in the presentation information and generates stimulation measurement information (step S23).

制御部10は、刺激計測情報及び対象者情報に基づいて対象者の内部状態を推定する(ステップS24)。制御部10は、対象者の内部状態の推定結果が警報条件を満たすか判定する(ステップS25)。制御部10は、警報条件が満たされる場合(ステップS25:YES)、出力部40によって警報を出力する(ステップS26)。制御部10は、警報条件が満たされない場合(ステップS25:NO)、ステップS26の手順をスキップしてステップS27の手順に進む。制御部10は、推定結果を出力する(ステップS27)。制御部10は、ステップS27の手順の実行後、図5のフローチャートの手順の実行を終了する。 The control unit 10 estimates the internal state of the subject based on the stimulus measurement information and the subject information (step S24). The control unit 10 determines whether the estimation result of the subject's internal state satisfies the alarm condition (step S25). If the alarm condition is satisfied (step S25: YES), the control unit 10 outputs an alarm through the output unit 40 (step S26). If the alarm condition is not satisfied (step S25: NO), the control unit 10 skips the procedure of step S26 and proceeds to the procedure of step S27. The control unit 10 outputs the estimation result (step S27). After executing the procedure of step S27, the control unit 10 ends the execution of the procedure of the flowchart of FIG.

制御部10は、ステップS26の警報の出力手順の後に、ステップS27の推定結果の出力手順を省略してもよい。制御部10は、ステップS25の警報条件の判定手順及びステップS26の警報の出力手順を実行せずに、推定結果を出力してもよい。 The control unit 10 may omit the step S27 to output the estimation result after the warning output step S26. The control unit 10 may output the estimation result without executing the alarm condition determination procedure in step S25 and the alarm output procedure in step S26.

<内部状態推定の実行主体の例>
上述してきたように、本開示の一実施形態に係る電子機器1は、オンライン会議に参加するための端末として構成される。また、本開示の一実施形態に係る予測モデル生成方法又は内部状態推定方法は、端末によって実行される。
<Example of execution entity of internal state estimation>
As described above, the electronic device 1 according to an embodiment of the present disclosure is configured as a terminal for participating in an online conference. Further, a predictive model generation method or an internal state estimation method according to an embodiment of the present disclosure is executed by a terminal.

ここで、オンライン会議は、ネットワーク等を経由して接続されるサーバ装置又はクラウドシステムによって開催され得る。本開示の一実施形態に係る電子機器1は、端末に対してオンライン会議を提供するサーバ装置又はクラウドシステムとして構成されてよい。また、本開示の一実施形態に係る予測モデル生成方法又は内部状態推定方法は、端末に対してオンライン会議を提供するサーバ装置又はクラウドシステムによって実行されてよい。 Here, the online conference may be held by a server device or a cloud system connected via a network or the like. The electronic device 1 according to an embodiment of the present disclosure may be configured as a server device or a cloud system that provides online conferences to terminals. Further, the predictive model generation method or internal state estimation method according to an embodiment of the present disclosure may be executed by a server device or a cloud system that provides online conferences to terminals.

言い換えれば、本開示の一実施形態に係る電子機器1は、オンライン会議のホストとなる機器として構成されてよい。また、本開示の一実施形態に係る予測モデル生成方法又は内部状態推定方法は、オンライン会議のホストとなる機器によって実行されてもよい。 In other words, the electronic device 1 according to an embodiment of the present disclosure may be configured as a device that hosts an online conference. Further, the predictive model generation method or internal state estimation method according to an embodiment of the present disclosure may be executed by a device that hosts an online conference.

オンライン会議を提供するサーバ装置、クラウドシステム、又は、ホスト機器は、内部状態の推定結果を端末に出力してもよいし、内部状態の推定結果に基づく警報を端末に出力してもよい。 A server device, a cloud system, or a host device that provides an online conference may output an internal state estimation result to a terminal, or may output an alarm based on the internal state estimation result to a terminal.

本開示の内容は、当業者であれば本開示に基づき種々の変形及び改変を行うことができる。したがって、これらの変形及び改変は本開示の範囲に含まれる。例えば、各実施形態において、各機能部、各手段又は各ステップなどは論理的に矛盾しないように他の実施形態に追加し、若しくは、他の実施形態の各機能部、各手段又は各ステップなどと置き換えることが可能である。また、各実施形態において、複数の各機能部、各手段又は各ステップなどを1つに組み合わせたり、或いは分割したりすることが可能である。また、上述した本開示の各実施形態は、それぞれ説明した各実施形態に忠実に実施することに限定されるものではなく、適宜、各特徴を組み合わせたり、一部を省略したりして実施することもできる。 Those skilled in the art can make various changes and modifications to the contents of the present disclosure based on the present disclosure. Accordingly, these variations and modifications are included within the scope of this disclosure. For example, in each embodiment, each functional unit, each means, each step, etc. may be added to other embodiments so as not to be logically contradictory, or each functional unit, each means, each step, etc. of other embodiments may be added to other embodiments so as not to be logically inconsistent. It is possible to replace it with Furthermore, in each embodiment, it is possible to combine or divide a plurality of functional units, means, or steps into one. Further, each embodiment of the present disclosure described above is not limited to being implemented faithfully to each described embodiment, but may be implemented by combining each feature or omitting a part as appropriate. You can also do that.

本開示の一実施形態に係る電子機器1は、例えば、移動体に搭載されてもよい。移動体は、例えば車両、船舶、又は航空機等を含んでよい。本開示の一実施形態に係る電子機器1は、移動体に搭載される場合、乗用車のような移動体に搭乗している者(運転者又は同乗者)の所定の内部状態(例えば所定の心理状態、感情又は集中度等)を推定できる。電子機器1は、移動体を運転する運転者の内部状態として、運転者の運転時の感情又は集中度等の内部状態を推定してよい。電子機器1は、移動体に搭載される端末と通信可能に接続されるサーバ装置又はクラウドシステムとして構成されてもよい。 The electronic device 1 according to an embodiment of the present disclosure may be mounted on a moving object, for example. The moving object may include, for example, a vehicle, a ship, or an aircraft. When the electronic device 1 according to an embodiment of the present disclosure is mounted on a moving body, the electronic device 1 is configured to detect a predetermined internal state (for example, a predetermined psychological state) of a person (driver or fellow passenger) on board the moving body such as a passenger car. state, emotion, concentration level, etc.) can be estimated. The electronic device 1 may estimate, as the internal state of the driver who drives the mobile object, the internal state such as the driver's emotion or concentration level while driving. The electronic device 1 may be configured as a server device or a cloud system that is communicably connected to a terminal mounted on a mobile object.

車両は、例えば自動車、産業車両、鉄道車両、生活車両、又は滑走路を走行する固定翼機等を含んでよい。自動車は、例えば乗用車、トラック、バス、二輪車、又はトロリーバス等を含んでよい。産業車両は、例えば農業又は建設向けの産業車両等を含んでよい。産業車両は、例えばフォークリフト又はゴルフカート等を含んでよい。農業向けの産業車両は、例えばトラクター、耕耘機、移植機、バインダー、コンバイン、又は芝刈り機等を含んでよい。建設向けの産業車両は、例えばブルドーザー、スクレーバー、ショベルカー、クレーン車、ダンプカー、又はロードローラ等を含んでよい。車両は、人力で走行するものを含んでよい。車両の分類は、上述した例に限られない。例えば、自動車は、道路を走行可能な産業車両を含んでよい。複数の分類に同じ車両が含まれてよい。船舶は、例えばマリンジェット(personal watercraft(PWC))、ボート、又はタンカー等を含んでよい。航空機は、例えば固定翼機又は回転翼機等を含んでよい。また、本開示の「ユーザ」及び「対象者」は、車両又は航空機等の移動体を運転している者であってよいし、移動体を運転していない同乗者であってもよい。 The vehicle may include, for example, an automobile, an industrial vehicle, a railroad vehicle, a residential vehicle, a fixed wing aircraft traveling on a runway, or the like. Motor vehicles may include, for example, cars, trucks, buses, motorcycles, trolleybuses, and the like. The industrial vehicle may include, for example, an agricultural or construction industrial vehicle. Industrial vehicles may include, for example, forklifts or golf carts. Agricultural industrial vehicles may include, for example, tractors, tillers, transplanters, binders, combines, lawn mowers, and the like. Industrial vehicles for construction may include, for example, bulldozers, scrapers, shovels, crane trucks, dump trucks, road rollers, and the like. Vehicles may include those that are powered by human power. The classification of vehicles is not limited to the example described above. For example, a motor vehicle may include a road capable industrial vehicle. The same vehicle may be included in multiple classifications. A watercraft may include, for example, a personal watercraft (PWC), a boat, or a tanker. The aircraft may include, for example, a fixed wing aircraft or a rotary wing aircraft. Further, the "user" and "target person" of the present disclosure may be a person driving a moving body such as a vehicle or an aircraft, or may be a fellow passenger who is not driving the moving body.

一実施形態において、(1)電子機器は、対象者に対して提示する提示情報を出力する出力部と、前記対象者に関する対象者情報を取得する取得部と、前記提示情報と前記対象者情報とに基づいて前記対象者の内部状態を推定する制御部とを備える。 In one embodiment, (1) an electronic device includes an output unit that outputs presentation information to be presented to a target person, an acquisition unit that acquires target person information regarding the target person, and the presentation information and the target person information. and a control unit that estimates the internal state of the subject based on.

(2)上記(1)の電子機器において、前記制御部は、前記提示情報に含まれる対象者に対する刺激に関する刺激情報に基づいて前記対象者の内部状態を推定してよい。 (2) In the electronic device according to (1) above, the control unit may estimate the internal state of the subject based on stimulus information regarding stimulation to the subject included in the presentation information.

(3)上記(1)又は(2)の電子機器において、前記制御部は、前記提示情報に含まれる刺激を調整する刺激調整情報を生成してよい。前記制御部は、前記提示情報を前記刺激調整情報に基づいて調整した調整済提示情報を前記出力部に出力させてよい。前記制御部は、前記調整済提示情報が出力された場合に対応する前記対象者情報に基づいて、前記対象者の内部状態を推定してよい。 (3) In the electronic device of (1) or (2) above, the control unit may generate stimulus adjustment information that adjusts the stimulus included in the presentation information. The control unit may cause the output unit to output adjusted presentation information obtained by adjusting the presentation information based on the stimulation adjustment information. The control unit may estimate the internal state of the subject based on the subject information corresponding to the case where the adjusted presentation information is output.

(4)上記(1)から(3)までのいずれか1つの電子機器において、前記制御部は、前記提示情報に含まれる刺激を計測した刺激計測情報と前記対象者情報とに基づいて前記対象者の内部状態を推定してよい。 (4) In any one of the electronic devices described in (1) to (3) above, the control unit may be configured to target the target person based on stimulus measurement information that measures the stimulus included in the presentation information and the target person information. The internal state of the person may be estimated.

(5)上記(1)から(4)までのいずれか1つの電子機器において、前記制御部は、前記対象者の内部状態の推定結果に基づいて、前記出力部に警報又は通知の少なくとも1つを出力させるか決定してよい。 (5) In any one of the electronic devices according to (1) to (4) above, the control unit may send at least one of an alarm or a notification to the output unit based on the estimation result of the internal state of the subject. You can decide whether to output it.

一実施形態において、(6)電子機器の制御方法は、対象者に対して提示する提示情報を出力し、前記対象者に関する対象者情報を取得し、前記提示情報と前記対象者情報とに基づいて前記対象者の内部状態を推定する。 In one embodiment, (6) a method for controlling an electronic device outputs presentation information to be presented to a target person, acquires target person information regarding the target person, and based on the presentation information and the target person information. and estimate the internal state of the subject.

一実施形態において、(7)電子機器の制御プログラムは、電子機器に、対象者に対して提示する提示情報を出力させ、前記対象者に関する対象者情報を取得させ、前記提示情報と前記対象者情報とに基づいて前記対象者の内部状態を推定させる。 In one embodiment, (7) a control program for an electronic device causes the electronic device to output presentation information to be presented to a target person, acquires target person information regarding the target person, and combines the presentation information with the target person. The internal state of the subject is estimated based on the information.

1 電子機器(10:制御部、12:刺激調整部、14:刺激計測部、20:記憶部、30:取得部、40:出力部)
50 深層生成モデル(51~54:ブロック)
1 Electronic equipment (10: control unit, 12: stimulation adjustment unit, 14: stimulation measurement unit, 20: storage unit, 30: acquisition unit, 40: output unit)
50 Deep generative model (51-54: block)

Claims (7)

対象者に対して提示する提示情報を出力する出力部と、
前記対象者に関する対象者情報を取得する取得部と、
前記提示情報と前記対象者情報とに基づいて前記対象者の内部状態を推定する制御部と
を備える、電子機器。
an output unit that outputs presentation information to be presented to the target person;
an acquisition unit that acquires target person information regarding the target person;
An electronic device comprising: a control unit that estimates an internal state of the subject based on the presentation information and the subject information.
前記制御部は、前記提示情報に含まれる対象者に対する刺激に関する刺激情報に基づいて前記対象者の内部状態を推定する、請求項1に記載の電子機器。 The electronic device according to claim 1, wherein the control unit estimates the internal state of the subject based on stimulus information regarding stimulation to the subject included in the presentation information. 前記制御部は、
前記提示情報に含まれる刺激を調整する刺激調整情報を生成し、
前記提示情報を前記刺激調整情報に基づいて調整した調整済提示情報を前記出力部に出力させ、
前記調整済提示情報が出力された場合に対応する前記対象者情報に基づいて、前記対象者の内部状態を推定する、請求項1に記載の電子機器。
The control unit includes:
generating stimulus adjustment information that adjusts the stimulus included in the presentation information;
causing the output unit to output adjusted presentation information obtained by adjusting the presentation information based on the stimulation adjustment information;
The electronic device according to claim 1, wherein the internal state of the target person is estimated based on the target person information corresponding to the case where the adjusted presentation information is output.
前記制御部は、前記提示情報に含まれる刺激を計測した刺激計測情報と前記対象者情報とに基づいて前記対象者の内部状態を推定する、請求項1に記載の電子機器。 The electronic device according to claim 1, wherein the control unit estimates the internal state of the subject based on stimulus measurement information obtained by measuring a stimulus included in the presentation information and the subject information. 前記制御部は、前記対象者の内部状態の推定結果に基づいて、前記出力部に警報又は通知の少なくとも1つを出力させるか決定する、請求項1から4までのいずれか一項に記載の電子機器。 5. The control unit according to claim 1, wherein the control unit determines whether to cause the output unit to output at least one of a warning or a notification based on an estimation result of the internal state of the subject. Electronics. 対象者に対して提示する提示情報を出力し、
前記対象者に関する対象者情報を取得し、
前記提示情報と前記対象者情報とに基づいて前記対象者の内部状態を推定する、
電子機器の制御方法。
Output the presentation information to be presented to the target person,
Obtaining target person information regarding the target person,
estimating the internal state of the subject based on the presentation information and the subject information;
How to control electronic equipment.
電子機器に、対象者に対して提示する提示情報を出力させ、
前記電子機器に、前記対象者に関する対象者情報を取得させ、
前記電子機器に、前記提示情報と前記対象者情報とに基づいて前記対象者の内部状態を推定させる、
電子機器の制御プログラム。
Make the electronic device output presentation information to be presented to the target person,
causing the electronic device to acquire target person information regarding the target person;
causing the electronic device to estimate the internal state of the subject based on the presentation information and the subject information;
Control program for electronic equipment.
JP2022096811A 2022-06-15 2022-06-15 Electronic equipment, control method of electronic equipment, and control program of electronic equipment Pending JP2023183280A (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2022096811A JP2023183280A (en) 2022-06-15 2022-06-15 Electronic equipment, control method of electronic equipment, and control program of electronic equipment
PCT/JP2023/020857 WO2023243469A1 (en) 2022-06-15 2023-06-05 Electronic device, and control method and control program for electronic device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2022096811A JP2023183280A (en) 2022-06-15 2022-06-15 Electronic equipment, control method of electronic equipment, and control program of electronic equipment

Publications (1)

Publication Number Publication Date
JP2023183280A true JP2023183280A (en) 2023-12-27

Family

ID=89191030

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022096811A Pending JP2023183280A (en) 2022-06-15 2022-06-15 Electronic equipment, control method of electronic equipment, and control program of electronic equipment

Country Status (2)

Country Link
JP (1) JP2023183280A (en)
WO (1) WO2023243469A1 (en)

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5595488A (en) * 1994-08-04 1997-01-21 Vigilant Ltd. Apparatus and method for monitoring and improving the alertness of a subject
JP4546767B2 (en) * 2004-06-09 2010-09-15 日本放送協会 Emotion estimation apparatus and emotion estimation program
DE202013008392U1 (en) * 2013-09-21 2015-01-08 GM Global Technology Operations LLC (n. d. Gesetzen des Staates Delaware) Device for estimating a driver's attention
JP7080598B2 (en) * 2017-07-21 2022-06-06 ソニーセミコンダクタソリューションズ株式会社 Vehicle control device and vehicle control method
WO2022024354A1 (en) * 2020-07-31 2022-02-03 株式会社I’mbesideyou Reaction analysis system
US20230363680A1 (en) * 2020-09-24 2023-11-16 Citizen Watch Co., Ltd. Emotion assessment apparatus, emotion assessment method and emotion assessment program

Also Published As

Publication number Publication date
WO2023243469A1 (en) 2023-12-21

Similar Documents

Publication Publication Date Title
US20160042648A1 (en) Emotion feedback based training and personalization system for aiding user performance in interactive presentations
US20200293526A1 (en) Information processing system, information processing method, and storage medium
WO2018174088A1 (en) Communication analysis device, measurement/feedback device used therefor, and interaction device
JP2002034936A (en) Communication device and communication method
JP6779305B2 (en) Biometric information measuring device, control method of biometric information measuring device, control device, and control program
US11084424B2 (en) Video image output apparatus, video image output method, and medium
US20220109705A1 (en) Conferencing based on driver state and context
JP2021146214A (en) Techniques for separating driving emotion from media induced emotion in driver monitoring system
WO2023243469A1 (en) Electronic device, and control method and control program for electronic device
WO2021084810A1 (en) Information processing device, information processing method, and artificial intelligence model manufacturing method
JP2023515067A (en) Method and apparatus for interactive and privacy-preserving communication between servers and user devices
WO2023243468A1 (en) Electronic device, and method and program for controlling electronic device
US11935140B2 (en) Initiating communication between first and second users
JP2021174058A (en) Control apparatus, information processing system, and control method
JP2022038423A (en) Vehicular agent device
WO2022230629A1 (en) Electronic device, control method for electronic device, and program
JP2023066304A (en) Electronic apparatus, control method of electronic apparatus and program
US20230060798A1 (en) System and Method for Attention Detection and Visualization
JP2005027225A (en) Mobile telephone set
KR20200057810A (en) Vehicle and control method for the same
EP3956748A1 (en) Headset signals to determine emotional states
JP4355823B2 (en) Information processing device for facial expressions
US11935329B2 (en) Video analysis program
JP7465040B1 (en) Communication visualization system
WO2023017745A1 (en) Communication robot, communication robot control method, and program