JP2022175504A - Information processing apparatus, program, and information processing method - Google Patents

Information processing apparatus, program, and information processing method Download PDF

Info

Publication number
JP2022175504A
JP2022175504A JP2021081915A JP2021081915A JP2022175504A JP 2022175504 A JP2022175504 A JP 2022175504A JP 2021081915 A JP2021081915 A JP 2021081915A JP 2021081915 A JP2021081915 A JP 2021081915A JP 2022175504 A JP2022175504 A JP 2022175504A
Authority
JP
Japan
Prior art keywords
user
information processing
emotion
information
determination
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2021081915A
Other languages
Japanese (ja)
Other versions
JP7012295B1 (en
Inventor
将一 田坂
Masakazu Tasaka
豊 川中
Yutaka Kawanaka
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
DS-BRAND CO Ltd
Original Assignee
DS-BRAND CO Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by DS-BRAND CO Ltd filed Critical DS-BRAND CO Ltd
Priority to JP2021081915A priority Critical patent/JP7012295B1/en
Application granted granted Critical
Publication of JP7012295B1 publication Critical patent/JP7012295B1/en
Publication of JP2022175504A publication Critical patent/JP2022175504A/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

To provide technology that enables more appropriate mental care.SOLUTION: According to one aspect of the present invention, an information processing apparatus is provided. The information processing apparatus is configured to execute a determination step, a reception step, and a display control step. The determination step determines an emotion of a first user based on a facial image of the first user. The reception step receives first emotion information. The first emotion information includes a self-evaluation result of self-evaluation by the user. The display control step displays notification information 7 if the discrepancy between the determination result in the determination step and the self-evaluation result is equal to or greater than a threshold.SELECTED DRAWING: Figure 1

Description

本発明は、情報処理装置、プログラム及び情報処理方法に関する。 The present invention relates to an information processing device, a program, and an information processing method.

従来より、作業者の表情等を撮像して作業者の健康状態を判定する技術が知られている。特許文献1には、作業者の顔を撮像することで作業者の状態を判定するシステムが開示されている。 2. Description of the Related Art Conventionally, there has been known a technique for judging the health condition of a worker by capturing an image of the worker's facial expression or the like. Patent Literature 1 discloses a system that determines the state of a worker by capturing an image of the worker's face.

特開2014-228957号公報JP 2014-228957 A

しかしながら、外見からは良好な健康状態と判断されていても、実際には不調であることもあり、外面と内面との乖離が大きい場合、管理者は適切なメンタルケアができないことがある。 However, even if they are judged to be in good health from the outside, they may actually be in poor health, and if there is a large gap between the external and internal aspects, the manager may not be able to provide appropriate mental care.

本発明では上記事情を鑑み、より適切なメンタルケアを可能とする技術を提供することとした。 In view of the above circumstances, the present invention provides a technique that enables more appropriate mental care.

本発明の一態様によれば、情報処理装置が提供される。この情報処理装置は、判定ステップと、受付ステップと、表示制御ステップとを実行するように構成される。判定ステップでは、第1ユーザの顔画像に基づき、第1ユーザの感情を判定する。受付ステップでは、第1感情情報を受け付ける。第1感情情報は、ユーザによって自己の感情が評価された自己評価結果を含む。表示制御ステップでは、判定ステップにおける判定結果と、自己評価結果の乖離が閾値以上である場合、通知情報7を表示する。 According to one aspect of the present invention, an information processing device is provided. This information processing device is configured to execute a determination step, a reception step, and a display control step. In the determination step, the emotion of the first user is determined based on the face image of the first user. The receiving step receives the first emotion information. The first emotion information includes self-evaluation results of self-evaluation by the user. In the display control step, notification information 7 is displayed when the discrepancy between the determination result in the determination step and the self-evaluation result is equal to or greater than a threshold.

これにより、より適切なメンタルケアを可能とする技術を提供することができる。 This makes it possible to provide a technology that enables more appropriate mental care.

本実施形態に係る情報処理システム1の構成概要を示す図である。1 is a diagram showing an overview of the configuration of an information processing system 1 according to this embodiment; FIG. 情報処理装置3のハードウェア構成を示すブロック図である。3 is a block diagram showing the hardware configuration of the information processing device 3; FIG. 情報処理装置3の機能を示す機能ブロック図である。3 is a functional block diagram showing functions of the information processing device 3; FIG. 情報処理装置3による情報処理の一例を示すアクティビティ図である。4 is an activity diagram showing an example of information processing by the information processing device 3; FIG. 第1ユーザ端末2及び第2ユーザ端末4に表示される画面の一例を示す図である。4A and 4B are diagrams showing examples of screens displayed on the first user terminal 2 and the second user terminal 4; FIG. 第1ユーザ端末2及び第2ユーザ端末4に表示される画面の一例を示す図である。4A and 4B are diagrams showing examples of screens displayed on the first user terminal 2 and the second user terminal 4; FIG. 感情の要素の一例を示す図である。It is a figure which shows an example of the element of emotion. 判定部331による判定結果の一例を示す図である。FIG. 11 is a diagram showing an example of a determination result by a determination unit 331; FIG. 感情と、点数とが対応付けられたデータベースの一例を示す図である。FIG. 4 is a diagram showing an example of a database in which emotions and scores are associated; 第1ユーザ端末2に表示される画面の一例を示す図である。3 is a diagram showing an example of a screen displayed on the first user terminal 2; FIG. 通知情報7の一例を示す図である。7 is a diagram showing an example of notification information 7; FIG. 第2ユーザ端末4に表示される画面の一例を示す図である。4 is a diagram showing an example of a screen displayed on the second user terminal 4; FIG. 自己評価結果と、他己評価結果との一致度の一例を示す図である。It is a figure which shows an example of the degree of coincidence of a self-evaluation result and a peer's evaluation result.

以下、図面を用いて本発明の実施形態について説明する。以下に示す実施形態中で示した各種特徴事項は、互いに組み合わせ可能である。 Embodiments of the present invention will be described below with reference to the drawings. Various features shown in the embodiments shown below can be combined with each other.

ところで、本実施形態に登場するソフトウェアを実現するためのプログラムは、コンピュータが読み取り可能な非一時的な記録媒体(Non-Transitory Computer-Readable Medium)として提供されてもよいし、外部のサーバからダウンロード可能に提供されてもよいし、外部のコンピュータで当該プログラムを起動させてクライアント端末でその機能を実現(いわゆるクラウドコンピューティング)するように提供されてもよい。 By the way, the program for realizing the software appearing in this embodiment may be provided as a non-transitory computer-readable medium (Non-Transitory Computer-Readable Medium), or may be downloaded from an external server. It may be provided as possible, or may be provided so that the program is activated on an external computer and the function is realized on the client terminal (so-called cloud computing).

また、本実施形態において「部」とは、例えば、広義の回路によって実施されるハードウェア資源と、これらのハードウェア資源によって具体的に実現されうるソフトウェアの情報処理とを合わせたものも含みうる。また、本実施形態においては様々な情報を取り扱うが、これら情報は、例えば電圧・電流を表す信号値の物理的な値、0又は1で構成される2進数のビット集合体としての信号値の高低、又は量子的な重ね合わせ(いわゆる量子ビット)によって表され、広義の回路上で通信・演算が実行されうる。 Further, in the present embodiment, the term “unit” may include, for example, a combination of hardware resources implemented by circuits in a broad sense and software information processing that can be specifically realized by these hardware resources. . In addition, various information is handled in the present embodiment, and these information are, for example, physical values of signal values representing voltage and current, and signal values as binary bit aggregates composed of 0 or 1. It is represented by high and low, or quantum superposition (so-called quantum bit), and communication and operation can be performed on a circuit in a broad sense.

また、広義の回路とは、回路(Circuit)、回路類(Circuitry)、プロセッサ(Processor)、及びメモリ(Memory)等を少なくとも適当に組み合わせることによって実現される回路である。すなわち、特定用途向け集積回路(Application Specific Integrated Circuit:ASIC)、プログラマブル論理デバイス(例えば、単純プログラマブル論理デバイス(Simple Programmable Logic Device:SPLD)、複合プログラマブル論理デバイス(Complex Programmable Logic Device:CPLD)、及びフィールドプログラマブルゲートアレイ(Field Programmable Gate Array:FPGA))等を含むものである。 A circuit in a broad sense is a circuit implemented by appropriately combining at least circuits, circuits, processors, memories, and the like. Application Specific Integrated Circuits (ASICs), programmable logic devices (e.g., Simple Programmable Logic Devices (SPLDs), Complex Programmable Logic Devices (CPLDs), and field It includes a programmable gate array (Field Programmable Gate Array: FPGA).

1.ハードウェア構成
本節では、本実施形態のハードウェア構成について説明する。図1は、本実施形態に係る情報処理システム1の構成概要を示す図である。
1. Hardware Configuration This section describes the hardware configuration of this embodiment. FIG. 1 is a diagram showing an overview of the configuration of an information processing system 1 according to this embodiment.

1.1 情報処理システム1
情報処理システム1は、第1ユーザ端末2と、情報処理装置3と、複数の第2ユーザ端末4(第2ユーザ端末4-1~第2ユーザ端末4-N)とを備え、これらが電気通信回線を通じて通信可能に構成されている。情報処理装置3は、第1ユーザ端末2と、第2ユーザ端末4-1~第2ユーザ端末4-Nのそれぞれと、インターネット等のネットワークを介して相互に通信可能となっている。これらの構成要素についてさらに説明する。
1.1 Information processing system 1
The information processing system 1 includes a first user terminal 2, an information processing device 3, and a plurality of second user terminals 4 (second user terminals 4-1 to 4-N), which are electrically connected. It is configured to be communicable through a communication line. The information processing device 3 can communicate with the first user terminal 2 and each of the second user terminals 4-1 to 4-N via a network such as the Internet. These components are further described.

1.2 第1ユーザ端末2
第1ユーザ端末2は、感情の自己評価を行う第1ユーザが操作するものであり、スマートフォン、タブレット端末、コンピュータ、その他電気通信回線を通じて情報処理装置3及び第2ユーザ端末4にアクセス可能なものであれば、その形態は問わない。
1.2 First User Terminal 2
The first user terminal 2 is operated by the first user who performs self-evaluation of emotions, and is capable of accessing the information processing device 3 and the second user terminal 4 via a smartphone, tablet terminal, computer, or other telecommunication line. If so, its form does not matter.

第1ユーザ端末2は、表示部と、入力部と、通信部と、記憶部と、制御部と、撮像部とを有し、これらの構成要素が第1ユーザ端末2の内部において通信バスを介して電気的に接続されている。 The first user terminal 2 has a display unit, an input unit, a communication unit, a storage unit, a control unit, and an imaging unit. are electrically connected via

表示部及び入力部は、例えば、第1ユーザ端末2の筐体に含まれるものであってもよいし、外付けされるものであってもよい。表示部は、ユーザが操作可能なグラフィカルユーザインターフェース(Graphical User Interface:GUI)の画面を表示する。入力部は、表示部と一体となってタッチパネルとして実施されてもよい。タッチパネルであれば、ユーザは、タップ操作、スワイプ操作等を入力することができる。もちろん、タッチパネルに代えて、スイッチボタン、マウス、QWERTYキーボード等を採用してもよい。 For example, the display unit and the input unit may be included in the housing of the first user terminal 2, or may be externally attached. The display unit displays a screen of a graphical user interface (GUI) that can be operated by the user. The input unit may be implemented as a touch panel integrated with the display unit. With a touch panel, the user can input a tap operation, a swipe operation, or the like. Of course, a switch button, a mouse, a QWERTY keyboard, or the like may be employed instead of the touch panel.

撮像部は、撮像素子であるCCD(Charge Couple Devices)イメージセンサー又はCMOS(Completely Metal Oxide Semiconductor)イメージセンサーと、レンズ等の光学素子とを組み合わせたカメラ等を備える。さらに、撮像部は、畳み込みニューラルネットワークを用いた画像認識プロセッサ等を備え、ユーザの顔を認識可能である。撮像部は、複数のカメラを用いることも可能である。撮像素子は、撮像部の有するレンズから入ってきた光を電気信号に変換する電子部品である。撮像部の撮像素子の数、大きさ等の技術仕様は、限定されない。 The imaging unit includes a camera or the like that combines a CCD (Charge Couple Devices) image sensor or a CMOS (Completely Metal Oxide Semiconductor) image sensor as an imaging element with an optical element such as a lens. Furthermore, the imaging unit includes an image recognition processor using a convolutional neural network, etc., and is capable of recognizing the user's face. The imaging unit can also use a plurality of cameras. An imaging device is an electronic component that converts light entering from a lens of an imaging unit into an electrical signal. Technical specifications such as the number and size of the imaging elements of the imaging unit are not limited.

通信部、記憶部及び制御部の具体的な説明については、次に説明する情報処理装置3における通信部31、記憶部32及び制御部33の記載を参照されたい。 For specific descriptions of the communication unit, the storage unit, and the control unit, refer to the description of the communication unit 31, the storage unit 32, and the control unit 33 in the information processing device 3 described below.

1.3 情報処理装置3
図2は、情報処理装置3のハードウェア構成を示すブロック図である。情報処理装置3は、通信部31と、記憶部32と、制御部33とを有し、これらの構成要素が情報処理装置3の内部において通信バス30を介して電気的に接続されている。各構成要素についてさらに説明する。
1.3 Information processing device 3
FIG. 2 is a block diagram showing the hardware configuration of the information processing device 3. As shown in FIG. The information processing device 3 has a communication section 31 , a storage section 32 and a control section 33 , and these components are electrically connected via a communication bus 30 inside the information processing device 3 . Each component will be further described.

(通信部31)
通信部31は、USB、IEEE1394、Thunderbolt、有線LANネットワーク通信等といった有線型の通信手段が好ましいものの、無線LANネットワーク通信、LTE/3G等のモバイル通信、Bluetooth(登録商標)通信等を必要に応じて含めてもよい。すなわち、これら複数の通信手段の集合として実施することがより好ましい。
(Communication unit 31)
The communication unit 31 preferably uses wired communication means such as USB, IEEE1394, Thunderbolt, wired LAN network communication, etc., but wireless LAN network communication, mobile communication such as LTE/3G, Bluetooth (registered trademark) communication, etc., can be used as necessary. may be included. That is, it is more preferable to implement as a set of these communication means.

(記憶部32)
記憶部32は、前述の記載により定義される様々な情報を記憶する。これは、例えば、制御部33によって実行される情報処理装置3に係る種々のプログラム等を記憶するソリッドステートドライブ(Solid State Drive:SSD)等のストレージデバイスとして、あるいは、プログラムの演算に係る一時的に必要な情報(引数、配列等)を記憶するランダムアクセスメモリ(Random Access Memory:RAM)等のメモリとして実施されうる。また、これらの組合せであってもよい。
(storage unit 32)
The storage unit 32 stores various information defined by the above description. For example, it can be used as a storage device such as a solid state drive (SSD) for storing various programs related to the information processing device 3 executed by the control unit 33, or as a temporary storage device related to program calculation. It can be implemented as a memory such as a Random Access Memory (RAM) that stores information (arguments, arrays, etc.) required for the . A combination of these may also be used.

(制御部33)
制御部33は、情報処理装置3に関連する全体動作の処理・制御を行う。制御部33は、例えば不図示の中央処理装置(Central Processing Unit:CPU)である。制御部33は、記憶部32に記憶された所定のプログラムを読み出すことによって、情報処理装置3に係る種々の機能を実現する。すなわち、ソフトウェア(記憶部32に記憶されている)による情報処理がハードウェア(制御部33)によって具体的に実現されることで、制御部33に含まれる各機能部(図3参照)として実行されうる。これらについては、次節においてさらに詳述する。なお、制御部33は単一であることに限定されず、機能ごとに複数の制御部33を有するように実施してもよい。またそれらの組合せであってもよい。
(control unit 33)
The control unit 33 processes and controls overall operations related to the information processing device 3 . The control unit 33 is, for example, a central processing unit (CPU) (not shown). The control unit 33 implements various functions related to the information processing device 3 by reading a predetermined program stored in the storage unit 32 . That is, information processing by software (stored in the storage unit 32) is specifically realized by hardware (control unit 33), and each function unit (see FIG. 3) included in the control unit 33 executes can be These are further detailed in the next section. Note that the control unit 33 is not limited to a single unit, and may be implemented to have a plurality of control units 33 for each function. A combination thereof may also be used.

1.4 第2ユーザ端末4
第2ユーザ端末4は、同じ組織に属する作業員である第2ユーザが操作するものである。第2ユーザ端末4は、スマートフォン、タブレット端末、コンピュータ、その他電気通信回線を通じて第1ユーザ端末2及び情報処理装置3にアクセス可能なものであれば、その形態は問わない。
1.4 Second user terminal 4
The second user terminal 4 is operated by a second user who is a worker belonging to the same organization. The form of the second user terminal 4 is not limited as long as it can access the first user terminal 2 and the information processing device 3 through a smart phone, a tablet terminal, a computer, or any other telecommunication line.

第2ユーザ端末4は、表示部と、入力部と、通信部と、記憶部と、制御部と、撮像部とを有し、これらの構成要素が外部の第2ユーザ端末4の内部において通信バスを介して電気的に接続されている。各構成要素の説明は第1ユーザ端末2及び情報処理装置3の記載を参照されたい。 The second user terminal 4 has a display unit, an input unit, a communication unit, a storage unit, a control unit, and an imaging unit. electrically connected via a bus. Please refer to the description of the first user terminal 2 and the information processing device 3 for the description of each component.

2.機能構成
本節では、本実施形態の機能構成について説明する。図3は、情報処理装置3の機能を示す機能ブロック図である。前述の通り、ソフトウェア(記憶部32に記憶されている)による情報処理がハードウェア(制御部33)によって具体的に実現されることで、制御部33に含まれる各機能部として実行されうる。
2. Functional Configuration This section describes the functional configuration of this embodiment. FIG. 3 is a functional block diagram showing functions of the information processing device 3. As shown in FIG. As described above, information processing by software (stored in the storage unit 32 ) is specifically realized by hardware (control unit 33 ), and can be executed as each functional unit included in the control unit 33 .

具体的には、情報処理装置3(制御部33)は、各機能部として、判定部331と、受付部332と、表示制御部333と、選択部334とを備える。 Specifically, the information processing device 3 (control unit 33) includes a determination unit 331, a reception unit 332, a display control unit 333, and a selection unit 334 as functional units.

(判定部331)
判定部331は、判定ステップを実行可能に構成される。判定ステップにおいて、判定部331は、受付部332が取得した種々の情報どうしを比較して所定の条件を満たすか否かを判定する。例えば、判定部331は、受付部332が取得した種々のデータと、記憶部32に予め記憶された条件とを比較して、これを満たすか否かを判定することができる。判定部331の判定結果に基づいて、情報処理装置3が異なる処理を実行することができる。具体的な例については次節でさらに詳述する。
(Determination unit 331)
The determination unit 331 is configured to be able to execute the determination step. In the determination step, the determination unit 331 compares various pieces of information acquired by the reception unit 332 and determines whether or not a predetermined condition is satisfied. For example, the determination unit 331 can compare various data acquired by the reception unit 332 with conditions stored in advance in the storage unit 32 and determine whether or not the conditions are satisfied. The information processing device 3 can execute different processes based on the determination result of the determination unit 331 . Specific examples are further detailed in the next section.

(受付部332)
受付部332は、受付ステップを実行可能に構成される。受付部332は、通信部31又は記憶部32を介して情報を受け付け、これを作業メモリに読出可能に構成される。特に、受付部332は、第1ユーザ端末2からネットワーク及び通信部31を介して種々の情報を受け付けるように構成される。本実施形態では、受付部332が受け付けた種々の情報は、記憶部32に記憶されるものとして説明する。
(Reception unit 332)
The reception unit 332 is configured to be able to execute the reception step. The reception unit 332 is configured to receive information via the communication unit 31 or the storage unit 32 and read it into the working memory. In particular, the reception unit 332 is configured to receive various information from the first user terminal 2 via the network and the communication unit 31 . In this embodiment, various information received by the receiving unit 332 is described as being stored in the storage unit 32 .

特に、受付部332は、第1ユーザの顔画像と、第1感情情報51と、第2感情情報52とを受け付ける。 In particular, the reception unit 332 receives the face image of the first user, the first emotion information 51 and the second emotion information 52 .

(表示制御部333)
表示制御部333は、表示制御ステップを実行可能に構成される。表示制御ステップにおいて、表示制御部333は、記憶部32に記憶された種々の情報又はこれらを含む画面等を、第1ユーザ端末2で視認可能な態様で表示させる。具体的には、表示制御部333は、画面、画像、アイコン、メッセージ等の視覚情報を、第1ユーザ端末2の表示部に表示させるように制御する。表示制御部333は、視覚情報を第1ユーザ端末2に表示させるためのレンダリング情報だけを生成してもよい。
(Display control unit 333)
The display control unit 333 is configured to be able to execute the display control step. In the display control step, the display control unit 333 displays various information stored in the storage unit 32 or a screen including these in a form that can be viewed on the first user terminal 2 . Specifically, the display control unit 333 controls the display unit of the first user terminal 2 to display visual information such as screens, images, icons, and messages. The display control unit 333 may generate only rendering information for displaying visual information on the first user terminal 2 .

特に、表示制御部333は、通知情報7を表示させる。詳細は後述する。 In particular, the display control unit 333 causes the notification information 7 to be displayed. Details will be described later.

(選択部334)
選択部334は、選択ステップを実行する。選択ステップにおいて、選択部334は、自己評価結果と、複数の第2ユーザによる他己評価結果それぞれとの一致度が閾値以上の第2ユーザを選択する。詳細については、後述する。
(Selection unit 334)
The selection unit 334 executes a selection step. In the selection step, the selection unit 334 selects a second user whose self-evaluation result and each other's evaluation result by a plurality of second users have a degree of matching equal to or greater than a threshold. Details will be described later.

3.情報処理の詳細
第3節では、アクティビティ図を参照しながら、情報処理装置3が実行する情報処理方法について説明する。下記に示す通り、情報処理方法は、情報処理システム1の各ステップを備える。以下、出退勤時に第1ユーザの感情の判定を行う場合を例に説明する。
3. Details of Information Processing In Section 3, the information processing method executed by the information processing device 3 will be described with reference to activity diagrams. As shown below, the information processing method includes steps of the information processing system 1 . In the following, an example will be described in which the emotion of the first user is determined at the time of going to and from work.

図4は、情報処理装置3による情報処理の一例を示すアクティビティ図である。なお、以下の処理の順番は適宜入れ替えることができ、複数の処理が同時に実行されてもよいし、その全ての処理を実行しなくてもよい。 FIG. 4 is an activity diagram showing an example of information processing by the information processing device 3. As shown in FIG. Note that the order of the following processes can be changed as appropriate, and a plurality of processes may be executed simultaneously, or not all of them need to be executed.

図5及び図6は、第1ユーザ端末2及び第2ユーザ端末4に表示される画面の一例を示す図である。第1ユーザは、出勤を行う際、図5で示される画面を操作することで出勤時刻を情報処理装置3に送信可能である。第1ユーザによって出勤ボタン61が押下されると、図6で示される画面が表示されるともに、第1ユーザ端末2の撮像部は、ユーザの顔を撮影及び認識を実行する。撮影された顔画像は、第1ユーザ端末2の通信部を介して情報処理装置3に送信される。 5 and 6 are diagrams showing examples of screens displayed on the first user terminal 2 and the second user terminal 4. FIG. When the first user goes to work, the first user can transmit the time of coming to work to the information processing device 3 by operating the screen shown in FIG. When the first user presses the go-to-work button 61, the screen shown in FIG. 6 is displayed, and the imaging unit of the first user terminal 2 captures and recognizes the user's face. The photographed face image is transmitted to the information processing device 3 via the communication unit of the first user terminal 2 .

続いて、受付部332は、ネットワーク及び通信部31を介して顔画像を受け付ける(A101)。また、判定部331は、第1ユーザの顔画像に基づき、第1ユーザの感情を判定する(A102)。具体的には例えば、判定部331は、顔画像に基づき、複数の要素からなる感情として認識した後、予め定められた評価基準に基づき、一次元の数値に置き換えて感情を判定する。 Subsequently, the reception unit 332 receives the face image via the network and the communication unit 31 (A101). Also, the determination unit 331 determines the emotion of the first user based on the face image of the first user (A102). Specifically, for example, the determination unit 331 recognizes an emotion consisting of a plurality of elements based on a face image, and then determines the emotion by replacing it with a one-dimensional numerical value based on a predetermined evaluation criterion.

図7は、感情の要素の一例を示す図である。図7で示されるように、顔画像に基づき認識可能な感情は「ポジティブ」及び「ネガティブ」のいずれかの種別に大別され、「ポジティブ」の感情には、「嬉しい」及び「落ち着いている」との要素を含み、「ネガティブ」の感情には、「怒る」、「恐れ」、「悲しい」、「嫌悪感」、「混乱」及び「驚き」の要素が含まれる。 FIG. 7 is a diagram showing an example of emotional elements. As shown in FIG. 7, emotions that can be recognized based on facial images are roughly classified into either “positive” or “negative”, and “positive” emotions include “happy” and “calm”. ', and 'negative' emotions include the elements 'angry', 'fear', 'sad', 'disgust', 'confusion' and 'surprise'.

図8は、判定部331による判定結果の一例を示す図である。判定部331は、顔画像に含まれる顔の表情に応じて予め定められた要素に分類する。このとき、図8で示されるように、判定部331は、第1ユーザの顔の表情に応じて、第1ユーザの感情を、複数の要素を包含するものとして分類可能である。図8の例では、判定部331は、顔画像から認識される感情の要素として、「嬉しい」が15%、「落ち着いている」が55%、「怒る」が10%、「恐れ」が10%、「悲しい」が5%、「混乱」が5%含まれるものと認定する。 FIG. 8 is a diagram showing an example of the determination result by the determination unit 331. As shown in FIG. The determination unit 331 classifies the face image into predetermined elements according to facial expressions included in the face image. At this time, as shown in FIG. 8, the determination unit 331 can classify the emotion of the first user as including multiple elements according to the facial expression of the first user. In the example of FIG. 8, the determining unit 331 determines that the emotional elements recognized from the face image are 15% "happy", 55% "calm", 10% "angry", and 10% "fear". %, 5% "sad", and 5% "confused".

図9は、第1ユーザの気分と、点数とが対応付けられたデータベースの一例を示す図である。図9に示されるように、記憶部32は、第1ユーザの感情を気分で表し、気分の良し悪しに応じて1点から6点までの点数が対応付けて記憶する。具体的には、第1ユーザの気分が「大変良い」場合は1点、「良い」場合は3点、「やや良い」場合は4点、「やや悪い」場合は5点、「悪い」場合は6点が対応付けられて記憶される。以下、点数が低いほどよりポジティブな感情を示すものとして、さらに説明を続ける。 FIG. 9 is a diagram showing an example of a database in which the first user's mood and points are associated with each other. As shown in FIG. 9, the storage unit 32 expresses the emotions of the first user in terms of moods, and stores scores from 1 to 6 in correspondence with the moods. Specifically, the first user's mood is 1 point if it is "very good", 3 points if it is "good", 4 points if it is "somewhat good", 5 points if it is "bad", and 5 points if it is "bad". is associated with 6 points and stored. Further explanation will be continued below, assuming that a lower score indicates a more positive emotion.

ここで、判定部331が、第1ユーザの感情をスコアで表す場合の評価基準は、例えば、以下である。
(1)顔画像から認識される前記要素の種別として、「ポジティブ」に分類される各要素の割合を合算して70%以上である場合、1点と判定する。
(2)「落ち着いている」の割合が70%以上の場合、2点と判定する。
(3)「ネガティブ」に分類される各要素の割合を合算して70%以上である場合、6点と判定する。
(4)「ネガティブ」に分類される各要素の割合を合算して60%以上である場合、5点と判定する。
(5)「ネガティブ」に分類される各要素の割合を合算して50%以上である場合、4点と判定する。
(6)上記(1)から(5)までのいずれにも該当しない場合、3点と判定する。
なお、図8の例において、上記の評価基準に照らして判定が行われる場合、上記(1)から(5)までのいずれにも該当しないため、判定結果は3点である。このように、判定部331は、ユーザの顔画像に基づき、ユーザの感情を数値化することで判定する。
Here, for example, the evaluation criteria when the determination unit 331 expresses the first user's emotion as a score are as follows.
(1) A score of 1 is given when the sum of the ratios of elements classified as "positive" as the types of the elements recognized from the face image is 70% or more.
(2) If the ratio of "calm" is 70% or more, it is judged as 2 points.
(3) If the sum of the ratios of elements classified as "negative" is 70% or more, a score of 6 is given.
(4) If the sum of the proportions of elements classified as "negative" is 60% or more, a score of 5 is given.
(5) If the sum of the proportions of elements classified as "negative" is 50% or more, it is judged as 4 points.
(6) If none of the above (1) to (5) apply, a score of 3 is determined.
In the example of FIG. 8, when the determination is made according to the above evaluation criteria, none of the above (1) to (5) apply, so the determination result is 3 points. In this way, the determination unit 331 determines by quantifying the user's emotion based on the user's face image.

その後、表示制御部333は、判定部331により判定された点数と対応する感情の種別を第1ユーザ端末2に強調表示させて表示する。図10は、第1ユーザ端末2に表示される画面の一例を示す図である。図10の例では、判定部331に判定された感情として「やや良い」が表示制御部333は、複数種類の感情それぞれと対応する第1感情評価ボタン62を表示させる。前述の感情それぞれと対応する第1感情評価ボタン62を強調表示させる態様で表示させる。ユーザは、第1感情評価ボタン62を押下することで、自己の感情を自己評価可能である。第1ユーザが第1ユーザ端末2に表示された複数の第1感情評価ボタン62のうちいずれか一つを選択すると、選択された感情の種別が第1感情情報51として情報処理装置3に送信する。すなわち、第1感情情報51は、ユーザによって自己の感情が評価された自己評価結果を含む。ここで、第1感情評価ボタン62及び後述する第2感情評価ボタン63と対応する感情の種別は、それぞれ図9で示される点数と対応する。すなわち、自己評価結果は、感情が数値化されたものである。 After that, the display control unit 333 causes the first user terminal 2 to highlight and display the score determined by the determination unit 331 and the corresponding emotion type. FIG. 10 is a diagram showing an example of a screen displayed on the first user terminal 2. As shown in FIG. In the example of FIG. 10, the emotion determined by the determination unit 331 is "somewhat good", and the display control unit 333 displays the first emotion evaluation button 62 corresponding to each of the plurality of types of emotions. The first emotion evaluation button 62 corresponding to each of the emotions described above is displayed in a manner in which it is highlighted. By pressing the first emotion evaluation button 62, the user can self-evaluate his own emotions. When the first user selects one of the plurality of first emotion evaluation buttons 62 displayed on the first user terminal 2, the selected emotion type is transmitted to the information processing device 3 as the first emotion information 51. do. That is, the first emotion information 51 includes a self-evaluation result obtained by the user's self-evaluation of his/her emotions. Here, the types of emotions corresponding to the first emotion evaluation button 62 and the second emotion evaluation button 63, which will be described later, respectively correspond to the scores shown in FIG. That is, the self-evaluation result is a quantification of emotions.

その後、受付部332は、第1感情情報51を受け付ける(A103)。また、表示制御部333は、判定部331における判定結果と、自己評価結果の乖離が閾値以上である場合、通知情報7を表示する(A104)。例えば、判定部331における判定結果と、第1ユーザによる自己評価結果との差が2点以上である場合、通知情報7を表示する。図11は、通知情報7の一例を示す図である。この場合、判定部331における判定結果の点数が1点であって、第1ユーザによる自己評価結果に係る点数が3点である場合、両者の点数差は2点であるため、通知情報7が表示される。このように、第1ユーザの顔の表情に基づき導き出された評価結果と、第1ユーザによる自己評価結果との差が閾値以上の場合、ユーザに対して通知を行い、メンタルケアを図ることが可能となる。 After that, the reception unit 332 receives the first emotion information 51 (A103). Moreover, the display control unit 333 displays the notification information 7 when the difference between the determination result of the determination unit 331 and the self-evaluation result is equal to or greater than the threshold (A104). For example, if the difference between the determination result of the determination unit 331 and the self-evaluation result by the first user is two points or more, the notification information 7 is displayed. FIG. 11 is a diagram showing an example of notification information 7. As shown in FIG. In this case, if the score of the determination result in the determination unit 331 is 1 point and the score related to the self-evaluation result by the first user is 3 points, the score difference between the two is 2 points. Is displayed. Thus, when the difference between the evaluation result derived based on the facial expression of the first user and the self-evaluation result by the first user is equal to or greater than a threshold, the user can be notified and mental care can be provided. It becomes possible.

4.他己評価機能
第4節では、第2ユーザが他のユーザである第1ユーザの感情に対して評価可能な例を説明する。図12は、第2ユーザ端末4に表示される画面の一例を示す図である。なお、第2ユーザは、退勤打刻時にその日一日における他のユーザの感情を評価するものとして説明する。
4. Others Evaluation Function Section 4 describes an example in which the second user can evaluate the emotion of the first user, who is another user. FIG. 12 is a diagram showing an example of a screen displayed on the second user terminal 4. As shown in FIG. It is assumed that the second user evaluates the feelings of other users during the day at the time of clocking out.

図12に示されるように、第2ユーザ端末4において、第2ユーザは、第1ユーザの感情を評価可能である。具体的には、第2ユーザは、第2ユーザ端末4に表示される第2感情評価ボタン63のうちいずれか一つを選択することで第1ユーザの感情を評価する。このとき、第1ユーザの感情を評価可能な第2ユーザは、第1ユーザと同じ部署に所属する者など、第1ユーザと業務上接点を有すると考えられる人物であることが好ましい。第2感情評価ボタン63が選択されると、選択結果は、第2感情情報52として、第2ユーザ端末4の通信部を介して情報処理装置3に送信される。この場合、第2感情情報52は、第1ユーザとは異なる他の第2ユーザによって第1ユーザの感情が評価された他己評価結果を含む。また、第1ユーザを評価する第2ユーザが複数である場合、第2感情情報52は、第1ユーザとは異なる複数の第2ユーザによって感情が評価された複数の他己評価結果の平均を含む。 As shown in FIG. 12, at the second user terminal 4, the second user can assess the emotions of the first user. Specifically, the second user selects one of the second emotion evaluation buttons 63 displayed on the second user terminal 4 to evaluate the emotion of the first user. At this time, the second user who can evaluate the emotions of the first user is preferably a person who is considered to have business contact with the first user, such as a person who belongs to the same department as the first user. When the second emotion evaluation button 63 is selected, the selection result is transmitted to the information processing device 3 via the communication section of the second user terminal 4 as the second emotion information 52 . In this case, the second emotion information 52 includes a peer evaluation result obtained by evaluating the emotion of the first user by another second user different from the first user. Further, when there are a plurality of second users who evaluate the first user, the second emotion information 52 is the average of a plurality of peer evaluation results evaluated by a plurality of second users different from the first user. include.

続いて、A103において、受付部332は、ネットワーク及び通信部31を介して第2感情情報52を受け付ける。その後、A104では、表示制御部333は、判定部331における判定結果と、他己評価結果の乖離が閾値以上である場合、通知情報7を表示する。第1ユーザを評価する第2ユーザが複数である場合、表示制御部333は、判定部331における判定結果と、他己評価結果の平均の乖離が閾値以上である場合、通知情報7を表示する。 Subsequently, at A<b>103 , the reception unit 332 receives the second emotion information 52 via the network and the communication unit 31 . Thereafter, in A104, the display control unit 333 displays the notification information 7 when the difference between the determination result of the determination unit 331 and the peer evaluation result is equal to or greater than the threshold. When there are a plurality of second users who evaluate the first user, the display control unit 333 displays the notification information 7 when the difference between the determination result of the determination unit 331 and the average of the peer evaluation results is equal to or greater than the threshold. .

5.第2ユーザの選択処理
第1ユーザの感情を評価可能な第2ユーザは、特定の条件の下に選択されてもよい。具体的には、選択部334は、第1ユーザによる自己評価結果と、複数の第2ユーザによる他己評価結果それぞれとの一致度が閾値以上の第2ユーザを選択する。具体的には例えば、選択部334は、第1ユーザによる自己評価結果の点数と、第2ユーザによる評価結果の点数との差の平均が1未満である第2ユーザを選択する。
5. Second User Selection Process A second user capable of evaluating the emotions of the first user may be selected under certain conditions. Specifically, the selection unit 334 selects a second user whose degree of matching between the first user's self-evaluation result and each other's evaluation result by a plurality of second users is equal to or greater than a threshold. Specifically, for example, the selection unit 334 selects the second user whose average difference between the score of the self-evaluation result by the first user and the score of the evaluation result by the second user is less than one.

図13は、自己評価結果と、他己評価結果との一致度の一例を示す図である。図13の例では、第1ユーザによる自己評価結果の点数と、第2ユーザそれぞれによる評価結果の点数との差と、一定期間における前記差の平均が示される。図13の例によれば、前記差の平均が1未満である「谷口瑛太」「安部剛」が第1ユーザに対して評価可能となる。この場合、表示制御部333は、判定部331における判定結果と、選択された第2ユーザによる他己評価結果の乖離が閾値以上である場合、通知情報7を表示する。 FIG. 13 is a diagram showing an example of the degree of matching between self-evaluation results and peer-evaluation results. In the example of FIG. 13, the difference between the score of the self-evaluation result by the first user and the score of the evaluation result by each of the second users, and the average of the differences over a certain period of time are shown. According to the example of FIG. 13, "Eita Taniguchi" and "Tsuyoshi Abe" whose average difference is less than 1 can be evaluated by the first user. In this case, the display control unit 333 displays the notification information 7 when the discrepancy between the determination result of the determination unit 331 and the peer evaluation result by the selected second user is equal to or greater than the threshold.

6.その他
本実施形態に係る情報処理システム1に関して、以下のような態様を採用してもよい。
6. Others Regarding the information processing system 1 according to the present embodiment, the following aspects may be adopted.

(1)本実施形態の態様は、プログラムであってもよい。プログラムは、コンピュータに、情報処理装置3の各ステップを実行させる。
(2)本実施形態では、参照情報5がルックアップテーブル等のデータベースであるものとし、それに含まれる詳細な項目を説明したが、あくまでも一例でありこの限りではない。さらに、参照情報5は、そもそもルックアップテーブル等のデータベースに限定されず、複数の情報を数学的に関係づけた数理モデルでもよいし、さらに好ましくは、複数の情報の相関性を予め機械学習させた学習済みモデルであってもよい。
(3)本実施形態では、第1ユーザ及び第2ユーザの出退勤時に感情の評価を行うことを例に説明したがこれに限らず、予め設定された任意のタイミングで、ユーザの感情を評価可能でもよい。
(1) The aspect of this embodiment may be a program. The program causes the computer to execute each step of the information processing device 3 .
(2) In the present embodiment, the reference information 5 is assumed to be a database such as a lookup table, and detailed items included therein have been described, but this is merely an example and is not limited to this. Furthermore, the reference information 5 is not limited to a database such as a lookup table in the first place, and may be a mathematical model in which a plurality of pieces of information are mathematically related. It may be a trained model.
(3) In the present embodiment, an example in which emotions are evaluated when the first user and the second user arrive at work has been described. It's okay.

さらに、次に記載の各態様で提供されてもよい。
前記情報処理装置において、前記判定ステップでは、前記第1ユーザの顔画像に基づき、前記第1ユーザの前記感情を数値化することで判定し、前記自己評価結果は、前記感情が数値化された、もの。
前記情報処理装置において、前記受付ステップでは、第2感情情報を受け付け、前記第2感情情報は、前記第1ユーザとは異なる他の第2ユーザによって前記第1ユーザの感情が評価された他己評価結果を含み、前記表示制御ステップでは、前記判定ステップにおける判定結果と、前記他己評価結果の乖離が閾値以上である場合、通知情報7を表示する、もの。
前記情報処理装置において、前記第2感情情報は、前記第1ユーザとは異なる複数の第2ユーザによって前記感情が評価された複数の前記他己評価結果の平均を含み、前記表示制御ステップでは、前記判定ステップにおける判定結果と、前記平均の乖離が閾値以上である場合、通知情報7を表示する、もの。
前記情報処理装置において、選択ステップをさらに実行するように構成され、前記選択ステップでは、前記自己評価結果と、前記複数の第2ユーザによる前記他己評価結果それぞれとの一致度が閾値以上の前記第2ユーザを選択し、前記表示制御ステップでは、前記判定ステップにおける判定結果と、選択された前記第2ユーザによる前記他己評価結果の乖離が閾値以上である場合、通知情報7を表示する、もの。
プログラムであって、コンピュータに、前記情報処理装置の各ステップを実行させる、もの。
情報処理装置が実行する情報処理方法であって、前記情報処理システムの各ステップを備える、方法。
もちろん、この限りではない。
Furthermore, it may be provided in each aspect described below.
In the information processing device, in the determination step, determination is made by quantifying the emotion of the first user based on the face image of the first user, and the self-evaluation result is obtained by quantifying the emotion. ,thing.
In the information processing device, in the receiving step, second emotion information is received, and the second emotion information is obtained by evaluating the emotion of the first user by a second user different from the first user. The evaluation result is included, and in the display control step, notification information 7 is displayed when the discrepancy between the judgment result in the judgment step and the peer evaluation result is equal to or greater than a threshold.
In the information processing device, the second emotion information includes an average of the plurality of peer evaluation results obtained by evaluating the emotion by a plurality of second users different from the first user, and the display control step includes: If the discrepancy between the determination result in the determination step and the average is equal to or greater than a threshold, notification information 7 is displayed.
The information processing device is configured to further execute a selection step, in the selection step, the degree of matching between the self-evaluation result and each of the peer-evaluation results by the plurality of second users is equal to or greater than a threshold value. Select a second user, and in the display control step, if the difference between the judgment result in the judgment step and the peer evaluation result by the selected second user is a threshold or more, display notification information 7; thing.
A program that causes a computer to execute each step of the information processing device.
An information processing method executed by an information processing device, comprising steps of the information processing system.
Of course, this is not the only case.

最後に、本発明に係る種々の実施形態を説明したが、これらは、例として提示したものであり、発明の範囲を限定することは意図していない。当該新規な実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。当該実施形態やその変形は、発明の範囲や要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれるものである。 Finally, while various embodiments of the invention have been described, these have been presented by way of example and are not intended to limit the scope of the invention. The novel embodiment can be embodied in various other forms, and various omissions, replacements, and modifications can be made without departing from the scope of the invention. The embodiment and its modifications are included in the scope and gist of the invention, and are included in the scope of the invention described in the claims and equivalents thereof.

1 :情報処理システム
2 :第1ユーザ端末
3 :情報処理装置
30 :通信バス
31 :通信部
32 :記憶部
33 :制御部
331 :判定部
332 :受付部
333 :表示制御部
334 :選択部
4 :第2ユーザ端末
5 :参照情報
51 :第1感情情報
52 :第2感情情報
61 :出勤ボタン
62 :第1感情評価ボタン
63 :第2感情評価ボタン
7 :通知情報
1: information processing system 2 : first user terminal 3 : information processing device 30 : communication bus 31 : communication unit 32 : storage unit 33 : control unit 331 : determination unit 332 : reception unit 333 : display control unit 334 : selection unit 4 : Second user terminal 5 : Reference information 51 : First emotion information 52 : Second emotion information 61 : Attendance button 62 : First emotion evaluation button 63 : Second emotion evaluation button 7 : Notification information

Claims (7)

情報処理装置であって、
判定ステップと、受付ステップと、表示制御ステップとを実行するように構成され、
前記判定ステップでは、第1ユーザの顔画像に基づき、前記第1ユーザの感情を判定し、
前記受付ステップでは、第1感情情報を受け付け、
前記第1感情情報は、前記ユーザによって自己の前記感情が評価された自己評価結果を含み、
前記表示制御ステップでは、前記判定ステップにおける判定結果と、前記自己評価結果の乖離が閾値以上である場合、通知情報7を表示する、
もの。
An information processing device,
configured to execute a determination step, a reception step, and a display control step;
In the determination step, the emotion of the first user is determined based on the facial image of the first user;
In the receiving step, the first emotion information is received;
The first emotion information includes a self-evaluation result obtained by evaluating the user's own emotion,
In the display control step, if the discrepancy between the determination result in the determination step and the self-evaluation result is equal to or greater than a threshold, notification information 7 is displayed.
thing.
請求項1に記載の情報処理装置において、
前記判定ステップでは、前記第1ユーザの顔画像に基づき、前記第1ユーザの前記感情を数値化することで判定し、
前記自己評価結果は、前記感情が数値化された、
もの。
In the information processing device according to claim 1,
In the determination step, determination is made by quantifying the emotion of the first user based on the facial image of the first user;
The self-evaluation results are obtained by quantifying the emotions,
thing.
請求項1又は請求項2に記載の情報処理装置において、
前記受付ステップでは、第2感情情報を受け付け、
前記第2感情情報は、前記第1ユーザとは異なる他の第2ユーザによって前記第1ユーザの感情が評価された他己評価結果を含み、
前記表示制御ステップでは、前記判定ステップにおける判定結果と、前記他己評価結果の乖離が閾値以上である場合、通知情報7を表示する、
もの。
In the information processing apparatus according to claim 1 or claim 2,
receiving the second emotion information in the receiving step;
The second emotion information includes a peer evaluation result obtained by evaluating the emotion of the first user by another second user different from the first user,
In the display control step, if the discrepancy between the determination result in the determination step and the peer evaluation result is equal to or greater than a threshold, notification information 7 is displayed.
thing.
請求項3に記載の情報処理装置において、
前記第2感情情報は、前記第1ユーザとは異なる複数の第2ユーザによって前記感情が評価された複数の前記他己評価結果の平均を含み、
前記表示制御ステップでは、前記判定ステップにおける判定結果と、前記平均の乖離が閾値以上である場合、通知情報7を表示する、
もの。
In the information processing device according to claim 3,
The second emotion information includes an average of a plurality of peer evaluation results obtained by evaluating the emotion by a plurality of second users different from the first user,
In the display control step, when the difference between the determination result in the determination step and the average is equal to or greater than a threshold, notification information 7 is displayed.
thing.
請求項4に記載の情報処理装置において、
選択ステップをさらに実行するように構成され、
前記選択ステップでは、前記自己評価結果と、前記複数の第2ユーザによる前記他己評価結果それぞれとの一致度が閾値以上の前記第2ユーザを選択し、
前記表示制御ステップでは、前記判定ステップにおける判定結果と、選択された前記第2ユーザによる前記他己評価結果の乖離が閾値以上である場合、通知情報7を表示する、
もの。
In the information processing device according to claim 4,
configured to perform further selection steps,
In the selecting step, the second user whose degree of matching between the self-evaluation result and each of the peer-evaluation results by the plurality of second users is equal to or greater than a threshold is selected;
In the display control step, when the discrepancy between the determination result in the determination step and the peer evaluation result by the selected second user is equal to or greater than a threshold, notification information 7 is displayed.
thing.
プログラムであって、
コンピュータに、請求項1~請求項5の何れか1つに記載の情報処理装置の各ステップを実行させる、
もの。
a program,
causing a computer to execute each step of the information processing apparatus according to any one of claims 1 to 5,
thing.
情報処理装置が実行する情報処理方法であって、
請求項1~請求項6の何れか1つに記載の情報処理システムの各ステップを備える、
方法。
An information processing method executed by an information processing device,
Each step of the information processing system according to any one of claims 1 to 6,
Method.
JP2021081915A 2021-05-13 2021-05-13 Information processing equipment, programs and information processing methods Active JP7012295B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2021081915A JP7012295B1 (en) 2021-05-13 2021-05-13 Information processing equipment, programs and information processing methods

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021081915A JP7012295B1 (en) 2021-05-13 2021-05-13 Information processing equipment, programs and information processing methods

Publications (2)

Publication Number Publication Date
JP7012295B1 JP7012295B1 (en) 2022-01-28
JP2022175504A true JP2022175504A (en) 2022-11-25

Family

ID=80735312

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021081915A Active JP7012295B1 (en) 2021-05-13 2021-05-13 Information processing equipment, programs and information processing methods

Country Status (1)

Country Link
JP (1) JP7012295B1 (en)

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11169362A (en) * 1997-12-15 1999-06-29 Nissan Motor Co Ltd Apparatus for supporting self-recognition on mental and physical condition
JP2011008393A (en) * 2009-06-24 2011-01-13 Nec Corp Group management support device, group management support method, and program
JP2017023477A (en) * 2015-07-23 2017-02-02 公立大学法人大阪市立大学 Fatigue degree evaluation system
JP2017033244A (en) * 2015-07-31 2017-02-09 株式会社リコー Information processing device, information processing method, program, and system
JP2017215468A (en) * 2016-05-31 2017-12-07 トヨタ自動車株式会社 Voice interactive device and voice interactive method
JP2019012431A (en) * 2017-06-30 2019-01-24 昇 染矢 Labor Management System
JP2020107177A (en) * 2018-12-28 2020-07-09 Social Healthcare Design株式会社 Server device, information processing device and program
CN112773349A (en) * 2019-11-11 2021-05-11 上海博泰悦臻电子设备制造有限公司 Method and device for constructing emotion log of user driving vehicle, storage medium and terminal

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11169362A (en) * 1997-12-15 1999-06-29 Nissan Motor Co Ltd Apparatus for supporting self-recognition on mental and physical condition
JP2011008393A (en) * 2009-06-24 2011-01-13 Nec Corp Group management support device, group management support method, and program
JP2017023477A (en) * 2015-07-23 2017-02-02 公立大学法人大阪市立大学 Fatigue degree evaluation system
JP2017033244A (en) * 2015-07-31 2017-02-09 株式会社リコー Information processing device, information processing method, program, and system
JP2017215468A (en) * 2016-05-31 2017-12-07 トヨタ自動車株式会社 Voice interactive device and voice interactive method
JP2019012431A (en) * 2017-06-30 2019-01-24 昇 染矢 Labor Management System
JP2020107177A (en) * 2018-12-28 2020-07-09 Social Healthcare Design株式会社 Server device, information processing device and program
CN112773349A (en) * 2019-11-11 2021-05-11 上海博泰悦臻电子设备制造有限公司 Method and device for constructing emotion log of user driving vehicle, storage medium and terminal

Also Published As

Publication number Publication date
JP7012295B1 (en) 2022-01-28

Similar Documents

Publication Publication Date Title
US20150332439A1 (en) Methods and devices for hiding privacy information
CN107657218B (en) Face recognition method and related product
CN109145970B (en) Image-based question and answer processing method and device, electronic equipment and storage medium
CN108875993B (en) Invitation behavior prediction method and device
KR102034838B1 (en) Terminal and server providing a video call service
US11321280B2 (en) Multimedia file sharing method and terminal device
CN108960283B (en) Classification task increment processing method and device, electronic equipment and storage medium
US11341336B2 (en) Recording medium, conversation control method, and information processing apparatus
TW201905760A (en) Method and electronic device for displaying panoramic image
CN112462990A (en) Image sending method and device and electronic equipment
JP2022175504A (en) Information processing apparatus, program, and information processing method
TW201926022A (en) User interface switching method and device and equipment
CN111881862A (en) Gesture recognition method and related device
CN116643827A (en) Information acquisition method, device, electronic equipment and medium
US20220156832A1 (en) Order generation method and system for software interface
CN112542244B (en) Auxiliary information generation method, related device and computer program product
CN112417197B (en) Sorting method, sorting device, machine readable medium and equipment
JP7048115B1 (en) Information processing equipment, programs and information processing methods
CN111191175A (en) Communication mediation device, communication mediation method, and storage medium
CN111435431A (en) Image processing method and device, electronic equipment and storage medium
CN108600502A (en) electronic device, dialing method and related product
US20240146673A1 (en) Method for correcting profile image in online communication service and apparatus therefor
CN113468503B (en) Identification information distribution method and device and electronic equipment
CN109543567B (en) Quantity determination method and device
CN110049316B (en) Method and device for detecting set number of terminals, portable terminal and storage medium

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210514

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20210514

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210913

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20211019

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211118

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220104

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220106

R150 Certificate of patent or registration of utility model

Ref document number: 7012295

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150