JP2021157609A - 情報処理装置、情報処理方法、およびプログラム - Google Patents
情報処理装置、情報処理方法、およびプログラム Download PDFInfo
- Publication number
- JP2021157609A JP2021157609A JP2020058425A JP2020058425A JP2021157609A JP 2021157609 A JP2021157609 A JP 2021157609A JP 2020058425 A JP2020058425 A JP 2020058425A JP 2020058425 A JP2020058425 A JP 2020058425A JP 2021157609 A JP2021157609 A JP 2021157609A
- Authority
- JP
- Japan
- Prior art keywords
- information
- work
- person
- information processing
- aptitude
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 230000010365 information processing Effects 0.000 title claims abstract description 127
- 238000003672 processing method Methods 0.000 title claims description 27
- 230000008451 emotion Effects 0.000 claims abstract description 40
- 238000000034 method Methods 0.000 claims abstract description 40
- 230000002996 emotional effect Effects 0.000 claims description 48
- 230000037007 arousal Effects 0.000 claims description 12
- 238000010586 diagram Methods 0.000 description 21
- 238000004891 communication Methods 0.000 description 19
- 238000007405 data analysis Methods 0.000 description 12
- 230000006870 function Effects 0.000 description 8
- 230000000694 effects Effects 0.000 description 7
- 238000004590 computer program Methods 0.000 description 6
- 230000008921 facial expression Effects 0.000 description 6
- 230000035900 sweating Effects 0.000 description 6
- 230000001133 acceleration Effects 0.000 description 5
- 230000036626 alertness Effects 0.000 description 5
- 230000007613 environmental effect Effects 0.000 description 5
- 230000003287 optical effect Effects 0.000 description 4
- 230000005540 biological transmission Effects 0.000 description 3
- 238000010195 expression analysis Methods 0.000 description 3
- 230000003340 mental effect Effects 0.000 description 3
- 206010011469 Crying Diseases 0.000 description 2
- 230000006996 mental state Effects 0.000 description 2
- 238000011084 recovery Methods 0.000 description 2
- 230000036387 respiratory rate Effects 0.000 description 2
- 206010012374 Depressed mood Diseases 0.000 description 1
- 125000002066 L-histidyl group Chemical group [H]N1C([H])=NC(C([H])([H])[C@](C(=O)[*])([H])N([H])[H])=C1[H] 0.000 description 1
- 206010041308 Soliloquy Diseases 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 230000036772 blood pressure Effects 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 210000000613 ear canal Anatomy 0.000 description 1
- 238000005401 electroluminescence Methods 0.000 description 1
- 239000013056 hazardous product Substances 0.000 description 1
- 210000003128 head Anatomy 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 230000003334 potential effect Effects 0.000 description 1
- 230000000284 resting effect Effects 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 210000004243 sweat Anatomy 0.000 description 1
- 208000024891 symptom Diseases 0.000 description 1
- 230000001360 synchronised effect Effects 0.000 description 1
- 230000036962 time dependent Effects 0.000 description 1
- 210000005010 torso Anatomy 0.000 description 1
- 210000000707 wrist Anatomy 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q10/00—Administration; Management
- G06Q10/06—Resources, workflows, human or project management; Enterprise or organisation planning; Enterprise or organisation modelling
- G06Q10/063—Operations research, analysis or management
- G06Q10/0631—Resource planning, allocation, distributing or scheduling for enterprises or organisations
- G06Q10/06311—Scheduling, planning or task assignment for a person or group
- G06Q10/063112—Skill-based matching of a person or a group to a task
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/174—Facial expression recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L17/00—Speaker identification or verification
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/48—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
- G10L25/51—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
- G10L25/63—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination for estimating an emotional state
Abstract
Description
第一の側面に係る情報処理装置は、
作業の内容を区別する作業情報、および、前記作業を行った人の感情情報を取得する取得手段と、
前記作業情報および前記感情情報を関連付けて、前記人別に前記作業の適性度を示す適性情報を生成する生成手段と、を有する。
第二の側面に係る情報処理方法は、
情報処理装置が、
作業の内容を区別する作業情報、および、前記作業を行った人の感情情報を取得し、
前記作業情報および前記感情情報を関連付けて、前記人別に前記作業の適性度を示す適性情報を生成する、ことを含む。
このコンピュータプログラムは、コンピュータにより実行されたとき、コンピュータに、情報処理装置上で、その情報処理方法を実施させるコンピュータプログラムコードを含む。
<システム概要>
図1は、本発明の実施の形態に係る情報処理システム1の構成例を示す図である。情報処理システム1は、サーバ10と、ウェアラブル端末30と、携帯端末50と、端末装置60と、を備えている。さらに、情報処理システム1は、記憶装置20を備えている。
サーバ10は、後述する情報処理装置100を実現するコンピュータ1000である。サーバ10は、仮想サーバであってもよい。各装置は、通信ネットワーク3を介して接続されている。
図2は、後述する情報処理装置100(図1のサーバ10)を実現するコンピュータ1000のハードウェア構成を例示するブロック図である。図1のウェアラブル端末30、携帯端末50、および端末装置60も、コンピュータ1000によって実現される。
図3は、本発明の実施の形態に係る情報処理装置100の構成を論理的に示す機能ブロック図である。情報処理装置100は、取得部102と、生成部104と、を備える。
取得部102は、作業の内容と当該作業を行った時刻とを関連付けた作業情報110、および、作業を行った人の感情を時刻別に記録した感情情報120とを取得する。
生成部104は、作業情報110および感情情報120を時刻で関連付けて、人別に作業の適性度を示す適性情報130を生成する。
図5(a)および図5(b)のグラフを端末装置60または作業者Wの携帯端末50に画面表示してもよい。
図6は、本実施形態の情報処理装置100の動作例を示すフローチャートである。
まず、取得部102は、作業情報110と感情情報120を取得する(ステップS101)。
任意の条件とは、所定時間間隔において、座標分布の変化量、変化の方向(座標上の移動方向)、変化率、対象時間全体の平均値に対する差分等である。
本実施形態の情報処理装置100は、上記実施形態とは、さらにバイタル情報も用いて適性情報130を生成する構成を有する点以外は、上記実施形態と同様である。図6の情報処理装置100は、図3の情報処理装置100と同じ構成を有するため、図3を用いて説明する。
図9は、ウェアラブル端末30のハードウェアの構成例を示す図である。
ウェアラブル端末30は、図2のコンピュータ1000と、GPS受信機41と、マイクロフォン42と、カメラ43と、タッチパネル44と、記憶装置45と、通信部46と、を備える。さらに、ウェアラブル端末30は、バイタル情報を取得する手段として、加速度センサ32と、磁気センサ33と、光学式脈拍センサ34と、皮膚電位センサ35と、皮膚温度センサ36と、を備えている。ただし、バイタル情報を取得する手段は、これらに限定されない。例えば、呼吸数、血圧、脳波、汗のpH値などのバイタル情報を取得する手段(体表の動きを検出するセンサ、血圧計、脳波センサ、pHセンサなど)を含んでもよい。
カメラ43は、レンズとCCD(Charge Coupled Device)イメージセンサといった撮像素子を備える。カメラ43により撮像される画像は、動画、静止画、および所定間隔毎のフレーム画像の少なくともいずれか一つである。例えば、作業者Wに定期的に携帯端末50のカメラ43を用いて自身の顔を撮像するように指示し、撮像された作業者の顔画像をバイタル情報140としてサーバ10に送信してもよい。作業者の顔の撮像画像から、作業者の表情を解析し、笑顔、怒り、悲しみなどの割合を算出し、バイタル情報140としてもよい。表情解析は、サーバ10で行ってもよいし、携帯端末50で行った結果をサーバ10に送信してもよい。
記憶装置45は、図2のコンピュータ1000のメモリ1030およびストレージデバイス1040に相当する。
本実施形態において、取得部102および生成部104は、図3の情報処理装置100と同様な機能を有するとともに、さらに、以下の機能を有する。
取得部102は、作業を行った人のバイタル情報140を時刻と関連付けて取得する。生成部104は、バイタル情報140を処理することにより感情情報120を生成する。
取得部102により取得されたバイタル情報は、記憶装置20に記憶される。
感情情報120の2つの指標の値は、ウェアラブル端末30で収集される各種のバイタル情報140を処理することにより生成される。
図11は、本実施形態の情報処理装置100の動作例を示すフローチャートである。この例の情報処理装置100の処理手順は、図6のステップS101を含むとともに、さらに、ステップS201〜ステップS205を含んでいる。
図12は、本実施形態の情報処理装置100の要部構成例を論理的に示す機能ブロック図である。本実施形態の情報処理装置100は、作業者Wの会話量を用いて適性情報130を生成する構成を有する点以外は、上記第1実施形態および第2実施形態のいずれか一方と同様である。
生成部104は、音声データ142を処理して得られる会話量をさらに用いて適性情報130を生成する。
図13は、本実施形態の情報処理装置100の論理的な構成例を示す機能ブロック図である。本実施形態の情報処理装置100は、適性情報130を用いて作業に適した人を出力する構成を有する点以外は上記した、いずれかの実施形態と同じである。情報処理装置100は、取得部102と、生成部104と、出力部108とを備える。取得部102および生成部104は、第1実施形態、第2実施形態、および第3実施形態のいずれかと同じである。図13では、第3実施形態のデータ解析処理部106は含まれていないが、本実施形態は、第3実施形態の構成と組み合わせてもよい。
図15は、本実施形態の情報処理装置100の論理的な構成例を示す機能ブロック図である。本実施形態の情報処理装置100は、さらに属性情報170を用いて、当該作業者の適性情報130を生成する点以外は、上記した、いずれかの実施形態と同様である。図15の例では、情報処理装置100は、図13の第3実施形態の情報処理装置100と同じ取得部102と、生成部104と、出力部108とを備える。
出力部108は、属性情報170を指定して、作業を行う人を選択し、選択された人を出力する。さらに、出力部108は、複数の人が選択された場合、さらに、人の適性情報130を用いて人を絞り込んで出力する。
たとえば、生成部104は、さらに、人が作業を行った作業時間を用いて適性情報130を生成してもよい。
なお、本発明において利用者に関する情報を取得、利用する場合は、これを適法に行うものとする。
1. 作業の内容を区別する作業情報、および、前記作業を行った人の感情情報を取得する取得手段と、
前記作業情報および前記感情情報を関連付けて、前記人別に前記作業の適性度を示す適性情報を生成する生成手段と、を備える、情報処理装置。
2. 1.に記載の情報処理装置において、
前記作業情報および前記感情情報は、前記作業を行った時刻に関連付けて記録されている、情報処理装置。
3. 1.または2.に記載の情報処理装置において、
前記取得手段は、前記作業を行った人のバイタル情報を前記作業を行った時刻と関連付けて取得し、
前記生成手段は、前記バイタル情報を処理することにより前記感情情報を生成する、情報処理装置。
4. 3.に記載の情報処理装置において、
前記生成手段は、前記バイタル情報を使って前記適性情報を生成する、情報処理装置。
5. 1.から4.のいずれか一つに記載の情報処理装置において、
前記取得手段は、さらに、前記作業を行った人の会話の音声データを取得し、
前記生成手段は、前記音声データを処理して得られる会話量をさらに用いて前記適性情報を生成する、情報処理装置。
6. 1.から5.のいずれか一つに記載の情報処理装置において、
前記適性情報を用いて、指定された作業に適した人を出力する出力手段をさらに備える、情報処理装置。
7. 1.から6.のいずれか一つに記載の情報処理装置において、
前記感情情報は、前記作業を行ったときの前記人の快および不快の状態を第1の指標とし、
前記生成手段は、前記第1の指標を第1軸とする座標を使って前記適性情報を生成する、情報処理装置。
8. 7.に記載の情報処理装置において、
前記感情情報は、さらに、前記人の時刻別の覚醒度を第2の指標とし、
前記生成手段は、前記第1の指標を第1軸とし、前記第2の指標を第2軸とする座標を使って前記適性情報を生成する、情報処理装置。
9. 1.から8.のいずれか一つに記載の情報処理装置において、
前記生成手段は、さらに、前記人が前記作業を行った作業時間を用いて前記適性情報を生成する、情報処理装置。
10. 1.から9.のいずれか一つに記載の情報処理装置において、
前記生成手段は、さらに前記作業を行った前記人の属性情報を用いて、当該人の前記適性情報を生成する、情報処理装置。
11. 10.に記載の情報処理装置において、
前記属性情報は、前記人の過去の作業履歴を含み、
前記属性情報を指定して、作業を行う人を選択し、選択された前記人を出力する出力手段をさらに備え、
前記出力手段は、複数の人が選択された場合、さらに、前記人の前記適性情報を用いて前記人を絞り込んで出力する、情報処理装置。
作業の内容を区別する作業情報、および、前記作業を行った人の感情情報を取得し、
前記作業情報および前記感情情報を関連付けて、前記人別に前記作業の適性度を示す適性情報を生成する、
情報処理方法。
13. 12.に記載の情報処理方法において、
前記作業情報および前記感情情報は、前記作業を行った時刻に関連付けて記録されている、情報処理方法。
14. 12.または13.に記載の情報処理方法において、
前記情報処理装置が、
前記作業を行った人のバイタル情報を前記作業を行った時刻と関連付けて取得し、
前記バイタル情報を処理することにより前記感情情報を生成する、情報処理方法。
15. 14.に記載の情報処理方法において、
前記情報処理装置が、
前記バイタル情報を使って前記適性情報を生成する、情報処理方法。
16. 12.から15.のいずれか一つに記載の情報処理方法において、
前記情報処理装置が、
さらに、前記作業を行った人の会話の音声データを取得し、
前記音声データを処理して得られる会話量をさらに用いて前記適性情報を生成する、情報処理方法。
17. 12.から16.のいずれか一つに記載の情報処理方法において、
前記情報処理装置が、さらに、
前記適性情報を用いて、指定された作業に適した人を出力する、情報処理方法。
18. 12.から17.のいずれか一つに記載の情報処理方法において、
前記感情情報は、前記作業を行ったときの前記人の快および不快の状態を第1の指標とし、
前記情報処理装置が、
前記第1の指標を第1軸とする座標を使って前記適性情報を生成する、情報処理方法。
19. 18.に記載の情報処理方法において、
前記感情情報は、さらに、前記人の時刻別の覚醒度を第2の指標とし、
前記情報処理装置が、
前記第1の指標を第1軸とし、前記第2の指標を第2軸とする座標を使って前記適性情報を生成する、情報処理方法。
20. 12.から19.のいずれか一つに記載の情報処理方法において、
前記情報処理装置が、
さらに、前記人が前記作業を行った作業時間を用いて前記適性情報を生成する、情報処理方法。
21. 12.から20.のいずれか一つに記載の情報処理方法において、
前記情報処理装置が、
さらに前記作業を行った前記人の属性情報を用いて、当該人の前記適性情報を生成する、情報処理方法。
22. 21.に記載の情報処理方法において、
前記属性情報は、前記人の過去の作業履歴を含み、
前記情報処理装置が、さらに、
前記属性情報を指定して、作業を行う人を選択し、選択された前記人を出力し、
複数の人が選択された場合、さらに、前記人の前記適性情報を用いて前記人を絞り込んで出力する、情報処理方法。
作業の内容を区別する作業情報、および、前記作業を行った人の感情情報を取得する手順、
前記作業情報および前記感情情報を関連付けて、前記人別に前記作業の適性度を示す適性情報を生成する手順、を実行させるためのプログラム。
24. 23.に記載のプログラムにおいて、
前記作業情報および前記感情情報は、前記作業を行った時刻に関連付けて記録されている手順、をコンピュータに実行させるためのプログラム。
25. 23.または24.に記載のプログラムにおいて、
前記作業を行った人のバイタル情報を前記作業を行った時刻と関連付けて取得する手順、
前記バイタル情報を処理することにより前記感情情報を生成する手順、をコンピュータに実行させるためのプログラム。
26. 25.に記載のプログラムにおいて、
前記バイタル情報を使って前記適性情報を生成する手順、をコンピュータに実行させるためのプログラム。
27. 23.から26.のいずれか一つに記載のプログラムにおいて、
さらに、前記作業を行った人の会話の音声データを取得する手順、
前記音声データを処理して得られる会話量をさらに用いて前記適性情報を生成する手順、をコンピュータに実行させるためのプログラム。
28. 23.から27.のいずれか一つに記載のプログラムにおいて、
前記適性情報を用いて、指定された作業に適した人を出力する手順、をコンピュータに実行させるためのプログラム。
29. 23.から28.のいずれか一つに記載のプログラムにおいて、
前記感情情報は、前記作業を行ったときの前記人の快および不快の状態を第1の指標とし、
前記第1の指標を第1軸とする座標を使って前記適性情報を生成する手順、をコンピュータに実行させるためのプログラム。
30. 29.に記載のプログラムにおいて、
前記感情情報は、さらに、前記人の時刻別の覚醒度を第2の指標とし、
前記第1の指標を第1軸とし、前記第2の指標を第2軸とする座標を使って前記適性情報を生成する手順、をコンピュータに実行させるためのプログラム。
31. 23.から30.のいずれか一つに記載のプログラムにおいて、
さらに、前記人が前記作業を行った作業時間を用いて前記適性情報を生成する手順、をコンピュータに実行させるためのプログラム。
32. 23.から31.のいずれか一つに記載のプログラムにおいて、
さらに前記作業を行った前記人の属性情報を用いて、当該人の前記適性情報を生成する手順、をコンピュータに実行させるためのプログラム。
33. 32.に記載のプログラムにおいて、
前記属性情報は、前記人の過去の作業履歴を含み、
前記属性情報を指定して、作業を行う人を選択し、選択された前記人を出力する手順、
複数の人が選択された場合、さらに、前記人の前記適性情報を用いて前記人を絞り込んで出力する手順、をコンピュータに実行させるためのプログラム。
3 通信ネットワーク
10 サーバ
20 記憶装置
30 ウェアラブル端末
32 加速度センサ
33 磁気センサ
34 光学式脈拍センサ
35 皮膚電位センサ
36 皮膚温度センサ
41 GPS受信機
42 マイクロフォン
43 カメラ
44 タッチパネル
45 記憶装置
46 通信部
50 携帯端末
60 端末装置
100 情報処理装置
102 取得部
104 生成部
106 データ解析処理部
108 出力部
110 作業情報
120 感情情報
130 適性情報
140 バイタル情報
142 音声データ
160 作業候補者リスト
170 属性情報
200 グラフ
210 円グラフ
1000 コンピュータ
1010 バス
1020 プロセッサ
1030 メモリ
1040 ストレージデバイス
1050 入出力インタフェース
1060 ネットワークインタフェース
Claims (13)
- 作業の内容を区別する作業情報、および、前記作業を行った人の感情情報を取得する取得手段と、
前記作業情報および前記感情情報を関連付けて、前記人別に前記作業の適性度を示す適性情報を生成する生成手段と、を備える、情報処理装置。 - 請求項1に記載の情報処理装置において、
前記作業情報および前記感情情報は、前記作業を行った時刻に関連付けて記録されている、情報処理装置。 - 請求項1または2に記載の情報処理装置において、
前記取得手段は、前記作業を行った人のバイタル情報を前記作業を行った時刻と関連付けて取得し、
前記生成手段は、前記バイタル情報を処理することにより前記感情情報を生成する、情報処理装置。 - 請求項3に記載の情報処理装置において、
前記生成手段は、前記バイタル情報を使って前記適性情報を生成する、情報処理装置。 - 請求項1から4のいずれか一項に記載の情報処理装置において、
前記取得手段は、さらに、前記作業を行った人の会話の音声データを取得し、
前記生成手段は、前記音声データを処理して得られる会話量をさらに用いて前記適性情報を生成する、情報処理装置。 - 請求項1から5のいずれか一項に記載の情報処理装置において、
前記適性情報を用いて、指定された作業に適した人を出力する出力手段をさらに備える、情報処理装置。 - 請求項1から6のいずれか一項に記載の情報処理装置において、
前記感情情報は、前記作業を行ったときの前記人の快および不快の状態を第1の指標とし、
前記生成手段は、前記第1の指標を第1軸とする座標を使って前記適性情報を生成する、情報処理装置。 - 請求項7に記載の情報処理装置において、
前記感情情報は、さらに、前記人の時刻別の覚醒度を第2の指標とし、
前記生成手段は、前記第1の指標を第1軸とし、前記第2の指標を第2軸とする座標を使って前記適性情報を生成する、情報処理装置。 - 請求項1から8のいずれか一項に記載の情報処理装置において、
前記生成手段は、さらに、前記人が前記作業を行った作業時間を用いて前記適性情報を生成する、情報処理装置。 - 請求項1から9のいずれか一項に記載の情報処理装置において、
前記生成手段は、さらに前記作業を行った前記人の属性情報を用いて、当該人の前記適性情報を生成する、情報処理装置。 - 請求項10に記載の情報処理装置において、
前記属性情報は、前記人の過去の作業履歴を含み、
前記属性情報を指定して、作業を行う人を選択し、選択された前記人を出力する出力手段をさらに備え、
前記出力手段は、複数の人が選択された場合、さらに、前記人の前記適性情報を用いて前記人を絞り込んで出力する、情報処理装置。 - 情報処理装置が、
作業の内容を区別する作業情報、および、前記作業を行った人の感情情報を取得し、
前記作業情報および前記感情情報を関連付けて、前記人別に前記作業の適性度を示す適性情報を生成する、
情報処理方法。 - コンピュータに、
作業の内容を区別する作業情報、および、前記作業を行った人の感情情報を取得する手順、
前記作業情報および前記感情情報を関連付けて、前記人別に前記作業の適性度を示す適性情報を生成する手順、を実行させるためのプログラム。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020058425A JP2021157609A (ja) | 2020-03-27 | 2020-03-27 | 情報処理装置、情報処理方法、およびプログラム |
US17/205,696 US11687849B2 (en) | 2020-03-27 | 2021-03-18 | Information processing apparatus, information processing method, and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020058425A JP2021157609A (ja) | 2020-03-27 | 2020-03-27 | 情報処理装置、情報処理方法、およびプログラム |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2021157609A true JP2021157609A (ja) | 2021-10-07 |
Family
ID=77856235
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020058425A Pending JP2021157609A (ja) | 2020-03-27 | 2020-03-27 | 情報処理装置、情報処理方法、およびプログラム |
Country Status (2)
Country | Link |
---|---|
US (1) | US11687849B2 (ja) |
JP (1) | JP2021157609A (ja) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2023074129A1 (ja) * | 2021-11-01 | 2023-05-04 | ソニーグループ株式会社 | 情報処理装置、コミュニケーション支援装置、およびコミュニケーション支援システム |
WO2024013945A1 (ja) * | 2022-07-14 | 2024-01-18 | 日本電気株式会社 | 情報処理装置、情報処理方法、およびプログラム記録媒体 |
WO2024023897A1 (ja) * | 2022-07-25 | 2024-02-01 | 日本電気株式会社 | 情報処理装置、情報処理方法、および記録媒体 |
Family Cites Families (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009123148A (ja) | 2007-11-19 | 2009-06-04 | Hitachi Ltd | 作業担当者選択装置およびその方法 |
US8140368B2 (en) * | 2008-04-07 | 2012-03-20 | International Business Machines Corporation | Method and system for routing a task to an employee based on physical and emotional state |
US20130127620A1 (en) * | 2011-06-20 | 2013-05-23 | Cerner Innovation, Inc. | Management of patient fall risk |
US9808709B2 (en) * | 2013-09-27 | 2017-11-07 | PlayNovation LLC | System and methods for biometric detection of play states, intrinsic motivators, play types/patterns and play personalities |
US10953317B2 (en) * | 2013-09-27 | 2021-03-23 | PlayNovation LLC | Generating doppelgangers that reflect play personality or intrinsic motivators of a user/subject |
US10607167B2 (en) * | 2015-10-13 | 2020-03-31 | Genesys Telecommunications Laboratories, Inc. | System and method for intelligent task management and routing based on physiological sensor input data |
CA3006640A1 (en) * | 2015-12-23 | 2017-06-29 | Pymetrics, Inc. | Systems and methods for data-driven identification of talent |
US20200046277A1 (en) * | 2017-02-14 | 2020-02-13 | Yuen Lee Viola Lam | Interactive and adaptive learning and neurocognitive disorder diagnosis systems using face tracking and emotion detection with associated methods |
CA3065905A1 (en) * | 2017-10-27 | 2019-05-02 | Wehireai Inc. | Method of preparing recommendations for taking decisions on the basis of a computerized assessment of the capabilities of users |
US11093871B2 (en) * | 2018-04-16 | 2021-08-17 | International Business Machines Corporation | Facilitating micro-task performance during down-time |
JP6531323B1 (ja) | 2018-12-06 | 2019-06-19 | 株式会社ビジネスインテリジェンス | プログラム、情報処理装置及び情報処理方法 |
US11615353B2 (en) * | 2018-12-27 | 2023-03-28 | Clicksoftware, Inc. | Methods and systems for offerring service times based on system consideration |
WO2020202870A1 (ja) * | 2019-03-29 | 2020-10-08 | ソニー株式会社 | 電子機器および撮像システム |
US11216784B2 (en) * | 2020-01-29 | 2022-01-04 | Cut-E Assessment Global Holdings Limited | Systems and methods for automating validation and quantification of interview question responses |
-
2020
- 2020-03-27 JP JP2020058425A patent/JP2021157609A/ja active Pending
-
2021
- 2021-03-18 US US17/205,696 patent/US11687849B2/en active Active
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2023074129A1 (ja) * | 2021-11-01 | 2023-05-04 | ソニーグループ株式会社 | 情報処理装置、コミュニケーション支援装置、およびコミュニケーション支援システム |
WO2024013945A1 (ja) * | 2022-07-14 | 2024-01-18 | 日本電気株式会社 | 情報処理装置、情報処理方法、およびプログラム記録媒体 |
WO2024023897A1 (ja) * | 2022-07-25 | 2024-02-01 | 日本電気株式会社 | 情報処理装置、情報処理方法、および記録媒体 |
Also Published As
Publication number | Publication date |
---|---|
US20210304111A1 (en) | 2021-09-30 |
US11687849B2 (en) | 2023-06-27 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11120477B2 (en) | System and method for personalized preference optimization | |
US11160479B2 (en) | Information processing device and control method | |
US11687849B2 (en) | Information processing apparatus, information processing method, and program | |
US20170143246A1 (en) | Systems and methods for estimating and predicting emotional states and affects and providing real time feedback | |
US9204836B2 (en) | Sporadic collection of mobile affect data | |
KR101970077B1 (ko) | 데이터 태깅 | |
US9942232B2 (en) | User control of data de-identification | |
US20130245396A1 (en) | Mental state analysis using wearable-camera devices | |
US20110201960A1 (en) | Systems for inducing change in a human physiological characteristic | |
US20180107793A1 (en) | Health activity monitoring and work scheduling | |
US20150342511A1 (en) | Operating system with color-based health state themes | |
US20210015415A1 (en) | Methods and systems for monitoring user well-being | |
US20110201899A1 (en) | Systems for inducing change in a human physiological characteristic | |
US20180008191A1 (en) | Pain management wearable device | |
US20110201959A1 (en) | Systems for inducing change in a human physiological characteristic | |
KR102606689B1 (ko) | 전자 장치에서 생체 정보 제공 방법 및 장치 | |
US20210223869A1 (en) | Detecting emotions from micro-expressive free-form movements | |
CN110753514A (zh) | 基于隐式采集的计算机交互的睡眠监测 | |
WO2019132772A1 (en) | Method and system for monitoring emotions | |
JPWO2018116703A1 (ja) | 表示制御装置、表示制御方法及びコンピュータプログラム | |
US20200402641A1 (en) | Systems and methods for capturing and presenting life moment information for subjects with cognitive impairment | |
JP7209200B2 (ja) | 空間提案システム、及び、空間提案方法 | |
JP2020137895A (ja) | 表示方法、プログラム、及び表示システム | |
WO2023234317A1 (ja) | 情報処理システム、情報処理方法、プログラム、記録媒体 | |
WO2024013945A1 (ja) | 情報処理装置、情報処理方法、およびプログラム記録媒体 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20230206 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20240104 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20240109 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20240308 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20240402 |