JP2021157609A - 情報処理装置、情報処理方法、およびプログラム - Google Patents

情報処理装置、情報処理方法、およびプログラム Download PDF

Info

Publication number
JP2021157609A
JP2021157609A JP2020058425A JP2020058425A JP2021157609A JP 2021157609 A JP2021157609 A JP 2021157609A JP 2020058425 A JP2020058425 A JP 2020058425A JP 2020058425 A JP2020058425 A JP 2020058425A JP 2021157609 A JP2021157609 A JP 2021157609A
Authority
JP
Japan
Prior art keywords
information
work
person
information processing
aptitude
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2020058425A
Other languages
English (en)
Inventor
勝巳 阿部
Katsumi Abe
勝巳 阿部
義久 萬膳
Yoshihisa Manzen
義久 萬膳
豊 川崎
Yutaka Kawasaki
豊 川崎
格 岡野
Itaru Okano
格 岡野
知毅 山辺
Tomoki Yamabe
知毅 山辺
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
NEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Corp filed Critical NEC Corp
Priority to JP2020058425A priority Critical patent/JP2021157609A/ja
Priority to US17/205,696 priority patent/US11687849B2/en
Publication of JP2021157609A publication Critical patent/JP2021157609A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q10/00Administration; Management
    • G06Q10/06Resources, workflows, human or project management; Enterprise or organisation planning; Enterprise or organisation modelling
    • G06Q10/063Operations research, analysis or management
    • G06Q10/0631Resource planning, allocation, distributing or scheduling for enterprises or organisations
    • G06Q10/06311Scheduling, planning or task assignment for a person or group
    • G06Q10/063112Skill-based matching of a person or a group to a task
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/174Facial expression recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L17/00Speaker identification or verification
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/48Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
    • G10L25/51Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
    • G10L25/63Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination for estimating an emotional state

Abstract

【課題】人別に不得意な作業を管理する技術を提供する。【解決手段】情報処理装置100は、作業の内容と当該作業を行った時刻とを関連付けた作業情報110、および、作業を行った人の感情を時刻別に記録した感情情報120とを取得する取得部102と、作業情報110および感情情報120を時刻で関連付けて、人別に作業の適性度を示す適性情報130を生成する生成部104と、を備える。【選択図】図3

Description

本発明は、情報処理装置、情報処理方法、およびプログラムに関する。
特許文献1には、業務を複数人で分担して行う場合に、人の感情の状態に基づいて、担当者の作業の割り振りを行う方法が記載されている。この方法では、処理依頼をする際に、依頼先ユーザの感情情報および感情情報の変化履歴を元にして依頼先の状態を推定している。また、感情情報は、マイクから収集される音声や、カメラの撮像画像から解析される動作などから推定されている。今までの依頼元ユーザの依頼のタイミング履歴も組み合わせることで、依頼のタイミングも考慮している。
特許文献2には、商談相手に関する情報に基づいて、複数の商談担当者の中から、それぞれの商談相手との商談を行う商談担当者や商談相手に対する商談戦略を特定する方法が記載されている。商談相手の情報と商談の方針とを担当者決定用学習済みモデルに入力し、担当者決定用学習済みモデルからの出力値を取得する。出力値は、商談相手に対してどの程度適切であるかを表す度合を示していて、出力値が最大の担当者を商談担当者に決定している。
特開2009−123148号公報 特許6531323号公報
一般的に、人によって不得意な作業は異なっている。作業効率を上げるためには、不得意な作業をその人に割り当てないようにすることが好ましい。このようにするためには、人別に不得意な作業を管理する必要がある。
本発明は上記事情に鑑みてなされたものであり、その目的とするところは、人別に不得意な作業を管理することにある。
本発明の各側面では、上述した課題を解決するために、それぞれ以下の構成を採用する。
第一の側面は、情報処理装置に関する。
第一の側面に係る情報処理装置は、
作業の内容を区別する作業情報、および、前記作業を行った人の感情情報を取得する取得手段と、
前記作業情報および前記感情情報を関連付けて、前記人別に前記作業の適性度を示す適性情報を生成する生成手段と、を有する。
第二の側面は、少なくとも1つのコンピュータにより実行される情報処理装置の情報処理方法に関する。
第二の側面に係る情報処理方法は、
情報処理装置が、
作業の内容を区別する作業情報、および、前記作業を行った人の感情情報を取得し、
前記作業情報および前記感情情報を関連付けて、前記人別に前記作業の適性度を示す適性情報を生成する、ことを含む。
なお、本発明の他の側面としては、上記第二の側面の方法を少なくとも1つのコンピュータに実行させるプログラムであってもよいし、このようなプログラムを記録したコンピュータが読み取り可能な記録媒体であってもよい。この記録媒体は、非一時的な有形の媒体を含む。
このコンピュータプログラムは、コンピュータにより実行されたとき、コンピュータに、情報処理装置上で、その情報処理方法を実施させるコンピュータプログラムコードを含む。
なお、以上の構成要素の任意の組合せ、本発明の表現を方法、装置、システム、記録媒体、コンピュータプログラムなどの間で変換したものもまた、本発明の態様として有効である。
また、本発明の各種の構成要素は、必ずしも個々に独立した存在である必要はなく、複数の構成要素が一個の部材として形成されていること、一つの構成要素が複数の部材で形成されていること、ある構成要素が他の構成要素の一部であること、ある構成要素の一部と他の構成要素の一部とが重複していること、等でもよい。
また、本発明の方法およびコンピュータプログラムには複数の手順を順番に記載してあるが、その記載の順番は複数の手順を実行する順番を限定するものではない。このため、本発明の方法およびコンピュータプログラムを実施するときには、その複数の手順の順番は内容的に支障のない範囲で変更することができる。
さらに、本発明の方法およびコンピュータプログラムの複数の手順は個々に相違するタイミングで実行されることに限定されない。このため、ある手順の実行中に他の手順が発生すること、ある手順の実行タイミングと他の手順の実行タイミングとの一部ないし全部が重複していること、等でもよい。
上記各側面によれば、人別に不得意な作業を管理する技術を提供することができる。
本発明の実施の形態に係る情報処理システムの構成例を示す図である。 後述する情報処理装置を実現するコンピュータのハードウェア構成を例示するブロック図である。 本発明の実施の形態に係る情報処理装置の構成を論理的に示す機能ブロック図である。 作業情報および感情情報のデータ構造の一例を示す図である。 作業者の感情状態の経時変化を示す図である。 本実施形態の情報処理装置の動作例を示すフローチャートである。 適性情報と感情状態の割合を可視化して模式的に表したグラフの表示画面の例を示す図である。 感情情報から生成される適性情報の一例を示している。 ウェアラブル端末のハードウェアの構成例を示す図である。 バイタル情報のデータ構造の一例を示す図である。 本実施形態の情報処理装置の動作例を示すフローチャートである。 本実施形態の情報処理装置の要部構成例を論理的に示す機能ブロック図である。 本実施形態の情報処理装置の論理的な構成例を示す機能ブロック図である。 作業候補者リストの一例を示す図である。 本実施形態の情報処理装置の論理的な構成例を示す機能ブロック図である。 属性情報のデータ構造の一例を示す図である。
以下、本発明の実施の形態について、図面を用いて説明する。尚、すべての図面において、同様な構成要素には同様の符号を付し、適宜説明を省略する。また、各図において、本発明の本質に関わらない部分の構成については省略してあり、図示されていない。
実施形態において「取得」とは、自装置が他の装置や記憶媒体に格納されているデータまたは情報を取りに行くこと(能動的な取得)、および、自装置に他の装置から出力されるデータまたは情報を入力すること(受動的な取得)の少なくとも一方を含む。能動的な取得の例は、他の装置にリクエストまたは問い合わせしてその返信を受信すること、及び、他の装置や記憶媒体にアクセスして読み出すこと等がある。また、受動的な取得の例は、配信(または、送信、プッシュ通知等)される情報を受信すること等がある。さらに、「取得」とは、受信したデータまたは情報の中から選択して取得すること、または、配信されたデータまたは情報を選択して受信することであってもよい。
(第1実施形態)
<システム概要>
図1は、本発明の実施の形態に係る情報処理システム1の構成例を示す図である。情報処理システム1は、サーバ10と、ウェアラブル端末30と、携帯端末50と、端末装置60と、を備えている。さらに、情報処理システム1は、記憶装置20を備えている。
サーバ10は、後述する情報処理装置100を実現するコンピュータ1000である。サーバ10は、仮想サーバであってもよい。各装置は、通信ネットワーク3を介して接続されている。
記憶装置20は、サーバ10が使用する各種情報(例えば、後述する作業情報110、感情情報120、適性情報130など)を記憶および蓄積する。記憶装置20は、サーバ10の内部に設けられてもよいし、外部に設けられてもよい。つまり記憶装置20は、サーバ10と一体のハードウェアであってもよいし、サーバ10とは別体のハードウェアであってもよい。
ウェアラブル端末30は、作業者W1、W2(以後、特に区別する必要がない場合は、作業者Wと呼ぶ)等がそれぞれ身に付け、作業者Wのバイタル情報をリアルタイムに収集する。バイタル情報の詳細については後述する。実施形態では、ウェアラブル端末30は、作業者Wの手首に取り付ける構造を有しているが、これに限定されない。例えば、眼鏡タイプのもの、耳穴にはめ込むタイプのもの、頭部、胴体(衣類タイプのものを含む)、脚、腕、首など身体の他の部位に装着されるタイプのもの、皮膚の表面に貼り付けるタイプのものなどであってもよいし、複数のタイプのウェアラブル端末30を組み合わせてもよい。
携帯端末50は、作業者Wが携帯し、ウェアラブル端末30からバイタル情報を受信し、受信したバイタル情報をさらにサーバ10に転送する。携帯端末50は、例えば、スマートフォン、タブレット端末、またはパーソナルコンピュータなどである。端末装置60は、管理者Mが操作し、サーバ10で生成された各種情報を表示させる。
ウェアラブル端末30から携帯端末50へのバイタル情報の送信、または携帯端末50からサーバ10へのバイタル情報の送信(アップロード)は、自動的に所定間隔で行われてもよいし、所定の時刻(例えば、出勤時、作業開始時、作業終了後、退勤時など)や任意のタイミングなどに行われてもよい。
<ハードウェア構成例>
図2は、後述する情報処理装置100(図1のサーバ10)を実現するコンピュータ1000のハードウェア構成を例示するブロック図である。図1のウェアラブル端末30、携帯端末50、および端末装置60も、コンピュータ1000によって実現される。
コンピュータ1000は、バス1010、プロセッサ1020、メモリ1030、ストレージデバイス1040、入出力インタフェース1050、およびネットワークインタフェース1060を有する。
バス1010は、プロセッサ1020、メモリ1030、ストレージデバイス1040、入出力インタフェース1050、およびネットワークインタフェース1060が、相互にデータを送受信するためのデータ伝送路である。ただし、プロセッサ1020などを互いに接続する方法は、バス接続に限定されない。
プロセッサ1020は、CPU(Central Processing Unit)やGPU(Graphics Processing Unit)などで実現されるプロセッサである。
メモリ1030は、RAM(Random Access Memory)などで実現される主記憶装置である。
ストレージデバイス1040は、HDD(Hard Disk Drive)、SSD(Solid State Drive)、メモリカード、又はROM(Read Only Memory)などで実現される補助記憶装置である。ストレージデバイス1040は情報処理装置100の各機能(例えば、後述する取得部102、生成部104、データ解析処理部106、出力部108など)を実現するプログラムモジュールを記憶している。プロセッサ1020がこれら各プログラムモジュールをメモリ1030上に読み込んで実行することで、そのプログラムモジュールに対応する各機能が実現される。また、ストレージデバイス1040は記憶装置20の各データも記憶してもよい。
プログラムモジュールは、記録媒体に記録されてもよい。プログラムモジュールを記録する記録媒体は、非一時的な有形のコンピュータ1000が使用可能な媒体を含み、その媒体に、コンピュータ1000(プロセッサ1020)が読み取り可能なプログラムコードが埋め込まれてよい。
入出力インタフェース1050は、コンピュータ1000と各種入出力機器とを接続するためのインタフェースである。入出力インタフェース1050は、ブルートゥース(登録商標)などの近距離無線通信を行う通信インタフェースとしても機能する。
ネットワークインタフェース1060は、コンピュータ1000を通信ネットワークに接続するためのインタフェースである。この通信ネットワークは、例えばLAN(Local Area Network)やWAN(Wide Area Network)である。ネットワークインタフェース1060が通信ネットワークに接続する方法は、無線接続であってもよいし、有線接続であってもよい。
そして、コンピュータ1000は、入出力インタフェース1050またはネットワークインタフェース1060を介して、必要な機器(例えば、サーバ10と携帯端末50、携帯端末50とウェアラブル端末30、サーバ10と端末装置60間の接続、あるいは、図示されない、ディスプレイ、操作キー、キーボード、マウス、スピーカ、マイクロフォン、プリンタ等)に接続する。
情報処理装置100は、コンピュータ1000に、当該情報処理装置100を実現するためのアプリケーションプログラムをインストールして起動することで実現される。
<機能構成例>
図3は、本発明の実施の形態に係る情報処理装置100の構成を論理的に示す機能ブロック図である。情報処理装置100は、取得部102と、生成部104と、を備える。
取得部102は、作業の内容と当該作業を行った時刻とを関連付けた作業情報110、および、作業を行った人の感情を時刻別に記録した感情情報120とを取得する。
生成部104は、作業情報110および感情情報120を時刻で関連付けて、人別に作業の適性度を示す適性情報130を生成する。
作業情報110および感情情報120は、記憶装置20に記憶されている。図4(a)は、作業情報110のデータ構造の一例を示す図である。図4(b)は、感情情報120のデータ構造の一例を示す図である。
作業情報110は、ユーザ毎に、作業内容を示す識別情報(作業ID)と、当該作業の開始時刻と、当該作業の終了時刻とが関連付けて記憶される。作業IDの作業内容の詳細情報は、別途、作業内容情報として記憶装置20に記憶されているものとする。この例では、作業毎に開始時刻と終了時刻を関連付けて記録している。他の例では、時刻毎、時間毎、時間帯毎、期間毎などに行った作業を関連付けて記憶してもよい。作業内容情報は、さらに、社内/社外作業などの区分、作業を行っているチームの人数、作業者の立場(チームリーダーなど)の情報も含んでもよい。さらに、作業内容情報は、客先情報(例えば、重要度、得意先など)、当該作業が関係する事業の規模を示す情報(例えば、受注額など)、納期(短納期)、特殊作業(高所作業、危険物取扱作業、管理区域内作業など)などの情報も含んでもよい。さらに、作業内容情報は、作業場所の温度、湿度、気圧、紫外線量、照度、環境音などの環境情報、および所在地、地域などの情報を含んでもよい。
作業者Wは、各々、識別情報(ユーザID)が割り当てられている。ユーザ毎に、氏名、所属などの情報は、ユーザ情報(不図示)として記憶装置20に記憶されていてよい。また、作業者Wは、ユーザアカウントを事前に取得し、ユーザ情報を登録することができてよい。作業者Wは、自身に関する各種情報をユーザアカウントを用いてログインして閲覧できてよい。作業者Wの携帯端末50に、本情報処理システム1のサービスを利用するためのアプリケーションをインストールして、ログインしてもよいし、ブラウザを用いて所定のURL(Uniform Resource Locator)により指定されるウェブサイトにアクセスしてログインしてもよい。
感情情報120は、ユーザ毎に、時刻毎の感情の状態を示す情報が関連付けて記憶される。感情情報120は、一例として、作業者Wの快および不快の状態を第1の指標とする。生成部104は、第1の指標(快および不快の状態)を第1軸とする座標を使って適性情報130を生成する。
感情情報120は、さらに、作業者Wの時刻別の覚醒度を第2の指標とする。生成部104は、第1の指標(快および不快の状態)の第1軸と、第2の指標(覚醒度)を第2軸とする座標を使って適性情報130を生成する。
図4(b)の例では、10分毎に感情情報120は記憶されているが、これに限定されない。感情情報120を記憶する時間間隔は、1分毎、1時間毎、所定期間毎であってもよい。また、10分毎の情報は、当該10分間の平均値や中央値であってもよい。さらに、最大値、最小値、標準偏差、歪度、尖度などを含んでもよい。
図5(a)は、作業者Wの快および不快の状態の経時変化を示す図である。快および不快の指標は、標準状態を0として、最も不快な状態を−1、最も快適な状態を1としている。図5(b)は、作業者Wの覚醒度の経時変化を示す図である。覚醒度は、標準状態を0として、最も眠い状態を−1、最も覚醒している状態を1としている。
作業情報110、および、感情情報120の生成方法については、後述する第2実施形態で説明する。
図5(a)および図5(b)のグラフを端末装置60または作業者Wの携帯端末50に画面表示してもよい。
<動作例>
図6は、本実施形態の情報処理装置100の動作例を示すフローチャートである。
まず、取得部102は、作業情報110と感情情報120を取得する(ステップS101)。
そして、生成部104は、作業情報110および感情情報120を時刻で関連付けて、人別に作業の適性度を示す適性情報130を生成する(ステップS103)。生成された適性情報130は、人別に当該作業の適性度を関連付けて記憶装置20に記憶されてよい。
生成部104は、感情情報120の第1の指標である作業者Wの快および不快の状態を第1軸(X)とし、感情情報120の第2の指標である作業者Wの覚醒度を第2軸(Y)とする座標を使って適性情報130を生成する。図7(a)は、生成部104により生成される適性情報130を可視化して模式的に表したグラフ200の一例を示す図である。グラフ200は、例えば、端末装置60または作業者Wの携帯端末50に画面表示させてもよい。
現在の作業者Wの適性情報130は、黒丸のP0で示されている。他の白丸のP1、P2などは、現時点から過去にさかのぼった各時点(例えば、10分前、20分前など)の作業者Wの適性情報130を示す。図の例では、現時点から50分前までの適性情報130が示されている。現時点の適性情報130(P0)は、第1軸と第2軸ともにプラスの値を示している。30分前の適性情報130(P3)は、第1軸はマイナス、第2軸はプラスの値を示している。
この図では、現在時刻を基準として過去の所定期間分の適性情報130をグラフ200に示しているが、時刻を指定して、指定された時刻を基準として、過去の所定期間分の適性情報130を表示してもよい。
さらに、図7(a)のグラフ200は、X軸とY軸で区切られた4つの領域A、B、C、Dを有している。各領域が、当該作業者がそのとき行っている作業に対する適性情報130を可視化して模式的に示している。
領域Aは、快および不快と覚醒度がともに0〜1の値を有している状態を示している。この領域Aの状態にある作業者Wは、例えば、適度に緊張した状態で活発に作業しており、やりがいや幸福感を持っている状態を示している。言い換えると、例えば、その時点で行っている作業は、当該作業者Wに適していること、作業者Wは当該作業を得意としていることを示している。
領域Bは、快および不快が0〜1の値を有していて、覚醒度が0〜−1の値を有している状態を示している。この領域Bの状態にある作業者Wは、例えば、穏やかなリラックスした気持ちで作業を行っている、または、休息している状態であることを示している。言い換えると、例えば、その時点で行っている作業は、当該作業者Wにとって簡単なものであることを示している。
領域Cは、快および不快と覚醒度がともに0〜−1の値を有している状態を示している。この領域Cの状態にある作業者Wは、例えば、疲労した状態で作業効率が低下して、憂鬱な気分にあることを示してする。言い換えると、例えば、その時点で行っている作業は、当該作業者Wにとって、難しく適していないこと、作業者Wは当該作業を苦手に感じていることを示している。
領域Dは、快および不快が0〜−1の値を有していて、覚醒度が0〜1の値を有している状態を示している。この領域Dの状態にある作業者Wは、例えば、緊張した状態で作業を行っていて、ストレスがかかって、イライラしたり、興奮していたり怒ったりしている状態であることを示している。言い換えると、例えば、その時点で行っている作業は、当該作業者Wに適していないこと、相性が悪いことなどを示している。
図7(b)は、作業者Wの所定期間の適性情報130のA〜Dの状態の割合を円グラフ210で示している画面の例を示す図である。円グラフ210は、例えば、端末装置60または作業者Wの携帯端末50に画面表示させてもよい。円グラフ210は、作業者Wの所定期間の作業別の状態を示してもよい。複数の作業の状態を示す円グラフ210を並べて表示すれば、作業者Wの作業毎の適性情報130を見比べることができ、作業者Wが得意とする作業、または、不得意とする作業を見極めることも可能になる。
図8は、生成部104に感情情報120から生成される適性情報130の一例を示している。この例では、適性情報130は、グラフ200に感情情報120をプロットしたときにプロットされた領域を示している。
適性情報130は、作業者Wの作業毎の、当該作業の適性度を示す。生成部104は、上記したグラフ200で示した座標にプロットされた感情情報120の分布および所定時間間隔における任意の条件を満たす頻度などを用いて適性度を算出する。生成部104は、任意の時間間隔(例えば、1分、5分)、業務時間毎、業務時間内の作業別の作業時間毎に適性度を算出する。生成部104は、感情情報120のある時点とその時点の前の時点との差をさらに用いて適性度を算出してもよい。生成部104は、当該作業者の過去の感情情報120の平均値と、現時点の値との差分をさらに用いて適性度を算出してもよい。適正度算出に用いる任意の条件や時間間隔は、全作業者Wに共通の条件、あるいは、個人ごとに特化した条件、あるいは、共通の条件と特化した条件を組み合わせてもよい。
任意の条件とは、所定時間間隔において、座標分布の変化量、変化の方向(座標上の移動方向)、変化率、対象時間全体の平均値に対する差分等である。
適性情報130は、例えば、0〜100%等の指数で適性の度合いを示してもよい。例えば、値が小さい程、適性が低いことを示し、値が大きい程、適性が高いことを示してよい。適性情報130は、作業者Wにとって、当該作業は得意か不得意かの度合いを示してもよい。
さらに、取得部102は、業務時間だけでなく、最大で24時間作業者Wの感情情報120を取得してもよい。生成部104は、作業時間外(休憩時間等)、業務時間外の感情情報120に基づいて、作業者Wの業務による疲労の蓄積状態や回復度、あるいは、精神的な負担による鬱状態などによる活動量の低下などを数値化して評価し、適性情報130に含めてもよい。
以上説明したように、本実施形態によれば、取得部102により、作業情報110と感情情報120が取得され、生成部104により、作業情報110および感情情報120を時刻で関連付けて、人別に作業の適性度を示す適性情報130が生成される。これにより、管理者Mは作業者Wの作業時の状態を知ることができ、作業者の得意/不得意な作業を管理できる。ひいては管理者Mは、作業者の作業別の適性情報130に基づいて適切な対処が可能になる。さらに、ウェアラブル端末30を用いることで、業務時間だけでなく、最大で24時間作業者Wの状態を確認できることになる。これにより、作業者Wの業務による疲労の蓄積状態や回復度、あるいは、精神的な負担による鬱状態などがないかも管理者Mが確認できる可能性がある。
(第2実施形態)
本実施形態の情報処理装置100は、上記実施形態とは、さらにバイタル情報も用いて適性情報130を生成する構成を有する点以外は、上記実施形態と同様である。図6の情報処理装置100は、図3の情報処理装置100と同じ構成を有するため、図3を用いて説明する。
<ハードウェア構成>
図9は、ウェアラブル端末30のハードウェアの構成例を示す図である。
ウェアラブル端末30は、図2のコンピュータ1000と、GPS受信機41と、マイクロフォン42と、カメラ43と、タッチパネル44と、記憶装置45と、通信部46と、を備える。さらに、ウェアラブル端末30は、バイタル情報を取得する手段として、加速度センサ32と、磁気センサ33と、光学式脈拍センサ34と、皮膚電位センサ35と、皮膚温度センサ36と、を備えている。ただし、バイタル情報を取得する手段は、これらに限定されない。例えば、呼吸数、血圧、脳波、汗のpH値などのバイタル情報を取得する手段(体表の動きを検出するセンサ、血圧計、脳波センサ、pHセンサなど)を含んでもよい。
さらに、ウェアラブル端末30は、作業者Wの周囲の環境の状況を示す環境情報を取得する手段として、環境温度を計測する温度センサ、環境湿度を計測する湿度センサ、気圧センサ、紫外線センサ、照度センサなどを含んでもよい。
GPS受信機41、マイクロフォン42、カメラ43、およびタッチパネル44のうちいずれか一つは、ウェアラブル端末30に含まれなくてもよい。作業者Wが携帯し、作業者Wが身に付けているウェアラブル端末30と同期している携帯端末50が、GPS受信機41、マイクロフォン42、カメラ43、およびタッチパネル44の少なくともいずれか一つを含む構成であってもよい。
GPS受信機41は、現在位置をGPS(Global Positioning System)測位システムから受信する。ただし、位置情報測位システムは、これに限定されない。他の測位システム(QZSS(Quasi-Zenith Satellite System:準天頂衛星システム)等)であってもよい。
マイクロフォン42は、作業者Wの発話音声を集音する。
カメラ43は、レンズとCCD(Charge Coupled Device)イメージセンサといった撮像素子を備える。カメラ43により撮像される画像は、動画、静止画、および所定間隔毎のフレーム画像の少なくともいずれか一つである。例えば、作業者Wに定期的に携帯端末50のカメラ43を用いて自身の顔を撮像するように指示し、撮像された作業者の顔画像をバイタル情報140としてサーバ10に送信してもよい。作業者の顔の撮像画像から、作業者の表情を解析し、笑顔、怒り、悲しみなどの割合を算出し、バイタル情報140としてもよい。表情解析は、サーバ10で行ってもよいし、携帯端末50で行った結果をサーバ10に送信してもよい。
タッチパネル44は、液晶ディスプレイ、有機EL(ElectroLuminescence)ディスプレイ等の表示部と、ユーザのタッチ操作を受け付ける操作部とを含む。
記憶装置45は、図2のコンピュータ1000のメモリ1030およびストレージデバイス1040に相当する。
通信部46は、図2のコンピュータ1000の入出力インタフェース1050、およびネットワークインタフェース1060に相当する。具体的には、例えば、近距離無線通信を行うブルートゥース(登録商標)およびUSB(Universal Serial Bus)などの通信手段を有し、携帯端末50と無線または有線通信を行う。
本実施形態では、ウェアラブル端末30は、携帯端末50と通信してバイタル情報140を携帯端末50に送信し、携帯端末50からサーバ10に通信ネットワーク3を介してバイタル情報140などの情報を送信する構成としている。しかし、ウェアラブル端末30は、無線LAN(Local Area Network)などの通信機能を有してもよく、ウェアラブル端末30からサーバ10に通信ネットワーク3を介してバイタル情報140などの情報を送信する構成としてもよい。
加速度センサ32は、作業者Wの単位時間当たりの移動速度を計測する。磁気センサ33は、地磁気センサを含んでもよく、作業者Wの位置検出、身体の方位検出を行う。加速度センサ32および磁気センサ33により計測値は、例えば、作業者Wの歩数、活動量、活動内容(姿勢、運動、歩行、走行、静止等)などを算出および推定するのに用いられる。
光学式脈拍センサ34は、作業者Wの脈拍を反射光に基づいて計測する。皮膚電位センサ35は、皮膚の電位を計測する。皮膚電位活動は、発汗や精神状態により影響される特性を示すことから、皮膚電位を計測することにより、作業者Wの発汗や精神状態を推定することができる。皮膚温度センサ36は、作業者Wの皮膚表面の温度を計測する。
<機能構成例>
本実施形態において、取得部102および生成部104は、図3の情報処理装置100と同様な機能を有するとともに、さらに、以下の機能を有する。
取得部102は、作業を行った人のバイタル情報140を時刻と関連付けて取得する。生成部104は、バイタル情報140を処理することにより感情情報120を生成する。
生成部104は、さらに、バイタル情報140を使って適性情報130を生成してもよい。
取得部102は、作業の内容と当該作業を行った時刻とを関連付けた作業情報110を取得する。作業情報110は、図1に記載のサーバ10、ウェアラブル端末30、携帯端末50、端末装置60のいずれかで入力することができる。あるいは、ウェアラブル端末30で測定した、バイタル情報(加速度センサ32のデータ、光学式脈拍センサ34のデータなど)に基づき、自動的に判別および/または取得することもできる。
バイタル情報140は、例えば、心拍数(RRI(心拍間隔))、脈拍数(PPI(脈拍間隔))、発汗量(皮膚電位など)、呼吸数、活動量、活動内容(姿勢、運動、歩行、走行、静止等)、歩数、体表面温度、会話量、表情(笑い顔、怒り顔、泣き顔など)などの少なくともいずれか一つを含む。
取得部102により取得されたバイタル情報は、記憶装置20に記憶される。
図10は、バイタル情報140のデータ構造の一例を示す図である。例えば、バイタル情報140は、10毎など、所定期間毎に各センサからの計測値の精算値または平均値を時刻に関連付けて記憶されている。例えば、脈拍数であれば、9時から9時10分までの間の10分間の脈拍数の平均値を9時または9時10分のバイタル情報140として記憶する。歩数であれば、9時から9時10分までの間の10分間の歩数の積算値を9時または9時10分のバイタル情報140として記憶する。
バイタル情報140は計測値、積算値または平均値の値を記憶する。あるいは、所定時間毎に各バイタル情報140最大値、最小値、中央値、標準偏差、歪度、尖度などの値をさらに記憶してもよい。所定時間は、任意の時間間隔(例えば、1分、5分など)、業務時間、業務時間内の作業別の作業時間の少なくともいずれか一つである。
各バイタル情報140の時間経過における変化量、変化のバラツキ(急変、緩やかな変化、乱高下等)、各バイタル情報140の通常状態の範囲を超えた値を示した継続時間等も感情情報120の生成に用いることができる。
生成部104は、例えば、心拍数、発汗状態、皮膚温度などのバイタル情報140が、一定期間継続して通常状態の範囲を超えている場合に、作業者Wは緊張状態であると判別し、感情情報120の快および不快の状態や、覚醒度を決定してもよい。生成部104は、例えば、心拍数、発汗状態、皮膚温度などが、一定期間継続して定常状態の範囲内にあり、かつ、所定期間内の変動幅が所定範囲内の場合に、作業者Wはリラックス状態であると判別し、感情情報120の快および不快の状態や、覚醒度を決定してもよい。
生成部104は、例えば、心拍数、発汗状態、皮膚温度などの所定期間内の任意の周波数帯域の変化量、あるいは、任意の周波数帯域の変化量の比率が所定範囲内の場合に、作業者Wは緊張状態である、あるいは、リラックス状態であると判別し、感情情報120の快および不快の状態や、覚醒度を決定してもよい。生成部104は、前述の様々な条件を組み合わせて感情情報120の快および不快状態や、覚醒度を決定してもよい。
感情情報120は、上記したように、2つの指標を用いて示される。
感情情報120の2つの指標の値は、ウェアラブル端末30で収集される各種のバイタル情報140を処理することにより生成される。
<動作例>
図11は、本実施形態の情報処理装置100の動作例を示すフローチャートである。この例の情報処理装置100の処理手順は、図6のステップS101を含むとともに、さらに、ステップS201〜ステップS205を含んでいる。
まず、取得部102は、作業者Wのバイタル情報140を取得する(ステップS201)。生成部104は、当該バイタル情報140を処理することにより感情情報120を生成する(ステップS203)。そして、取得部102は、作業者Wの作業情報110と感情情報120を取得する(ステップS101)。そして、生成部104は、作業情報110、感情情報120、およびバイタル情報140を用いて人別に作業の適性情報130を生成する(ステップS205)。
本実施形態によれば、上記実施形態と同様な効果を奏するとともに、さらにバイタル情報140を用いて適性情報130を生成することで、適性情報130の精度を上げることができる。
(第3実施形態)
図12は、本実施形態の情報処理装置100の要部構成例を論理的に示す機能ブロック図である。本実施形態の情報処理装置100は、作業者Wの会話量を用いて適性情報130を生成する構成を有する点以外は、上記第1実施形態および第2実施形態のいずれか一方と同様である。
情報処理装置100は、上記実施形態と同様な取得部102(図3)と、生成部104とを備えるとともに、さらに、データ解析処理部106を備える。図12では、生成部104、およびデータ解析処理部106のみを示している。
取得部102は、さらに、作業を行った作業者Wの会話の音声データ142を取得する。
生成部104は、音声データ142を処理して得られる会話量をさらに用いて適性情報130を生成する。
作業者Wの音声データは、ウェアラブル端末30または携帯端末50のマイクロフォン42により集音される。ウェアラブル端末30または携帯端末50の通信部46は、音声データをサーバ10(情報処理装置100)に通信ネットワーク3を介して送信する。取得部102は、通信ネットワーク3を介して音声データ142をウェアラブル端末30または携帯端末50から取得する。
データ解析処理部106は、取得部102が取得した音声データ142に対して音声認識処理を行い、作業者Wの会話量を求める。音声認識処理は、会話内容を認識することは行わず、話者特定を行う。データ解析処理部106は、作業者が会話をしている時間を所定時間(例えば、10分)毎に計測し、会話量として求める。
本実施形態では、データ解析処理部106は、音声データ142を音声認証処理して作業者Wの会話量を求めているが、そして、データ解析処理部106は、例えば、映像や画像データを解析処理して、作業者Wの行動分析や表情分析などを行ってもよい。所定の行動(座る、立つ、歩く、走る、パソコン作業、肉体労働)を行った時間、所定の表情(笑顔、泣き顔、怒り顔、まばたき回数、チック様症状)をした時間などを計測してもよい。
あるいは、データ解析処理部106は、所定時間内に作業者Wが発話した単語数を計測し、会話量としてもよい。さらに、データ解析処理部106は、発話された音声の強弱や、発話の速度(早口またはゆっくりとした口調など)を計測し、所定時間毎にその変化を数値化してバイタル情報140としてもよい。さらに、データ解析処理部106は、所定時間毎に作業者Wの独り言の回数(例えば、単語数)を計測し、バイタル情報140としてもよい。
本実施形態によれば、上記実施形態と同様な効果を奏するとともに、さらに、作業者Wの会話量を用いて適性情報130を生成するので、適性情報130の精度がさらに向上する。
(第4実施形態)
図13は、本実施形態の情報処理装置100の論理的な構成例を示す機能ブロック図である。本実施形態の情報処理装置100は、適性情報130を用いて作業に適した人を出力する構成を有する点以外は上記した、いずれかの実施形態と同じである。情報処理装置100は、取得部102と、生成部104と、出力部108とを備える。取得部102および生成部104は、第1実施形態、第2実施形態、および第3実施形態のいずれかと同じである。図13では、第3実施形態のデータ解析処理部106は含まれていないが、本実施形態は、第3実施形態の構成と組み合わせてもよい。
出力部108は、適性情報130を用いて、指定された作業に適した人を出力する。
出力部108は、例えば、端末装置60のディスプレイに画面表示および/または端末装置60に接続されるプリンタに印字出力する。出力部108は、ディスプレイに作業を指定する画面を表示し、作業の指定を受け付ける。さらに、出力部108は、出力する人数、あるいは、適性度の条件(所定値以上など)の入力を指定画面において受け付けてもよい。
出力部108は、指定された作業について、適性度が高い順に作業者をソートし、予め定めらされている、または指定された人数分の人を出力する。あるいは、出力部108は、指定された作業について、適性度が所定値以上の人を、適性度が高い順に出力してもよい。
出力部108は、例えば、予めまたは随時指定された作業について、適性情報130を上位から(例えば、適性度が大きい方から順に)所定人数(例えば、ベスト10人)をリストにして出力する。
図14は、作業候補者リスト160の一例を示す図である。作業候補者リスト160は、作業Aの適性情報130が上位の人を指定人数分リストアップしている。さらに、人物の属性情報(性別、所属、年齢など)を作業候補者リスト160に含めてもよい。さらに、作業候補者リスト160は、各人の適性度を含めてもよい。
本実施形態によれば、出力部108により、作業を指定して、当該作業に適した人を出力することができる。これにより、作業の適した人をリストアップしてユーザ(例えば、管理者M)に提示できる。ユーザは、作業候補者リスト160を見て、適材適所に作業者を配置することができる。作業者も適した作業を担当できるので、効率が向上し、生産性も上がり、作業者の精神的な負担も軽減する。
(第5実施形態)
図15は、本実施形態の情報処理装置100の論理的な構成例を示す機能ブロック図である。本実施形態の情報処理装置100は、さらに属性情報170を用いて、当該作業者の適性情報130を生成する点以外は、上記した、いずれかの実施形態と同様である。図15の例では、情報処理装置100は、図13の第3実施形態の情報処理装置100と同じ取得部102と、生成部104と、出力部108とを備える。
生成部104は、さらに、作業を行った人の属性情報170を用いて、当該人の適性情報130を生成する。
図16は、属性情報170のデータ構造の一例を示す図である。属性情報170は、例えば、性別、年齢、勤務年数、所属、スキルレベル、実績(対応件数、作業内容、教育履歴など)、制限事項(休暇予定、時短勤務、夜勤NGなど)などを含む。
属性情報170は、さらに、作業者の過去の作業履歴を含んでもよい。
出力部108は、属性情報170を指定して、作業を行う人を選択し、選択された人を出力する。さらに、出力部108は、複数の人が選択された場合、さらに、人の適性情報130を用いて人を絞り込んで出力する。
本実施形態によれば、属性情報170を用いて適性情報130を生成するので、さらに適性情報130の精度が向上する。
以上、図面を参照して本発明の実施形態について述べたが、これらは本発明の例示であり、上記以外の様々な構成を採用することもできる。
たとえば、生成部104は、さらに、人が作業を行った作業時間を用いて適性情報130を生成してもよい。
作業時間とは、作業にかかった時間である。生成部104は、作業者の作業時間と、当該作業にかかる標準時間との差分を算出する。生成部104は、算出された作業者の作業時間を、標準時間と比較して、作業者について、当該作業が、速い、標準、遅い、のうちのいずれかに分類してもよい。
生成部104は、この作業者の作業時間もさらに用いて適性情報130を生成する。作業時間が速い場合、作業者に当該作業が適していることを示し、作業時間が遅い場合、作業者に当該作業が適してないことを示している。生成部104は、この法則に従い、作業者の当該作業に対する適性度を調整する。
この構成によれば、作業者の作業時間と標準時間との差分も用いて適性情報130は生成されるので、適性情報130の精度が向上する。また、不得意な人に作業を割り当てずに済むため、生産性が向上する可能性が高まる。
また、上記実施形態では、作業情報110と感情情報120は、それぞれ時刻に関連付けられていたが、他の実施形態では、時刻に関連付けられなくてもよい。取得部102は、作業の内容を区別する作業情報110、および、作業を行った人の感情情報120とを取得してもよい。生成部104は、作業情報110および感情情報120を関連付けて、人別に作業の適性度を示す適性情報130を生成する。
例えば、作業の開始時に、作業者Wが携帯端末50の操作画面(不図示)で開始ボタンを押下することで、取得部102は、作業情報110および感情情報120、および/またはバイタル情報140の取得を開始してもよい。さらに、当該作業の終了時に、作業者Wが携帯端末50の操作画面(不図示)で終了ボタンを押下することで、取得部102は、作業情報110および感情情報120、および/またはバイタル情報140の取得を終了してもよい。そして、作業の開始と終了の間の作業時間の間における、所定の時間間隔毎に、作業情報110および感情情報120、および/またはバイタル情報140を互いに関連付けて取得して記録してもよい。
以上、実施形態および実施例を参照して本願発明を説明したが、本願発明は上記実施形態および実施例に限定されるものではない。本願発明の構成や詳細には、本願発明のスコープ内で当業者が理解し得る様々な変更をすることができる。
なお、本発明において利用者に関する情報を取得、利用する場合は、これを適法に行うものとする。
上記の実施形態の一部または全部は、以下の付記のようにも記載されうるが、以下に限られない。
1. 作業の内容を区別する作業情報、および、前記作業を行った人の感情情報を取得する取得手段と、
前記作業情報および前記感情情報を関連付けて、前記人別に前記作業の適性度を示す適性情報を生成する生成手段と、を備える、情報処理装置。
2. 1.に記載の情報処理装置において、
前記作業情報および前記感情情報は、前記作業を行った時刻に関連付けて記録されている、情報処理装置。
3. 1.または2.に記載の情報処理装置において、
前記取得手段は、前記作業を行った人のバイタル情報を前記作業を行った時刻と関連付けて取得し、
前記生成手段は、前記バイタル情報を処理することにより前記感情情報を生成する、情報処理装置。
4. 3.に記載の情報処理装置において、
前記生成手段は、前記バイタル情報を使って前記適性情報を生成する、情報処理装置。
5. 1.から4.のいずれか一つに記載の情報処理装置において、
前記取得手段は、さらに、前記作業を行った人の会話の音声データを取得し、
前記生成手段は、前記音声データを処理して得られる会話量をさらに用いて前記適性情報を生成する、情報処理装置。
6. 1.から5.のいずれか一つに記載の情報処理装置において、
前記適性情報を用いて、指定された作業に適した人を出力する出力手段をさらに備える、情報処理装置。
7. 1.から6.のいずれか一つに記載の情報処理装置において、
前記感情情報は、前記作業を行ったときの前記人の快および不快の状態を第1の指標とし、
前記生成手段は、前記第1の指標を第1軸とする座標を使って前記適性情報を生成する、情報処理装置。
8. 7.に記載の情報処理装置において、
前記感情情報は、さらに、前記人の時刻別の覚醒度を第2の指標とし、
前記生成手段は、前記第1の指標を第1軸とし、前記第2の指標を第2軸とする座標を使って前記適性情報を生成する、情報処理装置。
9. 1.から8.のいずれか一つに記載の情報処理装置において、
前記生成手段は、さらに、前記人が前記作業を行った作業時間を用いて前記適性情報を生成する、情報処理装置。
10. 1.から9.のいずれか一つに記載の情報処理装置において、
前記生成手段は、さらに前記作業を行った前記人の属性情報を用いて、当該人の前記適性情報を生成する、情報処理装置。
11. 10.に記載の情報処理装置において、
前記属性情報は、前記人の過去の作業履歴を含み、
前記属性情報を指定して、作業を行う人を選択し、選択された前記人を出力する出力手段をさらに備え、
前記出力手段は、複数の人が選択された場合、さらに、前記人の前記適性情報を用いて前記人を絞り込んで出力する、情報処理装置。
12. 情報処理装置が、
作業の内容を区別する作業情報、および、前記作業を行った人の感情情報を取得し、
前記作業情報および前記感情情報を関連付けて、前記人別に前記作業の適性度を示す適性情報を生成する、
情報処理方法。
13. 12.に記載の情報処理方法において、
前記作業情報および前記感情情報は、前記作業を行った時刻に関連付けて記録されている、情報処理方法。
14. 12.または13.に記載の情報処理方法において、
前記情報処理装置が、
前記作業を行った人のバイタル情報を前記作業を行った時刻と関連付けて取得し、
前記バイタル情報を処理することにより前記感情情報を生成する、情報処理方法。
15. 14.に記載の情報処理方法において、
前記情報処理装置が、
前記バイタル情報を使って前記適性情報を生成する、情報処理方法。
16. 12.から15.のいずれか一つに記載の情報処理方法において、
前記情報処理装置が、
さらに、前記作業を行った人の会話の音声データを取得し、
前記音声データを処理して得られる会話量をさらに用いて前記適性情報を生成する、情報処理方法。
17. 12.から16.のいずれか一つに記載の情報処理方法において、
前記情報処理装置が、さらに、
前記適性情報を用いて、指定された作業に適した人を出力する、情報処理方法。
18. 12.から17.のいずれか一つに記載の情報処理方法において、
前記感情情報は、前記作業を行ったときの前記人の快および不快の状態を第1の指標とし、
前記情報処理装置が、
前記第1の指標を第1軸とする座標を使って前記適性情報を生成する、情報処理方法。
19. 18.に記載の情報処理方法において、
前記感情情報は、さらに、前記人の時刻別の覚醒度を第2の指標とし、
前記情報処理装置が、
前記第1の指標を第1軸とし、前記第2の指標を第2軸とする座標を使って前記適性情報を生成する、情報処理方法。
20. 12.から19.のいずれか一つに記載の情報処理方法において、
前記情報処理装置が、
さらに、前記人が前記作業を行った作業時間を用いて前記適性情報を生成する、情報処理方法。
21. 12.から20.のいずれか一つに記載の情報処理方法において、
前記情報処理装置が、
さらに前記作業を行った前記人の属性情報を用いて、当該人の前記適性情報を生成する、情報処理方法。
22. 21.に記載の情報処理方法において、
前記属性情報は、前記人の過去の作業履歴を含み、
前記情報処理装置が、さらに、
前記属性情報を指定して、作業を行う人を選択し、選択された前記人を出力し、
複数の人が選択された場合、さらに、前記人の前記適性情報を用いて前記人を絞り込んで出力する、情報処理方法。
23. コンピュータに、
作業の内容を区別する作業情報、および、前記作業を行った人の感情情報を取得する手順、
前記作業情報および前記感情情報を関連付けて、前記人別に前記作業の適性度を示す適性情報を生成する手順、を実行させるためのプログラム。
24. 23.に記載のプログラムにおいて、
前記作業情報および前記感情情報は、前記作業を行った時刻に関連付けて記録されている手順、をコンピュータに実行させるためのプログラム。
25. 23.または24.に記載のプログラムにおいて、
前記作業を行った人のバイタル情報を前記作業を行った時刻と関連付けて取得する手順、
前記バイタル情報を処理することにより前記感情情報を生成する手順、をコンピュータに実行させるためのプログラム。
26. 25.に記載のプログラムにおいて、
前記バイタル情報を使って前記適性情報を生成する手順、をコンピュータに実行させるためのプログラム。
27. 23.から26.のいずれか一つに記載のプログラムにおいて、
さらに、前記作業を行った人の会話の音声データを取得する手順、
前記音声データを処理して得られる会話量をさらに用いて前記適性情報を生成する手順、をコンピュータに実行させるためのプログラム。
28. 23.から27.のいずれか一つに記載のプログラムにおいて、
前記適性情報を用いて、指定された作業に適した人を出力する手順、をコンピュータに実行させるためのプログラム。
29. 23.から28.のいずれか一つに記載のプログラムにおいて、
前記感情情報は、前記作業を行ったときの前記人の快および不快の状態を第1の指標とし、
前記第1の指標を第1軸とする座標を使って前記適性情報を生成する手順、をコンピュータに実行させるためのプログラム。
30. 29.に記載のプログラムにおいて、
前記感情情報は、さらに、前記人の時刻別の覚醒度を第2の指標とし、
前記第1の指標を第1軸とし、前記第2の指標を第2軸とする座標を使って前記適性情報を生成する手順、をコンピュータに実行させるためのプログラム。
31. 23.から30.のいずれか一つに記載のプログラムにおいて、
さらに、前記人が前記作業を行った作業時間を用いて前記適性情報を生成する手順、をコンピュータに実行させるためのプログラム。
32. 23.から31.のいずれか一つに記載のプログラムにおいて、
さらに前記作業を行った前記人の属性情報を用いて、当該人の前記適性情報を生成する手順、をコンピュータに実行させるためのプログラム。
33. 32.に記載のプログラムにおいて、
前記属性情報は、前記人の過去の作業履歴を含み、
前記属性情報を指定して、作業を行う人を選択し、選択された前記人を出力する手順、
複数の人が選択された場合、さらに、前記人の前記適性情報を用いて前記人を絞り込んで出力する手順、をコンピュータに実行させるためのプログラム。
1 情報処理システム
3 通信ネットワーク
10 サーバ
20 記憶装置
30 ウェアラブル端末
32 加速度センサ
33 磁気センサ
34 光学式脈拍センサ
35 皮膚電位センサ
36 皮膚温度センサ
41 GPS受信機
42 マイクロフォン
43 カメラ
44 タッチパネル
45 記憶装置
46 通信部
50 携帯端末
60 端末装置
100 情報処理装置
102 取得部
104 生成部
106 データ解析処理部
108 出力部
110 作業情報
120 感情情報
130 適性情報
140 バイタル情報
142 音声データ
160 作業候補者リスト
170 属性情報
200 グラフ
210 円グラフ
1000 コンピュータ
1010 バス
1020 プロセッサ
1030 メモリ
1040 ストレージデバイス
1050 入出力インタフェース
1060 ネットワークインタフェース

Claims (13)

  1. 作業の内容を区別する作業情報、および、前記作業を行った人の感情情報を取得する取得手段と、
    前記作業情報および前記感情情報を関連付けて、前記人別に前記作業の適性度を示す適性情報を生成する生成手段と、を備える、情報処理装置。
  2. 請求項1に記載の情報処理装置において、
    前記作業情報および前記感情情報は、前記作業を行った時刻に関連付けて記録されている、情報処理装置。
  3. 請求項1または2に記載の情報処理装置において、
    前記取得手段は、前記作業を行った人のバイタル情報を前記作業を行った時刻と関連付けて取得し、
    前記生成手段は、前記バイタル情報を処理することにより前記感情情報を生成する、情報処理装置。
  4. 請求項3に記載の情報処理装置において、
    前記生成手段は、前記バイタル情報を使って前記適性情報を生成する、情報処理装置。
  5. 請求項1から4のいずれか一項に記載の情報処理装置において、
    前記取得手段は、さらに、前記作業を行った人の会話の音声データを取得し、
    前記生成手段は、前記音声データを処理して得られる会話量をさらに用いて前記適性情報を生成する、情報処理装置。
  6. 請求項1から5のいずれか一項に記載の情報処理装置において、
    前記適性情報を用いて、指定された作業に適した人を出力する出力手段をさらに備える、情報処理装置。
  7. 請求項1から6のいずれか一項に記載の情報処理装置において、
    前記感情情報は、前記作業を行ったときの前記人の快および不快の状態を第1の指標とし、
    前記生成手段は、前記第1の指標を第1軸とする座標を使って前記適性情報を生成する、情報処理装置。
  8. 請求項7に記載の情報処理装置において、
    前記感情情報は、さらに、前記人の時刻別の覚醒度を第2の指標とし、
    前記生成手段は、前記第1の指標を第1軸とし、前記第2の指標を第2軸とする座標を使って前記適性情報を生成する、情報処理装置。
  9. 請求項1から8のいずれか一項に記載の情報処理装置において、
    前記生成手段は、さらに、前記人が前記作業を行った作業時間を用いて前記適性情報を生成する、情報処理装置。
  10. 請求項1から9のいずれか一項に記載の情報処理装置において、
    前記生成手段は、さらに前記作業を行った前記人の属性情報を用いて、当該人の前記適性情報を生成する、情報処理装置。
  11. 請求項10に記載の情報処理装置において、
    前記属性情報は、前記人の過去の作業履歴を含み、
    前記属性情報を指定して、作業を行う人を選択し、選択された前記人を出力する出力手段をさらに備え、
    前記出力手段は、複数の人が選択された場合、さらに、前記人の前記適性情報を用いて前記人を絞り込んで出力する、情報処理装置。
  12. 情報処理装置が、
    作業の内容を区別する作業情報、および、前記作業を行った人の感情情報を取得し、
    前記作業情報および前記感情情報を関連付けて、前記人別に前記作業の適性度を示す適性情報を生成する、
    情報処理方法。
  13. コンピュータに、
    作業の内容を区別する作業情報、および、前記作業を行った人の感情情報を取得する手順、
    前記作業情報および前記感情情報を関連付けて、前記人別に前記作業の適性度を示す適性情報を生成する手順、を実行させるためのプログラム。
JP2020058425A 2020-03-27 2020-03-27 情報処理装置、情報処理方法、およびプログラム Pending JP2021157609A (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2020058425A JP2021157609A (ja) 2020-03-27 2020-03-27 情報処理装置、情報処理方法、およびプログラム
US17/205,696 US11687849B2 (en) 2020-03-27 2021-03-18 Information processing apparatus, information processing method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020058425A JP2021157609A (ja) 2020-03-27 2020-03-27 情報処理装置、情報処理方法、およびプログラム

Publications (1)

Publication Number Publication Date
JP2021157609A true JP2021157609A (ja) 2021-10-07

Family

ID=77856235

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020058425A Pending JP2021157609A (ja) 2020-03-27 2020-03-27 情報処理装置、情報処理方法、およびプログラム

Country Status (2)

Country Link
US (1) US11687849B2 (ja)
JP (1) JP2021157609A (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023074129A1 (ja) * 2021-11-01 2023-05-04 ソニーグループ株式会社 情報処理装置、コミュニケーション支援装置、およびコミュニケーション支援システム
WO2024013945A1 (ja) * 2022-07-14 2024-01-18 日本電気株式会社 情報処理装置、情報処理方法、およびプログラム記録媒体
WO2024023897A1 (ja) * 2022-07-25 2024-02-01 日本電気株式会社 情報処理装置、情報処理方法、および記録媒体

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009123148A (ja) 2007-11-19 2009-06-04 Hitachi Ltd 作業担当者選択装置およびその方法
US8140368B2 (en) * 2008-04-07 2012-03-20 International Business Machines Corporation Method and system for routing a task to an employee based on physical and emotional state
US20130127620A1 (en) * 2011-06-20 2013-05-23 Cerner Innovation, Inc. Management of patient fall risk
US9808709B2 (en) * 2013-09-27 2017-11-07 PlayNovation LLC System and methods for biometric detection of play states, intrinsic motivators, play types/patterns and play personalities
US10953317B2 (en) * 2013-09-27 2021-03-23 PlayNovation LLC Generating doppelgangers that reflect play personality or intrinsic motivators of a user/subject
US10607167B2 (en) * 2015-10-13 2020-03-31 Genesys Telecommunications Laboratories, Inc. System and method for intelligent task management and routing based on physiological sensor input data
CA3006640A1 (en) * 2015-12-23 2017-06-29 Pymetrics, Inc. Systems and methods for data-driven identification of talent
US20200046277A1 (en) * 2017-02-14 2020-02-13 Yuen Lee Viola Lam Interactive and adaptive learning and neurocognitive disorder diagnosis systems using face tracking and emotion detection with associated methods
CA3065905A1 (en) * 2017-10-27 2019-05-02 Wehireai Inc. Method of preparing recommendations for taking decisions on the basis of a computerized assessment of the capabilities of users
US11093871B2 (en) * 2018-04-16 2021-08-17 International Business Machines Corporation Facilitating micro-task performance during down-time
JP6531323B1 (ja) 2018-12-06 2019-06-19 株式会社ビジネスインテリジェンス プログラム、情報処理装置及び情報処理方法
US11615353B2 (en) * 2018-12-27 2023-03-28 Clicksoftware, Inc. Methods and systems for offerring service times based on system consideration
WO2020202870A1 (ja) * 2019-03-29 2020-10-08 ソニー株式会社 電子機器および撮像システム
US11216784B2 (en) * 2020-01-29 2022-01-04 Cut-E Assessment Global Holdings Limited Systems and methods for automating validation and quantification of interview question responses

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023074129A1 (ja) * 2021-11-01 2023-05-04 ソニーグループ株式会社 情報処理装置、コミュニケーション支援装置、およびコミュニケーション支援システム
WO2024013945A1 (ja) * 2022-07-14 2024-01-18 日本電気株式会社 情報処理装置、情報処理方法、およびプログラム記録媒体
WO2024023897A1 (ja) * 2022-07-25 2024-02-01 日本電気株式会社 情報処理装置、情報処理方法、および記録媒体

Also Published As

Publication number Publication date
US20210304111A1 (en) 2021-09-30
US11687849B2 (en) 2023-06-27

Similar Documents

Publication Publication Date Title
US11120477B2 (en) System and method for personalized preference optimization
US11160479B2 (en) Information processing device and control method
US11687849B2 (en) Information processing apparatus, information processing method, and program
US20170143246A1 (en) Systems and methods for estimating and predicting emotional states and affects and providing real time feedback
US9204836B2 (en) Sporadic collection of mobile affect data
KR101970077B1 (ko) 데이터 태깅
US9942232B2 (en) User control of data de-identification
US20130245396A1 (en) Mental state analysis using wearable-camera devices
US20110201960A1 (en) Systems for inducing change in a human physiological characteristic
US20180107793A1 (en) Health activity monitoring and work scheduling
US20150342511A1 (en) Operating system with color-based health state themes
US20210015415A1 (en) Methods and systems for monitoring user well-being
US20110201899A1 (en) Systems for inducing change in a human physiological characteristic
US20180008191A1 (en) Pain management wearable device
US20110201959A1 (en) Systems for inducing change in a human physiological characteristic
KR102606689B1 (ko) 전자 장치에서 생체 정보 제공 방법 및 장치
US20210223869A1 (en) Detecting emotions from micro-expressive free-form movements
CN110753514A (zh) 基于隐式采集的计算机交互的睡眠监测
WO2019132772A1 (en) Method and system for monitoring emotions
JPWO2018116703A1 (ja) 表示制御装置、表示制御方法及びコンピュータプログラム
US20200402641A1 (en) Systems and methods for capturing and presenting life moment information for subjects with cognitive impairment
JP7209200B2 (ja) 空間提案システム、及び、空間提案方法
JP2020137895A (ja) 表示方法、プログラム、及び表示システム
WO2023234317A1 (ja) 情報処理システム、情報処理方法、プログラム、記録媒体
WO2024013945A1 (ja) 情報処理装置、情報処理方法、およびプログラム記録媒体

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230206

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20240104

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20240109

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240308

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20240402