WO2023090103A1 - 情報処理装置および情報処理方法 - Google Patents

情報処理装置および情報処理方法 Download PDF

Info

Publication number
WO2023090103A1
WO2023090103A1 PCT/JP2022/039982 JP2022039982W WO2023090103A1 WO 2023090103 A1 WO2023090103 A1 WO 2023090103A1 JP 2022039982 W JP2022039982 W JP 2022039982W WO 2023090103 A1 WO2023090103 A1 WO 2023090103A1
Authority
WO
WIPO (PCT)
Prior art keywords
work
user
state
information
psychological
Prior art date
Application number
PCT/JP2022/039982
Other languages
English (en)
French (fr)
Inventor
翔哉 村上
Original Assignee
オムロン株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by オムロン株式会社 filed Critical オムロン株式会社
Publication of WO2023090103A1 publication Critical patent/WO2023090103A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q10/00Administration; Management
    • G06Q10/06Resources, workflows, human or project management; Enterprise or organisation planning; Enterprise or organisation modelling
    • G06Q10/063Operations research, analysis or management
    • G06Q10/0639Performance analysis of employees; Performance analysis of enterprise or organisation operations

Definitions

  • One aspect of the present disclosure is an acquisition unit that acquires psychological determination information that is information for determining the user's psychological state, a determination unit that determines the user's psychological state based on the psychological determination information, and the user's past a storage unit that associates and stores the mental state of the user with work information including the work content and work amount of the user in the past mental state, and the past mental state that is the same as the current mental state of the user. and a determination unit that acquires the work information obtained from the storage unit and determines the presentation work content to be presented to the user based on the acquired work information.
  • the work content determination unit 104 determines the presentation work content to be presented to the user based on the psychological state after work.
  • the work information storage unit 103 stores the state of mind after the user has actually performed the work as one piece of work information associated with the state of mind.
  • FIG. 6 is a diagram exemplifying data in a work information storage unit according to the second embodiment.
  • the work information includes information on the state of mind after the work, in addition to the content of work and the amount of work. Items other than the psychological state after work (psychological state, work content, work amount) are the same as in FIG.
  • the information processing apparatus 10 determines the work content to be presented based on the psychological state after performing the same work in the past under the same mental state as the current mental state. In the third embodiment, the information processing apparatus 10 determines the work content to be presented based on the state of mind after the same work content was presented in the past under the same state of mind as the current state of mind.
  • FIG. 11 is a flowchart exemplifying the psychological judgment information acquisition process according to modification 4-2.
  • the process shown in FIG. 11 is a specific process of S101 and S102 in FIGS.
  • the information processing apparatus 10 is not limited to the position of the hand in the captured image.
  • the psychological state of the user may be determined based on the frequency with which the is moved.
  • the information processing apparatus 10 may determine the mental state of the user using a trained model in which the frequency of moving the hand to each area within a predetermined time is also input data.
  • the psychological state determination unit 102 applies the information indicating the positional relationship between the face and the hands and the psychological state at the time of shooting to a trained model that has been trained in advance using the information indicating the positional relationship between the face and the hands as teacher data. Enter information that indicates the positional relationship.
  • the mental state determination unit 102 can determine the user's mental state from the output result of the trained model.

Abstract

情報処理装置は、ユーザの心理状態を判定するための情報である心理判定情報を取得する取得部と、心理判定情報に基づいて、ユーザの心理状態を判定する判定部と、ユーザの過去の心理状態と、過去の心理状態でのユーザの作業内容および作業量を含む作業情報と、を対応づけて記憶する記憶部と、ユーザの現在の心理状態と同じ過去の心理状態に対応づけられた作業情報を記憶部から取得し、取得した作業情報に基づいてユーザに提示する提示作業内容を決定する決定部と、を備える。

Description

情報処理装置および情報処理方法
 本発明は、情報処理装置および情報処理方法に関する。
 職場などで、作業者は、心身の不調があっても周囲に上手く伝えられない場合がある。管理者が作業者の不調を理解せずに業務を割り当てた場合、作業者に割り当てられた作業内容および作業量は、作業者の健康状態および心理状態に対して適切でない可能性がある。特許文献1は、作業者のスキルおよび体温といった生体情報等に基づいて、作業スケジュールを生成する技術を開示する。
特開2019-061530号公報
 生体情報のような計測可能な情報に基づいて作業スケジュールを生成しても、作業者の心理状態が考慮されなければ、心身の不調をかかえた作業者に対する作業負荷は増大し、作業者の心理状態は悪化するおそれがある。
 本発明は、一側面では、作業者の心理状態を考慮した作業を提示し、作業者が快適に作業できるようにすることを目的とする。
 本発明は、上記目的を達成するために、以下の構成を採用する。
 本開示の一側面は、ユーザの心理状態を判定するための情報である心理判定情報を取得する取得部と、心理判定情報に基づいて、ユーザの心理状態を判定する判定部と、ユーザの過去の心理状態と、過去の心理状態でのユーザの作業内容および作業量を含む作業情報と、を対応づけて記憶する記憶部と、ユーザの現在の心理状態と同じ過去の心理状態に対応づけられた作業情報を記憶部から取得し、取得した作業情報に基づいてユーザに提示する提示作業内容を決定する決定部と、を備える情報処理装置である。
 心理判定情報は、ユーザの顔の撮像画像、声、心理状態に関するアンケートへの回答などのユーザの心理状態を判定するための情報である。提示作業内容は、判定したユーザの心理状態と同じ心理状態での過去の作業情報に基づいて、ユーザに提示する作業内容である。情報処理装置は、取得した作業情報のうち、例えば、予め設定された作業の優先順位、心理状態の違いによる作業量の変化などに基づいて、提示作業内容を決定することができる。作業者の心理状態を考慮した作業が提示されるため、作業者は、快適に作業できるようにすることができる。
 過去の心理状態に対応づけられた作業情報は、ユーザが作業情報の作業内容を実施した後の作業後の心理状態の情報をさらに含み、決定部は、現在の心理状態と同じ過去の心理状態に対応づけられた作業情報のうち、作業後の心理状態が作業前よりも改善している作業情報に基づいて提示作業内容を決定してもよい。作業後に心理状態が改善した作業が優先して提示されるため、作業の効率化が図られ、作業者はより快適に作業することができるようになる。
 過去の心理状態に対応づけられた作業情報は、ユーザが作業情報の作業内容を提示されたときの作業提示後の心理状態の情報をさらに含み、決定部は、現在の心理状態と同じ過去の心理状態に対応づけられた作業情報のうち、作業提示後の心理状態が作業提示前よりも改善している作業情報に基づいて提示作業内容を決定してもよい。過去に作業内容を提示した後、心理状態が改善した作業が優先して提示されるため、作業の効率化が図られ、作業者はより快適に作業することができるようになる。
 ユーザの心理状態は、心理状態ごとに点数が定められ、点数の変化に応じてユーザの心理状態が改善したか否かが判定されてもよい。情報処理装置は、心理状態が改善されたか否かを判定しやすくなる。
 決定部は、現在の心理状態と同じ過去の心理状態に対応づけられた作業情報が複数存在する場合、ユーザの心理状態が改善された度合い、および改善後のユーザの心理状態の判定に対する信頼度の少なくともいずれかに基づいて、提示作業内容を決定してもよい。決定部は、心理状態が改善されたか否かを精度良く判定して提示作業内容を決定することができる。
 心理判定情報は、ユーザの顔または顔の一部の撮像画像を含み、判定部は、顔または顔の一部の撮像画像と、撮影時の心理状態とを教師データとして学習させた学習済みモデルを用いて、ユーザの心理状態を判定してもよい。判定部は、顔の表情などからユーザの心理状態を判定することができる。また、心理状態が表れやすい顔の一部の撮像画像に基づいて判定することで、判定部は、表情の微妙な変化を捉え、ユーザの心理状態をより正確に判定することができる。
 判定部は、ユーザを顔認証により特定し、ユーザの顔またはユーザの顔の一部の撮像画像と、撮影時の心理状態とを教師データとして学習させた学習済みモデルを用いて、ユーザの心理状態を判定してもよい。顔認証で特定された本人の撮像画像を学習させた学習済みモデルを用いることで、判定部は、ユーザの心理状態をより正確に判定することができる。
 心理判定情報は、ユーザの顔と手との位置関係を示す情報を含み、判定部は、ユーザの顔と手との位置関係を示す情報と、撮影時の心理状態とを教師データとして学習させた学習済みモデルを用いて、ユーザの心理状態を判定してもよい。判定部は、顔と手との位置関係によって示されるユーザの癖に基づいて、ユーザの心理状態をより正確に判定することができる。
 判定部は、ユーザが表示部に表示された枠内に顔の位置を合わせて撮像された撮像画像からユーザの顔を検出してもよい。判定部は、撮像画像から顔を検出する処理を省略することができる。
 心理判定情報は、ユーザの声の音声データを含み、判定部は、ユーザの声の音声データと録音時の心理状態とを教師データとして学習させた学習済みモデルを用いて、ユーザの心理状態を判定してもよい。情報処理装置にカメラが備わっていない場合でも、判定部は、ユーザの声の音声データに基づいて、ユーザの心理状態を判定することができる。
 心理判定情報は、ユーザの心理状態を判定するためのアンケートに対するユーザの回答を含み、判定部は、アンケートに対する回答に基づいて、ユーザの心理状態を判定してもよい。表情または声のトーンから心理状態が判定しづらい場合でも、判定部は、ユーザの心理状態をより正確に判定することができる。
 判定部は、複数の心理判定情報を用いてユーザの心理状態を判定する場合、それぞれの心理判定情報から判定された心理状態のうち、信頼度が最も高い心理状態をユーザの心理状態と判定してもよい。信頼度は、取得した心理判定情報に対応する所定の学習済みモデルを用いて、ユーザの心理状態を判定した際の信頼度である。判定部は、信頼度がより高い心理状態を採用することで、精度よくユーザの心理状態を判定することができる。
 情報処理装置は、決定部が決定した提示作業内容をユーザに提示する提示部を、備えてもよい。ユーザは、作業開始前に自分の作業を確認することができる。また、ユーザに提示された作業内容は、管理者に提示されてもよい。管理者は、各ユーザの作業内容を把握することで、全体の作業スケジュールを管理することができる。
 情報処理装置は、判定部が判定したユーザの心理状態と、決定部が決定した提示作業内容およびユーザが実施した作業量を含む作業情報と、を対応づけて記憶部に記憶させる出力部を、備えてもよい。心理状態および対応する作業情報の情報が記憶部に蓄積され、情報処理装置は、ユーザの心理状態に応じた適切な作業を提示することができるようになる。
 また、本開示の一側面は、コンピュータが、ユーザの心理状態を判定するための情報である心理判定情報を取得する取得ステップと、心理判定情報に基づいて、ユーザの心理状態を判定する判定ステップと、ユーザの過去の心理状態と、過去の心理状態でのユーザの作業内容および作業量を含む作業情報と、を対応づけて記憶する記憶部から、ユーザの現在の心理状態と同じ過去の心理状態に対応づけられた作業情報を取得し、取得した作業情報に基づいてユーザに提示する提示作業内容を決定する決定ステップと、を実行する、情報処理方法である。
 また、本開示の一側面は、コンピュータを上記の情報処理装置の各手段として機能させるプログラム、または、当該プログラムを非一時的に記憶したコンピュータ可読記憶媒体である。
 本発明によれば、作業者の心理状態を考慮した作業を提示し、作業者が快適に作業できるようにすることができる。
図1は、情報処理装置の適用例およびハードウェア構成例を示す図である。 図2は、情報処理装置の機能構成を例示する図である。 図3は、実施形態1に係る作業提示処理を例示するフローチャートである。 図4は、実施形態1での作業情報記憶部のデータを例示する図である。 図5は、実施形態2に係る作業提示処理を例示するフローチャートである。 図6は、実施形態2での作業情報記憶部のデータを例示する図である。 図7は、実施形態3に係る作業提示処理を例示するフローチャートである。 図8は、実施形態3での作業情報記憶部のデータを例示する図である。 図9は、変形例4-1に係る心理判定情報の取得処理を例示するフローチャートである。 図10は、変形例4-2の顔の一部について説明する図である。 図11は、変形例4-2に係る心理判定情報の取得処理を例示するフローチャートである。 図12は、変形例4-3の顔と手との位置関係について説明する図である。 図13は、変形例4-3に係る心理判定情報の取得処理を例示するフローチャートである。 図14は、変形例4-4に係る心理判定情報の取得処理を例示するフローチャートである。 図15は、変形例4-5のアンケートについて説明する図である。 図16は、変形例4-5に係る心理判定情報の取得処理を例示するフローチャートである。
 以下、本発明の一側面に係る実施の形態を、図面に基づいて説明する。
 <適用例>
 図1を参照して、作業者であるユーザの心理状態を判定し、心理状態に応じた作業内容を提示する情報処理装置の適用例について説明する。情報処理装置は、ユーザの顔の撮像画像、声、心理状態に関するアンケートへの回答などのユーザの心理状態を判定するための情報(以下、心理判定情報とも称される)を取得する。情報処理装置は、取得した心理判定情報に基づいて、ユーザの心理状態を判定する。情報処理装置は、例えば、顔の撮像画像と、撮影時の心理状態とを教師データとして学習させた学習済みモデルを用意し、学習済みモデルにユーザの顔の撮像画像を入力することで心理状態を判定することができる。
 情報処理装置は、判定したユーザの心理状態に応じた作業内容を決定し、ユーザに提示する。情報処理装置は、ユーザごとに、過去の心理状態と、当該過去の心理状態で実施した作業内容および作業量の情報(以下、作業情報とも称される)とを対応づけて記憶する記憶部を備える。情報処理装置は、判定したユーザの心理状態と同じ心理状態での過去の作業情報に基づいて、ユーザに提示する作業内容(以下、提示作業内容とも称される)を決定することができる。
 情報処理装置は、現在のユーザの心理状態に対応する過去の作業情報が複数存在する場合には、作業の優先順位、心理状態の悪化に伴う作業量の変化などに基づいて提示作業内容を決定することができる。作業の優先順位は、例えば、管理者が全体の作業スケジュールを立てる際に、ユーザのスキルまたは心理状態による作業への影響を考慮して、ユーザごとに予め設定しておくようにしてもよい。また、情報処理装置は、作業量の基準値(例えば、他の複数ユーザが、同じ心理状態で作業した場合の作業量の平均値)を超える作業、すなわち他のユーザよりもスキルが高い作業を優先して、提示作業内容を決定してもよい。
 図1は、ユーザが倦怠感ありと判定された例を示す。資料作成の作業は、リラックスしている場合と比べて作業量が大幅に低下しているため、情報処理装置は、作業量の低下の度合いが「資料作成」よりも少ない「ピッキング」を、今日の作業内容として提示する。
 このように、情報処理装置は、ユーザの心理状態を判定し、過去に同じ心理状態で実施した作業内容および作業量に基づいて、ユーザの現在の心理状態に応じた作業内容を提示することができる。これにより、ユーザは、心理状態に応じて快適に作業できるようになる。また、管理者は、ユーザの心理状態が判定されると、過去の作業情報から、判定された心理状態での作業量を把握することができるため、作業スケジュールを管理しやすくなる。
 <実施形態1>
 (ハードウェア構成)
 図1を参照して、情報処理装置10のハードウェア構成の一例について説明する。情報処理装置10は、プロセッサ11、主記憶部12、補助記憶部13、操作部14、表示部15、カメラ16、マイク17、通信部18を備える。プロセッサ11は、補助記憶部13に記憶されたプログラムを主記憶部12に読み出して実行することにより、図2で説明する各機能構成としての機能を実現する。
 操作部14は、例えば、キーボード、マウス、タッチパネルであり、ユーザからの操作を受け付ける。表示部15は、ディスプレイ等である。カメラ16は、例えば、Webカメラ、インカメラなど、ディスプレイの前のユーザを撮像するためのカメラである。マイク17は、ユーザの声などを収音する。通信部18は、有線または無線通信を行うためのインタフェースである。
 情報処理装置10は、パーソナルコンピュータ、サーバコンピュータ、タブレット端末、スマートフォンのような汎用的なコンピュータである。情報処理装置10は、例えば、複数台のコンピュータ装置による分散コンピューティングにより実現されてもよく、各機能部の一部をクラウドサーバにより実現されてもよい。また、情報処理装置10の各機能部の一部は、FPGAまたはASICなどの専用のハードウェア装置によって実現されてもよい。
 (機能構成)
 図2を参照して、情報処理装置10の機能構成について説明する。図2は、情報処理装置10の機能構成を例示する図である。情報処理装置10は、取得部101、心理状態判定部102、作業情報記憶部103、作業内容決定部104、出力部105を有する。
 取得部101は、ユーザの心理状態を判定するための情報である心理判定情報を取得する。心理判定情報は、例えば、表情などから心理状態の推定が可能な顔の撮像画像である。心理状態判定部102は、心理判定情報に基づいて、撮影時のユーザの心理状態を判定する。心理状態判定部102は、例えば、CNN(Convolution Neural Network)等のディープラーニングにより、顔の撮像画像と、撮影時の心理状態とを教師データとして生成された学習済みモデルを用いて、ユーザの心理状態を判定する。取得部101および心理状態判定部102は、それぞれ「取得部」および「判定部」の一例である。
 作業情報記憶部103は、ユーザごとに、過去の心理状態と、当該過去の心理状態で実施した作業内容および作業量の情報(作業情報)とを対応づけて記憶する記憶部である。作業情報記憶部103は、心理状態判定部102が判定したユーザの心理状態と、ユーザが当該心理状態で実際に実施した作業内容および作業量とを記憶し蓄積する。
 ユーザが実際に実施した作業内容および作業量は、ユーザ自身によって操作部14から入力されてもよく、作業用端末等で作業内容および作業量の取得および計測が可能な場合は、作業用端末から送信されるようにしてもよい。また、作業量は、同じ心理状態であっても変化することが考えられるため、情報処理装置は、同じ心理状態での直近の所定回数(例えば、5回分)の作業量の平均値を、当該心理状態での作業量として記憶するようにしてもよい。作業情報記憶部103は、「記憶部」の一例である。
 作業内容決定部104は、心理状態判定部102が判定したユーザの現在の心理状態と同じ過去の心理状態に対応づけられた作業情報を作業情報記憶部103から取得する。作業内容決定部104は、取得した作業情報に基づいてユーザに提示する提示作業内容を決定する。作業内容決定部104は、「決定部」の一例である。
 出力部105は、作業内容決定部104が決定した提示作業内容を、表示部15に表示することによりユーザに提示する。また、出力部105は、心理状態判定部102が判定した前記ユーザの心理状態と、作業内容決定部104が決定した提示作業内容およびユーザが実施した作業量を含む作業情報と、を対応づけて作業情報記憶部103に記憶させる。出力部105は、「提示部」および「出力部」の一例である。
 上記の各機能は、1台のコンピュータにより実現されるものとして説明するが、複数のコンピュータにより実現されてもよい。例えば、リモートワーク等の状況では、情報処理装置10の取得部101は、ユーザの作業用端末で取得された心理判定情報を、通信部18を介して受信してもよい。また、出力部105は、作業内容決定部104が決定した提示作業内容を、通信部18を介してユーザの作業用端末に送信し、作業用端末に表示させてもよい。
 (作業提示処理の流れ)
 図3を参照して、実施形態1に係る作業提示処理の流れを説明する。図4に示す作業提示処理は、例えば、作業を始めようとするユーザがディスプレイ(表示部15)に顔を向けることにより開始される。
 S101では、取得部101は、心理判定情報を取得する。心理判定情報は、例えば、ユーザの顔の撮像画像であり、カメラ16により撮影される。S102では、心理状態判定部102は、ユーザの顔の撮像画像に基づいて、ユーザの心理状態を判定する。心理状態判定部102は、撮像画像からユーザの顔を識別し、顔の撮像画像と、撮影時の心理状態とを教師データとして生成された学習済みモデルに入力することにより、ユーザの心理状態を判定することができる。教師データとなる顔の撮像画像は、ユーザ本人の顔の撮像画像であってもよく、他のユーザの顔の撮像画像であってもよい。
 S103では、作業内容決定部104は、S102で判定されたユーザの心理状態と同じ過去の心理状態に対応づけられた過去の作業情報を、作業情報記憶部103から取得する。
 ここで、図4を参照して、作業情報記憶部103に記憶された過去の心理状態および過去の作業情報について説明する。図4は、実施形態1での作業情報記憶部のデータを例示する図である。心理状態は、例えば、倦怠感、リラックス、イライラ、緊張、悩み、冷静など、予め定義された心理状態であるが、これらに限られない。
 作業情報は、作業内容および作業量の情報を含む。作業内容は、管理者が予め定義しておくことができる。作業量は、単位時間当たりの作業量とすることができる。単位時間は、日にち単位、時間単位、分単位で指定されてもよい。また、単位時間は、作業ごとに異なる時間が指定されてもよい。図4に例示する心理状態および作業情報は、ユーザごとに作業情報記憶部103に記憶される。
 S104では、作業内容決定部104は、S103で取得した過去の作業情報に基づいて、ユーザに提示する提示作業内容を決定する。例えば、S102で、ユーザの心理状態が「倦怠感」ありと判定された場合、作業内容決定部104は、図4の例では、「ピッキング」、「品出し」、「資料作成」の作業情報を取得する。複数の作業情報が存在する場合、作業内容決定部104は、例えば、最初に取得される作業情報に基づいて提示作業内容を決定してもよく、複数の作業情報のうち、予め設定された優先順位に基づいて提示作業内容を決定してもよい。
 なお、1つの心理状態に対して複数の作業情報が存在する場合、作業内容決定部104は、複数の作業内容を組み合わせて提示する作業内容として決定してもよい。また、作業内容決定部104は、予め登録されたユーザのスキル、全体の残りの作業量等に基づいて作業内容の優先順位を判定し、優先順位に基づいて提示作業内容を決定してもよい。また、作業内容決定部104は、心理状態の変化による作業量の変動が、他の作業に比べてより少ない作業を、ユーザに提示する作業として決定してもよい。
 S105では、出力部105は、S104で決定された提示作業内容を、ディスプレイに表示してユーザに提示する。出力部105は、提示作業内容とともに、過去に実施したときの作業量を、目安の作業量として表示するようにしてもよい。
 実施形態1では、情報処理装置10は、顔の撮像画像に基づいて、ユーザの現在の心理状態を判定し、同じ心理状態で実施した過去の作業内容および作業量の情報に基づいて、ユーザが実施する作業内容を決定する。これにより、情報処理装置10は、作業者の心理状態を考慮して作業を提示し、作業者の業務負荷を調整することができる。
 <実施形態2>
 実施形態1では、情報処理装置10は、ユーザの現在の心理状態と同じ心理状態での過去の作業情報に基づいて提示作業内容を決定する。実施形態2では、情報処理装置10は、現在の心理状態と同じ心理状態で作業を実施した後の心理状態が、改善しているか否かに基づいて提示作業内容を決定する。
 実施形態2に係る情報処理装置10のハードウェア構成および機能構成は、実施形態1に係る情報処理装置10と同じであるため説明は省略する。図5は、実施形態2に係る作業提示処理を例示するフローチャートである。図3に示す作業提示処理(実施形態1)と同じ処理については、同じ符号を付して説明は省略する。
 S204では、作業内容決定部104は、作業後の心理状態に基づいて、ユーザに提示する提示作業内容を決定する。実施形態2では、作業情報記憶部103は、心理状態に対応づけられる作業情報の一つとして、ユーザが実際に作業を実施した後の心理状態を記憶しているものとする。
 作業後の心理状態は、例えば、作業直後または翌日の作業開始前など、ユーザがディスプレイ(表示部15)に顔を向けたタイミングで判定され、作業情報記憶部103に記憶することができる。なお、ディスプレイを見ながら実施する作業については、心理状態判定部102は、作業中にユーザの心理状態を判定し、変化があった場合に変化後の心理状態を作業情報記憶部103に記憶するようにしてもよい。
 ここで、図6を参照して、作業情報記憶部103に記憶された過去の心理状態および過去の作業情報について説明する。図6は、実施形態2での作業情報記憶部のデータを例示する図である。実施形態2では、作業情報は、作業内容および作業量の他に、作業後の心理状態の情報を含む。作業後の心理状態以外の項目(心理状態、作業内容、作業量)については、図4と同様であるため、説明は省略する。
 図6の例では、心理状態が「倦怠感」であった場合に、「ピッキング」をした後、心理状態は「達成感」に変化している。また、心理状態が「倦怠感」であった場合に、「資料作成」をした後、心理状態は「イライラ」に変化している。作業情報記憶部103は、作業をする前の心理状態と作業後の心理状態とを対応づけて記憶する。これにより、作業内容決定部104は、作業前と作業後とで心理状態が改善したか否かを判定することができる。
 作業後の心理状態が改善されたか否かは、例えば、次のように判定することができる。心理状態を予めプラスとマイナスのグループに分類し、作業内容決定部104は、マイナスグループの心理状態からプラスグループの心理状態に変化した場合に、心理状態が改善したと判定することができる。例えば、マイナスグループの心理状態は、「倦怠感」、「イライラ」、「緊張」、「悩み」とし、プラスグループの心理状態は、「リラックス」、「冷静」、「達成感」とする。
 図6の例では、心理状態が「倦怠感」で「ピッキング」をした場合、作業後の心理状態は「達成感」となっている。心理状態がマイナスグループの「倦怠感」から、プラスグループの「達成感」に変化しており、心理状態は改善されている。一方、心理状態が「倦怠感」で「資料作成」をした場合、作業後の心理状態は「イライラ」となっている。心理状態がマイナスグループの「倦怠感」から、マイナスグループの「イライラ」に変化しており、心理状態は改善されていない。
 なお、心理状態が改善されたか否かは、心理状態を2つのグループに分類する場合に限られず、心理状態を3つ以上のグループに分類して判定されてもよい。また、ユーザの心理状態には、それぞれ点数が定められ、ユーザの心理状態は、点数の変化に応じて改善したか否かが判定される。作業内容決定部104は、作業後に心理状態の点数が上がった場合に、心理状態が改善されたと判定することができる。
 作業内容決定部104は、例えば、次のように提示作業内容を決定する。ユーザの現在の心理状態が「倦怠感」であった場合、作業内容決定部104は、図6の例では、作業情報記憶部103から「ピッキング」および「資料作成」の2つの作業情報を、提示作業内容の候補として取得する。ユーザの心理状態は、「ピッキング」の作業後は「達成感」に改善され、「資料作成」の作業後は「イライラ」であり改善されていない。この場合、作業内容決定部104は、心理状態が改善された「ピッキング」を、提示作業内容として決定することができる。
 また、1つの心理状態に対して複数の作業情報が存在する場合、作業内容決定部104は、ユーザの心理状態が改善された度合いに基づいて、提示作業内容を決定してもよい。心理状態が改善された度合いは、例えば、心理状態ごとにそれぞれの点数を定めた場合に、作業後の心理状態の点数から、作業前の心理状態の点数を減算した点数とすることができる。作業内容決定部104は、作業後の心理状態が改善された度合いがより大きい作業内容を提示作業内容として決定する。
 また、1つの心理状態に対して複数の作業情報が存在する場合、作業内容決定部104は、改善後のユーザの心理状態の判定に対する信頼度に基づいて、提示作業内容を決定してもよい。ここでの信頼度は、取得した心理判定情報に対応する所定の学習済みモデルを用いて、作業後のユーザの心理状態を判定した際の信頼度である。作業内容決定部104は、作業後のユーザの心理状態の判定に対する信頼度がより高い作業内容を提示作業内容として決定する。
 実施形態2では、情報処理装置10は、作業を実施した後の心理状態に基づいて、ユーザに提示する提示作業内容を決定する。作業後に心理状態が改善した作業が優先して提示されるため、作業の効率化が図られ、作業者はより快適に作業することができるようになる。
 <実施形態3>
 実施形態2では、情報処理装置10は、現在の心理状態と同じ心理状態で、過去に同じ作業を実施した後の心理状態に基づいて提示作業内容を決定する。実施形態3では、情報処理装置10は、現在の心理状態と同じ心理状態で、過去に同じ作業内容を提示された後の心理状態に基づいて提示作業内容を決定する。
 実施形態3に係る情報処理装置10のハードウェア構成および機能構成は、実施形態1に係る情報処理装置10と同じであるため説明は省略する。図7は、実施形態3に係る作業提示処理を例示するフローチャートである。図3に示す作業提示処理(実施形態1)と同じ処理については、同じ符号を付して説明は省略する。
 S304では、作業内容決定部104は、作業提示後の心理状態に基づいて、ユーザに提示する提示作業内容を決定する。実施形態3では、作業情報記憶部103は、心理状態に対応づけられる作業情報の一つとして、ユーザが作業内容を提示された後の心理状態を記憶しているものとする。
 作業提示後の心理状態は、作業内容を提示された後の心理状態である。作業提示後の心理状態は、作業内容を提示した後のユーザの顔の撮像画像等から判定され、作業情報記憶部103に記憶することができる。
 ここで、図8を参照して、作業情報記憶部103に記憶された過去の心理状態および過去の作業情報について説明する。図8は、実施形態3での作業情報記憶部のデータを例示する図である。実施形態3では、作業情報は、作業内容および作業量の他に、作業提示後の心理状態の情報を含む。作業提示後の心理状態以外の項目(心理状態、作業内容、作業量)については、図4と同様であるため、説明は省略する。
 図8の例では、心理状態が「倦怠感」で「ピッキング」が提示された場合、作業提示後の心理状態は「悩み」となっている。また、心理状態が「倦怠感」であった場合に、資料作成が提示された後、心理状態は「冷静」に変化している。作業情報記憶部103は、作業内容が提示される前の心理状態と作業内容が提示された後の心理状態とを対応づけて記憶する。これにより、作業内容決定部104は、作業提示前と作業提示後とで心理状態が改善したか否かを判定することができる。心理状態が改善したか否かは、実施形態2と同様に判定することができる。
 作業内容決定部104は、例えば、次のように提示作業内容を決定する。ユーザの現在の心理状態が「倦怠感」であった場合、作業内容決定部104は、図8の例では、作業情報記憶部103から「ピッキング」および「資料作成」の2つの作業情報を、提示作業内容の候補として取得する。ユーザの心理状態は、「ピッキング」の作業提示後は「悩み」であり改善されておらず、「資料作成」の作業提示後は「冷静」に改善されている。この場合、作業内容決定部104は、心理状態が改善された「資料作成」を、提示作業内容として決定することができる。
 また、1つの心理状態に対して複数の作業情報が存在する場合、作業内容決定部104は、ユーザの心理状態が改善された度合いに基づいて、提示作業内容を決定してもよい。ユーザの心理状態が改善された度合いは、例えば、心理状態ごとにそれぞれの点数を定めた場合、作業提示後の心理状態の点数から、作業提示前の心理状態の点数を減算した点数とすることができる。作業内容決定部104は、作業提示後の心理状態が改善された度合いがより大きい作業内容を提示作業内容として決定する。
 また、1つの心理状態に対して複数の作業情報が存在する場合、作業内容決定部104は、改善後のユーザの心理状態の判定に対する信頼度に基づいて、提示作業内容を決定してもよい。ここでの信頼度は、所定の学習済みモデルを用いて、作業提示後のユーザの心理状態を判定した際の信頼度である。作業内容決定部104は、作業提示後のユーザの心理状態の判定に対する信頼度がより高い作業内容を提示作業内容として決定する。
 実施形態3では、情報処理装置10は、作業を提示した後の心理状態に基づいて、ユーザに提示する提示作業内容を決定する。過去に作業内容を提示した後、心理状態が改善した作業が優先して提示されるため、作業の効率化が図られ、作業者はより快適に作業することができるようになる。
 <実施形態4>
 実施形態4は、心理判定情報の取得および心理状態の判定方法の各種変形例に関する実施形態である。各変形例は、実施形態1から実施形態3のそれぞれと組み合わせて実施することが可能である。実施形態4に係る情報処理装置10のハードウェア構成および機能構成は、実施形態1に係る情報処理装置10と同じであるため説明は省略する。
 (変形例4-1)
 変形例4-1は、顔認証の技術を用いてユーザを特定し、特定したユーザの顔の撮像画像と、撮影時の心理状態とを教師データとして学習させた学習済みモデルを用いて、当該ユーザの心理状態を判定する例である。本人の撮像画像を学習させた学習済みモデルを用いることで、情報処理装置10は、ユーザの心理状態をより正確に判定することができる。
 図9は、変形例4-1に係る心理判定情報の取得処理を例示するフローチャートである。図9に示す処理は、図3、図5、図7のS101およびS102の処理の具体的な処理である。
 S111では、取得部101は、公知の顔認証の技術を用いてユーザを特定する。S112では、取得部101は、ユーザの撮像画像を取得する。取得部101は、S111で顔認証のために取得した画像をS112で取得する撮像画像としてもよい。S113では、取得部101は、S112で取得した撮像画像からユーザの顔を検出し、検出した顔の画像を心理判定情報として取得する。
 S114では、心理状態判定部102は、S111で特定したユーザの顔の撮像画像と、撮影時の心理状態とを教師データとして予め学習させた学習済みモデルに、S113で検出した顔の画像を入力する。心理状態判定部102は、学習済みモデルの出力結果からユーザの心理状態を判定することができる。
 (変形例4-2)
 変形例4-2は、顔の一部の撮像画像と、撮影時の心理状態とを教師データとして学習させた学習済みモデルを用いて、ユーザの心理状態を判定する例である。心理状態が表れやすい顔の一部の撮像画像に基づいて判定することで、情報処理装置10は、表情の微妙な変化を捉え、ユーザの心理状態をより正確に判定することができる。
 図10を参照して、顔の一部について説明する。顔の一部は、例えば、目を含む顔上部の領域1001、鼻および口を含む顔下部の領域1002である。心理状態の変化が顔上部の領域1001に表れやすいユーザは、領域1001の撮像画像を用いて心理状態が判定され、心理状態の変化が顔下部の領域1002に表れやすいユーザは、領域1002の撮像画像を用いて心理状態が判定されてもよい。
 なお、顔の一部は、顔上部の領域1001および顔下部の領域1002に限られず、目、鼻、口等の顔のパーツであってもよい。また、情報処理装置10は、変形例4-1と組み合わせて、特定のユーザの顔の一部の撮像画像と、撮影時の心理状態とを教師データとして学習させた学習済みモデルを用いて、当該ユーザの心理状態を判定するようにしてもよい。
 図11は、変形例4-2に係る心理判定情報の取得処理を例示するフローチャートである。図11に示す処理は、図3、図5、図7のS101およびS102の処理の具体的な処理である。
 S121では、取得部101は、ユーザの撮像画像を取得する。S122では、取得部101は、心理状態を判定するための判定対象(顔の一部)を選択する。判定対象は、例えば、図10で説明した顔上部の領域1001および顔下部の領域1002である。また、判定対象は、目、鼻、口等の顔のパーツであってもよい。取得部101は、例えば、ユーザごとに予め設定された領域または顔のパーツを判定対象として選択することができる。また、取得部101は、ユーザの操作に基づいて判定対象を選択してもよい。S123では、取得部101は、S122で選択した判定対象をS121で取得した撮像画像から検出し、検出した顔の一部の画像を心理判定情報として取得する。
 S124では、心理状態判定部102は、顔の一部の撮像画像と、撮影時の心理状態とを教師データとして予め学習させた学習済みモデルに、S123で検出した顔の一部の画像を入力する。心理状態判定部102は、学習済みモデルの出力結果からユーザの心理状態を判定することができる。
 (変形例4-3)
 変形例4-3は、顔と手との位置関係を示す情報と、撮影時の心理状態とを教師データとして学習させた学習済みモデルを用いて、ユーザの心理状態を判定する例である。情報処理装置10は、顔と手との位置関係によって示されるユーザの癖に基づいて、ユーザの心理状態をより正確に判定することができる。
 図12を参照して、顔と手との位置関係について説明する。矩形1200は、撮像画像から検出された顔の位置を囲む。頭を掻いたり、触ったりする癖があるユーザの手は、頭部の領域1201で検出される。また、耳を掻いたり、触ったりする癖があるユーザの手は、顔の左右の領域1202で検出される。また、口または鼻に手をあてたり、触ったりする癖があるユーザの手は、顔の下部の領域1203で検出される。また、心臓付近に手を置く癖があるユーザの手は、胸部の領域1204で検出される。
 なお、情報処理装置10は、撮像画像での手の位置に限られず、所定時間(例えば、5分~10分程度)の動画を撮影し、所定時間内に図12で説明した各領域に手を移動させた頻度に基づいて、当該ユーザの心理状態を判定するようにしてもよい。この場合、情報処理装置10は、所定時間内に各領域に手を移動させた頻度も入力データとして学習させた学習済みモデルを用いて、当該ユーザの心理状態を判定すればよい。
 図13は、変形例4-3に係る心理判定情報の取得処理を例示するフローチャートである。図13に示す処理は、図3、図5、図7のS101およびS102の処理の具体的な処理である。
 S131では、取得部101は、ユーザの撮像画像を取得する。S132では、取得部101は、S131で取得した撮像画像からユーザの顔を検出する。S133では、取得部101は、S131で取得した撮像画像からユーザの手を検出する。
 なお、S131でユーザの撮像画像を取得する際、取得部101は、ディスプレイに顔の位置を示す枠を表示し、枠内にユーザの顔が収まるように促してもよい。枠内にユーザの顔が収まるようにユーザの撮像画像を取得することで、取得部101は、顔を検出するS132の処理を省略することができる。
 S133では、取得部101は、顔と手との位置関係を示す情報を心理判定情報として取得する。取得部101は、例えば、図12に例示した領域のうち、どの領域でユーザの手が検出されたかを、顔と手との位置関係として取得することができる。また、顔と手との位置関係を示す情報は、顔および手の撮像画像、顔の一部の領域と手とが重なった領域の元の領域に対する割合、手が顔の一部の領域と重なる頻度等の情報を含んでもよい。
 S134では、心理状態判定部102は、顔と手との位置関係を示す情報と、撮影時の心理状態とを教師データとして予め学習させた学習済みモデルに、S133で取得した顔と手との位置関係を示す情報を入力する。心理状態判定部102は、学習済みモデルの出力結果からユーザの心理状態を判定することができる。
 (変形例4-4)
 変形例4-4は、ユーザの声の音声データと録音時の心理状態とを教師データとして学習させた学習済みモデルを用いて、ユーザの心理状態を判定する例である。情報処理装置10は、例えば、ユーザに質問をして発声を促す。学習済みモデルは、声の震えまたは声の高さなどのデータと、対応する心理状態とを学習することで、ユーザの心理状態を判定することが可能である。情報処理装置10は、カメラ16が備わっていない場合でも、ユーザの声の音声データに基づいて、ユーザの心理状態を判定することができる。
 図14は、変形例4-4に係る心理判定情報の取得処理を例示するフローチャートである。図14に示す処理は、図3、図5、図7のS101およびS102の処理の具体的な処理である。
 S141では、取得部101は、ユーザの声の音声データを心理判定情報として取得する。S142では、心理状態判定部102は、声の音声データと録音時の心理状態とを教師データとして予め学習させた学習済みモデルに、S141で取得した音声データを入力する。心理状態判定部102は、学習済みモデルの出力結果からユーザの心理状態を判定することができる。
 (変形例4-5)
 変形例4-5は、ユーザの心理状態を判定するためのアンケートを実施し、アンケートに対するユーザの回答に基づいて、ユーザの心理状態を判定する例である。表情または声のトーンから心理状態が判定しづらい場合でも、アンケートの質問および回答の選択肢を適切に設定することで、ユーザの心理状態をより正確に判定することができる。
 図15を参照して、アンケートについて説明する。アンケートの質問は、「今日の気分は?」、「よく眠れましたか?」、「楽しいことはありましたか?」のように心理状態を推定しやすい質問とする。情報処理装置10は、アンケートの質問に対するユーザの回答に応じて、次の質問を表示するようにしてもよい。例えば、アンケートの質問は、ユーザの回答に基づいて、次の質問が選択され、候補となる心理状態が絞り込まれるような質問群とすることができる。
 図16は、変形例4-5に係る心理判定情報の取得処理を例示するフローチャートである。図16に示す処理は、図3、図5、図7のS101およびS102の処理の具体的な処理である。
 S151では、取得部101は、ユーザの心理状態を判定するためのアンケートの質問を表示する。S152では、取得部101は、アンケートに対するユーザの回答を受け付ける。S153では、心理状態判定部102は、アンケートに対するユーザの回答からユーザの心理状態を判定することができる。
 (その他)
 心理状態判定部102は、上記の変形例のうち複数の変形例を組み合わせて、複数の心理判定情報を用いてユーザの心理状態を判定してもよい。この場合、心理状態判定部102は、それぞれの心理判定情報から、対応する学習済みモデルを用いて判定された心理状態のうち、信頼度が最も高い心理状態を、ユーザの心理状態と判定することができる。
 実施形態4では、情報処理装置10は、ユーザから心理状態を判定するための様々な情報(心理判定情報)を取得することで、ユーザの心理状態をより正確に判定することができる。ユーザの心理状態の判定は、例えば、作業前、作業提示後、作業実施後に実行される。なお、作業前の心理状態は、作業内容が変わるごとに判定されてもよい。作業実施後の心理状態は、作業直後に限られず、翌日の作業開始前に判定されてもよい。また、作業実施後の心理状態は、作業が完了した後に限られず、作業中に判定されてもよい。
 また、ユーザの心理状態は、特定の時点に取得した心理判定情報に基づいて判定される場合に限られず、例えば、所定期間の間に取得した心理判定情報(例えば、所定期間の撮影動画)に基づいて判定されてもよい。
 <その他>
 上記の各実施形態および変形例は、本発明の構成例を例示的に説明するものに過ぎない。各実施形態および変形例の構成は、上記の具体的な形態には限定されることはなく、本発明の技術的思想の範囲内で適宜組み合わせて利用することができる。また、本発明は、その技術的思想を逸脱しない範囲で、種々の変形が可能である。
 <付記>
 (1)ユーザの心理状態を判定するための情報である心理判定情報を取得する取得部(101)と、
 前記心理判定情報に基づいて、前記ユーザの心理状態を判定する判定部(102)と、
 前記ユーザの過去の心理状態と、前記過去の心理状態での前記ユーザの作業内容および作業量を含む作業情報と、を対応づけて記憶する記憶部(103)と、
 前記ユーザの現在の心理状態と同じ前記過去の心理状態に対応づけられた前記作業情報を前記記憶部から取得し、取得した前記作業情報に基づいて前記ユーザに提示する提示作業内容を決定する決定部(104)と、を備える、
情報処理装置(10)。
 (2)コンピュータ(10)が、
 ユーザの心理状態を判定するための情報である心理判定情報を取得する取得ステップ(S101)と、
 前記心理判定情報に基づいて、前記ユーザの心理状態を判定する判定ステップ(S102)と、
 前記ユーザの過去の心理状態と、前記過去の心理状態での前記ユーザの作業内容および作業量を含む作業情報と、を対応づけて記憶する記憶部から、前記ユーザの現在の心理状態と同じ前記過去の心理状態に対応づけられた前記作業情報を取得し、取得した前記作業情報に基づいて前記ユーザに提示する提示作業内容を決定する決定ステップ(S103、S104)と、を実行する、
情報処理方法。
1:情報処理装置、11:プロセッサ、12:主記憶部、13:補助記憶部、14:操作部、15:表示部、16:カメラ、17:マイク、18:通信部
101:取得部、102:心理状態判定部、103:作業情報記憶部、104:作業内容決定部104、105:出力部

Claims (16)

  1.  ユーザの心理状態を判定するための情報である心理判定情報を取得する取得部と、
     前記心理判定情報に基づいて、前記ユーザの心理状態を判定する判定部と、
     前記ユーザの過去の心理状態と、前記過去の心理状態での前記ユーザの作業内容および作業量を含む作業情報と、を対応づけて記憶する記憶部と、
     前記ユーザの現在の心理状態と同じ前記過去の心理状態に対応づけられた前記作業情報を前記記憶部から取得し、取得した前記作業情報に基づいて前記ユーザに提示する提示作業内容を決定する決定部と、を備える、
    情報処理装置。
  2.  前記過去の心理状態に対応づけられた前記作業情報は、前記ユーザが前記作業情報の作業内容を実施した後の作業後の心理状態の情報をさらに含み、
     前記決定部は、前記現在の心理状態と同じ前記過去の心理状態に対応づけられた前記作業情報のうち、前記作業後の心理状態が作業前よりも改善している前記作業情報に基づいて前記提示作業内容を決定する、
    請求項1に記載の情報処理装置。
  3.  前記過去の心理状態に対応づけられた前記作業情報は、前記ユーザが前記作業情報の作業内容を提示されたときの作業提示後の心理状態の情報をさらに含み、
     前記決定部は、前記現在の心理状態と同じ前記過去の心理状態に対応づけられた前記作業情報のうち、前記作業提示後の心理状態が作業提示前よりも改善している前記作業情報に基づいて前記提示作業内容を決定する、
    請求項1または2に記載の情報処理装置。
  4.  前記ユーザの心理状態は、心理状態ごとに点数が定められ、点数の変化に応じて前記ユーザの心理状態が改善したか否かが判定される、
    請求項2または3に記載の情報処理装置。
  5.  前記決定部は、前記現在の心理状態と同じ前記過去の心理状態に対応づけられた前記作業情報が複数存在する場合、前記ユーザの心理状態が改善された度合い、および改善後の前記ユーザの心理状態の判定に対する信頼度の少なくともいずれかに基づいて、前記提示作業内容を決定する、
    請求項2から4のいずれか1項に記載の情報処理装置。
  6.  前記心理判定情報は、前記ユーザの顔または顔の一部の撮像画像を含み、
     前記判定部は、顔または顔の一部の撮像画像と、撮影時の心理状態とを教師データとして学習させた学習済みモデルを用いて、前記ユーザの心理状態を判定する、
    請求項1から5のいずれか1項に記載の情報処理装置。
  7.  前記判定部は、前記ユーザを顔認証により特定し、前記ユーザの顔または前記ユーザの顔の一部の撮像画像と、撮影時の心理状態とを教師データとして学習させた学習済みモデルを用いて、前記ユーザの心理状態を判定する、
    請求項1から6のいずれか1項に記載の情報処理装置。
  8.  前記心理判定情報は、前記ユーザの顔と手との位置関係を示す情報を含み、
     前記判定部は、前記ユーザの顔と手との位置関係を示す情報と、撮影時の心理状態とを教師データとして学習させた学習済みモデルを用いて、前記ユーザの心理状態を判定する、
    請求項1から7のいずれか1項に記載の情報処理装置。
  9.  前記判定部は、前記ユーザが表示部に表示された枠内に顔の位置を合わせて撮像された撮像画像から前記ユーザの顔を検出する、
    請求項6から8のいずれか1項に記載の情報処理装置。
  10.  前記心理判定情報は、前記ユーザの声の音声データを含み、
     前記判定部は、前記ユーザの声の音声データと録音時の心理状態とを教師データとして学習させた学習済みモデルを用いて、前記ユーザの心理状態を判定する、
    請求項1から9のいずれか1項に記載の情報処理装置。
  11.  前記心理判定情報は、前記ユーザの心理状態を判定するためのアンケートに対する前記ユーザの回答を含み、
     前記判定部は、前記アンケートに対する回答に基づいて、前記ユーザの心理状態を判定する、
    請求項1から10のいずれか1項に記載の情報処理装置。
  12.  前記判定部は、複数の前記心理判定情報を用いて前記ユーザの心理状態を判定する場合、それぞれの前記心理判定情報から判定された心理状態のうち、信頼度が最も高い心理状態を前記ユーザの心理状態と判定する、
    請求項1から11のいずれか1項に記載の情報処理装置。
  13.  前記決定部が決定した前記提示作業内容を前記ユーザに提示する提示部を、さらに備える、
    請求項1から12のいずれか1項に記載の情報処理装置。
  14.  前記判定部が判定した前記ユーザの心理状態と、前記決定部が決定した前記提示作業内容および前記ユーザが実施した作業量を含む作業情報と、を対応づけて前記記憶部に記憶させる出力部を、さらに備える、
    請求項1から13のいずれか1項に記載の情報処理装置。
  15.  コンピュータが、
     ユーザの心理状態を判定するための情報である心理判定情報を取得する取得ステップと、
     前記心理判定情報に基づいて、前記ユーザの心理状態を判定する判定ステップと、
     前記ユーザの過去の心理状態と、前記過去の心理状態での前記ユーザの作業内容および作業量を含む作業情報と、を対応づけて記憶する記憶部から、前記ユーザの現在の心理状態と同じ前記過去の心理状態に対応づけられた前記作業情報を取得し、取得した前記作業情報に基づいて前記ユーザに提示する提示作業内容を決定する決定ステップと、を実行する、
    情報処理方法。
  16.  コンピュータに、
     ユーザの心理状態を判定するための情報である心理判定情報を取得する取得ステップと、
     前記心理判定情報に基づいて、前記ユーザの心理状態を判定する判定ステップと、
     前記ユーザの過去の心理状態と、前記過去の心理状態での前記ユーザの作業内容および作業量を含む作業情報と、を対応づけて記憶する記憶部から、前記ユーザの現在の心理状態と同じ前記過去の心理状態に対応づけられた前記作業情報を取得し、取得した前記作業情報に基づいて前記ユーザに提示する提示作業内容を決定する決定ステップと、を実行させる、
    プログラム。
PCT/JP2022/039982 2021-11-16 2022-10-26 情報処理装置および情報処理方法 WO2023090103A1 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2021-186076 2021-11-16
JP2021186076A JP2023073545A (ja) 2021-11-16 2021-11-16 情報処理装置および情報処理方法

Publications (1)

Publication Number Publication Date
WO2023090103A1 true WO2023090103A1 (ja) 2023-05-25

Family

ID=86396785

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2022/039982 WO2023090103A1 (ja) 2021-11-16 2022-10-26 情報処理装置および情報処理方法

Country Status (2)

Country Link
JP (1) JP2023073545A (ja)
WO (1) WO2023090103A1 (ja)

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007316851A (ja) * 2006-05-24 2007-12-06 Hitachi Ltd 作業管理方法及び作業管理システム
JP2011101746A (ja) * 2009-11-11 2011-05-26 Takenaka Komuten Co Ltd 作業環境制御システム、作業環境制御方法、及び作業環境制御プログラム
WO2011096240A1 (ja) * 2010-02-05 2011-08-11 日本電気株式会社 生体情報計測器、携帯端末装置、生体情報計測方法およびプログラム
US20170200133A1 (en) * 2016-01-13 2017-07-13 Sap Se Contextual task management system
US20200057976A1 (en) * 2018-08-20 2020-02-20 Accenture Global Solutions Limited Organization analysis platform for workforce recommendations
JP2020135786A (ja) * 2019-02-26 2020-08-31 株式会社日立製作所 応答装置および応答方法
JP2021026130A (ja) * 2019-08-06 2021-02-22 本田技研工業株式会社 情報処理装置、情報処理方法、認識モデルならびにプログラム
JP2021126295A (ja) * 2020-02-13 2021-09-02 本田技研工業株式会社 心理状態推定装置及び心理状態推定方法

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007316851A (ja) * 2006-05-24 2007-12-06 Hitachi Ltd 作業管理方法及び作業管理システム
JP2011101746A (ja) * 2009-11-11 2011-05-26 Takenaka Komuten Co Ltd 作業環境制御システム、作業環境制御方法、及び作業環境制御プログラム
WO2011096240A1 (ja) * 2010-02-05 2011-08-11 日本電気株式会社 生体情報計測器、携帯端末装置、生体情報計測方法およびプログラム
US20170200133A1 (en) * 2016-01-13 2017-07-13 Sap Se Contextual task management system
US20200057976A1 (en) * 2018-08-20 2020-02-20 Accenture Global Solutions Limited Organization analysis platform for workforce recommendations
JP2020135786A (ja) * 2019-02-26 2020-08-31 株式会社日立製作所 応答装置および応答方法
JP2021026130A (ja) * 2019-08-06 2021-02-22 本田技研工業株式会社 情報処理装置、情報処理方法、認識モデルならびにプログラム
JP2021126295A (ja) * 2020-02-13 2021-09-02 本田技研工業株式会社 心理状態推定装置及び心理状態推定方法

Also Published As

Publication number Publication date
JP2023073545A (ja) 2023-05-26

Similar Documents

Publication Publication Date Title
EP3384437B1 (en) Systems, computer medium and methods for management training systems
US20220262504A1 (en) Electronic arrangement for therapeutic interventions utilizing virtual or augmented reality and related method
US20180122509A1 (en) Multilevel Intelligent Interactive Mobile Health System for Behavioral Physiology Self-Regulation in Real-Time
US20220392625A1 (en) Method and system for an interface to provide activity recommendations
KR101833405B1 (ko) 감정노동자를 위한 직무스트레스에 따른 심리치료장치 및 심리치료방법
CA3007632C (en) Systems and methods for acquiring and employing resiliency data for leadership development
US10475352B2 (en) Systems and methods for facilitating rehabilitation therapy
WO2015182032A1 (ja) 集中度の評価装置、プログラム
WO2011158965A1 (ja) 感性評価システム、感性評価方法、およびプログラム
CN114627999A (zh) 一种认知障碍患者的干预方案的优化系统及方法
JP2017127593A (ja) 活動量測定システム、活動量測定方法、プログラム
Haim et al. The mobile photographic stress meter (MPSM) a new way to measure stress using images
WO2023090103A1 (ja) 情報処理装置および情報処理方法
US20220369973A1 (en) Extended reality system to treat subjects associated with autism spectrum disorder
CN114582467A (zh) 一种基于互联网的个人教育信息管理平台
JP7095169B1 (ja) 状態改善装置
Kim et al. Mediating individual affective experience through the emotional photo frame
JP7144638B1 (ja) 状態改善装置
US20230285711A1 (en) Assessing User Engagement to Optimize the Efficacy of a Digital Mental Health Intervention
US11605462B1 (en) System and methods for human identification of individuals with COVID-19 utilizing dynamic adaptive biometrics
WO2023145350A1 (ja) 情報処理方法、情報処理システムおよびプログラム
WO2021200284A1 (ja) 学習支援装置および学習支援システム
JP2022088796A (ja) ユーザー状態分析方法及びユーザー状態分析システム
JP2023069103A (ja) 分析システム
CN117982322A (zh) 用于改善视力的数字装置以及应用程序

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 22895387

Country of ref document: EP

Kind code of ref document: A1