JP2023114859A - 情報処理装置、情報処理方法、およびプログラム - Google Patents
情報処理装置、情報処理方法、およびプログラム Download PDFInfo
- Publication number
- JP2023114859A JP2023114859A JP2022017410A JP2022017410A JP2023114859A JP 2023114859 A JP2023114859 A JP 2023114859A JP 2022017410 A JP2022017410 A JP 2022017410A JP 2022017410 A JP2022017410 A JP 2022017410A JP 2023114859 A JP2023114859 A JP 2023114859A
- Authority
- JP
- Japan
- Prior art keywords
- content
- concentration
- person
- estimated
- user
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 230000010365 information processing Effects 0.000 title claims abstract description 41
- 238000003672 processing method Methods 0.000 title claims 2
- 230000000694 effects Effects 0.000 claims abstract description 127
- 238000000034 method Methods 0.000 claims abstract description 52
- 230000001815 facial effect Effects 0.000 claims description 4
- 241001282135 Poromitra oscitans Species 0.000 claims description 3
- 206010048232 Yawning Diseases 0.000 claims description 3
- 230000009471 action Effects 0.000 description 101
- 238000010586 diagram Methods 0.000 description 26
- 238000012545 processing Methods 0.000 description 26
- 230000006872 improvement Effects 0.000 description 17
- 238000003384 imaging method Methods 0.000 description 12
- 238000010801 machine learning Methods 0.000 description 8
- 230000008569 process Effects 0.000 description 6
- 230000006870 function Effects 0.000 description 5
- 230000008859 change Effects 0.000 description 4
- 230000000717 retained effect Effects 0.000 description 4
- 238000005516 engineering process Methods 0.000 description 3
- 238000004378 air conditioning Methods 0.000 description 2
- 239000000284 extract Substances 0.000 description 2
- 230000004044 response Effects 0.000 description 2
- 206010011224 Cough Diseases 0.000 description 1
- 206010037660 Pyrexia Diseases 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 230000007423 decrease Effects 0.000 description 1
- 230000002708 enhancing effect Effects 0.000 description 1
- 230000036541 health Effects 0.000 description 1
- 238000005286 illumination Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 230000036649 mental concentration Effects 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 230000000284 resting effect Effects 0.000 description 1
- 238000012549 training Methods 0.000 description 1
Images
Landscapes
- Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
Abstract
【課題】適切にユーザが行っている活動に対する集中度を向上させる技術を提供する。【解決手段】情報処理装置は、人物が含まれる撮像画像を取得し、前記人物が行っている活動に対する集中度と前記人物が行っている前記活動の内容とを前記撮像画像に基づき推定し、推定された前記集中度および前記活動の内容に基づき推定された前記集中度を向上させるための方法を決定する。【選択図】図3
Description
本開示は、撮像画像に基づく処理に関する。
ユーザの集中度を向上させるための方法が提案されている。
特許文献1には、頬杖を付く、背伸びをする等をしているユーザの撮像画像に基づいて、そのユーザの集中度合いを推定する方法が記載されている。また、特許文献1には、推定された集中度合いが閾値より低い場合は、集中度合いが上昇するように空調動作を制御する方法が記載されている。
例えば、同じ集中度合いであっても、勉強をはじめたばかりの場合と所定時間継続して勉強している場合とでは、ユーザの集中度合いを上昇させるために適した方法は異なると考えられる。しかしながら、特許文献1には、ユーザの現在の活動の内容が考慮されておらず、また、ユーザの集中度合いを向上させる方法は空調動作を制御する方法しか記載されていない。このため、特許文献1の方法では、ユーザの集中度を上昇させる方法として、ユーザの現在の活動の内容に適した方法が決定されない虞がある。
本開示は、適切にユーザが行っている活動に対する集中度を向上させる技術を提供することを目的とする。
本開示の情報処理装置は、人物が含まれる撮像画像を取得する取得手段と、前記人物が行っている活動に対する集中度と、前記人物が行っている前記活動の内容と、を前記撮像画像に基づき推定する推定手段と、推定された前記集中度および前記活動の内容に基づき、推定された前記集中度を向上させるための方法を決定する決定手段と、を有することを特徴とする。
本開示によれば、適切にユーザが行っている活動に対する集中度を向上させる技術を提供することができる。
以下、添付図面を参照して本開示の技術の実施形態を詳しく説明する。以下の実施形態は本開示の技術を限定するものでなく、また以下の実施形態で説明されている特徴の組み合わせの全てが本開示の技術の解決手段に必須のものとは限らない。なお、同一の構成要素には同一の参照番号を付して、説明を省略する。
<実施形態1>
本実施形態では、撮像画像に含まれるユーザの画像を用いて、ユーザが行っている活動への精神の集中度合い(集中度)、およびユーザが行っている活動の内容を推定する。そして推定された集中度および活動の内容に基づいて、ユーザの集中度が向上するための方法(実施項目)を決定する態様について、図を参照して説明する。
本実施形態では、撮像画像に含まれるユーザの画像を用いて、ユーザが行っている活動への精神の集中度合い(集中度)、およびユーザが行っている活動の内容を推定する。そして推定された集中度および活動の内容に基づいて、ユーザの集中度が向上するための方法(実施項目)を決定する態様について、図を参照して説明する。
[システム構成]
図1は、集中度向上システムの構成を示す模式図である。集中度向上システムは、情報処理装置100、撮像装置111、照明112、音楽再生装置113、およびユーザ端末114を有する。
図1は、集中度向上システムの構成を示す模式図である。集中度向上システムは、情報処理装置100、撮像装置111、照明112、音楽再生装置113、およびユーザ端末114を有する。
室内101は、集中度向上システムによる監視対象のユーザ102がいる空間であり、撮像装置111は、ユーザのいる室内101全体を撮像視野に含めることが可能な場所に設置される。本実施形態のユーザは、勉強を行っている人物であるものとして説明する。ユーザは、例えば、椅子103に座って、机104の上に教科書や参考書などの学習用品105を使用して勉強をしている人物である。
情報処理装置100は、撮像装置111の撮像の結果得られた画像を取得し、その画像に基づき、ユーザの活動の内容およびその活動への集中度を推定する。撮像装置111の撮像の結果得られた画像(撮像画像)は動画像でもよいし静止画像でもよい。さらに、情報処理装置100は、ユーザの集中度を向上させるための方法である実施項目を決定する。
照明112、音楽再生装置113、およびユーザ端末114は、情報処理装置100から出力された、実施項目の情報を受け取り、情報処理装置100によって決定された実施項目を実行する装置である。照明112は、プロジェクタでもよい。集中度向上システムには、照明112、音楽再生装置113、ユーザ端末114の全てが含まれていなくてもよく、少なくとも1つが含まれていればよい。または、集中度向上システムには、空調装置など、実施項目を実行することが可能な別の装置が含まれていてよい。
[ハードウェア構成]
図2は、集中度向上システムの情報処理装置100のハードウェア構成を示す図である。情報処理装置100は、CPU200、ROM201、RAM202、I/F203、HDD204を有し、それぞれの構成はバス205で接続されている。
図2は、集中度向上システムの情報処理装置100のハードウェア構成を示す図である。情報処理装置100は、CPU200、ROM201、RAM202、I/F203、HDD204を有し、それぞれの構成はバス205で接続されている。
CPU200はROM201に記憶されているデータに沿って情報処理装置100内の各部の動作を制御する。また、CPU200は、RAM202にプログラムをロードして、当該プログラムを実行する。なお、CPU200とは異なる専用の1又は複数のハードウェアあるいはGPU(Graphics Processing Unit)を有し、CPU200による処理の少なくとも一部をGPUあるいは専用のハードウェアが行うようにしてもよい。専用のハードウェアの例としては、ASIC(特定用途向け集積回路)、及びDSP(デジタルシグナルプロセッサ)等がある。
ROM201は読み出し専用メモリであり、ブートプログラム、ファームウェア、後述する処理を実現するための各種処理プログラム、または各種データを記憶する。RAM202は、CPU200が処理を行うためにプログラムまたはデータを一時的に記憶するワークメモリであり、CPU200によって各種処理プログラムやデータがRAM202にロードされる。
I/F203はネットワーク機器、USBデバイスのような外部装置と通信するためのインターフェースであり、ネットワークを通じたデータ通信、または外部装置とのデータの送受信を行う。HDD204は各種データを保存する二次記憶領域である。HDD204は、情報処理装置100内部に含まれていなくてもよく、ネットワークを介して接続可能な外部の記憶サーバーに確保されてもよい。
他にも、不図示の表示部および操作部の少なくとも一方が含まれていてもよいし、表示部および操作部の少なくとも一方が外部の別の装置として存在していてもよい。表示部は、例えば液晶ディスプレイやLED等で構成され、ユーザが情報処理装置100を操作するためのGUI(Graphical User Interface)などを表示する。操作部は、例えばキーボードやマウス、ジョイスティック、タッチパネル等で構成され、ユーザによる操作を受けて各種の指示をCPU200に入力する。CPU200は、表示部を制御する表示制御部、及び操作部を制御する操作制御部として動作する。
[機能構成]
図3は、集中度向上システムに含まれる情報処理装置100の機能構成を示す図である。情報処理装置100は、画像取得部301、人物特定部302、集中度推定部303、活動内容推定部304、実施項目決定部305、および出力部306の各機能部を有する。この各機能部は、情報処理装置100のCPU200が所定のプログラムを実行することにより実現されるが、これに限られるものではない。他にも例えば、演算を高速化するためのGPU(Graphics Processing Unit)、または、FPGA(Field Programmable Gate Array)などのハードウェアが利用されてもよい。各機能部は、ソフトウェアと専用ICなどのハードウェアとの協働で実現されてもよいし、一部またはすべての機能がハードウェアのみで実現されてもよい。
図3は、集中度向上システムに含まれる情報処理装置100の機能構成を示す図である。情報処理装置100は、画像取得部301、人物特定部302、集中度推定部303、活動内容推定部304、実施項目決定部305、および出力部306の各機能部を有する。この各機能部は、情報処理装置100のCPU200が所定のプログラムを実行することにより実現されるが、これに限られるものではない。他にも例えば、演算を高速化するためのGPU(Graphics Processing Unit)、または、FPGA(Field Programmable Gate Array)などのハードウェアが利用されてもよい。各機能部は、ソフトウェアと専用ICなどのハードウェアとの協働で実現されてもよいし、一部またはすべての機能がハードウェアのみで実現されてもよい。
画像取得部301は、撮像装置111が撮像して得られた撮像画像を取得する。
人物特定部302は、撮像画像および人物特定学習データ311を用いて撮像画像に含まれる人物のユーザ名を特定する。撮像画像データ、および人物特定部302の処理の結果得られた人物特定データは、所定のデータベースに保存される。
集中度推定部303は、撮像画像データ、人物特定データ、および集中度推定用データ313を用いて、特定された人物が現在行っている活動に対する集中度を推定する。
活動内容推定部304は、撮像画像データ、人物特定データ、活動推定用データ314を用いて、撮像画像から特定された人物(ユーザ)が行っている活動の内容を推定する。
実施項目決定部305は、ユーザの集中度および活動の内容、および実施項目決定用データ315に基づき、推定された集中度を向上させるための実施項目を決定する。
出力部306は、実施項目決定部305が決定した実施項目を実行する装置に、実施項目を実行させるための情報を出力する。各機能部の詳細は、後述のフローチャートを用いて説明する。
[フローチャート]
図4は、集中度向上システムの処理について説明するためのフローチャートである。図4に示すフローチャートに示す一連の処理は、CPU200がROM201に記憶されたプログラムをRAM202に展開し実行することによって実現される。また、図4におけるステップの一部または全部の機能をASICや電子回路等のハードウェアで実現してもよい。
図4は、集中度向上システムの処理について説明するためのフローチャートである。図4に示すフローチャートに示す一連の処理は、CPU200がROM201に記憶されたプログラムをRAM202に展開し実行することによって実現される。また、図4におけるステップの一部または全部の機能をASICや電子回路等のハードウェアで実現してもよい。
S401において画像取得部301は、撮像装置111から撮像画像を取得する。
S402において人物特定部302は、撮像画像に含まれる人物が、どのユーザであるかを人物特定学習データ311に基づき特定する。
図5は、人物特定学習データ311を説明するための模式図である。人物特定学習データ311は、入力データをユーザ毎の顔画像とし、ユーザ名を正解データとした教師あり学習をすることで機械学習によって構築された学習済みモデルである。人物特定部302は、この学習済みモデルに撮像画像を入力して、撮像画像に含まれる人物のユーザ名を特定する。
なお、人物特定部302による人物特定は、学習済みモデルを用いた方法に限られない。他にも、ユーザ毎の顔画像のテンプレート画像を予め保持しておく。そして、撮像画像から人物の顔の領域を切り出し、切り出された画像とテンプレート画像とをマッチング処理等により比較した結果に基づき、撮像画像内の人物のユーザ名を特定してもよい。
人物特定部302による人物特定の結果として人物特定データ312が得られる。人物特定データは、撮像画像に含まれている人物のユーザ名を特定した結果が含まれるデータであり、撮像画像内のユーザの位置およびユーザ名が含まれる。人物特定データ312は、後続のS403以降の処理において用いられる。
S403において集中度推定部303は、撮像画像に含まれるユーザの集中度を、撮像画像と集中度推定用データ313に基づき推定する。
集中度推定部303は、はじめに、撮像画像におけるユーザの姿勢内容を、姿勢内容推定用学習データを用いて推定する。また、撮像画像におけるユーザの顔内容を、顔内容推定用学習データを用いて推定する。そして、推定された姿勢内容および顔内容に基づき、ユーザの集中度を推定する。このように本実施形態では、姿勢内容および顔内容の推定し、推定された姿勢内容および顔内容に基づきユーザの集中度を推定する。
図6(a)は、集中度推定用データ313に含まれる姿勢内容推定用学習データ601を説明するための模式図である。姿勢内容推定用学習データ601は、入力データを各姿勢に対する姿勢画像とし、姿勢内容を正解データとした教師あり学習をすることで機械学習によって構築された学習済みモデルである。この学習済みモデルに、撮像画像を入力することで、撮像画像内のユーザの姿勢内容が推定される。姿勢内容は、図6(a)に示すように、例えば、横に傾いて座っている、まっすぐ座っている、縦に傾いて座っている、横向きに座っているなどのうちの少なくとも何れかが含まれている。
なお、集中度推定部303による姿勢内容の推定方法は、学習済みモデルを用いた方法に限られない。他にも、姿勢内容毎のテンプレート画像を予め保持しておいて、撮像画像から人物の領域を切り出して、切り出された画像とテンプレート画像とをマッチング処理等により比較した結果に基づき、撮像画像内のユーザの姿勢内容を推定してもよい。
図6(b)は、集中度推定用データ313に含まれる顔内容推定用学習データ602を説明するための模式図である。顔内容推定用学習データ602は、入力データを各顔内容に対する顔画像とし、顔内容を正解データとした教師あり学習をすることで機械学習によって構築された学習済みモデルである。この学習済みモデルに、撮像画像を入力することで、ユーザの顔内容を推定する。顔内容は、例えば、目が半開きになっている、あくびしている、にらみつけている、通常状態等のうちの少なくとも何れかである。集中度推定部303は、これらの学習済みモデルに、撮像画像を入力することで、ユーザの姿勢内容および顔内容を推定する。
なお、集中度推定部303による顔内容の特定は、学習済みモデルを用いた方法に限られない。他にも、顔内容毎の顔画像のテンプレート画像を予め保持しておく。そして、撮像画像から人物の顔の領域を切り出して、切り出された画像とテンプレート画像とをマッチング処理等により比較した結果に基づき、撮像画像内のユーザの顔内容を推定してもよい。
次に、集中度推定部303は、姿勢内容および顔内容を入力とした集中度の推定を、集中度データ701を用いて推定する。
図7は、集中度推定用データ313に含まれる集中度データ701の一例を示す図である。集中度データ701には、各姿勢内容および各顔内容に対する集中度が保持されている。図7には図示していないが、集中度データ701には、一般的なユーザに対応する姿勢内容および顔内容の組み合わせの夫々に対応する集中度のデータ(標準パターンデータ)が保持されている。初めは、一般的なユーザに対応する姿勢内容および顔内容の組み合わせの夫々に対応する集中度が保持された標準パターンデータを用いて集中度の推定が行われる。
その後、本実施形態の集中度向上システムを利用することで、図7に示すように、情報処理装置100が推定した、各ユーザの姿勢内容および顔内容の組み合わせに対応する集中度が集中度データ701に追加される。即ち、初めは、標準パターンを用いて集中度が推定されるが、自動または手動で行われるフィードバックを受けて、ユーザごとのデータが追加されて集中度データ701が更新される。例えば、ユーザAは、姿勢内容が縦に傾いて座っているであり、顔内容がにらみつけている時に集中度が高いと過去に推定されたため、その情報が集中度データ701に追加されている。ユーザBは、姿勢内容が横向きに座っているであり、顔内容がにらみつけている時に集中度が高いと、過去に推定されたため、その情報が集中度データ701に追加されている。
このため、集中度データ701に、S402で特定されたユーザの、推定された顔内容および姿勢内容に対応する集中度が保持されている場合は、その集中度が出力される。このように、ユーザ毎に異なる条件に沿った集中度の推定を行うことができるため、集中度の推定精度を高めることができる。
または、予め、ユーザごとの集中度を測定することで、ユーザごとの顔内容および姿勢内容の組み合わせに対応する集中度が保持された集中度データ701が生成されてもよい。
他にも、集中度を推定する方法として、入力データを顔画像および姿勢画像とし、集中度を正解データとした教師あり学習をすることで機械学習によって構築された学習済みモデルを用いて集中度を推定してもよい。または、撮像画像から直接、集中度が推定されてもよい。例えば、入力データとして撮像画像を入力し、集中度を正解データとした教師あり学習をすることで機械学習によって構築された学習済みモデルを用いて集中度が推定されてもよい。
なお、S403の処理の結果得られた集中度はユーザに出力されてもよい。
S404において活動内容推定部304は、撮像画像に含まれる人物(ユーザ)の活動内容を、撮像画像および活動推定用データ314に基づき推定する。
本実施形態の集中度推定システムは、勉強をしているユーザの集中度を改善するためのシステムであり、ユーザの活動内容として、少なくとも、同じ科目および同じ分類の勉強の継続時間、着席時間、および体調不良度の少なくも1つを推定する。なお、本フローチャートでは、同じ分類の勉強の継続時間、着席時間、および体調不良度の全てを推定するものとして説明をする。
図8は、活動推定用データ314を説明するための模式図である。はじめに、図8を用いて、同じ科目および同じ分類の勉強の継続時間の推定方法を説明する。
活動推定用データ314は、入力データを本の内容を表す画像(文章画像)とし、文章内容、科目および勉強分類を正解データとした教師あり学習をすることで機械学習によって構築された学習済みモデルである。活動内容推定部304は、撮像画像から本(学習用品)の領域を抽出してその結果得られた画像(文章画像)を、活動推定用データ314に入力することで勉強分類等を推定する。例えば、文章内容が英文長文、科目が英語、勉強分類が思考系に対応する文章画像、文章内容が漢字書き取り、科目が国語、勉強分類が暗記系に対応する文章画像を用いて学習を行うことで学習済みモデルが生成されている。
なお、図8では、勉強の分類のみを示しているが、ユーザが勉強に飽きて漫画を読み始めることも考えられる。このため、漫画のような文章画像を用いて、その文章画像が勉強とは関係ない分類の本であることが学習されている活動推定用データ314が用いられてもよい。活動内容推定部304は、その活動推定用データ314を用いることでユーザが勉強をしていないことを推定できる。
ユーザ名と推定された勉強分類等との対応付けは、例えば、ユーザの視線を決定しユーザの視線の近くにある本の文章画像から推定された勉強分類等とそのユーザとを対応付ければよい。または、ユーザが手に持っている、ユーザが手で押さえている、又はユーザがページをめくっている等、ユーザと接触している本の文章画像から推定された勉強分類等とそのユーザとが対応づけられてもよい。または、ユーザの顔から所定の距離(ユーザに応じて変わる距離)内、例えば、顔から30cm~100cm程度にある本の文章画像から推定された勉強分類等とそのユーザとを対応付けてもよい。
なお、ユーザが現在行っている勉強の科目および分類を取得する方法は、学習済みモデルを用いた方法による推定による方法に限られない。他にも、例えば、ユーザによって、そのユーザが現在行っている勉強の科目および分類が直接入力されてもよい。
そして、活動内容推定部304は、ユーザの活動の内容として、同じ科目および同じ勉強分類の勉強の継続時間を推定する。例えば、ユーザが勉強する際には、自分の近くに勉強に用いる教科書や参考書を近づけると考えられる。このため、ユーザと対応付けられる本の文章画像は変更されることから、ユーザが行っている勉強の科目および勉強分類の変化を推定できる。このため、科目または勉強分類が変化したときの時刻を開始時刻とし、ユーザに対応付けられた科目または勉強分類が変わるまで時間を測定することで、同じ科目および同じ分類の勉強の継続時間を推定する。なお、活動内容推定部304は、同じ科目の勉強の継続時間、および同じ分類の勉強の継続時間の少なくとも一方を推定するだけでもよい。この場合、以下の説明で、同じ科目および同じ分類の勉強の継続時間とあるのは、同じ科目の勉強の継続時間または同じ分類の勉強の継続時間の何れかであると読み替えてもよい。
図9は、活動内容推定部304による推定結果をまとめたテーブルである。図9の推定結果には、ユーザごとに、各ユーザが行っている勉強の科目および勉強分類に対応する勉強の継続時間が保持されている。例えば、推定結果として、ユーザAが2021/3/6 14:40から数学の思考系の勉強を始め20分継続して勉強したことが保持されている。
また、活動内容推定部304は、ユーザの活動の内容として、ユーザが継続して着席している時間を推定してもよい。着席時間の推定方法は、例えば、姿勢内容の推定方法と同様の方法で、撮像画像からユーザが着席状態であるかを推定する。ユーザが着席状態でない状態から着席状態に変化したときの時刻を開始時刻とし、ユーザが着席状態以外の状態となるまで時間を測定することで、ユーザが継続して着席している時間を推定できる。着席時間は、例えば、学習用品105がある場所に着席していた時間である。
図10は、活動内容推定部304による着席時間の推定結果をまとめたテーブルである。図10の推定結果には、ユーザごとに、各ユーザが継続して着席していた時間(着席時間)が保持されている。例えば、推定結果として、ユーザAが2021/3/6 14:40から着席を始め、20分継続して着席したことが保持されている。
また、活動内容推定部304は、ユーザの状態として、体調状態を推定してもよい。体調状態の推定方法は、入力データを顔の画像(体調画像)とし、体調状態を正解データとした教師あり学習をすることで機械学習によって構築された学習済みモデルを用いて推定する。例えば、体調状態は、咳をしている、熱がでている等である。なお、ユーザの体調状態を取得する方法は、学習済みモデルを用いた推定結果を取得する方法に限られない。他にも、体調状態は、ユーザによって直接入力されてもよい。
図11は、体調状態と体調不良度との対応を示すテーブルである。図11に示すように各体調状態には、体調不良度の加算値が対応付けられている。取得されたユーザの体調状態に対応する体調不良度の加算値を足し合わせることで、撮像画像に含まれるユーザの体調不良度を決定することができる。図11の体調不良度は、体調不良度の値が大きいほど、体調が悪い状態であることを表すように設定された例を示しているが、体調不良度の設定は図11の方法に限定されない。
S405において実施項目決定部305は、推定された集中度および活動の内容と、実施項目決定用データ315と、を用いてユーザの集中度を向上させるための実施項目を決定する。
図12は、実施項目決定用データ315の一例を示す図である。実施項目決定用データ315には、各集中度および各活動の内容の組み合わせの状態のユーザに対して実施項目を実施した場合の効果がレコード(行)毎に保持されている。図12の場合、活動の内容には、勉強継続時間、着席時間、体調不良度が含まれる。
実施項目決定用データ315における「実施後の効果」は、過去にユーザに対して夫々の実施項目を実行した際の、その実施項目の効果が保持されている。例えば、ユーザAは、集中度が高く、同じ分類の勉強の継続時間が60分で、着席時間が60分、体調不良度が「0」の時に、照明が部屋の色をゆっくり変える実施項目の集中度に対する効果が大きかった結果が保持されている。また、例えば、ユーザBは、集中度が低く、同じ分類の勉強の継続時間が10分で、着席時間が5分、体調不良度が「0」の時に、ユーザが勉強の科目を変更すると、集中度に対する効果が大きかった結果が保持されている。
また、図12には図示していないが、実施項目決定用データ315には、各集中度および各活動の内容の組み合わせの状態であった際に実施項目を実行した場合の、一般的な人物における実施項目の効果が保持されている。この一般的な人物に対応するデータを標準パターンデータとよぶ。初めは、この標準パターンデータを用いて、実施項目の決定処理が行われる。その後、本実施形態の集中度向上システムを利用することで、図12に示すように、各ユーザの各集中度および各活動の内容において実施項目を実行した際の実施項目の効果が実施項目決定用データ315に追加される。
なお、効果の持続時間も図12に含めてもよい。例えば、音楽を変更することで集中度が高くなった状態が10分間続いた場合は、その集中度が高い状態が持続した時間(効果の持続時間)が実施項目決定用データ315に保持されてもよい。
「実施後の効果」に保持される値は、例えば、集中度が上がった場合は効果「大」、集中度が変わらなかった場合が効果「中」、集中度が下がった場合は効果「小」として決定されて保持される。または、効果の持続時間が計測された場合は、その効果の持続時間も加味して「実施後の効果」に保持される値が決定されてもよい。例えば、集中度の上下と効果の持続時間の重みづけを加算して実施後の効果が算出される。
「実施後の効果」に保持される値は、「大」「中」「小」として図示しているがこの値に限られない。効果の持続時間が長い実施項目の場合は、「実施後の効果」には、「大」よりも効果が大きいことを示す値が保持されてもよい。
図13は、実施項目決定処理のフローチャートである。図13を用いてS405の処理の詳細を説明する。
S1301において実施項目決定部305は、実施項目決定用データ315における特定されたユーザ名を含むレコード(行)のうち、推定された集中度および活動の内容と、類似する集中度および活動の内容が含まれるレコードが存在するかを判定する。
特定されたユーザ名とは、S402の結果特定されたユーザ名である。例えば、S402でユーザ名が「ユーザA」と特定されたとする。この場合、図12の「ユーザ」の列に「ユーザA」が含まれるレコードから、S403の結果推定された集中度およびS404の結果推定された活動の内容に類似する情報が含まれるレコードが存在するかを判定する。
類似するかの判定方法は、例えば、S403およびS404で推定された集中度および活動の内容と、実施項目決定用データ315における特定されたユーザ名を含む各レコードの集中度および活動の内容と、の差異をデータ種別ごとに重みづけして加算する。こうして、実施項目決定用データ315における特定されたユーザ名を含む各レコードの非類似度を算出する。そして得られた非類似度が閾値内であったレコードを選択する。レコードが選択できた場合はS1301の判定ではYESと判定される。
特定されたユーザ名を含むレコードのうち、推定された集中度および活動の内容と類似する情報を含むレコードがあった場合(S1301がYES)、S1302に進む。S1302において実施項目決定部305は、S1301の判定の結果選択されたレコードに含まれる実施項目のうち効果が一番高い実施項目を取得する。
特定されたユーザ名を含むレコードのうち、推定された集中度および活動の内容と類似する情報を含むレコードがなかった場合(S1301がNO)、S1302はスキップする。特定されたユーザ名を含むレコードが実施項目決定用データ315に含まれていなかった場合も、S1302はスキップする。
S1303において実施項目決定部305は、実施項目決定用データ315における一般なユーザの情報を保持するレコード(標準パターンデータ)のうち、推定された集中度および活動の内容と類似する情報が含まれるレコードが存在するかを判定する。
類似するかの判定方法は、S1301と同様の方法でよい。例えば、S403およびS404で推定された集中度および活動の内容と、標準パターンデータに含まれる各レコードの集中度および活動の内容と、の差異をデータ種別ごとに重みづけして加算することで各レコードの非類似度を算出する。そして、得られた非類似度が閾値内であったレコードを選択する。レコードが選択できた場合はS1303の判定ではYESと判定される。
なお、後続のS1307では、S1307より前のステップで選択されたレコードに含まれる実施項目の中から、実際に実行される実施項目が決定される。このため、S1307よりも前のステップでは、実施項目決定用データ315の中から少なくも1つのレコードが選択されていることが望ましい。このため、S1303では、標準パターンデータのうちの少なくとも1つのレコードが選択できるようにしてもよい。例えば、S1303では、推定された集中度および活動の内容と、標準パターンデータに含まれる各レコードの集中度と活動の内容の差異に重みづけして加算して得られた非類似度が最小であったレコードは、必ず選択されるようにしてもよい。
標準パターンデータのレコードのうち、推定された集中度および活動の内容と類似する情報を含むレコードがあった場合(S1303がYES)、S1304に進む。S1304において実施項目決定部305は、S1303の判定の結果選択されたレコードに含まれる実施項目のうち効果が一番高い実施項目を取得する。
標準パターンデータのレコードのうち、推定された集中度および活動の内容と類似する情報を含むレコードがなかった場合(S1303がNO)、S1304はスキップする。
S1305において実施項目決定部305は、実施項目決定用データ315における特定されたユーザ名以外のユーザ名を含むレコードのうち、推定された集中度および活動の内容と、類似する情報が含まれるレコードが存在するかを判定する。
例えば、S402でユーザ名が「ユーザA」と特定されたとする。この場合、図12の「ユーザ」の列の「ユーザA」以外のユーザ名(例えば「ユーザB」)が含まれるレコードから、S403の結果推定された集中度およびS404の結果推定された活動の内容に類似する情報が含まれるレコードが存在するかを判定する。
類似するかの判定方法は、S1301と同様の方法でよい。例えば、推定された集中度および活動の内容と、実施項目決定用データ315における、特定されたユーザ名以外のユーザ名が含まれる各レコードの集中度および活動の内容と、の差異をデータ種別ごとに重みづけして加算する。こうして、実施項目決定用データ315における各レコードの非類似度を算出する。そして得られた非類似度が閾値内であったレコードを選択する。レコードが選択できた場合は、S1305の判定ではYESと判定される。
特定されたユーザ名以外のユーザ名を含むレコードのうち、推定された集中度および活動の内容と類似する情報を含むレコードがあった場合(S1305がYES)、S1306に進む。S1306において実施項目決定部305は、S1305の判定の結果選択されたレコードに含まれる実施項目のうち効果が一番高い実施項目を取得する。
特定されたユーザ名以外のユーザ名を含むレコードのうち、推定された集中度および活動の内容と類似する情報を含むレコードがなかった場合(S1305がNO)、S1306はスキップする。
S1307において実施項目決定部305は、S1302、S1304、およびS1306で取得した実施項目を、実施後の効果に重みづけをして比較する。比較の結果、一番効果が高い実施項目を、ユーザの集中度を向上させる実施項目として決定する。重み付けは、例えば、
S1302で取得された実施項目の効果>S1304で取得された実施項目の効果>S1306で取得された実施項目の効果
とする。このように重みづけをすることで、効果が同じである場合は、S402で特定されたユーザに対して過去に行われた実施項目が決定され易くなる。
S1302で取得された実施項目の効果>S1304で取得された実施項目の効果>S1306で取得された実施項目の効果
とする。このように重みづけをすることで、効果が同じである場合は、S402で特定されたユーザに対して過去に行われた実施項目が決定され易くなる。
以上でS405の処理の説明を終える。このようにS405の処理の結果、各ユーザの集中度および活動の内容に適した方法(実施項目)と、その実施項目を実行する装置(通知先)を決定することができる。
なお、実施項目決定部305は、入力データを集中度および活動の内容とし、実施後の効果を正解データとした教師あり学習をすることで機械学習によって構築された学習済みモデルを用いて、実施項目を決定してもよい。
また、図12の実施項目決定用データ315は一例であり、実施項目決定用データ315のレコードには、ユーザが行っている勉強の分類または科目が含まれていてもよい。例えば、暗記系の勉強を継続していたら、科目に係わらず異なる分類の勉強を行うこと提案する実施項目が含まれていてもよい。または、科目や勉強分類毎の勉強時間の提案する実施項目が含まれていてもよい。
S406において出力部306は、S405で決定された実施項目を、その実施項目を実行する装置(通知先)に出力する。実施項目の通知を取得した、照明112、音楽再生装置113、ユーザ端末114は、S405で決定された実施項目を実行する。
なお、本フローチャートの処理を、動画像に基づいて行う場合は、動画像を構成する1フレームを入力画像として、各ステップの処理が行われてもよい。また、所定のフレーム毎に、所定の間隔をあけて本フローチャートの処理が行われてもよい。図4のフローチャートでは、集中度および活動の内容の推定の後に実施項目の決定が行われるものとして説明したが、集中度および活動の内容の推定の頻度と、実施項目の決定の頻度は異なっていてもよい。
以上説明したように本実施形態によれば、ユーザの集中度および活動の内容を推定して、ユーザの集中度および活動情報に適した実施項目を決定することができる。
<実施形態2>
実施形態1では、集中度向上システムの監視対象は、勉強をしているユーザであるものとして説明した。本実施形態では、運動をしているユーザを監視対象とする集中度向上システムの説明を行う。本実施形態については、実施形態1からの差分を中心に説明する。特に明記しない部分については実施形態1と同じ構成および処理である。
実施形態1では、集中度向上システムの監視対象は、勉強をしているユーザであるものとして説明した。本実施形態では、運動をしているユーザを監視対象とする集中度向上システムの説明を行う。本実施形態については、実施形態1からの差分を中心に説明する。特に明記しない部分については実施形態1と同じ構成および処理である。
図14は、本実施形態の集中度向上システムの構成を示す模式図である。尚、同一の構成については、同じ符号を付して説明する。集中度向上システムは、情報処理装置100、撮像装置111、照明112、表示装置1405、音楽再生装置1406を有する。
室内1401は、本実施形態の集中度向上システムによる監視対象のユーザ1402~1404がいる空間であり、例えばスポーツジムの室内である。撮像装置111は、ユーザのいる室内1401全体を撮像視野に含めることが可能な場所に設置される。本実施形態のユーザは、所定の運動を行っている人物であるものとして説明する。
照明112、音楽再生装置1406、および表示装置1405は、情報処理装置100から実施項目を受け取り、情報処理装置100が決定した実施項目を実行する装置である。表示装置1405は、例えばプロジェクタである。集中度向上システムには、照明112、音楽再生装置1406、および表示装置1405の全てが含まれていなくてもよく、少なくとも1つが含まれていればよい。または、集中度向上システムには、空調装置など、実施項目を実行することが可能な別の装置が含まれていてよい。
次に、図4を用いて、本実施形態の集中度向上システムにおける情報処理装置100の処理について説明する。
S401およびS402の処理は、実施形態1と同じである。
S403において集中度推定部303は、撮像画像に含まれるユーザの集中度を、撮像画像と集中度推定用データ313に基づき推定する。本ステップも実施形態1と同様であるが、推定される姿勢内容が実施形態1とは異なる。
図15(a)は、集中度推定用データ313に含まれる本実施形態の姿勢内容推定用学習データ601を説明するための模式図である。推定される姿勢内容は、図15(a)に示すように、例えば、手足が伸びている、手が曲がっている、足が曲がっている、身体が傾いているなどのうちの少なくとも何れかが含まれている。図15(b)は、集中度推定用データ313に含まれる顔内容推定用学習データ602を説明するための模式図である。推定される顔内容は、実施形態1と同様に例えば、目が半開きになっている、あくびしている、にらみつけている、通常状態等のうちの少なくとも何れかである。
次に、集中度推定部303は、姿勢内容および顔内容を入力とした集中度の推定を、集中度データ701を用いて推定する。推定方法は、実施形態1と同じである。
図16は、本実施形態の集中度データの一例を示す図である。本実施形態の集中度データ701は、図7に示す実施形態1の集中度データ701と同様の構成であるが、推定される姿勢内容が異なることから、本実施形態で推定される姿勢内容に応じて集中度が推定できるように構成されている。例えば、ユーザAは、手足がしっかり伸びている姿勢内容であってにらみつけている顔内容の時に集中度が高いと過去に推定されたため、その情報が図16の集中度データ701に追加されている。また、ユーザCは、手が曲がっている姿勢内容であって通常の顔内容の時に集中度が高いと過去に推定されたため、その情報が図16の集中度データ701に追加されている。このように、監視対象のユーザが運動をしている人物であっても、ユーザ毎に異なる条件に沿って集中度推定をすることができる。
S404において活動内容推定部304は、撮像画像に含まれるユーザの活動内容を、撮像画像と活動推定用データ314とに基づき推定する。推定方法は、実施形態1と同じである。
本実施形態の集中度推定システムは、運動をしているユーザの集中度を改善(向上)させるためのシステムであることから、ユーザの活動内容として同じ内容および同じ分類の運動の継続時間を推定する。または、活動内容推定部304は、同じ内容の運動の継続時間および同じ分類の運動の継続時間の少なくとも一方を推定してもよい。この場合、以下の説明で、同じ内容および同じ分類の運動の継続時間とあるのは、同じ内容の運動の継続時間または同じ分類の運動の継続時間と読み替えてもよい。S404では実施形態1と同様に体調不良度を推定してもよい。
図17は、本実施形態の活動推定用データを説明するための模式図である。本実施形態の活動推定用データ314は、入力データを運動の内容を表す画像(運動画像)とし、運動内容および運動分類を正解データとした教師あり学習をすることで機械学習によって構築された学習済みモデルである。はじめに、活動内容推定部304は、撮像画像からユーザの領域を抽出してその結果得られた運動画像を、この学習済みモデルに入力することで、運動分類等を推定する。例えば、運動内容がシャドーボクシング、運動分類が有酸素運動に対応する運動画像、運動内容が腕立て伏せ、運動分類が無酸素運動に対応する文章画像を用いて学習を行うことで学習済みモデルが生成されている。
図18は、活動内容推定部304による本実施形態の推定結果をまとめたテーブルである。図18の推定結果には、ユーザごとに、各ユーザが行っている運動内容および運動分類に対応する運動の継続時間が保持されている。例えば、推定結果として、ユーザAが2021/3/6 14:40から5分継続して無酸素運動である腕立て伏せしていたことが保持されている。体調状態の推定方法は、実施形態1と同じである。
S405において実施項目決定部305は、推定された集中度および活動の内容と、実施項目決定用データと、を用いてユーザの集中度を向上させるための実施項目を決定する。実施項目を決定方法は実施形態1と同じであるが、決定に用いられる実施項目決定用データの構成が実施形態1とは異なる。
図19は、本実施形態の実施項目決定用データの一例を示す図である。本実施形態の実施項目決定用データ315には、活動の内容として、同じ内容および同じ分類の運動継続時間、および体調不良度が含まれる。「実施後の効果」は、過去にユーザに対して夫々の実施項目を実行した際のその実施項目の効果が保持されている。例えば、ユーザAは、集中度が高く、同じ分類の運動の継続時間が60分で、体調不良度が0の時に、照明が部屋の色をゆっくり変えると集中度を向上させる効果が大きかった結果が保持されている。また、例えば、ユーザAは、集中度が低く、同じ分類の運動の継続時間が30分で、体調不良度が1の時に、運動の種類を変更すると集中度を向上させる効果が大きかった結果が保持されている。なお、図19にも図12と同様に標準パターンデータが含まれるが省略して記載している。
S406において出力部306は、S405で決定された実施項目を、通知先に出力する。実施項目の通知を取得した、照明112、音楽再生装置1406、または表示装置1405は実施項目を実行する。
なお、本実施形態では、ユーザが複数いるため、ユーザに応じた実施項目が決定されて、ユーザに対応するそれぞれの実施項目が、それぞれの通知先に出力される。例えば、本実施形態の音楽再生装置1406は、図14に示すように、ユーザ毎に装着されている。このため、実施項目として音楽を変更することが決定された場合は、対象のユーザが装着している音楽再生装置1406に実施項目が通知される。また、実施項目として明るさの変更が決定された場合は、対象ユーザの周りの明るさだけが変更されるように照明112は明るさを制御する。
以上説明したように本実施形態によれば、運動しているユーザの集中度および活動の内容を推定して、集中度および活動の内容に適した実施項目を決定することができる。また、撮像画像内に複数のユーザがいる場合でも、ユーザ毎に適した実施項目を決定して実行させることができる。
<その他の実施形態>
本開示は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
本開示は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
301 画像取得部
303 集中度推定部
304 活動内容推定部
305 実施項目決定部
100 情報処理装置
303 集中度推定部
304 活動内容推定部
305 実施項目決定部
100 情報処理装置
Claims (16)
- 人物が含まれる撮像画像を取得する取得手段と、
前記人物が行っている活動に対する集中度と、前記人物が行っている前記活動の内容と、を前記撮像画像に基づき推定する推定手段と、
推定された前記集中度および前記活動の内容に基づき、推定された前記集中度を向上させるための方法を決定する決定手段と、
を有することを特徴とする情報処理装置。 - 前記推定手段は、
前記撮像画像から前記人物の姿勢内容および顔内容を推定し、推定された前記姿勢内容および前記顔内容に基づき前記集中度を推定する
ことを特徴とする請求項1に記載の情報処理装置。 - 前記顔内容は、目が半開きになっている、あくびをしている、にらみつけている、のうちの少なくとも何れかである
ことを特徴とする請求項2に記載の情報処理装置。 - 前記姿勢内容は、横に傾いて座っている、まっすぐ座っている、縦に傾いて座っている、横向きに座っている、のうちの少なくとも何れかである
ことを特徴とする請求項2または3に記載の情報処理装置。 - 前記姿勢内容は、手足が伸びている、手が曲がっている、足が曲がっている、身体が傾いている、のうちの少なくとも何れかである
ことを特徴とする請求項2または3に記載の情報処理装置。 - 前記推定手段は、
前記活動の内容として、前記人物が行っている活動に係る継続時間を推定する
ことを特徴とする請求項1から5のいずれか1項に記載の情報処理装置。 - 前記推定手段は、
前記人物が行っている勉強の分類を推定し、前記継続時間として、前記人物が行っている同じ分類の勉強の継続時間を少なくとも推定する
ことを特徴とする請求項6に記載の情報処理装置。 - 前記推定手段は、
前記継続時間として、前記人物が着席している継続時間を少なくとも推定する
ことを特徴とする請求項7に記載の情報処理装置。 - 前記推定手段は、
前記人物が行っている運動の分類を推定し、前記継続時間として、前記人物が行っている同じ運動の継続時間を少なくとも推定する
ことを特徴とする請求項6に記載の情報処理装置。 - 前記推定手段は、前記人物の体調状態をさらに推定し、
前記決定手段は、推定された前記人物の体調状態にさらに基づき、前記方法を決定する
ことを特徴とする請求項1から9のいずれか1項に記載の情報処理装置。 - 決定された前記方法の情報を出力する出力手段をさらに有する
ことを特徴とする請求項1から10のいずれか1項に記載の情報処理装置。 - 前記決定手段は、前記方法として、前記人物がいる空間の照明の変更、前記人物が聴く音楽の変更、およびユーザへの所定の通知の少なくとも1つを決定し、
前記出力手段は、決定された前記方法を実行する装置に、前記方法の情報を出力する
ことを特徴とする請求項11に記載の情報処理装置。 - 前記撮像画像に含まれる前記人物を特定する特定手段をさらに有する
ことを特徴とする請求項1から12のいずれか1項に記載の情報処理装置。 - 前記決定手段は、特定された前記人物に応じて前記方法を決定する
ことを特徴とする請求項13に記載の情報処理装置。 - 人物が含まれる撮像画像を取得する取得ステップと、
前記人物が行っている活動に対する集中度と、前記人物が行っている前記活動の内容と、を前記撮像画像に基づき推定する推定ステップと、
推定された前記集中度および前記活動の内容に基づき、推定された前記集中度を向上させるための方法を決定する決定ステップと、
を有することを特徴とする情報処理方法。 - コンピュータを、請求項1から14のいずれか1項に記載の情報処理装置の各手段とし機能させるためのプログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2022017410A JP2023114859A (ja) | 2022-02-07 | 2022-02-07 | 情報処理装置、情報処理方法、およびプログラム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2022017410A JP2023114859A (ja) | 2022-02-07 | 2022-02-07 | 情報処理装置、情報処理方法、およびプログラム |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2023114859A true JP2023114859A (ja) | 2023-08-18 |
Family
ID=87569599
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022017410A Pending JP2023114859A (ja) | 2022-02-07 | 2022-02-07 | 情報処理装置、情報処理方法、およびプログラム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2023114859A (ja) |
-
2022
- 2022-02-07 JP JP2022017410A patent/JP2023114859A/ja active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10271783B2 (en) | Stimulus presenting system, stimulus presenting method, computer, and control method | |
US10089895B2 (en) | Situated simulation for training, education, and therapy | |
KR101680995B1 (ko) | 생물 물리학적 신호의 수집된 시간적 및 공간적 패턴에 기초한 뇌-컴퓨터 인터페이스(bci) 시스템 | |
US11301775B2 (en) | Data annotation method and apparatus for enhanced machine learning | |
US20220028296A1 (en) | Information processing apparatus, information processing method, and computer program | |
CN108766524A (zh) | 健身指导方法、装置及计算机可读存储介质 | |
CN113643789B (zh) | 健身方案信息的生成方法、装置和系统 | |
JP2020173787A (ja) | 情報処理装置、情報処理システム、情報処理方法、および情報処理プログラム | |
JP7099377B2 (ja) | 情報処理装置及び情報処理方法 | |
Colwell et al. | Projected accuracy metric for the P300 speller | |
JP2023114859A (ja) | 情報処理装置、情報処理方法、およびプログラム | |
JP2021111299A (ja) | 学習装置、学習方法、学習プログラム、識別装置、識別方法および識別プログラム | |
JP2003271752A (ja) | 教材提示方法及び装置及び教材提示プログラム及び教材提示プログラムを格納した記憶媒体 | |
US20230360548A1 (en) | Assist system, assist method, and assist program | |
Todd et al. | A haptic-audio simulator indoor navigation: To assist visually impaired environment exploration | |
CN115116088A (zh) | 近视预测方法、装置、存储介质和程序产品 | |
JP6824105B2 (ja) | 情報処理装置、情報処理方法および情報処理プログラム | |
CN112288287A (zh) | 车载信息系统的评估方法及设备 | |
JP2020113278A (ja) | 読み書き能力のテスト方法及び装置 | |
US20230230417A1 (en) | Learning assistance device and learning assistance system | |
WO2024062935A1 (ja) | 情報処理装置、システム、情報処理方法、およびプログラム | |
Beal et al. | EEG Estimates of Cognitive Workload and Engagement Predict Math Problem Solving Outcomes. | |
CN116721569B (zh) | 专注力训练方法、专注力训练装置、电子设备及介质 | |
EP4246394A1 (en) | Assessing user engagement to improve the efficacy of machine-user interaction | |
Halbach et al. | Categories of user impairment |