JP2023036171A - ユーザ行動支援装置、方法およびプログラム - Google Patents

ユーザ行動支援装置、方法およびプログラム Download PDF

Info

Publication number
JP2023036171A
JP2023036171A JP2021143051A JP2021143051A JP2023036171A JP 2023036171 A JP2023036171 A JP 2023036171A JP 2021143051 A JP2021143051 A JP 2021143051A JP 2021143051 A JP2021143051 A JP 2021143051A JP 2023036171 A JP2023036171 A JP 2023036171A
Authority
JP
Japan
Prior art keywords
user
audience
processing unit
state
masking
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2021143051A
Other languages
English (en)
Other versions
JP7279121B2 (ja
Inventor
汐見 仲田
Shiomi Nakada
明子 平尾
Akiko Hirao
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NTT Communications Corp
Original Assignee
NTT Communications Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NTT Communications Corp filed Critical NTT Communications Corp
Priority to JP2021143051A priority Critical patent/JP7279121B2/ja
Publication of JP2023036171A publication Critical patent/JP2023036171A/ja
Application granted granted Critical
Publication of JP7279121B2 publication Critical patent/JP7279121B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • User Interface Of Digital Computer (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

【課題】ユーザに対する聴衆の注目度合いを適切に制御することを可能にする。【解決手段】ユーザが複数の聴衆と対面する状態で情報を伝達する行動を支援する際に、前記ユーザの心理状態が反映された第1のセンシング情報を取得すると共に、前記聴衆を含む前記ユーザの視野範囲に相当する撮像映像をもとに前記聴衆の前記ユーザに対する注目状態が反映された第2のセンシング情報を取得する。そして、取得された前記第1のセンシング情報に基づいて、前記ユーザの心理状態が前記聴衆からの影響に対する制御が必要であるか否かを判定すると共に、取得された前記第2のセンシング情報に基づいて、マスク処理の対象となる聴衆を判定し、前記ユーザ状態の判定結果および前記マスク対象の判定結果に基づいて、前記マスク処理の対象と判定された前記聴衆に対し選択的に前記マスク処理を行うための制御を実行する。【選択図】図3

Description

この発明の一態様は、例えば、会議や講演等においてユーザが聴衆に対し対面した状態で情報を伝達する場合の行動を支援するユーザ行動支援装置、方法およびプログラムに関する。
例えば、会議や講演等のプレゼンテーション現場において、発言や発表等を行うユーザは、通常、参加者や受講者等の多くの聴衆から注目される。このため、ユーザによっては、緊張して発言や発表をスムーズに行えなくなったり、最悪の場合パニックを起こして発言や発表を続けられなくなる場合が考えられる。
また、反対に参加者や受講者から注目されていないと感じると、ユーザによっては発言や発表に対する意欲を維持できず、これにより発言や発表に対するパフォーマンスの低下を招くことも予想される。
一方、例えばスマートグラス等と呼ばれるデバイスに拡張現実の技術を適用することで、ユーザが見ている現実の映像に仮想画像を重畳させて表示する技術が提案されている(例えば、特許文献1を参照)。仮に、この技術をプレゼンテーション現場に適用したとすると、例えばユーザの視界に映る聴衆の映像に適切な仮想画像を重畳させることで、ユーザの緊張感を緩和させたり、発言や発表に対するモチベーションの低下を抑える効果が期待される。
特開2005-234757号公報
ところが、特許文献1に開示される技術を多数の聴衆を相手にするプレゼンテーション現場にどのように適用して実現するかについては、まだ検討が進んでいないのが現状である。
この発明は上記事情に着目してなされたもので、ユーザに対する聴衆の注目度合いを適切に制御することが可能な技術を提供しようとするものである。
上記課題を解決するためにこの発明に係るユーザ行動支援装置または支援方法の一態様は、ユーザが複数の聴衆と対面する状態で情報を伝達する行動を支援する際に、前記ユーザの心理状態が反映された第1のセンシング情報を取得すると共に、前記聴衆を含む前記ユーザの視野範囲に相当する撮像映像をもとに、前記聴衆の前記ユーザに対する注目状態が反映された第2のセンシング情報を取得する。そして、取得された前記第1のセンシング情報に基づいて、前記ユーザの心理状態が前記聴衆からの影響に対する制御が必要であるか否かを判定すると共に、取得された前記第2のセンシング情報に基づいて、マスク処理の対象となる聴衆を判定し、前記ユーザ状態の判定結果および前記マスク対象の判定結果に基づいて、前記マスク処理の対象と判定された前記聴衆に対し選択的に前記マスク処理を行うための制御を実行するようにしたものである。
この発明の一態様によれば、例えば、ユーザがスマートグラスのような表示デバイスを装着してプレゼンテーションを行う場合に、ユーザに対する聴衆の注目状態をもとにマスク処理の対象とする聴衆が判定されると共に、ユーザの心理状態からユーザに対する聴衆の影響を制御する必要があるか否かが判定される。そして、前記マスク処理の対象と判定された前記聴衆のうち、ユーザに対する影響を制御する必要があると判定された聴衆が選択的にマスク処理される。このためユーザは、複数の聴衆のうち、例えば視線や態度が気になる聴衆、具体的には、ユーザに対する注目の度合いが大きくユーザに対し心理的に過度の緊張感または威圧感を与えている聴衆や、反対にユーザに対する注目の度合いが小さくユーザに不安感を与えたり集中度の低下を生じさせる聴衆が、ユーザの視界から選択的にマスクされた状態でプレゼンテーションを行うことが可能となる。その結果、ユーザは心理状態を良好に維持した状態でプレゼンテーションを続けることが可能となる。
すなわちこの発明の一態様によれば、ユーザに対する聴衆の注目度合いを適切に制御することが可能な技術を提供することができる。
図1は、この発明の第1の実施形態に係るユーザ行動支援装置を含む支援システムの構成を示す図である。 図2は、この発明の第1の実施形態に係るユーザ行動支援装置として機能するサーバ装置のハードウェア構成を示すブロック図である。 図3は、この発明の第1の実施形態に係るユーザ行動支援装置として機能するサーバ装置のソフトウェア構成を示すブロック図である。 図4は、図3に示したサーバ装置の制御部による学習モードにおける処理手順と処理内容の一例を示すフローチャートである。 図5は、図3に示したサーバ装置の制御部によるプレゼンテーションモードにおける処理手順と処理内容の一例を示すフローチャートである。 図6は、この発明の第2の実施形態に係るユーザ行動支援装置として機能するサーバ装置のソフトウェア構成を示すブロック図である。 図7は、図6に示したサーバ装置の制御部によるプレゼンテーションモードにおける処理手順と処理内容の一例を示すフローチャートである。 図8は、プレゼンション現場におけるマスク処理の結果の一例を示す図である。 図9は、野外におけるマスク処理の結果の一例を示す図である。
以下、図面を参照してこの発明に係わる実施形態を説明する。
[第1の実施形態]
(構成例)
(1)システム
図1は、この発明の第1の実施形態に係るユーザ行動支援装置として機能するサーバ装置SVaを備えたプレゼンテーション支援システムの構成を示す図である。
第1の実施形態に係るシステムでは、プレゼンテーションを行うユーザUSがスマートグラスSGおよびウェアラブル端末WTを装着すると共に携帯端末UTを所持し、この携帯端末UTが上記スマートグラスSGおよびウェアラブル端末WTとの間でデータの送受信を行うと共に、サーバ装置SVaとの間でネットワークNWを介してデータの送受信を行う。
スマートグラスSGは、例えば、画像表示部と、カメラと、マイクロフォンと、通信インタフェース部と、制御部とを備える。画像表示部は、光透過型ディスプレイからなり、ユーザが聴衆の様子を直接視認できるようにその光学像を透過させると共に、当該光学像に後述するマスクパターンを重ねて表示する機能を有する。すなわち、拡張現実(AR:Augmented Reality)を用いた画像表示が可能な構成を有している。
このうち、カメラは、プレゼンテーション中に聴衆の様子を撮像するために用いられる。マイクロフォンは、ユーザUSが発する音声および聴衆の音声等を集音するために用いられる。通信インタフェース部は、携帯端末UTとの間でデータを送受信する機能を有する。
制御部は、上記カメラにより撮像された映像データおよびマイクロフォンにより集音された音声データを通信インタフェース部から携帯端末UTへ送信すると共に、携帯端末UTから送られるマスキングデータをもとに上記画像表示部にマスクパターンを表示させる処理を行う。なお、スマートグラスSGは加速度センサ等の動きセンサを備えていてもよい。この場合動きセンサは、ユーザUSの頭部の動きやこめかみの動きにより、例えば頭部の動揺や瞬きや震えを検出するために使用され、その検出データはユーザの心理状態を判定する1つの要素として利用可能である。
ウェアラブル端末WTは、例えば、生体センサと、通信インタフェース部と、制御部とを備える。生体センサは、ユーザUSのバイタルデータを測定するために用いられる。通信インタフェース部は、上記携帯端末UTとの間でデータの送受信を行うために用いられる。制御部は、上記生体センサにより測定されたバイタルデータを、通信インタフェース部から上記携帯端末UTへ転送する処理を行う。
バイタルデータとしては、例えば心拍、発汗、血中飽和酸素濃度、体温、血圧等のユーザUSの心理状態が反映されるデータが用いられる。なお、生体センサは、ウェアラブル端末WTに設けられる以外に、上記スマートグラスSGに設けられていてもよく、また例えば衣類に一体的に形成される状態で設けられてもよい。
携帯端末UTは、例えばスマートフォンまたはパーソナルコンピュータからなる。携帯端末UTは、上記スマートグラスSGおよびウェアラブル端末WTから送信される映像データ、音声データおよびバイタルデータを受信して、これらのデータをネットワークNWを介してサーバ装置SVaへ転送する。また携帯端末UTは、サーバ装置SVaから送信されるマスキングデータを受信してスマートグラスSGに転送する。さらに携帯端末UTは、サーバ装置SVaがマスク処理の対象となる聴衆を特定するために使用する学習モデルを作成する際に、ユーザUSが教師データを入力するためにも使用される。
スマートグラスSGおよびウェアラブル端末WTの通信インタフェース部としては、例えばBluetooth(登録商標)等の小電力無線データ通信規格を採用したインタフェースが使用される。また、携帯端末UTがサーバ装置SVaとの間でデータ伝送を行うために使用する通信インタフェース部としては、WiFi(登録商標)等の無線LAN(Local Area Network)や、4Gまたは5G等の公衆移動通信システムに対応した無線インタフェースが使用される。
なお、ウェアラブル端末WTがスマートフォン等と同等の機能を有している場合には、携帯端末UTをウェアラブル端末WTで代用することも可能である。
(2)サーバ装置SVa
図2および図3は、それぞれサーバ装置SVaのハードウェア構成およびソフトウェア構成を示すブロック図である。
サーバ装置SVaは、例えば会社や団体のローカルネットワークに接続されるローカルサーバからなる。なお、サーバ装置SVaは、エッジサーバや、Web上またはクラウド上に配置される、サービス事業者が運用するサーバコンピュータであってもよい。
サーバ装置SVaは、中央処理ユニット(Central Processing Unit:CPU)等のハードウェアプロセッサを使用した制御部1aを備える。そして、この制御部1aに対し、バス5を介して、プログラム記憶部2aおよびデータ記憶部3aを有する記憶ユニットと、通信インタフェース部(以後インタフェースをI/Fと称する)4を接続したものとなっている。
通信I/F部4は、制御部1aの制御の下、ネットワークNWにより定義される通信プロトコルを使用して、上記携帯端末UTとの間でデータの送受信を行う。
プログラム記憶部2aは、例えば、記憶媒体としてHDD(Hard Disk Drive)またはSSD(Solid State Drive)等の随時書込みおよび読出しが可能な不揮発性メモリと、ROM(Read Only Memory)等の不揮発性メモリとを組み合わせて構成したもので、OS(Operating System)等のミドルウェアに加えて、この発明の第1の実施形態に係る各種制御処理を実行するために必要な各種プログラムを格納する。
データ記憶部3aは、例えば、記憶媒体として、HDDまたはSSD等の随時書込みおよび読出しが可能な不揮発性メモリと、RAM(Random Access Memory)等の揮発性メモリと組み合わせたもので、この発明の第1の実施形態を実施するために必要な主たる記憶領域として、学習モデル記憶部31と、判定条件記憶部32と、マスクパターン記憶部33とを備える。
学習モデル記憶部31は、マスク処理の対象となる聴衆を特定するために事前に作成された学習モデルと、この学習モデルを作成する際に使用される教材モデルを記憶するために使用される。
判定条件記憶部32は、ユーザUSのバイタルデータをもとにユーザUSの心理状態を判定するための第1の判定条件を記憶する。第1の判定条件としては、例えばユーザUSの心理状態が過度の緊張や集中度の低下等により不安定な状態となったときに得られるバイタルデータの範囲を示す情報が用いられる。
マスクパターン記憶部33は、マスク処理の対象となる聴衆の顔または体をマスク処理するためのマスクパターンを記憶する。マスクパターンには、単に画像に塗りつぶし等の網掛け処理を行うだけのパターンと、キャラクタ等のイラスト、画像または写真からなるパターンとが含まれ、これらのパターンは選択的に使用可能となっている。また、マスクパターンとしては、他に聴衆の目の部位のみをマスクするパターンや、塗りつぶし以外のモザイク模様やぼかしを加えるものであってもよい。要するに、少なくともマスク対象の聴衆の視線を隠すものであれば、マスクパターンは如何なるものであってもよい。
制御部1aは、この発明の第1の実施形態に係る処理機能として、学習モデル作成処理部11と、バイタルデータ取得処理部12と、ユーザ状態判定処理部13と、映像データ取得処理部14と、マスク対象判定処理部15と、マスキング処理部16とを備えている。これらの処理部11~16は、何れもプログラム記憶部2aに格納されたアプリケーション・プログラムを制御部1aのハードウェアプロセッサに実行させることにより実現される。
学習モデル作成処理部11は、学習モードが設定された状態で、学習モデル記憶部31から教材モデル(表情または姿勢が異なる複数の人の画像または映像)を読み出して通信I/F部4から携帯端末UTを介してスマートグラスSGへ送信して表示させる。そして、学習モデル作成処理部11は、表示された上記教材モデルに対しユーザUSが携帯端末UTにおいて入力したマスク処理の要否を示す回答情報を、携帯端末UTから通信I/F部4を介して受信し、受信された上記回答情報と、上記教材モデルから抽出される特徴量とをもとに学習モデルを作成する処理を行う。
バイタルデータ取得処理部12は、ユーザUSのプレゼンテーション中に、上記ウェアラブル端末WTにより測定されたバイタルデータを携帯端末UTからネットワークNWを介して受信し、受信されたバイタルデータをユーザ状態判定処理部13に与える処理を行う。
ユーザ状態判定処理部13は、上記バイタルデータ取得処理部12から与えられた上記バイタルデータを、判定条件記憶部32に記憶されている第1の判定条件と比較することにより、ユーザUSの心理状態、例えば緊張度の増加や集中度の低下により不安定になった状態を判定する処理を行う。なお、ユーザUSの心理状態の判定は、予め心理状態判定用の学習モデルを作成しておき、この学習モデルを用いて行われるようにしてもよい。
映像データ取得処理部14は、上記ユーザ状態判定処理部13により、ユーザの緊張度または集中度が第1の判定条件により示される範囲に該当すると判定された場合に、スマートグラスSGにより撮像された聴衆の映像データを携帯端末UTからネットワークNWを介して受信し、受信された上記聴衆の映像データをマスク対象判定処理部15に与える処理を行う。
マスク対象判定処理部15は、上記映像データ取得処理部14により取得された映像データから、ユーザUSに対する聴衆1人ひとりの注目状態を表す情報を取得する。例えば、マスク対象判定処理部15は、聴衆1人ひとりの顔画像、もしくは顔を含む上半身または全身の画像を認識し、認識された上記各聴衆の画像から顔の向き、視線方向または姿勢を表す情報を、ユーザUSに対する聴衆の注目状態を表す特徴量として抽出する。
またマスク対象判定処理部15は、抽出された上記特徴量を上記学習モデル記憶部31に記憶された学習モデルに入力し、学習モデルにより上記聴衆の1人ひとりについてマスク処理の対象であるか否かを判定する処理を行う。
マスキング処理部16は、マスク処理の対象と判定された聴衆の顔、顔を含む上半身または全身をマスクするためのマスクパターンをマスクパターン記憶部33から読み出すと共に、上記マスク処理の対象と判定された聴衆の撮像画像中における座標位置を求める。そして、上記マスクパターンおよび上記位置座標を含むマスキングデータを、通信I/F部4から携帯端末UTを介してスマートグラスSGに送信してマスク処理を実行させるための処理を行う。
(動作例)
次に、以上のように構成されたサーバ装置SVaの動作例を説明する。
(1)学習モデルの作成
サーバ装置SVaの制御部1aは、サービスの開始に先立ち学習モードを設定し、サービス対象のユーザUSについてマスク対象の聴衆を判定するための学習モデルを作成する。なお、学習モデルは、ユーザの個性に応じてユーザUSごとに作成されるのが好ましいが、複数のユーザUSに対し共通に作成されてもよい。
図4は、サーバ装置SVaの制御部1aによる学習モデル作成処理の処理手順と処理内容を示すフローチャートである。
サーバ装置SVaの制御部1aは、学習モデル作成処理部11の制御の下、先ずステップS10において学習モデル記憶部31から複数の教材モデルを順次読み出し、読み出された各教材モデルを通信I/F部4から携帯端末UTへ送信する。携帯端末UTは、受信された上記教材モデルを、ユーザUSが装着しているスマートグラスSGへ転送し、その画像表示部に表示させる。
ユーザUSは、スマートグラスSGに表示された上記教材モデルを見てマスク対象か否かを判断し、その判断結果を回答情報として携帯端末UTに入力する。携帯端末UTは、入力された上記回答情報をサーバ装置SVaへ送信する。
サーバ装置SVaの学習モデル作成処理部11は、ステップS11により上記ユーザUSから送信された回答情報を受信したことを確認すると、ステップS12において、受信された上記回答情報を送信した教材モデルと対応付けて保存する。
以後同様に、サーバ装置SVaから異なる教材モデルが順次送信されてユーザUSのスマートグラスSGに表示される。そして、表示された各教材モデルに対しユーザUSが携帯端末UTにおいて回答情報を入力すると、この回答情報が携帯端末UTからサーバ装置SVaに返送され、送信した教材モデルと対応付けられて保存される。
サーバ装置SVaの制御部1aは、ステップS13においてすべての教材モデルに対するユーザUSからの回答情報の取得が終了すると、引き続き学習モデル作成処理部11の制御の下、ステップS14においてマスク処理の対象となる教材モデルを分析してその特徴量を抽出する。特徴量としては、例えば性別、年代、顔の向きまたは視線方向、姿勢(腕組みをしている場合や乗り出すようにしている場合等の威圧的な姿勢)が挙げられる。
そして学習モデル作成処理部11は、ステップS15において、例えば、上記各特徴量を説明変数とし、マスク処理の対象であるか否かを表す判定結果を目的変数とする学習モデルを作成し、作成された上記学習モデルを学習モデル記憶部31に記憶させる。なお、特徴量を抽出する前の教材モデルをそのまま説明変数とし、学習モデルが上記教材モデルから特徴量を抽出する機能を持つようにしてもよい。また、学習アルゴリズムとしては、例えばロジスティック回帰分析や重回帰分析、教師付ニューラルネットワーク等の既存の学習アルゴリズムを使用することができる。
(2)プレゼンテーションの支援
上記学習モデルの作成が終了し、ユーザUSがプレゼンテーションの開始要求を携帯端末UTにおいて入力し、この開始要求が携帯端末UTからサーバ装置SVaに通知されると、サーバ装置SVaの制御部1aはプレゼンテーションモードを設定する。そして、以下の手順に従いユーザUSのプレゼンテーションを支援する処理を実行する。
図5は、サーバ装置SVaの制御部1aによるプレゼンテーション支援処理の処理手順と処理内容を示すフローチャートである。
(2-1)ユーザUSの心理状態の判定
サーバ装置SVaの制御部1aは、ステップS20において上記プレゼンテーションの開始要求を受信すると、バイタルデータ取得処理部12の制御の下、ステップS21においてユーザUSのバイタルデータを取得する。バイタルデータは、プレゼンテーション中のユーザUSのウェアラブル端末WTにより測定され、このウェアラブル端末WTから携帯端末UTを介してサーバ装置SVaに送られる。なお、スマートグラスSGにおいて、ユーザUSの頭部の動揺や瞬きや震え等のような、ユーザUSの心理状態が反映された動きデータが得られる場合、バイタルデータ取得処理部12は上記動きデータをバイタルデータの1つとして取得するようにしてもよい。
サーバ装置SVaの制御部1aは、続いてユーザ状態判定処理部13の制御の下、先ずステップS22において、所定の判定時間ごとに、取得された上記バイタルデータの平均値を求め、この平均値を判定条件記憶部32に記憶された第1の判定条件と比較する。このとき、判定対象のバイタルデータは、任意の1種類でもよいが複数種類を組合せたものであってもよい。ユーザ状態判定処理部13は、次にステップS23において、上記バイタルデータが第1の判定条件に示される範囲に該当するか否かを判定する。この判定の結果、バイタルデータが第1の判定条件に示される範囲に該当しなければ、ユーザ状態判定処理部13は、ユーザUSの心理状態は平常状態であると判断し、そのままステップS31によるプレゼンテーションの終了判定に移行する。
これに対し、上記ステップS23による判定の結果、バイタルデータが第1の判定条件に示される範囲に該当したとする。この場合、ユーザ状態判定処理部13は、ユーザUSの心理状態が不安定な状態、例えば緊張度が過度に高くなっていると判断し、聴衆に対するマスク判定処理を実行する。
なお、以上の説明では、第1の判定条件を判定条件記憶部32に事前に記憶したものとして説明した。しかし、これに限らず、プレゼンテーションの開始前の一定期間分のユーザUSのバイタルデータを平常状態のときのバイタルデータとして取得し、取得された上記バイタルデータの平均値を上記第1の判定条件として判定条件記憶部32に記憶するようにしてもよい。このようにすると、プレゼンテーション期間中のユーザUSのバイタルデータの変化、つまりユーザUSの心理状態の変化を、より的確に判定することが可能となる。
(2-2)聴衆に対するマスク判定処理
サーバ装置SVaの制御部1aは、先ずステップS24において、映像データ取得処理部14の制御の下、聴衆の様子を撮像した映像データを取得する。上記映像データは、スマートグラスSGに設けられたカメラにより撮像され、このスマートグラスSGから携帯端末UTを介してサーバ装置SVaに送られる。
上記聴衆を撮像した映像データが取得されると、サーバ装置SVaの制御部1aは、次にマスク対象判定処理部15の制御の下、先ずステップS25において上記映像データから聴衆を1人ひとり認識してその画像を分離する。そして、マスク対象判定処理部15は、続いてステップS26において、分離された上記聴衆の1人ひとりの画像からその特徴量を抽出する。このとき、特徴量としては、先に述べた学習モデル作成時と同様に、聴衆の性別、年代、顔の向きまたは視線方向、表情または姿勢を表す情報が抽出される。
なお、性別および年代は、例えば、性別および年代別にその特徴を有する複数の代表的な顔パターンを予めデータ記憶部3aに記憶しておき、各聴衆の顔画像をそれぞれ上記複数の代表的な顔パターンと照合することにより判別可能である。また、顔の向きおよび姿勢についても、例えば、撮像角度の異なる複数の代表的な顔向きパターンおよび姿勢パターンを予め記憶しておき、各聴衆の顔画像をそれぞれ上記複数の代表的な顔向きパターンおよび姿勢パターンと照合することにより判別可能である。さらに、表情については、聴衆の顔画像を、例えば笑っているときや睨んでいるとき等の代表的な表情のパターンと照合することで判別可能である。一方、視線については、例えば、映像データから聴衆ごとにその目の領域における眼球(例えば瞳孔)の位置を検出することで判別可能である。
なお、上記特徴量の抽出処理は、専用の学習モデルを事前に作成しておき、作成された当該学習モデルを用いて実行するようにしてもよい。
マスク対象判定処理部15は、次にステップS27において、学習モデル記憶部31から学習モデルを読み出し、抽出された上記各特徴量を上記学習モデルに入力する。そして、マスク対象判定処理部15は、学習モデルから出力される判定結果を示す情報をもとに、ステップS28において、マスク処理の対象とする聴衆を特定する。この結果、例えば顔または視線を一定期間以上連続してユーザUSに向けている聴衆や、腕組みをしたりユーザUSの方に乗り出すようにして、ユーザUSに対し心理的に過度の緊張感または威圧感を一定期間以上連続してユーザUSに与えている聴衆が、マスク処理の対象として特定される。マスク対象判定処理部15は、特定された上記マスク処理対象の聴衆の、上記取得された映像データ中の位置座標を求め、この位置座標をマスキング処理部16に渡す。
(2-3)マスキング処理
上記マスク処理の対象となる聴衆が特定されると、サーバ装置SVaの制御部1aは、マスキング処理部16の制御の下、ステップS29によりマスクパターンを読み出す。そして、ステップS30において、上記マスク対象判定処理部15から渡された、マスク処理の対象となる聴衆の映像データ中の位置座標と、読み出された上記マスクパターンとを含むマスキングデータを生成し、生成されたマスキングデータを通信I/F部4から携帯端末UTに向け送信する。
携帯端末UTは、上記マスキングデータを受信すると、受信されたマスキングデータをスマートグラスSGへ転送する。この結果、スマートグラスSGの画像表示部には上記マスクパターンが表示され、これによりユーザUSに対し過度の緊張感または威圧感を与えている聴衆の顔がマスクされる。
図8はその一例を示すものである。この例では、例えばプレゼンテーションに参加している複数の聴衆のうち、ユーザUSに対し過度の緊張感または威圧感を与えている聴衆PS1,PS2,PS3の顔部分がマスクされた場合を示している。なお、聴衆のマスク対象部位は、顔だけに限らず、顔を含む上半身または全身であってもよく、さらには聴衆の目の部位だけでもよい。またマスクパターンは、塗りつぶしパターンに限らず、モザイク模様やぼかしを加えるものであってもよく、イラスト等の別の画像に置き換えるものであってもよい。
(2-4)マスク処理後の対応
サーバ装置SVaの制御部1aは、上記マスキングデータの送信が終了すると、ステップS31においてプレゼンテーションの終了判定を行う。そして、プレゼンテーションが続いていれば、ステップS21に戻ってステップS21~S30によるプレゼンテーション支援処理を繰り返し実行する。
従って、サーバ装置SVaの制御部1aは、上記マスク処理後においても引き続きユーザUSの心理状態を監視する。そして、ユーザの心理状態が引き続き不安定な状態であれば、ユーザに影響を及ぼす聴衆に対するマスク処理が継続される。なお、ユーザの心理状態が、例えば一定期間以上連続して安定な状態になった場合には、マスク処理を一旦解除するようにしてもよい。
一方、プレゼンテーションが終了してユーザUSが携帯端末UTにおいて終了指示を入力すると、サーバ装置SVaの制御部1aは、ユーザUSに対するプレゼンテーション支援処理を終了する。
(3)その他のマスク処理例
なお、以上の説明では、ユーザUSに対し過度の緊張感または威圧感を与えている聴衆をマスクするネガティブモードの場合を例にとって説明した。しかし、その一方でユーザUSは、例えば聴衆の居眠りや無表情等といった無関心な受講態度が見られる場合、自身のプレゼンテーションに対し不安感を覚えたり、集中度が低下することも想定される。
そこで、サーバ装置SVaは、ユーザUSが集中度を低下させる原因となる聴衆の表情や態度を表す特徴量を聴衆の映像データから抽出して学習モデルに入力し、これにより上記集中度を低下させる原因となる聴衆をマスク処理の対象として特定し、特定された聴衆の顔、顔を含む上半身または全身をマスクパターンによりマスクする、ポジティブモードによるマスク処理を実行するようにしてもよい。
例えば、サーバ装置SVaは、聴衆のユーザに対する注目状態が反映された視線等のセンシング情報に基づいて、上記聴衆のうち、居眠り等により上記ユーザに対し注目状態を一定期間以上継続していない聴衆をマスク処理の対象と判定する。そして、この判定結果に基づいて、上記マスク処理の対象と判定された上記聴衆の顔、顔を含む上半身または全身をマスクパターンによりマスクする。
なお、このときマスク対象部位は、聴衆の目の部位だけでもよく、またマスクパターンは塗りつぶしパターンに限らず、モザイク模様やぼかしを加えるもの、イラスト等の別の画像に置き換えるものであってもよい。
このようにすると、ユーザに不安感を生じさせたりプレゼンテーションへの集中度の低下の原因となる聴衆がマスクされることになり、これによりユーザUSのプレゼンテーションに対する不安感を解消すると共に、集中度を適度に維持させることが可能となる。
(作用・効果)
以上述べたように第1の実施形態では、サーバ装置SVaが、ユーザUSのプレゼンテーション中に、ユーザUSのバイタルデータを取得して、このバイタルデータをもとにユーザUSの心理状態を判定する。そして、ユーザUSの心理状態が過度の緊張または集中度の低下により不安定な状態にあると判定された場合に、聴衆を撮像した映像データを取得して、この映像データをもとに聴衆1人ひとりの特徴量を抽出し、抽出された特徴量を学習モデルに入力することでマスク処理対象の聴衆を特定する。そして、特定された上記マスク処理対象の聴衆の上記映像データ中の位置座標とマスクパターンとを含むマスキングデータを、携帯端末UTを介してスマートグラスSGに送り、スマートグラスSGにおいて該当する聴衆をマスクパターンによりマスクするようにしている。
従って、例えばプレゼンテーション中にユーザUSが、聴衆の視線或いは威圧的な姿勢により極度に緊張した場合や、聴衆の居眠りや態度により不安感を覚えたり集中度が低下した場合に、緊張が増加する原因となる聴衆、または集中度が低下する原因となる聴衆が視界からマスクされる。このため、ユーザUSに生じた過度の緊張や集中度の低下は軽減され、これによりユーザUSの心理状態は改善されてプレゼンテーションを継続することが可能となる。
[第2の実施形態]
この発明の第2の実施形態は、プレゼンテーション中のユーザUSについて、その心理状態にかかわらず、ユーザUSがマスク対象として事前に設定した特徴を有する聴衆に対しマスク処理を行い、この状態でユーザUSの心理状態を判定して心理状態が不安定な場合に、上記マスク対象の聴衆に対するマスク処理を変更し、このマスク処理の変更後もユーザUSの心理状態が改善されない場合には他の外的な追加対策を実行するようにしたものである。
(構成例)
図6は、この発明の第2の実施形態に係るユーザ装置として機能するサーバ装置SVbのソフトウェア構成を示すブロック図である。
なお、サーバ装置SVbのハードウェア構成は第1の実施形態(図2)と同一なので、ここでは説明を省略する。また、サーバ装置SVbの制御部1bが備える各処理部およびデータ記憶部3bが備える各記憶部についても、第1の実施形態(図3)と同一部分には同一符号を付し、詳しい説明は省略する。
サーバ装置SVbのデータ記憶部3bには、この発明の第2の実施形態を実施するために必要な主たる記憶領域として、学習モデル記憶部31と、判定条件記憶部32と、マスクパターン記憶部33に加え、追加対策情報記憶部34が設けられている。
このうち判定条件記憶部32には第2の判定条件が記憶される。第2の判定条件としては、例えばユーザの心理状態が過度の緊張または集中度の低下により不安定な状態になったときのバイタルデータの範囲と、ユーザの心理状態が上記不安定な状態になっているときの継続期間または判定回数を表す情報が用いられる。
追加対策情報記憶部34には、マスク処理によりユーザUSの心理状態が改善されない場合に備え、外的な追加対策を実施するために必要な情報が記憶されている。追加対策情報としては、例えば自然音や好みの音楽などのリラックス効果がある音楽または音を流すための情報、呼吸方法や飲水、首や肩などを動かすといった、リラックス効果のある動きまたは行動を奨めるレクチャ情報、ハーブや香水などのアロマ材料を発生させるための情報が考えられる。
なお、ユーザUSの状態がプレゼンテーションを継続不能な危険状態に陥った場合に備え、ユーザUSに中止を奨めたり、他のスタッフにこのときのユーザUSの状態を通知するための情報や、救急車両の手配を行うための情報が、上記追加対策情報にさらに含まれていてもよい。
サーバ装置SVbの制御部1bは、この発明の第2の実施形態に係る処理機能として、学習モデル作成処理部11と、バイタルデータ取得処理部12と、ユーザ状態判定処理部13と、映像データ取得処理部14と、マスク対象判定処理部15と、マスキング処理部16に加え、対策追加制御処理部17をさらに備えている。この対策追加制御処理部17も、他の各処理部11~16と同様に、プログラム記憶部2bに格納されたアプリケーション・プログラムを制御部1bのハードウェアプロセッサに実行させることにより実現される。
第2の実施形態におけるユーザ状態判定処理部13は、マスク処理後に取得されたバイタルデータを第2の判定条件と比較する。そしてユーザ状態判定処理部13は、上記バイタルデータの値が、ユーザUSの心理状態が不安定な状態になったときのバイタルデータの範囲に該当するか否かを判定し、該当する場合にはこの状態が一定期間以上継続したか、或いは判定回数が所定回数に達したか否かを判定する。
対策追加制御処理部17は、聴衆に対するマスク処理後にユーザUSの心理状態が上記第2の判定条件に該当する状態になった場合に、追加対策が必要と判定して追加対策処理を実行する。追加対策としては、例えばマスクパターンの変更と、その他の外的対策の実行が用いられる。
(動作例)
次に、以上のように構成されたサーバ装置SVbの動作例を説明する。
図7は、サーバ装置SVbの制御部1bにより実行されるプレゼンテーション支援処理の処理手順と処理内容の一例を示すフローチャートである。なお、学習モデルの作成処理の一例については、第1の実施形態と同一なので、ここでの説明は省略する。
(1)プレゼンテーションの支援
(1-1)聴衆に対するマスク判定処理
プレゼンテーションの開始要求をステップS40で受信すると、サーバ装置SVbの制御部1bは、先ずステップS41において、映像データ取得処理部14の制御の下、聴衆の様子を撮像した映像データを取得する。上記映像データは、スマートグラスSGに設けられたカメラにより撮像され、このスマートグラスSGから携帯端末UTを介してサーバ装置SVaに送られる。
上記聴衆を撮像した映像データが取得されると、サーバ装置SVbの制御部1bは、次にマスク対象判定処理部15の制御の下、先ずステップS42において上記映像データから聴衆を1人ひとり認識してその画像を分離する。そして、マスク対象判定処理部15は、続いてステップS43において、分離された上記聴衆の1人ひとりの画像からその特徴量を抽出する。このとき、特徴量としては、先に述べた学習モデル作成時と同様に、聴衆の性別、年代、顔の向きまたは視線方向、姿勢を表す情報が抽出される。
マスク対象判定処理部15は、次にステップS44において、学習モデル記憶部31から学習モデルを読み出し、抽出された上記各特徴量を上記学習モデルに入力する。そして、マスク対象判定処理部15は、学習モデルから出力される判定結果を示す情報をもとに、ステップS45において、マスク処理の対象とする聴衆を特定する。この結果、例えば顔または視線を一定期間以上連続してユーザUSに向けている聴衆や、腕組みをしたりユーザUSの方に乗り出すようにしてユーザUSに過度の緊張感または威圧感を与えている聴衆が、マスク処理の対象として特定される。マスク対象判定処理部15は、特定された上記マスク処理対象の聴衆の、上記取得された映像データ中の位置座標を求め、この位置座標をマスキング処理部16に渡す。
(1-2)マスキング処理
上記マスク処理の対象となる聴衆が特定されると、サーバ装置SVbの制御部1bは、マスキング処理部16の制御の下、ステップS46によりマスクパターンを読み出す。そして、ステップS47において、上記マスク対象判定処理部15から渡された、マスク処理の対象となる聴衆の映像データ中の位置座標と、読み出された上記マスクパターンとを含むマスキングデータを生成し、生成されたマスキングデータを通信I/F部4から携帯端末UTに向け送信する。
携帯端末UTは、上記マスキングデータを受信すると、受信されたマスキングデータをスマートグラスSGへ転送する。この結果、スマートグラスSGの画像表示部には上記マスクパターンが表示され、これによりユーザUSに対し過度の緊張感または威圧感を与えている聴衆の顔がマスクされる。
すなわち、この例では、ユーザUSの心理状態にかかわらず、先ずユーザに対し過度の緊張感または威圧感を与えている聴衆がマスク処理される。
(1-3)マスク処理後のユーザUSの心理状態の判定
上記聴衆に対するマスク処理が終了すると、サーバ装置SVbの制御部1bは、次にステップS48において、バイタルデータ取得処理部12の制御の下、ユーザUSのバイタルデータを取得する。バイタルデータは、プレゼンテーション中のユーザUSのウェアラブル端末WTにより測定され、このウェアラブル端末WTから携帯端末UTを介してサーバ装置SVbに送られる。
サーバ装置SVbの制御部1bは、続いてユーザ状態判定処理部13の制御の下、ステップS49において、取得された上記バイタルデータの所定期間の平均値を求め、この平均値を判定条件記憶部32に記憶された第2の判定条件と比較する。このとき、判定対象のバイタルデータは、任意の1種類でもよいが複数種類を組合せたものであってもよい。ユーザ状態判定処理部13は、次にステップS50において、上記バイタルデータが第2の判定条件に示される範囲に該当するか否かを判定する。この判定の結果、バイタルデータが第2の判定条件に該当しなければ、ユーザ状態判定処理部13はユーザUSの心理状態が平常状態を維持していると判断し、そのままステップS54によるプレゼンテーションの終了判定に移行する。
なお、上記第2の判定条件は、判定条件記憶部32に予め記憶しておいたもの以外に、例えばプレゼンテーションの開始前の一定期間分のユーザUSのバイタルデータを平常状態のときのバイタルデータとして取得し、取得された上記バイタルデータの平均値を上記第2の判定条件として、判定条件記憶部32に記憶したものであってもよい。
(1-4)マスクパターンの変更
これに対し、上記バイタルデータが第2の判定条件に該当したとする。すなわち、ユーザUSの心理状態が、例えば過度の緊張により不安定な状態になり、かつこの状態が一定期間継続していると判定されたとする。この場合、サーバ装置SVbの制御部1bは、対策追加制御処理部17の制御の下、ステップS51においてマスクパターンの変更処理が実行済か否かを判定する。そして、まだ変更していなければ、対策追加制御処理部17はステップS52に移行して、マスキング処理部16に対しマスクパターンの変更を指示する。
上記変更指示を受けてマスキング処理部16は、マスクパターン記憶部33から未使用のマスクパターンを読み出し、この未使用のマスクパターンを含むマスキングデータを携帯端末UTを経由してスマートグラスSGへ送信する。この結果、スマートグラスSGに表示されているマスクパターンが新たなものに変更される。
例えば、網掛けを用いた単純なマスクパターンから、ユーザUSが好きなキャラクタ画像を用いたマスクパターンに変更される。或いは、聴衆の顔だけをマスクするマスクパターンから、聴衆の上半身または全身をマスクするマスクパターンに変更される。
(1-5)他の外的対策の実施
一方、上記ステップS52においてマスクパターンは変更済みと判定されたとする。この場合、対策追加制御処理部17はステップS53に移行し、追加対策情報記憶部34から追加対策情報を読み出して、この追加対策情報に従いその他の外的追加対策を実行する。外的追加対策としては、以下のような対策が考えられる。
例えば、スマートグラスSGにイヤホンが設けられている場合には、自然音や好みの音楽などのリラックス効果がある音楽または音を、サーバ装置SVbから携帯端末UTを経由して上記スマートグラスSGに送り、そのイヤホンから出力させる。この場合、サーバ装置SVbから携帯端末UTに対し上記音楽または音の再生指示情報を送り、携帯端末UTが上記指示情報により指定された音楽または音を再生してユーザUSのイヤホンから出力させるようにしてもよい。
また、例えば呼吸方法や飲水、首や肩などを動かすといった、リラックス効果のある動きまたは行動を奨めるレクチャ情報を、サーバ装置SVbから携帯端末UTに対し送信し、スマートグラスSGの画像表示部に表示させるようにしてもよい。この場合、例えば携帯端末UTのバイブレータまたはユーザUSが所持するマッサージャを振動させるようにしてもよい。
さらに、例えばユーザUSがディフューザを所持または用意している場合には、サーバ装置SVbから携帯端末UTにハーブや香水などのアロマ材料を発生させるための指示情報を送信し、この指示情報に基づいてディフューザからハーブや香水などのアロマ材料を発生させるようにしてもよい。
その他、ユーザUSのバイタルデータが予め設定された危険状態に相当する値になった場合には、サーバ装置SVbから携帯端末UTを経由してスマートグラスSGにプレゼンテーションの中止指示を送信し、これによりスマートグラスSGの画像表示部に中止を奨めるメッセージを表示させるようにしてもよい。この場合、予め登録した他のスタッフの携帯端末にユーザUSの状態を通知したり、場合によっては救急車両の手配を要請する指示メッセージを送るようにしてもよい。
(作用・効果)
以上述べたように第2の実施形態では、プレゼンテーション中のユーザUSについて、先ずユーザUSがマスク対象として事前に設定した特徴を有する聴衆に対しマスク処理を実行し、この状態でユーザUSの心理状態を判定して心理状態が不安定な状態であれば、上記マスク対象の聴衆に対するマスク処理を変更し、変更後もユーザUSの心理状態が改善されない場合には他の外的な追加対策を実行するようにしている。
従って、ユーザUSの心理状態が不安定な状態になる前に聴衆に対するマスク処理が行われることになり、これによりユーザの緊張を未然に防止することが可能となる。さらに、マスク処理を行っていても、ユーザUSの心理状態が不安定であれば、マスクパターンの変更処理と、外的な追加対策が段階的に実行される。このため、ユーザUSの心理状態が不安定な状態が長期間続かないようにすることが可能となる。
[その他の実施形態]
前記第1の実施形態においても、前記第2の実施形態と同様に、マスク処理後のユーザUSの心理状態の変化に応じて、マスクパターンの変更処理および外的な追加対策を実行するようにしてもよい。
前記第2の実施形態において、マスク処理後またはマスク変更処理後のユーザUSの心理状態の判定結果を学習モデル作成処理部11にフィードバックし、これにより学習モデル作成処理部11に学習モデルを再学習させるようにしてもよい。
前記第1および第2の実施形態では、いずれもユーザ行動支援装置の全機能をサーバ装置SVa,SVbに設けた場合を例にとって説明したが、上記機能の一部または全てを携帯端末UTまたはスマートグラスSGに設けるようにしてもよい。
前記第1および第2の実施形態では、例えばユーザUSが会議や講演会等においてプレゼンテーションを行う場合を例にとって説明した。しかし、これに限らず、例えばユーザUSが野外において演説や商品説明等を行う場合にも、この発明は同様に適用可能である。図9は、野外おいて視線等が気になる聴衆PS4に対しマスク処理を行った場合を例示した図である。
その他、ユーザ行動支援装置の構成や機能、処理手順と処理内容、マスクパターンの種類、ユーザの心理状態の判定に用いるセンシングデータの種類や数、外的な追加対策の種類等については、この発明の要旨を逸脱しない範囲で種々変形して実施できる。
以上、この発明の各実施形態を詳細に説明してきたが、前述までの説明はあらゆる点においてこの発明の例示に過ぎない。この発明の範囲を逸脱することなく種々の改良や変形を行うことができることは言うまでもない。つまり、この発明の実施にあたって、実施形態に応じた具体的構成が適宜採用されてもよい。
要するにこの発明は、上記各実施形態そのままに限定されるものではなく、実施段階ではその要旨を逸脱しない範囲で構成要素を変形して具体化できる。また、上記各実施形態に開示されている複数の構成要素の適宜な組み合せにより種々の発明を形成できる。例えば、実施形態に示される全構成要素から幾つかの構成要素を削除してもよい。さらに、異なる実施形態に亘る構成要素を適宜組み合せてもよい。
SVa,SVb…サーバ装置
UT…携帯端末
SG…スマートグラス
WT…ウェアラブル端末
NW…ネットワーク
1a,1b…制御部
2a,2b…プログラム記憶部
3a,3b…データ記憶部
4…通信I/F部
5…バス
11…学習モデル作成処理部
12…バイタルデータ取得処理部
13…ユーザ状態判定処理部
14…映像データ取得処理部
15…マスク対象判定処理部
16…マスキング処理部
17…対策追加制御処理部
31…学習モデル記憶部
32…判定条件記憶部
33…マスクパターン記憶部
34…追加対策情報記憶部

Claims (11)

  1. ユーザが複数の聴衆と対面する状態で情報を伝達する行動を支援するユーザ行動支援装置であって、
    前記ユーザの心理状態が反映された第1のセンシング情報を取得する第1の取得処理部と、
    前記聴衆を含む前記ユーザの視野範囲に相当する撮像映像をもとに、前記聴衆の前記ユーザに対する注目状態が反映された第2のセンシング情報を取得する第2の取得処理部と、
    取得された前記第1のセンシング情報に基づいて、前記ユーザの心理状態が前記聴衆からの影響に対する制御が必要であるか否かを判定するユーザ状態判定処理部と、
    取得された前記第2のセンシング情報に基づいて、マスク処理の対象となる聴衆を判定するマスク対象判定処理部と、
    前記ユーザ状態判定処理部の判定結果および前記マスク対象判定処理部の判定結果に基づいて、前記マスク処理の対象と判定された前記聴衆に対し選択的に前記マスク処理を行うための制御を実行するマスキング処理部と
    を具備するユーザ行動支援装置。
  2. 前記マスク対象判定処理部は、前記ユーザ状態判定処理部により前記ユーザの心理状態が前記聴衆からの影響に対する制御が必要であると判定された場合に、前記第2のセンシング情報に基づいて前記マスク処理の対象となる聴衆を判定し、
    前記マスキング処理部は、前記マスク対象判定処理部により前記マスク処理の対象と判定された前記聴衆に対し選択的に前記マスク処理を行うための制御を実行する、
    請求項1に記載のユーザ行動支援装置。
  3. 前記マスキング処理部は、
    前記マスク対象判定処理部により前記マスク処理の対象と判定された前記聴衆に対し選択的に前記マスク処理を行うための制御を実行する処理部と、
    前記マスク処理が行われた状態で、前記ユーザ状態判定処理部の前記判定結果に基づいて前記マスク処理の維持または変更を行うための制御を実行する処理部と
    を備える、請求項1に記載のユーザ行動支援装置。
  4. 前記マスク対象判定処理部は、前記第2のセンシング情報に基づいて、前記聴衆のうち前記ユーザに対し前記注目状態を一定期間以上継続している聴衆を前記マスク処理の対象と判定する、請求項1に記載のユーザ行動支援装置。
  5. 前記マスク対象判定処理部は、前記第2のセンシング情報に基づいて、前記聴衆のうち前記ユーザに対し前記注目状態を一定期間以上継続していない聴衆を前記マスク処理の対象と判定する、請求項1に記載のユーザ行動支援装置。
  6. 前記第2の取得処理部は、前記第2のセンシング情報として、前記聴衆の前記ユーザに対する顔の向きまたは視線の方向を表す情報と、前記聴衆の前記ユーザに対する表情または姿勢を表す情報との少なくとも一方を取得する、請求項1に記載のユーザ行動支援装置。
  7. 前記マスキング処理部は、前記マスク処理の対象と判定された前記聴衆の視認領域を予め用意された代替画像に置換するための制御を実行する、請求項1に記載のユーザ行動支援装置。
  8. 前記マスク処理が行われた状態で、前記ユーザ状態判定処理部の前記判定結果に基づいて、前記ユーザの心理状態が予め設定された平常状態に改善したか否かを判定し、前記ユーザの心理状態が前記平常状態に改善しないと判定された場合に、前記ユーザに対し前記心理状態を前記平常状態に改善させるための追加対策に係る制御を実行する対策追加制御処理部をさらに具備する、請求項1に記載のユーザ行動支援装置。
  9. 前記対策追加制御処理部は、前記追加対策として、前記ユーザの前記心理状態をリラックスさせるための音、香料、振動およびメッセージの少なくとも1つを前記ユーザに向け出力する、請求項8に記載のユーザ行動支援装置。
  10. ユーザが複数の聴衆と対面する状態で情報を伝達する行動を支援する機能を有する情報処理装置が実行するユーザ行動支援方法であって、
    前記ユーザの心理状態が反映された第1のセンシング情報を取得する過程と、
    前記聴衆を含む前記ユーザの視野範囲に相当する撮像映像をもとに、前記聴衆の前記ユーザに対する注目状態が反映された第2のセンシング情報を取得する過程と、
    取得された前記第1のセンシング情報に基づいて、前記ユーザの心理状態が前記聴衆からの影響に対する制御が必要であるか否かを判定するユーザ状態判定過程と、
    取得された前記第2のセンシング情報に基づいて、マスク処理の対象となる聴衆を判定するマスク対象判定過程と、
    前記ユーザ状態判定過程の判定結果および前記マスク対象判定過程の判定結果に基づいて、前記マスク処理の対象と判定された前記聴衆に対し選択的に前記マスク処理を行うための制御を実行する過程と
    を具備するユーザ行動支援方法。
  11. 請求項1乃至9のいずれかに記載のユーザ行動支援装置が具備する前記各処理部による処理を、前記ユーザ行動支援装置が備えるプロセッサに実行させるプログラム。
JP2021143051A 2021-09-02 2021-09-02 ユーザ行動支援装置、方法およびプログラム Active JP7279121B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2021143051A JP7279121B2 (ja) 2021-09-02 2021-09-02 ユーザ行動支援装置、方法およびプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021143051A JP7279121B2 (ja) 2021-09-02 2021-09-02 ユーザ行動支援装置、方法およびプログラム

Publications (2)

Publication Number Publication Date
JP2023036171A true JP2023036171A (ja) 2023-03-14
JP7279121B2 JP7279121B2 (ja) 2023-05-22

Family

ID=85508537

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021143051A Active JP7279121B2 (ja) 2021-09-02 2021-09-02 ユーザ行動支援装置、方法およびプログラム

Country Status (1)

Country Link
JP (1) JP7279121B2 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2024070201A1 (ja) * 2022-09-27 2024-04-04 株式会社Jvcケンウッド ヘッドマウントディスプレイ、ヘッドマウントディスプレイの制御方法、およびプログラム

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
葛西 響子 他3名: "コウテイカボチャ:聴衆に肯定的な反応を重畳する発表時緊張感緩和手法", 情報処理学会研究報告ヒューマンコンピュータインタラクション, vol. 2014巻8号, JPN6022046406, 7 October 2014 (2014-10-07), JP, pages 1 - 8, ISSN: 0004910726 *

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2024070201A1 (ja) * 2022-09-27 2024-04-04 株式会社Jvcケンウッド ヘッドマウントディスプレイ、ヘッドマウントディスプレイの制御方法、およびプログラム

Also Published As

Publication number Publication date
JP7279121B2 (ja) 2023-05-22

Similar Documents

Publication Publication Date Title
US11568643B2 (en) Automatic control of wearable display device based on external conditions
US20220270316A1 (en) Avatar customization for optimal gaze discrimination
JP2022008583A (ja) 反射を利用する拡張現実システムおよび方法
KR20190027354A (ko) 비전 성능 데이터를 획득, 분석 및 생성하고 비전 성능 데이터에 기반하여 미디어를 수정하기 위한 방법 및 시스템
IL264217A (en) A system control technique for creating a virtual character through the use of a user's emotional states
US11782508B2 (en) Creation of optimal working, learning, and resting environments on electronic devices
JP7279121B2 (ja) ユーザ行動支援装置、方法およびプログラム
CN116368529A (zh) 基于当前用户外观的用户的表示
JP7131542B2 (ja) 情報処理装置、情報処理方法およびプログラム
WO2023137087A1 (en) Optimization on an input sensor based on sensor data
EP4161387B1 (en) Sound-based attentive state assessment
JP6713526B1 (ja) Vdt症候群及び繊維筋痛症の改善
US20240115831A1 (en) Enhanced meditation experience based on bio-feedback
US20240164672A1 (en) Stress detection
US20230288985A1 (en) Adjusting image content to improve user experience
US20230259203A1 (en) Eye-gaze based biofeedback
US20230418372A1 (en) Gaze behavior detection
Tran Design and evaluation of techniques to improve user comfort during prolonged use of virtual reality.
JP2024046864A (ja) 情報処理装置および恐怖症改善支援方法
JP2024046867A (ja) 情報処理装置および恐怖症改善支援方法
JP2024046865A (ja) 情報処理装置および恐怖症改善支援方法
JP2024046866A (ja) 情報処理装置および恐怖症改善支援方法
WO2024058986A1 (en) User feedback based on retention prediction
JP2024041678A (ja) 生体活動量に応じてユーザの視界を制御するデバイス、プログラム及び表示方法
WO2022212070A1 (en) Attention detection

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210902

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20220131

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20221101

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221220

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20230113

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230411

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230510

R150 Certificate of patent or registration of utility model

Ref document number: 7279121

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150