JP7289169B1 - 情報処理装置、方法、プログラム、およびシステム - Google Patents
情報処理装置、方法、プログラム、およびシステム Download PDFInfo
- Publication number
- JP7289169B1 JP7289169B1 JP2022205193A JP2022205193A JP7289169B1 JP 7289169 B1 JP7289169 B1 JP 7289169B1 JP 2022205193 A JP2022205193 A JP 2022205193A JP 2022205193 A JP2022205193 A JP 2022205193A JP 7289169 B1 JP7289169 B1 JP 7289169B1
- Authority
- JP
- Japan
- Prior art keywords
- user
- information
- client device
- screen
- additional information
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 81
- 230000010365 information processing Effects 0.000 title claims description 25
- 230000008569 process Effects 0.000 claims abstract description 69
- 230000006870 function Effects 0.000 claims abstract description 9
- 230000009471 action Effects 0.000 claims description 32
- 230000004044 response Effects 0.000 claims description 14
- 230000004424 eye movement Effects 0.000 claims description 12
- 230000003993 interaction Effects 0.000 claims description 2
- 230000033001 locomotion Effects 0.000 abstract description 19
- 210000001508 eye Anatomy 0.000 abstract description 4
- 238000012360 testing method Methods 0.000 description 149
- 238000005259 measurement Methods 0.000 description 27
- 238000012545 processing Methods 0.000 description 17
- 230000006399 behavior Effects 0.000 description 16
- 238000010586 diagram Methods 0.000 description 12
- 238000004891 communication Methods 0.000 description 9
- 230000005540 biological transmission Effects 0.000 description 7
- 230000008859 change Effects 0.000 description 6
- 230000008921 facial expression Effects 0.000 description 6
- 238000001514 detection method Methods 0.000 description 4
- 230000008451 emotion Effects 0.000 description 4
- 238000005516 engineering process Methods 0.000 description 3
- 230000007704 transition Effects 0.000 description 3
- 230000003213 activating effect Effects 0.000 description 2
- 230000003190 augmentative effect Effects 0.000 description 2
- 210000005252 bulbus oculi Anatomy 0.000 description 2
- 239000000463 material Substances 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 230000004434 saccadic eye movement Effects 0.000 description 2
- 230000001133 acceleration Effects 0.000 description 1
- 238000012790 confirmation Methods 0.000 description 1
- 239000000470 constituent Substances 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000000691 measurement method Methods 0.000 description 1
- 230000001953 sensory effect Effects 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Landscapes
- User Interface Of Digital Computer (AREA)
Abstract
Description
情報処理システムの構成について説明する。図1は、本実施形態の情報処理システムの構成を示すブロック図である。
クライアント装置10及びサーバ30は、ネットワーク(例えば、インターネット又はイントラネット)NWを介して接続される。
クライアント装置の構成について説明する。図2は、本実施形態のクライアント装置の構成を示すブロック図である。
・OS(Operating System)のプログラム
・情報処理を実行するアプリケーション(例えば、ウェブブラウザ)のプログラム
・情報処理において参照されるデータベース
・情報処理を実行することによって得られるデータ(つまり、情報処理の実行結果)
・CPU(Central Processing Unit)
・GPU(Graphic Processing Unit)
・ASIC(Application Specific Integrated Circuit)
・FPGA(Field Programmable Array)
センサは、加速度センサ、地磁気センサ、位置センサ、またはそれらの組み合わせを含むことができるが、これらに限定されない。
出力デバイスは、例えば、ディスプレイ21、スピーカ、アクチュエータ、又は、それらの組合せである。
サーバの構成について説明する。図3は、本実施形態のサーバの構成を示すブロック図である。
・OSのプログラム
・情報処理を実行するアプリケーションのプログラム
・情報処理において参照されるデータベース
・情報処理の実行結果
・CPU
・GPU
・ASIC
・FPGA
入力デバイスは、例えば、キーボード、ポインティングデバイス、タッチパネル、又は、それらの組合せである。
出力デバイスは、例えば、ディスプレイである。
本実施形態の一態様について説明する。図4は、本実施形態の一態様の説明図である。
・ユーザU11を正面からカメラにより撮影した画像(例えばユーザの顔を含む画像)
・ユーザU11を周囲(正面以外の方向)からカメラにより撮影した画像(例えばユーザの手または足を含む画像)
・ユーザU11の周囲を撮影した画像
本実施形態のデータベースについて説明する。以下のデータベースは、記憶装置31に保存される。なお、データベースは、テーブル形式であるとして説明するが、形式は問わない。
本実施形態のテストデータベースについて説明する。図5は、本実施形態のテストデータベースのデータ構造を示す図である。
本実施形態のログデータベースについて説明する。図6は、本実施形態のログデータベースのデータ構造を示す図である。
・発話した音声
・発話した音声を音声認識したテキスト
・チャットへの投稿内容であるテキスト
・操作情報(例えば、操作の検出結果)
・操作情報を要約した結果
・作成したメモ(典型的にはテキストであるが、画像または音声メモでもよい)
・ユーザの状況(例えば、笑った、しばらく目を閉じた、渋い顔をしたなどの表情)の推定結果
・テスト対象(例えばアプリケーション)の状況(例えばアプリケーションの画面遷移が生じた)の推定結果
・ユーザテストの状況(例えば、ユーザもしくは実施者のクライアント装置10がサーバ30に接続した、ユーザもしくは実施者のクライアント装置10がサーバ30から接続された、ユーザもしくは実施者がカメラをオンもしくはオフにした、またはユーザもしくは実施者がマイクをオンもしくはオフにした、など)
・ユーザテスト時のネットワーク品質に関する情報(例えば、ユーザの接続状況が悪い、など)
上記のほか、サーバ30は、例えば、ユーザ画像、実施者画像、ユーザの視線計測結果、またはユーザの視線計測結果を要約した結果、などを例えば動画ファイルなどの時系列データとして、または日時に関連付けてデータベースとして保存する。
本実施形態の情報処理について説明する。
本実施形態のユーザテスト支援処理について説明する。図7は、本実施形態のユーザテスト支援処理のフローチャートである。図8は、本実施形態のユーザテスト支援処理において表示される画面例を示す図である。
具体的には、サーバ30は、ユーザ(被験者)のクライアント装置10、実施者のクライアント装置10、または外部装置(例えば、ビデオ会議ツールのサーバ)から以下の少なくとも1つの情報を取得する。
・画面画像
・ユーザ画像
・実施者画像
・ユーザの視線に関する情報(これは、ユーザ画像であってもよいし、視線計測結果であってもよいし、他の情報であってもよい)
・ユーザによる発言(発話、またはチャットへの投稿を含み得る)に関する情報
・実施者による発言(発話、またはチャットへの投稿を含み得る)に関する情報
・ユーザによる操作に関する情報
・実施者によるメモの作成に関する情報
さらに、オプションとして、サーバ30は、上記情報とは別に、実施者を正面からカメラにより撮影した画像を実施者のクライアント装置10または外部装置(例えばビデオ会議ツールのサーバ)から取得してもよい。
具体的には、サーバ30は、ステップS130において取得した情報を、必要に応じて分析する。なお、ステップS130において取得した情報がいずれも分析を要しない場合には、本ステップは省略可能である。
具体的には、サーバ30は、ステップS130において取得した情報、またはステップS131において取得した情報の少なくとも1つを、日時に関連付けて記憶装置31に保存する。一例として、サーバ30は、ステップS130において取得した情報、またはステップS131において取得した情報の少なくとも1つに基づいて、前述の日時情報、ログ種別情報および内容情報を生成し、実行中のユーザテストに対応するテストIDに関連付け、ログデータベース(図6)の新規レコードとして保存する。このようにして、ユーザテストの進行に伴って、ログデータベースにレコードが追加される。
具体的には、サーバ30は、ステップS132において記憶装置31に保存した情報の少なくとも一部を、実施者のクライアント装置10にUI(User Interface)情報として送信する。UI情報は、ユーザテストの実施を支援するためのUIに関する情報である。
オブジェクトJ20は、画面画像を表示する。オブジェクトJ20に表示される画面画像は基本的に最新のものである。
オブジェクトJ25は、オブジェクトJ24に入力されているメモを投稿する指示を実施者から受け付ける。実施者のクライアント装置10は、オブジェクトJ25が選択されると、オブジェクトJ24に入力されているメモをサーバ30へ送信する。
本実施形態の分析支援処理について説明する。図9は、本実施形態の分析支援処理のフローチャートである。図10は、本実施形態の分析支援処理において表示される画面例を示す図である。
具体的には、サーバ30は、分析者が分析する対象となるユーザテスト(以下、「分析対象」という)のUI情報を例えばログデータベース(図6)から取得する。UI情報は、ユーザテストの分析を支援するためのUIに関する情報である。サーバ30は、取得したUI情報を分析者のクライアント装置10へ出力する。例えば、サーバ30は、分析対象のUI情報のうち分析者がクライアント装置10を介して現在視聴している位置(再生位置)付近の日時情報を有するUI情報を分析者のクライアント装置10へ送信する。或いは、サーバ30は、分析対象のUI情報一式をクライアント装置10へ送信してもよい。
オブジェクトJ30は、画面画像を表示する。オブジェクトJ30に表示される画面画像は基本的にクライアント装置10による現在の再生位置に対応する日時のものである。
オブジェクトJ35は、オブジェクトJ34に入力されているメモを投稿する指示を分析者から受け付ける。分析者のクライアント装置10は、オブジェクトJ35が選択されると、オブジェクトJ34に入力されているメモをサーバ30へ送信する。
なお、オブジェクトJ40上に、重要な再生位置を示す情報(例えば、アイコン、テキスト、またはそれらの組み合わせ)が表示されてもよい。重要な再生位置は、以下の少なくとも1つを含むことができる。
・画面共有の開始時点(画面画像の送信開始時点)
・画面共有の終了時点(画面画像の送信終了時点)
・画面遷移の発生時点
・実施者が重要として指定した時点
・分析者が重要として指定した時点
具体的には、サーバ30は、分析者のクライアント装置10から受信した取得要求に応じて、該当するUI情報を当該クライアント装置10へ送信する。
具体的には、サーバ30は、取得したメモに関する情報を、日時に関連付けて記憶装置31に保存する。一例として、サーバ30は、取得したメモに関する情報に基づいて、前述の日時情報、ログ種別情報および内容情報を生成し、分析対象に対応するテストIDに関連付け、ログデータベース(図6)の新規レコードとして保存する。ここで、日時情報として、例えば分析者がメモを投稿した時点におけるクライアント装置10による再生位置に対応する日時情報が生成される。このようにして、ユーザテストの分析時にも、ログデータベースにレコードが追加される。
以上説明したように、本実施形態のサーバ30は、ユーザがクライアント装置10を操作する過程を含むユーザテスト中における当該クライアント装置10のディスプレイ21の画面の表示内容を表す画面画像を取得する。サーバ30は、ユーザテスト中におけるユーザの視線方向の推定結果を取得し、ユーザテスト中におけるユーザの眼の動き以外のユーザもしくはユーザテストの実施者による行動、または当該ユーザテストの分析者による行動に関する付加情報を取得する。サーバ30は、取得した画面画像と、視線方向の推定結果と、付加情報とをそれぞれ日時に関連付けて記憶装置31に保存する。これにより、ユーザテスト中におけるユーザの視線方向の推定結果に加えて、眼の動き以外の行動に関する付加情報を時系列で保存できる。これにより、ユーザテストの内容を要約して蓄積することができ、蓄積された情報を活用することで、ユーザテストの内容を確認する手間を抑えながら、ユーザ体験(つまり、ユーザの行動と心理)をより的確に分析することができる。
記憶装置11は、ネットワークNWを介して、クライアント装置10と接続されてもよい。ディスプレイ21は、クライアント装置10に内蔵されてもよい。記憶装置31は、ネットワークNWを介して、サーバ30と接続されてもよい。
10 :クライアント装置
11 :記憶装置
12 :プロセッサ
13 :入出力インタフェース
14 :通信インタフェース
21 :ディスプレイ
30 :サーバ
31 :記憶装置
32 :プロセッサ
33 :入出力インタフェース
34 :通信インタフェース
Claims (14)
- コンピュータを、
ユーザが第1クライアント装置を操作して対象に関与する過程中における前記第1クライアント装置の画面の表示内容を表す画面画像を取得する手段、
前記過程中における前記ユーザの視線方向の推定結果を取得する手段、
前記過程中における前記ユーザの眼の動き以外の前記ユーザもしくは前記過程における前記ユーザの対話相手による行動、または当該過程の分析者による行動に関する付加情報を取得する手段、
前記画面画像と、前記視線方向の推定結果と、前記付加情報とをそれぞれ日時に関連付けて保存する手段、
前記画面画像または前記視線方向の推定結果の少なくとも1つと、前記付加情報の少なくとも1つとを、経時的に表示するためのUI(User Interface)情報を出力する手段、
として機能させ、
前記UI情報を出力する手段は、前記視線方向の推定結果に基づく情報を一連の前記画面画像に重畳した動画を表示するためのUI情報を出力する、
プログラム。 - コンピュータを、
ユーザが第1クライアント装置を操作して対象に関与する過程中における前記第1クライアント装置の画面の表示内容を表す画面画像を取得する手段、
前記過程中における前記ユーザの視線方向の推定結果を取得する手段、
前記過程中における前記ユーザの眼の動き以外の前記ユーザもしくは前記過程における前記ユーザの対話相手による行動、または当該過程の分析者による行動に関する付加情報を取得する手段、
前記画面画像と、前記視線方向の推定結果と、前記付加情報とをそれぞれ日時に関連付けて保存する手段、
前記過程後に、前記画面画像または前記視線方向の推定結果の少なくとも1つと、前記付加情報の少なくとも1つとを、経時的に表示するためのUI(User Interface)情報を出力する手段、
前記第1クライアント装置とは異なる第2クライアント装置からの要求に応じて、第1日時に関連付けられている画面画像または視線方向の推定結果の少なくとも1つを表示するためのUI情報を出力する手段、
として機能させ、
前記第2クライアント装置は、前記第2クライアント装置の表示部に表示され、かつ前記第1日時に関連付けられている付加情報が選択されたことに応じて前記要求を行う、
プログラム。 - 前記コンピュータを、前記過程中に、当該過程における前記ユーザの対話相手向けの注意事項を表示するためのUI(User Interface)情報を出力する手段、として機能させる、
請求項1または請求項2に記載のプログラム。 - 前記過程後に、当該過程の分析者によって指定された条件を満たす付加情報、または当該付加情報を含む画面を表示するためのUI(User Interface)情報の少なくとも1つを出力する手段、として機能させる、
請求項1または請求項2に記載のプログラム。 - 前記付加情報は、前記過程中における前記ユーザまたは当該過程における前記ユーザの対話相手の発話、またはチャットへの投稿に関する発言情報を含み、
前記保存する手段は、前記発言情報を、対応する発話日時または投稿日時に関連付けて保存する、
請求項1または請求項2に記載のプログラム。 - 前記付加情報は、前記過程中に前記ユーザが前記第1クライアント装置に対して行った操作に関する操作情報を含み、
前記保存する手段は、前記操作情報を、対応する操作が行われた日時に関連付けて保存する、
請求項1または請求項2に記載のプログラム。 - 前記操作情報は、前記過程中に前記ユーザが前記第1クライアント装置に対して行った操作を要約した情報を含む、
請求項6に記載のプログラム。 - 前記付加情報は、前記過程における前記ユーザの対話相手または前記過程の分析者が作成したメモに関するメモ情報を含み、
前記保存する手段は、前記メモ情報を、前記過程における前記ユーザの対話相手が対応するメモを作成した日時、または前記過程の分析者が対応するメモを作成した時に当該分析者の操作する第2クライアント装置の表示部に表示されていた情報に関連付けられている日時に関連付けて保存する、
請求項1または請求項2に記載のプログラム。 - 前記付加情報は、前記過程中に、前記ユーザまたは当該ユーザの周囲を撮影したユーザ画像を含み、
前記保存する手段は、前記ユーザ画像を、当該ユーザ画像の撮影日時に関連付けて保存する、
請求項1または請求項2に記載のプログラム。 - コンピュータを、
ユーザがクライアント装置を操作して対象に関与する過程の後に、サーバから、前記過程中における当該クライアント装置の画面の表示内容を表す画面画像、または前記過程中における前記ユーザの視線方向の推定結果の少なくとも1つと、前記過程中における前記ユーザの眼の動き以外の前記ユーザもしくは前記過程における前記ユーザの対話相手による行動、または当該過程の分析者による行動に関する付加情報とを表示するためのUI(User Interface)情報を取得する手段、
前記UI情報に基づく画面を表示部に表示させる手段、
として機能させ、
前記UI情報に基づく画面を前記表示部に表示させる手段は、第1日時に関連付けられている付加情報が選択されたことに応じて、当該第1日時に関連付けられている画面画像または視線方向の推定結果の少なくとも1つを前記表示部に表示させる、
プログラム。 - コンピュータによって実行される方法であって、
ユーザが第1クライアント装置を操作して対象に関与する過程中における前記第1クライアント装置の画面の表示内容を表す画面画像を取得するステップと、
前記過程中における前記ユーザの視線方向の推定結果を取得するステップと、
前記過程中における前記ユーザの眼の動き以外の前記ユーザもしくは前記過程における前記ユーザの対話相手による行動、または当該過程の分析者による行動に関する付加情報を取得するステップと、
前記画面画像と、前記視線方向の推定結果と、前記付加情報とをそれぞれ日時に関連付けて保存するステップと、
前記画面画像または前記視線方向の推定結果の少なくとも1つと、前記付加情報の少なくとも1つとを、経時的に表示するためのUI(User Interface)情報を出力するステップと
を実行し、
前記UI情報を出力するステップでは、前記視線方向の推定結果に基づく情報を一連の前記画面画像に重畳した動画を表示するためのUI情報を出力する、
方法。 - コンピュータによって実行される方法であって、
ユーザが第1クライアント装置を操作して対象に関与する過程中における前記第1クライアント装置の画面の表示内容を表す画面画像を取得するステップと、
前記過程中における前記ユーザの視線方向の推定結果を取得するステップと、
前記過程中における前記ユーザの眼の動き以外の前記ユーザもしくは前記過程における前記ユーザの対話相手による行動、または当該過程の分析者による行動に関する付加情報を取得するステップと、
前記画面画像と、前記視線方向の推定結果と、前記付加情報とをそれぞれ日時に関連付けて保存するステップと、
前記過程後に、前記画面画像または前記視線方向の推定結果の少なくとも1つと、前記付加情報の少なくとも1つとを、経時的に表示するためのUI(User Interface)情報を出力するステップと、
前記第1クライアント装置とは異なる第2クライアント装置からの要求に応じて、第1日時に関連付けられている画面画像または視線方向の推定結果の少なくとも1つを表示するためのUI情報を出力するステップと
を実行し、
前記第2クライアント装置は、前記第2クライアント装置の表示部に表示され、かつ前記第1日時に関連付けられている付加情報が選択されたことに応じて前記要求を行う、
方法。 - ユーザが第1クライアント装置を操作して対象に関与する過程中における前記第1クライアント装置の画面の表示内容を表す画面画像を取得する手段と、
前記過程中における前記ユーザの視線方向の推定結果を取得する手段と、
前記過程中における前記ユーザの眼の動き以外の前記ユーザもしくは前記過程における前記ユーザの対話相手による行動、または当該過程の分析者による行動に関する付加情報を取得する手段と、
前記画面画像と、前記視線方向の推定結果と、前記付加情報とをそれぞれ日時に関連付けて保存する手段と、
前記画面画像または前記視線方向の推定結果の少なくとも1つと、前記付加情報の少なくとも1つとを、経時的に表示するためのUI(User Interface)情報を出力する手段と
を具備し、
前記UI情報を出力する手段は、前記視線方向の推定結果に基づく情報を一連の前記画面画像に重畳した動画を表示するためのUI情報を出力する、
情報処理装置。 - 第1情報処理装置と、第2情報処理装置とを具備するシステムであって、
前記第1情報処理装置は、
ユーザがクライアント装置を操作して対象に関与する過程中における前記クライアント装置の画面の表示内容を表す画面画像を取得する手段と、
前記過程中における前記ユーザの視線方向の推定結果を取得する手段と、
前記過程中における前記ユーザの眼の動き以外の前記ユーザもしくは前記過程における前記ユーザの対話相手による行動、または当該過程の分析者による行動に関する付加情報を取得する手段と、
前記画面画像と、前記視線方向の推定結果と、前記付加情報とをそれぞれ日時に関連付けて保存する手段と、
前記画面画像または前記視線方向の推定結果の少なくとも1つと、前記付加情報の少なくとも1つとを、経時的に表示するためのUI(User Interface)情報を出力する手段と
を備え、
前記UI情報を出力する手段は、前記視線方向の推定結果に基づく情報を一連の前記画面画像に重畳した動画を表示するためのUI情報を出力し、
前記第2情報処理装置は、
前記UI情報を取得する手段、
前記UI情報に基づく画面を表示部に表示させる手段、
を備える、
システム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2022205193A JP7289169B1 (ja) | 2022-12-22 | 2022-12-22 | 情報処理装置、方法、プログラム、およびシステム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2022205193A JP7289169B1 (ja) | 2022-12-22 | 2022-12-22 | 情報処理装置、方法、プログラム、およびシステム |
Publications (1)
Publication Number | Publication Date |
---|---|
JP7289169B1 true JP7289169B1 (ja) | 2023-06-09 |
Family
ID=86646773
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022205193A Active JP7289169B1 (ja) | 2022-12-22 | 2022-12-22 | 情報処理装置、方法、プログラム、およびシステム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7289169B1 (ja) |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH08255012A (ja) * | 1995-03-17 | 1996-10-01 | Toshiba Corp | プラント運転記録報告書作成装置 |
JP2007094457A (ja) * | 2005-09-26 | 2007-04-12 | Fuji Xerox Co Ltd | 情報処理装置、情報処理方法及びプログラム |
JP2020204711A (ja) * | 2019-06-17 | 2020-12-24 | 株式会社日立製作所 | 登録システム |
-
2022
- 2022-12-22 JP JP2022205193A patent/JP7289169B1/ja active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH08255012A (ja) * | 1995-03-17 | 1996-10-01 | Toshiba Corp | プラント運転記録報告書作成装置 |
JP2007094457A (ja) * | 2005-09-26 | 2007-04-12 | Fuji Xerox Co Ltd | 情報処理装置、情報処理方法及びプログラム |
JP2020204711A (ja) * | 2019-06-17 | 2020-12-24 | 株式会社日立製作所 | 登録システム |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10643487B2 (en) | Communication and skills training using interactive virtual humans | |
CN109478097B (zh) | 用于提供信息的方法和系统及计算机程序产品 | |
US10984386B2 (en) | Interview system | |
US9754503B2 (en) | Systems and methods for automated scoring of a user's performance | |
US10446055B2 (en) | Public speaking trainer with 3-D simulation and real-time feedback | |
US20170116870A1 (en) | Automatic test personalization | |
US20220392625A1 (en) | Method and system for an interface to provide activity recommendations | |
US20210043106A1 (en) | Technology based learning platform for persons having autism | |
US11417045B2 (en) | Dialog-based testing using avatar virtual assistant | |
US20210271864A1 (en) | Applying multi-channel communication metrics and semantic analysis to human interaction data extraction | |
TW202008293A (zh) | 教學品質監測系統及方法 | |
JP4868360B2 (ja) | 興味傾向情報出力装置、興味傾向情報出力方法、及びプログラム | |
CN112287767A (zh) | 交互控制方法、装置、存储介质以及电子设备 | |
Pise et al. | Estimation of learning affects experienced by learners: an approach using relational reasoning and adaptive mapping | |
JP2022534345A (ja) | データ処理方法及び装置、電子機器並びに記憶媒体 | |
TWI642026B (zh) | 心理與行為狀態評量暨診斷方法及系統 | |
JP7289169B1 (ja) | 情報処理装置、方法、プログラム、およびシステム | |
Strauß et al. | Wizard-of-Oz Data Collection for Perception and Interaction in Multi-User Environments. | |
JP2008046802A (ja) | インタラクション情報出力装置、インタラクション情報出力方法、及びプログラム | |
WO2023027824A1 (en) | Method and system of automated question generation for speech assistance | |
WO2022064621A1 (ja) | ビデオミーティング評価システム及びビデオミーティング評価サーバ | |
KR20230030683A (ko) | 온라인 학습 집중도 향상 플랫폼 및 그 방법 | |
KR20140110557A (ko) | 영상피드백을 활용한 이러닝 시스템 | |
KR102388735B1 (ko) | 메타버스 환경에서의 평가에서 이미지 데이터 처리에 기반하여 부정행위를 검출하는 방법 | |
JP7263475B1 (ja) | 授業支援システム、授業支援方法、授業支援プログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20221222 |
|
A871 | Explanation of circumstances concerning accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A871 Effective date: 20221222 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230315 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230419 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230522 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230523 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7289169 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |