JP5621635B2 - 認知負荷評価装置、認知負荷評価方法、及びプログラム - Google Patents
認知負荷評価装置、認知負荷評価方法、及びプログラム Download PDFInfo
- Publication number
- JP5621635B2 JP5621635B2 JP2011021946A JP2011021946A JP5621635B2 JP 5621635 B2 JP5621635 B2 JP 5621635B2 JP 2011021946 A JP2011021946 A JP 2011021946A JP 2011021946 A JP2011021946 A JP 2011021946A JP 5621635 B2 JP5621635 B2 JP 5621635B2
- Authority
- JP
- Japan
- Prior art keywords
- load
- user
- visual
- calculated
- cognitive
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- User Interface Of Digital Computer (AREA)
Description
本発明の目的の一例は、上記問題を解消し、ユーザから直接データを取得することなく、ユーザが認知できる視覚情報に基づいてユーザの認知負荷を評価し得る、認知負荷評価装置、認知負荷評価方法、及びプログラムを提供することにある。
ヒューマン・マシン・インターフェースが表示された画面のイメージを含む画面情報、及び前記画面を使用してタスクを遂行するための操作情報を解析して、前記画面に含まれる視覚オブジェクトを抽出する、情報解析部と、
前記視覚オブジェクトが含む要素毎に、各要素が前記ユーザに与える負荷を算出し、算出した各負荷に基づいて、前記視覚オブジェクトに対する前記ユーザの視覚負荷を求める、視覚負荷評価部と、
を備えている、ことを特徴とする。
(a)ヒューマン・マシン・インターフェースが表示された画面のイメージを含む画面情報、及び前記画面を使用してタスクを遂行するための操作情報を解析して、前記画面に含まれる視覚オブジェクトを抽出する、ステップと、
(b)前記視覚オブジェクトが含む要素毎に、各要素が前記ユーザに与える負荷を算出し、算出した各負荷に基づいて、前記視覚オブジェクトに対する前記ユーザの視覚負荷を求める、ステップと、
を有している、ことを特徴とする。
前記コンピュータに、
(a)ヒューマン・マシン・インターフェースが表示された画面のイメージを含む画面情報、及び前記画面を使用してタスクを遂行するための操作情報を解析して、前記画面に含まれる視覚オブジェクトを抽出する、ステップと、
(b)前記視覚オブジェクトが含む要素毎に、各要素が前記ユーザに与える負荷を算出し、算出した各負荷に基づいて、前記視覚オブジェクトに対する前記ユーザの視覚負荷を求める、ステップと、
を実行させることを特徴とする。
以下、本発明の実施の形態における、認知負荷評価装置、認知負荷評価方法、及びプログラムについて、図1〜図9を参照しながら説明する。
最初に、本実施の形態における認知負荷評価装置の構成について、図1を用いて説明する。図1は、本発明の実施の形態における認知負荷評価装置の構成を示すブロック図である。図1に示す、本実施の形態における認知負荷評価装置10は、HMIを操作するユーザの認知負荷を評価するための装置である。図1に示すように、本実施の形態における認知負荷評価装置10は、主に、情報解析部100と、視覚負荷評価部200とを備えている。
情報解析部100は、本実施の形態では、HMI画面情報と操作情報との解析によって、上述した視覚オブジェクトに加えて、聴覚オブジェクト、操作オブジェクト、周辺状況を抽出する。これらは認知負荷要因である。ここで、視覚オブジェクトとしては、HMI画面に表示されている、ボタン、メニュー、画像、及びテキストなどが挙げられる。また、聴覚オブジェクトとしては、HMI画面での操作によって出力される、アラーム、音声メッセージなどが挙げられる。
視覚負荷評価部200は、視覚オブジェクトに対するユーザの視覚負荷をさまざまな要素に基づいて求める。視覚負荷評価部200は、形式負荷演算部210と、配色負荷演算部220と、形状負荷演算部230と、密度負荷演算部240と、配置負荷演算部250と、視野負荷演算部260とを備える。
VWLm =αvm×vm1 +βvm×vm2 +γvm×vm3 +δvm×vm4 +εvm×vm5 +ζvm×vm6 +ηvm×vm7
VWLc = vc1(W)
VWLs = Kvs × Σ(l^2/S) / n
VWLd = Kvd × (n / Ssum)
VWLp = Kvp × {Σ(x-X)^2 + Σ(y-Y)^2} / n
WVLf = Kvf × Σ{1/fn(d)} / n
VWL = α×VWLm + β×VWLc + γ×VWLs + δ×VWLd + ε×VWLp + ζ×WVLf
聴覚負荷評価部300は、聴覚オブジェクトに対するユーザの聴覚負荷をさまざまな要素に基づいて求める。聴覚負荷評価部300は、音声負荷演算部310と、音圧負荷演算部320と、音高負荷演算部330とを備える。
AWLm = Kam × 1 / fn(s-4.95)
AWLp = Kap × ap1(M)
AWLf = Kaf × 1 / fn(f-440)
AWL = θ×AWLm + ι×AWLp + κ×AWLf
操作負荷評価部400は、操作オブジェクトに対するユーザの操作負荷をさまざまな要素に基づいて求める。操作負荷評価部400は、動作負荷演算部410と、選択肢負荷演算部420とを備える。
T = a + b × log2(A/Ws + 1)
OWLm = αom × (200×k) + βom × {50 + 150 × log(A/W + 1) + 150 × s}
H = log2(n+1)
OWLs = Kos × log(n+1)
OWL = λ×OWLm + μ×OWLs
周辺状況負荷評価部500は、周辺状況に対するユーザの負荷をさまざまな要素に基づいて評価する。周辺状況負荷評価部500は、視覚環境負荷演算部510と、聴覚環境負荷演算部520と、操作環境負荷演算部530と、制約時間負荷演算部540と、並行タスク負荷演算部550とを備える。
EWLv = Kev × 1 / fd(lx-400)
EWLa = Kea × ea1(N)
EWLo = Keo × {a + b × log(A/Ws + 1)}
EWLo = Keo × {50 + 500 × log(A/W + 1)}
EWLt = Ket × fd(t)
EWLp = Kep × exp(p)
EWL = ν×EWLv + ξ×EWLa + ο×EWLo + π×EWLt + ρ×EWLp
WL = σ×VWL + τ×AWL + υ×OWL + φ×EWL
次に、本発明の実施の形態における認知負荷評価装置10の動作について図2〜図8を用いて説明する。図2は、本発明の実施の形態における認知負荷評価装置の動作を示す流れ図である。以下の説明においては、適宜図1を参酌する。また、本実施の形態では、認知負荷評価装置10を動作させることによって、認知負荷評価方法が実施される。よって、本実施の形態における認知負荷評価方法の説明は、以下の認知負荷評価装置10の動作説明に代える。
最初に、図2に示すように、情報解析部100が、入力装置20からのHMI情報の入力を受け付ける(ステップA1)。HMI情報は、HMI画面情報、操作情報、負荷の算出に必要なその他の参考情報を含む。
次に、情報解析部100が、ステップA1で受け付けたHMI情報を解析し、図3〜図5に示すHMI画面情報から、ボタン、メニュー、及びテキストなどの視覚オブジェクトを抽出する(ステップA2)。また、ステップA2では、情報解析部100は、図6に示す操作情報を解析し、音声メッセージなどの聴覚オブジェクト、タスクを遂行するための操作対象となる操作オブジェクトも抽出する。さらに、情報解析部100は、図7に示す参考情報から、負荷の算出に必要な情報を抽出する。
次に、視覚負荷評価部200が、HMI情報で表されるタスクについて視覚負荷を求める(ステップA3)。ステップA3では、視覚評価部200は、図6に示したステップS1〜S6それぞれ毎に、視覚負荷を求める。
VWL(S1) = VWLm(S1)+VWLc(S1)+VWLs(S1)+VWLd(S1)+VWLp(S1)+VWLf(S1)
次に、聴覚負荷評価部300が、HMI情報で表されるタスクについて聴覚負荷を算出する(ステップA4)。但し、図6に示した操作情報では、ステップS4を除き、各ステップにおいて、聴覚オブジェクトは存在していない。従って、これらステップの聴覚負荷は0となるので、聴覚負荷評価部300は、AWL(S1)=AWL(S2)=AWL(S3)=AWL(S5)=AWL(S6)=0と評価する。
次に、操作負荷評価部400が、HMI情報で表されるタスクについて操作負荷を算出する(ステップA5)。ステップA5では、操作負荷評価部400は、図6に示したステップS1〜S6それぞれ毎に、操作負荷を求める。
次に、周辺状況負荷評価部500が、HMI情報で表されるタスクについて周辺状況負荷を算出する(ステップA6)。具体的には、ステップA6において、視覚環境負荷演算部510は、図7に示した参考情報の「照度」の値「400[lx]」を用いて、視覚環境に関する負荷を算出する。いま、視覚環境に関する負荷として算出された値をEWLv(S)とする。
EWL(S1) = EWL(S2) = EWL(S6) = EWLv(S) + EWLa(S) + EWLo(Sm)
EWL(S3)=EWL(S4)=EWLv(S) + EWLa(S)
EWL(S5)=EWLv(S) + EWLa(S) + EWLo(Sk)
次に、統合評価部600が、ステップA3〜ステップA6で得られた結果に基づいて、即ち、各評価部又は各演算部がそれぞれ算出した負荷を統合して、認知負荷を算出する(ステップA7)。
WL(S1)=VWL(S1)+OWL(S1)+EWL(S1)
WL(S2)=VWL(S2)+OWL(S2)+EWL(S2)
WL(S3)=VWL(S3)+OWL(S3)+EWL(S3)
WL(S4)=VWL(S4)+AWL(S4)+OWL(S4)+EWL(S4)
WL(S5)=VWL(S5)+OWL(S5)+EWL(S5)
WL(S6)=VWL(S6)+OWL(S6)+EWL(S6)
最後に、統合評価部600が、算出した認知負荷を表示装置30に出力し、図8に示すように、結果を表示装置の表示画面に表示させる(ステップA8)。図8は、本発明の実施の形態における認知負荷評価装置による出力結果の一例を示す図である。図8の例では、図6に示したステップS1からS6の各ステップの認知負荷は、棒グラフで表されている。またステップS1からS6までの認知負荷の平均値、さらに各ステップの視覚負荷、聴覚負荷、操作負荷、周辺状況負荷が折れ線グラフで表されている。
次に、本実施の形態の効果について説明する。本実施の形態では、設計段階でのHMI画面イメージなどのHMI情報を解析することによって、認知負荷を推定することができる。従って、HMIの開発段階などにおいて、ユーザが作業する前に、即ち、作業中のユーザから各種センサを用いてデータを取得しなくても、認知負荷を推定できる。
本発明の実施の形態におけるプログラムは、コンピュータに、図2に示すステップA1〜A8を実行させるプログラムであれば良い。このプログラムをコンピュータにインストールし、実行することによって、本実施の形態における認知負荷評価装置10と認知負荷評価方法とを実現することができる。この場合、コンピュータのCPU(Central Processing Unit)は、情報解析部100、視覚負荷評価部200、聴覚負荷評価部300、操作負荷評価部400、及び周辺状況負荷評価部500として機能し、処理を行なう。
ヒューマン・マシン・インターフェースを操作するユーザの認知負荷を評価するための認知負荷評価装置であって、
ヒューマン・マシン・インターフェースが表示された画面のイメージを含む画面情報、及び前記画面を使用してタスクを遂行するための操作情報を解析して、前記画面に含まれる視覚オブジェクトを抽出する、情報解析部と、
前記視覚オブジェクトが含む要素毎に、各要素が前記ユーザに与える負荷を算出し、算出した各負荷に基づいて、前記視覚オブジェクトに対する前記ユーザの視覚負荷を求める、視覚負荷評価部と、
を備えている、ことを特徴とする認知負荷評価装置。
前記ユーザがタスクを遂行する際の周辺状況が含む要素毎に、各要素が前記ユーザに与える負荷を算出し、算出した各負荷に基づいて、前記周辺状況に対する前記ユーザの周辺状況負荷を求める、周辺状況負荷評価部と、
前記視覚負荷評価部によって算出された前記負荷又は求められた前記視覚負荷と、前記周辺状況負荷評価部によって算出された前記負荷又は求められた前記周辺状況負荷とを統合し、統合結果に基づいて、前記ユーザの認知負荷を評価する、統合評価部と、
を更に備えている、付記1に記載の認知負荷評価装置。
前記視覚負荷評価部が、前記視覚オブジェクトが含む要素として、前記視覚オブジェクトの表示形態を用い、前記視覚オブジェクトの表示形態が前記ユーザに与える負荷を算出する、付記1または2に記載の認知負荷評価装置。
前記視覚負荷評価部が、前記視覚オブジェクトが含む要素として、前記視覚オブジェクトの配色、形状、及び前記画面における密度を用い、それぞれ毎に、それぞれが前記ユーザに与える負荷を算出する、付記1〜3のいずれかに記載の認知負荷評価装置。
前記視覚負荷評価部が、前記視覚オブジェクトが含む要素として、前記視覚オブジェクトの配置の状態、及び前記視覚オブジェクトの前記画面における位置を用い、それぞれ毎に、それぞれが前記ユーザに与える負荷を算出する、付記1〜4のいずれかに記載の認知負荷評価装置。
前記周辺状況負荷評価部が、前記ユーザがタスクを遂行する際の周辺状況が含む要素として、視覚環境、聴覚環境、及び操作環境を用い、それぞれ毎に、それぞれが前記ユーザに与える負荷を算出する、付記2に記載の認知負荷評価装置。
前記周辺状況負荷評価部が、前記ユーザがタスクを遂行する際の周辺状況が含む要素として、前記タスクの遂行開始から完遂までに許容される制約時間を用い、前記タスクの遂行開始から完遂までに許容される制約時間が前記ユーザに与える負荷を算出する、付記2または6に記載の認知負荷評価装置。
前記周辺状況負荷評価部が、前記ユーザがタスクを遂行する際の周辺状況が含む要素として、並行処理が求められる前記タスクの数を用い、並行処理が求められる前記タスクの数が前記ユーザに与える負荷を算出する、付記2、6、または7に記載の認知負荷評価装置。
ヒューマン・マシン・インターフェースを操作するユーザの認知負荷を評価するための方法であって、
(a)ヒューマン・マシン・インターフェースが表示された画面のイメージを含む画面情報、及び前記画面を使用してタスクを遂行するための操作情報を解析して、前記画面に含まれる視覚オブジェクトを抽出する、ステップと、
(b)前記視覚オブジェクトが含む要素毎に、各要素が前記ユーザに与える負荷を算出し、算出した各負荷に基づいて、前記視覚オブジェクトに対する前記ユーザの視覚負荷を求める、ステップと、
を有している、ことを特徴とする認知負荷評価方法。
(c)前記ユーザがタスクを遂行する際の周辺状況が含む要素毎に、各要素が前記ユーザに与える負荷を算出し、算出した各負荷に基づいて、前記周辺状況に対する前記ユーザの周辺状況負荷を求める、ステップと、
(d)前記(b)のステップによって算出された前記負荷又は求められた前記視覚負荷と、前記(c)のステップによって算出された前記負荷又は求められた前記周辺状況負荷とを統合し、統合結果に基づいて、前記ユーザの認知負荷を評価する、ステップと、
を更に有している、付記9に記載の認知負荷評価方法。
前記(b)のステップで、前記視覚オブジェクトが含む要素として、前記視覚オブジェクトの表示形態を用い、前記視覚オブジェクトの表示形態が前記ユーザに与える負荷を算出する、付記9または10に記載の認知負荷評価方法。
前記(b)のステップで、前記視覚オブジェクトが含む要素として、前記視覚オブジェクトの配色、形状、及び前記画面における密度を用い、それぞれ毎に、それぞれが前記ユーザに与える負荷を算出する、付記9〜11のいずれかに記載の認知負荷評価方法。
前記(b)のステップで、前記視覚オブジェクトが含む要素として、前記視覚オブジェクトの配置の状態、及び前記視覚オブジェクトの前記画面における位置を用い、それぞれ毎に、それぞれが前記ユーザに与える負荷を算出する、付記9〜12のいずれかに記載の認知負荷評価方法。
前記(c)のステップで、前記ユーザがタスクを遂行する際の周辺状況が含む要素として、視覚環境、聴覚環境、及び操作環境を用い、それぞれ毎に、それぞれが前記ユーザに与える負荷を算出する、付記10に記載の認知負荷評価方法。
前記(c)のステップで、前記ユーザがタスクを遂行する際の周辺状況が含む要素として、前記タスクの遂行開始から完遂までに許容される制約時間を用い、前記タスクの遂行開始から完遂までに許容される制約時間が前記ユーザに与える負荷を算出する、付記10または14に記載の認知負荷評価方法。
前記(c)のステップで、前記ユーザがタスクを遂行する際の周辺状況が含む要素として、並行処理が求められる前記タスクの数を用い、並行処理が求められる前記タスクの数が前記ユーザに与える負荷を算出する、付記10、14、または15に記載の認知負荷評価方法。
コンピュータによって、ヒューマン・マシン・インターフェースを操作するユーザの認知負荷を評価するためのプログラムであって、
前記コンピュータに、
(a)ヒューマン・マシン・インターフェースが表示された画面のイメージを含む画面情報、及び前記画面を使用してタスクを遂行するための操作情報を解析して、前記画面に含まれる視覚オブジェクトを抽出する、ステップと、
(b)前記視覚オブジェクトが含む要素毎に、各要素が前記ユーザに与える負荷を算出し、算出した各負荷に基づいて、前記視覚オブジェクトに対する前記ユーザの視覚負荷を求める、ステップと、
を実行させる、プログラム。
(c)前記ユーザがタスクを遂行する際の周辺状況が含む要素毎に、各要素が前記ユーザに与える負荷を算出し、算出した各負荷に基づいて、前記周辺状況に対する前記ユーザの周辺状況負荷を求める、ステップと、
(d)前記(b)のステップによって算出された前記負荷又は求められた前記視覚負荷と、前記(c)のステップによって算出された前記負荷又は求められた前記周辺状況負荷とを統合し、統合結果に基づいて、前記ユーザの認知負荷を評価する、ステップと、
を更に前記コンピュータに実行させる、付記17に記載のプログラム。
前記(b)のステップで、前記視覚オブジェクトが含む要素として、前記視覚オブジェクトの表示形態を用い、前記視覚オブジェクトの表示形態が前記ユーザに与える負荷を算出する、付記17または18に記載のプログラム。
前記(b)のステップで、前記視覚オブジェクトが含む要素として、前記視覚オブジェクトの配色、形状、及び前記画面における密度を用い、それぞれ毎に、それぞれが前記ユーザに与える負荷を算出する、付記17〜19のいずれかに記載のプログラム。
前記(b)のステップで、前記視覚オブジェクトが含む要素として、前記視覚オブジェクトの配置の状態、及び前記視覚オブジェクトの前記画面における位置を用い、それぞれ毎に、それぞれが前記ユーザに与える負荷を算出する、付記17〜20のいずれかに記載のプログラム。
前記(c)のステップで、前記ユーザがタスクを遂行する際の周辺状況が含む要素として、視覚環境、聴覚環境、及び操作環境を用い、それぞれ毎に、それぞれが前記ユーザに与える負荷を算出する、付記18に記載のプログラム。
前記(c)のステップで、前記ユーザがタスクを遂行する際の周辺状況が含む要素として、前記タスクの遂行開始から完遂までに許容される制約時間を用い、前記タスクの遂行開始から完遂までに許容される制約時間が前記ユーザに与える負荷を算出する、付記18または22に記載のプログラム。
前記(c)のステップで、前記ユーザがタスクを遂行する際の周辺状況が含む要素として、並行処理が求められる前記タスクの数を用い、並行処理が求められる前記タスクの数が前記ユーザに与える負荷を算出する、付記18、22、または23に記載のプログラム。
20 入力装置
30 表示装置
100 情報解析部
200 視覚負荷評価部
210 形式負荷演算部
220 配色負荷演算部
230 形式負荷演算部
240 密度負荷演算部
250 配置負荷演算部
260 視野負荷演算部
300 聴覚負荷評価部
310 音声負荷演算部
320 音圧負荷演算部
330 音高負荷演算部
400 操作負荷評価部
410 動作負荷演算部
420 選択肢負荷演算部
500 周辺状況負荷評価部
510 視覚環境負荷演算部
520 聴覚環境負荷演算部
530 操作環境負荷演算部
540 制約時間負荷演算部
550 並行タスク負荷演算部
600 統合評価部
Claims (10)
- ヒューマン・マシン・インターフェースを操作するユーザの認知負荷を評価するための認知負荷評価装置であって、
ヒューマン・マシン・インターフェースが表示された画面のイメージを含む画面情報、及び前記画面を使用してタスクを遂行するための操作情報を解析して、前記画面に含まれる視覚オブジェクトを抽出する、情報解析部と、
前記視覚オブジェクトが含む要素毎に、各要素が前記ユーザに与える負荷を算出し、算出した各負荷に基づいて、前記視覚オブジェクトに対する前記ユーザの視覚負荷を求める、視覚負荷評価部と、
を備えている、ことを特徴とする認知負荷評価装置。 - 前記ユーザがタスクを遂行する際の周辺状況が含む要素毎に、各要素が前記ユーザに与える負荷を算出し、算出した各負荷に基づいて、前記周辺状況に対する前記ユーザの周辺状況負荷を求める、周辺状況負荷評価部と、
前記視覚負荷評価部によって算出された前記負荷又は求められた前記視覚負荷と、前記周辺状況負荷評価部によって算出された前記負荷又は求められた前記周辺状況負荷とを統合し、統合結果に基づいて、前記ユーザの認知負荷を評価する、統合評価部と、
を更に備えている、請求項1に記載の認知負荷評価装置。 - 前記視覚負荷評価部が、前記視覚オブジェクトが含む要素として、前記視覚オブジェクトの表示形態を用い、前記視覚オブジェクトの表示形態が前記ユーザに与える負荷を算出する、請求項1または2に記載の認知負荷評価装置。
- 前記視覚負荷評価部が、前記視覚オブジェクトが含む要素として、前記視覚オブジェクトの配色、形状、及び前記画面における密度を用い、それぞれ毎に、それぞれが前記ユーザに与える負荷を算出する、請求項1〜3のいずれかに記載の認知負荷評価装置。
- 前記視覚負荷評価部が、前記視覚オブジェクトが含む要素として、前記視覚オブジェクトの配置の状態、及び前記視覚オブジェクトの前記画面における位置を用い、それぞれ毎に、それぞれが前記ユーザに与える負荷を算出する、請求項1〜4のいずれかに記載の認知負荷評価装置。
- 前記周辺状況負荷評価部が、前記ユーザがタスクを遂行する際の周辺状況が含む要素として、視覚環境、聴覚環境、及び操作環境を用い、それぞれ毎に、それぞれが前記ユーザに与える負荷を算出する、請求項2に記載の認知負荷評価装置。
- 前記周辺状況負荷評価部が、前記ユーザがタスクを遂行する際の周辺状況が含む要素として、前記タスクの遂行開始から完遂までに許容される制約時間を用い、前記タスクの遂行開始から完遂までに許容される制約時間が前記ユーザに与える負荷を算出する、請求項2または6に記載の認知負荷評価装置。
- 前記周辺状況負荷評価部が、前記ユーザがタスクを遂行する際の周辺状況が含む要素として、並行処理が求められる前記タスクの数を用い、並行処理が求められる前記タスクの数が前記ユーザに与える負荷を算出する、請求項2、6、または7に記載の認知負荷評価装置。
- ヒューマン・マシン・インターフェースを操作するユーザの認知負荷を評価するための方法であって、
(a)ヒューマン・マシン・インターフェースが表示された画面のイメージを含む画面情報、及び前記画面を使用してタスクを遂行するための操作情報を解析して、前記画面に含まれる視覚オブジェクトを抽出する、ステップと、
(b)前記視覚オブジェクトが含む要素毎に、各要素が前記ユーザに与える負荷を算出し、算出した各負荷に基づいて、前記視覚オブジェクトに対する前記ユーザの視覚負荷を求める、ステップと、
を有している、ことを特徴とする認知負荷評価方法。 - コンピュータによって、ヒューマン・マシン・インターフェースを操作するユーザの認知負荷を評価するためのプログラムであって、
前記コンピュータに、
(a)ヒューマン・マシン・インターフェースが表示された画面のイメージを含む画面情報、及び前記画面を使用してタスクを遂行するための操作情報を解析して、前記画面に含まれる視覚オブジェクトを抽出する、ステップと、
(b)前記視覚オブジェクトが含む要素毎に、各要素が前記ユーザに与える負荷を算出し、算出した各負荷に基づいて、前記視覚オブジェクトに対する前記ユーザの視覚負荷を求める、ステップと、
を実行させる、プログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011021946A JP5621635B2 (ja) | 2011-02-03 | 2011-02-03 | 認知負荷評価装置、認知負荷評価方法、及びプログラム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011021946A JP5621635B2 (ja) | 2011-02-03 | 2011-02-03 | 認知負荷評価装置、認知負荷評価方法、及びプログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2012164020A JP2012164020A (ja) | 2012-08-30 |
JP5621635B2 true JP5621635B2 (ja) | 2014-11-12 |
Family
ID=46843370
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2011021946A Active JP5621635B2 (ja) | 2011-02-03 | 2011-02-03 | 認知負荷評価装置、認知負荷評価方法、及びプログラム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5621635B2 (ja) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6015719B2 (ja) * | 2014-07-22 | 2016-10-26 | トヨタ自動車株式会社 | ユーザインタフェース評価装置およびユーザインタフェース評価方法 |
WO2018142581A1 (ja) * | 2017-02-03 | 2018-08-09 | 三菱電機株式会社 | 認知負荷評価装置および認知負荷評価方法 |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4822166B2 (ja) * | 2000-10-17 | 2011-11-24 | 日本電気株式会社 | Gui評価システムとそのgui評価方法、及びgui評価プログラムを記録した記録媒体 |
WO2011024357A1 (ja) * | 2009-08-31 | 2011-03-03 | 日本電気株式会社 | Gui評価システム、方法およびプログラム |
-
2011
- 2011-02-03 JP JP2011021946A patent/JP5621635B2/ja active Active
Also Published As
Publication number | Publication date |
---|---|
JP2012164020A (ja) | 2012-08-30 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11372657B2 (en) | Systems and methods for adaptive user interfaces | |
KR102065900B1 (ko) | 터치 감응형 이차 디스플레이에서 사용자 인터페이스 제어부들을 동적으로 제공하기 위한 시스템들, 디바이스들, 및 방법들 | |
US9202299B2 (en) | Hint based spot healing techniques | |
KR20110098938A (ko) | 예측 모델 제공 방법, 장치 및 컴퓨터 판독가능 저장 매체 | |
Bermejo Fernandez et al. | Para: Privacy management and control in emerging iot ecosystems using augmented reality | |
Khan et al. | TetraMail: a usable email client for blind people | |
Khan et al. | A mechanism for blind-friendly user interface adaptation of mobile apps: A case study for improving the user experience of the blind people | |
TWI610220B (zh) | 自動控制顯示螢幕密度的設備及方法 | |
JP5621635B2 (ja) | 認知負荷評価装置、認知負荷評価方法、及びプログラム | |
KR20130116242A (ko) | 사이트 포커스를 갖는 브라우저 프레임 | |
JP2012161377A (ja) | 認知負荷評価装置、認知負荷評価方法、及びプログラム | |
JP2012161376A (ja) | 認知負荷評価装置、認知負荷評価方法、及びプログラム | |
US20220301346A1 (en) | Learning apparatus, learning system, and nonverbal information learning method | |
KR102345753B1 (ko) | 서로 다른 복수의 인공신경망을 이용하여 데이터를 지능적으로 시각화하는 방법 | |
JP5957026B2 (ja) | 入力領域の生成方法、生成装置、および生成プログラム | |
JP6083825B2 (ja) | ユーザフィードバックのためのインターフェーシング方法 | |
CN116762055A (zh) | 同步虚拟现实通知 | |
US20150378530A1 (en) | Command surface drill-in control | |
US10768780B2 (en) | Method and system for context-driven displaying of shortcuts on touchscreen | |
KR101280738B1 (ko) | 색 변화를 이용한 터치스크린 표시방법 및 이를 위한 기록매체 | |
CN111191795A (zh) | 一种训练机器学习模型的方法、装置及系统 | |
JP6355554B2 (ja) | 設定データ記憶装置、方法及びプログラム | |
US11237671B1 (en) | Temporal filter touch detection | |
WO2014041851A1 (ja) | 情報処理装置 | |
US20230333728A1 (en) | Digital processing systems and methods for display navigation mini maps |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20140115 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20140821 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20140826 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20140908 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5621635 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |