JP2004355392A - Device and method for autonomously optimizing screen, recording medium, and program - Google Patents

Device and method for autonomously optimizing screen, recording medium, and program Download PDF

Info

Publication number
JP2004355392A
JP2004355392A JP2003153167A JP2003153167A JP2004355392A JP 2004355392 A JP2004355392 A JP 2004355392A JP 2003153167 A JP2003153167 A JP 2003153167A JP 2003153167 A JP2003153167 A JP 2003153167A JP 2004355392 A JP2004355392 A JP 2004355392A
Authority
JP
Japan
Prior art keywords
screen
user
information
knowledge
gui
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2003153167A
Other languages
Japanese (ja)
Inventor
Koji Nishida
廣治 西田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fuji Electric Co Ltd
Original Assignee
Fuji Electric Holdings Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fuji Electric Holdings Ltd filed Critical Fuji Electric Holdings Ltd
Priority to JP2003153167A priority Critical patent/JP2004355392A/en
Publication of JP2004355392A publication Critical patent/JP2004355392A/en
Withdrawn legal-status Critical Current

Links

Images

Landscapes

  • User Interface Of Digital Computer (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a GUI screen that is automatically adapted to the literacy of a user according to the evaluation results by NEM or the like. <P>SOLUTION: An evaluating part 12 evaluates operability using the NEM or the like based on an operation history stored in an operation history DB 14. A meta-knowledge DB 16 stores information (meta-knowledge) describing rules of changes concerning the kinds, layout and the like of parts in use related to each GUI screen, as well as a guidance display, etc. Based on the evaluation results by the evaluating part 12 and the meta-knowledge, the display creating part 13 changes as necessary the kinds and/or the layout of the parts forming the user GUI screen and displays guidance, etc. <P>COPYRIGHT: (C)2005,JPO&NCIPI

Description

【0001】
【発明の属する技術分野】
本発明は、コンピュータ、携帯端末等の情報機器におけるGUI画面の操作性制御に関する。
【0002】
【従来の技術】
従来、図12に示すように、コンピュータシステム200のGUI部201を介したユーザの操作性は、収集・評価部202によって、マウスの操作時間、操作距離、誤操作回数等の操作情報を収集し、これを操作履歴DB(データベース)203に格納・蓄積しておく。そして、蓄積した操作情報に基づいて、例えばNEM(Novice Expert ratio Method)等の評価手法により評価していた。
【0003】
NEMとは、ある一定のタスクにおいて、設計者(エキスバート)と初心者ユーザの操作に要する時間を比較し、ユーザビリティに問題のある操作ステップを把握する評価手法である。
【0004】
NE比は以下の公式により計算され、各操作タスクの難易度が示されることになる。
NE比 = Tn / Te
Tn : 初心者ユーザが要した平均時間
Te : エキスパートユーザが要した平均時間
NE比が大きいほど、操作に対するモデルのギャップが大きいということになる。
【0005】
上記GUI画面の評価に関しては、例えば特許文献1等に記載されている従来技術等が存在する。
特許文献1記載の発明は、GUIの操作性を定量的且つ客観的な点数を用いて評価するものであり、ソフトウェアのGUIの設計内容を示すGUI設計データを解析し、この解析結果を基に、上記ソフトウェアにおける操作性の評価を示すスコアの値を算出する。
【0006】
上記解析は、例えば、評価対象のソフトウェア及び他の幾つかのソフトウェアのそれぞれのGUI設計データから、使用されている単語の情報、各GUI部品のサイズの情報、各GUI部品の表示位置の情報、各GUI部品へのキー割当ての情報、使用されているフォントの情報、各GUI部品の配色の情報、のうちの少なくとも1つ以上を抽出し、各GUI設計データ毎の抽出情報を比較して、この比較結果と予め定められた判定基準を基に、上記評価対象のソフトウェアのおける上記抽出情報を構成する個々のデータの良否を判定する。
【0007】
上記スコアの値の算出は、これら個々のデータの良否の判定結果に基づいて行う。
また、特許文献2記載の発明は、画面に表示されるメニュー(選択項目)に係わり、各種の選択操作を必要とする作業において、選択操作の種類やその作業量に応じて、適切な修正方法と表示方法を自動的にユーザに提供し、選択操作の効率化および信頼性の向上を図るものである。
【0008】
特許文献2記載の発明は、概略的には、ユーザが選択した選択事項を操作履歴として収集し、この操作履歴に基づいて、上記ユーザによる選択操作の特徴を表す操作モデルを生成し、この操作モデルと上記選択事項の表示形式を指定する表示制約とから表示方法の記述を生成し、この表示方法の記述に基づいて選択事項を表示する。これにより、例えば、選択事項を指定された表示形式で、かつ、ユーザによる過去の選択操作の特徴を反映した表示順位で表示する。
【0009】
【特許文献1】
特開2002−123409号公報
【特許文献2】
特開平8−76955号公報
【0010】
【発明が解決しようとする課題】
上記特許文献1記載の発明は、GUIの評価を行うだけであり、評価結果を用いて自動的にGUI画面の改善等を行うことまでは想到していない。よって、画面の操作性改善は、個々人のノウハウで且つ手動で行うことになり、ノウハウが蓄積されず、また画面修正も1回のみ等頻度が少なく、また個人の特性を個々の画面に反映させることができず、また画面操作に慣れるにつれて、初心者のときは必要であった機能が、逆に、操作し難くなる原因となる場合があった。
【0011】
また、上記特許文献2記載の発明は、「ユーザが選択した選択事項の操作履歴蓄積データ」に基づいて学習と選択項目の表示を行うものであり、ユーザの癖を学習して選択項目の優先順位を判断するだけであり、操作履歴からリテラシーレベルを判断して、交換すべき部品の特定やその配置変更することや、時間の経過に伴ってユーザのリテラシーレベル自体が変化する(例えば最初は誰でも初心者であるが、画面操作に慣れるに従って通常はレベルが向上していく)ことまでは全く想到していない。
【0012】
本発明の課題は、各ユーザの画面操作情報を収集・蓄積し、各ユーザ個人の特性(リテラシーレベル、年齢等)に合った画面構成とすることができ、更にユーザ個人の画面操作リテラシーの向上に沿った画面構成とすることができ、画面操作性を継続的に改善することができる画面自律最適化方法、装置、記録媒体、プログラム等を提供することである。
【0013】
【課題を解決するための手段】
本発明による画面自律最適化装置は、ユーザによる各GUI画面上での操作情報を収集して操作履歴記憶手段に格納する収集手段と、前記操作履歴記憶手段に格納された操作履歴に基づいて、前記ユーザによる前記各GUI画面上での操作性の評価を行う評価手段と、予め、各GUI画面毎に、そのGUI画面を構成する各種部品の種類、配置、順番やガイダンス表示/非表示に係わる変更ルールを記述した情報であるメタ知識を格納するメタ知識格納手段と、各ユーザ毎に、各ユーザ向けの各GUI画面の現状の表示に用いられる現状画面情報を格納する現状画面情報格納手段と、前記評価手段による評価結果と、前記メタ知識とに基づいて、必要に応じて、前記各ユーザ向けのGUI画面を変更して、該変更内容を前記現状画面情報に反映させる表示生成手段と、前記現状画面情報格納手段に格納されている現状画面情報を用いて、GUI画面を表示するGUI制御手段とを有するように構成する。
【0014】
上記構成の画面自律最適化装置では、まず、GUI制御手段は、現状画面情報格納手段に格納される現状画面情報によって、各ユーザ毎にそれぞれ独自のGUI画面を表示する構成となっている。そして、収集手段によって随時、ユーザによる各GUI画面上での操作情報を収集して蓄積しておき、例えば定期的に評価手段によってユーザによる前記各GUI画面上での操作性の評価を行う。評価手法は、既存の手法を用いればよく、例えばNEM(Novice Expert ratio Method)等の手法を用いる。そして、予め、上記メタ知識を設定・格納しておき、表示生成手段が、上記評価結果とメタ知識とに基づいて、必要に応じて、GUI画面の表示の仕方を変更することができる。例えば、そのGUI画面を構成する各種部品の種類や配置を変更したり、ガイダンス表示/非表示を行うことができる。これによって、各ユーザ個人の特性に合った画面構成とすることができ、ユーザが操作し易くなることが期待できる。
【0015】
また、上記構成の画面自律最適化装置において、例えば、前記メタ知識における変更ルールは、リテラシーレベルに応じて規定されるものであり、前記表示生成手段は、前記評価手段による評価結果に基づいて、そのユーザの前記GUI画面上での各操作ステップ毎のリテラシーレベルを判定し、該判定結果と前記変更ルールとに基づいて、画面変更が必要である場合には該変更ルールに従って前記各ユーザ向けのGUI画面を構成する部品の種類または部品の配置や順番を変更しあるいはガイダンスを表示するものであり、前記評価手段による評価と該評価結果に基づく前記表示生成手段による処理は、継続的に、定期的又は任意の時に行うように構成してもよい。
【0016】
上記構成によれば、各ユーザ個人のリテラシーレベルに合った画面構成とすることができ、更にユーザ個人の画面操作リテラシーの向上に沿った画面構成とすることができ、画面操作性を継続的に改善することができる。
【0017】
また、上記変更ルールは、リテラシーレベルに関連するものに限らない。例えば、ユーザの属性情報(所属、年齢、コンピュータ経験年数)に関連する変更ルールがあってもよい。例えば、ユーザが高齢者であった場合、画面の文字を大きくする等の変更ルールがあってもよい。
【0018】
なお、上述した本発明の画面自律最適化装置の各構成により行なわれる機能と同様の制御をコンピュータに行なわせるプログラムを記憶したコンピュータ読み取り可能な記憶媒体から、そのプログラムをコンピュータに読み出させて実行させることによっても、前述した課題を解決することができる。本発明は、このようなプログラム自体としても構成することができるし、当該プログラムを記録した記録媒体自体(特に可搬型記録媒体)として構成することもできるし、その方法として構成することもできる。
【0019】
【発明の実施の形態】
以下、図面を参照して本発明の実施の形態について説明する。
尚、以下の説明中の“リテラシー”とは、コンピュータ・リテラシーすなわちコンピュータを使いこなす能力であって、特にGUI画面の操作性に係わる能力を意味するものとする。
【0020】
図1は、本例のコンピュータシステム(画像自律最適化装置10)の機能ブロック図である。
図示の画像自律最適化装置10は、収集部11、評価部12、表示生成部13、操作履歴DB(データベース)14、ユーザ知識DB15、メタ知識DB16、現状画面情報DB17、画面部品DB18、GUI(Graphical User Interface)部19を有する。更に、知識交換部20、及び部品交換部21を有する構成であってもよい。
【0021】
収集部11は、ユーザがGUI部19を介してマウス操作、キーボード操作等を行うと、これら操作機器の操作情報を収集して操作履歴DB14に格納する。尚、操作履歴(操作情報の蓄積)は、操作機器を手で直接操作した場合の情報に限らない。例えば近年、人の視線に基づいてGUIの入力を行う技術が開発されているので、このような操作機器を手で直接操作しない場合の情報であってもよい。これは、視線に限らず、例えば脳波等であっても同様である。
【0022】
評価部12は、定期的または外部からのイベント等により、操作履歴DB14に格納された操作履歴に基づいて、操作性の評価を行う。操作性の評価手法自体は、従来技術を利用すればよく、例えば、上記NEM(Novice Expert ratio Method)等の評価手法を用いればよい。但し、従来のNEMでは、上記の通り「Tn : 初心者ユーザが要した平均時間」とし、操作に対するモデルのギャップを判定するものであったが、本例では、このNEM法の手法を利用して、「Tn : 対象ユーザが要した平均時間」とし、後述する閾値を用いて対象ユーザのリテラシーレベルを判定する。更に、本例では、後述するように、操作時間以外の情報も用いて上記評価を行うが、これに限るわけではない。
【0023】
ユーザ知識DB15は、外部の任意のDBから得た当該対象ユーザに関する属性情報(例えば人事情報等)、あるいはユーザ本人が入力したユーザの属性情報(例えば名前、年齢、性別等)を格納する。
【0024】
メタ知識DB16は、各GUI画面毎に、そのGUI画面に関する各種情報、例えばフレーム、利用部品の種類や配置、順番等やガイダンス表示/非表示等に係わる変更ルールを記述した情報(以下、メタ知識と呼ぶ)を格納する。尚、“部品の種類”とは、部品の形状(例えば、部品がボタンであれば、丸、四角、菱形等)、色(色相、彩度、濃度等)、文字サイズ等を意味する。このメタ知識は、例えば管理サーバ30の管理者等が、予め、全てのユーザに共通のものとして設定しておく。また、メタ知識は、運用中であっても、管理者等が随時変更してもよい。
【0025】
表示生成部13は、上記評価部12による操作性の評価結果と上記メタ知識とに基づいて(必要に応じてユーザ知識DB15等も参照して)、例えば後述するリテラシーレベルを判定する等したうえで、対策方法を判断する。そして、判断した対策方法の内容に応じて、例えば部品を変更する場合には、変更すべき部品に係わる画面部品を画面部品DB18から選定する。例えば、変更すべき部品が“ボタン”であった場合、画面部品DB18に格納されている画面部品の中で“ボタン”に係わる画面部品(例えば四角ボタン、丸ボタン、菱形ボタン等)の中から、上記判断した対策方法に応じたものを選定する。更に、選定した画面部品を用いた部品の表示の仕方(色、文字の大きさ、配置、順番等)をメタ知識DB16に基づいて決定し、これを現状画面情報DB17に反映させる。このようにして、評価部12による評価結果とメタ知識とに基づいて(必要に応じてユーザ知識DB15等も参照して)、GUI画面の画面構成が変更される。
【0026】
現状画面情報DB17は、当該ユーザ本人向けの各GUI画面の画面情報であって、現状の表示に用いられる画面情報を格納する。つまり、後述するGUI部19は、現状画面情報DB17に格納されている現状画面情報を用いて、GUI画面の表示を行う。よって、GUI画面の表示内容を変更する場合には、現状画面情報DB17に格納されている現状画面情報であって変更対象のGUI画面に関する現状画面情報を、上記表示生成部13が変更することになる。
【0027】
画面部品DB18は、GUI画面を構成する部品を表示するために必要な各種画面部品の情報を格納する。例えば、GUI画面を構成する部品の中で“ボタン”を例にすると、画面部品は例えば“四角ボタン”、“丸ボタン”、“菱形ボタン”等である。つまり、GUI画面上の任意の“ボタン”(例えば承認ボタン)を、画面部品“四角ボタン”を用いて表示すると、承認ボタンは四角ボタンで表示されることになる。
【0028】
GUI部19は、画面自律最適化装置10を実現するパソコン等のコンピュータに備わっているGUI画面表示機能を示す。すなわち、ディスプレイ上にボタン等を表示し、この表示に対するキーボード、マウス等によるユーザ操作を受け付けるという、一般的なGUI機能を提供する構成を示す。このように、GUI部19の機能自体は、一般的なものであり、特に図示しないが、表示データや入力情報の処理は、画面部品オブジェクトのメソッドや、表示データ用DB、表示処理プログラム、入力処理プログラム等により処理される。また、画面のレイアウト、ボタンの配置、色情報等は、現状画面情報DB17のデータに基づいて表示する。つまり、同じGUI画面(例えば承認画面)であっても、基本的には各ユーザ毎にそれぞれ異なる画面構成となる。
【0029】
上記構成の画面自律最適化装置10は、概略的には、評価部12による評価結果とメタ知識DB16のメタ知識に基づいて(必要に応じてユーザ知識DB15も参照して)、表示生成部13が、必要に応じて、そのユーザ本人向けのGUI画面の画面構成を自律的に変更して(部品の種類/配置の変更、ガイダンスの表示等)、操作性を最適化するものである。更に、評価部12及び表示生成部13の処理は、例えば継続的・定期的に行う。つまり、ユーザのリテラシーレベルは、たとえ最初は初心者であっても、操作に慣れていくに従って、向上していくものである。よって、継続的・定期的に処理を行うことで、各ユーザ毎に、そのときのユーザのリテラシーレベルに合った画面構成とすることができ、画面操作性を継続的に改善することができる。
【0030】
知識交換部20は、上記操作履歴DB14、ユーザ知識DB15、メタ知識DB16に格納される情報を、不図示のネットワーク(インターネット、イントラネット等)を介して、管理サーバ30との間で情報交換し、これらDBの情報のレベルアップやレベルアップの為の情報収集に必要な機能を提供する。
【0031】
部品交換部21は、現状画面情報DB17、画面部品DB18に格納される情報を、不図示のネットワーク(インターネット、イントラネット等)を介して、管理サーバ30との間で情報交換し、これらDBの情報のレベルアップやレベルアップの為の情報収集に必要な機能を提供する。
【0032】
管理サーバ30は、不図示のネットワーク(インターネット、イントラネット等)を介して、各画面自律最適化装置10との間で上記情報交換を行って蓄積することで、各画面自律最適化装置10の各種DBの情報を一元管理すると共に、各画面自律最適化装置10の操作性の管理や操作性に関する全体管理を行う。例えば、メタ知識を追加・変更し、これを各画面自律最適化装置10に通知して、メタ知識DB16を更新させる。
【0033】
図2(a)〜(c)、図3(a)、(b)に、上記操作履歴DB14、ユーザ知識DB15、メタ知識DB16、現状画面情報DB17、画面部品DB18に格納されるデータの一例を示す。また、図3(c)には、操作ステップ−部品対応テーブル90を示す。
【0034】
図2(a)には操作履歴DB14に格納されるテーブルの一例を示す。
操作履歴DB14には、各GUI画面毎に、その画面に関する各ユーザの各操作ステップ毎の操作履歴データと、この操作履歴の評価(例えばNEM法による評価)の為に必要なデータ(上記エキスパートユーザの操作履歴)を格納する。つまり、操作履歴DB14には、各画面毎・各ユーザ毎に、各操作ステップ40毎に、そのユーザ本人の本人操作履歴41が格納され、更に上記エキスパートユーザの操作履歴であるエキスパート操作履歴45が格納される。ここで、操作ステップ40とは、基本的にはGUI画面上でのユーザの1回の操作に対応し、図3(c)の操作ステップ−部品対応テーブル90に示すように、各操作ステップ40毎に、基本的には1つの部品を操作するものである。但し、これは「基本的には」であり、1つの操作ステップで複数の部品を操作する場合もあり、この場合には操作ステップ−部品対応テーブル90において、1つの操作ステップに対して複数の部品名が対応付けられて登録されることになる。
【0035】
尚、図2(a)に示すデータ例は一例であり、例えばユーザの視線履歴や脳波等のデータを格納するものであってもよい。また、評価方式はNEM法に限るものではない。
【0036】
本人操作履歴41のデータ項目は、マウス移動距離42、ボタン操作時間43、誤操作履歴44等である。
エキスパート操作履歴45には、例えばNEM法等で評価する場合に必要となる、GUI画面操作の習熟者(エキスパート)の操作履歴情報を格納するものであり、そのデータ項目は、本人操作履歴41と同じである。つまり、マウス移動距離46、ボタン操作時間47、誤操作履歴48等である。
【0037】
マウス移動距離42、46は、部品間のマウス移動距離であり、後述する図3(a)に示す部品の配置アドレス72に基づいて求められ格納される。
ボタン操作時間43、47は、例えばボタン部品の画面表示開始時刻から部品操作までの時間である。
【0038】
誤操作履歴44、48は、エラーが発生した操作の部品とその時刻、及び誤操作の回数等である。
図2(b)にはユーザ知識DB15に格納されるテーブルの一例を示す。
【0039】
ユーザ知識DB15には、当該ユーザに関する各種ユーザ情報が格納され、図示の例に限るものではないが、少なくともパソコン等の操作レベルに関係する情報、すなわち年齢52、役割55、パソコン操作経験年数56等の情報が格納されていることが望ましい。
【0040】
図示の例では、ユーザ知識DB15には、当該ユーザの名前51、年齢52、性別53、住所(地域)54、役割55、パソコン操作経験年数56等の情報が格納される。これらの情報は、当該ユーザが入力画面(不図示)に従って手入力してもよいし、外部の個人マスタ情報から必要な情報をコピーしてもよい(例えば会社内であれば、通常、社員情報DB等が存在するはずである)。また、これらの情報は、例えばユーザのログインID等に紐付けられている。
【0041】
図2(c)にはメタ知識DB16に格納されるテーブルの一例を示す。
メタ知識DB16には、各GUI画面の構成を変更する為のルール知識を格納する。図示の例では、対策ルール61、フレーム名62、部品名63、色ルール64(色相64a、彩度64b、濃度64c等)、配置ルール65、画面部品ルール66(文字サイズ66a等)を格納する。
【0042】
対策ルール61は、知識データであり、操作履歴に基づくNEM法等の評価に基づいて判定されるリテラシーレベルやユーザ知識に対応する対策ルールが、例えばif−thenの形式で記載されている。
【0043】
フレーム名62は、当該GUI画面を構成するフレームのフレーム名である。部品名63は、当該GUI画面の上記フレーム名62のフレームを構成する部品(ボタン、表示設定項目等)の部品名である。
【0044】
色ルール64は、上記部品名63の部品の色を決定する為に必要な情報であり、図示の例では上記の通り色相64a、彩度64b、濃度64c等である。例えば部品名「承認ボタン」に対して色相64aは赤、緑等の色名、彩度64b、濃度64cはその値が格納される。
【0045】
配置ルール65は、上記フレーム名62のフレームや部品名63の部品の配置場所、配置順、優先度等である。優先度とは、例えば左側の方が優先順位が高い等の情報である。
【0046】
画面部品ルール66は、例えばリテラシーレベルや年齢等に応じた上記フレーム、部品に係わるルールである。ここでは、一例として文字サイズ66aのみを示す。これは、ユーザのリテラシーレベルや年齢等に応じた文字サイズが記述される。
【0047】
図3(a)には現状画面情報DB17に格納されるテーブルの一例を示す。
図示の例では、現状画面情報DB17には、あるユーザ用の現状のGUI画面を構成する各部品毎に、その画面部品名71、配置アドレス72、色73(色相73a、彩度73b、濃度73c)、文字サイズ74等が格納されている。これらデータ項目自体は、従来のものと略同様であってよく、特に説明しないが、本例では、現状画面情報DBの内容が継続的に自動的に更新されていく。
【0048】
図3(b)には画面部品DB18に格納されるテーブルの一例を示す。
図示の例では、画面部品DB18には、GUI画面を構成する各部品の表示に用いる各種画面部品について、その画面部品名81、部品リテラシーレベル82、部品本体83が格納される。
【0049】
部品リテラシーレベル82には、その画面部品に対応するリテラシーレベルが格納される。リテラシーレベルは、ここでは簡単の為、初心者、中級者、熟練者の3段階あるものとする。例えば、あるユーザのある操作ステップが初心者レベルであると判定された場合には、GUI画面を構成する部品の中でこの操作ステップに係わる部品については、部品リテラシーレベル82が“初心者”である画面部品が選択されることになり、この初心者向けの画面部品を用いて上記部品が表示されることになる。
【0050】
部品本体83には、当該画面部品を表示する為に必要な情報が格納されたファイルのファイル名等が格納される。
図3(c)には、操作ステップ−部品対応テーブル90の一例を示す。
【0051】
既に説明してある通り、操作ステップ−部品対応テーブル90には、各操作ステップ91毎に、その操作ステップに係わる部品の部品名92が対応付けられている。1つの操作ステップ毎に、1または複数の部品が対応付けられる。
【0052】
尚、操作履歴DB14の本人操作履歴41、及び現状画面情報DB17には、各ユーザ毎の個別のデータが格納されているので、特に図示していないが、それぞれ例えば各ユーザのログインIDと紐付けられている。つまり、処理対象ユーザのログインIDによって、当該ユーザ用の本人操作履歴41、現状画面情報が読み出されて、後述する処理が実行されることになる。
【0053】
図4は、本例の画像自律最適化装置10によって実行される処理全体の概略フローチャート図である。
図4に示す処理については既に図1において説明してあるので、簡単に説明するならば、まず、通常時は、収集部11が、ユーザによる操作情報を収集して操作履歴DB14に格納する処理を行っている(ステップS11)。
【0054】
そして、定期的または外部からのイベント等により、評価部12が操作履歴DB14に格納された操作履歴に基づいて操作性の評価を行い(ステップS12)、この評価結果とメタ知識DB16の情報等に基づいて表示生成部13が必要に応じてGUI画面の表示内容を変更する(ステップS13)。
【0055】
以上の処理を継続的に行うことによって、例えば、ユーザがGUI画面の操作に慣れていない者(初心者等)であったり、特定の操作ステップの操作性に問題がある場合、初心者向けにガイダンス等を表示したり、問題がある操作ステップに係わる部品を操作(選択等)し易くなるように部品やその表示内容(色、配置等)を変更すると共に、その後、時間の経過と共にユーザがGUI画面の操作に慣れてくるに従って、そのときのユーザのリテラシーに応じて随時GUI画面構成が変更される。例えば初心者の頃にはガイダンスが必要であったが慣れてくると煩わしくなるが、本例ではユーザの習熟度が上がると自動的にガイダンスが表示されなくなる等というように、各ユーザ毎に、そのときのユーザのリテラシーに応じた最適な画面が提供されるようになる。
【0056】
また、上記ステップS11〜S13の処理だけでなく、例えば定期的に、ステップS14、S15の処理を実行するようにしてもよい。
ステップS14の処理は、上記知識交換部20による処理であり、例えば、操作履歴DB14の操作履歴情報を管理サーバ30に渡すと、管理サーバ30は、各画面自律最適化装置10から渡された複数ユーザの操作履歴をもとに各GUI画面毎に各操作ステップの操作時間、距離等の統計をとり、これを表示する。この表示に基づいて、例えば画面開発者等が、ある画面において多くのユーザにとって時間が掛かっている操作ステップがあるか等の分析を行い、分析結果に基づいて「対策ルール」を変更すること等ができる。管理サーバ30は、変更後の「対策ルール」を各画面自律最適化装置10の知識交換部20に渡す。各画面自律最適化装置10では、変更後の「対策ルール」によりメタ知識DB16を更新する。あるいは、管理サーバ30において、例えば、その管理者が不図示の人事管理DB、組織DB等を参照して人事異動や組織変更によって「ユーザ知識」の変化を把握すると、これを該当する画面自律最適化装置10の知識交換部20に通知し、画面自律最適化装置10はこの通知に基づいてユーザ知識DB15を更新する。
【0057】
ステップS15の処理は、上記部品交換部21による処理であり、管理サーバ30において上記ステップS14における画面開発者等による分析結果に基づいて部品の形状、色、材質等や画面のレイアウト等の変更が行われると、部品交換部21は、変更後の部品等のデータを管理サーバ30から受け取って、これに基づいて画面部品DB18等を更新する。
【0058】
以下、図4のステップS12の操作履歴評価処理、ステップS13の表示生成処理について、更に詳細に説明する。
図5は、ステップS12の操作履歴評価処理の詳細フローチャート図である。
【0059】
図5に示す処理は、各GUI画面毎にそれぞれ実行する。
図示のステップS22〜S24の処理は、処理対象のGUI画面に係わる全ての操作ステップk(k=1〜n;nは当該GUI画面に係わる全操作ステップ数)について、繰り返し実行する。すなわち、最初はkに初期値1を代入し、ステップS22〜S24の処理を実行する毎にkを+インクリメントして(ステップS25)次の操作ステップkについてステップS22〜S24の処理を実行することを、全ての操作ステップについて処理を行うまで繰り返し実行し、k>nとなったら(ステップS26,YES)、ステップS27の処理に移行する。
【0060】
上記ステップS22、S23の処理は、操作履歴DB14から、処理対象のGUI画面に係わる処理対象の操作ステップkのデータ(本人操作履歴41、エキスパート操作履歴45)を取得する処理である。ステップS22では、本人操作履歴41を取得し、当該本人操作履歴41におけるマウス移動距離42をMnk、ボタン操作時間43をBnk、誤操作履歴(誤操作率)44をWnkとする。同様に、ステップS23では、エキスパート操作履歴45を取得し、当該エキスパート操作履歴45におけるマウス移動距離46をMek、ボタン操作時間47をBek、誤操作履歴(誤操作率)48をWekとする。
【0061】
そして、例えばNEMを用いる場合には、以下の式により、処理対象のGUI画面に係わる処理対象の操作ステップkに関するNE比(NEk)を算出する(ステップS24)。
【0062】

Figure 2004355392
(ここで、ak,bk,ckは、操作ステップk毎に設定可能な重み係数である。設定は例えばユーザ本人が行う。また、デフォルトでは全て1になっている)
尚、従来技術で説明したNEMの計算法では、操作時間のみを用いていたが、本例では操作時間を補足するデータとして更にマウス移動距離と誤操作履歴を用いて上記の計算を行う。
【0063】
以上のステップS22〜S24の処理を繰り返し実行し、全ての操作ステップkについてNE比(NEk)を算出したら、NE比が大きい順に操作ステップkを整列する(ステップS27)。NE比は、基本的には、習熟度が低いとその値が大きくなるので、ステップS27の処理は、そのユーザにとって習熟度が低い操作ステップ、すなわち苦手な操作ステップから順番に整列するという意味になる。
【0064】
続いて、この処理結果を用いて、ステップS13の表示生成処理を行う。
図6は、ステップS13の詳細フローチャート図である。
尚、特に図示していないが、上記ステップS27で整列させた順番で各操作ステップ毎に、図6の処理を実行する。これは、基本的には、全ての操作ステップについて行う。但し、これに限らず、例えば整列させた順番の例えば1番目から5番目までを処理対象とすること、すなわちそのユーザにとって比較的習熟度が低い操作ステップのみを処理対象としてもよい。
【0065】
図6の処理は、まず、当該処理対象の操作ステップkについてのユーザの習熟度を判定する(ステップS31)。これは、例えば、予め各リテラシーレベルLに対応する閾値xLを登録しておき、当該操作ステップkについての上記NE比を閾値xLと比較することにより、ユーザの習熟度を判定する。リテラシーレベルLは、ここではL=1,2,3の3段階あるものとし、L=1は初心者、L=2は中級者、L=3は熟練者を意味するものとする。この場合、閾値x1と閾値x2を設定しておき、NEk>閾値x1の場合は初心者、閾値x1>NEk>閾値x2の場合は中級者、NEk<閾値x2の場合は熟練者等と判定する。
【0066】
次に、当該操作ステップkに係わる部品名を、図3(c)の操作ステップ−部品対応テーブル90を検索して求めて、続いて、メタ知識DB16から、処理対象のGUI画面に係わるメタ知識の中から上記求めた部品名に関するメタ知識データを取得する(ステップS32)。また、ユーザ知識DB15から、処理対象のユーザのデータを取得する(ステップS33)。更に、現状画面情報DB17から、上記求めた部品名に関する情報を取得する(ステップS34)。
【0067】
次に、まず、ステップS32で取得したメタ知識の中の対策ルール61に基づいて、画面の変更を行うか否かを判断し、画面変更を行うと判断した場合には、対策ルール61に従ってステップS34で取得した情報を変更し(ステップS35)、これにより現状画面情報DB17を更新する(ステップS36)。
【0068】
ここで、図7(a)〜(c)に、メタ知識DB16、現状画面情報DB17、画面部品DB18に格納されるデータの具体例を示す。
図7(a)には、メタ知識DB16に格納されるメタ知識データの具体例を2つ示す。つまり、図示のメタ知識データ100、メタ知識データ110を示す。メタ知識データ100は承認画面に係わるデータであり、メタ知識データ110は承認完了画面に係わるデータである。
【0069】
また、図7(b)には、現状画面情報DB17に格納される、承認画面に係わる当該ユーザ用の現状画面情報(承認画面を構成する各部品の情報)の中で、部品「ボタンA」を例にして、このボタンAに係わる現状画面情報の具体例を示す。図7(b)には、ボタンAに係わる現状画面情報であって、本例の処理による変更前の現状画面情報120、変更後の現状画面情報130を示す。また、図8(a)には変更前の現状画面情報120に基づく画面表示、図8(b)には変更後の現状画面情報130に基づく画面表示を示す。
【0070】
また、図7(c)には、画面部品DB18に格納される各種画面部品のデータの具体例であって、ボタンに係わる画面部品「四角ボタン」、「丸ボタン」のデータ例140、150を示す。
【0071】
上記図6の処理において、例えば、処理対象のGUI画面が承認画面であり、ステップS32で求めた部品名がボタンAであったとした場合、ステップS32において例えば図7(a)に示す承認画面のボタンAに係わるメタ知識100(部品名63=ボタンA)が取得される。また、この例ではステップS34において現状画面情報DB17から承認画面のボタンAに関する変更前の現状画面情報120が取得される。
【0072】
メタ知識100の例では、対策ルール61は、「レベル2の場合はレベル2部品にし配置の優先度を上げる」となっているので、まず、ステップS31の判定結果がレベル2であるか否かを判定し、レベル2であった場合には当該対策ルール61に従って画面の変更を行う。この例では、まず、ボタンAをレベル2部品にする為に、画面部品DB18を参照して、ボタンに関する各種画面部品の中から、部品リテラシーレベル82がレベル2である画面部品を検索して求める。図7(c)に示すボタンに関する画面部品の中で、部品リテラシーレベル82がレベル2であるのは丸ボタンであるので、ボタンAの画面部品は丸ボタンに変更する。また、配置の優先度を上げる為に上記メタ知識100の配置ルール65を参照すると「左側が優先度が高い」というルールになっているので、ボタンAの配置を左側に移す、という変更を行う。また、メタ知識100における色ルール64において色相64aはレベル2では“マゼンダ”となっており、1文字サイズ66aはレベル2では‘16’となっているので、上記取得した情報120と比較して、異なる場合には、これらも変更する。図示の情報120の例では、色相64aは“白”、1文字サイズ66aは‘12’となっているので、これらも変更することになる。この結果、承認画面のボタンAに関する現状画面情報は、変更前の現状画面情報120の内容から変更後の現状画面情報130の内容へと変更される。これによって、GUI画面は、例えば図8(a)に示す内容から図8(b)に示す内容へと変更される。
【0073】
つまり、変更前のボタンAの形状は、図8(a)に示す通り四角であったが、変更後では図8(b)に示す通り“丸”になる。また、ボタンAは、その表示色が白からマゼンダに変更されると共に、文字サイズが大きくなる(12ポイントから16ポイントになる)。更に、左側へと移動している。
【0074】
このように、ボタンAが強調表示され、視覚的に目立つようになったことで、ボタンAを操作し易くなる効果が期待できる。
メタ知識(特に対策ルール61)は、様々な定義を管理者等が自由に行ってよいので、その具体例を逐一示すことはできないが、ここで他の具体例である図7(a)の図上右側に示すメタ知識110について説明する。
【0075】
メタ知識110における対策ルール61は「レベル1の場合はガイダンス表示」となっており、もしステップS31の判定結果がレベル1であった場合には、図8(c)に示す変更前の画面から、図8(d)に示す変更後の画面、すなわちガイダンスが表示される画面へと変わることになる。但し、後にユーザのリテラシーレベルが向上する等して、レベル1ではなくなった場合には、ガイダンスが表示されなくなる。
【0076】
あるいは、対策ルール61は、必ずしもステップS31の判定結果、すなわちリテラシーレベルに基づく内容にする必要はない。例えば、対策ルール61を「50歳台以上は全てのフォントサイズ拡大」等としてもよい。この場合は、ステップS33で取得したユーザ知識情報の年齢52を参照して、変更すべきか否かを判断することになる。この例では、もしユーザが50歳台以上であった場合には、図9(a)に示す画面から、図9(b)に示す画面へと変更することになる。
【0077】
尚、図8(a)〜(d)に示す「表示設定項目領域」には表示データや各種設定を行う部品(例えば任意の項目の入力や選択肢からの選択をユーザに行わせる部品)が表示され、図示の例では4つの部品W,X,Y,Zが表示されている。
【0078】
また、図9(c)、(d)には、対策ルール61が「表示設定項目領域のX表示の優先度とフォントサイズ拡大」であった場合の変更前、変更後の画面を示す。
【0079】
また、図10(a)、(b)には、対策ルール61が「NE比が大きい順に表示設定項目領域の表示をする」であった場合であって、仮に表示設定項目領域中の項目内容がW,X,Y,Zであり、NE比が大きい順にY→X→Z→Wであった場合の変更前、変更後の画面を示す。
【0080】
以上、対策ルールの例の一部を説明したが、他にも多種多様が対策ルールがあってよい。例えば、メニューに複数のタイトルが表示される場合、表示タイトルの順番や表示タイトルを表示するか否かが当該ユーザの当該メニュー操作頻度により自律的に制御され、例えば操作評価結果の順に上から配置する等、自律的に配置変更がされるものであってもよい。また、例えば、リテラシーレベルに応じてガイダンスの表示内容が自律的に変わる、あるいは表示されなくなる等の自律的な制御が行われてもよい。また、ボタンにより画面遷移される場合は画面遷移の操作評価結果により画面遷移を無くし、スクロール遷移にする等も考えられる。
【0081】
尚、上述した例では、対策ルール61は、文章で書かれているが、これは内容が分かり易くなるようにしている為であり、実際には、対策ルール61は、例えばif−then文等のコンピュータが解釈実行可能な形式で格納されている。
図11は、上述した画面自律最適化装置10を実現するコンピュータのハードウェア構成の一例を示す図である。
【0082】
同図に示すコンピュータ160は、CPU161、メモリ162、入力部163、出力部164、記憶部165、記録媒体駆動部166、及びネットワーク接続部167を有し、これらがバス168に接続された構成となっている。同図に示す構成は一例であり、これに限るものではない。
【0083】
CPU161は、当該コンピュータ160全体を制御する中央処理装置である。
メモリ162は、プログラム実行、データ更新等の際に、記憶部165(あるいは可搬型記録媒体169)に記憶されているプログラムあるいはデータを一時的に格納するRAM等のメモリである。CPU161は、メモリ162に読み出したプログラム/データを用いて、上述してある各種処理(図5、図6に示す処理等)を実行する。
【0084】
入力部163は、例えば、キーボード、マウス等である。
出力部164は、例えばディスプレイ等であり、例えば図8(a)〜図10(b)のようなGUI画面を表示する。
ネットワーク接続部167は、例えばイントラネットやインターネット等のネットワークに接続して、他の情報処理装置(管理サーバ30等)とのコマンド/データ送受信を行う為の構成である。
記憶部165は、例えばハードディスク等であり、上述した様々な処理・機能を、コンピュータ160に実行させるためのプログラム/データ(図5、図6の処理を実行させるプログラム、図2(a)〜図3(c)、図7(a)〜(c)に示すデータ等)が格納されている。
【0085】
あるいは、これらプログラム/データは、可搬型記録媒体169に記憶されているものであってもよい。この場合、可搬型記録媒体169に記憶されているプログラム/データは、記録媒体駆動部166によって読み出される。可搬型記録媒体169とは、例えば、FD(フレキシブル・ディスク)169a、CD−ROM169b、その他、DVD、光磁気ディスク等である。
【0086】
あるいは、また、上記プログラム/データは、ネットワーク接続部167により接続しているネットワークを介して、他の装置内に記憶されているものをダウンロードするものであってもよい。あるいは、更に、インターネットを介して、外部の他の装置内に記憶されているものをダウンロードするものであってもよい。
【0087】
また、本発明は、上記本発明の各種処理をコンピュータ上で実現するプログラムを記録した可搬型記憶媒体として構成できるだけでなく、当該プログラム自体として構成することもできる。
【0088】
【発明の効果】
以上、詳細に説明したように、本発明の画面自律最適化装置、最適化方法、記録媒体、プログラム等によれば、画面操作情報を収集蓄積し、また個人の特性(リテラシーレベル、年齢等)に合った画面構成とすることができ、更に個人の画面操作リテラシーの向上に沿った画面構成とすることができ、画面操作性を継続的に改善することができる。
【0089】
また、管理サーバが、各画面自律最適化装置との間で上記情報交換を行って一元管理し、より適切な画面構成となるような交換ルール等を作成すること等ができる。
【図面の簡単な説明】
【図1】画像自律最適化装置の機能ブロック図である。
【図2】(a)は操作履歴DB、(b)はユーザ知識DB、(c)はメタ知識DBに格納されるテーブルの一例を示す図である。
【図3】(a)は現状画面情報DB、(b)は画面部品DBに格納されるテーブル、(c)には、操作ステップ−部品対応テーブルの一例を示す。
【図4】画像自律最適化装置によって実行される処理全体の概略フローチャート図である。
【図5】図4のステップS12の詳細フローチャート図である。
【図6】図4のステップS13の詳細フローチャート図である。
【図7】(a)〜(c)は、メタ知識DB、現状画面情報DB、画面部品DBに格納されるデータの具体例を示す図である。
【図8】(a),(b)は、図7(b)に対応する表示画面の変更例、(c),(d)はメタ知識データ110に対応する表示画面の変更例を示す図である。
【図9】(a)〜(d)は、表示画面の変更例を示す図である。
【図10】表示画面の変更例を示す図である。
【図11】画面自律最適化装置を実現するコンピュータのハードウェア構成の一例を示す図である。
【図12】従来技術を説明する為の図である。
【符号の説明】
10 画像自律最適化装置
11 収集部
12 評価部
13 表示生成部
14 操作履歴DB
15 ユーザ知識DB
16 メタ知識DB
17 現状画面情報DB
18 画面部品DB
19 GUI部
20 知識交換部
21 部品交換部
30 管理サーバ
40 操作ステップ
41 本人操作履歴
42 マウス移動距離
43 ボタン操作時間
44 誤操作履歴
45 エキスパート操作履歴
46 マウス移動距離
47 ボタン操作時間
48 誤操作履歴
51 名前
52 年齢
53 性別
54 住所(地域)
55 役割
56 パソコン操作経験年数
61 対策ルール
62 フレーム名
63 部品名
64 色ルール
64a 色相
64b 彩度
64c 濃度
65 配置ルール
66 画面部品ルール
66a 文字サイズ
71 画面部品名
72 配置アドレス
73 色
73a 色相
73b 彩度
73c 濃度
74 文字サイズ
81 画面部品名
82 部品リテラシーレベル
83 部品本体
90 操作ステップ−部品対応テーブル
91 操作ステップ
92 部品名
100 メタ知識データ
110 メタ知識データ
120 変更前の現状画面情報
130 変更後の現状画面情報
140 画面部品データ(四角ボタン)
150 画面部品データ(丸ボタン)
160 コンピュータ
161 CPU
162 メモリ
163 入力部
164 出力部
165 記憶部
166 記録媒体駆動部
167 ネットワーク接続部
168 バス
169 可搬型記録媒体[0001]
TECHNICAL FIELD OF THE INVENTION
The present invention relates to operability control of a GUI screen in an information device such as a computer and a portable terminal.
[0002]
[Prior art]
Conventionally, as shown in FIG. 12, the operability of a user via a GUI unit 201 of a computer system 200 is obtained by collecting operation information such as a mouse operation time, an operation distance, and the number of erroneous operations by a collection / evaluation unit 202. This is stored and accumulated in the operation history DB (database) 203. Then, based on the accumulated operation information, evaluation is performed by an evaluation method such as NEM (Novice Expert Ratio Method).
[0003]
The NEM is an evaluation method for comparing the time required for the operation of a designer (exvert) and the operation of a novice user in a certain task to grasp operation steps having a problem in usability.
[0004]
The NE ratio is calculated by the following formula, and indicates the difficulty of each operation task.
NE ratio = Tn / Te
Tn: average time taken by a novice user
Te: average time taken by expert users
The larger the NE ratio, the larger the model gap for operation.
[0005]
With respect to the evaluation of the GUI screen, for example, there is a conventional technique described in Patent Document 1 or the like.
The invention described in Patent Document 1 evaluates the operability of a GUI using a quantitative and objective score, analyzes GUI design data indicating the design contents of a software GUI, and based on the analysis result. Then, a score value indicating the evaluation of the operability of the software is calculated.
[0006]
The analysis includes, for example, information on words used, information on the size of each GUI component, information on the display position of each GUI component, from GUI design data of the software to be evaluated and some other software, At least one of information on key assignment to each GUI component, information on font used, and information on color scheme of each GUI component is extracted, and the extracted information for each GUI design data is compared. Based on the comparison result and a predetermined criterion, the quality of each piece of data constituting the extraction information in the software to be evaluated is determined.
[0007]
The calculation of the score value is performed based on the determination result of the quality of the individual data.
Further, the invention described in Patent Document 2 relates to a menu (selection item) displayed on a screen, and in an operation requiring various selection operations, an appropriate correction method according to the type of the selection operation and the amount of the operation. And a display method are automatically provided to the user to improve the efficiency and reliability of the selection operation.
[0008]
The invention described in Patent Literature 2 generally collects a selection item selected by a user as an operation history, generates an operation model representing characteristics of the selection operation by the user based on the operation history, A description of a display method is generated from a model and a display constraint that specifies a display format of the selection item, and the selection item is displayed based on the description of the display method. Thereby, for example, the selection items are displayed in the specified display format and in the display order reflecting the characteristics of the past selection operation by the user.
[0009]
[Patent Document 1]
JP-A-2002-123409
[Patent Document 2]
Japanese Patent Application Laid-Open No. 8-69555
[0010]
[Problems to be solved by the invention]
The invention described in Patent Literature 1 only evaluates a GUI, and does not think about automatically improving a GUI screen using the evaluation result. Therefore, the operability of the screen is improved manually and with the know-how of the individual, the know-how is not accumulated, the screen is modified only once, and the frequency of the individual is reflected on the individual screen. In addition, as the user becomes accustomed to screen operations, functions that are necessary for beginners may become difficult to operate.
[0011]
Further, the invention described in Patent Literature 2 performs learning and display of selection items based on “operation history accumulation data of a selection item selected by the user”, and learns the user's habit and gives priority to the selection items. It only determines the order, determines the literacy level from the operation history, specifies the parts to be replaced and changes their arrangement, and the user's literacy level itself changes over time (for example, initially Everyone is a novice, but usually the level improves as you get used to screen operation).
[0012]
An object of the present invention is to collect and accumulate screen operation information of each user, thereby making it possible to make a screen structure suitable for each user's individual characteristics (literacy level, age, etc.), and to further improve individual user's screen operation literacy. It is an object of the present invention to provide a screen autonomous optimization method, a device, a recording medium, a program, and the like, which can have a screen configuration that conforms to the above, and can continuously improve screen operability.
[0013]
[Means for Solving the Problems]
The screen autonomous optimization device according to the present invention collects operation information on each GUI screen by a user and stores the information in an operation history storage unit, based on an operation history stored in the operation history storage unit, An evaluation means for evaluating the operability of the user on each GUI screen, and in advance, for each GUI screen, the type, arrangement, order, and guidance display / non-display of various components constituting the GUI screen. Meta-knowledge storage means for storing meta-knowledge which is information describing a change rule; current screen information storage means for storing, for each user, current screen information used for displaying the current state of each GUI screen for each user; Changing a GUI screen for each user as necessary based on the evaluation result by the evaluation means and the meta-knowledge, and reflecting the changed content on the current screen information. A display generation means for, using the current state screen information stored in the current window information storage unit, configured to have a GUI control section for displaying the GUI screen.
[0014]
In the screen autonomous optimization device having the above configuration, first, the GUI control means is configured to display a unique GUI screen for each user based on the current screen information stored in the current screen information storage means. Then, the collection means collects and accumulates the operation information of the user on each GUI screen as needed, and for example, periodically evaluates the operability of the user on each GUI screen by the evaluation means. As the evaluation method, an existing method may be used, and for example, a method such as NEM (Novice Expert Ratio Method) is used. Then, the meta-knowledge is set and stored in advance, and the display generation unit can change the way of displaying the GUI screen as needed based on the evaluation result and the meta-knowledge. For example, it is possible to change the type and arrangement of various parts constituting the GUI screen, and to perform guidance display / non-display. As a result, a screen configuration suitable for the characteristics of each user can be obtained, and it is expected that the user can easily operate.
[0015]
Further, in the screen autonomous optimization device having the above configuration, for example, the change rule in the meta-knowledge is defined according to a literacy level, and the display generation unit, based on an evaluation result by the evaluation unit, A literacy level for each operation step on the GUI screen of the user is determined, and based on the determination result and the change rule, if a screen change is required, the user is directed to each user in accordance with the change rule. The type of the components constituting the GUI screen, the arrangement and order of the components are changed, or guidance is displayed. The evaluation by the evaluation unit and the processing by the display generation unit based on the evaluation result are continuously performed on a regular basis. You may comprise so that it may be performed at a target or at any time.
[0016]
According to the above configuration, the screen configuration can be adapted to each user's individual literacy level, and the screen configuration can be further adapted to the improvement of the user's individual screen operation literacy, and the screen operability can be continuously improved. Can be improved.
[0017]
Further, the change rules are not limited to those related to the literacy level. For example, there may be a change rule related to user attribute information (affiliation, age, years of computer experience). For example, when the user is an elderly person, there may be a change rule such as enlarging the characters on the screen.
[0018]
Note that the computer reads out and executes the program from a computer-readable storage medium that stores a program that causes the computer to perform the same control as the function performed by each configuration of the above-described screen autonomous optimization device of the present invention. By doing so, the above-described problem can be solved. The present invention can be configured as such a program itself, can be configured as a recording medium itself (especially a portable recording medium) storing the program, or can be configured as a method thereof.
[0019]
BEST MODE FOR CARRYING OUT THE INVENTION
Hereinafter, embodiments of the present invention will be described with reference to the drawings.
In the following description, “literacy” refers to computer literacy, that is, the ability to use a computer, and particularly refers to the ability related to the operability of a GUI screen.
[0020]
FIG. 1 is a functional block diagram of a computer system (image autonomous optimization device 10) of the present example.
The illustrated image autonomous optimization device 10 includes a collection unit 11, an evaluation unit 12, a display generation unit 13, an operation history DB (database) 14, a user knowledge DB 15, a meta knowledge DB 16, a current screen information DB 17, a screen part DB 18, a GUI ( (Graphical User Interface) unit 19. Further, a configuration including a knowledge exchange unit 20 and a component exchange unit 21 may be employed.
[0021]
When the user performs a mouse operation, a keyboard operation, and the like via the GUI unit 19, the collection unit 11 collects operation information of these operation devices and stores the operation information in the operation history DB 14. The operation history (accumulation of operation information) is not limited to information when the operation device is directly operated by hand. For example, in recent years, a technology for inputting a GUI based on a line of sight of a person has been developed, and thus information that does not directly operate such an operation device by hand may be used. This is not limited to the line of sight, and the same applies to, for example, brain waves.
[0022]
The evaluation unit 12 evaluates the operability based on the operation history stored in the operation history DB 14 periodically or by an event from the outside. The operability evaluation method itself may use a conventional technique. For example, an evaluation method such as the above-mentioned NEM (Novice Expert Ratio Method) may be used. However, in the conventional NEM, as described above, “Tn: average time required for a novice user” is used to determine a model gap for an operation, but in this example, the NEM method is used. , “Tn: average time required by the target user”, and the literacy level of the target user is determined using a threshold described later. Further, in this example, as described later, the above evaluation is performed using information other than the operation time, but the present invention is not limited to this.
[0023]
The user knowledge DB 15 stores attribute information (for example, personnel information or the like) relating to the target user obtained from any external DB or attribute information (for example, name, age, gender, etc.) of the user input by the user himself.
[0024]
The meta-knowledge DB 16 stores, for each GUI screen, various information related to the GUI screen, for example, information describing a change rule related to the type, arrangement, order, and the like of frames, used components, guidance display / non-display (hereinafter, meta-knowledge). Is stored). The “type of component” means the shape of the component (for example, if the component is a button, a circle, a square, a diamond, etc.), a color (hue, saturation, density, etc.), a character size, and the like. This meta-knowledge is set in advance by, for example, an administrator of the management server 30 as common information to all users. The meta-knowledge may be changed by an administrator or the like at any time even during operation.
[0025]
The display generation unit 13 determines, for example, a literacy level, which will be described later, based on the operability evaluation result of the evaluation unit 12 and the meta knowledge (refer to the user knowledge DB 15 and the like as necessary). Then, determine the countermeasure method. Then, for example, when a component is changed in accordance with the content of the determined countermeasure method, a screen component relating to the component to be changed is selected from the screen component DB 18. For example, if the part to be changed is a “button”, the screen parts related to the “button” (for example, a square button, a round button, a diamond button, etc.) among the screen parts stored in the screen part DB 18 are selected. Then, the one corresponding to the countermeasure method determined above is selected. Further, the display method (color, character size, arrangement, order, etc.) of the components using the selected screen components is determined based on the meta-knowledge DB 16 and is reflected in the current screen information DB 17. In this way, the screen configuration of the GUI screen is changed based on the evaluation result by the evaluation unit 12 and the meta-knowledge (refer to the user knowledge DB 15 and the like as necessary).
[0026]
The current screen information DB 17 stores the screen information of each GUI screen for the user himself / herself, which is used for the current display. That is, the GUI unit 19 described later displays the GUI screen using the current screen information stored in the current screen information DB 17. Therefore, when the display content of the GUI screen is changed, the display generation unit 13 changes the current screen information, which is the current screen information stored in the current screen information DB 17 and relates to the GUI screen to be changed. Become.
[0027]
The screen part DB 18 stores information on various screen parts necessary for displaying the parts making up the GUI screen. For example, as an example of a “button” among the parts constituting the GUI screen, the screen parts are, for example, a “square button”, a “circle button”, a “diamond button” and the like. That is, when an arbitrary “button” (for example, an approval button) on the GUI screen is displayed using the screen component “square button”, the approval button is displayed as a square button.
[0028]
The GUI unit 19 has a GUI screen display function provided in a computer such as a personal computer that realizes the screen autonomous optimization device 10. That is, a configuration for providing a general GUI function of displaying a button or the like on a display and accepting a user operation on the display with a keyboard, a mouse, or the like is shown. As described above, the function itself of the GUI unit 19 is a general one, and although not particularly shown, processing of display data and input information is performed by a method of a screen part object, a display data DB, a display processing program, an input It is processed by a processing program or the like. The screen layout, button layout, color information, and the like are displayed based on the data of the current screen information DB 17. That is, even if the GUI screen (for example, the approval screen) is the same, the screen configuration is basically different for each user.
[0029]
The screen autonomous optimization device 10 having the above-described configuration generally displays the display generation unit 13 based on the evaluation result of the evaluation unit 12 and the meta-knowledge of the meta-knowledge DB 16 (refer to the user knowledge DB 15 as necessary). However, if necessary, the screen configuration of the GUI screen for the user is changed autonomously (change of the type / arrangement of parts, display of guidance, etc.) to optimize operability. Further, the processes of the evaluation unit 12 and the display generation unit 13 are performed, for example, continuously and periodically. In other words, the literacy level of the user, even if it is a beginner at first, improves as the user gets used to the operation. Therefore, by performing the processing continuously and regularly, a screen configuration suitable for the literacy level of the user at that time can be obtained for each user, and the screen operability can be continuously improved.
[0030]
The knowledge exchange unit 20 exchanges information stored in the operation history DB 14, the user knowledge DB 15, and the meta knowledge DB 16 with the management server 30 via a network (Internet, intranet, or the like) (not shown). It provides functions necessary for level-up of these DB information and information collection for level-up.
[0031]
The parts exchange unit 21 exchanges information stored in the current screen information DB 17 and the screen parts DB 18 with the management server 30 via a network (Internet, intranet, etc.) (not shown), and the information of these DBs Provides functions necessary for level up and information collection for level up.
[0032]
The management server 30 exchanges the information with the screen autonomous optimization devices 10 via a network (not shown) (the Internet, an intranet, or the like) and accumulates the information. In addition to centrally managing the information in the DB, it also manages the operability of each screen autonomous optimization device 10 and performs overall management related to the operability. For example, meta-knowledge is added / changed, this is notified to each screen autonomous optimization device 10, and the meta-knowledge DB 16 is updated.
[0033]
FIGS. 2A to 2C, 3A and 3B show examples of data stored in the operation history DB 14, the user knowledge DB 15, the meta knowledge DB 16, the current screen information DB 17, and the screen parts DB 18, respectively. Show. FIG. 3C shows an operation step-component correspondence table 90.
[0034]
FIG. 2A shows an example of a table stored in the operation history DB 14.
The operation history DB 14 includes, for each GUI screen, operation history data for each operation step of each user on the screen and data necessary for evaluating the operation history (e.g., evaluation by the NEM method) (the expert user). Operation history). In other words, the operation history DB 14 stores, for each screen and each user, for each operation step 40, the user's own operation history 41, and further stores the expert operation history 45, which is the operation history of the expert user. Is stored. Here, the operation step 40 basically corresponds to one operation of the user on the GUI screen, and as shown in the operation step-component correspondence table 90 in FIG. Each time, basically, one component is operated. However, this is "basically", and a plurality of parts may be operated in one operation step. In this case, in the operation step-part correspondence table 90, a plurality of parts are operated for one operation step. The part names are registered in association with each other.
[0035]
The data example shown in FIG. 2A is an example, and may store data such as a user's line of sight history and brain waves. The evaluation method is not limited to the NEM method.
[0036]
Data items of the personal operation history 41 include a mouse movement distance 42, a button operation time 43, an erroneous operation history 44, and the like.
The expert operation history 45 stores, for example, operation history information of a GUI screen operation expert (expert), which is necessary in the case of evaluation by the NEM method or the like. Is the same. That is, the mouse movement distance 46, the button operation time 47, the erroneous operation history 48, and the like.
[0037]
The mouse movement distances 42 and 46 are the mouse movement distances between the components, and are obtained and stored based on the component placement addresses 72 shown in FIG.
The button operation times 43 and 47 are, for example, the time from the screen display start time of the button component to the component operation.
[0038]
The erroneous operation histories 44 and 48 include the component of the operation in which the error occurred, the time of the operation, the number of erroneous operations, and the like.
FIG. 2B shows an example of a table stored in the user knowledge DB 15.
[0039]
The user knowledge DB 15 stores various user information related to the user, and is not limited to the illustrated example, but at least information related to the operation level of the personal computer or the like, that is, the age 52, the role 55, the number of years of personal computer operation 56, and the like. Is desirably stored.
[0040]
In the illustrated example, the user knowledge DB 15 stores information such as the user's name 51, age 52, gender 53, address (region) 54, role 55, years of personal computer operation experience 56, and the like. Such information may be manually input by the user according to an input screen (not shown), or necessary information may be copied from external personal master information. DB etc. should exist). These pieces of information are linked to, for example, the login ID of the user.
[0041]
FIG. 2C shows an example of a table stored in the meta knowledge DB 16.
The meta knowledge DB 16 stores rule knowledge for changing the configuration of each GUI screen. In the illustrated example, a countermeasure rule 61, a frame name 62, a component name 63, a color rule 64 (hue 64a, saturation 64b, density 64c, etc.), an arrangement rule 65, and a screen component rule 66 (character size 66a, etc.) are stored. .
[0042]
The countermeasure rule 61 is knowledge data, and a countermeasure rule corresponding to a literacy level or user knowledge determined based on an evaluation based on an operation history, such as the NEM method, is described in, for example, an if-then format.
[0043]
The frame name 62 is a frame name of a frame constituting the GUI screen. The component name 63 is a component name of a component (a button, a display setting item, or the like) constituting the frame of the frame name 62 on the GUI screen.
[0044]
The color rule 64 is information necessary for determining the color of the component having the component name 63. In the illustrated example, the color rule 64 includes the hue 64a, the saturation 64b, and the density 64c as described above. For example, for the component name “approval button”, the hue 64a stores the color name such as red and green, and the saturation 64b and the density 64c store the values.
[0045]
The arrangement rule 65 is the arrangement location, arrangement order, priority, and the like of the frame of the frame name 62 and the component of the component name 63. The priority is information such as a higher priority on the left side.
[0046]
The screen part rule 66 is a rule related to the frame and the part according to, for example, the literacy level and the age. Here, only the character size 66a is shown as an example. This describes the character size according to the user's literacy level, age, and the like.
[0047]
FIG. 3A shows an example of a table stored in the current screen information DB 17.
In the illustrated example, the current screen information DB 17 stores, for each part constituting the current GUI screen for a certain user, its screen part name 71, arrangement address 72, color 73 (hue 73a, saturation 73b, density 73c). ), A character size 74, and the like. These data items themselves may be substantially the same as the conventional data items, and although not particularly described, in this example, the contents of the current screen information DB are continuously and automatically updated.
[0048]
FIG. 3B shows an example of a table stored in the screen component DB 18.
In the illustrated example, the screen component DB 18 stores a screen component name 81, a component literacy level 82, and a component body 83 for various screen components used for displaying each component constituting the GUI screen.
[0049]
The component literacy level 82 stores a literacy level corresponding to the screen component. Here, for the sake of simplicity, it is assumed that there are three literacy levels: beginner, intermediate, and skilled. For example, when it is determined that a certain operation step of a certain user is at a beginner level, a screen whose parts literacy level 82 is “beginner” for parts related to this operation step among the parts constituting the GUI screen. The part is selected, and the part is displayed using the screen part for beginners.
[0050]
The component main body 83 stores a file name of a file in which information necessary for displaying the screen component is stored.
FIG. 3C shows an example of the operation step-component correspondence table 90.
[0051]
As described above, in the operation step-component correspondence table 90, for each operation step 91, the component name 92 of the component related to the operation step is associated. One or more parts are associated with each operation step.
[0052]
Although the individual operation history 41 of the operation history DB 14 and the current screen information DB 17 store individual data for each user, they are not specifically shown, but are associated with, for example, the login ID of each user. Have been. That is, the personal operation history 41 and the current screen information for the user to be processed are read out by the login ID of the user to be processed, and the processing described later is executed.
[0053]
FIG. 4 is a schematic flowchart of the entire process executed by the image autonomous optimization device 10 of the present example.
Since the processing shown in FIG. 4 has already been described in FIG. 1, to briefly describe, first, the collection unit 11 normally collects the operation information by the user and stores the information in the operation history DB 14 in the normal state. (Step S11).
[0054]
Then, the evaluation unit 12 evaluates the operability based on the operation history stored in the operation history DB 14 at regular or external events (step S12). Based on this, the display generation unit 13 changes the display content of the GUI screen as needed (step S13).
[0055]
By performing the above processing continuously, for example, when the user is not accustomed to the operation of the GUI screen (beginner or the like) or there is a problem in the operability of a specific operation step, guidance for a beginner or the like is provided. Is displayed, and the parts and their display contents (color, arrangement, etc.) are changed so that the parts related to the operation step having a problem can be easily operated (selected, etc.). As the user becomes accustomed to the operation, the GUI screen configuration is changed at any time according to the literacy of the user at that time. For example, guidance was necessary for beginners, but it became cumbersome as the user became accustomed. An optimal screen according to the literacy of the user at the time is provided.
[0056]
Further, in addition to the processes of steps S11 to S13, the processes of steps S14 and S15 may be executed, for example, periodically.
The process of step S14 is a process by the knowledge exchange unit 20. For example, when the operation history information of the operation history DB 14 is passed to the management server 30, the management server 30 Based on the user's operation history, statistics such as the operation time and distance of each operation step are obtained for each GUI screen, and displayed. Based on this display, for example, a screen developer or the like analyzes whether there is an operation step that takes time for many users on a certain screen, and changes the “countermeasure rule” based on the analysis result. Can be. The management server 30 passes the changed “countermeasure rule” to the knowledge exchange unit 20 of each screen autonomous optimization device 10. Each screen autonomous optimization device 10 updates the meta-knowledge DB 16 with the changed “measures rules”. Alternatively, in the management server 30, for example, when the manager grasps a change in “user knowledge” due to a personnel change or an organization change by referring to a personnel management DB, an organization DB, and the like (not shown), the change is determined by the corresponding screen autonomous optimization. To the knowledge exchange unit 20 of the optimization device 10, and the screen autonomous optimization device 10 updates the user knowledge DB 15 based on the notification.
[0057]
The process of step S15 is a process by the component replacement unit 21. In the management server 30, the change of the shape, color, material, etc. of the component, the layout of the screen, etc. is performed based on the analysis result by the screen developer or the like in the step S14. When performed, the component replacement unit 21 receives the data of the changed components and the like from the management server 30 and updates the screen component DB 18 and the like based on the data.
[0058]
Hereinafter, the operation history evaluation processing in step S12 and the display generation processing in step S13 in FIG. 4 will be described in more detail.
FIG. 5 is a detailed flowchart of the operation history evaluation processing in step S12.
[0059]
The process shown in FIG. 5 is executed for each GUI screen.
The processes in steps S22 to S24 are repeatedly executed for all operation steps k (k = 1 to n; n is the total number of operation steps related to the GUI screen) related to the GUI screen to be processed. That is, initially, the initial value 1 is substituted for k, and k is incremented by + each time the processing of steps S22 to S24 is executed (step S25), and the processing of steps S22 to S24 is executed for the next operation step k. Is repeatedly executed until the processing is performed for all the operation steps, and when k> n is satisfied (step S26, YES), the process proceeds to step S27.
[0060]
The processing in steps S22 and S23 is processing for acquiring data of the operation step k to be processed (the individual operation history 41 and the expert operation history 45) related to the GUI screen to be processed from the operation history DB 14. In step S22, the principal operation history 41 is acquired, and the mouse movement distance 42 in the principal operation history 41 is set to Mnk, the button operation time 43 is set to Bnk, and the erroneous operation history (erroneous operation rate) 44 is set to Wnk. Similarly, in step S23, the expert operation history 45 is acquired, the mouse movement distance 46 in the expert operation history 45 is set to Mek, the button operation time 47 is set to Bek, and the erroneous operation history (erroneous operation rate) 48 is set to Wek.
[0061]
Then, for example, when NEM is used, the NE ratio (NEk) related to the operation step k to be processed relating to the GUI screen to be processed is calculated by the following equation (step S24).
[0062]
Figure 2004355392
(Here, ak, bk, and ck are weighting factors that can be set for each operation step k. The setting is performed by, for example, the user himself. In addition, all are set to 1 by default.)
In the NEM calculation method described in the related art, only the operation time is used. However, in this example, the above calculation is further performed using the mouse movement distance and the erroneous operation history as data supplementing the operation time.
[0063]
When the processes of steps S22 to S24 are repeatedly executed and the NE ratios (NEk) are calculated for all the operation steps k, the operation steps k are arranged in descending order of the NE ratio (step S27). Since the NE ratio basically increases when the proficiency level is low, the processing in step S27 means that the operation steps having a low proficiency level for the user, that is, the operation steps that are not good for the user, are arranged in order. Become.
[0064]
Subsequently, the display generation processing of step S13 is performed using the processing result.
FIG. 6 is a detailed flowchart of step S13.
Although not particularly shown, the processing of FIG. 6 is executed for each operation step in the order in which they are arranged in step S27. This is basically performed for all operation steps. However, the present invention is not limited to this. For example, the first to fifth items in the sorting order may be set as processing targets, that is, only operation steps having relatively low proficiency level for the user may be set as processing targets.
[0065]
In the process of FIG. 6, first, the user's proficiency in the operation step k to be processed is determined (step S31). For example, the threshold xL corresponding to each literacy level L is registered in advance, and the user's proficiency is determined by comparing the NE ratio for the operation step k with the threshold xL. Here, the literacy level L has three levels, L = 1, 2, and 3, where L = 1 means beginner, L = 2 means intermediate, and L = 3 means expert. In this case, the threshold value x1 and the threshold value x2 are set, and if NEk> threshold value x1, it is determined as a beginner, if threshold value x1>NEk> threshold value x2 is intermediate, and if NEk <threshold value x2, an expert is determined.
[0066]
Next, a part name related to the operation step k is obtained by searching the operation step-part correspondence table 90 in FIG. 3C, and subsequently, from the meta knowledge DB 16, the meta knowledge related to the GUI screen to be processed is obtained. Then, meta-knowledge data on the obtained component name is acquired from among the above (step S32). Further, data of the user to be processed is acquired from the user knowledge DB 15 (step S33). Further, information on the obtained component name is obtained from the current screen information DB 17 (step S34).
[0067]
Next, first, it is determined whether or not to change the screen based on the countermeasure rule 61 in the meta-knowledge acquired in step S32. If it is determined that the screen is to be changed, the step is performed according to the countermeasure rule 61. The information acquired in S34 is changed (step S35), and thereby the current screen information DB 17 is updated (step S36).
[0068]
Here, FIGS. 7A to 7C show specific examples of data stored in the meta knowledge DB 16, the current screen information DB 17, and the screen component DB 18. FIG.
FIG. 7A shows two specific examples of meta-knowledge data stored in the meta-knowledge DB 16. That is, the illustrated meta-knowledge data 100 and meta-knowledge data 110 are shown. The meta-knowledge data 100 is data related to the approval screen, and the meta-knowledge data 110 is data related to the approval completion screen.
[0069]
FIG. 7B shows the part “button A” in the current screen information (information of each part constituting the approval screen) for the user related to the approval screen stored in the current screen information DB 17. A specific example of the current screen information relating to the button A will be described. FIG. 7B shows the current screen information related to the button A, that is, the current screen information 120 before the change and the current screen information 130 after the change by the processing of the present example. 8A shows a screen display based on the current screen information 120 before the change, and FIG. 8B shows a screen display based on the current screen information 130 after the change.
[0070]
FIG. 7C is a specific example of data of various screen components stored in the screen component DB 18. Data examples 140 and 150 of screen components “square button” and “circle button” related to buttons are shown in FIG. Show.
[0071]
In the process of FIG. 6, for example, if the GUI screen to be processed is the approval screen and the component name obtained in step S32 is the button A, in step S32, for example, the approval screen shown in FIG. Meta-knowledge 100 related to button A (part name 63 = button A) is acquired. Further, in this example, the current screen information 120 before the change regarding the button A of the approval screen is acquired from the current screen information DB 17 in step S34.
[0072]
In the example of the meta-knowledge 100, the countermeasure rule 61 is “if the level is 2, the component is changed to a level 2 component and the placement priority is raised”. First, whether the determination result in step S31 is level 2 If the level is level 2, the screen is changed in accordance with the countermeasure rule 61. In this example, first, in order to make the button A a level 2 component, a screen component whose component literacy level 82 is level 2 is searched and obtained from various screen components related to the button with reference to the screen component DB 18. . Among the screen components related to the buttons shown in FIG. 7C, since the component literacy level 82 is the level 2 at the round button, the screen component of the button A is changed to the round button. In addition, referring to the arrangement rule 65 of the meta knowledge 100 in order to increase the arrangement priority, the rule is that the left side has the higher priority, so that the arrangement of the button A is moved to the left side. . Further, in the color rule 64 in the meta knowledge 100, the hue 64a is “magenta” at the level 2 and the one character size 66a is “16” at the level 2, so that the hue 64a is compared with the information 120 obtained above. If they are different, these are also changed. In the example of the illustrated information 120, the hue 64a is "white", and the one-character size 66a is "12", so that these are also changed. As a result, the current screen information regarding the button A on the approval screen is changed from the current screen information 120 before the change to the current screen information 130 after the change. As a result, the content of the GUI screen is changed, for example, from the content shown in FIG. 8A to the content shown in FIG. 8B.
[0073]
That is, the shape of the button A before the change is a square as shown in FIG. 8A, but becomes a “circle” as shown in FIG. 8B after the change. The display color of the button A is changed from white to magenta, and the character size is increased (from 12 points to 16 points). Furthermore, it has moved to the left.
[0074]
As described above, since the button A is highlighted and visually conspicuous, an effect that the button A can be easily operated can be expected.
The meta-knowledge (especially the countermeasure rule 61) may be freely defined by an administrator or the like, and specific examples thereof cannot be shown one by one. However, here, another specific example of FIG. The meta knowledge 110 shown on the right side of the figure will be described.
[0075]
The countermeasure rule 61 in the meta-knowledge 110 is "guidance display in the case of level 1". If the determination result in step S31 is level 1, the screen before the change shown in FIG. 8D, that is, the screen after the change, that is, the screen on which the guidance is displayed. However, when the level is no longer Level 1 because the user's literacy level is improved later, guidance is not displayed.
[0076]
Alternatively, the countermeasure rule 61 does not necessarily need to have the content based on the determination result of step S31, that is, the literacy level. For example, the countermeasure rule 61 may be "enlarge all font sizes for those over 50". In this case, the age 52 of the user knowledge information acquired in step S33 is referred to to determine whether or not to change. In this example, if the user is over the age of 50, the screen shown in FIG. 9A is changed to the screen shown in FIG. 9B.
[0077]
In the “display setting item area” shown in FIGS. 8A to 8D, display data and a component for performing various settings (for example, a component for allowing a user to input an arbitrary item or select from options) are displayed. In the illustrated example, four parts W, X, Y, and Z are displayed.
[0078]
FIGS. 9C and 9D show screens before and after the change when the countermeasure rule 61 is “priority of X display and font size enlargement of the display setting item area”.
[0079]
FIGS. 10A and 10B show a case where the countermeasure rule 61 is “display the display setting item area in descending order of the NE ratio”. Shows the screens before and after the change when W, X, Y, and Z are in order of Y → X → Z → W in descending order of the NE ratio.
[0080]
As described above, a part of the example of the countermeasure rule has been described, but there may be various other countermeasure rules. For example, when a plurality of titles are displayed on a menu, the order of the display titles and whether or not to display the display titles are autonomously controlled by the menu operation frequency of the user, and are arranged from the top in the order of the operation evaluation results, for example. For example, the arrangement may be changed autonomously. Further, for example, autonomous control may be performed such that the display content of the guidance changes autonomously or is not displayed according to the literacy level. Further, when the screen transition is performed by a button, the screen transition may be eliminated according to the operation evaluation result of the screen transition, and a scroll transition may be performed.
[0081]
In the above-described example, the countermeasure rule 61 is written in text, but this is to make the content easy to understand. In practice, the countermeasure rule 61 is, for example, an if-then sentence or the like. Is stored in a format that can be interpreted and executed by a computer.
FIG. 11 is a diagram illustrating an example of a hardware configuration of a computer that implements the screen autonomous optimization device 10 described above.
[0082]
The computer 160 shown in the figure has a CPU 161, a memory 162, an input unit 163, an output unit 164, a storage unit 165, a recording medium drive unit 166, and a network connection unit 167, which are connected to a bus 168. Has become. The configuration shown in the figure is an example, and the present invention is not limited to this.
[0083]
The CPU 161 is a central processing unit that controls the computer 160 as a whole.
The memory 162 is a memory such as a RAM for temporarily storing a program or data stored in the storage unit 165 (or the portable recording medium 169) when executing a program, updating data, or the like. The CPU 161 executes the above-described various processes (the processes shown in FIGS. 5 and 6 and the like) using the programs / data read into the memory 162.
[0084]
The input unit 163 is, for example, a keyboard, a mouse, and the like.
The output unit 164 is, for example, a display or the like, and displays a GUI screen as shown in, for example, FIGS.
The network connection unit 167 has a configuration for connecting to a network such as an intranet or the Internet and transmitting / receiving commands / data to / from another information processing device (the management server 30 or the like).
The storage unit 165 is, for example, a hard disk or the like, and is a program / data (a program for executing the processes in FIGS. 5 and 6; a program for executing the processes in FIGS. 5 and 6; 3 (c) and data shown in FIGS. 7 (a) to 7 (c)).
[0085]
Alternatively, these programs / data may be stored in the portable recording medium 169. In this case, the program / data stored in the portable recording medium 169 is read by the recording medium driving unit 166. The portable recording medium 169 is, for example, an FD (flexible disk) 169a, a CD-ROM 169b, a DVD, a magneto-optical disk, or the like.
[0086]
Alternatively, the program / data may be a program that downloads a program stored in another device via a network connected by the network connection unit 167. Alternatively, the content stored in another external device may be downloaded via the Internet.
[0087]
In addition, the present invention can be configured not only as a portable storage medium storing a program for realizing the various processes of the present invention on a computer, but also as the program itself.
[0088]
【The invention's effect】
As described above in detail, according to the screen autonomous optimization apparatus, the optimization method, the recording medium, the program, and the like of the present invention, screen operation information is collected and accumulated, and personal characteristics (literacy level, age, etc.) , And the screen configuration can be further adapted to the improvement of the personal screen operation literacy, and the screen operability can be continuously improved.
[0089]
In addition, the management server can exchange information with each screen autonomous optimization device and perform centralized management to create an exchange rule or the like that provides a more appropriate screen configuration.
[Brief description of the drawings]
FIG. 1 is a functional block diagram of an image autonomous optimization device.
2A is a diagram illustrating an example of a table stored in an operation history DB, FIG. 2B is a diagram illustrating an example of a table stored in a user knowledge DB, and FIG.
3A illustrates an example of a current screen information DB, FIG. 3B illustrates an example of a table stored in a screen component DB, and FIG. 3C illustrates an example of an operation step-component correspondence table.
FIG. 4 is a schematic flowchart of the entire processing executed by the image autonomous optimization device.
FIG. 5 is a detailed flowchart of step S12 in FIG. 4;
FIG. 6 is a detailed flowchart of step S13 in FIG. 4;
FIGS. 7A to 7C are diagrams illustrating specific examples of data stored in a meta knowledge DB, a current screen information DB, and a screen component DB.
FIGS. 8A and 8B are diagrams showing a modification of the display screen corresponding to FIG. 7B, and FIGS. 8C and 8D are diagrams showing a modification of the display screen corresponding to the meta-knowledge data 110; It is.
FIGS. 9A to 9D are diagrams showing examples of changing the display screen.
FIG. 10 is a diagram showing a modified example of a display screen.
FIG. 11 is a diagram illustrating an example of a hardware configuration of a computer that realizes the screen autonomous optimization device.
FIG. 12 is a diagram for explaining a conventional technique.
[Explanation of symbols]
10 Image autonomous optimization device
11 Collection unit
12 Evaluation section
13 Display generation unit
14 Operation history DB
15 User Knowledge DB
16 Meta Knowledge DB
17 Current screen information DB
18 Screen parts DB
19 GUI section
20 Knowledge Exchange Department
21 Parts replacement unit
30 Management server
40 operation steps
41 User operation history
42 Mouse movement distance
43 Button operation time
44 Misoperation history
45 Expert Operation History
46 Mouse movement distance
47 Button operation time
48 Misoperation history
51 Name
52 years
53 sex
54 Address (Region)
55 roles
56 years of PC operation experience
61 Countermeasure rules
62 Frame name
63 Part name
64 color rules
64a hue
64b saturation
64c concentration
65 Placement Rule
66 Screen Parts Rule
66a font size
71 Screen part name
72 Allocation address
73 colors
73a Hue
73b Saturation
73c concentration
74 font size
81 Screen part name
82 Parts Literacy Level
83 Parts body
90 Operation steps-parts correspondence table
91 Operation steps
92 Part name
100 Meta Knowledge Data
110 Meta Knowledge Data
120 Current screen information before change
130 Current screen information after change
140 Screen part data (square button)
150 Screen part data (circle button)
160 Computer
161 CPU
162 memory
163 input section
164 output unit
165 storage unit
166 Recording medium drive
167 Network connection
168 bus
169 Portable recording media

Claims (7)

ユーザによる各GUI画面上での操作情報を収集して操作履歴記憶手段に格納する収集手段と、
前記操作履歴記憶手段に格納された操作履歴に基づいて、前記ユーザによる前記各GUI画面上での操作性の評価を行う評価手段と、
予め、各GUI画面毎に、そのGUI画面を構成する各種部品の種類、配置、順番やガイダンス表示/非表示に係わる変更ルールを記述した情報であるメタ知識を格納するメタ知識格納手段と、
各ユーザ毎に、各ユーザ向けの各GUI画面の現状の表示に用いられる現状画面情報を格納する現状画面情報格納手段と、
前記評価手段による評価結果と、前記メタ知識とに基づいて、必要に応じて、前記各ユーザ向けのGUI画面を変更して、該変更内容を前記現状画面情報に反映させる表示生成手段と、
前記現状画面情報格納手段に格納されている現状画面情報を用いて、GUI画面を表示するGUI制御手段と、
を有することを特徴とする画面自律最適化装置。
Collection means for collecting operation information on each GUI screen by the user and storing the information in the operation history storage means;
Evaluation means for evaluating the operability of the user on each of the GUI screens based on the operation history stored in the operation history storage means;
A meta-knowledge storage means for storing in advance, for each GUI screen, meta-knowledge which is information describing the type, arrangement, order, and change rules relating to guidance display / non-display of various parts constituting the GUI screen;
Current screen information storage means for storing, for each user, current screen information used for displaying the current state of each GUI screen for each user;
Display generation means for changing a GUI screen for each user as necessary based on the evaluation result by the evaluation means and the meta-knowledge, and reflecting the changed content in the current screen information;
GUI control means for displaying a GUI screen using current screen information stored in the current screen information storage means;
A screen autonomous optimization device characterized by having:
前記メタ知識における変更ルールは、リテラシーレベルに応じて規定されるものであり、
前記表示生成手段は、前記評価手段による評価結果に基づいて、そのユーザの前記GUI画面上での各操作ステップ毎のリテラシーレベルを判定し、該判定結果と前記変更ルールとに基づいて、画面変更が必要である場合には該変更ルールに従って前記各ユーザ向けのGUI画面を構成する部品の種類または部品の配置や順番を変更しあるいはガイダンスを表示するものであり、
前記評価手段による評価と該評価結果に基づく前記表示生成手段による処理は、継続的に、定期的又は任意の時に行うことを特徴とする請求項1記載の画面自律最適化装置。
The change rule in the meta-knowledge is defined according to the literacy level,
The display generation unit determines a literacy level for each operation step of the user on the GUI screen based on the evaluation result by the evaluation unit, and changes a screen based on the determination result and the change rule. If necessary is to change the type or arrangement and order of the parts constituting the GUI screen for each user according to the change rule, or to display guidance,
2. The screen autonomous optimization device according to claim 1, wherein the evaluation by the evaluation unit and the processing by the display generation unit based on the evaluation result are continuously, periodically or arbitrarily performed.
前記ユーザの属性情報を格納するユーザ知識格納手段を更に備え、
前記メタ知識における変更ルールは、前記リテラシーレベル又は該ユーザの属性情報に応じて規定されるものであることを特徴とする請求項2記載の画面自律最適化装置。
A user knowledge storage unit for storing the user attribute information,
3. The screen autonomous optimization device according to claim 2, wherein a change rule in the meta knowledge is defined according to the literacy level or attribute information of the user.
前記評価手段は、NEM(Novice Expert ratio Method)の評価手法を用いて前記評価を行うことを特徴とする請求項1〜3の何れかに記載の画面自律最適化装置。The screen autonomous optimization device according to any one of claims 1 to 3, wherein the evaluation unit performs the evaluation using an NEM (Novice Expert Ratio Method) evaluation method. ユーザによる各GUI画面上での操作情報を収集して蓄積し、該蓄積された操作履歴に基づいて、前記ユーザによる前記各GUI画面上での操作性の評価を行い、
該評価結果と、予め各GUI画面毎に設定・格納されている、そのGUI画面を構成する各種部品の種類、配置、順番やガイダンス表示/非表示に係わる変更ルールを記述した情報であるメタ知識とを用いて、必要に応じて、そのユーザ向けのGUI画面を変更することを特徴とする画面自律最適化装置。
Collecting and accumulating operation information on each GUI screen by the user, evaluating the operability of the user on each GUI screen based on the accumulated operation history,
Meta-knowledge, which is information describing the evaluation result and the change rules related to the types, arrangements, orders, and guidance display / non-display of various parts constituting the GUI screen, which are set and stored in advance for each GUI screen. And a GUI screen for the user is changed as necessary using the screen autonomous optimization device.
コンピュータに、
ユーザによる各GUI画面上での操作情報を収集して蓄積する機能と、
該蓄積された操作履歴に基づいて、前記ユーザによる前記各GUI画面上での操作性の評価を行う機能と、
該評価結果と、予め各GUI画面毎に設定・格納されている、そのGUI画面を構成する各種部品の種類、配置、順番やガイダンス表示/非表示に係わる変更ルールを記述した情報であるメタ知識とを用いて、必要に応じて、そのユーザ向けのGUI画面を変更する機能と、
を実現させる為のプログラム。
On the computer,
A function of collecting and accumulating operation information on each GUI screen by a user;
A function of evaluating the operability of the user on each of the GUI screens based on the accumulated operation history;
Meta-knowledge, which is information describing the evaluation result and the change rules related to the types, arrangements, orders, and guidance display / non-display of various parts constituting the GUI screen, which are set and stored in advance for each GUI screen. A function for changing the GUI screen for the user as necessary using
A program for realizing
コンピュータに、
ユーザによる各GUI画面上での操作情報を収集して蓄積する機能と、
該蓄積された操作履歴に基づいて、前記ユーザによる前記各GUI画面上での操作性の評価を行う機能と、
該評価結果と、予め各GUI画面毎に設定・格納されている、そのGUI画面を構成する各種部品の種類、配置、順番やガイダンス表示/非表示に係わる変更ルールを記述した情報であるメタ知識とを用いて、必要に応じて、そのユーザ向けのGUI画面を変更する機能と、
を実現させるプログラムを記録した前記コンピュータ読取り可能な記録媒体。
On the computer,
A function of collecting and accumulating operation information on each GUI screen by a user;
A function of evaluating the operability of the user on each of the GUI screens based on the accumulated operation history;
Meta-knowledge, which is information describing the evaluation result and the change rules related to the types, arrangements, orders, and guidance display / non-display of various parts constituting the GUI screen, which are set and stored in advance for each GUI screen. A function for changing the GUI screen for the user as necessary using
The computer-readable recording medium on which a program for realizing the above is recorded.
JP2003153167A 2003-05-29 2003-05-29 Device and method for autonomously optimizing screen, recording medium, and program Withdrawn JP2004355392A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2003153167A JP2004355392A (en) 2003-05-29 2003-05-29 Device and method for autonomously optimizing screen, recording medium, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2003153167A JP2004355392A (en) 2003-05-29 2003-05-29 Device and method for autonomously optimizing screen, recording medium, and program

Publications (1)

Publication Number Publication Date
JP2004355392A true JP2004355392A (en) 2004-12-16

Family

ID=34048200

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003153167A Withdrawn JP2004355392A (en) 2003-05-29 2003-05-29 Device and method for autonomously optimizing screen, recording medium, and program

Country Status (1)

Country Link
JP (1) JP2004355392A (en)

Cited By (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006260206A (en) * 2005-03-17 2006-09-28 Fujitsu Ltd Retrieval device and retrieval program
JP2007018293A (en) * 2005-07-08 2007-01-25 Fujitsu Ltd System, method, and program for supporting work, and system and program for generating work support information
JP2007249388A (en) * 2006-03-14 2007-09-27 Nippon Telegr & Teleph Corp <Ntt> Information distribution system, method, and program
JP2007265325A (en) * 2006-03-30 2007-10-11 Aos Technologies Kk Service user support system
JP2008097466A (en) * 2006-10-13 2008-04-24 Victor Co Of Japan Ltd Gui changer and gui change processing program
WO2008067047A1 (en) * 2006-11-29 2008-06-05 General Electric Company Customizing healthcare information
JP2010033456A (en) * 2008-07-30 2010-02-12 Hitachi Ltd Computer system, information gathering support apparatus, and information gathering support method
JP2011043962A (en) * 2009-08-20 2011-03-03 Toshiba Corp Medical information device and medical information analysis method
KR101083803B1 (en) 2009-07-02 2011-11-18 주식회사 솔트룩스 Ontology Based Method And System For Displaying Dynamic Navigation Menu
KR101135036B1 (en) 2011-12-27 2012-04-13 주식회사 네오패드 Menu configuration method and system on smart device
JP2012240618A (en) * 2011-05-23 2012-12-10 Tokai Rika Co Ltd Sensing position controller
JP2013509627A (en) * 2009-10-29 2013-03-14 アルカテル−ルーセント Apparatus and method for automatically analyzing application user interface usage
JP2014174899A (en) * 2013-03-12 2014-09-22 Kddi Corp Gui program automatic change device, automatic change method, and automatic change program
WO2014162696A1 (en) * 2013-04-01 2014-10-09 株式会社デンソー Operability control method and operability control device for vehicle device
JP2014203129A (en) * 2013-04-01 2014-10-27 株式会社デンソー Operability estimation method and operability estimation device of device for vehicle
JP2016009424A (en) * 2014-06-26 2016-01-18 Kddi株式会社 Operation assist device, operation assist method, and operation assist program
JP2017138881A (en) * 2016-02-05 2017-08-10 ファナック株式会社 Machine learning device for learning display of operation menu, numerical control device, machine tool system, manufacturing system, and machine learning method
JP6182654B1 (en) * 2016-08-24 2017-08-16 三菱電機インフォメーションシステムズ株式会社 Operation history management device and program
JP2019057092A (en) * 2017-09-20 2019-04-11 富士ゼロックス株式会社 Information processor and program
WO2019189227A1 (en) * 2018-03-27 2019-10-03 日本電信電話株式会社 Adaptive interface providing device, adaptive interface providing method, and program
JP2020074177A (en) * 2016-02-05 2020-05-14 ファナック株式会社 Machine learning device for learning display of operation menu, numerical control device, machine tool system, manufacturing system, and machine learning method
CN111459783A (en) * 2020-04-03 2020-07-28 北京字节跳动网络技术有限公司 Application program optimization method and device, electronic equipment and storage medium
US20220083200A1 (en) * 2020-09-16 2022-03-17 Casio Computer Co., Ltd. Recording medium, information processing method, and information processing apparatus
WO2023238358A1 (en) * 2022-06-09 2023-12-14 日本電信電話株式会社 Display control device, display control method, and display control program

Cited By (40)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006260206A (en) * 2005-03-17 2006-09-28 Fujitsu Ltd Retrieval device and retrieval program
JP2007018293A (en) * 2005-07-08 2007-01-25 Fujitsu Ltd System, method, and program for supporting work, and system and program for generating work support information
JP4729352B2 (en) * 2005-07-08 2011-07-20 富士通株式会社 Work support system, work support method, and work support program
JP4700532B2 (en) * 2006-03-14 2011-06-15 日本電信電話株式会社 Information distribution system, method and program
JP2007249388A (en) * 2006-03-14 2007-09-27 Nippon Telegr & Teleph Corp <Ntt> Information distribution system, method, and program
JP2007265325A (en) * 2006-03-30 2007-10-11 Aos Technologies Kk Service user support system
JP4500784B2 (en) * 2006-03-30 2010-07-14 Aosテクノロジーズ株式会社 Service user support system
JP2008097466A (en) * 2006-10-13 2008-04-24 Victor Co Of Japan Ltd Gui changer and gui change processing program
WO2008067047A1 (en) * 2006-11-29 2008-06-05 General Electric Company Customizing healthcare information
JP2010033456A (en) * 2008-07-30 2010-02-12 Hitachi Ltd Computer system, information gathering support apparatus, and information gathering support method
KR101083803B1 (en) 2009-07-02 2011-11-18 주식회사 솔트룩스 Ontology Based Method And System For Displaying Dynamic Navigation Menu
JP2011043962A (en) * 2009-08-20 2011-03-03 Toshiba Corp Medical information device and medical information analysis method
JP2013509627A (en) * 2009-10-29 2013-03-14 アルカテル−ルーセント Apparatus and method for automatically analyzing application user interface usage
JP2012240618A (en) * 2011-05-23 2012-12-10 Tokai Rika Co Ltd Sensing position controller
KR101135036B1 (en) 2011-12-27 2012-04-13 주식회사 네오패드 Menu configuration method and system on smart device
WO2013100480A1 (en) * 2011-12-27 2013-07-04 주식회사 네오패드 Menu configuration and system of smart device
JP2014174899A (en) * 2013-03-12 2014-09-22 Kddi Corp Gui program automatic change device, automatic change method, and automatic change program
WO2014162696A1 (en) * 2013-04-01 2014-10-09 株式会社デンソー Operability control method and operability control device for vehicle device
JP2014203129A (en) * 2013-04-01 2014-10-27 株式会社デンソー Operability estimation method and operability estimation device of device for vehicle
JP2014203128A (en) * 2013-04-01 2014-10-27 株式会社デンソー Operability control method and operability control device of device for vehicle
JP2016009424A (en) * 2014-06-26 2016-01-18 Kddi株式会社 Operation assist device, operation assist method, and operation assist program
JP2017138881A (en) * 2016-02-05 2017-08-10 ファナック株式会社 Machine learning device for learning display of operation menu, numerical control device, machine tool system, manufacturing system, and machine learning method
CN107045293A (en) * 2016-02-05 2017-08-15 发那科株式会社 Rote learning device and method, numerical control device, machine tool system, manufacture system
US10949740B2 (en) 2016-02-05 2021-03-16 Fanuc Corporation Machine learning device, numerical controller, machine tool system, manufacturing system, and machine learning method for learning display of operation menu
JP2020074177A (en) * 2016-02-05 2020-05-14 ファナック株式会社 Machine learning device for learning display of operation menu, numerical control device, machine tool system, manufacturing system, and machine learning method
JP6182654B1 (en) * 2016-08-24 2017-08-16 三菱電機インフォメーションシステムズ株式会社 Operation history management device and program
JP2018032189A (en) * 2016-08-24 2018-03-01 三菱電機インフォメーションシステムズ株式会社 Operation history management device and program
JP2019057092A (en) * 2017-09-20 2019-04-11 富士ゼロックス株式会社 Information processor and program
CN111936958A (en) * 2018-03-27 2020-11-13 日本电信电话株式会社 Adaptive interface providing device, adaptive interface providing method, and program
JPWO2019189227A1 (en) * 2018-03-27 2021-03-11 日本電信電話株式会社 Adaptive interface providing device, adaptive interface providing method, and program
WO2019189227A1 (en) * 2018-03-27 2019-10-03 日本電信電話株式会社 Adaptive interface providing device, adaptive interface providing method, and program
JP6996618B2 (en) 2018-03-27 2022-01-17 日本電信電話株式会社 Adaptive interface providing device, adaptive interface providing method, and program
US11934639B2 (en) 2018-03-27 2024-03-19 Nippon Telegraph And Telephone Corporation Adaptive interface providing apparatus, adaptive interface providing method, and program
CN111459783A (en) * 2020-04-03 2020-07-28 北京字节跳动网络技术有限公司 Application program optimization method and device, electronic equipment and storage medium
CN111459783B (en) * 2020-04-03 2023-04-18 北京字节跳动网络技术有限公司 Application program optimization method and device, electronic equipment and storage medium
US20220083200A1 (en) * 2020-09-16 2022-03-17 Casio Computer Co., Ltd. Recording medium, information processing method, and information processing apparatus
JP2022049244A (en) * 2020-09-16 2022-03-29 カシオ計算機株式会社 Program, information processing method and information processor
JP7120281B2 (en) 2020-09-16 2022-08-17 カシオ計算機株式会社 Program, information processing method and information processing apparatus
US11644945B2 (en) * 2020-09-16 2023-05-09 Casio Computer Co., Ltd. Recording medium, information processing method, and information processing apparatus
WO2023238358A1 (en) * 2022-06-09 2023-12-14 日本電信電話株式会社 Display control device, display control method, and display control program

Similar Documents

Publication Publication Date Title
JP2004355392A (en) Device and method for autonomously optimizing screen, recording medium, and program
JP4717743B2 (en) Information processing device
US7827050B2 (en) Comprehensive goal management through the use of an integrated software application
US20150082219A1 (en) Contextualized report building
US20080216000A1 (en) System, process and logic element for providing and managing record keeping applications
US20210216925A1 (en) Generating a process model
JP3607093B2 (en) Information management apparatus and recording medium on which program is recorded
KR101137067B1 (en) System and method for checking and resolving publication design problems
JP2006331119A (en) Information processor used for presentation, and program
WO2020246325A1 (en) Information processing device, information processing method, and program
JP2009110485A (en) Information processing system and program
JPH10260810A (en) Window display controller, and method for controlling display of window
JP4908024B2 (en) Project management support apparatus, project management support method, and project management support program
US9542492B2 (en) Method and system for generating interactive query results previews
JP4899428B2 (en) Information sharing analysis system
JP4441685B2 (en) Image information search / display apparatus, method, and image information search / display program
JP7298208B2 (en) Information processing device and program
JP2018018458A (en) Input support device and input support program
JP2021012594A (en) System, method, and program
JP5302529B2 (en) Information processing apparatus, information processing method, program, and recording medium
JP2021056591A (en) Training data generating system, training data generating method, and program
US20060184463A1 (en) Visual representation tool for course of action planning
JP4252931B2 (en) Medical device management system
JP2005182133A (en) Document classification device and document classification method
GB2382290A (en) Computer based interviewing system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20050614

A761 Written withdrawal of application

Free format text: JAPANESE INTERMEDIATE CODE: A761

Effective date: 20070305