JP2021002114A - 支援システム、支援方法および支援プログラム - Google Patents

支援システム、支援方法および支援プログラム Download PDF

Info

Publication number
JP2021002114A
JP2021002114A JP2019114378A JP2019114378A JP2021002114A JP 2021002114 A JP2021002114 A JP 2021002114A JP 2019114378 A JP2019114378 A JP 2019114378A JP 2019114378 A JP2019114378 A JP 2019114378A JP 2021002114 A JP2021002114 A JP 2021002114A
Authority
JP
Japan
Prior art keywords
region
attention
area
gui
test screen
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2019114378A
Other languages
English (en)
Inventor
顕司 坂本
Kenji Sakamoto
顕司 坂本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Konica Minolta Inc
Original Assignee
Konica Minolta Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Konica Minolta Inc filed Critical Konica Minolta Inc
Priority to JP2019114378A priority Critical patent/JP2021002114A/ja
Publication of JP2021002114A publication Critical patent/JP2021002114A/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Stored Programmes (AREA)

Abstract

【課題】GUIテスト画面の目視試験を効率化する支援システムを提供する。【解決手段】GUIテスト画面1001の目視試験を行う試験者に拡張現実ゴーグルを装着させ、目視試験中に試験者の視野を撮像するとともに、試験者の視線を検出する。撮像によって得られた画像データから、試験者の視野におけるGUIテスト画面1001の表示範囲を検知するとともに、GUIテスト画面1001を構成する複数の領域について、当該領域ごとに注目領域か非注目領域かを決定する。注目領域には試験者の目視を促す太枠画像1003を、非注目領域には試験者の目視を抑制するドットパターン画像1002を、拡張現実によって、GUIテスト画面1001に重畳表示して、目視試験の効率化を図る。【選択図】図10

Description

本発明は、支援システム、支援方法および支援プログラムに関し、特に、GUIテスト画面の目視試験を効率化する技術に関する。
従来、システム開発を行う際には品質を管理することを目的として、プログラムを構成する比較的小さな単位が個々の機能を正しく果たしているかどうかを検証する単体テスト、単体テストで動作確認した単位プログラムを結合して、うまく連携・動作しているかを確認する結合テストおよび、システム全体を実稼働時に近い状況で動作させるE2E(End to End)テストが順次実行される。
これらの試験のうち、E2Eテストでは、数多くのGUI(Graphical User Interface)画面についてシステムの機能テストを行わなければならないため大変手間がかかるものになっている。この手間を削減するために様々なGUIテストツールが提供されており、代表的なGUIテストツールとしては、例えば、ユーザーのキー操作、マウス操作を記録して、スクリプトを自動生成し、テストの実行を自動化することで、繰り返しのテストの工数を削減するTestComplete(SmartBear Software社の登録商標)が知られている。
また、Webアプリケーションの機能テストを行うSelenium(Software Freedom Conservancy, Inc.の登録商標)、WebUIの自動テストツールであるCypress(Cypress.io, Incの登録商標)なども挙げることができる。これらのツールを用いれば、UI(User Interface)要素の有無を確認したりキャプチャー画面を比較したりすることによって、WebアプリケーションやWebUIの実際の動作が所期の通りであるかどうかを確認することができる。
特開2018−190324号公報
上記のようなGUIテストツールでは、例えば、GUI画面の仕様の範囲外でUIが変更されていると、仕様の範囲内でUI要素の有無を確認するだけでは、仕様の範囲外の変更を発見することができないまま、テストが成功してしまう場合がある。逆に、仕様上問題のない軽微な変更であっても、キャプチャー画面を比較するとテストが失敗してしまう場合もある。このように、GUIテストツールを用いてGUI画面のレイアウト崩れや表示崩れを適切に検出することは必ずしも容易でないため、目視確認を行う場合がある。
しかしながら、目視確認は、確認を行う試験者の主観による影響を排除し切ることができないため、例えば、古いバージョンのGUI画面と新しいバージョンのGUI画面の差分を無意識に感じ取って、その影響を受けることがある。また、目視確認は定量的な試験ではないため、主観の影響を受け易い。
更に、目視確認では、重点的に確認する必要がない箇所を、試験者が注視してしまったりすると、テスト効率が低下してしまう、という問題もある。
本発明は、上述のような問題に鑑みて為されたものであって、GUI画面の目視確認を支援する支援システム、支援方法および支援プログラムを提供することを目的とする。
上記目的を達成するため、本発明の一形態に係る支援システムは、GUIテスト画面の目視試験を支援する支援システムであって、前記目視試験の試験者の視野における前記GUIテスト画面の表示範囲を検知する検知手段と、前記GUIテスト画面内の複数の領域について、当該領域ごとに注目領域か非注目領域かを決定する決定手段と、前記試験者に前記注目領域の目視を促し、前記非注目領域の目視を抑制する画像を、拡張現実によって、前記視野内で前記GUIテスト画面の表示範囲に重畳表示する表示手段と、を備えることを特徴とする。
この場合において、試験者の視線を検知する視線検知手段と、前記領域ごとに注目領域か非注目領域かを記憶する記憶手段と、前記決定手段の決定に応じて、前記記憶手段の記憶内容を更新する更新手段と、を備え、前記決定手段は、前記記憶手段の記憶内容に応じて、前記決定を行ってもよい。
また、前記GUIテスト画面の仕様並びにバグを管理するためのデータベースを備え、前記決定手段は、前記データベースを参照して前記決定を行ってもよい。
また、前記決定手段は、当該領域に視線が向けられた注目時間の長さが所定の時間を超えたら増加させ、超えなければ減少させた計数値を所定の閾値と比較して、前記決定を行ってもよい。
また、前記決定手段は、前記計数値が、第1の閾値を超えたら注目領域とし、前記第1の閾値よりも小さい第2の閾値を下回ったら非注目領域としてもよい。
また、試験者のジェスチャーを検知するジェスチャー検知手段と、所定のジェスチャーが検出されたときに、視線が向けられていた領域の注目時間を、前記第1の閾値および第2の閾値のどちらかとする閾値設定手段と、を備えてもよい。
また、前記記憶手段は、領域ごとに初期値を記憶してもよい。
また、前記表示手段は、前記領域ごとに注目領域か非注目領域かに応じて、当該領域の画像の濃度を変更してもよい。
また、前記表示手段は、前記領域ごとに注目領域か非注目領域かに応じたポインター画像を表示して、当該領域を指し示してもよい。
また、前記表示手段は、注目領域の情報をポップアップで示してもよい。
また、前記領域毎に、前記決定手段が当該領域を注目領域と決定した回数を計数する係数手段を備え、注目領域と決定された回数が所定回数以上である場合には、当該領域を重点注目領域と判定する 前記表示手段は、重点注目領域を表す表示を行ってもよい。
また、前記決定手段は、試験者のスキルに応じて、前記計数値を増加または減少させる値が異なっていてもよい。
また、前記領域ごとに、前記計数値と前記決定手段による決定結果とを記憶するデータベースを備えてもよい。
また、本発明の別の一形態に係る支援システムは、GUIテスト画面の目視試験を支援する支援システムであって、前記GUIテスト画面を表示する表示装置と、前記GUIテスト画面を目視する試験者に装着される拡張現実装置と、を備え、前記拡張現実装置は、前記試験者の視野における前記GUIテスト画面の表示範囲を検知する検知手段と、前記GUIテスト画面内の複数の領域について、当該領域ごとに注目領域か非注目領域かを決定する決定手段と、前記試験者に前記注目領域の目視を促し、前記非注目領域の目視を抑制する画像を、拡張現実によって、前記視野内で前記GUIテスト画面の表示範囲に重畳表示する表示手段と、を備えることを特徴とする。
また、本発明の一形態に係る支援方法は、GUIテスト画面の目視試験を支援する支援方法であって、前記目視試験の試験者の視野における前記GUIテスト画面の表示範囲を検知する検知ステップと、前記GUIテスト画面内の複数の領域について、当該領域ごとに注目領域か非注目領域かを決定する決定ステップと、前記試験者に前記注目領域の目視を促し、前記非注目領域の目視を抑制する画像を、拡張現実によって、前記視野内で前記GUIテスト画面の表示範囲に重畳表示する表示ステップと、を含むことを特徴とする。
また、本発明の一形態に係る支援プログラムは、GUIテスト画面の目視試験を支援する支援システムとしてコンピューターを動作させる支援プログラムであって、前記目視試験の試験者の視野における前記GUIテスト画面の表示範囲を検知する検知ステップと、前記GUIテスト画面内の複数の領域について、当該領域ごとに注目領域か非注目領域かを決定する決定ステップと、前記試験者に前記注目領域の目視を促し、前記非注目領域の目視を抑制する画像を、拡張現実によって、前記視野内で前記GUIテスト画面の表示範囲に重畳表示する表示ステップと、をコンピューターに実行させることを特徴とする。
このようにすれば、前記注目領域の目視を促し、前記非注目領域の目視を抑制する画像を、拡張現実によって、前記GUIテスト画面に重畳表示して、試験者が注視する必要のない領域を注視することなく、試験すべき領域を注視するように促すので、目視試験の効率化をはかることができる。
本発明の実施の形態に係る試験システムの構成を示す図である。 (a)は拡張現実ゴーグル100の構成を示す図であり、(b)は矢印A方向から見た裏面図である。 拡張現実ゴーグル100を制御する本体部201の構成を示すブロック図である。 拡張現実ゴーグル100の動作のメインルーチンを表すフローチャートである。 注目フラグ更新処理を表すフローチャートである。 注目時間計測処理を表すフローチャートである。 (a)は試験者の目視範囲と視野撮像カメラ202の撮像範囲との関係を説明する図であり、(b)は視線検出処理の概要を説明する図である。 (a)はGUIテスト画面を例示する図であり、(b)はGUIテスト画面の領域分割を例示する図である。 重ね合わせ表示処理を表すフローチャートである。 (a)注目領域判断データベースのデータ構造を例示する表であり、(b)は重ね合わせ画像を重畳表示したGUIテスト画面を例示する図である。 試験サーバー102の主要な構成を示すブロック図である。 本発明の変形例に係る拡張現実ゴーグル100と試験サーバー102との連係動作を説明するシーケンス図である。 (a)はポインティング表示重畳表示したGUIテスト画面を例示する図であり、(b)はポップアップ表示を重畳表示したGUIテスト画面を例示する図である。
以下、本発明に係る支援システム、支援方法および支援プログラムの実施の形態について、図面を参照しながら説明する。
[1]試験システムの構成
まず、本実施の形態に係る試験システムの構成について説明する。
図1に示すように、試験システム1は、GUIテスト画面を目視確認する試験者が装着する拡張現実(AR: Augmented Reality)ゴーグル100、試験者が目視確認するGUIテスト画面を表示するパーソナル・コンピューター(PC)101およびGUIテストを行うためのデータを格納した試験サーバー102を通信ネットワーク103に接続したものである。通信ネットワーク103には、無線ルーター104が接続されており、拡張現実ゴーグル100は、無線ルーター104を経由して、試験サーバー102と相互通信することができる。
[2]拡張現実ゴーグル100の構成
次に、拡張現実ゴーグル100の構成について説明する。
図2(a)に示すように、拡張現実ゴーグル100は、本体部201、視野撮像カメラ202、ディスプレイ203、眼部撮像カメラ205等を備えている。本体部201には、拡張現実ゴーグル100の動作を制御するためのハードウェア、ソフトウェアが搭載されており、更に、拡張現実ゴーグル100を動作させるための電源(バッテリー)が内蔵されている。
視野撮像カメラ202は、拡張現実ゴーグル100を装着した試験者の右目の視野全体を撮像する。眼部撮像カメラ205は、図2(b)に示すように、試験者が拡張現実ゴーグル100を装着した状態で、試験者の眼部に対向する位置に配設されており、試験者の目頭と虹彩との位置関係を検出することができるように、眼部全体を撮像する。
ディスプレイ203は、透過型のディスプレイであって、試験者の視野に重畳して画像を表示する。更に、本体部201には、イヤホンジャック204が設けられており、拡張現実ゴーグル100は、イヤホンジャック204に接続されたイヤホン等によって音声を出力することができる。また、本体部201は、不図示の電源ボタンやキャプチャーボタン、タッチパッドを備えている。電源ボタンは、拡張現実ゴーグル100を起動したり停止したりするためのボタンであり、キャプチャーボタンは、視野撮像カメラ202を用いて撮影するためのボタンである。タッチパッドは、拡張現実ゴーグル100の各種操作を行うための入力装置である。
本体部201は、拡張現実ゴーグル100の右側のテンプル215に装着されているが、左側のテンプル216に装着してもよい。また、リム213、214を用いてレンズ211、212を保持しているが、レンズ211、212を省いてもよい。ブリッジ217は、リム213、214を接続する。
[3]本体部201の構成
次に、本体部201の構成について説明する。
本体部201は、図3に示すように、CPU(Central Processing Unit)301、EEPROM(Electrically Erasable Programable Read Only Memory)302、RAM(Random Access Memory)303等を備えている。拡張現実ゴーグル100の電源ボタンが押下されると、CPU301はEEPROM302からブートプログラムを読み出して起動し、RAM303を作業用記憶領域として、EEPROM302から読み出した制御プログラムを実行する。
EEPROM302には、後述する注目領域判断データベース311が記憶されている。注目領域判断データベース311は、GUIテスト画面の領域ごとに注目領域であるか非注目領域であるかを判断するためのデータを記憶する。RAM303には、視野撮像カメラ202および眼部撮像カメラ205が撮像した画像データが格納される。ディスプレイ203はRAM303に書き込まれた画像データを表示する。
CPU301は、タイマー304を参照して、現在の時刻を取得する。
画像処理部305は、RAM303に格納された画像データを参照し、視野撮像カメラ202が撮像した画像を用いてGUIテスト画面を検出したり、眼部撮像カメラ205が撮像した画像を用いて試験者の視線を検出したりすることによって、試験者がGUIテスト画面のどの領域に注目しているかを検出する。通信処理部306は、無線ルーター104および通信ネットワーク103を経由した、試験サーバー102等の機器との通信処理を実行する。
[4]本体部201の動作
次に、本体部201の動作について説明する。
(4−1)メインルーチン
図4に示すように、本体部201は、まず、拡張現実ゴーグル100の視野撮像カメラ202を用いて試験者の視野を撮像し、得られた画像データから矩形の図形を検出することによって、PC101のディスプレイに表示されているGUIテスト画面を特定する(S401)。PC101のディスプレイに複数のウィンドウが表示されている場合には、試験サーバー102からGUIテスト画面の画像データを取得して、各ウィンドウの画像データと比較し、一致度が最も高いウィンドウをGUIテスト画面としてもよい。
次に、注目フラグ更新処理を実行する(S402)。注目フラグは、GUIテスト画面を複数の領域に分割した際に、領域ごとに割り当てられるフラグであって、当該領域が注目領域と非注目領域とのどちらであるかを表す。注目フラグ更新処理においては、後述のように、領域毎に試験者の注目時間を計測するとともに、過去の注目フラグを参照ことによって、領域毎に注目フラグを更新する。
次に、重ね合わせ表示処理を実行する(S403)、重ね合わせ表示処理は、GUIテスト画面の領域ごとに、その注目フラグの値に応じた画像を、拡張現実ゴーグル100のディスプレイ203に表示させることによって、GUIテスト画面に重畳して当該画像を表示する処理である。
(4−2)注目フラグ更新処理(S402)
注目フラグ更新処理においては、図5に示すように、まず、注目時間計測処理を実行する(S501)。注目時間計測処理においては、GUIテスト画面の領域毎に試験者が注目した時間を計測する。
具体的には、図6に示すように、領域ごとの注目時間Taを0に初期化し(S601)、上述のステップS401と同様にGUIテスト画面を検出する(S602)。図7(a)に示すように、視野撮像カメラ202の撮像範囲(画角)は、試験者の右眼701による目視範囲(右眼視野)全体を含んでいる。試験者がGUIテスト画面を試験するためにPC101のディスプレイ703を目視すると、視野撮像カメラ202はGUIテスト画面を含む試験者の目視範囲全体を撮像して、画像データを生成する。当該画像データを参照して、本体部201は、GUIテスト画面を特定する。
次に、本体部201は試験者の視線を検出する(S603)。すなわち、眼部撮像カメラ205にて試験者の右眼を撮像して、図7(b)に示すように、右眼701の目頭と虹彩の中心とを特定し、目頭から虹彩の中心へ向かうベクトル711、712の距離と角度とを算出する。なお、拡張現実ゴーグル100は試験者に装着されているため、試験者の右眼と眼部撮像カメラ205との位置関係は、試験者の姿勢や視線の方向に関わらず一定である。
目頭の座標を(x0、y0)とし、虹彩の中心の座標を(x1、y1)とすると、両者の距離Dは、次式(1)を用いて算出することができる。
D = {(x1−x0)2+(y1−y0)21/2 …(1)
また、角度θは、次式(2)を用いて算出することができる。
θ = arctan{(y1−y0)/(x1−x0)} …(2)
眼部撮像カメラ205と視野撮像カメラ202はどちらも拡張現実ゴーグル100に固定されており、位置関係が一定であるので、極座標(D、θ)と視野撮像カメラ202が生成する画像データ上の座標(x、y)とは一対一に対応付けることができる。本体部201のEEPROM302には、この対応付けのための表または関数が記憶されており、本体部201は当該表または関数を用いて、視野撮像カメラ202が撮像した試験者の視野における注目点の座標を求める。
このようにすれば、試験者の視野におけるGUIテスト画面の表示範囲を検出することができる。
視野撮像カメラ202は、例えば、図8(a)に示すようなGUIテスト画面を撮像する。視野撮像カメラ202が撮像したGUIテスト画面は、図8(b)に示すように、縦横どちらも4分割した16の領域A〜Pに分割されている。試験者の注目点が領域A〜Pのどれにも入っておらず、したがって試験者の視線がどの領域にも向かっていないと判断される場合には(S604:NO)、ステップS602に戻って、次の撮像をおこなう。
試験者の注目点が領域A〜Pのどれかに入っており、試験者の視線が当該領域に向かっていると判断される場合には(S604:YES)、タイマー304を参照して現時刻T1を取得する(S605)。その後さらにGUIテスト画面を検出し(S606)、試験者の視線を検出して(S607)、試験者の視線が当該領域に留まっている場合には(S608:NO)、ステップS606へ進んで上記の処理を繰り返す。
試験者の視線が当該領域から外れた場合には(S608:YES)、タイマー304を参照して現時刻T2を取得し(S609)、次式(3)のように経過時間Teを算出する(S610)。
Te = T2 − T1 …(3)
算出した経過時間Teを所定の最短時間Tminと比較して、経過時間Teが最短時間Tmin以下である場合には(S611:NO)、試験者は当該領域に注目したと判定するには経過時間Teが短過ぎるので、当該経過時間Teを注目時間Taに計上することなく、ステップS613へ進む。
経過時間Teが最短時間Tminよりも長い場合には(S611:YES)、試験者は当該領域に注目したと判定して、当該領域の注目時間Taに経過時間Teを加算する(S612)。
その後、注目時間の計測を終了する場合には(S613:YES)、上位ルーチンである注目フラグ更新処理に復帰する。注目時間の計測を継続する場合には(S613:NO)、ステップS602へ進んで上記の処理を繰り返す。注目時間の計測を終了するかどうかは、例えば、ステップS601で注目時間Taの値を初期化してから所定の時間を経過したかどうかで判断してもよいし、所定の個数の領域について注目時間Taを計測したかどうかで判断してもよい。また、他の基準で判断してもよい。
図5に戻って、注目時間計測処理(S501)の完了後、本体部201は、注目領域判断データベース311から領域ごとの注目フラグと注目領域カウントとを読み出して(S502)、すべての領域についてステップS503からステップS511までの処理を実行する。
すなわち、計測によって得られた注目時間Taが所定時間Ttよりも長い場合には(S504:YES)、試験者が当該領域に確実に注目したと判断されるので、注目領域カウントCaを1だけ増加させる(S505)。一方、計測によって得られた注目時間Taが所定時間Tt以下である場合には(S504:NO)、試験者が当該領域に注目したとは言えないので、注目領域カウントCaを1だけ減少させる(S506)。
注目カウントCaが第1の閾値よりも大きい場合には(S507:YES)、注目フラグFaの値を1に設定して、当該領域を注目領域と判定する(S508)。また、注目カウントCaが第2の閾値よりも小さい場合には(S509:YES)、注目フラグFaの値を0に設定して、当該領域を非注目領域と判定する(S510)。このように第1、第2の2つの閾値を用いれば、注目領域カウントCaが頻繁に増減した場合であっても、注目フラグFaの値を安定させることができるので、後述する拡張現実を用いた重ね合わせ画像の表示状態を安定させることができる。
その後、更新した注目フラグFaの値並びに注目領域カウントCaの値を注目領域判断データベース311に記録し(S512)、上位ルーチンであるメインルーチンに復帰する。
(4−3)重ね合わせ表示処理(S403)
次に、重ね合わせ表示処理について説明する。
重ね合わせ表示処理においては、図9に示すように、本体部201は、まず注目領域判断データベース311を参照して、注目フラグ更新処理(S402)で更新した領域ごとの注目フラグFaの値を取得する(S901)。図10(a)の例では、注目領域判断データベース311に注目フラグFaの値と注目領域カウントCaの値とが領域毎に記録されている。ただし、図10(a)では、第1の閾値の値が6、第2の閾値の値が4になっている。
本体部201は、次に、注目フラグFaの値に応じた重ね合わせ画像を生成する(S902)。図10(a)で領域A〜D、N〜Pは注目フラグFaの値が0になっている注目フラグFaの値が0になっているのに対応して、図10(b)では領域A〜D、N〜Pに重ね合わせる重ね合わせ画像として、不透明なドットパターン画像1002が生成されている。領域F、G、J、Kは注目フラグFaの値が1なので、注目すべき画像であることを表す太枠画像1003が生成されている。
また、領域E、H、I、Lは、注目領域カウントCaの値が第1の閾値と第2の閾値との間にあり、注目フラグFaの値が確定されていないので、重ね合わせ画像は生成されていない。
次に、本体部201は、視野撮像カメラ202を用いて試験者の視野を撮像し、得られた画像データからGUIテスト画面の位置を特定し(S903)、当該位置に重なるように、拡張現実ゴーグル100のディスプレイ203に重ね合わせ画像を表示する。その後、時々刻々変化する試験者の姿勢に追随して、ステップS903、S904の処理を繰り返す。
このようにすれば、試験者の注目度が低く、従って、目視試験の対象ではないと推定される領域である非注目領域を見え難くし、かつ試験者の注目度が高く、従って、目視試験の対象であると推定される領域である注目領域を強調する重ね合わせ画像を、GUIテスト画面に重畳表示して、試験者の視線を目視によって確認すべき領域へ導くので、目視試験の効率化を図ることができる。
[5]試験サーバー102
試験サーバー102は、所謂サーバー装置であって、図11に示すように、CPU1101、ROM(Read Only Memory)1102、RAM1103、HDD(Hard Disk Drive)1104および通信処理部1105を備えている。CPU1101は、リセットされると、ROM1102からブートプログラムを読み出して起動し、RAM1103を作業用記憶領域として、HDD1104から読み出したOS(Operating System)やアプリケーション・プログラムを実行する。
HDD1104には、画面仕様/バグ管理データベース1111が記憶されている。画面仕様/バグ管理データベース1111は、GPUテスト画面の仕様データとバグを管理するためのデータを記憶するデータベースである。PC101は、通信ネットワーク103を経由して試験サーバー102からGUIテスト画面の使用データを取得することによって、ディスプレイ703にGUIテスト画面を表示する。
また、試験者は、PC101を操作することによって、通信ネットワーク103を経由して、試験サーバー102の画面仕様/バグ管理データベース1111に試験結果を登録する。試験結果を登録するためのウィンドウは、PC101のディスプレイ703上で、GUIテスト画面を表示するためのウィンドウとは別のウィンドウとして表示される。試験者は、PC101のキーボードやマウスを操作することによって試験結果を登録する。
[5]変形例
以上、本発明を実施の形態に基づいて説明してきたが、本発明が上述の実施の形態に限定されないのは勿論であり、以下のような変形例を実施することができる。
(5−1)上記実施の形態においては、注目領域判断データベース311を拡張現実ゴーグル100の本体部201に搭載されたEEPROM301に記憶させる場合を例にとって説明したが、本発明がこれに限定されないのは言うまでもなく、これに代えて次のようにしてもよい。
例えば、注目領域判断データベースを試験サーバー102に記憶させてもよい。この場合に、図12に示すように、拡張現実ゴーグル100は、試験者がPC101のディスプレイ703にGUIテスト画面を表示させて、目視確認を開始すると、まず、GUIテスト画面の位置を検出した後、当該GUIテスト画面に重ね合わせる重ね合わせ画像を生成するための重ね合わせ用データ(領域ごとの注目フラグFaおよび注目領域カウントCaの値)を、試験サーバー102に記憶されている注目領域判断データベースに要求する重ね合わせ用データリクエストを送信する。
注目領域判断データベースは、重ね合わせ用データリクエストを受信すると、画面仕様/バグ管理データベースに注目領域を決定するためのデータを要求する。このデータは、例えば、試験者が目視確認すべきGUI要素(GUIテスト画面に表示される図形、テキストなど)を示すデータであって、画面仕様/バグ管理データベースは試験内容に応じて当該データを生成する。
例えば、フォントやアイコンのエッジは厳密に目視する必要は無い一方、QR(Quick Response)コードやバーコードは厳密に目視確認する必要がある。画面仕様/バグ管理データベースは、生成したデータを含むデータレスポンスを注目領域判断データベースへ応答する。
注目領域判断データベースは、画面仕様/バグ管理データベースからデータレスポンスを受信すると、GUIテスト画面を16の領域に分割して、試験者が目視確認すべきGUI要素が含まれている領域は注目フラグFaの値を1とし、目視確認すべきGUI要素が含まれていない領域は注目フラグFaの値を0とした重ね合わせ用データを生成して、拡張現実ゴーグル100へ当該重ね合わせ用データを応答する。
拡張現実ゴーグル100は、重ね合わせ用データレスポンスを受信すると、重ね合わせ画像を生成して、GUIテスト画面に重なるようにディスプレイ203に表示する。その後、GUIテスト画面への視線を検知して、視線先の領域のテスト結果を判定する。このテスト結果を、拡張現実ゴーグル100が注目領域判断データベースへ送信すると、注目領域判断データベースは注目領域データを更新する。
なお、テスト結果の送信は別デバイスを使用してデータ送信してもよい。また、注目領域判断データベースが画面仕様/バグ管理データベースに注目領域決定のためのデータリクエストを行うのは、当該GUIテスト画面について注目フラグを決定するのが1回目である場合や、GUIテスト画面をバージョンアップしたときなど、所定のタイミングでのみ実施するのが望ましい。
このように、試験者が注目すべき領域と注目しなくてもよい領域を、画面仕様/バグ管理データベースを元に判断して、GUIテスト画面に重なるよう拡張現実ゴーグル100にて重ね合わせ画像を表示してもよい。また、領域ごとに注目フラグFaや注目領域カウントCaを、試験者の注目の仕方に応じて適宜調整すれば、目視によるGUIテストにおいて、重点的に見るべきエリアとそれほど見なくてもよいエリアが提示されるので、テスト者の時間と労力の低減を図ることができる。
(5−2)上記実施の形態においては特に言及しなかったが、注目領域判断データベースは、GUIテスト画面のすべての領域について、注目領域カウントCaの初期値を第1の閾値を超える値とし、注目フラグFaの値の初期値を1として記憶してもよい。このようにすれば、初期状態においては、試験者がすべての領域においてGUIテスト画面を見ることができるので、すべての領域について注目時間Taを計測し、その計測結果を反映した重ね合わせ画像を生成することができる。
(5−3)上記実施の形態においては、注目フラグFaの値を決定する際に用いる第1の閾値および第2の閾値として固定値を用いる場合を例にとって説明したが、本発明がこれに限定されないのは言うまでもなく、これに代えて次のようにしてもよい。
例えば、視野撮像カメラ202や眼部撮像カメラ205を用いて試験者のジェスチャーを検出し、試験者が特定のジェスチャーを行ったときに、試験者の視線が向かっていた領域の注目領域カウントCaを第1の閾値や第2の閾値として用いてもよい。このようにすれば、試験者の都合に応じて柔軟に第1の閾値や第2の閾値を変更することができる。従って、注目領域であるか非注目領域であるかを精度よく判断することができる。
(5−4)上記実施の形態においては、注目領域であるか非注目領域であるかに応じたドットパターン画像や太枠画像をGUIテスト画面に重畳して表示する場合を例にとって説明したが、本発明がこれに限定されないのは言うまでもなく、これに代えて次のようにしてもよい。
例えば、当該領域が注目領域である場合には、GUIテスト画面の当該領域部分の画像の濃度を濃くした画像を重ね合わせ画像として表示し、当該領域が非注目領域である場合には、GUIテスト画面の当該領域部分の画像の濃度を薄くした画像を重ね合わせ画像として表示してもよい。
また、図13(a)に示すように、太い矢印1301を用いて注目領域を指し、細い矢印1302を用いて非注目領域を指してもよい。また、矢印に代えて、カーソル等、矢印以外のポインターを用いて注目領域と非注目領域とをポインティングしてもよい。また、非注目領域をポインティングすることなく、注目領域のみをポインティングしてもよいことは言うまでもない。
更に、ポップアップを用いて注目領域や非注目領域の情報を示してもよい。図13(b)の例では、注目領域であるか非注目領域であるかのみを示しているが、これに代えて、或いはこれに加えて他の情報を示してもよい。また、この場合においても、非注目領域の情報をポップアップ表示することなく、注目領域の情報のみをポップアップ表示してもよい。
(5−5)上記実施の形態においては、重ね合わせ画像を用いて注目領域であるか非注目領域であるかのみを表示する場合を例にとって説明したが、本発明がこれに限定されないのは言うまでもなく、これに代えて次のようにしてもよい。
例えば、注目領域であると判定された回数が所定の回数以上である領域については、重点注目領域であると判定して、非注目領域とも注目領域とも異なる重ね合わせ画像を表示してもよい。このようにすれば、目視試験の効率を更に向上させることができる。
(5−6)上記実施の形態においては、注目時間Taの長短に応じて、注目領域カウントCaを1ずつ増減する場合を例にとって説明したが、本発明がこれに限定されないのは言うまでもなく、これに代えて次のようにしてもよい。
例えば、試験者のスキルに応じて注目領域カウントCaを増減させる加減算値を1以外の値にしてもよい。例えば、過去に試験した項目数が多く、目視試験のスキルが高い試験者については、適切な領域を選んで目視している可能性が高いので、当該加減算値を大きくして、注目領域カウントCaを速やかに第1の閾値よりも大きくしたり、第2の閾値よりも小さくしたりすれば、適切な重ね合わせ画像を迅速に表示することができるので、目視試験の効率を速やかに向上させることができる。
一方、過去に試験した項目数が少なく、目視試験のスキルが低い試験者については、適切な領域を選ぶのに手間取っていたり、試験項目とは関係ない領域を誤って注視したりする可能性が高いので、当該加減算値が大きいと、不適切な重ね合わせ画像が表示されてしまう恐れがある。このような問題に対して、加減算値を小さくすれば、適切な領域の注目領域カウントCaが他の領域の注目領域カウントCaよりも十分大きくなってから、重ね合わせ画像を生成することができるので、目視試験の効率を確実に向上させることができる。
(5−7)上記実施の形態においては、目頭と虹彩の中心との位置関係から視線を検出する場合を例にとって説明したが、本発明がこれに限定されないのは言うまでもなく、他の方法を用いて試験者の視線を検出してもよい。例えば、赤外線LED(Light Emitting Diode)で試験者の眼部を照明して、赤外線カメラで試験者の眼部を撮像する。赤外線LEDの照明によって生じた反射光の角膜上の位置(角膜反射)を基準点して、角膜反射の位置に対する瞳孔の位置に基づいて、視線を検出してもよい。例えば、左目の角膜反射よりも瞳孔が目尻側にあれば、試験者は左側を見ており、角膜反射よりも瞳孔が目頭側にあれば、試験者は右側を見ていると判定することができる。
(5−8)本発明に係る支援システムは、上述したような拡張現実ゴーグル100であってもよいし、拡張現実ゴーグル100と試験サーバー102とが連携するシステムであってもよい。更に、拡張現実ゴーグル100、PC101および試験サーバー102が連携するシステムであってもよい。
また、上述したように、拡張現実ゴーグル100および試験システム1は、どちらもマイクロプロセッサーとメモリとを備えたコンピューターシステムである。メモリは、コンピューター・プログラムを記憶しており、マイクロプロセッサーは、コンピューター・プログラムに従って動作するとしてもよい。
ここで、コンピューター・プログラムは、所定の機能を達成するために、コンピューターに対する指令を示す命令コードが複数個組み合わされて構成されたものである。
また、コンピューター・プログラムは、コンピューター読み取り可能な記録媒体、例えば、フレキシブルディスク、ハードディスク、光ディスク、半導体メモリなどに記録されているとしてもよい。
また、コンピューター・プログラムを、有線又は無線の電気通信回線、インターネットを代表とするネットワーク、データ放送等を経由して伝送してもよい。
また、本発明は、拡張現実ゴーグル100や試験システム1が、当該コンピューター・プログラムを実行することによって、使用する方法であるとしてもよい。
(5−9)上記実施の形態及び上記変形例をそれぞれ組み合わせてもよい。
本発明に係る支援システム、支援方法および支援プログラムは、GUIテスト画面の目視試験を効率化する技術として有用である。
1…………試験システム
100……拡張現実ゴーグル
101……パーソナル・コンピューター
102……試験サーバー
201……本体部
202……視野撮像カメラ
203……ディスプレイ
205……眼部撮像カメラ
311……注目領域判断データベース
1111…画面仕様/バグ管理データベース

Claims (16)

  1. GUIテスト画面の目視試験を支援する支援システムであって、
    前記目視試験の試験者の視野における前記GUIテスト画面の表示範囲を検知する検知手段と、
    前記GUIテスト画面内の複数の領域について、当該領域ごとに注目領域か非注目領域かを決定する決定手段と、
    前記試験者に前記注目領域の目視を促し、前記非注目領域の目視を抑制する画像を、拡張現実によって、前記視野内で前記GUIテスト画面の表示範囲に重畳表示する表示手段と、を備える
    ことを特徴とする支援システム。
  2. 試験者の視線を検知する視線検知手段と、
    前記領域ごとに注目領域か非注目領域かを記憶する記憶手段と、
    前記決定手段の決定に応じて、前記記憶手段の記憶内容を更新する更新手段と、を備え、
    前記決定手段は、前記記憶手段の記憶内容に応じて、前記決定を行う
    ことを特徴とする請求項1に記載の支援システム。
  3. 前記GUIテスト画面の仕様並びにバグを管理するためのデータベースを備え、
    前記決定手段は、前記データベースを参照して前記決定を行う
    ことを特徴とする請求項1または2に記載の支援システム。
  4. 前記決定手段は、当該領域に視線が向けられた注目時間の長さが所定の時間を超えたら増加させ、超えなければ減少させた計数値を所定の閾値と比較して、前記決定を行う
    ことを特徴とする請求項2または3のいずれかに記載の支援システム。
  5. 前記決定手段は、前記計数値が、第1の閾値を超えたら注目領域とし、前記第1の閾値よりも小さい第2の閾値を下回ったら非注目領域とする
    ことを特徴とする請求項4に記載の支援システム。
  6. 試験者のジェスチャーを検知するジェスチャー検知手段と、
    所定のジェスチャーが検出されたときに、視線が向けられていた領域の注目時間を、前記第1の閾値および第2の閾値のどちらかとする閾値設定手段と、を備える
    ことを特徴とする請求項5に記載の支援システム。
  7. 前記記憶手段は、領域ごとに初期値を記憶している
    ことを特徴とする請求項2に記載の支援システム。
  8. 前記表示手段は、前記領域ごとに注目領域か非注目領域かに応じて、当該領域の画像の濃度を変更する
    ことを特徴とする請求項1から7のいずれかに記載の支援システム。
  9. 前記表示手段は、前記領域ごとに注目領域か非注目領域かに応じたポインター画像を表示して、当該領域を指し示す
    ことを特徴とする請求項1から7のいずれかに記載の支援システム。
  10. 前記表示手段は、注目領域の情報をポップアップで示す
    ことを特徴とする請求項1から7のいずれかに記載の支援システム。
  11. 前記領域毎に、前記決定手段が当該領域を注目領域と決定した回数を計数する係数手段を備え、
    注目領域と決定された回数が所定回数以上である場合には、当該領域を重点注目領域と判定する
    前記表示手段は、重点注目領域を表す表示を行う
    ことを特徴とする請求項1から9に記載の支援システム。
  12. 前記決定手段は、試験者のスキルに応じて、前記計数値を増加または減少させる値が異なる
    ことを特徴とする請求項4または5に記載の支援システム。
  13. 前記領域ごとに、前記計数値と前記決定手段による決定結果とを記憶するデータベースを備える
    ことを特徴とする請求項4、5および12のいずれかに記載の支援システム。
  14. GUIテスト画面の目視試験を支援する支援システムであって、
    前記GUIテスト画面を表示する表示装置と、
    前記GUIテスト画面を目視する試験者に装着される拡張現実装置と、を備え、
    前記拡張現実装置は、
    前記試験者の視野における前記GUIテスト画面の表示範囲を検知する検知手段と、
    前記GUIテスト画面内の複数の領域について、当該領域ごとに注目領域か非注目領域かを決定する決定手段と、
    前記試験者に前記注目領域の目視を促し、前記非注目領域の目視を抑制する画像を、拡張現実によって、前記視野内で前記GUIテスト画面の表示範囲に重畳表示する表示手段と、を備える
    ことを特徴とする支援システム。
  15. GUIテスト画面の目視試験を支援する支援方法であって、
    前記目視試験の試験者の視野における前記GUIテスト画面の表示範囲を検知する検知ステップと、
    前記GUIテスト画面内の複数の領域について、当該領域ごとに注目領域か非注目領域かを決定する決定ステップと、
    前記試験者に前記注目領域の目視を促し、前記非注目領域の目視を抑制する画像を、拡張現実によって、前記視野内で前記GUIテスト画面の表示範囲に重畳表示する表示ステップと、を含む
    ことを特徴とする支援方法。
  16. GUIテスト画面の目視試験を支援する支援システムとしてコンピューターを動作させる支援プログラムであって、
    前記目視試験の試験者の視野における前記GUIテスト画面の表示範囲を検知する検知ステップと、
    前記GUIテスト画面内の複数の領域について、当該領域ごとに注目領域か非注目領域かを決定する決定ステップと、
    前記試験者に前記注目領域の目視を促し、前記非注目領域の目視を抑制する画像を、拡張現実によって、前記視野内で前記GUIテスト画面の表示範囲に重畳表示する表示ステップと、をコンピューターに実行させる
    ことを特徴とする支援プログラム。
JP2019114378A 2019-06-20 2019-06-20 支援システム、支援方法および支援プログラム Pending JP2021002114A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019114378A JP2021002114A (ja) 2019-06-20 2019-06-20 支援システム、支援方法および支援プログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019114378A JP2021002114A (ja) 2019-06-20 2019-06-20 支援システム、支援方法および支援プログラム

Publications (1)

Publication Number Publication Date
JP2021002114A true JP2021002114A (ja) 2021-01-07

Family

ID=73995043

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019114378A Pending JP2021002114A (ja) 2019-06-20 2019-06-20 支援システム、支援方法および支援プログラム

Country Status (1)

Country Link
JP (1) JP2021002114A (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113259627A (zh) * 2021-05-07 2021-08-13 远峰科技股份有限公司 监视系统分视野显示方法及系统

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006048636A (ja) * 2004-07-05 2006-02-16 Internatl Business Mach Corp <Ibm> 対象コンテンツを評価する方法、コンピュータ・プログラム、システム
JP2014182628A (ja) * 2013-03-19 2014-09-29 Nec Corp 空間重要度判定装置、空間重要度判定方法、及びプログラム
JP2018077417A (ja) * 2016-11-11 2018-05-17 コニカミノルタ株式会社 表示システム、プログラムおよび表示制御方法
JP2018147289A (ja) * 2017-03-07 2018-09-20 富士ゼロックス株式会社 表示装置、表示システム及びプログラム
JP2019079469A (ja) * 2017-10-27 2019-05-23 オリンパス株式会社 作業支援装置、作業支援方法、作業支援プログラム及び頭部搭載型表示装置

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006048636A (ja) * 2004-07-05 2006-02-16 Internatl Business Mach Corp <Ibm> 対象コンテンツを評価する方法、コンピュータ・プログラム、システム
JP2014182628A (ja) * 2013-03-19 2014-09-29 Nec Corp 空間重要度判定装置、空間重要度判定方法、及びプログラム
JP2018077417A (ja) * 2016-11-11 2018-05-17 コニカミノルタ株式会社 表示システム、プログラムおよび表示制御方法
JP2018147289A (ja) * 2017-03-07 2018-09-20 富士ゼロックス株式会社 表示装置、表示システム及びプログラム
JP2019079469A (ja) * 2017-10-27 2019-05-23 オリンパス株式会社 作業支援装置、作業支援方法、作業支援プログラム及び頭部搭載型表示装置

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113259627A (zh) * 2021-05-07 2021-08-13 远峰科技股份有限公司 监视系统分视野显示方法及系统

Similar Documents

Publication Publication Date Title
US11467709B2 (en) Mixed-reality guide data collection and presentation
US10678329B2 (en) Line-of-sight input device, and method of line-of-sight input
CN110502099B (zh) 可靠地检测注视与刺激之间的关联的方法
US20180157323A1 (en) Eye gaze determination
JP4896621B2 (ja) 視野計
JP5762892B2 (ja) 情報表示システム、情報表示方法、及び情報表示用プログラム
RU2716201C2 (ru) Способ и устройство для определения остроты зрения пользователя
US9489574B2 (en) Apparatus and method for enhancing user recognition
JP6957993B2 (ja) ユーザの解答に対する自信レベルを推定する情報処理プログラム、情報処理装置及び情報処理方法
CN104520799A (zh) 通过眼睛跟踪进行的用户输入处理
JP6203971B2 (ja) ディスプレイ装置を操作する方法及びシステム
US20170112373A1 (en) Visual acuity testing method and product
KR20160061699A (ko) 디스플레이를 제어하는 전자 장치 및 방법
JP5868128B2 (ja) 情報処理装置およびその制御方法
KR101749070B1 (ko) 사용자 인터페이스 평가 장치 및 그 평가 방법
WO2019021601A1 (ja) 情報処理装置、情報処理方法、およびプログラム
JP2021002114A (ja) 支援システム、支援方法および支援プログラム
JP2014174507A (ja) 拡張現実表示装置及び情報端末並びにマルチディスプレイシステム、プログラム
JP2019017800A (ja) コンピュータプログラム、情報処理装置及び情報処理方法
US20220087583A1 (en) Evaluation device, evaluation method, and evaluation program
JP2016133904A (ja) 既読判断装置、既読判断方法及び既読判断プログラム
US20170090451A1 (en) Terminal device and terminal control program
KR20180116044A (ko) 증강현실용 디바이스와 그 증강현실 출력 방법
JP2018047626A (ja) 画像形成装置、情報処理装置及び情報処理システム
JP5376988B2 (ja) 眼科装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220517

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230214

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230215

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20230808