JP2012043357A - Usability evaluation device, method and program - Google Patents

Usability evaluation device, method and program Download PDF

Info

Publication number
JP2012043357A
JP2012043357A JP2010186247A JP2010186247A JP2012043357A JP 2012043357 A JP2012043357 A JP 2012043357A JP 2010186247 A JP2010186247 A JP 2010186247A JP 2010186247 A JP2010186247 A JP 2010186247A JP 2012043357 A JP2012043357 A JP 2012043357A
Authority
JP
Japan
Prior art keywords
target object
saliency
operation target
usability
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2010186247A
Other languages
Japanese (ja)
Inventor
Yumi Yano
有美 矢野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
NEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Corp filed Critical NEC Corp
Priority to JP2010186247A priority Critical patent/JP2012043357A/en
Publication of JP2012043357A publication Critical patent/JP2012043357A/en
Withdrawn legal-status Critical Current

Links

Images

Abstract

PROBLEM TO BE SOLVED: To solve the problem in which it is impossible to evaluate usability for a visual feature of an image displayed on a screen such as a layout of contents on the screen and a design of an operation object.SOLUTION: A usability evaluation device comprises usability information generation means which generates and outputs usability information for evaluating whether it is possible to attract attention to a specific part in an image based on an element remarkability value indicating remarkability for each unit element of the image.

Description

本発明は、ユーザビリティ評価装置、方法及びプログラムに関し、特に視覚的なユーザビリティを評価するユーザビリティ評価装置、方法及びプログラムに関する。   The present invention relates to a usability evaluation apparatus, method and program, and more particularly to a usability evaluation apparatus, method and program for evaluating visual usability.

ユーザビリティを評価する技術として、非特許文献1に記載された関連技術がある。非特許文献1に記載されたユーザビリティの評価方法は、操作対象オブジェクト上に書かれている文字とユーザの操作目的の意味的類似度を算出する手段と、算出した意味的類似度を用いてユーザビリティの問題点を抽出する手段を備えている。ユーザの操作目的は、例えば、「ユーザが、端末に入っているシフォンケーキのレシピを検索する」シーンを想定すると、「シフォンケーキのレシピを見る」である。   As a technique for evaluating usability, there is a related technique described in Non-Patent Document 1. The usability evaluation method described in Non-Patent Document 1 uses a means for calculating a semantic similarity of a character written on an operation target object and a user's operation purpose, and the calculated semantic similarity. A means for extracting the problems is provided. The user's operation purpose is, for example, “view a chiffon cake recipe”, assuming a scene where the user searches for a recipe for a chiffon cake in the terminal.

意味的類似度を算出する手段では、操作対象オブジェクトのラベルの文字列とユーザの操作目的を表す文字列、または、操作対象オブジェクトのラベル間の意味的類似度を計算する。ユーザビリティの問題を抽出する手段では、例えば、操作対象オブジェクト間の意味的類似度の値が高い場合は、それらの操作対象オブジェクトを混同しやすい、と判断してユーザビリティに問題があると判断する。   In the means for calculating the semantic similarity, the semantic similarity between the character string of the label of the operation target object and the character string indicating the user's operation purpose or the label of the operation target object is calculated. In the means for extracting the usability problem, for example, when the value of the semantic similarity between the operation target objects is high, it is determined that the operation target objects are likely to be confused and the usability problem is determined.

非特許文献2には、入力画像の色、傾き及び線の分岐などの各特徴量に基づいて特徴マップを作成し、それらの特徴マップの顕著性を統合することで、Saliency Map (顕著マップ)を作成する技術が、記載されている。また、非特許文献2には、顕著マップ上で最も顕著性値の高い位置座標を検出することでユーザの注視位置座標を予測する技術が、記載されている。   In Non-Patent Document 2, a feature map is created based on each feature quantity such as the color, inclination, and line branch of an input image, and the saliency of these feature maps is integrated, so that the Saliency Map (saliency map) is obtained. Techniques for creating are described. Non-Patent Document 2 describes a technique for predicting a user's gaze position coordinate by detecting a position coordinate having the highest saliency value on a saliency map.

非特許文献3には、非コンテンツ領域が付与されたウェブページから素性ベクトルを抽出し、それらからチャンキングによって非コンテンツ領域を検出するためのモデルを学習することで、ウェブページ内の非コンテンツ領域を自動的に検出する方法が記載されている。   In Non-Patent Document 3, a feature vector is extracted from a web page to which a non-content area is assigned, and a model for detecting the non-content area by chunking is extracted from the extracted feature vector. Describes a method for automatically detecting.

また、特許文献1には、画像の表示領域から部分領域を特定し、これが所定条件を満足するか否かを判定する手段が記載されている。   Japanese Patent Application Laid-Open No. H10-228561 describes a means for specifying a partial area from an image display area and determining whether or not this satisfies a predetermined condition.

特許文献2には、画像を特徴量によって分類する技術が記載されている。   Patent Document 2 describes a technique for classifying images according to feature amounts.

特許文献3には、画像データの特徴量を計算する手段が記載されている。   Patent Document 3 describes means for calculating the feature amount of image data.

特開2006−217123号公報JP 2006-217123 A 特開2007−317034号公報JP 2007-317034 A 特開平09−091430号公報JP 09-091430 A

Blackmon, M.H. and Polson, P.G. and Kitajima, M. and Lewis, C., "Cognitive walkthrough for the web", Proceedings of the SIGCHI conference on Human factors in computing systems: Changing our world, changing ourselves, 463-470, 2002, ACM New York, NY, USABlackmon, MH and Polson, PG and Kitajima, M. and Lewis, C., "Cognitive walkthrough for the web", Proceedings of the SIGCHI conference on Human factors in computing systems: Changing our world, changing ourselves, 463-470, 2002 , ACM New York, NY, USA Itti, L. and Koch, C. and Niebur, E. and others, "A model of saliency-based visual attention for rapid scene analysis", IEEE Transactions on pattern analysis and machine intelligence, vol.20 (11), pp.1254-1259, 1998, CiteseerItti, L. and Koch, C. and Niebur, E. and others, "A model of saliency-based visual attention for rapid scene analysis", IEEE Transactions on pattern analysis and machine intelligence, vol.20 (11), pp. 1254-1259, 1998, Citeseer 中村達也、白井清昭、“ウェブページにおける非コンテンツ領域の検出”、言語処理学会第13回年次大会発表論文集、234−237、2007Tatsuya Nakamura and Kiyoaki Shirai, “Detection of non-content areas in web pages”, Proc. Of the 13th Annual Conference of the Language Processing Society of Japan, 234-237, 2007

しかしながら、上述した先行技術文献に記載された技術においては、画面上のコンテンツのレイアウトや操作対象オブジェクトのデザインなど、画面に表示された画像の、視覚的な特徴に対するユーザビリティの評価ができないという問題があった。
(発明の目的)
本発明の目的は、上述した問題点を解決できるユーザビリティ評価装置、方法及びプログラムを提供することにある。
However, in the technology described in the above-described prior art documents, there is a problem that usability cannot be evaluated with respect to the visual characteristics of the image displayed on the screen, such as the layout of the content on the screen and the design of the operation target object. there were.
(Object of invention)
The objective of this invention is providing the usability evaluation apparatus, method, and program which can solve the problem mentioned above.

本発明のユーザビリティ評価システムは、画像の単位要素毎の顕著性を示す要素顕著性値に基づいて、前記画像内の特定部分に注意を引くことができるか否かを評価するためのユーザビリティ情報を生成し、出力するユーザビリティ情報生成手段を有する。   The usability evaluation system of the present invention provides usability information for evaluating whether or not attention can be drawn to a specific portion in the image based on an element saliency value indicating saliency for each unit element of the image. Usability information generating means for generating and outputting.

本発明の方法は、画像の単位要素毎の顕著性を示す要素顕著性値に基づいて、処理部が前記画像内の特定部分に注意を引くことができるか否かを評価するためのユーザビリティ情報を生成する。   According to the method of the present invention, usability information for evaluating whether a processing unit can draw attention to a specific portion in the image based on an element saliency value indicating saliency for each unit element of an image. Is generated.

本発明のプログラムは、画像の単位要素毎の顕著性を示す要素顕著性値に基づいて、処理部が前記画像内の特定部分に注意を引くことができるか否かを評価するためのユーザビリティ情報を生成する処理をコンピュータに実行させる。   The program of the present invention provides usability information for evaluating whether or not the processing unit can draw attention to a specific part in the image based on an element saliency value indicating saliency for each unit element of the image. Causes the computer to execute the process of generating

本発明は、画像の視覚的な特徴に対するユーザビリティを評価することが可能になるという効果を有する。   The present invention has an effect that it is possible to evaluate usability with respect to a visual feature of an image.

第1の実施形態の構成を示すブロック図である。It is a block diagram which shows the structure of 1st Embodiment. 第1乃至第6の実施形態の評価対象画像の例を示す図である。It is a figure which shows the example of the evaluation object image of 1st thru | or 6th embodiment. 第1乃至第6の実施形態における顕著マップのデータの一例を示す図である。It is a figure which shows an example of the data of the remarkable map in 1st thru | or 6th embodiment. 第1乃至第6の実施形態における顕著マップを画像として表した顕著マップ画像の例である。It is an example of the saliency map image which represented the saliency map in 1st thru | or 6th embodiment as an image. 第1乃至第5の実施形態の顕著マップの作成の動作を示すフローチャートである。It is a flowchart which shows the operation | movement of creation of the saliency map of 1st thru | or 5th embodiment. 第1の実施形態の処理部の動作を示すフローチャートである。It is a flowchart which shows operation | movement of the process part of 1st Embodiment. 第2の実施形態の構成を示すブロック図である。It is a block diagram which shows the structure of 2nd Embodiment. 第2及び第3の実施形態において取得される諸元情報の一例を示す図である。It is a figure which shows an example of the item information acquired in 2nd and 3rd embodiment. 第2及び第4の実施形態において生成される顕著リストのデータの一例を示す図である。It is a figure which shows an example of the data of the remarkable list | wrist produced | generated in 2nd and 4th embodiment. 第2の実施形態の処理部の動作を示すフローチャートである。It is a flowchart which shows operation | movement of the process part of 2nd Embodiment. 第3の実施形態の構成を示すブロック図である。It is a block diagram which shows the structure of 3rd Embodiment. 第3の実施形態の処理部の動作を示すフローチャートである。It is a flowchart which shows operation | movement of the process part of 3rd Embodiment. 第4の実施形態の構成を示すブロック図である。It is a block diagram which shows the structure of 4th Embodiment. 第4の実施形態において取得される諸元情報の一例を示す図である。It is a figure which shows an example of the item information acquired in 4th Embodiment. 第4の実施形態における意味的類似度リストのデータの一例を示す図である。It is a figure which shows an example of the data of the semantic similarity list in 4th Embodiment. 第4の実施形態におけるユーザ操作対象オブジェクト情報の一例を示す図である。It is a figure which shows an example of the user operation target object information in 4th Embodiment. 第4の実施形態の処理部の動作を示すフローチャートである。It is a flowchart which shows operation | movement of the process part of 4th Embodiment. 第5の実施形態の構成を示すブロック図である。It is a block diagram which shows the structure of 5th Embodiment. 第5の実施形態において生成される諸元情報の一例を示す図である。It is a figure which shows an example of the item information produced | generated in 5th Embodiment. 第5の実施形態におけるコンテンツ領域顕著リストのデータの一例を示す図である。It is a figure which shows an example of the data of the content area remarkable list | wrist in 5th Embodiment. 第5の実施形態における非コンテンツ領域顕著リストのデータの一例を示す図である。It is a figure which shows an example of the data of the non-content area | region remarkable list | wrist in 5th Embodiment. 第5の実施形態の処理部の動作を示すフローチャートである。It is a flowchart which shows operation | movement of the process part of 5th Embodiment. 第6の実施形態の構成を示すブロック図である。It is a block diagram which shows the structure of 6th Embodiment.

[第1の実施形態]
図1は、本発明の第1の実施形態の構成を示すブロック図である。図1に示すように、本実施形態に係るユーザビリティ評価装置100は、入力部110と、処理部120と、出力部130とを含む。
[First Embodiment]
FIG. 1 is a block diagram showing the configuration of the first exemplary embodiment of the present invention. As shown in FIG. 1, the usability evaluation apparatus 100 according to the present embodiment includes an input unit 110, a processing unit 120, and an output unit 130.

入力部110は、たとえば、キーボード及びマウスを含む入力デバイス、あるいはコンピュータを含むデータ入力装置であってもよい。   The input unit 110 may be, for example, an input device including a keyboard and a mouse, or a data input device including a computer.

入力部110は、評価対象画像情報G10、顕著性閾値t及びピクセル(単位要素とも呼ばれる)個数nの入力を受け付け、画像情報G20と、顕著性閾値t及びピクセル個数nの情報を出力する。図2は、評価対象画像G10の例を示す図である。   The input unit 110 receives input of the evaluation target image information G10, the saliency threshold t, and the number of pixels (also referred to as unit elements) n, and outputs the image information G20 and information of the saliency threshold t and the number of pixels n. FIG. 2 is a diagram illustrating an example of the evaluation target image G10.

画像情報G20は、例えば図2に示すような評価対象画像G10を、描画するためのデータである。具体的には、画像情報G20は、例えば、評価対象画像G10をピクセルに分割して各ピクセルの色や濃度を数値として表現したビットマップ画像の描画データである。   The image information G20 is data for drawing an evaluation target image G10 as shown in FIG. 2, for example. Specifically, the image information G20 is, for example, drawing data of a bitmap image in which the evaluation target image G10 is divided into pixels and the color and density of each pixel are expressed as numerical values.

顕著性閾値tは、評価対象画像G10中のピクセルが視覚的に顕著であるか否かを判定する基準を示し、例えば「0.31」などの値である。ピクセル個数nは、評価対象画像G10中のピクセルの内、視覚的な顕著性の値(後述の顕著性値M12に対応、要素顕著性値とも呼ぶ)が顕著性閾値t以上であるピクセル(以後、顕著ピクセルと呼ぶ)の数の上限値を示し、例えば「8000」などの値である。尚、ピクセル個数nは、評価対象画像G10中のピクセルの内、顕著ピクセルの割合の上限値で示すようにしても良い。   The saliency threshold t indicates a criterion for determining whether or not a pixel in the evaluation target image G10 is visually noticeable, and is a value such as “0.31”, for example. The pixel number n is a pixel having a visual saliency value (corresponding to a saliency value M12 described later, also referred to as an element saliency value) among the pixels in the evaluation target image G10 (hereinafter referred to as a saliency threshold t). , Called a salient pixel), for example, a value such as “8000”. The number of pixels n may be indicated by the upper limit value of the ratio of the salient pixels among the pixels in the evaluation target image G10.

処理部120は、顕著マップ作成部121と、ユーザビリティ情報生成部122とを含む。
処理部120は、中央処理装置(CPU)及びメモリ、ハードディスクを含むコンピュータで構成されていても良い。この場合、顕著マップ作成部121とユーザビリティ情報生成部122での各処理は、コンピュータの記憶媒体に記憶されたプログラムに基づいて実行されるものであってもよい。
The processing unit 120 includes a saliency map creation unit 121 and a usability information generation unit 122.
The processing unit 120 may be configured by a computer including a central processing unit (CPU), a memory, and a hard disk. In this case, each process in the saliency map creation unit 121 and the usability information generation unit 122 may be executed based on a program stored in a computer storage medium.

顕著マップ作成部121は、入力部110から出力された画像情報G20を受け付け、この画像情報G20の各ピクセルの要素顕著性値である顕著性値M12を算出し、この顕著性値M12に基づいて図3に示すような顕著マップM10のデータを作成する。顕著マップ作成部121は、顕著マップM10をユーザビリティ情報生成部122に出力する。顕著性値M12は、ピクセルの視覚的な顕著性を示す情報である。ここで、顕著性値は、たとえば、画像の単位要素である各ピクセルの輝度・色・方向の特徴を示す値である。   The saliency map creating unit 121 receives the image information G20 output from the input unit 110, calculates a saliency value M12 that is an element saliency value of each pixel of the image information G20, and based on the saliency value M12. Data of the saliency map M10 as shown in FIG. 3 is created. The saliency map creation unit 121 outputs the saliency map M10 to the usability information generation unit 122. The saliency value M12 is information indicating the visual saliency of the pixel. Here, the saliency value is, for example, a value indicating characteristics of luminance, color, and direction of each pixel that is a unit element of the image.

図3は、顕著マップM10のデータの一例を示す図である。図3に示すように、顕著マップM10は、画像情報G20中の各ピクセルの位置座標(x座標、y座標)M11(図示しない)と視覚的な顕著性値M12とを関連付けたデータである。図3に示す顕著マップM10は、例として、評価対象画像G10が「640×480」ピクセルの場合を示している。例えば、最上端かつ最左端のピクセルの位置座標M11は、x座標が「1」、y座標が「1」であり、顕著性値M12は、「0.01」である。また、最下端かつ最右端のピクセルの位置座標M11は、x座標が「640」、y座標が「480」であり、顕著性値M12は、「0.21」である。   FIG. 3 is a diagram illustrating an example of data of the saliency map M10. As shown in FIG. 3, the saliency map M10 is data in which the position coordinates (x coordinate, y coordinate) M11 (not shown) of each pixel in the image information G20 are associated with the visual saliency value M12. The saliency map M10 shown in FIG. 3 shows a case where the evaluation target image G10 has “640 × 480” pixels as an example. For example, regarding the position coordinates M11 of the uppermost and leftmost pixels, the x coordinate is “1”, the y coordinate is “1”, and the saliency value M12 is “0.01”. Further, the position coordinate M11 of the lowermost and rightmost pixel has an x coordinate of “640”, a y coordinate of “480”, and a saliency value M12 of “0.21”.

尚、人間のボトムアップ性の視覚的注意は、一般的に、画像中の視覚的な顕著性値が高い位置に誘導されると考えられている。   Note that it is generally considered that the human bottom-up visual attention is guided to a position in the image where the visual saliency value is high.

図4は、評価対象画像G10の顕著マップM10を画像として表した顕著マップ画像の例である。   FIG. 4 is an example of a saliency map image representing the saliency map M10 of the evaluation target image G10 as an image.

図5は、顕著マップ作成部121における顕著マップM10の作成の動作を示すフローチャートである。   FIG. 5 is a flowchart showing an operation of creating the saliency map M10 in the saliency map creation unit 121.

顕著マップ作成部121は、入力された画像情報G20に対して画像フィルターをかけて色、輝度及び方向などの各特徴を抽出し、各特徴の特徴マップM13(図示しない)を作成する(ステップS111)。   The saliency map creation unit 121 applies an image filter to the input image information G20 to extract each feature such as color, brightness, and direction, and creates a feature map M13 (not shown) of each feature (step S111). ).

次に、顕著マップ作成部121は、各特徴マップM13を正規化する(ステップS112)。   Next, the saliency map creation unit 121 normalizes each feature map M13 (step S112).

次に、顕著マップ作成部121は、正規化した各特長マップを統合して、顕著マップM10を作成し、ユーザビリティ情報生成部122に出力する(ステップS113)。   Next, the saliency map creation unit 121 creates a saliency map M10 by integrating the normalized feature maps and outputs the saliency map M10 to the usability information generation unit 122 (step S113).

顕著マップ作成部121の例として、非特許文献2に記述されている顕著マップの作成手段が挙げられる。   As an example of the saliency map creation unit 121, a saliency map creation unit described in Non-Patent Document 2 can be cited.

この文献に記述されている顕著性ベース注視モデルの顕著マップM10の作成手順は次の通りである。   The procedure for creating the saliency map M10 of the saliency-based gaze model described in this document is as follows.

まず、顕著性ベース注視モデルは、入力された評価対象画像G10にガウシアンフィルタを適用してガウシアンピラミッドを作成する(以後、このガウシアンピラミッドを構成する複数の画像をスケール画像G30(図示しない)と呼ぶ)。   First, the saliency-based gaze model creates a Gaussian pyramid by applying a Gaussian filter to the input evaluation target image G10 (hereinafter, a plurality of images constituting the Gaussian pyramid are referred to as a scale image G30 (not shown)). ).

次に、顕著性ベース注視モデルは、スケール画像G30各々の特徴(輝度・色・方向)を計算し、各スケール画像G30の特徴(輝度・色・方向)の値を保持する画像G31(図示しない)を作成する。   Next, the saliency-based gaze model calculates the characteristics (luminance / color / direction) of each scale image G30, and holds the values of the characteristics (luminance / color / direction) of each scale image G30 (not shown). ).

次に、顕著性ベース注視モデルは、特徴(輝度・色・方向)毎の画像G31のスケール間の差分を計算し、算出した差分情報を保持する特徴マップM13を作成する。   Next, the saliency-based gaze model calculates a difference between the scales of the image G31 for each feature (brightness, color, direction), and creates a feature map M13 that holds the calculated difference information.

次に、顕著性ベース注視モデルは、特徴毎にマップを統合するために特徴マップM13を正規化し、特徴毎にマップを統合した画像G33(図示しない)を作成する。   Next, the saliency-based gaze model normalizes the feature map M13 in order to integrate the maps for each feature, and creates an image G33 (not shown) in which the maps are integrated for each feature.

最後に、顕著性ベース注視モデルは、画像G33を正規化して1つのマップに統合して顕著マップM10を得る。   Finally, the saliency-based gaze model normalizes the image G33 and integrates it into one map to obtain a saliency map M10.

これは顕著マップM10の作成手段の1例であり、顕著マップM10を作成する方法はこれに限らない。   This is an example of means for creating the saliency map M10, and the method for creating the saliency map M10 is not limited to this.

評価対象画像G10の視覚的顕著性を表すマップが作成できればよいため、顕著マップ作成処理では、図5に示したフローの処理の一部を省略してもよい。具体的には、例えば、特徴マップM13の正規化のステップを省略してもよい。   Since it is sufficient that a map representing the visual saliency of the evaluation target image G10 can be created, a part of the process of the flow shown in FIG. 5 may be omitted in the saliency map creation process. Specifically, for example, the step of normalizing the feature map M13 may be omitted.

ユーザビリティ情報生成部122は、顕著マップM10の各ピクセルの顕著性値M12に基づいて、評価対象画像内の特定部分に注意を引くことができるか否かを評価するためのユーザビリティ情報を生成する。   The usability information generation unit 122 generates usability information for evaluating whether or not attention can be drawn to a specific portion in the evaluation target image based on the saliency value M12 of each pixel of the saliency map M10.

具体的には、ユーザビリティ情報生成部122は、例えば、顕著ピクセルの個数が、ピクセル個数n以上か否かに基づいて、ユーザビリティ情報を生成する。ユーザビリティ情報生成部122は、顕著ピクセルの個数がピクセル個数n以上存在するか否かを判断する。そして、ユーザビリティ情報生成部122は、顕著ピクセルの個数がピクセル個数n以上存在すると判断した場合、「顕著ピクセル過多の問題あり(ユーザに掛かる認知負荷が大きいこと)」を示すユーザビリティ情報を生成する。また、ユーザビリティ情報生成部122は、顕著ピクセルの個数がピクセル個数n未満であると判断した場合、「顕著ピクセル過多の問題なし」を示すユーザビリティ情報を生成し、出力部130に出力する。   Specifically, the usability information generation unit 122 generates usability information based on, for example, whether or not the number of salient pixels is greater than or equal to the number of pixels n. The usability information generation unit 122 determines whether the number of salient pixels is greater than or equal to the pixel number n. When the usability information generation unit 122 determines that the number of remarkable pixels is greater than or equal to the pixel number n, the usability information generation unit 122 generates usability information indicating that there is a problem of excessive pixel excess (a large recognition load on the user). Further, when the usability information generation unit 122 determines that the number of salient pixels is less than the pixel number n, the usability information generation unit 122 generates usability information indicating “no problem of excessive salient pixels” and outputs the usability information to the output unit 130.

また、ユーザビリティ情報生成部122は、例えば、複数の顕著性閾値t毎に各顕著性閾値t以上の顕著性値M12を有するピクセルの個数が、ピクセル個数n以上か否かに基づいて、より詳細なユーザビリティ情報を生成してもよい。具体的には、ユーザビリティ情報生成部122は、ユーザビリティの問題大、問題中、問題小及び問題なしをそれぞれ判定するための4つの顕著性閾値tに基づいて、各顕著性閾値tと顕著性値M12とを比較する。次に、ユーザビリティ情報生成部122は、各顕著性閾値t以上の顕著性値M12を有するピクセルの個数が、それぞれピクセル個数n(nは、顕著性閾値ごとに異なるものとする)以上か否かに基づいて、ユーザビリティの問題大、問題中、問題小及び問題なしを示すユーザビリティ情報を生成し、出力部130に出力する。   In addition, the usability information generation unit 122, for example, based on whether or not the number of pixels having the saliency value M12 equal to or greater than each saliency threshold t for each of the plurality of saliency thresholds t is greater than or equal to the pixel number n. New usability information may be generated. Specifically, the usability information generation unit 122 determines the saliency threshold t and the saliency value based on the four saliency thresholds t for determining whether the problem of usability is large, during problem, small problem, and no problem, respectively. Compare with M12. Next, the usability information generation unit 122 determines whether the number of pixels having the saliency value M12 equal to or greater than each saliency threshold t is equal to or greater than the number of pixels n (n is different for each saliency threshold). Based on, usability information indicating large usability problems, medium problems, small problems, and no problems is generated and output to the output unit 130.

また、ユーザビリティ情報生成部122は、例えば、顕著ピクセルの個数とピクセル個数nの比率に基づいて、ユーザビリティ情報を生成してもよい。具体的には、ユーザビリティ情報生成部122は、顕著ピクセルの個数の、ピクセル個数nに対する比率を100分率で表した数値をユーザビリティ情報として生成する。   In addition, the usability information generation unit 122 may generate usability information based on, for example, the ratio between the number of salient pixels and the number of pixels n. Specifically, the usability information generation unit 122 generates, as usability information, a numerical value representing the ratio of the number of saliency pixels to the number of pixels n in 100 minutes.

尚、顕著性閾値tとピクセル個数nのデータは、入力部110から供給されるのではなく、ユーザビリティ情報生成部122に予め設定されていてもよい。   Note that the saliency threshold value t and the pixel number n data are not supplied from the input unit 110 but may be set in the usability information generation unit 122 in advance.

出力部130は、処理部120の処理結果を表示する表示装置を含む。処理結果は、例えば、上述のユーザビリティ情報のほかに、入力部110で入力した評価対象画像G10上にその画像情報G20から求めた顕著マップM10の顕著性値M12を重ね合わせた図(重ね画像)を含む。この場合、ユーザビリティ情報生成部122は、ユーザビリティ情報と、評価対象画像G10の画像情報G20の上に顕著マップM10を重ね合わせた画像の情報(この情報も、ユーザビリティ情報とも呼ばれる)とを、出力部130に送信することが望ましい。   The output unit 130 includes a display device that displays the processing result of the processing unit 120. The processing result is, for example, a figure (superimposed image) in which the saliency value M12 of the saliency map M10 obtained from the image information G20 is superimposed on the evaluation target image G10 input by the input unit 110 in addition to the above usability information. including. In this case, the usability information generation unit 122 outputs usability information and information of an image obtained by superimposing the saliency map M10 on the image information G20 of the evaluation target image G10 (this information is also called usability information). It is desirable to transmit to 130.

また、出力部130は、処理結果として画像情報G20と顕著マップM10の顕著性値M12とを処理部120から入力し、それらを重ね合わせた画像を生成し表示してもよい。   Further, the output unit 130 may input the image information G20 and the saliency value M12 of the saliency map M10 as the processing result from the processing unit 120, and generate and display an image obtained by superimposing them.

次に、図1〜3を参照して本実施形態の動作について詳細に説明する。   Next, the operation of this embodiment will be described in detail with reference to FIGS.

図6は、本実施形態の処理部120の動作の一例を示すフローチャートである。   FIG. 6 is a flowchart illustrating an example of the operation of the processing unit 120 of the present embodiment.

図6に示す動作に先立って、入力部110は、画像情報G20の入力を受け付け、処理部120の顕著マップ作成部121に送信する。また、入力部110は、顕著性閾値t及びピクセル個数nの値の入力を受け付け、処理部120のユーザビリティ情報生成部122に送信する。   Prior to the operation shown in FIG. 6, the input unit 110 receives an input of the image information G20 and transmits it to the saliency map creation unit 121 of the processing unit 120. In addition, the input unit 110 receives input of values of the saliency threshold t and the number of pixels n, and transmits them to the usability information generation unit 122 of the processing unit 120.

処理部120の顕著マップ作成部121は、画像情報G20を受信したことを契機に動作を開始する。   The saliency map creation unit 121 of the processing unit 120 starts to operate when the image information G20 is received.

最初に、処理部120の顕著マップ作成部121は、画像情報G20の各ピクセルの顕著性値M12を算出し、算出した顕著性値M12に基づいて顕著マップM10を作成する。続けて、顕著マップ作成部121は、作成した顕著マップM10をユーザビリティ情報生成部122に送信する(ステップS101)。   First, the saliency map creation unit 121 of the processing unit 120 calculates the saliency value M12 of each pixel of the image information G20, and creates the saliency map M10 based on the calculated saliency value M12. Subsequently, the saliency map creation unit 121 transmits the created saliency map M10 to the usability information generation unit 122 (step S101).

ユーザビリティ情報生成部122は、顕著マップM10を受信し、この顕著マップM10について、顕著ピクセルの個数が、ピクセル個数n以上か否かを決定する(ステップS102)。   The usability information generation unit 122 receives the saliency map M10, and determines whether the number of saliency pixels is greater than or equal to the pixel number n for the saliency map M10 (step S102).

顕著ピクセルの個数がピクセル個数n以上である場合(ステップS102でYES)、ユーザビリティ情報生成部122は、顕著ピクセル過多の問題ありを示すユーザビリティ情報を生成する(ステップS103)。   If the number of salient pixels is greater than or equal to the number of pixels n (YES in step S102), the usability information generation unit 122 generates usability information indicating that there is a problem of excessive pixel count (step S103).

顕著ピクセルの個数がピクセル個数n未満である場合(ステップS102でNO)、ユーザビリティ情報生成部122は、顕著ピクセル過多の問題なしを示すユーザビリティ情報を生成する(ステップS104)。   When the number of remarkable pixels is less than the number of pixels n (NO in step S102), the usability information generation unit 122 generates usability information indicating that there is no problem of excessive pixels (step S104).

次に、ユーザビリティ情報生成部122は、ステップS103またはステップS104のいずれかで生成されたユーザビリティ情報と評価対象画像G10の上に顕著マップM10を描いた図(この情報も、ユーザビリティ情報とも呼ばれる)とを、出力部130に送信する(ステップS105)。   Next, the usability information generation unit 122 is a diagram in which the saliency map M10 is drawn on the usability information generated in either step S103 or step S104 and the evaluation target image G10 (this information is also called usability information). Is transmitted to the output unit 130 (step S105).

以上で処理部120の動作は終了し、これら一連の動作に続いて、出力部130は、受信したユーザビリティ情報と評価対象画像G10の上に顕著マップM10を重ねて描いた図とを、表示する。   With the above, the operation of the processing unit 120 ends, and following these series of operations, the output unit 130 displays the received usability information and a diagram in which the saliency map M10 is drawn on the evaluation target image G10. .

上述の表示を確認することで、ユーザビリティ評価装置100の使用者は、ユーザの視覚的注意を誘導しやすい位置が多数存在して、ユーザに必要以上の認知負荷をかけてしまう設計になっていないか否かのユーザビリティを評価する。   By confirming the above-described display, the user of the usability evaluation apparatus 100 is not designed so that there are many positions where the user's visual attention is likely to be induced and the user is subjected to an unnecessary cognitive load. Evaluate usability of whether or not.

上述した本実施形態における効果は、画像の視覚的な特徴に対するユーザビリティを評価することが可能になる点である。即ち、本実施形態によれば、画面上のコンテンツのレイアウトや操作対象オブジェクトのデザインなど、画面上に表示された画像の、視覚的な特徴に対するユーザビリティを評価することが可能になる。   The effect in the present embodiment described above is that it is possible to evaluate the usability with respect to the visual characteristics of the image. That is, according to this embodiment, it is possible to evaluate the usability of the image displayed on the screen, such as the layout of the content on the screen and the design of the operation target object, with respect to the visual features.

その理由は、評価対象画像G10の顕著性値M12を算出し、算出した顕著性値M12に基づいて、顕著ピクセルの個数が予め定められたピクセル個数以上であるか否かを判断してユーザビリティ情報を生成するようにしたからである。
[第2の実施形態]
次に、本発明の第2の実施形態について図面を参照して詳細に説明する。
The reason is that the saliency value M12 of the evaluation target image G10 is calculated, and based on the calculated saliency value M12, it is determined whether or not the number of saliency pixels is greater than or equal to a predetermined number of pixels. It is because it was made to produce | generate.
[Second Embodiment]
Next, a second embodiment of the present invention will be described in detail with reference to the drawings.

図7は、本実施形態の構成を示すブロック図である。図7に示すように、本実施形態に係るユーザビリティ評価装置200は、入力部210と、処理部220と、出力部230とを含む。   FIG. 7 is a block diagram showing the configuration of the present embodiment. As shown in FIG. 7, the usability evaluation apparatus 200 according to the present embodiment includes an input unit 210, a processing unit 220, and an output unit 230.

入力部210は、第1の実施形態で説明した入力部110と同等である。   The input unit 210 is equivalent to the input unit 110 described in the first embodiment.

処理部220は、顕著マップ作成部121と、画面上の操作対象オブジェクトを検出する操作対象オブジェクト検出部223と、操作対象オブジェクト顕著性算出部224と、ユーザビリティ情報生成部222とを備える。操作対象オブジェクト検出部223と、操作対象オブジェクト顕著性算出部224と、ユーザビリティ情報生成部222とは、中央処理装置(CPU)及びメモリ、ハードディスクを含むコンピュータで構成されていても良い。この場合、各処理は、コンピュータの記憶媒体に記憶されたプログラムに基づいて実行されるものであってもよい。   The processing unit 220 includes a saliency map creation unit 121, an operation target object detection unit 223 that detects an operation target object on the screen, an operation target object saliency calculation unit 224, and a usability information generation unit 222. The operation target object detection unit 223, the operation target object saliency calculation unit 224, and the usability information generation unit 222 may be configured by a computer including a central processing unit (CPU), a memory, and a hard disk. In this case, each process may be executed based on a program stored in a computer storage medium.

顕著マップ作成部121は、第1の実施形態で説明したものと同等である。   The saliency map creation unit 121 is the same as that described in the first embodiment.

操作対象オブジェクト検出部223は、入力部210から受信した画像情報G20の情報(第1の実施形態で説明したビットマップ画像の描画データやHTML(HyperText Markup Language)で記述された画面表示のデータなど)を参照して画面上の1つ或いは複数の操作対象オブジェクトを検出する。そして、操作対象オブジェクト検出部223は、検出した操作対象オブジェクトの図8に示すような諸元情報P10として、各操作対象オブジェクトの少なくとも位置座標M11を取得し、更に、操作対象オブジェクトの幅及び高さの情報を取得(発生)し、取得した諸元情報P10を操作対象オブジェクト顕著性算出部224に送信する。図8は、諸元情報P10の一例を示す図である。図8に示すように、諸元情報P10は、操作対象オブジェクト識別子M21と位置座標M11と幅と高さとを含む。   The operation target object detection unit 223 includes information of the image information G20 received from the input unit 210 (bitmap image drawing data described in the first embodiment, screen display data described in HTML (HyperText Markup Language), etc.) ) To detect one or a plurality of operation target objects on the screen. Then, the operation target object detection unit 223 acquires at least the position coordinates M11 of each operation target object as the specification information P10 of the detected operation target object as shown in FIG. 8, and further, the width and height of the operation target object. This information is acquired (generated), and the acquired item information P10 is transmitted to the operation target object saliency calculating unit 224. FIG. 8 is a diagram illustrating an example of the specification information P10. As shown in FIG. 8, the specification information P10 includes an operation target object identifier M21, a position coordinate M11, a width, and a height.

操作対象オブジェクト検出部223は、ユーザビリティ評価者による入力に基づいて操作対象オブジェクトを検出し、諸元情報P10を取得するようにしてもよい。また、操作対象オブジェクト検出部223は、画像情報G20から自動的に操作対象オブジェクトを検出し、諸元情報P10を取得するようにしてもよい。   The operation target object detection unit 223 may detect the operation target object based on the input by the usability evaluator and acquire the specification information P10. Further, the operation target object detection unit 223 may automatically detect the operation target object from the image information G20 and acquire the specification information P10.

操作対象オブジェクトを手動で入力する手段の場合、例えば、入力部210と出力部230とは、そのためのインターフェースを有してもよい。具体的には、出力部230が評価対象画像G10を表示し、入力部210が、マウスで範囲指定された、評価対象画像G10上のボタン領域の情報を受け付ける。次に、操作対象オブジェクト検出部223は、入力部210が受け付けたボタン領域の情報に基づいて、操作対象オブジェクトの位置座標M11、幅、高さを含む諸元情報P10を取得する。   In the case of means for manually inputting an operation target object, for example, the input unit 210 and the output unit 230 may have an interface therefor. Specifically, the output unit 230 displays the evaluation target image G10, and the input unit 210 receives information on the button area on the evaluation target image G10 that is designated by the mouse. Next, the operation target object detection unit 223 acquires the specification information P10 including the position coordinates M11, the width, and the height of the operation target object based on the button area information received by the input unit 210.

操作対象オブジェクトを自動で検出する手段の場合、操作対象オブジェクト検出部223は、例えば、HTMLで記述された画面表示のデータを参照して操作対象オブジェクトを検出する。具体的には、操作対象オブジェクト検出部223は、例えば、HTMLで記述された画面表示のデータ内からリンクの記述部分である開始タグ<a href=“ “>と終了タグ</a>の記述(文字列)を検出する。そして、操作対象オブジェクト検出部223は、検出された開始タグと終了タグの間に記述されている文字列W10(図示しない)を抽出し、これを操作対象オブジェクトとして検出する。次に、操作対象オブジェクト検出部223は、検出した操作対象オブジェクトである文字列W10の位置座標M11、幅、高さを含む諸元情報P10を取得し、出力する。   In the case of means for automatically detecting an operation target object, the operation target object detection unit 223 detects the operation target object with reference to, for example, screen display data described in HTML. Specifically, the operation target object detection unit 223, for example, describes a start tag <a href=“ “> and an end tag </a> that is a description portion of a link from within screen display data described in HTML. (Character string) is detected. Then, the operation target object detection unit 223 extracts a character string W10 (not shown) described between the detected start tag and end tag, and detects this as an operation target object. Next, the operation target object detection unit 223 acquires and outputs specification information P10 including the position coordinates M11, width, and height of the character string W10 that is the detected operation target object.

これらは操作対象オブジェクト検出部223の動作の1例であり、諸元情報P10を取得する方法はこれに限らない。   These are examples of the operation of the operation target object detection unit 223, and the method for acquiring the specification information P10 is not limited to this.

操作対象オブジェクト顕著性算出部224は、図9に示すような顕著リストM20を生成する。   The operation target object saliency calculating unit 224 generates a saliency list M20 as shown in FIG.

図9は、顕著リストM20のデータの一例を示す図である。図9に示すように顕著リストM20は、操作対象オブジェクト識別子M21と顕著性値M22とを対応付けた組を1つ以上含む。操作対象オブジェクト顕著性算出部224は、顕著マップ作成部121からの顕著マップM10と操作対象オブジェクト検出部223からの諸元情報P10とに基づいて、各操作対象オブジェクトの顕著性値M22を算出し、顕著リストM20を生成する。例えば、操作対象オブジェクト顕著性算出部224は、諸元情報P10に対応する操作対象オブジェクト領域の各ピクセルにおける顕著性値M12の最大値を検出し、その最大値を操作対象オブジェクトの顕著性値M22とする。   FIG. 9 is a diagram illustrating an example of data of the saliency list M20. As shown in FIG. 9, the saliency list M20 includes one or more sets in which the operation target object identifier M21 and the saliency value M22 are associated with each other. The operation target object saliency calculation unit 224 calculates a saliency value M22 of each operation target object based on the saliency map M10 from the saliency map creation unit 121 and the specification information P10 from the operation target object detection unit 223. The saliency list M20 is generated. For example, the operation target object saliency calculating unit 224 detects the maximum value of the saliency value M12 in each pixel of the operation target object region corresponding to the specification information P10, and uses the maximum value as the saliency value M22 of the operation target object. And

ユーザビリティ情報生成部222は、操作対象オブジェクト顕著性算出部224からの、各操作対象オブジェクトの顕著性値M22に基づいて、ユーザビリティ情報を生成する。   The usability information generation unit 222 generates usability information based on the saliency value M22 of each operation target object from the operation target object saliency calculation unit 224.

まず、ユーザビリティ情報生成部222は、例えば、操作対象オブジェクトの顕著性値M22と、操作対象オブジェクト以外の領域の顕著性値M12の内の最大の顕著性値M12とを比較する。操作対象オブジェクトの顕著性値M22が操作対象オブジェクト以外の領域の内の最大の顕著性値M12以下の場合、ユーザビリティ情報生成部222は、「操作対象オブジェクト以外領域に対する操作対象オブジェクトの顕著性に問題あり」を示すユーザビリティ情報を生成する。また、操作対象オブジェクトの顕著性値M22が操作対象オブジェクト以外の領域の顕著性値M12の内の最大の顕著性値M12を超える場合、ユーザビリティ情報生成部222は、「操作対象オブジェクト以外領域に対する操作対象オブジェクトの顕著性に問題なし」を示すユーザビリティ情報を生成する。   First, the usability information generation unit 222 compares, for example, the saliency value M22 of the operation target object with the maximum saliency value M12 of the saliency values M12 of the region other than the operation target object. When the saliency value M22 of the operation target object is equal to or less than the maximum saliency value M12 in the region other than the operation target object, the usability information generation unit 222 indicates that “the problem is not the saliency of the operation target object with respect to the region other than the operation target object Usability information indicating “Yes” is generated. When the saliency value M22 of the operation target object exceeds the maximum saliency value M12 among the saliency values M12 of the region other than the operation target object, the usability information generation unit 222 determines that “the operation on the region other than the operation target object Usability information indicating that there is no problem with the saliency of the target object is generated.

尚、ユーザビリティ情報生成部222は、操作対象オブジェクト以外の領域の顕著性値M12の内の最大の顕著性値M12に替えて、この最大の顕著性値M12に予め定められた値を加算した数値と操作対象オブジェクトの顕著性値M22とを比較するようにしてもよい。   The usability information generation unit 222 replaces the maximum saliency value M12 in the saliency value M12 of the region other than the operation target object, and adds a predetermined value to the maximum saliency value M12. And the saliency value M22 of the operation target object may be compared.

更に、ユーザビリティ情報生成部222は、顕著性値M22を相互に比較する。いずれかの顕著性値M22間の差が予め定められた差分閾値d以上の場合、ユーザビリティ情報生成部222は操作対象オブジェクト間の顕著性差分に問題ありを示すユーザビリティ情報を生成する。顕著性値M22間の差が予め定められた差分閾値d未満の場合、ユーザビリティ情報生成部222は操作対象オブジェクト間の顕著性差分に問題なしを示すユーザビリティ情報を生成する。   Further, the usability information generation unit 222 compares the saliency value M22 with each other. When the difference between any of the saliency values M22 is equal to or greater than a predetermined difference threshold d, the usability information generation unit 222 generates usability information indicating that there is a problem with the saliency difference between the operation target objects. When the difference between the saliency values M22 is less than the predetermined difference threshold d, the usability information generation unit 222 generates usability information indicating that there is no problem in the saliency difference between the operation target objects.

尚、ユーザビリティ情報生成部222は、更に、第1の実施形態のユーザビリティ情報生成部122と同様に顕著ピクセルの個数がピクセル個数に基づく、ユーザビリティ情報を生成してもよい。   Note that the usability information generation unit 222 may further generate usability information in which the number of significant pixels is based on the number of pixels, similar to the usability information generation unit 122 of the first embodiment.

出力部230は、処理部220の処理結果を表示する。処理結果は、上述のユーザビリティ情報、各操作対象オブジェクトの顕著性値M22及び評価対象画像G10上にその評価対象画像G10の顕著性値M12を重ね合わせた図(この情報も、ユーザビリティ情報とも呼ばれる)である。   The output unit 230 displays the processing result of the processing unit 220. The processing result is a diagram in which the above usability information, the saliency value M22 of each operation target object, and the saliency value M12 of the evaluation target image G10 are superimposed on the evaluation target image G10 (this information is also referred to as usability information). It is.

次に、図7〜図10を参照して本実施形態の動作について詳細に説明する。尚、以下に示す本実施形態の動作の説明において、第1の実施形態で説明した動作は、本実施形態の動作の説明が不明確にならない範囲内で、省略する。   Next, the operation of the present embodiment will be described in detail with reference to FIGS. In the following description of the operation of the present embodiment, the operation described in the first embodiment is omitted within a range that does not obscure the description of the operation of the present embodiment.

図10は、本実施形態の処理部220の動作を示すフローチャートである。   FIG. 10 is a flowchart showing the operation of the processing unit 220 of this embodiment.

図10に示す動作に先立って、入力部210は、画像情報G20の入力を受け付け、これを顕著マップ作成部121及び操作対象オブジェクト検出部223に送信する。   Prior to the operation shown in FIG. 10, the input unit 210 receives input of the image information G20 and transmits it to the saliency map creation unit 121 and the operation target object detection unit 223.

まず、顕著マップ作成部121は、第1の実施形態と同様に、顕著マップM10を作成する。続けて、顕著マップ作成部121は、作成した顕著マップM10をユーザビリティ情報生成部222及び操作対象オブジェクト顕著性算出部224に送信する(ステップS201)。   First, the saliency map creating unit 121 creates the saliency map M10 as in the first embodiment. Subsequently, the saliency map creation unit 121 transmits the created saliency map M10 to the usability information generation unit 222 and the operation target object saliency calculation unit 224 (step S201).

次に、操作対象オブジェクト検出部223は、受信した画像情報G20内の操作対象オブジェクトを検出し、検出した各操作対象オブジェクトの諸元情報P10を操作対象オブジェクト顕著性算出部224に送信する(ステップS202)。   Next, the operation target object detection unit 223 detects the operation target object in the received image information G20, and transmits the detected specification information P10 of each operation target object to the operation target object saliency calculation unit 224 (step S22). S202).

次に、操作対象オブジェクト顕著性算出部224は、顕著マップM10と、操作対象オブジェクトの諸元情報P10とを受信し、これらに基づいて各操作対象オブジェクトの視覚的な顕著性値M22を算出し、顕著リストM20を生成する。そして、操作対象オブジェクト顕著性算出部224は、生成した顕著リストM20をユーザビリティ情報生成部222に送信する(ステップS203)。   Next, the operation target object saliency calculating unit 224 receives the saliency map M10 and the specification information P10 of the operation target object, and based on these, calculates the visual saliency value M22 of each operation target object. The saliency list M20 is generated. Then, the operation target object saliency calculating unit 224 transmits the generated saliency list M20 to the usability information generating unit 222 (step S203).

次に、ユーザビリティ情報生成部222は、顕著マップM10、及び顕著リストM20を受信する。続けて、ユーザビリティ情報生成部222は、操作対象オブジェクトの顕著性値M22と、操作対象オブジェクト以外の領域の顕著性値M12の内の最大の顕著性値M12とを比較する(ステップS204)。   Next, the usability information generation unit 222 receives the saliency map M10 and the saliency list M20. Subsequently, the usability information generation unit 222 compares the saliency value M22 of the operation target object with the maximum saliency value M12 of the saliency values M12 of the area other than the operation target object (step S204).

そして、操作対象オブジェクトの顕著性値M22が、操作対象オブジェクト以外の領域の顕著性値M12の内の、最大の顕著性値M12以下の場合(ステップS204でYES)、ユーザビリティ情報生成部222は、操作対象オブジェクト以外領域に対する操作対象オブジェクトの顕著性に問題ありを示すユーザビリティ情報を生成し、これを出力部230に送信する(ステップS205)。   When the saliency value M22 of the operation target object is equal to or smaller than the maximum saliency value M12 among the saliency values M12 of the region other than the operation target object (YES in step S204), the usability information generation unit 222 Usability information indicating that there is a problem in the saliency of the operation target object with respect to the region other than the operation target object is generated and transmitted to the output unit 230 (step S205).

また、操作対象オブジェクトの顕著性値M22が、操作対象オブジェクト以外の領域の顕著性値M12の内の、最大の顕著性値M12を超えている場合(ステップS204でNO)、ユーザビリティ情報生成部222は、操作対象オブジェクト以外領域に対する操作対象オブジェクトの顕著性に問題なしを示すユーザビリティ情報を生成し、これを出力部230に送信する(ステップS206)。   When the saliency value M22 of the operation target object exceeds the maximum saliency value M12 among the saliency values M12 of the region other than the operation target object (NO in step S204), the usability information generation unit 222 Generates usability information indicating that there is no problem in the saliency of the operation target object with respect to the region other than the operation target object, and transmits this to the output unit 230 (step S206).

次に、ユーザビリティ情報生成部222は、図9に示す顕著性値M22を相互に比較する(ステップS207)。   Next, the usability information generation unit 222 compares the saliency values M22 shown in FIG. 9 with each other (step S207).

そして、顕著性値M22間の差が予め定められた差分閾値d以上の場合(ステップS206でYES)、ユーザビリティ情報生成部222は、操作対象オブジェクト間の顕著性差分に問題ありを示すユーザビリティ情報を生成し、これを出力部230に送信する(ステップS208)。   When the difference between the saliency values M22 is equal to or greater than a predetermined difference threshold d (YES in step S206), the usability information generation unit 222 displays usability information indicating that there is a problem with the saliency difference between the operation target objects. It is generated and transmitted to the output unit 230 (step S208).

また、顕著性値M22間の差が予め定められた差分閾値d未満の場合(ステップS206でNO)、ユーザビリティ情報生成部222は、操作対象オブジェクト間の顕著性差分に問題なしを示すユーザビリティ情報を生成し、これを出力部230に送信する(ステップS209)。   When the difference between the saliency values M22 is less than the predetermined difference threshold d (NO in step S206), the usability information generation unit 222 displays usability information indicating that there is no problem in the saliency difference between the operation target objects. It is generated and transmitted to the output unit 230 (step S209).

次に、ユーザビリティ情報生成部222は、顕著リストM20と評価対象画像G10の上に対応する顕著マップM10を描いた図(この情報も、ユーザビリティ情報とも呼ばれる)とを生成し、出力部230に送信する(ステップS209)。   Next, the usability information generation unit 222 generates a figure (this information is also referred to as usability information) depicting the saliency list M20 and the corresponding saliency map M10 on the evaluation target image G10, and transmits it to the output unit 230 (Step S209).

以上で処理部220の動作は終了し、これら一連の動作に続いて出力部230は、上述のユーザビリティ情報と、顕著リストM20と、その評価対象画像G10の上に対応する顕著マップM10とを描いた図を表示する。   With the above, the operation of the processing unit 220 ends, and following these series of operations, the output unit 230 draws the above usability information, the saliency list M20, and the saliency map M10 corresponding to the evaluation target image G10. Display the figure.

上述の表示を確認することで、ユーザビリティ評価装置200の使用者は、操作対象オブジェクトにユーザの注意が向けられるようになっているか否かを評価する。   By confirming the above display, the user of the usability evaluation apparatus 200 evaluates whether or not the user's attention is directed to the operation target object.

上述した本実施形態における効果は、第1の実施形態の効果に加え、操作対象オブジェクトにユーザの視覚的注意が誘導されるようになっているか否かを評価することが可能になる点である。   The effect of the present embodiment described above is that it is possible to evaluate whether or not the user's visual attention is guided to the operation target object in addition to the effect of the first embodiment. .

その理由は、画面全域の顕著性値M12と画面上の各操作対象オブジェクトの顕著性値M22とを比較し、更に操作対象オブジェクトの相互間の顕著性値M22を比較してユーザビリティ情報を生成するようにしたからである。
[第3の実施形態]
次に、本発明の第3の実施形態について図面を参照して詳細に説明する。
図11は、本発明の第3の実施形態の構成を示すブロック図である。図11に示すように、本実施形態に係るユーザビリティ評価装置300は、入力部310と、処理部320と、出力部330とを含む。
入力部310は、第1の実施形態で説明した入力部110と同等である。
The reason is that the usability information is generated by comparing the saliency value M12 of the entire screen with the saliency value M22 of each operation target object on the screen, and further comparing the saliency value M22 between the operation target objects. It was because it did so.
[Third Embodiment]
Next, a third embodiment of the present invention will be described in detail with reference to the drawings.
FIG. 11 is a block diagram showing the configuration of the third exemplary embodiment of the present invention. As shown in FIG. 11, the usability evaluation apparatus 300 according to the present embodiment includes an input unit 310, a processing unit 320, and an output unit 330.
The input unit 310 is equivalent to the input unit 110 described in the first embodiment.

処理部320は、顕著マップ作成部121と注視位置予測部325と操作対象オブジェクト検出部223とユーザビリティ情報生成部322とを備える。顕著マップ作成部121と操作対象オブジェクト検出部223とは、第1及び第2の実施形態で説明したものと同等である。   The processing unit 320 includes a saliency map creation unit 121, a gaze position prediction unit 325, an operation target object detection unit 223, and a usability information generation unit 322. The saliency map creation unit 121 and the operation target object detection unit 223 are equivalent to those described in the first and second embodiments.

注視位置予測部325は、顕著マップM10を参照し、ユーザの注視が誘導される位置座標M11を予測し、その予測結果を送信する。一般的に、ユーザの注視は、顕著性値M12の最も高い場所に誘導される。そこでまず、注視位置予測部325は、例えば、顕著マップM10の顕著性値M12の内の最も高い顕著性値M12を注視顕著性値M32(図示しない)とする。続けて、注視位置予測部325は、この注視顕著性値M32を有するピクセルの位置座標M11を注視位置座標C30(図示しない)として検出する。そして、注視位置予測部325は、この注視位置座標C30を予測結果として送信する。この注視位置座標C30が、ユーザの注視が誘導される位置であるとする。   The gaze position prediction unit 325 refers to the saliency map M10, predicts the position coordinates M11 at which the user's gaze is guided, and transmits the prediction result. In general, the user's gaze is guided to a place having the highest saliency value M12. Therefore, first, the gaze position prediction unit 325 sets, for example, the highest saliency value M12 among the saliency values M12 of the saliency map M10 as the gaze saliency value M32 (not shown). Subsequently, the gaze position prediction unit 325 detects the position coordinate M11 of the pixel having the gaze saliency value M32 as the gaze position coordinate C30 (not shown). Then, the gaze position prediction unit 325 transmits the gaze position coordinates C30 as a prediction result. It is assumed that the gaze position coordinate C30 is a position where the user's gaze is guided.

また、例えば、注視位置予測部325は、以下のようにして注視位置座標C30を検出してもよい。まず、注視位置予測部325は、各ピクセルの顕著性値M12から、そのピクセルに隣接するピクセルそれぞれの顕著性値M12を差し引いた差分の平均値M35(図示しない)を算出する。次に、注視位置予測部325は、平均値M35の内の最も高い平均値M35を有するピクセルの位置座標M11を注視位置座標C30として検出する。   For example, the gaze position prediction unit 325 may detect the gaze position coordinates C30 as follows. First, the gaze position prediction unit 325 calculates an average value M35 (not shown) of a difference obtained by subtracting the saliency value M12 of each pixel adjacent to the pixel from the saliency value M12 of each pixel. Next, the gaze position prediction unit 325 detects the position coordinate M11 of the pixel having the highest average value M35 among the average values M35 as the gaze position coordinate C30.

ユーザビリティ情報生成部322は、ユーザの注視位置座標C30と操作対象オブジェクト検出部223から受信した諸元情報P10に基づいてユーザビリティ情報を抽出する。   The usability information generation unit 322 extracts usability information based on the user's gaze position coordinates C30 and the specification information P10 received from the operation target object detection unit 223.

具体的には、ユーザビリティ情報生成部322は、諸元情報P10に基づいて、注視位置座標C30が操作対象オブジェクトの領域内であるか否かを判定する。注視位置座標C30が操作対象オブジェクトの領域内ならば、ユーザビリティ情報生成部322は、操作対象オブジェクト対注視位置関係に問題なしを示すユーザビリティ情報を生成する。即ち、問題なしを示すユーザビリティ情報は、ユーザの注視位置が操作対象オブジェクトに誘導される設計になっていることを示している。また、注視位置座標C30が操作対象オブジェクトの領域外ならば、ユーザビリティ情報生成部322は、操作対象オブジェクト対注視位置関係に問題ありを示すユーザビリティ情報を生成する。
尚、ユーザビリティ情報生成部322は、注視位置座標C30が予め定められた領域内か否かを、判定してもよい。
また、ユーザビリティ情報生成部322は、更に、第1の実施形態のユーザビリティ情報生成部122及び第2の実施形態のユーザビリティ情報生成部222と同様のユーザビリティ情報を生成してもよい。
Specifically, the usability information generation unit 322 determines whether the gaze position coordinate C30 is within the region of the operation target object based on the specification information P10. If the gaze position coordinate C30 is within the region of the operation target object, the usability information generation unit 322 generates usability information indicating that there is no problem in the operation target object versus the gaze position relationship. That is, usability information indicating no problem indicates that the user's gaze position is designed to be guided to the operation target object. Further, if the gaze position coordinate C30 is outside the region of the operation target object, the usability information generation unit 322 generates usability information indicating that there is a problem in the operation target object versus the gaze position relationship.
Note that the usability information generation unit 322 may determine whether or not the gaze position coordinate C30 is within a predetermined region.
Further, the usability information generation unit 322 may further generate usability information similar to the usability information generation unit 122 of the first embodiment and the usability information generation unit 222 of the second embodiment.

次に図12を参照して本実施形態の動作について詳細に説明する。尚、以下に示す本実施形態の動作の説明において、第1及び第2の実施形態で説明した動作は、本実施形態の動作の説明が不明確にならない範囲内で、省略する。図12は、本実施形態の処理部320の動作を示すフローチャートである。   Next, the operation of this embodiment will be described in detail with reference to FIG. In the following description of the operation of the present embodiment, the operations described in the first and second embodiments are omitted within a range where the description of the operation of the present embodiment is not ambiguous. FIG. 12 is a flowchart showing the operation of the processing unit 320 of the present embodiment.

図12に示す動作に先立って、入力部310は、画像情報G20を入力し、これを顕著マップ作成部121及び操作対象オブジェクト検出部223に送信する。   Prior to the operation shown in FIG. 12, the input unit 310 inputs the image information G20 and transmits it to the saliency map creation unit 121 and the operation target object detection unit 223.

まず、顕著マップ作成部121は、第1の実施形態と同様に、顕著マップM10を作成する。続けて、顕著マップ作成部121は、作成した顕著マップM10を注視位置予測部325に送信する(ステップS301)。   First, the saliency map creating unit 121 creates the saliency map M10 as in the first embodiment. Subsequently, the saliency map creation unit 121 transmits the created saliency map M10 to the gaze position prediction unit 325 (step S301).

次に、注視位置予測部325は、受信した顕著マップM10内の、最大の顕著性値M12を保持する注視位置座標C30(図示しない)を検出する。続けて、注視位置予測部325は、注視位置座標C30と顕著マップM10とをユーザビリティ情報生成部322に送信する(ステップS302)。   Next, the gaze position prediction unit 325 detects a gaze position coordinate C30 (not shown) that holds the maximum saliency value M12 in the received saliency map M10. Subsequently, the gaze position prediction unit 325 transmits the gaze position coordinates C30 and the saliency map M10 to the usability information generation unit 322 (step S302).

次に、操作対象オブジェクト検出部223は、第2の実施形態と同様に、受信した画像情報G20内の操作対象オブジェクトを検出し、検出した各操作対象オブジェクトの諸元情報P10を取得する。続けて、操作対象オブジェクト検出部223は、この諸元情報P10をユーザビリティ情報生成部322に送信する(ステップS303)。   Next, as in the second embodiment, the operation target object detection unit 223 detects the operation target object in the received image information G20, and acquires specification information P10 of each detected operation target object. Subsequently, the operation target object detection unit 223 transmits the specification information P10 to the usability information generation unit 322 (step S303).

次に、ユーザビリティ情報生成部322は、受信した諸元情報P10と注視位置座標C30とに基づいて、注視位置座標C30が操作対象オブジェクトの領域内か否かを調べる(ステップS311)。   Next, the usability information generation unit 322 checks whether or not the gaze position coordinate C30 is within the region of the operation target object based on the received specification information P10 and the gaze position coordinate C30 (step S311).

そして、注視位置座標C30が操作対象オブジェクト領域内の場合(ステップS311でYES)、ユーザビリティ情報生成部322は、「操作対象オブジェクト対注視位置関係に問題なし」を示すユーザビリティ情報を生成し、これを出力部330に送信する(ステップS312)。   When the gaze position coordinate C30 is within the operation target object area (YES in step S311), the usability information generation unit 322 generates usability information indicating “no problem with the operation target object versus the gaze position relationship”. It transmits to the output part 330 (step S312).

また、注視位置座標C30が操作対象オブジェクト領域外の場合(ステップS311でNO)、ユーザビリティ情報生成部322は、「操作対象オブジェクト対注視位置関係に問題あり」を示すユーザビリティ情報を生成し、これを出力部330に送信する(ステップS313)。   Further, when the gaze position coordinate C30 is outside the operation target object area (NO in step S311), the usability information generation unit 322 generates usability information indicating that there is a problem with the operation target object versus the gaze position relationship. The data is transmitted to the output unit 330 (step S313).

以上で処理部320の動作は終了する。これら一連の動作に続いて出力部330は、上述のユーザビリティ情報と顕著リストM20と注視位置座標C30と注視顕著性値M32と評価対象画像G10上にその評価対象画像G10に対応する顕著マップM10を描いた図(この情報も、ユーザビリティ情報とも呼ばれる)とを表示する(ステップS314)。   Thus, the operation of the processing unit 320 ends. Subsequent to the series of operations, the output unit 330 displays the usability information, the saliency list M20, the gaze position coordinates C30, the gaze saliency value M32, and the saliency map M10 corresponding to the evaluation target image G10 on the evaluation target image G10. The drawn figure (this information is also called usability information) is displayed (step S314).

上述の表示を確認することで、ユーザビリティ評価装置300の使用者は、操作対象オブジェクトにユーザの注意が向けられるようになっているか否かを評価する。   By confirming the above-described display, the user of the usability evaluation apparatus 300 evaluates whether or not the user's attention is directed to the operation target object.

上述した本実施形態における効果は、第1及び第2の実施形態の効果に加え、操作対象オブジェクトにユーザの視覚的注意が誘導されているようになっているか否かを評価することが可能になる点である。
その理由は、ユーザビリティ情報生成部322が、諸元情報P10に基づいて、注視位置座標C30が操作対象オブジェクトの領域内であるか否かを判定するようにしたからである。
[第4の実施形態]
次に、本発明の第4の実施形態について図面を参照して詳細に説明する。
In addition to the effects of the first and second embodiments, the effect of the present embodiment described above can evaluate whether or not the user's visual attention is guided to the operation target object. It is a point.
This is because the usability information generation unit 322 determines whether or not the gaze position coordinate C30 is within the region of the operation target object based on the specification information P10.
[Fourth Embodiment]
Next, a fourth embodiment of the present invention will be described in detail with reference to the drawings.

図13は、本実施形態の構成を示すブロック図である。図13に示すように、本実施形態に係るユーザビリティ評価装置400は、入力部410と、処理部420と、出力部430とを含む。   FIG. 13 is a block diagram showing a configuration of the present embodiment. As illustrated in FIG. 13, the usability evaluation apparatus 400 according to the present embodiment includes an input unit 410, a processing unit 420, and an output unit 430.

入力部410は、第1の実施形態で説明した入力部110の機能及び、入力されたユーザの目的を表す文字列W40を受け取り、送信する機能を有する。   The input unit 410 has the function of the input unit 110 described in the first embodiment and the function of receiving and transmitting the input character string W40 representing the purpose of the user.

処理部420は、顕著マップ作成部121と操作対象オブジェクト検出部423と注視位置予測部325と操作対象オブジェクト顕著性算出部224と意味的類似度算出部426と選択オブジェクト予測部427とユーザビリティ情報生成部422とを備える。   The processing unit 420 includes a saliency map creation unit 121, an operation target object detection unit 423, a gaze position prediction unit 325, an operation target object saliency calculation unit 224, a semantic similarity calculation unit 426, a selected object prediction unit 427, and usability information generation. Part 422.

顕著マップ作成部121と操作対象オブジェクト顕著性算出部224と注視位置予測部325とは、第1から第3の実施形態で説明したものと同等である。   The saliency map creation unit 121, the operation target object saliency calculation unit 224, and the gaze position prediction unit 325 are the same as those described in the first to third embodiments.

操作対象オブジェクト検出部423は、受信した画像情報G20内の操作対象オブジェクトを検出する。そして、操作対象オブジェクト検出部423は、検出した操作対象オブジェクトの少なくとも位置座標M11、幅、高さ及びその操作対象オブジェクト内に表記されている文字列W41を、諸元情報P40として取得し、送信する。図14は、諸元情報P40の一例を示す図である。図14に示すように、諸元情報P40は、操作対象オブジェクト識別子M21と位置座標M11と幅と高さと文字列W41とを含む。
意味的類似度算出部426は、入力部410から受信したユーザの目的を表す文字列W40と、操作対象オブジェクト検出部423から受信した操作対象オブジェクトの諸元情報P40中の文字列W41とに基づいて、ユーザの目的と操作対象オブジェクトの意味的類似度を計算する。そして、意味的類似度算出部426は、図15に示すような意味的類似度リストS40を作成する。
図15は、意味的類似度リストS40のデータの一例を示す図である。図15に示すように、意味的類似度リストS40は、ユーザの目的を表す文字列W40と操作対象オブジェクト識別子M21とその操作対象オブジェクト識別子M21で示される操作対象オブジェクト内に表記されている文字列W41と計算した意味的類似度値S42とを対応付けた組を1つ以上含む。
The operation target object detection unit 423 detects an operation target object in the received image information G20. Then, the operation target object detection unit 423 acquires at least the position coordinates M11, the width and the height of the detected operation target object, and the character string W41 written in the operation target object as the specification information P40, and transmits it. To do. FIG. 14 is a diagram illustrating an example of the specification information P40. As shown in FIG. 14, the specification information P40 includes an operation target object identifier M21, a position coordinate M11, a width, a height, and a character string W41.
The semantic similarity calculation unit 426 is based on the character string W40 representing the purpose of the user received from the input unit 410 and the character string W41 in the specification information P40 of the operation target object received from the operation target object detection unit 423. Then, the user's purpose and the semantic similarity between the operation target objects are calculated. Then, the semantic similarity calculation unit 426 creates a semantic similarity list S40 as shown in FIG.
FIG. 15 is a diagram illustrating an example of data in the semantic similarity list S40. As shown in FIG. 15, the semantic similarity list S40 includes a character string W40 representing the user's purpose, an operation target object identifier M21, and a character string written in the operation target object indicated by the operation target object identifier M21. One or more sets in which W41 is associated with the calculated semantic similarity value S42 are included.

意味的類似度の計算方法の1例として、非特許文献2に記述されている潜在意味解析(LSA:Latent Semantic Analysis)が挙げられる。LSAでは、文字列W40及び文字列W41をそれぞれ意味空間内のベクトルとして表し、これらのベクトルの成す角の余弦を計算することで文字列W40及び文字列W41間の意味的類似度を得る。意味的類似度の値は、文字列W40及び文字列W41のそれぞれに含まれる語の、語間の類似度が高いほど、高い値になる。
選択オブジェクト予測部427は、意味的類似度算出部426が作成した意味的類似度リストS40に基づいて、ユーザが選択すると予測される操作対象オブジェクトを抽出し、送信する。具体的には、選択オブジェクト予測部427は、意味的類似度リストS40に含まれる意味的類似度値S42の内で最大の意味的類似度値S42に対応する操作対象オブジェクト識別子M21を、ユーザが選択すると予測される操作対象オブジェクトの操作対象オブジェクト識別子M21として抽出する。続けて、選択オブジェクト予測部427は、この抽出された操作対象オブジェクト識別子M21で示される操作対象オブジェクトの操作対象オブジェクト識別子M21、位置座標M11、高さ及び幅を、図16に示すような、ユーザが操作すると予測されるユーザ操作対象オブジェクト情報Q40として抽出し、送信する。図16は、ユーザが操作すると予測されるユーザ操作対象オブジェクト情報Q40の一例を示す図である。
As an example of the method for calculating the semantic similarity, there is a latent semantic analysis (LSA) described in Non-Patent Document 2. In LSA, the character string W40 and the character string W41 are respectively expressed as vectors in the semantic space, and the semantic similarity between the character string W40 and the character string W41 is obtained by calculating the cosine of the angle formed by these vectors. The value of the semantic similarity becomes higher as the similarity between words of the words included in each of the character string W40 and the character string W41 is higher.
Based on the semantic similarity list S40 created by the semantic similarity calculation unit 426, the selected object prediction unit 427 extracts and transmits an operation target object predicted to be selected by the user. Specifically, the selected object prediction unit 427 allows the user to select the operation target object identifier M21 corresponding to the largest semantic similarity value S42 among the semantic similarity values S42 included in the semantic similarity list S40. Extracted as the operation target object identifier M21 of the operation target object predicted to be selected. Subsequently, the selected object prediction unit 427 determines the operation target object identifier M21, position coordinates M11, height, and width of the operation target object indicated by the extracted operation target object identifier M21 as shown in FIG. Is extracted and transmitted as user operation target object information Q40 predicted to be operated. FIG. 16 is a diagram illustrating an example of user operation target object information Q40 predicted to be operated by the user.

ユーザビリティ情報生成部422は、、操作対象オブジェクト顕著性算出部224からの顕著リストM20(図9)と、ユーザが選択すると予測されるユーザ操作対象オブジェクト情報Q40とに基づいて、ユーザビリティ情報を生成する。具体的には、例えば、ユーザビリティ情報生成部422は、顕著リストM20に含まれる顕著性値M22内の、最大の顕著性値M22に対応する操作対象オブジェクト識別子M21と、ユーザが選択すると予測されるユーザ操作対象オブジェクト情報Q40の操作対象オブジェクト識別子M21と、が同一であるか否かを判定する。同一である場合、ユーザビリティ情報生成部422は、操作対象オブジェクトの一致性に問題なしを示すユーザビリティ情報を生成する。同一でない場合、ユーザビリティ情報生成部422は、操作対象オブジェクトの一致性に問題ありを示すユーザビリティ情報を生成する。   The usability information generation unit 422 generates usability information based on the saliency list M20 (FIG. 9) from the operation target object saliency calculation unit 224 and the user operation target object information Q40 predicted to be selected by the user. . Specifically, for example, the usability information generation unit 422 is predicted to be selected by the user with the operation target object identifier M21 corresponding to the maximum saliency value M22 in the saliency value M22 included in the saliency list M20. It is determined whether or not the operation target object identifier M21 of the user operation target object information Q40 is the same. If they are the same, the usability information generation unit 422 generates usability information indicating that there is no problem in the consistency of the operation target object. If they are not the same, the usability information generation unit 422 generates usability information indicating that there is a problem in the consistency of the operation target objects.

尚、ユーザビリティ情報生成部422は、更に、第1の実施形態のユーザビリティ情報生成部122及び第2の実施形態のユーザビリティ情報生成部222と同様のユーザビリティ情報を生成してもよい。   Note that the usability information generation unit 422 may further generate usability information similar to the usability information generation unit 122 of the first embodiment and the usability information generation unit 222 of the second embodiment.

出力部430は、処理部420の処理結果を表示する。処理結果は、例えば、上述のユーザビリティ情報、評価対象画像G10上にその画像情報G20から求めた顕著性値M12とユーザ操作対象オブジェクト情報Q40とを重ね合わせた図(この情報も、ユーザビリティ情報とも呼ばれる)、顕著リストM20(この情報も、ユーザビリティ情報とも呼ばれる)及び意味的類似度リストS40(この情報も、ユーザビリティ情報とも呼ばれる)などである。   The output unit 430 displays the processing result of the processing unit 420. The processing result is, for example, the above usability information, a figure in which the saliency value M12 obtained from the image information G20 and the user operation target object information Q40 are superimposed on the evaluation target image G10 (this information is also called usability information) ), A saliency list M20 (this information is also called usability information), and a semantic similarity list S40 (this information is also called usability information).

次に、図17を参照して本実施形態の動作について詳細に説明する。尚、以下に示す本実施形態の動作の説明において、第1乃至第3の実施形態で説明した動作は、本実施形態の動作の説明が不明確にならない範囲で省略する。   Next, the operation of this embodiment will be described in detail with reference to FIG. In the following description of the operation of the present embodiment, the operations described in the first to third embodiments are omitted to the extent that the description of the operation of the present embodiment is not ambiguous.

図17は、本実施形態の処理部420の動作を示すフローチャートである。   FIG. 17 is a flowchart showing the operation of the processing unit 420 of this embodiment.

図17に示す動作に先立って、入力部410は、画像情報G20とユーザの目的を表す文字列W40の入力を受け取り、顕著マップ作成部121及び操作対象オブジェクト検出部423及び意味的類似度算出部426に送信する。   Prior to the operation shown in FIG. 17, the input unit 410 receives the input of the image information G20 and the character string W40 representing the user's purpose, and the saliency map creation unit 121, the operation target object detection unit 423, and the semantic similarity calculation unit. To 426.

ステップS401の動作は、第3の実施形態のステップS301と同等である。   The operation in step S401 is equivalent to step S301 in the third embodiment.

次に、操作対象オブジェクト検出部423は、受信した画像情報G20内の操作対象オブジェクトを検出する。そして、操作対象オブジェクト検出部423は、検出した各操作対象オブジェクトの諸元情報P40を取得し、これらを操作対象オブジェクト顕著性算出部224及び意味的類似度算出部426に送信する(ステップS403)。   Next, the operation target object detection unit 423 detects the operation target object in the received image information G20. Then, the operation target object detection unit 423 acquires the specification information P40 of each detected operation target object, and transmits them to the operation target object saliency calculation unit 224 and the semantic similarity calculation unit 426 (step S403). .

次に、操作対象オブジェクト顕著性算出部224は、第2の実施形態と同様に、顕著リストM20を生成する。そして、操作対象オブジェクト顕著性算出部224は、生成した顕著リストM20をユーザビリティ情報生成部422に送信する(ステップS404)。   Next, the operation target object saliency calculating unit 224 generates the saliency list M20 as in the second embodiment. Then, the operation target object saliency calculating unit 224 transmits the generated saliency list M20 to the usability information generating unit 422 (step S404).

次に、意味的類似度算出部426は、受信した諸元情報P40とユーザの目的を表す文字列W40とに基づいて、操作対象オブジェクト内に表記されている文字列W41と文字列W40との意味的類似度を算出して意味的類似度リストS40を作成し、選択オブジェクト予測部427に送信する(ステップS405)。   Next, the semantic similarity calculation unit 426 calculates the character string W41 and the character string W40 written in the operation target object based on the received specification information P40 and the character string W40 representing the user's purpose. The semantic similarity is calculated to create a semantic similarity list S40, and is transmitted to the selected object prediction unit 427 (step S405).

次に、選択オブジェクト予測部427は、受信した意味的類似度リストS40に基づいて、ユーザ操作対象オブジェクト情報Q40を抽出する。そして、選択オブジェクト予測部427は、抽出したユーザ操作対象オブジェクト情報Q40と意味的類似度リストS40とをユーザビリティ情報生成部422に送信する(ステップS406)。   Next, the selected object prediction unit 427 extracts user operation target object information Q40 based on the received semantic similarity list S40. Then, the selected object prediction unit 427 transmits the extracted user operation target object information Q40 and the semantic similarity list S40 to the usability information generation unit 422 (step S406).

次に、ユーザビリティ情報生成部422は、顕著マップM10、顕著リストM20、意味的類似度リストS40及びユーザ操作対象オブジェクト情報Q40を受信する。続けて、ユーザビリティ情報生成部422は、ユーザ操作対象オブジェクト情報Q40に含まれる操作対象オブジェクト識別子M21と、顕著リストM20に含まれる顕著性値M22の内の、最大の顕著性値M22に対応する操作対象オブジェクト識別子M21と、の二つの操作対象オブジェクト識別子M21が同一であるか否かを判定する(ステップS407)。   Next, the usability information generation unit 422 receives the saliency map M10, the saliency list M20, the semantic similarity list S40, and the user operation target object information Q40. Subsequently, the usability information generating unit 422 operates corresponding to the maximum saliency value M22 among the operation target object identifier M21 included in the user operation target object information Q40 and the saliency value M22 included in the saliency list M20. It is determined whether or not the two operation target object identifiers M21 and the target object identifier M21 are the same (step S407).

そして、二つの操作対象オブジェクト識別子M21が同一の場合(ステップS407でYES)、ユーザビリティ情報生成部422は、ユーザ操作対象オブジェクト誘導性に問題なしを示すユーザビリティ情報を生成し、これを出力部430に送信する(ステップS408)。
また、二つの操作対象オブジェクト識別子M21が同一でない場合(ステップS407でNO)、ユーザ操作対象オブジェクト誘導性に問題ありを示すユーザビリティ情報を生成し、これを出力部430に送信する(ステップS409)。
If the two operation target object identifiers M21 are the same (YES in step S407), the usability information generation unit 422 generates usability information indicating that there is no problem in the user operation target object inductivity, and outputs this to the output unit 430. Transmit (step S408).
If the two operation target object identifiers M21 are not the same (NO in step S407), usability information indicating that there is a problem with the user operation target object inductivity is generated and transmitted to the output unit 430 (step S409).

以上で処理部420の動作は終了し、これら一連の動作に続いて出力部430は、上述のユーザビリティ情報を表示する。また、出力部430は、評価対象画像G10上にその評価対象画像G10に対応する顕著マップM10ユーザ操作対象オブジェクト情報Q40を描いた図を表示してもよい。また、出力部430は、意味的類似度リストS40や顕著リストM20などを表示してもよい(ステップS410)。   Thus, the operation of the processing unit 420 ends, and the output unit 430 displays the above usability information following the series of operations. Further, the output unit 430 may display a diagram depicting the saliency map M10 user operation target object information Q40 corresponding to the evaluation target image G10 on the evaluation target image G10. Further, the output unit 430 may display the semantic similarity list S40, the saliency list M20, and the like (step S410).

上述の表示を確認することで、ユーザビリティ評価装置400の使用者は、ユーザが選択し操作する操作対象オブジェクトにユーザの注意が向けられるようになっているか否かを評価する。   By confirming the above display, the user of the usability evaluation apparatus 400 evaluates whether or not the user's attention is directed to the operation target object selected and operated by the user.

上述した本実施形態における効果は、第1、第2及び第3の実施形態の効果に加え、ユーザが選択し操作すると予測される操作対象オブジェクトに、ユーザの視覚的注意が誘導されるようになっているか否かを評価することが可能になる点である。
その理由は、操作対象オブジェクト内に表記されている文字列W41とユーザの目的を表す文字列W40との意味的類似度を算出してユーザが選択する操作対象オブジェクトを予測し、この予測した操作対象オブジェクトが最大の顕著性値M22に対応する操作対象オブジェクトであるか否かを判定してユーザビリティ情報を生成するようにしたからである。
[第5の実施形態]
次に、本発明の第5の実施形態について図面を参照して詳細に説明する。
In addition to the effects of the first, second, and third embodiments, the effects of the present embodiment described above are such that the user's visual attention is guided to the operation target object that is predicted to be selected and operated by the user. It is possible to evaluate whether or not.
The reason is that the operation target object selected by the user is predicted by calculating the semantic similarity between the character string W41 written in the operation target object and the character string W40 representing the user's purpose, and the predicted operation This is because it is determined whether the target object is the operation target object corresponding to the maximum saliency value M22, and usability information is generated.
[Fifth Embodiment]
Next, a fifth embodiment of the present invention will be described in detail with reference to the drawings.

図18は、本実施形態の構成を示すブロック図である。図18に示すように、本実施形態に係るユーザビリティ評価装置500は、入力部510と、処理部520と、出力部530とを含む。   FIG. 18 is a block diagram showing a configuration of the present embodiment. As illustrated in FIG. 18, the usability evaluation apparatus 500 according to the present embodiment includes an input unit 510, a processing unit 520, and an output unit 530.

入力部510は、第1の実施形態で説明した入力部110と同等である。   The input unit 510 is equivalent to the input unit 110 described in the first embodiment.

処理部520は、顕著マップ作成部121と、非コンテンツ領域検出部528と、各領域顕著性算出部529と、ユーザビリティ情報生成部522とを含む。顕著マップ作成部121は、第1の実施形態で説明したものと同等である。   The processing unit 520 includes a saliency map creation unit 121, a non-content region detection unit 528, each region saliency calculation unit 529, and a usability information generation unit 522. The saliency map creation unit 121 is the same as that described in the first embodiment.

非コンテンツ領域検出部528は、入力部510から受信した画像情報G20について、有用な情報を含まない非コンテンツ領域を検出する。そして、非コンテンツ領域検出部528は、評価対象画像G10全域をコンテンツ領域と非コンテンツ領域とに分ける諸元情報P50を生成する。図19は、諸元情報P50の一例を示す図である。図19に示すように諸元情報P50は、画像情報G20中の各ピクセルの位置座標(x座標、y座標)M11と領域識別子P53とを関連付けた情報である。図19に示す諸元情報P50は、例として、評価対象画像G10が「640×480」ピクセルの場合を示している。例えば、最上端かつ最左端のピクセルの位置座標M11は、x座標が「1」、y座標が「1」であり、領域識別子P53は、「4」である。また、最下端かつ最右端のピクセルの位置座標M11は、x座標が「640」、y座標が「480」であり、領域識別子P53は、「5」である。   The non-content area detection unit 528 detects a non-content area that does not include useful information in the image information G20 received from the input unit 510. Then, the non-content area detection unit 528 generates specification information P50 that divides the entire evaluation target image G10 into a content area and a non-content area. FIG. 19 is a diagram illustrating an example of the specification information P50. As shown in FIG. 19, the specification information P50 is information in which the position coordinates (x coordinate, y coordinate) M11 of each pixel in the image information G20 are associated with the region identifier P53. The specification information P50 shown in FIG. 19 shows a case where the evaluation target image G10 is “640 × 480” pixels as an example. For example, regarding the position coordinates M11 of the uppermost and leftmost pixels, the x coordinate is “1”, the y coordinate is “1”, and the region identifier P53 is “4”. Further, regarding the position coordinates M11 of the pixel at the lowermost and rightmost end, the x coordinate is “640”, the y coordinate is “480”, and the region identifier P53 is “5”.

非コンテンツ領域検出方法の例として、非特許文献3に記載された手法がある。この非コンテンツ領域検出手法は、まず、ウェブページをテキストユニットに分解し、各ユニットが非コンテンツ領域か否かを人が判断して入力し、学習のための教師データを作成する。そして、この非コンテンツ領域検出手法は、作成した教師データを使って教師あり学習を行い、チャンキングモデルを生成することで非コンテンツ領域を自動的に検出する。   As an example of the non-content region detection method, there is a method described in Non-Patent Document 3. In this non-content area detection method, first, a web page is decomposed into text units, and a person determines whether each unit is a non-content area and inputs it to create teacher data for learning. In this non-content area detection method, supervised learning is performed using the created teacher data, and a non-content area is automatically detected by generating a chunking model.

これは非コンテンツ領域検出部528の一例であり、非コンテンツ領域を検出する手段はこれに限らない。   This is an example of the non-content area detection unit 528, and means for detecting the non-content area is not limited to this.

領域顕著性算出部529は、顕著マップM10と諸元情報P50とに基づいて各領域の顕著性値(後述するコンテンツ領域顕著性値M53及び非コンテンツ領域顕著性値M55)を算出する。領域顕著性算出部529は、例えば、領域内の各ピクセルが保持する顕著性値M12の総和をその領域の顕著性値とすることで、各領域の顕著性値を算出する。そして、領域顕著性算出部529は、図20に示すようなコンテンツ領域顕著リストM50と図21に示すような非コンテンツ領域顕著リストM51を作成する。   The area saliency calculation unit 529 calculates the saliency values (content area saliency value M53 and non-content area saliency value M55 described later) of each area based on the saliency map M10 and the specification information P50. For example, the region saliency calculating unit 529 calculates the saliency value of each region by setting the sum of the saliency values M12 held by each pixel in the region as the saliency value of the region. Then, the region saliency calculation unit 529 creates a content region saliency list M50 as shown in FIG. 20 and a non-content region saliency list M51 as shown in FIG.

図20は、コンテンツ領域顕著リストM50のデータの一例を示す図である。図20に示すようにコンテンツ領域顕著リストM50は、コンテンツ領域識別子M52とコンテンツ領域顕著性値M53とを対応付けた組を1つ以上含む。図21は、非コンテンツ領域顕著リストM51のデータの一例とを示す図である。図21に示すように非コンテンツ領域顕著リストM51は非コンテンツ領域識別子M54と非コンテンツ領域顕著性値M55とを対応付けた組を1つ以上含む。   FIG. 20 is a diagram illustrating an example of data in the content area salient list M50. As shown in FIG. 20, the content area saliency list M50 includes one or more sets in which the content area identifier M52 and the content area saliency value M53 are associated with each other. FIG. 21 is a diagram illustrating an example of data of the non-content area saliency list M51. As shown in FIG. 21, the non-content area saliency list M51 includes one or more sets in which the non-content area identifier M54 and the non-content area saliency value M55 are associated with each other.

ユーザビリティ情報生成部522は、コンテンツ領域顕著リストM50及び非コンテンツ領域顕著リストM51に基づいて、ユーザビリティ情報を生成する。   The usability information generation unit 522 generates usability information based on the content area saliency list M50 and the non-content area saliency list M51.

まず、ユーザビリティ情報生成部522は、例えば、各コンテンツ領域顕著性値M53と各非コンテンツ領域顕著性値M55とを比較する。非コンテンツ領域顕著性値M55のいずれかが、コンテンツ領域顕著性値M53のいずれか以上の場合、ユーザビリティ情報生成部522は、異種領域顕著性差に問題ありを示すユーザビリティ情報を生成する。また、全ての非コンテンツ領域顕著性値M55がいずれのコンテンツ領域顕著性値M53未満の場合、ユーザビリティ情報生成部522は、異種領域顕著性差に問題なしを示すユーザビリティ情報を生成する。
尚、ユーザビリティ情報生成部522は、コンテンツ領域顕著性値M53に替えて、予め定められた数値と非コンテンツ領域とを比較するようにしてもよい。同様に、ユーザビリティ情報生成部522は、非コンテンツ領域顕著性値M55に替えて、予め定められた数値とコンテンツ領域顕著性値M53とを比較するようにしてもよい。
First, the usability information generation unit 522 compares each content area saliency value M53 with each non-content area saliency value M55, for example. If any of the non-content area saliency values M55 is greater than or equal to any of the content area saliency values M53, the usability information generation unit 522 generates usability information indicating that there is a problem in the different area saliency difference. Further, when all the non-content area saliency values M55 are less than any content area saliency value M53, the usability information generation unit 522 generates usability information indicating that there is no problem in the different area saliency difference.
Note that the usability information generation unit 522 may compare a predetermined numerical value with a non-content area instead of the content area saliency value M53. Similarly, the usability information generation unit 522 may compare a predetermined numerical value with the content region saliency value M53 instead of the non-content region saliency value M55.

更に、ユーザビリティ情報生成部522は、コンテンツ領域顕著性値M53どうしを相互に比較する。比較した結果、コンテンツ領域顕著性値M53間の差のいずれかが予め定められた差分閾値d以上の場合、ユーザビリティ情報生成部522はコンテンツ領域顕著性差に問題ありを示すユーザビリティ情報を生成する。コンテンツ領域顕著性値M53間の差の全てが予め定められた差分閾値d未満の場合、ユーザビリティ情報生成部522はコンテンツ領域顕著性差に問題なしを示すユーザビリティ情報を生成する。   Furthermore, the usability information generation unit 522 compares the content area saliency values M53 with each other. As a result of the comparison, if any of the differences between the content area saliency values M53 is equal to or greater than a predetermined difference threshold d, the usability information generation unit 522 generates usability information indicating that there is a problem with the content area saliency difference. When all of the differences between the content area saliency values M53 are less than a predetermined difference threshold d, the usability information generation unit 522 generates usability information indicating that there is no problem in the content area saliency difference.

尚、ユーザビリティ情報生成部522は、更に、ユーザビリティ情報生成部122と同様のユーザビリティ情報を生成してもよい。   Note that the usability information generation unit 522 may further generate usability information similar to that of the usability information generation unit 122.

また、本実施形態は、第2の実施形態、第3の実施形態及び第4の実施形態のいずれを含むようにしても良い。   Further, the present embodiment may include any of the second embodiment, the third embodiment, and the fourth embodiment.

出力部530は、処理部520の処理結果を表示する。処理結果は、上述のユーザビリティ情報、評価対象画像G10上にその評価対象画像G10のコンテンツ領域と非コンテンツ領域とを描いた図(この情報も、ユーザビリティ情報とも呼ばれる)、及びコンテンツ領域顕著リストM50(この情報も、ユーザビリティ情報とも呼ばれる)、非コンテンツ領域顕著リストM51(この情報も、ユーザビリティ情報とも呼ばれる)などである。   The output unit 530 displays the processing result of the processing unit 520. The processing results include the above usability information, a diagram depicting the content area and non-content area of the evaluation target image G10 on the evaluation target image G10 (this information is also called usability information), and a content area salient list M50 ( This information is also called usability information), a non-content area remarkable list M51 (this information is also called usability information), and the like.

次に、図18から図22を参照して本実施形態の動作について詳細に説明する。尚、以下に示す本実施形態の動作の説明において、第1の実施形態で説明した動作は、本実施形態の動作の説明が不明確にならない範囲内で、省略する。   Next, the operation of the present embodiment will be described in detail with reference to FIGS. In the following description of the operation of the present embodiment, the operation described in the first embodiment is omitted within a range that does not obscure the description of the operation of the present embodiment.

図22は、本実施形態の処理部520の動作を示すフローチャートである。   FIG. 22 is a flowchart showing the operation of the processing unit 520 of the present embodiment.

図22に示す動作に先立って、入力部510は、画像情報G20の入力を受け付け、これを顕著マップ作成部121及び非コンテンツ領域検出部528に送信する。   Prior to the operation illustrated in FIG. 22, the input unit 510 receives input of the image information G20 and transmits it to the saliency map creation unit 121 and the non-content area detection unit 528.

まず、顕著マップ作成部121は、第1の実施形態と同様に、顕著マップM10を作成する。続けて、顕著マップ作成部121は、作成した顕著マップM10をユーザビリティ情報生成部522及び領域顕著性算出部529に送信する(ステップS501)。   First, the saliency map creating unit 121 creates the saliency map M10 as in the first embodiment. Subsequently, the saliency map creation unit 121 transmits the created saliency map M10 to the usability information generation unit 522 and the region saliency calculation unit 529 (step S501).

次に、非コンテンツ領域検出部528は、受信した画像情報G20内の非コンテンツ領域を検出し、非コンテンツ領域及びそれ以外のコンテンツ領域の諸元情報P50を操作対象オブジェクト顕著性算出部224に送信する(ステップS502)。   Next, the non-content area detection unit 528 detects the non-content area in the received image information G20 and transmits the specification information P50 of the non-content area and the other content areas to the operation target object saliency calculation unit 224. (Step S502).

次に、領域顕著性算出部529は、顕著マップM10と諸元情報P50とに基づいて各コンテンツ領域顕著性値M53及び非コンテンツ領域顕著性値M55を算出してコンテンツ領域顕著リストM50、非コンテンツ領域顕著リストM51を作成し、ユーザビリティ情報生成部522に送信する(ステップS503)。   Next, the region saliency calculation unit 529 calculates the content region saliency value M53 and the non-content region saliency value M55 based on the saliency map M10 and the specification information P50, and thereby calculates the content region saliency list M50 and the non-contents. The region saliency list M51 is created and transmitted to the usability information generation unit 522 (step S503).

次に、ユーザビリティ情報生成部522は、顕著マップM10、コンテンツ領域顕著リストM50及び非コンテンツ領域顕著リストM51を受信する。続けて、ユーザビリティ情報生成部522は、コンテンツ領域顕著性値M53と非コンテンツ領域顕著性値M55とを比較する(ステップS504)。   Next, the usability information generation unit 522 receives the saliency map M10, the content area saliency list M50, and the non-content area saliency list M51. Subsequently, the usability information generation unit 522 compares the content area saliency value M53 and the non-content area saliency value M55 (step S504).

そして、非コンテンツ領域顕著性値M55のいずれかが、コンテンツ領域顕著性値M53のいずれか以上の場合(ステップS504でYES)、ユーザビリティ情報生成部522は、異種領域顕著性差に問題ありを示すユーザビリティ情報を生成し、これを出力部530に送信する(ステップS505)。   If any of the non-content area saliency values M55 is greater than or equal to any of the content area saliency values M53 (YES in step S504), the usability information generation unit 522 indicates usability indicating that there is a problem in the different area saliency difference. Information is generated and transmitted to the output unit 530 (step S505).

また、全ての非コンテンツ領域顕著性値M55が、いずれのコンテンツ領域顕著性値M53未満の場合(ステップS504でNO)、ユーザビリティ情報生成部522は、異種領域顕著性差に問題なしを示すユーザビリティ情報を生成し、これを出力部530に送信する(ステップS506)。   When all the non-content area saliency values M55 are less than any of the content area saliency values M53 (NO in step S504), the usability information generation unit 522 displays usability information indicating that there is no problem in the different area saliency difference. It is generated and transmitted to the output unit 530 (step S506).

次に、ユーザビリティ情報生成部522は、コンテンツ領域顕著性値M53を相互に比較する(ステップS507)。   Next, the usability information generation unit 522 compares the content area saliency values M53 with each other (step S507).

そして、コンテンツ領域顕著性値M53間の差が予め定められた差分閾値d以上の場合(ステップS506でYES)、ユーザビリティ情報生成部522は、コンテンツ領域顕著性差に問題ありを示すユーザビリティ情報を生成し、これを出力部530に送信する(ステップS508)。   When the difference between the content area saliency values M53 is greater than or equal to a predetermined difference threshold d (YES in step S506), the usability information generation unit 522 generates usability information indicating that there is a problem with the content area saliency difference. This is transmitted to the output unit 530 (step S508).

また、コンテンツ領域顕著性値M53間の差が予め定められた差分閾値d未満の場合(ステップS506でNO)、ユーザビリティ情報生成部522は、コンテンツ領域顕著性差に問題なしを示すユーザビリティ情報を生成し、これを出力部530に送信する(ステップS509)。   When the difference between the content area saliency values M53 is less than the predetermined difference threshold d (NO in step S506), the usability information generation unit 522 generates usability information indicating that there is no problem in the content area saliency difference. This is transmitted to the output unit 530 (step S509).

次に、ユーザビリティ情報生成部522は、評価対象画像G10の上に対応する顕著マップM10とコンテンツ領域と非コンテンツ領域とを描いた図を生成する。続けて、ユーザビリティ情報生成部522は、コンテンツ領域顕著リストM50と非コンテンツ領域顕著リストM51と生成した図とを出力部530に送信する(ステップS510)。   Next, the usability information generation unit 522 generates a diagram depicting the saliency map M10, the content area, and the non-content area corresponding to the evaluation target image G10. Subsequently, the usability information generation unit 522 transmits the content area saliency list M50, the non-content area saliency list M51, and the generated diagram to the output unit 530 (step S510).

以上で処理部520の動作は終了し、これら一連の動作に続いて出力部530は、受信したユーザビリティ情報を表示する。また、出力部530は、受信したコンテンツ領域顕著リストM50と、非コンテンツ領域顕著リストM51と、評価対象画像G10上にその評価対象画像G10のコンテンツ領域と非コンテンツ領域とを描いた図を表示する。   Thus, the operation of the processing unit 520 is completed, and the output unit 530 displays the received usability information following the series of operations. Further, the output unit 530 displays the received content area saliency list M50, non-content area saliency list M51, and a diagram in which the content area and the non-content area of the evaluation target image G10 are drawn on the evaluation target image G10. .

上述の表示を確認することで、ユーザビリティ評価装置500の使用者は、非コンテンツ領域にユーザの注意が誘導されないか否かを評価する。   By confirming the above-described display, the user of the usability evaluation apparatus 500 evaluates whether or not the user's attention is not guided to the non-content area.

上述した本実施形態における効果は、第1の実施形態の効果に加え、非コンテンツ領域にユーザの注意が誘導されるか否かを評価することが可能になる点である。   The effect in the present embodiment described above is that it is possible to evaluate whether or not the user's attention is guided to the non-content area in addition to the effect of the first embodiment.

その理由は、画面全域内の非コンテンツ領域を検出し、コンテンツ領域と非コンテンツ領域の顕著性を比較してユーザビリティ情報を生成するようにしたからである。
[第6の実施形態]
次に、本発明の第6の実施形態について図面を参照して詳細に説明する。
This is because the non-content area in the entire screen is detected, and the usability information is generated by comparing the saliency between the content area and the non-content area.
[Sixth Embodiment]
Next, a sixth embodiment of the present invention will be described in detail with reference to the drawings.

図23は、本実施形態の構成を示すブロック図である。図23に示すように、本実施形態に係るユーザビリティ評価装置600は、ユーザビリティ情報生成部122を含む。   FIG. 23 is a block diagram showing a configuration of the present embodiment. As shown in FIG. 23, the usability evaluation device 600 according to this embodiment includes a usability information generation unit 122.

ユーザビリティ情報生成部122は、例えば図2に示すような評価対象画像G10の、図3に示すような顕著マップM10に含まれる、単位要素(例えば、ピクセル)毎の顕著性値M12に基づいて、評価対象画像G10のユーザビリティ情報を生成する。尚、例えば、図3に示す顕著マップM10は、メモリ(図示しない)上に、図示しない手段によって展開されていてもよい。   The usability information generation unit 122, for example, based on the saliency value M12 for each unit element (for example, pixel) included in the saliency map M10 as shown in FIG. 3 of the evaluation target image G10 as shown in FIG. Usability information of the evaluation target image G10 is generated. For example, the saliency map M10 shown in FIG. 3 may be developed on a memory (not shown) by means not shown.

上述した本実施形態における効果は、画像の視覚的な特徴に対するユーザビリティを評価することが可能になる点である。   The effect in the present embodiment described above is that it is possible to evaluate the usability with respect to the visual characteristics of the image.

その理由は、評価対象画像G10の顕著性値M12に基づいて、評価対象画像に注意を向けるべきか否かを評価するためのユーザビリティ情報を生成するようにしたからである。
[実施形態の変形]
以上の各実施形態は、それぞれの一部或いは全部を組み合わせて変形してもよい。例えば、実施形態3の処理部320に操作対象オブジェクト顕著性算出部224を追加し、ユーザビリティ情報生成部322は、第2の実施形態のユーザビリティ情報生成部222と同様のユーザビリティ情報を生成するようにしてもよい。また、例えば第4の実施形態の処理部420に注視位置予測部325を追加し、ユーザビリティ情報生成部422は、第3の実施形態のユーザビリティ情報生成部322と同様のユーザビリティ情報を生成するようにしてもよい。
This is because usability information for evaluating whether or not attention should be directed to the evaluation target image is generated based on the saliency value M12 of the evaluation target image G10.
[Modification of Embodiment]
Each of the above embodiments may be modified by combining some or all of them. For example, the operation target object saliency calculation unit 224 is added to the processing unit 320 of the third embodiment, and the usability information generation unit 322 generates the same usability information as the usability information generation unit 222 of the second embodiment. May be. For example, a gaze position prediction unit 325 is added to the processing unit 420 of the fourth embodiment, and the usability information generation unit 422 generates usability information similar to the usability information generation unit 322 of the third embodiment. May be.

以上の各実施形態で説明した各構成要素は、例えば、CPU(Central Processing Unit)と記憶媒体とを含むコンピュータによって構成されても良い。この場合、記憶媒体は、コンピュータによって各構成要素を機能させるためのプログラムを記憶してもよい。   Each component described in each of the above embodiments may be configured by, for example, a computer including a CPU (Central Processing Unit) and a storage medium. In this case, the storage medium may store a program for causing each component to function by a computer.

以上の各実施形態で説明した各構成要素は、必ずしも個々に独立した存在である必要はない。例えば、各構成要素は、複数の構成要素が1個のモジュールとして実現されたり、一つの構成要素が複数のモジュールで実現されたりしてもよい。また、各構成要素は、ある構成要素が他の構成要素の一部であったり、ある構成要素の一部と他の構成要素の一部とが重複していたり、といったような構成であってもよい。   Each component described in each of the above embodiments does not necessarily have to be individually independent. For example, for each component, a plurality of components may be realized as one module, or one component may be realized as a plurality of modules. Each component is configured such that a component is a part of another component, or a part of a component overlaps a part of another component. Also good.

また、以上説明した各実施形態では、複数の動作をフローチャートの形式で順番に記載してあるが、その記載の順番は複数の動作を実行する順番を限定するものではない。このため、各実施形態を実施するときには、その複数の動作の順番は内容的に支障しない範囲で変更することができる。   Further, in each of the embodiments described above, a plurality of operations are described in order in the form of a flowchart, but the described order does not limit the order in which the plurality of operations are executed. For this reason, when each embodiment is implemented, the order of the plurality of operations can be changed within a range that does not hinder the contents.

更に、以上説明した各実施形態では、複数の動作は個々に相違するタイミングで実行されることに限定されない。例えば、ある動作の実行中に他の動作が発生したり、ある動作と他の動作との実行タイミングが部分的に乃至全部において重複していたりしていてもよい。   Furthermore, in each embodiment described above, a plurality of operations are not limited to being executed at different timings. For example, another operation may occur during the execution of a certain operation, or the execution timing of a certain operation and another operation may partially or entirely overlap.

更に、以上説明した各実施形態では、ある動作が他の動作の契機になるように記載しているが、その記載はある動作と他の動作の全ての関係を限定するものではない。このため、各実施形態を実施するときには、その複数の動作の関係は内容的に支障のない範囲で変更することができる。また各構成要素の各動作の具体的な記載は、各構成要素の各動作を限定するものではない。このため、各構成要素の具体的な各動作は、各実施形態を実施する上で機能的、性能的、その他の特性に対して支障をきたさない範囲内で変更されて良い。   Furthermore, in each of the embodiments described above, a certain operation is described as a trigger for another operation, but the description does not limit all relationships between the certain operation and the other operations. For this reason, when each embodiment is implemented, the relationship between the plurality of operations can be changed within a range that does not hinder the contents. The specific description of each operation of each component does not limit each operation of each component. For this reason, each specific operation | movement of each component may be changed in the range which does not cause trouble with respect to a functional, performance, and other characteristic in implementing each embodiment.

尚、以上説明した各実施形態における各構成要素は、必要に応じ可能であれば、ハードウェアで実現されても良いし、ソフトウェアで実現されても良いし、ハードウェアとソフトウェアの混在により実現されても良い。   Each component in each embodiment described above may be realized by hardware, software, or a mixture of hardware and software, if necessary. May be.

また、各構成要素の物理的な構成は、以上の実施形態の記載に限定されることはなく、独立して存在しても良いし、組み合わされて存在しても良いしまたは分離して構成されても良い。   Further, the physical configuration of each component is not limited to the description of the above embodiment, and may exist independently, may exist in combination, or may be configured separately. May be.

上記の実施形態の一部または全部は、以下の付記のようにも記載されうるが、以下には限られない。   A part or all of the above-described embodiment can be described as in the following supplementary notes, but is not limited thereto.

(付記1)
画像の単位要素毎の顕著性を示す要素顕著性値に基づいて、前記画像内の特定部分に注意を引くことができるか否かを評価するためのユーザビリティ情報を生成し、出力するユーザビリティ情報生成部を有する
ユーザビリティ評価装置。
(Appendix 1)
Usability information generation for generating and outputting usability information for evaluating whether or not attention can be drawn to a specific portion in the image based on an element saliency value indicating saliency for each unit element of the image Usability evaluation apparatus having a unit.

(付記2)
前記画像における操作対象オブジェクトを検出し、検出した前記操作対象オブジェクトの領域を示す情報を含む諸元情報を出力する操作対象オブジェクト検出部と、
前記諸元情報と前記要素顕著性値とに基づいて、前記操作対象オブジェクトの顕著性値に対応する操作対象オブジェクト顕著性値を算出し、出力する操作対象オブジェクト顕著性算出部とを更に含み、
前記ユーザビリティ情報生成部は、前記要素顕著性値と前記操作対象オブジェクト顕著性値とを比較した結果及び前記操作対象オブジェクト顕著性値を相互に比較した結果に基づいて、ユーザビリティ情報を生成し、出力する
付記1記載のユーザビリティ評価装置。
(Appendix 2)
An operation target object detection unit that detects an operation target object in the image and outputs specification information including information indicating a region of the detected operation target object;
An operation target object saliency calculation unit that calculates and outputs an operation target object saliency value corresponding to the saliency value of the operation target object based on the specification information and the element saliency value;
The usability information generation unit generates and outputs usability information based on a result of comparing the element saliency value and the operation target object saliency value and a result of comparing the operation target object saliency values with each other. The usability evaluation apparatus according to attachment 1.

(付記3)
前記画像における操作対象オブジェクトを検出し、検出した前記操作対象オブジェクトの領域を示す情報を含む諸元情報を出力する操作対象オブジェクト検出部と、
ユーザの注視位置を予測して注視位置座標を検出する注視位置予測部とを更に含み、
前記ユーザビリティ情報生成部は、前記注視位置座標と前記操作対象オブジェクトの領域とに基づいて、ユーザビリティ情報を生成し、出力する
付記1または2記載のユーザビリティ評価装置。
(Appendix 3)
An operation target object detection unit that detects an operation target object in the image and outputs specification information including information indicating a region of the detected operation target object;
A gaze position prediction unit that predicts the gaze position of the user and detects gaze position coordinates;
The usability evaluation device according to attachment 1 or 2, wherein the usability information generation unit generates and outputs usability information based on the gaze position coordinates and the region of the operation target object.

(付記4)
前記諸元情報は、前記操作対象オブジェクトに含まれる文字列情報を更に含み、
前記操作対象オブジェクト顕著性算出部は、前記操作対象オブジェクト顕著性値及びこれに対応する前記操作対象オブジェクトの識別子とを対応付けて出力し、
前記文字列情報とユーザの目的を表す文字列情報との意味的類似度を算出する意味的類似度算出部と、
前記意味的類似度に基づいて、前記操作対象オブジェクトの内からユーザが選択する選択対象オブジェクトを予測し、前記選択対象オブジェクトの識別子を含む選択オブジェクト情報を出力する選択オブジェクト判断部と、を更に含み
前記ユーザビリティ情報生成部は、前記操作対象オブジェクト顕著性値及びこれに対応する前記操作対象オブジェクトの識別子と前記選択オブジェクト情報とに基づいて、ユーザビリティ情報を生成し、出力する
付記2記載のユーザビリティ評価装置。
(Appendix 4)
The specification information further includes character string information included in the operation target object,
The operation target object saliency calculating unit associates and outputs the operation target object saliency value and the identifier of the operation target object corresponding to the operation target object saliency value,
A semantic similarity calculator that calculates the semantic similarity between the character string information and the character string information representing the purpose of the user;
A selection object determination unit that predicts a selection target object to be selected by the user from among the operation target objects based on the semantic similarity and outputs selection object information including an identifier of the selection target object; The usability evaluation device according to claim 2, wherein the usability information generation unit generates and outputs usability information based on the operation target object saliency value, the identifier of the operation target object corresponding thereto, and the selected object information. .

(付記5)
前記画像におけるコンテンツ領域及び非コンテンツ領域を検出する領域検出部と、
各前記コンテンツ領域及び各前記非コンテンツ領域の領域顕著性値を算出し、出力する領域顕著性算出部とを更に含み、
前記ユーザビリティ情報生成部は、各前記コンテンツ領域及び各前記非コンテンツ領域の顕著性値に基づいて、ユーザビリティ情報を生成し、出力する
付記1乃至4のいずれかに記載のユーザビリティ評価装置。
(Appendix 5)
An area detection unit for detecting a content area and a non-content area in the image;
A region saliency calculating unit that calculates and outputs a region saliency value for each of the content regions and each of the non-content regions;
The usability evaluation device according to any one of appendices 1 to 4, wherein the usability information generation unit generates and outputs usability information based on the saliency values of the content areas and the non-content areas.

(付記6)
前記ユーザビリティ情報生成部は、予め定められた顕著性閾値を満足する前記要素顕著性値を有する単位要素の数と予め定められた単位要素個数とを比較した結果に基づいて、ユーザビリティ情報を生成し、出力する
付記1乃至5記載のユーザビリティ評価装置。
(Appendix 6)
The usability information generation unit generates usability information based on a result of comparing the number of unit elements having the element saliency value that satisfies a predetermined saliency threshold with a predetermined number of unit elements. The usability evaluation apparatus according to appendices 1 to 5.

(付記7)
メモリ上に展開された画像の顕著性を示す単位要素毎の要素顕著性値に基づいて、前記画像内の特定部分に注意を引くことができるか否かを評価するための処理部がユーザビリティ情報を生成する
方法。
(Appendix 7)
A processing unit for evaluating whether or not attention can be drawn to a specific part in the image based on an element saliency value for each unit element indicating saliency of the image developed on the memory is usability information. How to generate.

(付記8)
前記画像における操作対象オブジェクトを検出し、検出した前記操作対象オブジェクトの領域を示す情報を含む諸元情報を出力し、
前記諸元情報と前記要素顕著性値とに基づいて、前記操作対象オブジェクトの顕著性値に対応する操作対象オブジェクト顕著性値を算出し、出力し、
前記要素顕著性値と前記操作対象オブジェクト顕著性値とを比較した結果及び前記操作対象オブジェクト顕著性値を相互に比較した結果に基づいて、ユーザビリティ情報を生成する
付記7記載の方法。
(Appendix 8)
Detecting an operation target object in the image, outputting specification information including information indicating a region of the detected operation target object;
Based on the specification information and the element saliency value, calculate and output an operation target object saliency value corresponding to the saliency value of the operation target object,
The method according to claim 7, wherein usability information is generated based on a result of comparing the element saliency value and the operation target object saliency value and a result of comparing the operation target object saliency values with each other.

(付記9)
前記画像における操作対象オブジェクトを検出し、検出した前記操作対象オブジェクトの領域を示す情報を含む諸元情報を出力し、
ユーザの注視位置を予測して注視位置座標を検出し、
前記注視位置座標と前記操作対象オブジェクトの領域とに基づいて、ユーザビリティ情報を生成し、出力する
付記7または8記載の方法。
(Appendix 9)
Detecting an operation target object in the image, outputting specification information including information indicating a region of the detected operation target object;
Predict the user's gaze position, detect gaze position coordinates,
The method according to claim 7 or 8, wherein usability information is generated and output based on the gaze position coordinates and the region of the operation target object.

(付記10)
前記諸元情報は、前記操作対象オブジェクトに含まれる文字列情報を更に含み、
前記操作対象オブジェクト顕著性値及びこれに対応する前記操作対象オブジェクトの識別子とを対応付けて出力し、
前記文字列情報とユーザの目的を表す文字列情報との意味的類似度を算出し、
前記意味的類似度に基づいて、前記操作対象オブジェクトの内からユーザが選択する選択対象オブジェクトを予測し、前記選択対象オブジェクトの識別子を含む選択オブジェクト情報を出力し、
前記操作対象オブジェクト顕著性値及びこれに対応する前記操作対象オブジェクトの識別子と前記選択オブジェクト情報とに基づいて、ユーザビリティ情報を生成し、出力する
付記8記載の方法。
(Appendix 10)
The specification information further includes character string information included in the operation target object,
The operation target object saliency value and the corresponding identifier of the operation target object are output in association with each other,
Calculating the semantic similarity between the character string information and the character string information representing the purpose of the user;
Based on the semantic similarity, predict a selection target object selected by the user from among the operation target objects, and output selection object information including an identifier of the selection target object,
The method according to claim 8, wherein usability information is generated and output based on the operation target object saliency value, the identifier of the operation target object corresponding to the operation target object saliency value, and the selected object information.

(付記11)
前記画像におけるコンテンツ領域及び非コンテンツ領域を検出し、
各前記コンテンツ領域及び各前記非コンテンツ領域の領域顕著性値を算出し、出力し、
各前記コンテンツ領域及び各前記非コンテンツ領域の顕著性値に基づいて、ユーザビリティ情報を生成し、出力する
付記7乃至10のいずれかに記載の方法。
(Appendix 11)
Detecting a content area and a non-content area in the image;
Calculate and output a region saliency value for each content region and each non-content region;
The method according to any one of appendices 7 to 10, wherein usability information is generated and output based on the saliency value of each content area and each non-content area.

(付記12)
予め定められた顕著性閾値を満足する前記要素顕著性値を有する単位要素の数と予め定められた単位要素個数とを比較した結果に基づいて、ユーザビリティ情報を生成し、出力する
付記7乃至11記載の方法。
(Appendix 12)
Based on the result of comparing the number of unit elements having the element saliency value satisfying a predetermined saliency threshold with the predetermined number of unit elements, usability information is generated and output. The method described.

(付記13)
メモリ上に展開された画像の単位要素毎の顕著性を示す要素顕著性値に基づいて、前記画像内の特定部分に注意を引くことができるか否かを評価するための処理部がユーザビリティ情報を生成する処理を
コンピュータに実行させるプログラム。
(Appendix 13)
A processing unit for evaluating whether or not attention can be drawn to a specific portion in the image based on an element saliency value indicating saliency for each unit element of the image developed on the memory is usability information. A program that causes a computer to execute the process of generating

(付記14)
前記画像における操作対象オブジェクトを検出し、検出した前記操作対象オブジェクトの領域を示す情報を含む諸元情報を出力し、
前記諸元情報と前記要素顕著性値とに基づいて、前記操作対象オブジェクトの顕著性値に対応する操作対象オブジェクト顕著性値を算出し、出力し、
前記要素顕著性値と前記操作対象オブジェクト顕著性値とを比較した結果及び前記操作対象オブジェクト顕著性値を相互に比較した結果に基づいて、ユーザビリティ情報を生成する処理を
コンピュータに実行させる付記13記載のプログラム。
(Appendix 14)
Detecting an operation target object in the image, outputting specification information including information indicating a region of the detected operation target object;
Based on the specification information and the element saliency value, calculate and output an operation target object saliency value corresponding to the saliency value of the operation target object,
The supplementary note 13 causes the computer to execute a process of generating usability information based on a result of comparing the element saliency value and the operation target object saliency value and a result of comparing the operation target object saliency values with each other. Program.

(付記15)
前記画像における操作対象オブジェクトを検出し、検出した前記操作対象オブジェクトの領域を示す情報を含む諸元情報を出力し、
ユーザの注視位置を予測して注視位置座標を検出し、
前記注視位置座標と前記操作対象オブジェクトの領域とに基づいて、ユーザビリティ情報を生成し、出力する
コンピュータに実行させる付記13または14記載のプログラム。
(Appendix 15)
Detecting an operation target object in the image, outputting specification information including information indicating a region of the detected operation target object;
Predict the user's gaze position, detect gaze position coordinates,
The program according to appendix 13 or 14, which is executed by a computer that generates and outputs usability information based on the gaze position coordinate and the region of the operation target object.

(付記16)
前記諸元情報は、前記操作対象オブジェクトに含まれる文字列情報を更に含み、
前記操作対象オブジェクト顕著性値及びこれに対応する前記操作対象オブジェクトの識別子とを対応付けて出力し、
前記文字列情報とユーザの目的を表す文字列情報との意味的類似度を算出し、
前記意味的類似度に基づいて、前記操作対象オブジェクトの内からユーザが選択する選択対象オブジェクトを予測し、前記選択対象オブジェクトの識別子を含む選択オブジェクト情報を出力し
前記操作対象オブジェクト顕著性値及びこれに対応する前記操作対象オブジェクトの識別子と前記選択オブジェクト情報とに基づいて、ユーザビリティ情報を生成し、出力する
コンピュータに実行させる付記14記載のプログラム。
(Appendix 16)
The specification information further includes character string information included in the operation target object,
The operation target object saliency value and the corresponding identifier of the operation target object are output in association with each other,
Calculating the semantic similarity between the character string information and the character string information representing the purpose of the user;
Based on the semantic similarity, a selection target object to be selected by the user from among the operation target objects is predicted, and selection object information including an identifier of the selection target object is output, and the operation target object saliency value and this 15. The program according to appendix 14, which is executed by a computer that generates and outputs usability information based on the identifier of the operation target object corresponding to the selected object information and the selected object information.

(付記17)
前記画像におけるコンテンツ領域及び非コンテンツ領域を検出し、
各前記コンテンツ領域及び各前記非コンテンツ領域の領域顕著性値を算出し、出力し、
各前記コンテンツ領域及び各前記非コンテンツ領域の顕著性値に基づいて、ユーザビリティ情報を生成し、出力する
コンピュータに実行させる付記13乃至16のいずれかに記載のプログラム。
(Appendix 17)
Detecting a content area and a non-content area in the image;
Calculate and output a region saliency value for each content region and each non-content region;
The program according to any one of appendices 13 to 16, which is executed by a computer that generates and outputs usability information based on the saliency values of the content areas and the non-content areas.

(付記18)
予め定められた顕著性閾値を満足する前記要素顕著性値を有する単位要素の数と予め定められた単位要素個数とを比較した結果に基づいて、ユーザビリティ情報を生成し、出力する
コンピュータに実行させる付記13乃至17記載のプログラム。
(Appendix 18)
Based on the result of comparing the number of unit elements having the element saliency value that satisfies a predetermined saliency threshold with the predetermined number of unit elements, the usability information is generated and output to a computer. The program according to appendixes 13 to 17.

(付記19)
画像の単位要素毎の顕著性を示す要素顕著性値に基づいて、前記画像内の特定部分に注意を引くことができるか否かを評価するためのユーザビリティ情報を生成し、出力するユーザビリティ情報生成部を有する
ユーザビリティ評価装置。
(Appendix 19)
Usability information generation for generating and outputting usability information for evaluating whether or not attention can be drawn to a specific portion in the image based on an element saliency value indicating saliency for each unit element of the image Usability evaluation apparatus having a unit.

(付記20)
前記画像における操作対象オブジェクトを検出し、検出した前記操作対象オブジェクトの領域を示す情報を含む諸元情報を出力する操作対象オブジェクト検出部と、
前記諸元情報と前記要素顕著性値とに基づいて、前記操作対象オブジェクトの顕著性値に対応する操作対象オブジェクト顕著性値を算出し、出力する操作対象オブジェクト顕著性算出部とを更に含み、
前記ユーザビリティ情報生成部は、前記要素顕著性値と前記操作対象オブジェクト顕著性値とを比較した結果及び前記操作対象オブジェクト顕著性値を相互に比較した結果に基づいて、ユーザビリティ情報を生成し、出力する
付記19記載のユーザビリティ評価装置。
(Appendix 20)
An operation target object detection unit that detects an operation target object in the image and outputs specification information including information indicating a region of the detected operation target object;
An operation target object saliency calculation unit that calculates and outputs an operation target object saliency value corresponding to the saliency value of the operation target object based on the specification information and the element saliency value;
The usability information generation unit generates and outputs usability information based on a result of comparing the element saliency value and the operation target object saliency value and a result of comparing the operation target object saliency values with each other. The usability evaluation apparatus according to appendix 19.

(付記21)
前記画像における操作対象オブジェクトを検出し、検出した前記操作対象オブジェクトの領域を示す情報を含む諸元情報を出力する操作対象オブジェクト検出部と、
ユーザの注視位置を予測して注視位置座標を検出する注視位置予測部とを更に含み、
前記ユーザビリティ情報生成部は、前記注視位置座標と前記操作対象オブジェクトの領域とに基づいて、ユーザビリティ情報を生成し、出力する
付記19または20記載のユーザビリティ評価装置。
(Appendix 21)
An operation target object detection unit that detects an operation target object in the image and outputs specification information including information indicating a region of the detected operation target object;
A gaze position prediction unit that predicts the gaze position of the user and detects gaze position coordinates;
The usability evaluation apparatus according to appendix 19 or 20, wherein the usability information generation unit generates and outputs usability information based on the gaze position coordinates and the region of the operation target object.

(付記22)
前記諸元情報は、前記操作対象オブジェクトに含まれる文字列情報を更に含み、
前記操作対象オブジェクト顕著性算出部は、前記操作対象オブジェクト顕著性値及びこれに対応する前記操作対象オブジェクトの識別子とを対応付けて出力し、
前記文字列情報とユーザの目的を表す文字列情報との意味的類似度を算出する意味的類似度算出部と、
前記意味的類似度に基づいて、前記操作対象オブジェクトの内からユーザが選択する選択対象オブジェクトを予測し、前記選択対象オブジェクトの識別子を含む選択オブジェクト情報を出力する選択オブジェクト判断部と、を更に含み
前記ユーザビリティ情報生成部は、前記操作対象オブジェクト顕著性値及びこれに対応する前記操作対象オブジェクトの識別子と前記選択オブジェクト情報とに基づいて、ユーザビリティ情報を生成し、出力する
付記20記載のユーザビリティ評価装置。
(Appendix 22)
The specification information further includes character string information included in the operation target object,
The operation target object saliency calculating unit associates and outputs the operation target object saliency value and an identifier of the operation target object corresponding to the operation target object saliency value,
A semantic similarity calculator that calculates the semantic similarity between the character string information and the character string information representing the purpose of the user;
A selection object determination unit that predicts a selection target object to be selected by the user from among the operation target objects based on the semantic similarity and outputs selection object information including an identifier of the selection target object; The usability evaluation apparatus according to claim 20, wherein the usability information generation unit generates and outputs usability information based on the operation object saliency value, an identifier of the operation object corresponding to the operation object object, and the selected object information. .

(付記23)
前記画像におけるコンテンツ領域及び非コンテンツ領域を検出する領域検出部と、
各前記コンテンツ領域及び各前記非コンテンツ領域の領域顕著性値を算出し、出力する領域顕著性算出部とを更に含み、
前記ユーザビリティ情報生成部は、各前記コンテンツ領域及び各前記非コンテンツ領域の顕著性値に基づいて、ユーザビリティ情報を生成し、出力する
付記19乃至22のいずれかに記載のユーザビリティ評価装置。
(Appendix 23)
An area detection unit for detecting a content area and a non-content area in the image;
A region saliency calculating unit that calculates and outputs a region saliency value for each of the content regions and each of the non-content regions;
The usability evaluation apparatus according to any one of appendices 19 to 22, wherein the usability information generation unit generates and outputs usability information based on the saliency values of the content areas and the non-content areas.

(付記24)
前記ユーザビリティ情報生成部は、予め定められた顕著性閾値を満足する前記要素顕著性値を有する単位要素の数と予め定められた単位要素個数とを比較した結果に基づいて、ユーザビリティ情報を生成し、出力する
付記19乃至23記載のユーザビリティ評価装置。
(Appendix 24)
The usability information generation unit generates usability information based on a result of comparing the number of unit elements having the element saliency value that satisfies a predetermined saliency threshold with a predetermined number of unit elements. The usability evaluation device according to appendices 19 to 23.

100 ユーザビリティ評価装置
110 入力部
120 処理部
121 顕著マップ作成部
122 ユーザビリティ情報生成部
130 出力部
200 ユーザビリティ評価装置
210 入力部
220 処理部
222 ユーザビリティ情報生成部
223 操作対象オブジェクト検出部
224 操作対象オブジェクト顕著性算出部
230 出力部
300 ユーザビリティ評価装置
310 入力部
320 処理部
322 ユーザビリティ情報生成部
325 注視位置予測部
330 出力部
400 ユーザビリティ評価装置
410 入力部
420 処理部
422 ユーザビリティ情報生成部
423 操作対象オブジェクト検出部
426 意味的類似度算出部
427 選択オブジェクト予測部
430 出力部
500 ユーザビリティ評価装置
510 入力部
520 処理部
522 ユーザビリティ情報生成部
528 非コンテンツ領域検出部
529 領域顕著性算出部
530 出力部
600 ユーザビリティ評価装置
G10 評価対象画像
M10 顕著マップ
M11 位置座標
M12 顕著性値
M20 顕著リスト
M21 操作対象オブジェクト識別子
M22 顕著性値
M50 コンテンツ領域顕著リスト
M51 非コンテンツ領域顕著リスト
M52 コンテンツ領域識別子
M53 コンテンツ領域顕著性値
M54 非コンテンツ領域識別子
M55 非コンテンツ領域顕著性値
P10 諸元情報
P40 諸元情報
P50 諸元情報
P53 領域識別子
Q40 ユーザ操作対象オブジェクト情報
S40 意味的類似度リスト
S42 意味的類似度値
W40 文字列
W41 文字列
DESCRIPTION OF SYMBOLS 100 Usability evaluation apparatus 110 Input part 120 Processing part 121 Remarkable map creation part 122 Usability information generation part 130 Output part 200 Usability evaluation apparatus 210 Input part 220 Processing part 222 Usability information generation part 223 Operation target object detection part 224 Operation target object saliency Calculation unit 230 Output unit 300 Usability evaluation device 310 Input unit 320 Processing unit 322 Usability information generation unit 325 Gaze position prediction unit 330 Output unit 400 Usability evaluation device 410 Input unit 420 Processing unit 422 Usability information generation unit 423 Operation target object detection unit 426 Semantic similarity calculation unit 427 selected object prediction unit 430 output unit 500 usability evaluation device 510 input unit 520 processing unit 5 2 Usability information generation unit 528 Non-content region detection unit 529 Region saliency calculation unit 530 Output unit 600 Usability evaluation apparatus G10 Evaluation target image M10 Saliency map M11 Position coordinates M12 Saliency value M20 Saliency list M21 Operation target object identifier M22 Saliency value M50 Content area saliency list M51 Non-content area saliency list M52 Content area identifier M53 Content area saliency value M54 Non-content area identifier M55 Non-content area saliency value P10 Specification information P40 Specification information P50 Specification information P53 Area identifier Q40 User Operation target object information S40 Semantic similarity list S42 Semantic similarity value W40 Character string W41 Character string

Claims (10)

画像の単位要素毎の顕著性を示す要素顕著性値に基づいて、前記画像内の特定部分に注意を引くことができるか否かを評価するためのユーザビリティ情報を生成し、出力するユーザビリティ情報生成部を有する
ユーザビリティ評価装置。
Usability information generation for generating and outputting usability information for evaluating whether or not attention can be drawn to a specific portion in the image based on an element saliency value indicating saliency for each unit element of the image Usability evaluation apparatus having a unit.
前記画像における操作対象オブジェクトを検出し、検出した前記操作対象オブジェクトの領域を示す情報を含む諸元情報を出力する操作対象オブジェクト検出部と、
前記諸元情報と前記要素顕著性値とに基づいて、前記操作対象オブジェクトの顕著性値に対応する操作対象オブジェクト顕著性値を算出し、出力する操作対象オブジェクト顕著性算出部とを更に含み、
前記ユーザビリティ情報生成部は、前記要素顕著性値と前記操作対象オブジェクト顕著性値とを比較した結果及び前記操作対象オブジェクト顕著性値を相互に比較した結果に基づいて、ユーザビリティ情報を生成し、出力する
請求項1記載のユーザビリティ評価装置。
An operation target object detection unit that detects an operation target object in the image and outputs specification information including information indicating a region of the detected operation target object;
An operation target object saliency calculation unit that calculates and outputs an operation target object saliency value corresponding to the saliency value of the operation target object based on the specification information and the element saliency value;
The usability information generation unit generates and outputs usability information based on a result of comparing the element saliency value and the operation target object saliency value and a result of comparing the operation target object saliency values with each other. The usability evaluation apparatus according to claim 1.
前記画像における操作対象オブジェクトを検出し、検出した前記操作対象オブジェクトの領域を示す情報を含む諸元情報を出力する操作対象オブジェクト検出部と、
ユーザの注視位置を予測して注視位置座標を検出する注視位置予測部とを更に含み、
前記ユーザビリティ情報生成部は、前記注視位置座標と前記操作対象オブジェクトの領域とに基づいて、ユーザビリティ情報を生成し、出力する
請求項1または2記載のユーザビリティ評価装置。
An operation target object detection unit that detects an operation target object in the image and outputs specification information including information indicating a region of the detected operation target object;
A gaze position prediction unit that predicts the gaze position of the user and detects gaze position coordinates;
The usability evaluation device according to claim 1, wherein the usability information generation unit generates and outputs usability information based on the gaze position coordinates and the region of the operation target object.
前記諸元情報は、前記操作対象オブジェクトに含まれる文字列情報を更に含み、
前記操作対象オブジェクト顕著性算出部は、前記操作対象オブジェクト顕著性値及びこれに対応する前記操作対象オブジェクトの識別子とを対応付けて出力し、
前記文字列情報とユーザの目的を表す文字列情報との意味的類似度を算出する意味的類似度算出部と、
前記意味的類似度に基づいて、前記操作対象オブジェクトの内からユーザが選択する選択対象オブジェクトを予測し、前記選択対象オブジェクトの識別子を含む選択オブジェクト情報を出力する選択オブジェクト判断部と、を更に含み
前記ユーザビリティ情報生成部は、前記操作対象オブジェクト顕著性値及びこれに対応する前記操作対象オブジェクトの識別子と前記選択オブジェクト情報とに基づいて、ユーザビリティ情報を生成し、出力する
請求項2記載のユーザビリティ評価装置。
The specification information further includes character string information included in the operation target object,
The operation target object saliency calculating unit associates and outputs the operation target object saliency value and the identifier of the operation target object corresponding to the operation target object saliency value,
A semantic similarity calculator that calculates the semantic similarity between the character string information and the character string information representing the purpose of the user;
A selection object determination unit that predicts a selection target object to be selected by the user from among the operation target objects based on the semantic similarity and outputs selection object information including an identifier of the selection target object; 3. The usability evaluation according to claim 2, wherein the usability information generation unit generates and outputs usability information based on the operation object saliency value, the identifier of the operation object corresponding to the operation object object, and the selected object information. apparatus.
前記画像におけるコンテンツ領域及び非コンテンツ領域を検出する領域検出部と、
各前記コンテンツ領域及び各前記非コンテンツ領域の領域顕著性値を算出し、出力する領域顕著性算出部とを更に含み、
前記ユーザビリティ情報生成部は、各前記コンテンツ領域及び各前記非コンテンツ領域の顕著性値に基づいて、ユーザビリティ情報を生成し、出力する
請求項1乃至4のいずれかに記載のユーザビリティ評価装置。
An area detection unit for detecting a content area and a non-content area in the image;
A region saliency calculating unit that calculates and outputs a region saliency value for each of the content regions and each of the non-content regions;
The usability evaluation apparatus according to claim 1, wherein the usability information generation unit generates and outputs usability information based on a saliency value of each content area and each non-content area.
前記ユーザビリティ情報生成部は、予め定められた顕著性閾値を満足する前記要素顕著性値を有する単位要素の数と予め定められた単位要素個数とを比較した結果に基づいて、ユーザビリティ情報を生成し、出力する
請求項1乃至5記載のユーザビリティ評価装置。
The usability information generation unit generates usability information based on a result of comparing the number of unit elements having the element saliency value that satisfies a predetermined saliency threshold with a predetermined number of unit elements. The usability evaluation apparatus according to any one of claims 1 to 5.
単位要素毎の顕著性を示す要素顕著性値に基づいて、前記画像内の特定部分に注意を引くことができるか否かを評価するための処理部がユーザビリティ情報を生成する
方法。
A method for generating usability information by a processing unit for evaluating whether or not attention can be drawn to a specific portion in the image based on an element saliency value indicating saliency for each unit element.
前記画像における操作対象オブジェクトを検出し、検出した前記操作対象オブジェクトの領域を示す情報を含む諸元情報を出力し、
前記諸元情報と前記要素顕著性値とに基づいて、前記操作対象オブジェクトの顕著性値に対応する操作対象オブジェクト顕著性値を算出し、出力し、
前記要素顕著性値と前記操作対象オブジェクト顕著性値とを比較した結果及び前記操作対象オブジェクト顕著性値を相互に比較した結果に基づいて、ユーザビリティ情報を生成する
請求項7記載の方法。
Detecting an operation target object in the image, outputting specification information including information indicating a region of the detected operation target object;
Based on the specification information and the element saliency value, calculate and output an operation target object saliency value corresponding to the saliency value of the operation target object,
The method according to claim 7, wherein usability information is generated based on a result of comparing the element saliency value and the operation target object saliency value and a result of comparing the operation target object saliency values with each other.
単位要素毎の顕著性を示す要素顕著性値に基づいて、前記画像内の特定部分に注意を引くことができるか否かを評価するための処理部がユーザビリティ情報を生成する処理を
コンピュータに実行させるプログラム。
Based on an element saliency value indicating saliency for each unit element, a processing unit for evaluating whether or not attention can be drawn to a specific part in the image executes processing for generating usability information on a computer Program to make.
前記画像における操作対象オブジェクトを検出し、検出した前記操作対象オブジェクトの領域を示す情報を含む諸元情報を出力し、
前記諸元情報と前記要素顕著性値とに基づいて、前記操作対象オブジェクトの顕著性値に対応する操作対象オブジェクト顕著性値を算出し、出力し、
前記要素顕著性値と前記操作対象オブジェクト顕著性値とを比較した結果及び前記操作対象オブジェクト顕著性値を相互に比較した結果に基づいて、ユーザビリティ情報を生成する処理を
コンピュータに実行させる請求項9記載のプログラム。
Detecting an operation target object in the image, outputting specification information including information indicating a region of the detected operation target object;
Based on the specification information and the element saliency value, calculate and output an operation target object saliency value corresponding to the saliency value of the operation target object,
The computer executes a process of generating usability information based on a result of comparing the element saliency value and the operation target object saliency value and a result of comparing the operation target object saliency values with each other. The listed program.
JP2010186247A 2010-08-23 2010-08-23 Usability evaluation device, method and program Withdrawn JP2012043357A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010186247A JP2012043357A (en) 2010-08-23 2010-08-23 Usability evaluation device, method and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010186247A JP2012043357A (en) 2010-08-23 2010-08-23 Usability evaluation device, method and program

Publications (1)

Publication Number Publication Date
JP2012043357A true JP2012043357A (en) 2012-03-01

Family

ID=45899545

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010186247A Withdrawn JP2012043357A (en) 2010-08-23 2010-08-23 Usability evaluation device, method and program

Country Status (1)

Country Link
JP (1) JP2012043357A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021533436A (en) * 2019-07-18 2021-12-02 北京市商▲湯▼科技▲開▼▲発▼有限公司Beijing Sensetime Technology Development Co., Ltd. Image processing methods, image processing devices, electronic devices, storage media and computer programs

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021533436A (en) * 2019-07-18 2021-12-02 北京市商▲湯▼科技▲開▼▲発▼有限公司Beijing Sensetime Technology Development Co., Ltd. Image processing methods, image processing devices, electronic devices, storage media and computer programs
JP7041284B2 (en) 2019-07-18 2022-03-23 北京市商▲湯▼科技▲開▼▲発▼有限公司 Image processing methods, image processing devices, electronic devices, storage media and computer programs

Similar Documents

Publication Publication Date Title
AU2018250370B2 (en) Weakly supervised model for object detection
US11244208B2 (en) Two-dimensional document processing
CN110674804A (en) Text image detection method and device, computer equipment and storage medium
US20200134313A1 (en) Detection method and detection device
Zhao et al. Recognition of building group patterns using graph convolutional network
JP6612487B1 (en) Learning device, classification device, learning method, classification method, learning program, and classification program
JP2007115193A (en) Electronic document comparison program, electronic document comparison device and electronic document comparison method
CN110490115B (en) Training method and device of face detection model, electronic equipment and storage medium
CN110210480A (en) Character recognition method, device, electronic equipment and computer readable storage medium
CN103688291A (en) Screen inspection device, screen inspection method and program
KR20120075626A (en) Apparatus and method for processing electric navigational chart in web-based service
Yu et al. An effective method for figures and tables detection in academic literature
JP2012043357A (en) Usability evaluation device, method and program
JP5895828B2 (en) Information processing apparatus and program
JP6476144B2 (en) Screen difference confirmation support device, screen difference confirmation support method, and program
CN106469437B (en) Image processing method and image processing apparatus
JP2022124681A (en) Tissue image analysis device, and tissue image analysis method
KR20220067387A (en) Method and system for analyzing layout of image
US8768060B2 (en) Image processing apparatus, image processing method and computer-readable medium
US11755195B2 (en) Ink data generation apparatus, method, and program
EP4361960A1 (en) Annotation device and annotation method
US20240135738A1 (en) Annotation device and annotation method
WO2015004730A1 (en) Search method and electronic device
Matidis et al. Detecting Text on Historical Maps by Selecting Best Candidates of Deep Neural Networks Output
CN116982073A (en) User input based interference removal in media items

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20131105