JP2012043357A - Usability evaluation device, method and program - Google Patents
Usability evaluation device, method and program Download PDFInfo
- Publication number
- JP2012043357A JP2012043357A JP2010186247A JP2010186247A JP2012043357A JP 2012043357 A JP2012043357 A JP 2012043357A JP 2010186247 A JP2010186247 A JP 2010186247A JP 2010186247 A JP2010186247 A JP 2010186247A JP 2012043357 A JP2012043357 A JP 2012043357A
- Authority
- JP
- Japan
- Prior art keywords
- target object
- saliency
- operation target
- usability
- unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Images
Abstract
Description
本発明は、ユーザビリティ評価装置、方法及びプログラムに関し、特に視覚的なユーザビリティを評価するユーザビリティ評価装置、方法及びプログラムに関する。 The present invention relates to a usability evaluation apparatus, method and program, and more particularly to a usability evaluation apparatus, method and program for evaluating visual usability.
ユーザビリティを評価する技術として、非特許文献1に記載された関連技術がある。非特許文献1に記載されたユーザビリティの評価方法は、操作対象オブジェクト上に書かれている文字とユーザの操作目的の意味的類似度を算出する手段と、算出した意味的類似度を用いてユーザビリティの問題点を抽出する手段を備えている。ユーザの操作目的は、例えば、「ユーザが、端末に入っているシフォンケーキのレシピを検索する」シーンを想定すると、「シフォンケーキのレシピを見る」である。
As a technique for evaluating usability, there is a related technique described in
意味的類似度を算出する手段では、操作対象オブジェクトのラベルの文字列とユーザの操作目的を表す文字列、または、操作対象オブジェクトのラベル間の意味的類似度を計算する。ユーザビリティの問題を抽出する手段では、例えば、操作対象オブジェクト間の意味的類似度の値が高い場合は、それらの操作対象オブジェクトを混同しやすい、と判断してユーザビリティに問題があると判断する。 In the means for calculating the semantic similarity, the semantic similarity between the character string of the label of the operation target object and the character string indicating the user's operation purpose or the label of the operation target object is calculated. In the means for extracting the usability problem, for example, when the value of the semantic similarity between the operation target objects is high, it is determined that the operation target objects are likely to be confused and the usability problem is determined.
非特許文献2には、入力画像の色、傾き及び線の分岐などの各特徴量に基づいて特徴マップを作成し、それらの特徴マップの顕著性を統合することで、Saliency Map (顕著マップ)を作成する技術が、記載されている。また、非特許文献2には、顕著マップ上で最も顕著性値の高い位置座標を検出することでユーザの注視位置座標を予測する技術が、記載されている。
In Non-Patent
非特許文献3には、非コンテンツ領域が付与されたウェブページから素性ベクトルを抽出し、それらからチャンキングによって非コンテンツ領域を検出するためのモデルを学習することで、ウェブページ内の非コンテンツ領域を自動的に検出する方法が記載されている。
In
また、特許文献1には、画像の表示領域から部分領域を特定し、これが所定条件を満足するか否かを判定する手段が記載されている。 Japanese Patent Application Laid-Open No. H10-228561 describes a means for specifying a partial area from an image display area and determining whether or not this satisfies a predetermined condition.
特許文献2には、画像を特徴量によって分類する技術が記載されている。
特許文献3には、画像データの特徴量を計算する手段が記載されている。
しかしながら、上述した先行技術文献に記載された技術においては、画面上のコンテンツのレイアウトや操作対象オブジェクトのデザインなど、画面に表示された画像の、視覚的な特徴に対するユーザビリティの評価ができないという問題があった。
(発明の目的)
本発明の目的は、上述した問題点を解決できるユーザビリティ評価装置、方法及びプログラムを提供することにある。
However, in the technology described in the above-described prior art documents, there is a problem that usability cannot be evaluated with respect to the visual characteristics of the image displayed on the screen, such as the layout of the content on the screen and the design of the operation target object. there were.
(Object of invention)
The objective of this invention is providing the usability evaluation apparatus, method, and program which can solve the problem mentioned above.
本発明のユーザビリティ評価システムは、画像の単位要素毎の顕著性を示す要素顕著性値に基づいて、前記画像内の特定部分に注意を引くことができるか否かを評価するためのユーザビリティ情報を生成し、出力するユーザビリティ情報生成手段を有する。 The usability evaluation system of the present invention provides usability information for evaluating whether or not attention can be drawn to a specific portion in the image based on an element saliency value indicating saliency for each unit element of the image. Usability information generating means for generating and outputting.
本発明の方法は、画像の単位要素毎の顕著性を示す要素顕著性値に基づいて、処理部が前記画像内の特定部分に注意を引くことができるか否かを評価するためのユーザビリティ情報を生成する。 According to the method of the present invention, usability information for evaluating whether a processing unit can draw attention to a specific portion in the image based on an element saliency value indicating saliency for each unit element of an image. Is generated.
本発明のプログラムは、画像の単位要素毎の顕著性を示す要素顕著性値に基づいて、処理部が前記画像内の特定部分に注意を引くことができるか否かを評価するためのユーザビリティ情報を生成する処理をコンピュータに実行させる。 The program of the present invention provides usability information for evaluating whether or not the processing unit can draw attention to a specific part in the image based on an element saliency value indicating saliency for each unit element of the image. Causes the computer to execute the process of generating
本発明は、画像の視覚的な特徴に対するユーザビリティを評価することが可能になるという効果を有する。 The present invention has an effect that it is possible to evaluate usability with respect to a visual feature of an image.
[第1の実施形態]
図1は、本発明の第1の実施形態の構成を示すブロック図である。図1に示すように、本実施形態に係るユーザビリティ評価装置100は、入力部110と、処理部120と、出力部130とを含む。
[First Embodiment]
FIG. 1 is a block diagram showing the configuration of the first exemplary embodiment of the present invention. As shown in FIG. 1, the
入力部110は、たとえば、キーボード及びマウスを含む入力デバイス、あるいはコンピュータを含むデータ入力装置であってもよい。
The
入力部110は、評価対象画像情報G10、顕著性閾値t及びピクセル(単位要素とも呼ばれる)個数nの入力を受け付け、画像情報G20と、顕著性閾値t及びピクセル個数nの情報を出力する。図2は、評価対象画像G10の例を示す図である。
The
画像情報G20は、例えば図2に示すような評価対象画像G10を、描画するためのデータである。具体的には、画像情報G20は、例えば、評価対象画像G10をピクセルに分割して各ピクセルの色や濃度を数値として表現したビットマップ画像の描画データである。 The image information G20 is data for drawing an evaluation target image G10 as shown in FIG. 2, for example. Specifically, the image information G20 is, for example, drawing data of a bitmap image in which the evaluation target image G10 is divided into pixels and the color and density of each pixel are expressed as numerical values.
顕著性閾値tは、評価対象画像G10中のピクセルが視覚的に顕著であるか否かを判定する基準を示し、例えば「0.31」などの値である。ピクセル個数nは、評価対象画像G10中のピクセルの内、視覚的な顕著性の値(後述の顕著性値M12に対応、要素顕著性値とも呼ぶ)が顕著性閾値t以上であるピクセル(以後、顕著ピクセルと呼ぶ)の数の上限値を示し、例えば「8000」などの値である。尚、ピクセル個数nは、評価対象画像G10中のピクセルの内、顕著ピクセルの割合の上限値で示すようにしても良い。 The saliency threshold t indicates a criterion for determining whether or not a pixel in the evaluation target image G10 is visually noticeable, and is a value such as “0.31”, for example. The pixel number n is a pixel having a visual saliency value (corresponding to a saliency value M12 described later, also referred to as an element saliency value) among the pixels in the evaluation target image G10 (hereinafter referred to as a saliency threshold t). , Called a salient pixel), for example, a value such as “8000”. The number of pixels n may be indicated by the upper limit value of the ratio of the salient pixels among the pixels in the evaluation target image G10.
処理部120は、顕著マップ作成部121と、ユーザビリティ情報生成部122とを含む。
処理部120は、中央処理装置(CPU)及びメモリ、ハードディスクを含むコンピュータで構成されていても良い。この場合、顕著マップ作成部121とユーザビリティ情報生成部122での各処理は、コンピュータの記憶媒体に記憶されたプログラムに基づいて実行されるものであってもよい。
The
The
顕著マップ作成部121は、入力部110から出力された画像情報G20を受け付け、この画像情報G20の各ピクセルの要素顕著性値である顕著性値M12を算出し、この顕著性値M12に基づいて図3に示すような顕著マップM10のデータを作成する。顕著マップ作成部121は、顕著マップM10をユーザビリティ情報生成部122に出力する。顕著性値M12は、ピクセルの視覚的な顕著性を示す情報である。ここで、顕著性値は、たとえば、画像の単位要素である各ピクセルの輝度・色・方向の特徴を示す値である。
The saliency
図3は、顕著マップM10のデータの一例を示す図である。図3に示すように、顕著マップM10は、画像情報G20中の各ピクセルの位置座標(x座標、y座標)M11(図示しない)と視覚的な顕著性値M12とを関連付けたデータである。図3に示す顕著マップM10は、例として、評価対象画像G10が「640×480」ピクセルの場合を示している。例えば、最上端かつ最左端のピクセルの位置座標M11は、x座標が「1」、y座標が「1」であり、顕著性値M12は、「0.01」である。また、最下端かつ最右端のピクセルの位置座標M11は、x座標が「640」、y座標が「480」であり、顕著性値M12は、「0.21」である。 FIG. 3 is a diagram illustrating an example of data of the saliency map M10. As shown in FIG. 3, the saliency map M10 is data in which the position coordinates (x coordinate, y coordinate) M11 (not shown) of each pixel in the image information G20 are associated with the visual saliency value M12. The saliency map M10 shown in FIG. 3 shows a case where the evaluation target image G10 has “640 × 480” pixels as an example. For example, regarding the position coordinates M11 of the uppermost and leftmost pixels, the x coordinate is “1”, the y coordinate is “1”, and the saliency value M12 is “0.01”. Further, the position coordinate M11 of the lowermost and rightmost pixel has an x coordinate of “640”, a y coordinate of “480”, and a saliency value M12 of “0.21”.
尚、人間のボトムアップ性の視覚的注意は、一般的に、画像中の視覚的な顕著性値が高い位置に誘導されると考えられている。 Note that it is generally considered that the human bottom-up visual attention is guided to a position in the image where the visual saliency value is high.
図4は、評価対象画像G10の顕著マップM10を画像として表した顕著マップ画像の例である。 FIG. 4 is an example of a saliency map image representing the saliency map M10 of the evaluation target image G10 as an image.
図5は、顕著マップ作成部121における顕著マップM10の作成の動作を示すフローチャートである。
FIG. 5 is a flowchart showing an operation of creating the saliency map M10 in the saliency
顕著マップ作成部121は、入力された画像情報G20に対して画像フィルターをかけて色、輝度及び方向などの各特徴を抽出し、各特徴の特徴マップM13(図示しない)を作成する(ステップS111)。
The saliency
次に、顕著マップ作成部121は、各特徴マップM13を正規化する(ステップS112)。
Next, the saliency
次に、顕著マップ作成部121は、正規化した各特長マップを統合して、顕著マップM10を作成し、ユーザビリティ情報生成部122に出力する(ステップS113)。
Next, the saliency
顕著マップ作成部121の例として、非特許文献2に記述されている顕著マップの作成手段が挙げられる。
As an example of the saliency
この文献に記述されている顕著性ベース注視モデルの顕著マップM10の作成手順は次の通りである。 The procedure for creating the saliency map M10 of the saliency-based gaze model described in this document is as follows.
まず、顕著性ベース注視モデルは、入力された評価対象画像G10にガウシアンフィルタを適用してガウシアンピラミッドを作成する(以後、このガウシアンピラミッドを構成する複数の画像をスケール画像G30(図示しない)と呼ぶ)。 First, the saliency-based gaze model creates a Gaussian pyramid by applying a Gaussian filter to the input evaluation target image G10 (hereinafter, a plurality of images constituting the Gaussian pyramid are referred to as a scale image G30 (not shown)). ).
次に、顕著性ベース注視モデルは、スケール画像G30各々の特徴(輝度・色・方向)を計算し、各スケール画像G30の特徴(輝度・色・方向)の値を保持する画像G31(図示しない)を作成する。 Next, the saliency-based gaze model calculates the characteristics (luminance / color / direction) of each scale image G30, and holds the values of the characteristics (luminance / color / direction) of each scale image G30 (not shown). ).
次に、顕著性ベース注視モデルは、特徴(輝度・色・方向)毎の画像G31のスケール間の差分を計算し、算出した差分情報を保持する特徴マップM13を作成する。 Next, the saliency-based gaze model calculates a difference between the scales of the image G31 for each feature (brightness, color, direction), and creates a feature map M13 that holds the calculated difference information.
次に、顕著性ベース注視モデルは、特徴毎にマップを統合するために特徴マップM13を正規化し、特徴毎にマップを統合した画像G33(図示しない)を作成する。 Next, the saliency-based gaze model normalizes the feature map M13 in order to integrate the maps for each feature, and creates an image G33 (not shown) in which the maps are integrated for each feature.
最後に、顕著性ベース注視モデルは、画像G33を正規化して1つのマップに統合して顕著マップM10を得る。 Finally, the saliency-based gaze model normalizes the image G33 and integrates it into one map to obtain a saliency map M10.
これは顕著マップM10の作成手段の1例であり、顕著マップM10を作成する方法はこれに限らない。 This is an example of means for creating the saliency map M10, and the method for creating the saliency map M10 is not limited to this.
評価対象画像G10の視覚的顕著性を表すマップが作成できればよいため、顕著マップ作成処理では、図5に示したフローの処理の一部を省略してもよい。具体的には、例えば、特徴マップM13の正規化のステップを省略してもよい。 Since it is sufficient that a map representing the visual saliency of the evaluation target image G10 can be created, a part of the process of the flow shown in FIG. 5 may be omitted in the saliency map creation process. Specifically, for example, the step of normalizing the feature map M13 may be omitted.
ユーザビリティ情報生成部122は、顕著マップM10の各ピクセルの顕著性値M12に基づいて、評価対象画像内の特定部分に注意を引くことができるか否かを評価するためのユーザビリティ情報を生成する。
The usability
具体的には、ユーザビリティ情報生成部122は、例えば、顕著ピクセルの個数が、ピクセル個数n以上か否かに基づいて、ユーザビリティ情報を生成する。ユーザビリティ情報生成部122は、顕著ピクセルの個数がピクセル個数n以上存在するか否かを判断する。そして、ユーザビリティ情報生成部122は、顕著ピクセルの個数がピクセル個数n以上存在すると判断した場合、「顕著ピクセル過多の問題あり(ユーザに掛かる認知負荷が大きいこと)」を示すユーザビリティ情報を生成する。また、ユーザビリティ情報生成部122は、顕著ピクセルの個数がピクセル個数n未満であると判断した場合、「顕著ピクセル過多の問題なし」を示すユーザビリティ情報を生成し、出力部130に出力する。
Specifically, the usability
また、ユーザビリティ情報生成部122は、例えば、複数の顕著性閾値t毎に各顕著性閾値t以上の顕著性値M12を有するピクセルの個数が、ピクセル個数n以上か否かに基づいて、より詳細なユーザビリティ情報を生成してもよい。具体的には、ユーザビリティ情報生成部122は、ユーザビリティの問題大、問題中、問題小及び問題なしをそれぞれ判定するための4つの顕著性閾値tに基づいて、各顕著性閾値tと顕著性値M12とを比較する。次に、ユーザビリティ情報生成部122は、各顕著性閾値t以上の顕著性値M12を有するピクセルの個数が、それぞれピクセル個数n(nは、顕著性閾値ごとに異なるものとする)以上か否かに基づいて、ユーザビリティの問題大、問題中、問題小及び問題なしを示すユーザビリティ情報を生成し、出力部130に出力する。
In addition, the usability
また、ユーザビリティ情報生成部122は、例えば、顕著ピクセルの個数とピクセル個数nの比率に基づいて、ユーザビリティ情報を生成してもよい。具体的には、ユーザビリティ情報生成部122は、顕著ピクセルの個数の、ピクセル個数nに対する比率を100分率で表した数値をユーザビリティ情報として生成する。
In addition, the usability
尚、顕著性閾値tとピクセル個数nのデータは、入力部110から供給されるのではなく、ユーザビリティ情報生成部122に予め設定されていてもよい。
Note that the saliency threshold value t and the pixel number n data are not supplied from the
出力部130は、処理部120の処理結果を表示する表示装置を含む。処理結果は、例えば、上述のユーザビリティ情報のほかに、入力部110で入力した評価対象画像G10上にその画像情報G20から求めた顕著マップM10の顕著性値M12を重ね合わせた図(重ね画像)を含む。この場合、ユーザビリティ情報生成部122は、ユーザビリティ情報と、評価対象画像G10の画像情報G20の上に顕著マップM10を重ね合わせた画像の情報(この情報も、ユーザビリティ情報とも呼ばれる)とを、出力部130に送信することが望ましい。
The output unit 130 includes a display device that displays the processing result of the
また、出力部130は、処理結果として画像情報G20と顕著マップM10の顕著性値M12とを処理部120から入力し、それらを重ね合わせた画像を生成し表示してもよい。
Further, the output unit 130 may input the image information G20 and the saliency value M12 of the saliency map M10 as the processing result from the
次に、図1〜3を参照して本実施形態の動作について詳細に説明する。 Next, the operation of this embodiment will be described in detail with reference to FIGS.
図6は、本実施形態の処理部120の動作の一例を示すフローチャートである。
FIG. 6 is a flowchart illustrating an example of the operation of the
図6に示す動作に先立って、入力部110は、画像情報G20の入力を受け付け、処理部120の顕著マップ作成部121に送信する。また、入力部110は、顕著性閾値t及びピクセル個数nの値の入力を受け付け、処理部120のユーザビリティ情報生成部122に送信する。
Prior to the operation shown in FIG. 6, the
処理部120の顕著マップ作成部121は、画像情報G20を受信したことを契機に動作を開始する。
The saliency
最初に、処理部120の顕著マップ作成部121は、画像情報G20の各ピクセルの顕著性値M12を算出し、算出した顕著性値M12に基づいて顕著マップM10を作成する。続けて、顕著マップ作成部121は、作成した顕著マップM10をユーザビリティ情報生成部122に送信する(ステップS101)。
First, the saliency
ユーザビリティ情報生成部122は、顕著マップM10を受信し、この顕著マップM10について、顕著ピクセルの個数が、ピクセル個数n以上か否かを決定する(ステップS102)。
The usability
顕著ピクセルの個数がピクセル個数n以上である場合(ステップS102でYES)、ユーザビリティ情報生成部122は、顕著ピクセル過多の問題ありを示すユーザビリティ情報を生成する(ステップS103)。
If the number of salient pixels is greater than or equal to the number of pixels n (YES in step S102), the usability
顕著ピクセルの個数がピクセル個数n未満である場合(ステップS102でNO)、ユーザビリティ情報生成部122は、顕著ピクセル過多の問題なしを示すユーザビリティ情報を生成する(ステップS104)。
When the number of remarkable pixels is less than the number of pixels n (NO in step S102), the usability
次に、ユーザビリティ情報生成部122は、ステップS103またはステップS104のいずれかで生成されたユーザビリティ情報と評価対象画像G10の上に顕著マップM10を描いた図(この情報も、ユーザビリティ情報とも呼ばれる)とを、出力部130に送信する(ステップS105)。
Next, the usability
以上で処理部120の動作は終了し、これら一連の動作に続いて、出力部130は、受信したユーザビリティ情報と評価対象画像G10の上に顕著マップM10を重ねて描いた図とを、表示する。
With the above, the operation of the
上述の表示を確認することで、ユーザビリティ評価装置100の使用者は、ユーザの視覚的注意を誘導しやすい位置が多数存在して、ユーザに必要以上の認知負荷をかけてしまう設計になっていないか否かのユーザビリティを評価する。
By confirming the above-described display, the user of the
上述した本実施形態における効果は、画像の視覚的な特徴に対するユーザビリティを評価することが可能になる点である。即ち、本実施形態によれば、画面上のコンテンツのレイアウトや操作対象オブジェクトのデザインなど、画面上に表示された画像の、視覚的な特徴に対するユーザビリティを評価することが可能になる。 The effect in the present embodiment described above is that it is possible to evaluate the usability with respect to the visual characteristics of the image. That is, according to this embodiment, it is possible to evaluate the usability of the image displayed on the screen, such as the layout of the content on the screen and the design of the operation target object, with respect to the visual features.
その理由は、評価対象画像G10の顕著性値M12を算出し、算出した顕著性値M12に基づいて、顕著ピクセルの個数が予め定められたピクセル個数以上であるか否かを判断してユーザビリティ情報を生成するようにしたからである。
[第2の実施形態]
次に、本発明の第2の実施形態について図面を参照して詳細に説明する。
The reason is that the saliency value M12 of the evaluation target image G10 is calculated, and based on the calculated saliency value M12, it is determined whether or not the number of saliency pixels is greater than or equal to a predetermined number of pixels. It is because it was made to produce | generate.
[Second Embodiment]
Next, a second embodiment of the present invention will be described in detail with reference to the drawings.
図7は、本実施形態の構成を示すブロック図である。図7に示すように、本実施形態に係るユーザビリティ評価装置200は、入力部210と、処理部220と、出力部230とを含む。
FIG. 7 is a block diagram showing the configuration of the present embodiment. As shown in FIG. 7, the
入力部210は、第1の実施形態で説明した入力部110と同等である。
The
処理部220は、顕著マップ作成部121と、画面上の操作対象オブジェクトを検出する操作対象オブジェクト検出部223と、操作対象オブジェクト顕著性算出部224と、ユーザビリティ情報生成部222とを備える。操作対象オブジェクト検出部223と、操作対象オブジェクト顕著性算出部224と、ユーザビリティ情報生成部222とは、中央処理装置(CPU)及びメモリ、ハードディスクを含むコンピュータで構成されていても良い。この場合、各処理は、コンピュータの記憶媒体に記憶されたプログラムに基づいて実行されるものであってもよい。
The
顕著マップ作成部121は、第1の実施形態で説明したものと同等である。
The saliency
操作対象オブジェクト検出部223は、入力部210から受信した画像情報G20の情報(第1の実施形態で説明したビットマップ画像の描画データやHTML(HyperText Markup Language)で記述された画面表示のデータなど)を参照して画面上の1つ或いは複数の操作対象オブジェクトを検出する。そして、操作対象オブジェクト検出部223は、検出した操作対象オブジェクトの図8に示すような諸元情報P10として、各操作対象オブジェクトの少なくとも位置座標M11を取得し、更に、操作対象オブジェクトの幅及び高さの情報を取得(発生)し、取得した諸元情報P10を操作対象オブジェクト顕著性算出部224に送信する。図8は、諸元情報P10の一例を示す図である。図8に示すように、諸元情報P10は、操作対象オブジェクト識別子M21と位置座標M11と幅と高さとを含む。
The operation target
操作対象オブジェクト検出部223は、ユーザビリティ評価者による入力に基づいて操作対象オブジェクトを検出し、諸元情報P10を取得するようにしてもよい。また、操作対象オブジェクト検出部223は、画像情報G20から自動的に操作対象オブジェクトを検出し、諸元情報P10を取得するようにしてもよい。
The operation target
操作対象オブジェクトを手動で入力する手段の場合、例えば、入力部210と出力部230とは、そのためのインターフェースを有してもよい。具体的には、出力部230が評価対象画像G10を表示し、入力部210が、マウスで範囲指定された、評価対象画像G10上のボタン領域の情報を受け付ける。次に、操作対象オブジェクト検出部223は、入力部210が受け付けたボタン領域の情報に基づいて、操作対象オブジェクトの位置座標M11、幅、高さを含む諸元情報P10を取得する。
In the case of means for manually inputting an operation target object, for example, the
操作対象オブジェクトを自動で検出する手段の場合、操作対象オブジェクト検出部223は、例えば、HTMLで記述された画面表示のデータを参照して操作対象オブジェクトを検出する。具体的には、操作対象オブジェクト検出部223は、例えば、HTMLで記述された画面表示のデータ内からリンクの記述部分である開始タグ<a href=“ “>と終了タグ</a>の記述(文字列)を検出する。そして、操作対象オブジェクト検出部223は、検出された開始タグと終了タグの間に記述されている文字列W10(図示しない)を抽出し、これを操作対象オブジェクトとして検出する。次に、操作対象オブジェクト検出部223は、検出した操作対象オブジェクトである文字列W10の位置座標M11、幅、高さを含む諸元情報P10を取得し、出力する。
In the case of means for automatically detecting an operation target object, the operation target
これらは操作対象オブジェクト検出部223の動作の1例であり、諸元情報P10を取得する方法はこれに限らない。
These are examples of the operation of the operation target
操作対象オブジェクト顕著性算出部224は、図9に示すような顕著リストM20を生成する。
The operation target object
図9は、顕著リストM20のデータの一例を示す図である。図9に示すように顕著リストM20は、操作対象オブジェクト識別子M21と顕著性値M22とを対応付けた組を1つ以上含む。操作対象オブジェクト顕著性算出部224は、顕著マップ作成部121からの顕著マップM10と操作対象オブジェクト検出部223からの諸元情報P10とに基づいて、各操作対象オブジェクトの顕著性値M22を算出し、顕著リストM20を生成する。例えば、操作対象オブジェクト顕著性算出部224は、諸元情報P10に対応する操作対象オブジェクト領域の各ピクセルにおける顕著性値M12の最大値を検出し、その最大値を操作対象オブジェクトの顕著性値M22とする。
FIG. 9 is a diagram illustrating an example of data of the saliency list M20. As shown in FIG. 9, the saliency list M20 includes one or more sets in which the operation target object identifier M21 and the saliency value M22 are associated with each other. The operation target object
ユーザビリティ情報生成部222は、操作対象オブジェクト顕著性算出部224からの、各操作対象オブジェクトの顕著性値M22に基づいて、ユーザビリティ情報を生成する。
The usability
まず、ユーザビリティ情報生成部222は、例えば、操作対象オブジェクトの顕著性値M22と、操作対象オブジェクト以外の領域の顕著性値M12の内の最大の顕著性値M12とを比較する。操作対象オブジェクトの顕著性値M22が操作対象オブジェクト以外の領域の内の最大の顕著性値M12以下の場合、ユーザビリティ情報生成部222は、「操作対象オブジェクト以外領域に対する操作対象オブジェクトの顕著性に問題あり」を示すユーザビリティ情報を生成する。また、操作対象オブジェクトの顕著性値M22が操作対象オブジェクト以外の領域の顕著性値M12の内の最大の顕著性値M12を超える場合、ユーザビリティ情報生成部222は、「操作対象オブジェクト以外領域に対する操作対象オブジェクトの顕著性に問題なし」を示すユーザビリティ情報を生成する。
First, the usability
尚、ユーザビリティ情報生成部222は、操作対象オブジェクト以外の領域の顕著性値M12の内の最大の顕著性値M12に替えて、この最大の顕著性値M12に予め定められた値を加算した数値と操作対象オブジェクトの顕著性値M22とを比較するようにしてもよい。
The usability
更に、ユーザビリティ情報生成部222は、顕著性値M22を相互に比較する。いずれかの顕著性値M22間の差が予め定められた差分閾値d以上の場合、ユーザビリティ情報生成部222は操作対象オブジェクト間の顕著性差分に問題ありを示すユーザビリティ情報を生成する。顕著性値M22間の差が予め定められた差分閾値d未満の場合、ユーザビリティ情報生成部222は操作対象オブジェクト間の顕著性差分に問題なしを示すユーザビリティ情報を生成する。
Further, the usability
尚、ユーザビリティ情報生成部222は、更に、第1の実施形態のユーザビリティ情報生成部122と同様に顕著ピクセルの個数がピクセル個数に基づく、ユーザビリティ情報を生成してもよい。
Note that the usability
出力部230は、処理部220の処理結果を表示する。処理結果は、上述のユーザビリティ情報、各操作対象オブジェクトの顕著性値M22及び評価対象画像G10上にその評価対象画像G10の顕著性値M12を重ね合わせた図(この情報も、ユーザビリティ情報とも呼ばれる)である。
The
次に、図7〜図10を参照して本実施形態の動作について詳細に説明する。尚、以下に示す本実施形態の動作の説明において、第1の実施形態で説明した動作は、本実施形態の動作の説明が不明確にならない範囲内で、省略する。 Next, the operation of the present embodiment will be described in detail with reference to FIGS. In the following description of the operation of the present embodiment, the operation described in the first embodiment is omitted within a range that does not obscure the description of the operation of the present embodiment.
図10は、本実施形態の処理部220の動作を示すフローチャートである。
FIG. 10 is a flowchart showing the operation of the
図10に示す動作に先立って、入力部210は、画像情報G20の入力を受け付け、これを顕著マップ作成部121及び操作対象オブジェクト検出部223に送信する。
Prior to the operation shown in FIG. 10, the
まず、顕著マップ作成部121は、第1の実施形態と同様に、顕著マップM10を作成する。続けて、顕著マップ作成部121は、作成した顕著マップM10をユーザビリティ情報生成部222及び操作対象オブジェクト顕著性算出部224に送信する(ステップS201)。
First, the saliency
次に、操作対象オブジェクト検出部223は、受信した画像情報G20内の操作対象オブジェクトを検出し、検出した各操作対象オブジェクトの諸元情報P10を操作対象オブジェクト顕著性算出部224に送信する(ステップS202)。
Next, the operation target
次に、操作対象オブジェクト顕著性算出部224は、顕著マップM10と、操作対象オブジェクトの諸元情報P10とを受信し、これらに基づいて各操作対象オブジェクトの視覚的な顕著性値M22を算出し、顕著リストM20を生成する。そして、操作対象オブジェクト顕著性算出部224は、生成した顕著リストM20をユーザビリティ情報生成部222に送信する(ステップS203)。
Next, the operation target object
次に、ユーザビリティ情報生成部222は、顕著マップM10、及び顕著リストM20を受信する。続けて、ユーザビリティ情報生成部222は、操作対象オブジェクトの顕著性値M22と、操作対象オブジェクト以外の領域の顕著性値M12の内の最大の顕著性値M12とを比較する(ステップS204)。
Next, the usability
そして、操作対象オブジェクトの顕著性値M22が、操作対象オブジェクト以外の領域の顕著性値M12の内の、最大の顕著性値M12以下の場合(ステップS204でYES)、ユーザビリティ情報生成部222は、操作対象オブジェクト以外領域に対する操作対象オブジェクトの顕著性に問題ありを示すユーザビリティ情報を生成し、これを出力部230に送信する(ステップS205)。
When the saliency value M22 of the operation target object is equal to or smaller than the maximum saliency value M12 among the saliency values M12 of the region other than the operation target object (YES in step S204), the usability
また、操作対象オブジェクトの顕著性値M22が、操作対象オブジェクト以外の領域の顕著性値M12の内の、最大の顕著性値M12を超えている場合(ステップS204でNO)、ユーザビリティ情報生成部222は、操作対象オブジェクト以外領域に対する操作対象オブジェクトの顕著性に問題なしを示すユーザビリティ情報を生成し、これを出力部230に送信する(ステップS206)。
When the saliency value M22 of the operation target object exceeds the maximum saliency value M12 among the saliency values M12 of the region other than the operation target object (NO in step S204), the usability
次に、ユーザビリティ情報生成部222は、図9に示す顕著性値M22を相互に比較する(ステップS207)。
Next, the usability
そして、顕著性値M22間の差が予め定められた差分閾値d以上の場合(ステップS206でYES)、ユーザビリティ情報生成部222は、操作対象オブジェクト間の顕著性差分に問題ありを示すユーザビリティ情報を生成し、これを出力部230に送信する(ステップS208)。
When the difference between the saliency values M22 is equal to or greater than a predetermined difference threshold d (YES in step S206), the usability
また、顕著性値M22間の差が予め定められた差分閾値d未満の場合(ステップS206でNO)、ユーザビリティ情報生成部222は、操作対象オブジェクト間の顕著性差分に問題なしを示すユーザビリティ情報を生成し、これを出力部230に送信する(ステップS209)。
When the difference between the saliency values M22 is less than the predetermined difference threshold d (NO in step S206), the usability
次に、ユーザビリティ情報生成部222は、顕著リストM20と評価対象画像G10の上に対応する顕著マップM10を描いた図(この情報も、ユーザビリティ情報とも呼ばれる)とを生成し、出力部230に送信する(ステップS209)。
Next, the usability
以上で処理部220の動作は終了し、これら一連の動作に続いて出力部230は、上述のユーザビリティ情報と、顕著リストM20と、その評価対象画像G10の上に対応する顕著マップM10とを描いた図を表示する。
With the above, the operation of the
上述の表示を確認することで、ユーザビリティ評価装置200の使用者は、操作対象オブジェクトにユーザの注意が向けられるようになっているか否かを評価する。
By confirming the above display, the user of the
上述した本実施形態における効果は、第1の実施形態の効果に加え、操作対象オブジェクトにユーザの視覚的注意が誘導されるようになっているか否かを評価することが可能になる点である。 The effect of the present embodiment described above is that it is possible to evaluate whether or not the user's visual attention is guided to the operation target object in addition to the effect of the first embodiment. .
その理由は、画面全域の顕著性値M12と画面上の各操作対象オブジェクトの顕著性値M22とを比較し、更に操作対象オブジェクトの相互間の顕著性値M22を比較してユーザビリティ情報を生成するようにしたからである。
[第3の実施形態]
次に、本発明の第3の実施形態について図面を参照して詳細に説明する。
図11は、本発明の第3の実施形態の構成を示すブロック図である。図11に示すように、本実施形態に係るユーザビリティ評価装置300は、入力部310と、処理部320と、出力部330とを含む。
入力部310は、第1の実施形態で説明した入力部110と同等である。
The reason is that the usability information is generated by comparing the saliency value M12 of the entire screen with the saliency value M22 of each operation target object on the screen, and further comparing the saliency value M22 between the operation target objects. It was because it did so.
[Third Embodiment]
Next, a third embodiment of the present invention will be described in detail with reference to the drawings.
FIG. 11 is a block diagram showing the configuration of the third exemplary embodiment of the present invention. As shown in FIG. 11, the
The
処理部320は、顕著マップ作成部121と注視位置予測部325と操作対象オブジェクト検出部223とユーザビリティ情報生成部322とを備える。顕著マップ作成部121と操作対象オブジェクト検出部223とは、第1及び第2の実施形態で説明したものと同等である。
The
注視位置予測部325は、顕著マップM10を参照し、ユーザの注視が誘導される位置座標M11を予測し、その予測結果を送信する。一般的に、ユーザの注視は、顕著性値M12の最も高い場所に誘導される。そこでまず、注視位置予測部325は、例えば、顕著マップM10の顕著性値M12の内の最も高い顕著性値M12を注視顕著性値M32(図示しない)とする。続けて、注視位置予測部325は、この注視顕著性値M32を有するピクセルの位置座標M11を注視位置座標C30(図示しない)として検出する。そして、注視位置予測部325は、この注視位置座標C30を予測結果として送信する。この注視位置座標C30が、ユーザの注視が誘導される位置であるとする。
The gaze
また、例えば、注視位置予測部325は、以下のようにして注視位置座標C30を検出してもよい。まず、注視位置予測部325は、各ピクセルの顕著性値M12から、そのピクセルに隣接するピクセルそれぞれの顕著性値M12を差し引いた差分の平均値M35(図示しない)を算出する。次に、注視位置予測部325は、平均値M35の内の最も高い平均値M35を有するピクセルの位置座標M11を注視位置座標C30として検出する。
For example, the gaze
ユーザビリティ情報生成部322は、ユーザの注視位置座標C30と操作対象オブジェクト検出部223から受信した諸元情報P10に基づいてユーザビリティ情報を抽出する。
The usability
具体的には、ユーザビリティ情報生成部322は、諸元情報P10に基づいて、注視位置座標C30が操作対象オブジェクトの領域内であるか否かを判定する。注視位置座標C30が操作対象オブジェクトの領域内ならば、ユーザビリティ情報生成部322は、操作対象オブジェクト対注視位置関係に問題なしを示すユーザビリティ情報を生成する。即ち、問題なしを示すユーザビリティ情報は、ユーザの注視位置が操作対象オブジェクトに誘導される設計になっていることを示している。また、注視位置座標C30が操作対象オブジェクトの領域外ならば、ユーザビリティ情報生成部322は、操作対象オブジェクト対注視位置関係に問題ありを示すユーザビリティ情報を生成する。
尚、ユーザビリティ情報生成部322は、注視位置座標C30が予め定められた領域内か否かを、判定してもよい。
また、ユーザビリティ情報生成部322は、更に、第1の実施形態のユーザビリティ情報生成部122及び第2の実施形態のユーザビリティ情報生成部222と同様のユーザビリティ情報を生成してもよい。
Specifically, the usability
Note that the usability
Further, the usability
次に図12を参照して本実施形態の動作について詳細に説明する。尚、以下に示す本実施形態の動作の説明において、第1及び第2の実施形態で説明した動作は、本実施形態の動作の説明が不明確にならない範囲内で、省略する。図12は、本実施形態の処理部320の動作を示すフローチャートである。
Next, the operation of this embodiment will be described in detail with reference to FIG. In the following description of the operation of the present embodiment, the operations described in the first and second embodiments are omitted within a range where the description of the operation of the present embodiment is not ambiguous. FIG. 12 is a flowchart showing the operation of the
図12に示す動作に先立って、入力部310は、画像情報G20を入力し、これを顕著マップ作成部121及び操作対象オブジェクト検出部223に送信する。
Prior to the operation shown in FIG. 12, the
まず、顕著マップ作成部121は、第1の実施形態と同様に、顕著マップM10を作成する。続けて、顕著マップ作成部121は、作成した顕著マップM10を注視位置予測部325に送信する(ステップS301)。
First, the saliency
次に、注視位置予測部325は、受信した顕著マップM10内の、最大の顕著性値M12を保持する注視位置座標C30(図示しない)を検出する。続けて、注視位置予測部325は、注視位置座標C30と顕著マップM10とをユーザビリティ情報生成部322に送信する(ステップS302)。
Next, the gaze
次に、操作対象オブジェクト検出部223は、第2の実施形態と同様に、受信した画像情報G20内の操作対象オブジェクトを検出し、検出した各操作対象オブジェクトの諸元情報P10を取得する。続けて、操作対象オブジェクト検出部223は、この諸元情報P10をユーザビリティ情報生成部322に送信する(ステップS303)。
Next, as in the second embodiment, the operation target
次に、ユーザビリティ情報生成部322は、受信した諸元情報P10と注視位置座標C30とに基づいて、注視位置座標C30が操作対象オブジェクトの領域内か否かを調べる(ステップS311)。
Next, the usability
そして、注視位置座標C30が操作対象オブジェクト領域内の場合(ステップS311でYES)、ユーザビリティ情報生成部322は、「操作対象オブジェクト対注視位置関係に問題なし」を示すユーザビリティ情報を生成し、これを出力部330に送信する(ステップS312)。
When the gaze position coordinate C30 is within the operation target object area (YES in step S311), the usability
また、注視位置座標C30が操作対象オブジェクト領域外の場合(ステップS311でNO)、ユーザビリティ情報生成部322は、「操作対象オブジェクト対注視位置関係に問題あり」を示すユーザビリティ情報を生成し、これを出力部330に送信する(ステップS313)。
Further, when the gaze position coordinate C30 is outside the operation target object area (NO in step S311), the usability
以上で処理部320の動作は終了する。これら一連の動作に続いて出力部330は、上述のユーザビリティ情報と顕著リストM20と注視位置座標C30と注視顕著性値M32と評価対象画像G10上にその評価対象画像G10に対応する顕著マップM10を描いた図(この情報も、ユーザビリティ情報とも呼ばれる)とを表示する(ステップS314)。
Thus, the operation of the
上述の表示を確認することで、ユーザビリティ評価装置300の使用者は、操作対象オブジェクトにユーザの注意が向けられるようになっているか否かを評価する。
By confirming the above-described display, the user of the
上述した本実施形態における効果は、第1及び第2の実施形態の効果に加え、操作対象オブジェクトにユーザの視覚的注意が誘導されているようになっているか否かを評価することが可能になる点である。
その理由は、ユーザビリティ情報生成部322が、諸元情報P10に基づいて、注視位置座標C30が操作対象オブジェクトの領域内であるか否かを判定するようにしたからである。
[第4の実施形態]
次に、本発明の第4の実施形態について図面を参照して詳細に説明する。
In addition to the effects of the first and second embodiments, the effect of the present embodiment described above can evaluate whether or not the user's visual attention is guided to the operation target object. It is a point.
This is because the usability
[Fourth Embodiment]
Next, a fourth embodiment of the present invention will be described in detail with reference to the drawings.
図13は、本実施形態の構成を示すブロック図である。図13に示すように、本実施形態に係るユーザビリティ評価装置400は、入力部410と、処理部420と、出力部430とを含む。
FIG. 13 is a block diagram showing a configuration of the present embodiment. As illustrated in FIG. 13, the
入力部410は、第1の実施形態で説明した入力部110の機能及び、入力されたユーザの目的を表す文字列W40を受け取り、送信する機能を有する。
The input unit 410 has the function of the
処理部420は、顕著マップ作成部121と操作対象オブジェクト検出部423と注視位置予測部325と操作対象オブジェクト顕著性算出部224と意味的類似度算出部426と選択オブジェクト予測部427とユーザビリティ情報生成部422とを備える。
The
顕著マップ作成部121と操作対象オブジェクト顕著性算出部224と注視位置予測部325とは、第1から第3の実施形態で説明したものと同等である。
The saliency
操作対象オブジェクト検出部423は、受信した画像情報G20内の操作対象オブジェクトを検出する。そして、操作対象オブジェクト検出部423は、検出した操作対象オブジェクトの少なくとも位置座標M11、幅、高さ及びその操作対象オブジェクト内に表記されている文字列W41を、諸元情報P40として取得し、送信する。図14は、諸元情報P40の一例を示す図である。図14に示すように、諸元情報P40は、操作対象オブジェクト識別子M21と位置座標M11と幅と高さと文字列W41とを含む。
意味的類似度算出部426は、入力部410から受信したユーザの目的を表す文字列W40と、操作対象オブジェクト検出部423から受信した操作対象オブジェクトの諸元情報P40中の文字列W41とに基づいて、ユーザの目的と操作対象オブジェクトの意味的類似度を計算する。そして、意味的類似度算出部426は、図15に示すような意味的類似度リストS40を作成する。
図15は、意味的類似度リストS40のデータの一例を示す図である。図15に示すように、意味的類似度リストS40は、ユーザの目的を表す文字列W40と操作対象オブジェクト識別子M21とその操作対象オブジェクト識別子M21で示される操作対象オブジェクト内に表記されている文字列W41と計算した意味的類似度値S42とを対応付けた組を1つ以上含む。
The operation target object detection unit 423 detects an operation target object in the received image information G20. Then, the operation target object detection unit 423 acquires at least the position coordinates M11, the width and the height of the detected operation target object, and the character string W41 written in the operation target object as the specification information P40, and transmits it. To do. FIG. 14 is a diagram illustrating an example of the specification information P40. As shown in FIG. 14, the specification information P40 includes an operation target object identifier M21, a position coordinate M11, a width, a height, and a character string W41.
The semantic similarity calculation unit 426 is based on the character string W40 representing the purpose of the user received from the input unit 410 and the character string W41 in the specification information P40 of the operation target object received from the operation target object detection unit 423. Then, the user's purpose and the semantic similarity between the operation target objects are calculated. Then, the semantic similarity calculation unit 426 creates a semantic similarity list S40 as shown in FIG.
FIG. 15 is a diagram illustrating an example of data in the semantic similarity list S40. As shown in FIG. 15, the semantic similarity list S40 includes a character string W40 representing the user's purpose, an operation target object identifier M21, and a character string written in the operation target object indicated by the operation target object identifier M21. One or more sets in which W41 is associated with the calculated semantic similarity value S42 are included.
意味的類似度の計算方法の1例として、非特許文献2に記述されている潜在意味解析(LSA:Latent Semantic Analysis)が挙げられる。LSAでは、文字列W40及び文字列W41をそれぞれ意味空間内のベクトルとして表し、これらのベクトルの成す角の余弦を計算することで文字列W40及び文字列W41間の意味的類似度を得る。意味的類似度の値は、文字列W40及び文字列W41のそれぞれに含まれる語の、語間の類似度が高いほど、高い値になる。
選択オブジェクト予測部427は、意味的類似度算出部426が作成した意味的類似度リストS40に基づいて、ユーザが選択すると予測される操作対象オブジェクトを抽出し、送信する。具体的には、選択オブジェクト予測部427は、意味的類似度リストS40に含まれる意味的類似度値S42の内で最大の意味的類似度値S42に対応する操作対象オブジェクト識別子M21を、ユーザが選択すると予測される操作対象オブジェクトの操作対象オブジェクト識別子M21として抽出する。続けて、選択オブジェクト予測部427は、この抽出された操作対象オブジェクト識別子M21で示される操作対象オブジェクトの操作対象オブジェクト識別子M21、位置座標M11、高さ及び幅を、図16に示すような、ユーザが操作すると予測されるユーザ操作対象オブジェクト情報Q40として抽出し、送信する。図16は、ユーザが操作すると予測されるユーザ操作対象オブジェクト情報Q40の一例を示す図である。
As an example of the method for calculating the semantic similarity, there is a latent semantic analysis (LSA) described in
Based on the semantic similarity list S40 created by the semantic similarity calculation unit 426, the selected
ユーザビリティ情報生成部422は、、操作対象オブジェクト顕著性算出部224からの顕著リストM20(図9)と、ユーザが選択すると予測されるユーザ操作対象オブジェクト情報Q40とに基づいて、ユーザビリティ情報を生成する。具体的には、例えば、ユーザビリティ情報生成部422は、顕著リストM20に含まれる顕著性値M22内の、最大の顕著性値M22に対応する操作対象オブジェクト識別子M21と、ユーザが選択すると予測されるユーザ操作対象オブジェクト情報Q40の操作対象オブジェクト識別子M21と、が同一であるか否かを判定する。同一である場合、ユーザビリティ情報生成部422は、操作対象オブジェクトの一致性に問題なしを示すユーザビリティ情報を生成する。同一でない場合、ユーザビリティ情報生成部422は、操作対象オブジェクトの一致性に問題ありを示すユーザビリティ情報を生成する。
The usability information generation unit 422 generates usability information based on the saliency list M20 (FIG. 9) from the operation target object
尚、ユーザビリティ情報生成部422は、更に、第1の実施形態のユーザビリティ情報生成部122及び第2の実施形態のユーザビリティ情報生成部222と同様のユーザビリティ情報を生成してもよい。
Note that the usability information generation unit 422 may further generate usability information similar to the usability
出力部430は、処理部420の処理結果を表示する。処理結果は、例えば、上述のユーザビリティ情報、評価対象画像G10上にその画像情報G20から求めた顕著性値M12とユーザ操作対象オブジェクト情報Q40とを重ね合わせた図(この情報も、ユーザビリティ情報とも呼ばれる)、顕著リストM20(この情報も、ユーザビリティ情報とも呼ばれる)及び意味的類似度リストS40(この情報も、ユーザビリティ情報とも呼ばれる)などである。
The output unit 430 displays the processing result of the
次に、図17を参照して本実施形態の動作について詳細に説明する。尚、以下に示す本実施形態の動作の説明において、第1乃至第3の実施形態で説明した動作は、本実施形態の動作の説明が不明確にならない範囲で省略する。 Next, the operation of this embodiment will be described in detail with reference to FIG. In the following description of the operation of the present embodiment, the operations described in the first to third embodiments are omitted to the extent that the description of the operation of the present embodiment is not ambiguous.
図17は、本実施形態の処理部420の動作を示すフローチャートである。
FIG. 17 is a flowchart showing the operation of the
図17に示す動作に先立って、入力部410は、画像情報G20とユーザの目的を表す文字列W40の入力を受け取り、顕著マップ作成部121及び操作対象オブジェクト検出部423及び意味的類似度算出部426に送信する。
Prior to the operation shown in FIG. 17, the input unit 410 receives the input of the image information G20 and the character string W40 representing the user's purpose, and the saliency
ステップS401の動作は、第3の実施形態のステップS301と同等である。 The operation in step S401 is equivalent to step S301 in the third embodiment.
次に、操作対象オブジェクト検出部423は、受信した画像情報G20内の操作対象オブジェクトを検出する。そして、操作対象オブジェクト検出部423は、検出した各操作対象オブジェクトの諸元情報P40を取得し、これらを操作対象オブジェクト顕著性算出部224及び意味的類似度算出部426に送信する(ステップS403)。
Next, the operation target object detection unit 423 detects the operation target object in the received image information G20. Then, the operation target object detection unit 423 acquires the specification information P40 of each detected operation target object, and transmits them to the operation target object
次に、操作対象オブジェクト顕著性算出部224は、第2の実施形態と同様に、顕著リストM20を生成する。そして、操作対象オブジェクト顕著性算出部224は、生成した顕著リストM20をユーザビリティ情報生成部422に送信する(ステップS404)。
Next, the operation target object
次に、意味的類似度算出部426は、受信した諸元情報P40とユーザの目的を表す文字列W40とに基づいて、操作対象オブジェクト内に表記されている文字列W41と文字列W40との意味的類似度を算出して意味的類似度リストS40を作成し、選択オブジェクト予測部427に送信する(ステップS405)。 Next, the semantic similarity calculation unit 426 calculates the character string W41 and the character string W40 written in the operation target object based on the received specification information P40 and the character string W40 representing the user's purpose. The semantic similarity is calculated to create a semantic similarity list S40, and is transmitted to the selected object prediction unit 427 (step S405).
次に、選択オブジェクト予測部427は、受信した意味的類似度リストS40に基づいて、ユーザ操作対象オブジェクト情報Q40を抽出する。そして、選択オブジェクト予測部427は、抽出したユーザ操作対象オブジェクト情報Q40と意味的類似度リストS40とをユーザビリティ情報生成部422に送信する(ステップS406)。
Next, the selected
次に、ユーザビリティ情報生成部422は、顕著マップM10、顕著リストM20、意味的類似度リストS40及びユーザ操作対象オブジェクト情報Q40を受信する。続けて、ユーザビリティ情報生成部422は、ユーザ操作対象オブジェクト情報Q40に含まれる操作対象オブジェクト識別子M21と、顕著リストM20に含まれる顕著性値M22の内の、最大の顕著性値M22に対応する操作対象オブジェクト識別子M21と、の二つの操作対象オブジェクト識別子M21が同一であるか否かを判定する(ステップS407)。 Next, the usability information generation unit 422 receives the saliency map M10, the saliency list M20, the semantic similarity list S40, and the user operation target object information Q40. Subsequently, the usability information generating unit 422 operates corresponding to the maximum saliency value M22 among the operation target object identifier M21 included in the user operation target object information Q40 and the saliency value M22 included in the saliency list M20. It is determined whether or not the two operation target object identifiers M21 and the target object identifier M21 are the same (step S407).
そして、二つの操作対象オブジェクト識別子M21が同一の場合(ステップS407でYES)、ユーザビリティ情報生成部422は、ユーザ操作対象オブジェクト誘導性に問題なしを示すユーザビリティ情報を生成し、これを出力部430に送信する(ステップS408)。
また、二つの操作対象オブジェクト識別子M21が同一でない場合(ステップS407でNO)、ユーザ操作対象オブジェクト誘導性に問題ありを示すユーザビリティ情報を生成し、これを出力部430に送信する(ステップS409)。
If the two operation target object identifiers M21 are the same (YES in step S407), the usability information generation unit 422 generates usability information indicating that there is no problem in the user operation target object inductivity, and outputs this to the output unit 430. Transmit (step S408).
If the two operation target object identifiers M21 are not the same (NO in step S407), usability information indicating that there is a problem with the user operation target object inductivity is generated and transmitted to the output unit 430 (step S409).
以上で処理部420の動作は終了し、これら一連の動作に続いて出力部430は、上述のユーザビリティ情報を表示する。また、出力部430は、評価対象画像G10上にその評価対象画像G10に対応する顕著マップM10ユーザ操作対象オブジェクト情報Q40を描いた図を表示してもよい。また、出力部430は、意味的類似度リストS40や顕著リストM20などを表示してもよい(ステップS410)。
Thus, the operation of the
上述の表示を確認することで、ユーザビリティ評価装置400の使用者は、ユーザが選択し操作する操作対象オブジェクトにユーザの注意が向けられるようになっているか否かを評価する。
By confirming the above display, the user of the
上述した本実施形態における効果は、第1、第2及び第3の実施形態の効果に加え、ユーザが選択し操作すると予測される操作対象オブジェクトに、ユーザの視覚的注意が誘導されるようになっているか否かを評価することが可能になる点である。
その理由は、操作対象オブジェクト内に表記されている文字列W41とユーザの目的を表す文字列W40との意味的類似度を算出してユーザが選択する操作対象オブジェクトを予測し、この予測した操作対象オブジェクトが最大の顕著性値M22に対応する操作対象オブジェクトであるか否かを判定してユーザビリティ情報を生成するようにしたからである。
[第5の実施形態]
次に、本発明の第5の実施形態について図面を参照して詳細に説明する。
In addition to the effects of the first, second, and third embodiments, the effects of the present embodiment described above are such that the user's visual attention is guided to the operation target object that is predicted to be selected and operated by the user. It is possible to evaluate whether or not.
The reason is that the operation target object selected by the user is predicted by calculating the semantic similarity between the character string W41 written in the operation target object and the character string W40 representing the user's purpose, and the predicted operation This is because it is determined whether the target object is the operation target object corresponding to the maximum saliency value M22, and usability information is generated.
[Fifth Embodiment]
Next, a fifth embodiment of the present invention will be described in detail with reference to the drawings.
図18は、本実施形態の構成を示すブロック図である。図18に示すように、本実施形態に係るユーザビリティ評価装置500は、入力部510と、処理部520と、出力部530とを含む。
FIG. 18 is a block diagram showing a configuration of the present embodiment. As illustrated in FIG. 18, the
入力部510は、第1の実施形態で説明した入力部110と同等である。
The
処理部520は、顕著マップ作成部121と、非コンテンツ領域検出部528と、各領域顕著性算出部529と、ユーザビリティ情報生成部522とを含む。顕著マップ作成部121は、第1の実施形態で説明したものと同等である。
The
非コンテンツ領域検出部528は、入力部510から受信した画像情報G20について、有用な情報を含まない非コンテンツ領域を検出する。そして、非コンテンツ領域検出部528は、評価対象画像G10全域をコンテンツ領域と非コンテンツ領域とに分ける諸元情報P50を生成する。図19は、諸元情報P50の一例を示す図である。図19に示すように諸元情報P50は、画像情報G20中の各ピクセルの位置座標(x座標、y座標)M11と領域識別子P53とを関連付けた情報である。図19に示す諸元情報P50は、例として、評価対象画像G10が「640×480」ピクセルの場合を示している。例えば、最上端かつ最左端のピクセルの位置座標M11は、x座標が「1」、y座標が「1」であり、領域識別子P53は、「4」である。また、最下端かつ最右端のピクセルの位置座標M11は、x座標が「640」、y座標が「480」であり、領域識別子P53は、「5」である。
The non-content
非コンテンツ領域検出方法の例として、非特許文献3に記載された手法がある。この非コンテンツ領域検出手法は、まず、ウェブページをテキストユニットに分解し、各ユニットが非コンテンツ領域か否かを人が判断して入力し、学習のための教師データを作成する。そして、この非コンテンツ領域検出手法は、作成した教師データを使って教師あり学習を行い、チャンキングモデルを生成することで非コンテンツ領域を自動的に検出する。
As an example of the non-content region detection method, there is a method described in
これは非コンテンツ領域検出部528の一例であり、非コンテンツ領域を検出する手段はこれに限らない。
This is an example of the non-content
領域顕著性算出部529は、顕著マップM10と諸元情報P50とに基づいて各領域の顕著性値(後述するコンテンツ領域顕著性値M53及び非コンテンツ領域顕著性値M55)を算出する。領域顕著性算出部529は、例えば、領域内の各ピクセルが保持する顕著性値M12の総和をその領域の顕著性値とすることで、各領域の顕著性値を算出する。そして、領域顕著性算出部529は、図20に示すようなコンテンツ領域顕著リストM50と図21に示すような非コンテンツ領域顕著リストM51を作成する。
The area
図20は、コンテンツ領域顕著リストM50のデータの一例を示す図である。図20に示すようにコンテンツ領域顕著リストM50は、コンテンツ領域識別子M52とコンテンツ領域顕著性値M53とを対応付けた組を1つ以上含む。図21は、非コンテンツ領域顕著リストM51のデータの一例とを示す図である。図21に示すように非コンテンツ領域顕著リストM51は非コンテンツ領域識別子M54と非コンテンツ領域顕著性値M55とを対応付けた組を1つ以上含む。 FIG. 20 is a diagram illustrating an example of data in the content area salient list M50. As shown in FIG. 20, the content area saliency list M50 includes one or more sets in which the content area identifier M52 and the content area saliency value M53 are associated with each other. FIG. 21 is a diagram illustrating an example of data of the non-content area saliency list M51. As shown in FIG. 21, the non-content area saliency list M51 includes one or more sets in which the non-content area identifier M54 and the non-content area saliency value M55 are associated with each other.
ユーザビリティ情報生成部522は、コンテンツ領域顕著リストM50及び非コンテンツ領域顕著リストM51に基づいて、ユーザビリティ情報を生成する。
The usability
まず、ユーザビリティ情報生成部522は、例えば、各コンテンツ領域顕著性値M53と各非コンテンツ領域顕著性値M55とを比較する。非コンテンツ領域顕著性値M55のいずれかが、コンテンツ領域顕著性値M53のいずれか以上の場合、ユーザビリティ情報生成部522は、異種領域顕著性差に問題ありを示すユーザビリティ情報を生成する。また、全ての非コンテンツ領域顕著性値M55がいずれのコンテンツ領域顕著性値M53未満の場合、ユーザビリティ情報生成部522は、異種領域顕著性差に問題なしを示すユーザビリティ情報を生成する。
尚、ユーザビリティ情報生成部522は、コンテンツ領域顕著性値M53に替えて、予め定められた数値と非コンテンツ領域とを比較するようにしてもよい。同様に、ユーザビリティ情報生成部522は、非コンテンツ領域顕著性値M55に替えて、予め定められた数値とコンテンツ領域顕著性値M53とを比較するようにしてもよい。
First, the usability
Note that the usability
更に、ユーザビリティ情報生成部522は、コンテンツ領域顕著性値M53どうしを相互に比較する。比較した結果、コンテンツ領域顕著性値M53間の差のいずれかが予め定められた差分閾値d以上の場合、ユーザビリティ情報生成部522はコンテンツ領域顕著性差に問題ありを示すユーザビリティ情報を生成する。コンテンツ領域顕著性値M53間の差の全てが予め定められた差分閾値d未満の場合、ユーザビリティ情報生成部522はコンテンツ領域顕著性差に問題なしを示すユーザビリティ情報を生成する。
Furthermore, the usability
尚、ユーザビリティ情報生成部522は、更に、ユーザビリティ情報生成部122と同様のユーザビリティ情報を生成してもよい。
Note that the usability
また、本実施形態は、第2の実施形態、第3の実施形態及び第4の実施形態のいずれを含むようにしても良い。 Further, the present embodiment may include any of the second embodiment, the third embodiment, and the fourth embodiment.
出力部530は、処理部520の処理結果を表示する。処理結果は、上述のユーザビリティ情報、評価対象画像G10上にその評価対象画像G10のコンテンツ領域と非コンテンツ領域とを描いた図(この情報も、ユーザビリティ情報とも呼ばれる)、及びコンテンツ領域顕著リストM50(この情報も、ユーザビリティ情報とも呼ばれる)、非コンテンツ領域顕著リストM51(この情報も、ユーザビリティ情報とも呼ばれる)などである。
The
次に、図18から図22を参照して本実施形態の動作について詳細に説明する。尚、以下に示す本実施形態の動作の説明において、第1の実施形態で説明した動作は、本実施形態の動作の説明が不明確にならない範囲内で、省略する。 Next, the operation of the present embodiment will be described in detail with reference to FIGS. In the following description of the operation of the present embodiment, the operation described in the first embodiment is omitted within a range that does not obscure the description of the operation of the present embodiment.
図22は、本実施形態の処理部520の動作を示すフローチャートである。
FIG. 22 is a flowchart showing the operation of the
図22に示す動作に先立って、入力部510は、画像情報G20の入力を受け付け、これを顕著マップ作成部121及び非コンテンツ領域検出部528に送信する。
Prior to the operation illustrated in FIG. 22, the
まず、顕著マップ作成部121は、第1の実施形態と同様に、顕著マップM10を作成する。続けて、顕著マップ作成部121は、作成した顕著マップM10をユーザビリティ情報生成部522及び領域顕著性算出部529に送信する(ステップS501)。
First, the saliency
次に、非コンテンツ領域検出部528は、受信した画像情報G20内の非コンテンツ領域を検出し、非コンテンツ領域及びそれ以外のコンテンツ領域の諸元情報P50を操作対象オブジェクト顕著性算出部224に送信する(ステップS502)。
Next, the non-content
次に、領域顕著性算出部529は、顕著マップM10と諸元情報P50とに基づいて各コンテンツ領域顕著性値M53及び非コンテンツ領域顕著性値M55を算出してコンテンツ領域顕著リストM50、非コンテンツ領域顕著リストM51を作成し、ユーザビリティ情報生成部522に送信する(ステップS503)。
Next, the region
次に、ユーザビリティ情報生成部522は、顕著マップM10、コンテンツ領域顕著リストM50及び非コンテンツ領域顕著リストM51を受信する。続けて、ユーザビリティ情報生成部522は、コンテンツ領域顕著性値M53と非コンテンツ領域顕著性値M55とを比較する(ステップS504)。
Next, the usability
そして、非コンテンツ領域顕著性値M55のいずれかが、コンテンツ領域顕著性値M53のいずれか以上の場合(ステップS504でYES)、ユーザビリティ情報生成部522は、異種領域顕著性差に問題ありを示すユーザビリティ情報を生成し、これを出力部530に送信する(ステップS505)。
If any of the non-content area saliency values M55 is greater than or equal to any of the content area saliency values M53 (YES in step S504), the usability
また、全ての非コンテンツ領域顕著性値M55が、いずれのコンテンツ領域顕著性値M53未満の場合(ステップS504でNO)、ユーザビリティ情報生成部522は、異種領域顕著性差に問題なしを示すユーザビリティ情報を生成し、これを出力部530に送信する(ステップS506)。
When all the non-content area saliency values M55 are less than any of the content area saliency values M53 (NO in step S504), the usability
次に、ユーザビリティ情報生成部522は、コンテンツ領域顕著性値M53を相互に比較する(ステップS507)。
Next, the usability
そして、コンテンツ領域顕著性値M53間の差が予め定められた差分閾値d以上の場合(ステップS506でYES)、ユーザビリティ情報生成部522は、コンテンツ領域顕著性差に問題ありを示すユーザビリティ情報を生成し、これを出力部530に送信する(ステップS508)。
When the difference between the content area saliency values M53 is greater than or equal to a predetermined difference threshold d (YES in step S506), the usability
また、コンテンツ領域顕著性値M53間の差が予め定められた差分閾値d未満の場合(ステップS506でNO)、ユーザビリティ情報生成部522は、コンテンツ領域顕著性差に問題なしを示すユーザビリティ情報を生成し、これを出力部530に送信する(ステップS509)。
When the difference between the content area saliency values M53 is less than the predetermined difference threshold d (NO in step S506), the usability
次に、ユーザビリティ情報生成部522は、評価対象画像G10の上に対応する顕著マップM10とコンテンツ領域と非コンテンツ領域とを描いた図を生成する。続けて、ユーザビリティ情報生成部522は、コンテンツ領域顕著リストM50と非コンテンツ領域顕著リストM51と生成した図とを出力部530に送信する(ステップS510)。
Next, the usability
以上で処理部520の動作は終了し、これら一連の動作に続いて出力部530は、受信したユーザビリティ情報を表示する。また、出力部530は、受信したコンテンツ領域顕著リストM50と、非コンテンツ領域顕著リストM51と、評価対象画像G10上にその評価対象画像G10のコンテンツ領域と非コンテンツ領域とを描いた図を表示する。
Thus, the operation of the
上述の表示を確認することで、ユーザビリティ評価装置500の使用者は、非コンテンツ領域にユーザの注意が誘導されないか否かを評価する。
By confirming the above-described display, the user of the
上述した本実施形態における効果は、第1の実施形態の効果に加え、非コンテンツ領域にユーザの注意が誘導されるか否かを評価することが可能になる点である。 The effect in the present embodiment described above is that it is possible to evaluate whether or not the user's attention is guided to the non-content area in addition to the effect of the first embodiment.
その理由は、画面全域内の非コンテンツ領域を検出し、コンテンツ領域と非コンテンツ領域の顕著性を比較してユーザビリティ情報を生成するようにしたからである。
[第6の実施形態]
次に、本発明の第6の実施形態について図面を参照して詳細に説明する。
This is because the non-content area in the entire screen is detected, and the usability information is generated by comparing the saliency between the content area and the non-content area.
[Sixth Embodiment]
Next, a sixth embodiment of the present invention will be described in detail with reference to the drawings.
図23は、本実施形態の構成を示すブロック図である。図23に示すように、本実施形態に係るユーザビリティ評価装置600は、ユーザビリティ情報生成部122を含む。
FIG. 23 is a block diagram showing a configuration of the present embodiment. As shown in FIG. 23, the usability evaluation device 600 according to this embodiment includes a usability
ユーザビリティ情報生成部122は、例えば図2に示すような評価対象画像G10の、図3に示すような顕著マップM10に含まれる、単位要素(例えば、ピクセル)毎の顕著性値M12に基づいて、評価対象画像G10のユーザビリティ情報を生成する。尚、例えば、図3に示す顕著マップM10は、メモリ(図示しない)上に、図示しない手段によって展開されていてもよい。
The usability
上述した本実施形態における効果は、画像の視覚的な特徴に対するユーザビリティを評価することが可能になる点である。 The effect in the present embodiment described above is that it is possible to evaluate the usability with respect to the visual characteristics of the image.
その理由は、評価対象画像G10の顕著性値M12に基づいて、評価対象画像に注意を向けるべきか否かを評価するためのユーザビリティ情報を生成するようにしたからである。
[実施形態の変形]
以上の各実施形態は、それぞれの一部或いは全部を組み合わせて変形してもよい。例えば、実施形態3の処理部320に操作対象オブジェクト顕著性算出部224を追加し、ユーザビリティ情報生成部322は、第2の実施形態のユーザビリティ情報生成部222と同様のユーザビリティ情報を生成するようにしてもよい。また、例えば第4の実施形態の処理部420に注視位置予測部325を追加し、ユーザビリティ情報生成部422は、第3の実施形態のユーザビリティ情報生成部322と同様のユーザビリティ情報を生成するようにしてもよい。
This is because usability information for evaluating whether or not attention should be directed to the evaluation target image is generated based on the saliency value M12 of the evaluation target image G10.
[Modification of Embodiment]
Each of the above embodiments may be modified by combining some or all of them. For example, the operation target object
以上の各実施形態で説明した各構成要素は、例えば、CPU(Central Processing Unit)と記憶媒体とを含むコンピュータによって構成されても良い。この場合、記憶媒体は、コンピュータによって各構成要素を機能させるためのプログラムを記憶してもよい。 Each component described in each of the above embodiments may be configured by, for example, a computer including a CPU (Central Processing Unit) and a storage medium. In this case, the storage medium may store a program for causing each component to function by a computer.
以上の各実施形態で説明した各構成要素は、必ずしも個々に独立した存在である必要はない。例えば、各構成要素は、複数の構成要素が1個のモジュールとして実現されたり、一つの構成要素が複数のモジュールで実現されたりしてもよい。また、各構成要素は、ある構成要素が他の構成要素の一部であったり、ある構成要素の一部と他の構成要素の一部とが重複していたり、といったような構成であってもよい。 Each component described in each of the above embodiments does not necessarily have to be individually independent. For example, for each component, a plurality of components may be realized as one module, or one component may be realized as a plurality of modules. Each component is configured such that a component is a part of another component, or a part of a component overlaps a part of another component. Also good.
また、以上説明した各実施形態では、複数の動作をフローチャートの形式で順番に記載してあるが、その記載の順番は複数の動作を実行する順番を限定するものではない。このため、各実施形態を実施するときには、その複数の動作の順番は内容的に支障しない範囲で変更することができる。 Further, in each of the embodiments described above, a plurality of operations are described in order in the form of a flowchart, but the described order does not limit the order in which the plurality of operations are executed. For this reason, when each embodiment is implemented, the order of the plurality of operations can be changed within a range that does not hinder the contents.
更に、以上説明した各実施形態では、複数の動作は個々に相違するタイミングで実行されることに限定されない。例えば、ある動作の実行中に他の動作が発生したり、ある動作と他の動作との実行タイミングが部分的に乃至全部において重複していたりしていてもよい。 Furthermore, in each embodiment described above, a plurality of operations are not limited to being executed at different timings. For example, another operation may occur during the execution of a certain operation, or the execution timing of a certain operation and another operation may partially or entirely overlap.
更に、以上説明した各実施形態では、ある動作が他の動作の契機になるように記載しているが、その記載はある動作と他の動作の全ての関係を限定するものではない。このため、各実施形態を実施するときには、その複数の動作の関係は内容的に支障のない範囲で変更することができる。また各構成要素の各動作の具体的な記載は、各構成要素の各動作を限定するものではない。このため、各構成要素の具体的な各動作は、各実施形態を実施する上で機能的、性能的、その他の特性に対して支障をきたさない範囲内で変更されて良い。 Furthermore, in each of the embodiments described above, a certain operation is described as a trigger for another operation, but the description does not limit all relationships between the certain operation and the other operations. For this reason, when each embodiment is implemented, the relationship between the plurality of operations can be changed within a range that does not hinder the contents. The specific description of each operation of each component does not limit each operation of each component. For this reason, each specific operation | movement of each component may be changed in the range which does not cause trouble with respect to a functional, performance, and other characteristic in implementing each embodiment.
尚、以上説明した各実施形態における各構成要素は、必要に応じ可能であれば、ハードウェアで実現されても良いし、ソフトウェアで実現されても良いし、ハードウェアとソフトウェアの混在により実現されても良い。 Each component in each embodiment described above may be realized by hardware, software, or a mixture of hardware and software, if necessary. May be.
また、各構成要素の物理的な構成は、以上の実施形態の記載に限定されることはなく、独立して存在しても良いし、組み合わされて存在しても良いしまたは分離して構成されても良い。 Further, the physical configuration of each component is not limited to the description of the above embodiment, and may exist independently, may exist in combination, or may be configured separately. May be.
上記の実施形態の一部または全部は、以下の付記のようにも記載されうるが、以下には限られない。 A part or all of the above-described embodiment can be described as in the following supplementary notes, but is not limited thereto.
(付記1)
画像の単位要素毎の顕著性を示す要素顕著性値に基づいて、前記画像内の特定部分に注意を引くことができるか否かを評価するためのユーザビリティ情報を生成し、出力するユーザビリティ情報生成部を有する
ユーザビリティ評価装置。
(Appendix 1)
Usability information generation for generating and outputting usability information for evaluating whether or not attention can be drawn to a specific portion in the image based on an element saliency value indicating saliency for each unit element of the image Usability evaluation apparatus having a unit.
(付記2)
前記画像における操作対象オブジェクトを検出し、検出した前記操作対象オブジェクトの領域を示す情報を含む諸元情報を出力する操作対象オブジェクト検出部と、
前記諸元情報と前記要素顕著性値とに基づいて、前記操作対象オブジェクトの顕著性値に対応する操作対象オブジェクト顕著性値を算出し、出力する操作対象オブジェクト顕著性算出部とを更に含み、
前記ユーザビリティ情報生成部は、前記要素顕著性値と前記操作対象オブジェクト顕著性値とを比較した結果及び前記操作対象オブジェクト顕著性値を相互に比較した結果に基づいて、ユーザビリティ情報を生成し、出力する
付記1記載のユーザビリティ評価装置。
(Appendix 2)
An operation target object detection unit that detects an operation target object in the image and outputs specification information including information indicating a region of the detected operation target object;
An operation target object saliency calculation unit that calculates and outputs an operation target object saliency value corresponding to the saliency value of the operation target object based on the specification information and the element saliency value;
The usability information generation unit generates and outputs usability information based on a result of comparing the element saliency value and the operation target object saliency value and a result of comparing the operation target object saliency values with each other. The usability evaluation apparatus according to
(付記3)
前記画像における操作対象オブジェクトを検出し、検出した前記操作対象オブジェクトの領域を示す情報を含む諸元情報を出力する操作対象オブジェクト検出部と、
ユーザの注視位置を予測して注視位置座標を検出する注視位置予測部とを更に含み、
前記ユーザビリティ情報生成部は、前記注視位置座標と前記操作対象オブジェクトの領域とに基づいて、ユーザビリティ情報を生成し、出力する
付記1または2記載のユーザビリティ評価装置。
(Appendix 3)
An operation target object detection unit that detects an operation target object in the image and outputs specification information including information indicating a region of the detected operation target object;
A gaze position prediction unit that predicts the gaze position of the user and detects gaze position coordinates;
The usability evaluation device according to
(付記4)
前記諸元情報は、前記操作対象オブジェクトに含まれる文字列情報を更に含み、
前記操作対象オブジェクト顕著性算出部は、前記操作対象オブジェクト顕著性値及びこれに対応する前記操作対象オブジェクトの識別子とを対応付けて出力し、
前記文字列情報とユーザの目的を表す文字列情報との意味的類似度を算出する意味的類似度算出部と、
前記意味的類似度に基づいて、前記操作対象オブジェクトの内からユーザが選択する選択対象オブジェクトを予測し、前記選択対象オブジェクトの識別子を含む選択オブジェクト情報を出力する選択オブジェクト判断部と、を更に含み
前記ユーザビリティ情報生成部は、前記操作対象オブジェクト顕著性値及びこれに対応する前記操作対象オブジェクトの識別子と前記選択オブジェクト情報とに基づいて、ユーザビリティ情報を生成し、出力する
付記2記載のユーザビリティ評価装置。
(Appendix 4)
The specification information further includes character string information included in the operation target object,
The operation target object saliency calculating unit associates and outputs the operation target object saliency value and the identifier of the operation target object corresponding to the operation target object saliency value,
A semantic similarity calculator that calculates the semantic similarity between the character string information and the character string information representing the purpose of the user;
A selection object determination unit that predicts a selection target object to be selected by the user from among the operation target objects based on the semantic similarity and outputs selection object information including an identifier of the selection target object; The usability evaluation device according to
(付記5)
前記画像におけるコンテンツ領域及び非コンテンツ領域を検出する領域検出部と、
各前記コンテンツ領域及び各前記非コンテンツ領域の領域顕著性値を算出し、出力する領域顕著性算出部とを更に含み、
前記ユーザビリティ情報生成部は、各前記コンテンツ領域及び各前記非コンテンツ領域の顕著性値に基づいて、ユーザビリティ情報を生成し、出力する
付記1乃至4のいずれかに記載のユーザビリティ評価装置。
(Appendix 5)
An area detection unit for detecting a content area and a non-content area in the image;
A region saliency calculating unit that calculates and outputs a region saliency value for each of the content regions and each of the non-content regions;
The usability evaluation device according to any one of
(付記6)
前記ユーザビリティ情報生成部は、予め定められた顕著性閾値を満足する前記要素顕著性値を有する単位要素の数と予め定められた単位要素個数とを比較した結果に基づいて、ユーザビリティ情報を生成し、出力する
付記1乃至5記載のユーザビリティ評価装置。
(Appendix 6)
The usability information generation unit generates usability information based on a result of comparing the number of unit elements having the element saliency value that satisfies a predetermined saliency threshold with a predetermined number of unit elements. The usability evaluation apparatus according to
(付記7)
メモリ上に展開された画像の顕著性を示す単位要素毎の要素顕著性値に基づいて、前記画像内の特定部分に注意を引くことができるか否かを評価するための処理部がユーザビリティ情報を生成する
方法。
(Appendix 7)
A processing unit for evaluating whether or not attention can be drawn to a specific part in the image based on an element saliency value for each unit element indicating saliency of the image developed on the memory is usability information. How to generate.
(付記8)
前記画像における操作対象オブジェクトを検出し、検出した前記操作対象オブジェクトの領域を示す情報を含む諸元情報を出力し、
前記諸元情報と前記要素顕著性値とに基づいて、前記操作対象オブジェクトの顕著性値に対応する操作対象オブジェクト顕著性値を算出し、出力し、
前記要素顕著性値と前記操作対象オブジェクト顕著性値とを比較した結果及び前記操作対象オブジェクト顕著性値を相互に比較した結果に基づいて、ユーザビリティ情報を生成する
付記7記載の方法。
(Appendix 8)
Detecting an operation target object in the image, outputting specification information including information indicating a region of the detected operation target object;
Based on the specification information and the element saliency value, calculate and output an operation target object saliency value corresponding to the saliency value of the operation target object,
The method according to claim 7, wherein usability information is generated based on a result of comparing the element saliency value and the operation target object saliency value and a result of comparing the operation target object saliency values with each other.
(付記9)
前記画像における操作対象オブジェクトを検出し、検出した前記操作対象オブジェクトの領域を示す情報を含む諸元情報を出力し、
ユーザの注視位置を予測して注視位置座標を検出し、
前記注視位置座標と前記操作対象オブジェクトの領域とに基づいて、ユーザビリティ情報を生成し、出力する
付記7または8記載の方法。
(Appendix 9)
Detecting an operation target object in the image, outputting specification information including information indicating a region of the detected operation target object;
Predict the user's gaze position, detect gaze position coordinates,
The method according to
(付記10)
前記諸元情報は、前記操作対象オブジェクトに含まれる文字列情報を更に含み、
前記操作対象オブジェクト顕著性値及びこれに対応する前記操作対象オブジェクトの識別子とを対応付けて出力し、
前記文字列情報とユーザの目的を表す文字列情報との意味的類似度を算出し、
前記意味的類似度に基づいて、前記操作対象オブジェクトの内からユーザが選択する選択対象オブジェクトを予測し、前記選択対象オブジェクトの識別子を含む選択オブジェクト情報を出力し、
前記操作対象オブジェクト顕著性値及びこれに対応する前記操作対象オブジェクトの識別子と前記選択オブジェクト情報とに基づいて、ユーザビリティ情報を生成し、出力する
付記8記載の方法。
(Appendix 10)
The specification information further includes character string information included in the operation target object,
The operation target object saliency value and the corresponding identifier of the operation target object are output in association with each other,
Calculating the semantic similarity between the character string information and the character string information representing the purpose of the user;
Based on the semantic similarity, predict a selection target object selected by the user from among the operation target objects, and output selection object information including an identifier of the selection target object,
The method according to
(付記11)
前記画像におけるコンテンツ領域及び非コンテンツ領域を検出し、
各前記コンテンツ領域及び各前記非コンテンツ領域の領域顕著性値を算出し、出力し、
各前記コンテンツ領域及び各前記非コンテンツ領域の顕著性値に基づいて、ユーザビリティ情報を生成し、出力する
付記7乃至10のいずれかに記載の方法。
(Appendix 11)
Detecting a content area and a non-content area in the image;
Calculate and output a region saliency value for each content region and each non-content region;
The method according to any one of appendices 7 to 10, wherein usability information is generated and output based on the saliency value of each content area and each non-content area.
(付記12)
予め定められた顕著性閾値を満足する前記要素顕著性値を有する単位要素の数と予め定められた単位要素個数とを比較した結果に基づいて、ユーザビリティ情報を生成し、出力する
付記7乃至11記載の方法。
(Appendix 12)
Based on the result of comparing the number of unit elements having the element saliency value satisfying a predetermined saliency threshold with the predetermined number of unit elements, usability information is generated and output. The method described.
(付記13)
メモリ上に展開された画像の単位要素毎の顕著性を示す要素顕著性値に基づいて、前記画像内の特定部分に注意を引くことができるか否かを評価するための処理部がユーザビリティ情報を生成する処理を
コンピュータに実行させるプログラム。
(Appendix 13)
A processing unit for evaluating whether or not attention can be drawn to a specific portion in the image based on an element saliency value indicating saliency for each unit element of the image developed on the memory is usability information. A program that causes a computer to execute the process of generating
(付記14)
前記画像における操作対象オブジェクトを検出し、検出した前記操作対象オブジェクトの領域を示す情報を含む諸元情報を出力し、
前記諸元情報と前記要素顕著性値とに基づいて、前記操作対象オブジェクトの顕著性値に対応する操作対象オブジェクト顕著性値を算出し、出力し、
前記要素顕著性値と前記操作対象オブジェクト顕著性値とを比較した結果及び前記操作対象オブジェクト顕著性値を相互に比較した結果に基づいて、ユーザビリティ情報を生成する処理を
コンピュータに実行させる付記13記載のプログラム。
(Appendix 14)
Detecting an operation target object in the image, outputting specification information including information indicating a region of the detected operation target object;
Based on the specification information and the element saliency value, calculate and output an operation target object saliency value corresponding to the saliency value of the operation target object,
The supplementary note 13 causes the computer to execute a process of generating usability information based on a result of comparing the element saliency value and the operation target object saliency value and a result of comparing the operation target object saliency values with each other. Program.
(付記15)
前記画像における操作対象オブジェクトを検出し、検出した前記操作対象オブジェクトの領域を示す情報を含む諸元情報を出力し、
ユーザの注視位置を予測して注視位置座標を検出し、
前記注視位置座標と前記操作対象オブジェクトの領域とに基づいて、ユーザビリティ情報を生成し、出力する
コンピュータに実行させる付記13または14記載のプログラム。
(Appendix 15)
Detecting an operation target object in the image, outputting specification information including information indicating a region of the detected operation target object;
Predict the user's gaze position, detect gaze position coordinates,
The program according to
(付記16)
前記諸元情報は、前記操作対象オブジェクトに含まれる文字列情報を更に含み、
前記操作対象オブジェクト顕著性値及びこれに対応する前記操作対象オブジェクトの識別子とを対応付けて出力し、
前記文字列情報とユーザの目的を表す文字列情報との意味的類似度を算出し、
前記意味的類似度に基づいて、前記操作対象オブジェクトの内からユーザが選択する選択対象オブジェクトを予測し、前記選択対象オブジェクトの識別子を含む選択オブジェクト情報を出力し
前記操作対象オブジェクト顕著性値及びこれに対応する前記操作対象オブジェクトの識別子と前記選択オブジェクト情報とに基づいて、ユーザビリティ情報を生成し、出力する
コンピュータに実行させる付記14記載のプログラム。
(Appendix 16)
The specification information further includes character string information included in the operation target object,
The operation target object saliency value and the corresponding identifier of the operation target object are output in association with each other,
Calculating the semantic similarity between the character string information and the character string information representing the purpose of the user;
Based on the semantic similarity, a selection target object to be selected by the user from among the operation target objects is predicted, and selection object information including an identifier of the selection target object is output, and the operation target object saliency value and this 15. The program according to
(付記17)
前記画像におけるコンテンツ領域及び非コンテンツ領域を検出し、
各前記コンテンツ領域及び各前記非コンテンツ領域の領域顕著性値を算出し、出力し、
各前記コンテンツ領域及び各前記非コンテンツ領域の顕著性値に基づいて、ユーザビリティ情報を生成し、出力する
コンピュータに実行させる付記13乃至16のいずれかに記載のプログラム。
(Appendix 17)
Detecting a content area and a non-content area in the image;
Calculate and output a region saliency value for each content region and each non-content region;
The program according to any one of appendices 13 to 16, which is executed by a computer that generates and outputs usability information based on the saliency values of the content areas and the non-content areas.
(付記18)
予め定められた顕著性閾値を満足する前記要素顕著性値を有する単位要素の数と予め定められた単位要素個数とを比較した結果に基づいて、ユーザビリティ情報を生成し、出力する
コンピュータに実行させる付記13乃至17記載のプログラム。
(Appendix 18)
Based on the result of comparing the number of unit elements having the element saliency value that satisfies a predetermined saliency threshold with the predetermined number of unit elements, the usability information is generated and output to a computer. The program according to appendixes 13 to 17.
(付記19)
画像の単位要素毎の顕著性を示す要素顕著性値に基づいて、前記画像内の特定部分に注意を引くことができるか否かを評価するためのユーザビリティ情報を生成し、出力するユーザビリティ情報生成部を有する
ユーザビリティ評価装置。
(Appendix 19)
Usability information generation for generating and outputting usability information for evaluating whether or not attention can be drawn to a specific portion in the image based on an element saliency value indicating saliency for each unit element of the image Usability evaluation apparatus having a unit.
(付記20)
前記画像における操作対象オブジェクトを検出し、検出した前記操作対象オブジェクトの領域を示す情報を含む諸元情報を出力する操作対象オブジェクト検出部と、
前記諸元情報と前記要素顕著性値とに基づいて、前記操作対象オブジェクトの顕著性値に対応する操作対象オブジェクト顕著性値を算出し、出力する操作対象オブジェクト顕著性算出部とを更に含み、
前記ユーザビリティ情報生成部は、前記要素顕著性値と前記操作対象オブジェクト顕著性値とを比較した結果及び前記操作対象オブジェクト顕著性値を相互に比較した結果に基づいて、ユーザビリティ情報を生成し、出力する
付記19記載のユーザビリティ評価装置。
(Appendix 20)
An operation target object detection unit that detects an operation target object in the image and outputs specification information including information indicating a region of the detected operation target object;
An operation target object saliency calculation unit that calculates and outputs an operation target object saliency value corresponding to the saliency value of the operation target object based on the specification information and the element saliency value;
The usability information generation unit generates and outputs usability information based on a result of comparing the element saliency value and the operation target object saliency value and a result of comparing the operation target object saliency values with each other. The usability evaluation apparatus according to appendix 19.
(付記21)
前記画像における操作対象オブジェクトを検出し、検出した前記操作対象オブジェクトの領域を示す情報を含む諸元情報を出力する操作対象オブジェクト検出部と、
ユーザの注視位置を予測して注視位置座標を検出する注視位置予測部とを更に含み、
前記ユーザビリティ情報生成部は、前記注視位置座標と前記操作対象オブジェクトの領域とに基づいて、ユーザビリティ情報を生成し、出力する
付記19または20記載のユーザビリティ評価装置。
(Appendix 21)
An operation target object detection unit that detects an operation target object in the image and outputs specification information including information indicating a region of the detected operation target object;
A gaze position prediction unit that predicts the gaze position of the user and detects gaze position coordinates;
The usability evaluation apparatus according to
(付記22)
前記諸元情報は、前記操作対象オブジェクトに含まれる文字列情報を更に含み、
前記操作対象オブジェクト顕著性算出部は、前記操作対象オブジェクト顕著性値及びこれに対応する前記操作対象オブジェクトの識別子とを対応付けて出力し、
前記文字列情報とユーザの目的を表す文字列情報との意味的類似度を算出する意味的類似度算出部と、
前記意味的類似度に基づいて、前記操作対象オブジェクトの内からユーザが選択する選択対象オブジェクトを予測し、前記選択対象オブジェクトの識別子を含む選択オブジェクト情報を出力する選択オブジェクト判断部と、を更に含み
前記ユーザビリティ情報生成部は、前記操作対象オブジェクト顕著性値及びこれに対応する前記操作対象オブジェクトの識別子と前記選択オブジェクト情報とに基づいて、ユーザビリティ情報を生成し、出力する
付記20記載のユーザビリティ評価装置。
(Appendix 22)
The specification information further includes character string information included in the operation target object,
The operation target object saliency calculating unit associates and outputs the operation target object saliency value and an identifier of the operation target object corresponding to the operation target object saliency value,
A semantic similarity calculator that calculates the semantic similarity between the character string information and the character string information representing the purpose of the user;
A selection object determination unit that predicts a selection target object to be selected by the user from among the operation target objects based on the semantic similarity and outputs selection object information including an identifier of the selection target object; The usability evaluation apparatus according to
(付記23)
前記画像におけるコンテンツ領域及び非コンテンツ領域を検出する領域検出部と、
各前記コンテンツ領域及び各前記非コンテンツ領域の領域顕著性値を算出し、出力する領域顕著性算出部とを更に含み、
前記ユーザビリティ情報生成部は、各前記コンテンツ領域及び各前記非コンテンツ領域の顕著性値に基づいて、ユーザビリティ情報を生成し、出力する
付記19乃至22のいずれかに記載のユーザビリティ評価装置。
(Appendix 23)
An area detection unit for detecting a content area and a non-content area in the image;
A region saliency calculating unit that calculates and outputs a region saliency value for each of the content regions and each of the non-content regions;
The usability evaluation apparatus according to any one of appendices 19 to 22, wherein the usability information generation unit generates and outputs usability information based on the saliency values of the content areas and the non-content areas.
(付記24)
前記ユーザビリティ情報生成部は、予め定められた顕著性閾値を満足する前記要素顕著性値を有する単位要素の数と予め定められた単位要素個数とを比較した結果に基づいて、ユーザビリティ情報を生成し、出力する
付記19乃至23記載のユーザビリティ評価装置。
(Appendix 24)
The usability information generation unit generates usability information based on a result of comparing the number of unit elements having the element saliency value that satisfies a predetermined saliency threshold with a predetermined number of unit elements. The usability evaluation device according to appendices 19 to 23.
100 ユーザビリティ評価装置
110 入力部
120 処理部
121 顕著マップ作成部
122 ユーザビリティ情報生成部
130 出力部
200 ユーザビリティ評価装置
210 入力部
220 処理部
222 ユーザビリティ情報生成部
223 操作対象オブジェクト検出部
224 操作対象オブジェクト顕著性算出部
230 出力部
300 ユーザビリティ評価装置
310 入力部
320 処理部
322 ユーザビリティ情報生成部
325 注視位置予測部
330 出力部
400 ユーザビリティ評価装置
410 入力部
420 処理部
422 ユーザビリティ情報生成部
423 操作対象オブジェクト検出部
426 意味的類似度算出部
427 選択オブジェクト予測部
430 出力部
500 ユーザビリティ評価装置
510 入力部
520 処理部
522 ユーザビリティ情報生成部
528 非コンテンツ領域検出部
529 領域顕著性算出部
530 出力部
600 ユーザビリティ評価装置
G10 評価対象画像
M10 顕著マップ
M11 位置座標
M12 顕著性値
M20 顕著リスト
M21 操作対象オブジェクト識別子
M22 顕著性値
M50 コンテンツ領域顕著リスト
M51 非コンテンツ領域顕著リスト
M52 コンテンツ領域識別子
M53 コンテンツ領域顕著性値
M54 非コンテンツ領域識別子
M55 非コンテンツ領域顕著性値
P10 諸元情報
P40 諸元情報
P50 諸元情報
P53 領域識別子
Q40 ユーザ操作対象オブジェクト情報
S40 意味的類似度リスト
S42 意味的類似度値
W40 文字列
W41 文字列
DESCRIPTION OF
Claims (10)
ユーザビリティ評価装置。 Usability information generation for generating and outputting usability information for evaluating whether or not attention can be drawn to a specific portion in the image based on an element saliency value indicating saliency for each unit element of the image Usability evaluation apparatus having a unit.
前記諸元情報と前記要素顕著性値とに基づいて、前記操作対象オブジェクトの顕著性値に対応する操作対象オブジェクト顕著性値を算出し、出力する操作対象オブジェクト顕著性算出部とを更に含み、
前記ユーザビリティ情報生成部は、前記要素顕著性値と前記操作対象オブジェクト顕著性値とを比較した結果及び前記操作対象オブジェクト顕著性値を相互に比較した結果に基づいて、ユーザビリティ情報を生成し、出力する
請求項1記載のユーザビリティ評価装置。
An operation target object detection unit that detects an operation target object in the image and outputs specification information including information indicating a region of the detected operation target object;
An operation target object saliency calculation unit that calculates and outputs an operation target object saliency value corresponding to the saliency value of the operation target object based on the specification information and the element saliency value;
The usability information generation unit generates and outputs usability information based on a result of comparing the element saliency value and the operation target object saliency value and a result of comparing the operation target object saliency values with each other. The usability evaluation apparatus according to claim 1.
ユーザの注視位置を予測して注視位置座標を検出する注視位置予測部とを更に含み、
前記ユーザビリティ情報生成部は、前記注視位置座標と前記操作対象オブジェクトの領域とに基づいて、ユーザビリティ情報を生成し、出力する
請求項1または2記載のユーザビリティ評価装置。 An operation target object detection unit that detects an operation target object in the image and outputs specification information including information indicating a region of the detected operation target object;
A gaze position prediction unit that predicts the gaze position of the user and detects gaze position coordinates;
The usability evaluation device according to claim 1, wherein the usability information generation unit generates and outputs usability information based on the gaze position coordinates and the region of the operation target object.
前記操作対象オブジェクト顕著性算出部は、前記操作対象オブジェクト顕著性値及びこれに対応する前記操作対象オブジェクトの識別子とを対応付けて出力し、
前記文字列情報とユーザの目的を表す文字列情報との意味的類似度を算出する意味的類似度算出部と、
前記意味的類似度に基づいて、前記操作対象オブジェクトの内からユーザが選択する選択対象オブジェクトを予測し、前記選択対象オブジェクトの識別子を含む選択オブジェクト情報を出力する選択オブジェクト判断部と、を更に含み
前記ユーザビリティ情報生成部は、前記操作対象オブジェクト顕著性値及びこれに対応する前記操作対象オブジェクトの識別子と前記選択オブジェクト情報とに基づいて、ユーザビリティ情報を生成し、出力する
請求項2記載のユーザビリティ評価装置。 The specification information further includes character string information included in the operation target object,
The operation target object saliency calculating unit associates and outputs the operation target object saliency value and the identifier of the operation target object corresponding to the operation target object saliency value,
A semantic similarity calculator that calculates the semantic similarity between the character string information and the character string information representing the purpose of the user;
A selection object determination unit that predicts a selection target object to be selected by the user from among the operation target objects based on the semantic similarity and outputs selection object information including an identifier of the selection target object; 3. The usability evaluation according to claim 2, wherein the usability information generation unit generates and outputs usability information based on the operation object saliency value, the identifier of the operation object corresponding to the operation object object, and the selected object information. apparatus.
各前記コンテンツ領域及び各前記非コンテンツ領域の領域顕著性値を算出し、出力する領域顕著性算出部とを更に含み、
前記ユーザビリティ情報生成部は、各前記コンテンツ領域及び各前記非コンテンツ領域の顕著性値に基づいて、ユーザビリティ情報を生成し、出力する
請求項1乃至4のいずれかに記載のユーザビリティ評価装置。 An area detection unit for detecting a content area and a non-content area in the image;
A region saliency calculating unit that calculates and outputs a region saliency value for each of the content regions and each of the non-content regions;
The usability evaluation apparatus according to claim 1, wherein the usability information generation unit generates and outputs usability information based on a saliency value of each content area and each non-content area.
請求項1乃至5記載のユーザビリティ評価装置。 The usability information generation unit generates usability information based on a result of comparing the number of unit elements having the element saliency value that satisfies a predetermined saliency threshold with a predetermined number of unit elements. The usability evaluation apparatus according to any one of claims 1 to 5.
方法。 A method for generating usability information by a processing unit for evaluating whether or not attention can be drawn to a specific portion in the image based on an element saliency value indicating saliency for each unit element.
前記諸元情報と前記要素顕著性値とに基づいて、前記操作対象オブジェクトの顕著性値に対応する操作対象オブジェクト顕著性値を算出し、出力し、
前記要素顕著性値と前記操作対象オブジェクト顕著性値とを比較した結果及び前記操作対象オブジェクト顕著性値を相互に比較した結果に基づいて、ユーザビリティ情報を生成する
請求項7記載の方法。 Detecting an operation target object in the image, outputting specification information including information indicating a region of the detected operation target object;
Based on the specification information and the element saliency value, calculate and output an operation target object saliency value corresponding to the saliency value of the operation target object,
The method according to claim 7, wherein usability information is generated based on a result of comparing the element saliency value and the operation target object saliency value and a result of comparing the operation target object saliency values with each other.
コンピュータに実行させるプログラム。 Based on an element saliency value indicating saliency for each unit element, a processing unit for evaluating whether or not attention can be drawn to a specific part in the image executes processing for generating usability information on a computer Program to make.
前記諸元情報と前記要素顕著性値とに基づいて、前記操作対象オブジェクトの顕著性値に対応する操作対象オブジェクト顕著性値を算出し、出力し、
前記要素顕著性値と前記操作対象オブジェクト顕著性値とを比較した結果及び前記操作対象オブジェクト顕著性値を相互に比較した結果に基づいて、ユーザビリティ情報を生成する処理を
コンピュータに実行させる請求項9記載のプログラム。 Detecting an operation target object in the image, outputting specification information including information indicating a region of the detected operation target object;
Based on the specification information and the element saliency value, calculate and output an operation target object saliency value corresponding to the saliency value of the operation target object,
The computer executes a process of generating usability information based on a result of comparing the element saliency value and the operation target object saliency value and a result of comparing the operation target object saliency values with each other. The listed program.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010186247A JP2012043357A (en) | 2010-08-23 | 2010-08-23 | Usability evaluation device, method and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010186247A JP2012043357A (en) | 2010-08-23 | 2010-08-23 | Usability evaluation device, method and program |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2012043357A true JP2012043357A (en) | 2012-03-01 |
Family
ID=45899545
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2010186247A Withdrawn JP2012043357A (en) | 2010-08-23 | 2010-08-23 | Usability evaluation device, method and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2012043357A (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2021533436A (en) * | 2019-07-18 | 2021-12-02 | 北京市商▲湯▼科技▲開▼▲発▼有限公司Beijing Sensetime Technology Development Co., Ltd. | Image processing methods, image processing devices, electronic devices, storage media and computer programs |
-
2010
- 2010-08-23 JP JP2010186247A patent/JP2012043357A/en not_active Withdrawn
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2021533436A (en) * | 2019-07-18 | 2021-12-02 | 北京市商▲湯▼科技▲開▼▲発▼有限公司Beijing Sensetime Technology Development Co., Ltd. | Image processing methods, image processing devices, electronic devices, storage media and computer programs |
JP7041284B2 (en) | 2019-07-18 | 2022-03-23 | 北京市商▲湯▼科技▲開▼▲発▼有限公司 | Image processing methods, image processing devices, electronic devices, storage media and computer programs |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
AU2018250370B2 (en) | Weakly supervised model for object detection | |
US11244208B2 (en) | Two-dimensional document processing | |
CN110674804A (en) | Text image detection method and device, computer equipment and storage medium | |
US20200134313A1 (en) | Detection method and detection device | |
Zhao et al. | Recognition of building group patterns using graph convolutional network | |
JP6612487B1 (en) | Learning device, classification device, learning method, classification method, learning program, and classification program | |
JP2007115193A (en) | Electronic document comparison program, electronic document comparison device and electronic document comparison method | |
CN110490115B (en) | Training method and device of face detection model, electronic equipment and storage medium | |
CN110210480A (en) | Character recognition method, device, electronic equipment and computer readable storage medium | |
CN103688291A (en) | Screen inspection device, screen inspection method and program | |
KR20120075626A (en) | Apparatus and method for processing electric navigational chart in web-based service | |
Yu et al. | An effective method for figures and tables detection in academic literature | |
JP2012043357A (en) | Usability evaluation device, method and program | |
JP5895828B2 (en) | Information processing apparatus and program | |
JP6476144B2 (en) | Screen difference confirmation support device, screen difference confirmation support method, and program | |
CN106469437B (en) | Image processing method and image processing apparatus | |
JP2022124681A (en) | Tissue image analysis device, and tissue image analysis method | |
KR20220067387A (en) | Method and system for analyzing layout of image | |
US8768060B2 (en) | Image processing apparatus, image processing method and computer-readable medium | |
US11755195B2 (en) | Ink data generation apparatus, method, and program | |
EP4361960A1 (en) | Annotation device and annotation method | |
US20240135738A1 (en) | Annotation device and annotation method | |
WO2015004730A1 (en) | Search method and electronic device | |
Matidis et al. | Detecting Text on Historical Maps by Selecting Best Candidates of Deep Neural Networks Output | |
CN116982073A (en) | User input based interference removal in media items |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A300 | Application deemed to be withdrawn because no request for examination was validly filed |
Free format text: JAPANESE INTERMEDIATE CODE: A300 Effective date: 20131105 |