JP2015125543A - Line-of-sight prediction system, line-of-sight prediction method, and line-of-sight prediction program - Google Patents

Line-of-sight prediction system, line-of-sight prediction method, and line-of-sight prediction program Download PDF

Info

Publication number
JP2015125543A
JP2015125543A JP2013268623A JP2013268623A JP2015125543A JP 2015125543 A JP2015125543 A JP 2015125543A JP 2013268623 A JP2013268623 A JP 2013268623A JP 2013268623 A JP2013268623 A JP 2013268623A JP 2015125543 A JP2015125543 A JP 2015125543A
Authority
JP
Japan
Prior art keywords
image
line
sight
distribution
change
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2013268623A
Other languages
Japanese (ja)
Inventor
崇 竹之内
Takashi Takenouchi
崇 竹之内
文男 唐澤
Fumio Karasawa
文男 唐澤
山田 健史
Takeshi Yamada
健史 山田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
3M Innovative Properties Co
Original Assignee
3M Innovative Properties Co
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 3M Innovative Properties Co filed Critical 3M Innovative Properties Co
Priority to JP2013268623A priority Critical patent/JP2015125543A/en
Publication of JP2015125543A publication Critical patent/JP2015125543A/en
Pending legal-status Critical Current

Links

Images

Abstract

PROBLEM TO BE SOLVED: To clearly present a difference between a plurality of designs.SOLUTION: A line-of-sight prediction system includes one or a plurality of processors. At least one processor (a) receives a reference image having a common or similar design and a comparison image, (b) applies line-of-sight prediction for predicting an area which is likely to be visually attractive, to both reference image and the comparison image, to calculate a line-of-sight distribution of the reference image and a line-of-sight distribution of the comparison image, (c) calculates the amount of change between the line-of-sight distribution of the reference image and the line-of-sight distribution of the comparison image, (d) and outputs the amount of change as a change in line of sight distribution.

Description

本発明の一側面は、視線予測システム、視線予測方法、および視線予測プログラムに関する。   One aspect of the present invention relates to a line-of-sight prediction system, a line-of-sight prediction method, and a line-of-sight prediction program.

従来から、デザインの視覚的効果を評価する技術が知られている。例えば、下記特許文献1には、入力されたシーンを受信し、視覚的注意モデルを入力されたシーンに適用し、入力されたシーン内の、視覚的注意を引き付ける傾向がある領域を予測するように機能する視覚的注意モジュールと、視覚的注意モジュールと相互作用して、識別された領域の少なくとも一つが堅牢(顕著)である、又はシーンが堅牢である、という程度を決定するように機能する堅牢性(顕著性)評価モジュールとを含むコンピュータシステムが記載されている。また、下記特許文献2〜4にもデザインを評価する仕組みが記載されている。   Conventionally, a technique for evaluating the visual effect of a design is known. For example, Patent Document 1 below receives an input scene, applies a visual attention model to the input scene, and predicts an area in the input scene that tends to attract visual attention. And a visual attention module that functions to interact with the visual attention module to determine the degree to which at least one of the identified regions is robust (prominent) or the scene is robust A computer system is described that includes a robustness (saliency) evaluation module. The following Patent Documents 2 to 4 also describe a mechanism for evaluating the design.

特表2012−504827号公報Special table 2012-504827 gazette 特許第4613398号明細書Japanese Patent No. 4661398 特許第4978043号明細書Japanese Patent No. 4997443 特許第4208614号明細書Japanese Patent No. 4208614

あるデザイン案と他のデザイン案との比較を繰り返して最終的にデザインを確定することはよく行われる。その作業において上記特許文献1〜4の技術を採用したとすれば、ユーザは個々のデザインの視線予測結果を見比べながらデザインを決めることになるが、似たようなデザイン同士を比較したり、多くの共通部分を有するデザイン同士を比較したりしようとすると、目視だけではデザインの比較が困難な場合があり得る。そこで、複数のデザインの違いを明確に提示することが望まれている。   It is often the case that a design is finally determined by repeatedly comparing a design plan with another design plan. If the technique of the above-mentioned patent documents 1 to 4 is adopted in the work, the user decides the design while comparing the line-of-sight prediction results of the individual designs. When trying to compare designs having common parts, it may be difficult to compare designs by visual observation alone. Therefore, it is desirable to clearly show the differences between multiple designs.

本発明の一側面に係る視線予測システムは、一または複数のプロセッサを備え、少なくとも一つのプロセッサが、共通のまたは類似のデザインを有する基準画像および比較画像を受け付け、視覚的注意を惹き付ける傾向がある領域を予測する視線予測を基準画像および比較画像の双方に適用することで、該基準画像の視線分布と該比較画像の視線分布とを算出し、基準画像の視線分布と比較画像の視線分布との間の変化量を算出し、変化量を視線分布の変化として出力する。   The line-of-sight prediction system according to one aspect of the present invention includes one or more processors, and at least one processor tends to accept a reference image and a comparative image having a common or similar design and attract visual attention. By applying gaze prediction for predicting a certain area to both the reference image and the comparison image, the gaze distribution of the reference image and the gaze distribution of the comparison image are calculated, and the gaze distribution of the reference image and the gaze distribution of the comparison image Is calculated as a change in the gaze distribution.

このような側面においては、共通のまたは類似のデザインを有する二つの画像の視線分布の変化量が算出されその結果が出力されるので、複数のデザインの違いを明確に提示することができる。   In such an aspect, since the amount of change in the line-of-sight distribution of two images having a common or similar design is calculated and the result is output, differences between a plurality of designs can be clearly presented.

本発明の一側面によれば、複数のデザインの違いを明確に提示することができる。   According to one aspect of the present invention, a plurality of design differences can be clearly presented.

実施形態に係る視線予測システムの全体構成を示す図である。It is a figure showing the whole line-of-sight prediction system composition concerning an embodiment. 実施形態に係る解析サーバのハードウェア構成を示す図である。It is a figure which shows the hardware constitutions of the analysis server which concerns on embodiment. 実施形態に係る視線予測システムの機能構成を示すブロック図である。It is a block diagram which shows the function structure of the gaze prediction system which concerns on embodiment. 基準画像および比較画像の例を示す図である。It is a figure which shows the example of a reference | standard image and a comparison image. 単位領域および視認性スコアの概念を示す図である。It is a figure which shows the concept of a unit area | region and a visibility score. 視認性スコアを可視化した例を示す図である。It is a figure which shows the example which visualized the visibility score. 視認性スコアの変化量の概念を示す図である。It is a figure which shows the concept of the variation | change_quantity of a visibility score. 視認性スコアの変化量とカラーコンターとの対応の例を示す図である。It is a figure which shows the example of a response | compatibility with the variation | change_quantity of a visibility score, and a color contour. 差分画像の一例を示す図である。It is a figure which shows an example of a difference image. 差分画像の別の例を示す図である。It is a figure which shows another example of a difference image. 差分画像の更に別の例を示す図である。It is a figure which shows another example of a difference image. 実施形態に係る視線予測システムの動作を示すフローチャートである。It is a flowchart which shows operation | movement of the gaze prediction system which concerns on embodiment. 基準画像および二つの比較画像の例を示す図である。It is a figure which shows the example of a reference | standard image and two comparison images. 図13に示す比較画像に対応する差分画像の例を示す図である。It is a figure which shows the example of the difference image corresponding to the comparison image shown in FIG. 実施形態に係る視線予測プログラムの構成を示す図である。It is a figure which shows the structure of the gaze prediction program which concerns on embodiment.

以下、添付図面を参照しながら本発明の実施形態を詳細に説明する。なお、図面の説明において同一又は同等の要素には同一の符号を付し、重複する説明を省略する。   Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings. In the description of the drawings, the same or equivalent elements are denoted by the same reference numerals, and redundant description is omitted.

図1〜11を参照しながら、実施形態に係る視線予測システム1の機能および構成を説明する。視線予測システム1は、画像(シーン)内において視覚的注意を惹き付ける傾向がある領域を予測するコンピュータシステムである。特に、視線予測システム1は、共通のまたは類似のデザインを有する二つの画像について得られた予測結果の変化量を求めてその変化量をユーザに提示する。ユーザはその変化の度合いを見て、画像を加工することで視覚的効果がどのように変わるかを判断したり、どの画像が所望の視覚的効果を発揮するかを判断したりすることができる。   The function and configuration of the line-of-sight prediction system 1 according to the embodiment will be described with reference to FIGS. The line-of-sight prediction system 1 is a computer system that predicts an area in an image (scene) that tends to attract visual attention. In particular, the line-of-sight prediction system 1 obtains the amount of change in the prediction result obtained for two images having a common or similar design and presents the amount of change to the user. Users can see the degree of change and determine how the visual effect changes by processing the image, and can determine which image exhibits the desired visual effect. .

本明細書における画像で示されるデザインまたは被写体は何でもよい。例えば、画像で示されるデザインはラベル、名刺、葉書、ポスター、包装紙、広告、店舗内POP、または看板であってもよい。あるいは、画像で示される被写体は、広告や看板などが存在する市街地または店舗でもよいし、商品または商品パッケージそのものであってもよい。あるいは、画像はウェブページのキャプチャ画像でもよい。これらの画像は写真であってもよいしコンピュータ・グラフィックスであってもよい。   Any design or subject may be shown in the images herein. For example, the design shown in the image may be a label, business card, postcard, poster, wrapping paper, advertisement, in-store POP, or sign. Alternatively, the subject shown in the image may be an urban area or a store where advertisements or billboards exist, or a product or a product package itself. Alternatively, the image may be a captured image of a web page. These images may be photographs or computer graphics.

本明細書における「共通のまたは類似のデザイン」は、二つの画像の間でデザインの属性の少なくとも一部が同一であることを意味する。例えば、「共通のまたは類似のデザイン」は以下の態様を含む。
・完全に同一のデザイン(形状、模様、寸法、縦横比、色、透過度などの属性が全く同じデザイン)。
・形状、模様、寸法、縦横比、色、透過度などの属性うち少なくとも一部が互いに異なるが他のものは同じであるデザイン。
As used herein, “common or similar design” means that at least some of the attributes of the design are the same between the two images. For example, “common or similar design” includes the following aspects.
・ Completely the same design (design, shape, pattern, dimensions, aspect ratio, color, transparency, etc.).
A design in which at least some of the attributes such as shape, pattern, dimensions, aspect ratio, color, and transparency are different from each other, but the others are the same.

例えば、名刺の背景部分のみを示す画像と、その背景に名刺のデータ(人名、会社名、電話番号、メールアドレスなど)が埋め込まれた画像とは、共通のまたは類似のデザインを有するといえる。また、外形、模様、および文字が同じで背景色または文字色が互いに異なる複数の看板の画像も、共通のまたは類似のデザインを有するといえる。もちろん、共通のまたは類似のデザインを有する画像の例はこれらに限定されない。   For example, it can be said that an image showing only the background portion of a business card and an image in which business card data (person name, company name, telephone number, e-mail address, etc.) is embedded in the background have a common or similar design. In addition, it can be said that images of a plurality of signboards having the same outer shape, pattern, and characters but having different background colors or character colors have a common or similar design. Of course, examples of images having a common or similar design are not limited to these.

図1に示すように、視線予測システム1はユーザ端末Tおよび解析サーバ10を備える。ユーザ端末Tおよび解析サーバ10はネットワークNを介して相互に通信することができる。ネットワークNの具体的な構成は限定されず、例えばインターネット、専用線、およびLAN(Local Area Network)の少なくとも一つから構成されてもよい。視線予測システム1におけるユーザ端末Tの台数は限定されない。   As shown in FIG. 1, the line-of-sight prediction system 1 includes a user terminal T and an analysis server 10. The user terminal T and the analysis server 10 can communicate with each other via the network N. The specific configuration of the network N is not limited, and may be configured from, for example, at least one of the Internet, a dedicated line, and a LAN (Local Area Network). The number of user terminals T in the line-of-sight prediction system 1 is not limited.

本実施形態における視線予測システム1はいわゆるクライアント−サーバシステムであるが、その具体的な構築方法は何ら限定されない。例えば、視線予測システム1はユーザ端末Tに専用のクライアントソフトウェアがインストールされることを前提に機能してもよいし、そのようなソフトウェアを必要としないクラウド型あるいはブラウザベース(browser−based)であってもよい。視線予測システム1を利用するために専用のクライアントソフトウェアが必要であれば、ユーザはそのソフトウェアをユーザ端末Tにインストールする。そのソフトウェアはネットワークを介してユーザに提供されてもよいし、DVD−ROMなどの記憶媒体を介して提供されてもよい。専用のクライアントソフトウェアを必要としない場合には、ユーザ端末Tが必要な汎用ソフトウェア(例えばウェブブラウザ)を備えていればユーザは視線予測システム1を利用することができる。   The line-of-sight prediction system 1 in the present embodiment is a so-called client-server system, but the specific construction method is not limited at all. For example, the line-of-sight prediction system 1 may function on the assumption that dedicated client software is installed in the user terminal T, and may be a cloud type or browser-based that does not require such software. May be. If dedicated client software is required to use the line-of-sight prediction system 1, the user installs the software in the user terminal T. The software may be provided to the user via a network or may be provided via a storage medium such as a DVD-ROM. If dedicated client software is not required, the user can use the line-of-sight prediction system 1 if the user terminal T includes general-purpose software (for example, a web browser) that is necessary.

ユーザ端末Tの種類は限定されず、例えば据置型又は携帯型のパーソナルコンピュータ(PC)でもよいし、高機能携帯電話機(スマートフォン)や携帯電話機、携帯情報端末(PDA)などの携帯端末でもよい。   The type of the user terminal T is not limited, and may be, for example, a stationary or portable personal computer (PC), or a portable terminal such as a high-function mobile phone (smart phone), a mobile phone, or a personal digital assistant (PDA).

解析サーバ10は、共通のまたは類似のデザインを有する二つの画像のそれぞれについて視線予測を実行し、その予測結果から画像間の変化の度合いを求めるコンピュータである。視線予測とは、人の視線の動きをシミュレーションする処理であり、視覚的注意モデルともいわれる。この処理により、画像(シーン)内のどこが人の視覚的注意を惹き付けるかを推定できる。   The analysis server 10 is a computer that executes line-of-sight prediction for each of two images having a common or similar design and obtains the degree of change between images from the prediction result. Gaze prediction is a process of simulating the movement of a person's gaze, and is also called a visual attention model. By this processing, it is possible to estimate where in the image (scene) attracts human visual attention.

解析サーバ10は図2に示すようなハードウェア構成を有する。すなわち、解析サーバ10は、オペレーティングシステムやアプリケーション・プログラムなどを実行するCPU101と、ROM及びRAMで構成される主記憶部102と、ハードディスクやフラッシュメモリなどで構成される補助記憶部103と、ネットワークカードあるいは無線通信モジュールで構成される通信制御部104と、キーボードやマウスなどの入力装置105と、ディスプレイなどの出力装置106とを備える。   The analysis server 10 has a hardware configuration as shown in FIG. That is, the analysis server 10 includes a CPU 101 that executes an operating system, application programs, and the like, a main storage unit 102 that includes a ROM and a RAM, an auxiliary storage unit 103 that includes a hard disk and a flash memory, and a network card. Alternatively, the communication control unit 104 includes a wireless communication module, an input device 105 such as a keyboard and a mouse, and an output device 106 such as a display.

後述する解析サーバ10の各機能的構成要素は、CPU101又は主記憶部102の上に所定のソフトウェアを読み込ませ、CPU101の制御の下で通信制御部104や入力装置105、出力装置106などを動作させ、主記憶部102又は補助記憶部103におけるデータの読み出し及び書き込みを行うことで実現される。処理に必要なデータやデータベースは主記憶部102又は補助記憶部103内に格納される。   Each functional component of the analysis server 10 described later reads predetermined software on the CPU 101 or the main storage unit 102, and operates the communication control unit 104, the input device 105, the output device 106, and the like under the control of the CPU 101. This is realized by reading and writing data in the main storage unit 102 or the auxiliary storage unit 103. Data and a database necessary for processing are stored in the main storage unit 102 or the auxiliary storage unit 103.

なお、解析サーバ10は1台のコンピュータで構成されてもよいし、複数台のコンピュータで構成されていてもよい。   The analysis server 10 may be configured with one computer or may be configured with a plurality of computers.

図3に示すように、解析サーバ10は機能的構成要素として受付部11、解析部12、変化量算出部13、画像生成部14、および送信部15を備える。これらの機能は少なくとも一つのプロセッサ(CPU101)などが動作することで実現される。   As illustrated in FIG. 3, the analysis server 10 includes a reception unit 11, an analysis unit 12, a change amount calculation unit 13, an image generation unit 14, and a transmission unit 15 as functional components. These functions are realized by the operation of at least one processor (CPU 101).

受付部11は、ユーザにより指定された二つの画像を受け付ける機能要素である。本明細書ではその二つの画像を基準画像および比較画像として区別する。本実施形態では、視線予測システム1は比較画像の視線予測の結果が基準画像のそれと比べてどのように変化するかをユーザに示すものとする。   The accepting unit 11 is a functional element that accepts two images designated by the user. In the present specification, the two images are distinguished as a reference image and a comparative image. In the present embodiment, the line-of-sight prediction system 1 indicates to the user how the line-of-sight prediction result of the comparative image changes compared to that of the reference image.

受付部11は、共通のまたは類似のデザインを有する基準画像および比較画像を受け付け、これら二つの画像を解析部12に出力する。受付部11はユーザ端末Tからそれらの画像を直接受信してもよいし、ユーザ端末Tからの指示に基づいて所定の記憶部(例えば、メモリやデータベースなど)からそれらの画像を読み出してもよい。基準画像および比較画像の例を図4に示す。この例では、基準画像201は花の絵であり、比較画像202はその基準画像201に文字列「ABCDEFG」が追加された画像である。すなわち、基準画像201と比較画像202とでは花の部分が同じであり、したがってこれらの二つの画像は共通のデザインを有する。   The reception unit 11 receives a reference image and a comparison image having a common or similar design, and outputs these two images to the analysis unit 12. The receiving unit 11 may directly receive these images from the user terminal T, or may read those images from a predetermined storage unit (for example, a memory or a database) based on an instruction from the user terminal T. . Examples of the reference image and the comparison image are shown in FIG. In this example, the reference image 201 is a flower picture, and the comparison image 202 is an image in which the character string “ABCDEFG” is added to the reference image 201. That is, the reference image 201 and the comparison image 202 have the same flower portion, and thus these two images have a common design.

解析部12は、視覚的注意を惹き付ける傾向がある領域を予測する処理(視線予測)を基準画像および比較画像の双方に適用することで各画像の視線分布を算出する機能要素である。視線予測は例えば上記特許文献1に示されているが、以下にその処理について説明する。   The analysis unit 12 is a functional element that calculates the line-of-sight distribution of each image by applying a process (line-of-sight prediction) that predicts a region that tends to attract visual attention to both the reference image and the comparative image. The line-of-sight prediction is described in, for example, Patent Document 1 described above, and the process will be described below.

従来から多くの視覚的注意モデルが存在する。一般に視覚的注意モデルは画像をシーンとして受け付け、そのシーン内のどこに注意が割り当てられるかに関する予測を生成する。シミュレーションによって注意を予測しようと試みる多くの数学モデルが開発されている。そのうちの一つの手法は、Itti,L.& Koch,C.(2000)の「A saliency−based search mechanism for overt and covert shifts of visual attention」(Vision Research,vol.40,1489〜1506頁)によって提案されている。この手法は、ボトムアップの特徴(例えば、色、動き、輝度、コントラスト、エッジなど)を評価することで視覚的注意を予測する。具体的には、コンピュータが入力画像に対して色、強度、配向、または他のシーンのつながり(例えば、動き、中継、ターミネータ、ステレオ視差、あるいは陰影から得られる形状)を解析する。続いて、コンピュータは複数の特徴マップを生成し、これらの特徴マップを組み合わせることで顕著性マップを生成する。Kochモデルの場合では、顕著性マップは、視覚的注意が次に割り当てられると予測される最も輝度の高いオブジェクトを有するオリジナル画像のレンダリングとしてユーザに提供される。その予測されたオブジェクトは、勝者総取り方式のアルゴリズムにおいて視覚的に顕著であると識別される。これらの一連の処理は、複数のオブジェクトがモデルによって識別されるまで繰り返される。   There have been many visual attention models. In general, a visual attention model accepts an image as a scene and generates predictions about where attention is assigned in the scene. Many mathematical models have been developed that attempt to predict attention through simulation. One technique is that of Itti, L. et al. & Koch, C.I. (2000) "A saliency-based search mechanism for over and cover shifts of visual attention" (Vision Research, vol. 40, pages 1489 to 1506). This approach predicts visual attention by evaluating bottom-up features (eg, color, motion, brightness, contrast, edges, etc.). Specifically, the computer analyzes the input image for color, intensity, orientation, or other scene connections (eg, shapes obtained from motion, relay, terminator, stereo parallax, or shading). Subsequently, the computer generates a plurality of feature maps, and generates a saliency map by combining these feature maps. In the case of the Koch model, the saliency map is provided to the user as a rendering of the original image with the brightest object that is predicted to be assigned the next visual attention. The predicted object is identified as visually prominent in the winner winning algorithm. These series of processes are repeated until a plurality of objects are identified by the model.

Itti & Kochのモデルは、ボトムアップの視覚的注意モデルの代表的なものであり、このモデルはシーンの特定のものの解析に基づいてその予測を行う。ボトムアップの視覚的注意モデルの他の例は、Gao,Mahadevan,and Vesconcelos(2008)に記載されている。   The Itti & Koch model is representative of a bottom-up visual attention model, which makes its prediction based on an analysis of a particular thing in the scene. Other examples of bottom-up visual attention models are described in Gao, Mahadevan, and Vesconcelos (2008).

ボトムアップモデルとは別に、視覚的注意のトップダウンモデルと呼ばれる別のモデルがある。ボトムアップモデルとは対照的に、このモデルはシーンと、明白なタスク(例えば、障害を避けること及びオブジェクトを収集すること)または特定の検索タスク中に注意が割り当てられる場所に影響を与える、対象世界に関する事前知識(例えば、椅子は天井にではなく床の上にある)のいずれかとにより始まる。タスク及びシーンに基づくこの知識はボトムアップ特徴と併せて使用され、観察されたシーン内のオブジェクトに注意を向けさせる。一部の代表的なトップダウンモデルがRothkopf,C.A.,Ballard,D.H.& Hayhoe,M.M.の「Task and context Determine Where You Look」(2007、Journal of Vision 7(14):16,1〜20)、およびTorralba,A.の「Contextual Modulation of Target Saliency」(Adv.in Neural Information Processing Systems 14(NIPS)(2001)(MIT Press,2001)に記載されている。例えば、視覚的注意のTorralbaのモデルは、特定のタイプのオブジェクトを含む特徴に関する事前知識と、シーン内のこれらのオブジェクトの絶対位置及び相対位置に関する情報とを有する。この事前知識は、シーン内の特定の標的の検索においてトップダウンの影響を及ぼす。   Apart from the bottom-up model, there is another model called the visual attention top-down model. In contrast to the bottom-up model, this model affects the scene and the obvious tasks (eg avoiding obstacles and collecting objects) or where attention is assigned during a particular search task. It starts with any prior knowledge of the world (eg, the chair is on the floor, not on the ceiling). This knowledge based on tasks and scenes is used in conjunction with bottom-up features to draw attention to objects in the observed scene. Some representative top-down models are Rothkopf, C .; A. Ballard, D .; H. & Hayhoe, M .; M.M. "Task and context Determine Where You Look" (2007, Journal of Vision 7 (14): 16, 1-20), and Torralba, A. et al. "Contextual Modulation of Target Saliency" (Adv. In Neural Information Processing Systems 14 (NIPS) (2001) (MIT Press, 2001), for example, the type of visual attention Torralba. It has prior knowledge about features including objects and information about the absolute and relative positions of these objects in the scene, which has a top-down influence on the search for specific targets in the scene.

また、ボトムアップ及びトップダウンの双方の特徴を有するハイブリッドな視覚的注意モデルも存在する。   There are also hybrid visual attention models that have both bottom-up and top-down features.

解析部12はこのような視線予測(視覚的注意モデル)の仕組みを用いて基準画像および比較画像を処理することで各画像の視線分布を得る。一つの画像における視線分布とは、その画像のどの部分にどのくらい視線が集まるかを示す視認性スコアの分布である。この視線分布は、画像を複数の単位領域に分割し、各単位領域の視認性スコアを求めることで得られる。したがって、視線分布は視認性スコアの集合である。   The analysis unit 12 obtains the gaze distribution of each image by processing the reference image and the comparative image using such a gaze prediction (visual attention model) mechanism. The line-of-sight distribution in one image is a visibility score distribution indicating how much line-of-sight gathers in which part of the image. This line-of-sight distribution is obtained by dividing an image into a plurality of unit areas and obtaining a visibility score of each unit area. Therefore, the line-of-sight distribution is a set of visibility scores.

まず、解析部12は基準画像および比較画像のそれぞれをm×n個の単位領域に分割する。なお、m=nでもよい。単位領域の大きさは限定されず、例えば単位領域は一画素のみから成ってもよいし、n×n個(n>1)の画素から成ってもよい。基準画像と比較画像との間で画素数、サイズ、あるいは解像度が異なる場合には、解析部12は、これら二つの画像の間で単位領域の大きさを異ならせることで双方の画像をそれぞれm×n個の単位領域に分割すればよい。続いて、解析部12は各画像について視線予測を実行することで、画像内の個々の単位領域(i,j)の視認性スコアV(i,j)を得る(ただし、1≦i≦m,1≦j≦n)。そして、解析部12は基準画像および比較画像の双方の視線分布を変化量算出部13に出力する。   First, the analysis unit 12 divides each of the reference image and the comparison image into m × n unit areas. In addition, m = n may be sufficient. The size of the unit region is not limited. For example, the unit region may be composed of only one pixel, or may be composed of n × n (n> 1) pixels. When the number of pixels, the size, or the resolution is different between the reference image and the comparison image, the analysis unit 12 sets both the images to m by changing the size of the unit area between the two images. What is necessary is just to divide into * n unit area. Subsequently, the analysis unit 12 performs line-of-sight prediction on each image, thereby obtaining a visibility score V (i, j) of each unit region (i, j) in the image (where 1 ≦ i ≦ m). , 1 ≦ j ≦ n). Then, the analysis unit 12 outputs the line-of-sight distributions of both the reference image and the comparison image to the change amount calculation unit 13.

図4に示す基準画像201および比較画像202が入力された場合には、解析部12は図5に示すように二つの画像のそれぞれをm×n個に分割する。そして、解析部12は基準画像201の各単位領域について視認性スコアVを算出し、比較画像202の各単位領域について視認性スコアVを算出する。その計算により得られる基準画像201および比較画像202の視線分布をカラーコンター(color contour)で可視化した一例を模式的に図6に示す。図6において、基準画像201のカラーコンター201aおよび比較画像202のカラーコンター202aはいずれも、網掛けが薄いほど視認性スコアが高いことを示している。なお、解析サーバ10の主目的は基準画像および比較画像の視覚的効果の違いをユーザに提示する点にあるので、解析サーバ10が基準画像および比較画像の双方の視線分布を出力することは必須ではない。 When the reference image 201 and the comparison image 202 shown in FIG. 4 are input, the analysis unit 12 divides each of the two images into m × n as shown in FIG. Then, the analysis unit 12 calculates a visibility score V b for each unit region of the reference image 201 and calculates a visibility score V m for each unit region of the comparative image 202. FIG. 6 schematically shows an example in which the line-of-sight distribution of the reference image 201 and the comparison image 202 obtained by the calculation is visualized with a color contour. In FIG. 6, the color contour 201a of the reference image 201 and the color contour 202a of the comparative image 202 both indicate that the visibility score is higher as the shading is thinner. Since the main purpose of the analysis server 10 is to present the difference in visual effect between the reference image and the comparison image to the user, it is essential for the analysis server 10 to output the line-of-sight distribution of both the reference image and the comparison image. is not.

変化量算出部13は、基準画像と比較画像との間の視線分布の変化量を算出する機能要素である。変化量算出部13は基準画像の単位領域(i,j)と比較画像の対応する単位領域(i,j)との間の視認性スコアの変化量δV(i,j)を求める処理を、すべての単位領域について実行する。本明細書における「変化量」は、基準画像と比較画像との間で視線分布がどの程度異なるかを示す指数を意味し、その値は、単純な減算から得られる差に限定されない。以下に、変化量δVの計算方法についての三つの例を示す。   The change amount calculation unit 13 is a functional element that calculates the change amount of the line-of-sight distribution between the reference image and the comparison image. The change amount calculation unit 13 performs a process for obtaining a change amount δV (i, j) of the visibility score between the unit region (i, j) of the reference image and the corresponding unit region (i, j) of the comparison image. Execute for all unit areas. The “change amount” in this specification means an index indicating how much the line-of-sight distribution differs between the reference image and the comparative image, and the value is not limited to a difference obtained by simple subtraction. Below, three examples about the calculation method of variation | change_quantity (delta) V are shown.

[第1の手法]
変化量算出部13は下記式によりその変化量δVを求めてもよい。すなわち、変化量算出部13は比較画像の視認性スコアから基準画像の視認性スコアを引いた値を変化量として求めてもよい。
δV(i,j)=V(i,j)−V(i,j)
ただし、変化量算出部13は、δV(i,j)が0未満であればその値を0に修正する。この修正は、基準画像と比べて比較画像がどのくらい変化したかのみを示すために行われる。
[First method]
The change amount calculation unit 13 may obtain the change amount δV by the following equation. That is, the change amount calculation unit 13 may obtain a value obtained by subtracting the visibility score of the reference image from the visibility score of the comparison image as the change amount.
δV (i, j) = V m (i, j) −V b (i, j)
However, if the δV (i, j) is less than 0, the change amount calculation unit 13 corrects the value to 0. This correction is done to show only how much the comparison image has changed compared to the reference image.

[第2の手法]
変化量算出部13は下記式によりその変化量δVを求めてもよい。
δV(i,j)=[V(i,j)×{Vmax−V(i,j)}]/Pmax×Vmax
ここで、値Vmaxは、予め定められている視認性スコアの最大値である。例えば、視認性スコアの範囲が0〜100であれば、Vmaxは100である。当然ながら、基準画像および比較画像の少なくとも一方において実際の視認性スコアの最大値がVmaxを下回ることがあり得る。値Pmaxは、すべての単位領域について得られた値[V(i,j)×{Vmax−V(i,j)}]の最大値である。
[Second method]
The change amount calculation unit 13 may obtain the change amount δV by the following equation.
δV (i, j) = [ V m (i, j) × {V max -V b (i, j)}] / P max × V max
Here, the value V max is a maximum value of a predetermined visibility score. For example, if the range of the visibility score is 0 to 100, V max is 100. Of course, the maximum value of the actual visibility score may be lower than V max in at least one of the reference image and the comparative image. The value P max is the maximum value [V m (i, j) × {V max −V b (i, j)}] obtained for all unit regions.

この第2の手法は、比較画像の視認性スコアと基準画像の視認性スコアとの積を用いて変化量δVを求める手法である。また、この手法は、0からVmaxの間で各単位領域の変化量を正規化する手法でもある。 This second method is a method for obtaining the change amount δV using the product of the visibility score of the comparative image and the visibility score of the reference image. Also, this technique is also a method to normalize the amount of change in each unit region between 0 and V max.

[第3の手法]
変化量算出部13は下記式によりその変化量δVを求めてもよい。
δV(i,j)=[{V(i,j)−V(i,j)}−Pmin]/(Pmax−Pmin)×Vmax
ここで、値Pmax,Pminはそれぞれ、すべての単位領域について得られた値[V(i,j)×{Vmax−V(i,j)}]の最大値および最小値である。
[Third method]
The change amount calculation unit 13 may obtain the change amount δV by the following equation.
δV (i, j) = [ {V m (i, j) -V b (i, j)} - P min] / (P max -P min) × V max
Here, the values P max and P min are the maximum value and the minimum value of the values [V m (i, j) × {V max −V b (i, j)}] obtained for all the unit areas, respectively. is there.

この第3の手法は、第1の手法と同様に、比較画像の視認性スコアから基準画像の視認性スコアを引いた値を用いて変化量δVを求める手法である。また、この手法は第2の手法と同様に、0からVmaxの間で各単位領域の変化量を正規化する手法でもある。 Similar to the first method, the third method is a method of obtaining the change amount δV using a value obtained by subtracting the visibility score of the reference image from the visibility score of the comparative image. This method is also a method for normalizing the amount of change in each unit region between 0 and V max , as in the second method.

このように変化量δVの計算方法は様々であるが、いずれにしても、変化量算出部13はすべての単位領域(i,j)について変化量δV(i,j)を算出し、その変化量δVの集合を画像生成部14に出力する。その変化量δVの集合を模式的に図7に示す。変化量δVの集合は視線分布の変化を示すデータである。   As described above, there are various methods for calculating the change amount δV, but in any case, the change amount calculation unit 13 calculates the change amount δV (i, j) for all the unit regions (i, j) and changes the change. A set of the amount δV is output to the image generation unit 14. A set of the variation δV is schematically shown in FIG. The set of change amounts δV is data indicating changes in the line-of-sight distribution.

画像生成部14は、視認性スコアの変化量δVの分布を視覚的に分かり易く示すための画像(差分画像)を生成する機能要素である。差分画像の表現方法は何ら限定されないが、本実施形態ではその差分画像はヒートマップで表されるものとする。ヒートマップとは、数値の大きさを色の濃淡または色の変化で表現する手法であり、その色の濃淡または色の変化を原画像に重畳することで得られる。例えば、最小値を示す黒から最大値を示す白までの範囲を256段階のグレースケールで表現したヒートマップや、最小値を示す黒から最大値を示す赤までの範囲を、黒→青→水色→緑→黄→赤の順で滑らかに変化するカラーコンターで表現したヒートマップを用いることができる。   The image generation unit 14 is a functional element that generates an image (difference image) for showing the distribution of the change amount δV of the visibility score in an easily understandable manner. Although the representation method of a difference image is not limited at all, in the present embodiment, the difference image is represented by a heat map. The heat map is a technique for expressing the magnitude of a numerical value by color shading or color change, and is obtained by superimposing the color shading or color change on an original image. For example, a heat map in which the range from black indicating the minimum value to white indicating the maximum value is expressed in 256 levels of gray scale, or the range from black indicating the minimum value to red indicating the maximum value is expressed as black → blue → light blue. It is possible to use a heat map expressed by a color contour that changes smoothly in the order of green, yellow, red.

まず、画像生成部14は、予め定められている視認性スコアの最小値Vminおよび最大値Vmaxを取得し、このVminからVmaxまでの範囲をヒートマップの尺度(scale)に対応付ける。例えば、Vmin=0,Vmax=100であれば、画像生成部14は0〜100の範囲をヒートマップの尺度に対応付ける。変化量δVはVminからVmaxまでの間の値を取るから、この尺度により変化量δVを表すことができる。変化量δVをグレースケールで表すのであれば、画像生成部14はVminおよびVmaxをそれぞれ黒、白に対応付ける。この場合には、変化量δVが小さい単位領域は暗いまたは濃い灰色で示され、変化量δVが大きい単位領域は明るいまたは薄い灰色で示される。変化量δVをカラーコンターで表すのであれば、画像生成部14はVminおよびVmaxをそれぞれ黒(RGB値は(0,0,0))、赤(RGB値は(127,0,0))に対応付ける。この場合には、変化量δVが小さい単位領域は青や水色などで示され、変化量δVが大きい単位領域は黄や赤などで示され、変化量δVが中間値に近い単位領域は緑色で示される。 First, the image generation unit 14 acquires a minimum value V min and a maximum value V max of a visibility score determined in advance, and associates a range from V min to V max with a scale of the heat map. For example, if V min = 0 and V max = 100, the image generation unit 14 associates the range of 0 to 100 with the scale of the heat map. Since the change amount δV takes a value between V min and V max , the change amount δV can be expressed by this scale. If the change amount δV is expressed in gray scale, the image generation unit 14 associates V min and V max with black and white, respectively. In this case, a unit region having a small change amount δV is shown in dark or dark gray, and a unit region having a large change amount δV is shown in light or light gray. If the amount of change δV is expressed by a color contour, the image generation unit 14 sets V min and V max to black (RGB values are (0, 0, 0)) and red (RGB values are (127, 0, 0)). ). In this case, a unit region having a small change amount δV is indicated by blue or light blue, a unit region having a large change amount δV is indicated by yellow or red, and a unit region having a change amount δV close to an intermediate value is green. Indicated.

変化量δVとカラーコンターとの対応の一例を図8に示す。この例では、予め定められた視認性スコアの最小値Vminおよび最大値Vmaxがそれぞれ0,100であり、したがって、変化量δVは0から100の間の値を取る。変化量δVを示す色(RGB値)は、黒(0,0,0)→…→青(0,0,255)→…→水色(0,255,255)→…→緑(0,255,0)→…→黄(255,255,0)→…→赤(255,0,0)→…→暗い赤(127,0,0)の順に変化する。なお、図8におけるδVの参考値(18,36,55,73,91)は大よその値である。 An example of the correspondence between the change amount δV and the color contour is shown in FIG. In this example, the minimum value V min and the maximum value V max of the visibility score determined in advance are 0 and 100, respectively, and therefore the change amount δV takes a value between 0 and 100. The color (RGB value) indicating the change amount δV is black (0,0,0) → ... → blue (0,0,255) → ... → light blue (0,255,255) → ... → green (0,255) , 0) → ... → yellow (255,255,0) → ... → red (255,0,0) → ... → dark red (127,0,0). Note that the reference values (18, 36, 55, 73, 91) of δV in FIG. 8 are roughly the values.

続いて、画像生成部14は入力された各単位領域の変化量δVをヒートマップの尺度に当てはめて各単位領域の色を設定することでグレースケール画像またはカラーコンター画像を生成する。   Subsequently, the image generation unit 14 generates a grayscale image or a color contour image by setting the color of each unit region by applying the input change amount δV of each unit region to the scale of the heat map.

続いて、画像生成部14はグレースケール画像またはカラーコンター画像と比較画像とを合成することで差分画像(ヒートマップ)を生成する。この差分画像は、基準画像と比べて比較画像のどの部分が視覚的注意をより惹き付けるようになったか、あるいは、逆に比較画像のどの部分が視覚的注意を惹き付けなくなったかを示す画像である。画像生成部14はその差分画像を送信部15に出力する。   Subsequently, the image generation unit 14 generates a difference image (heat map) by synthesizing the grayscale image or the color contour image and the comparison image. This difference image is an image that indicates which part of the comparison image has attracted more visual attention than the reference image, or conversely, which part of the comparison image has no longer attracted visual attention. is there. The image generation unit 14 outputs the difference image to the transmission unit 15.

上記第1〜第3の手法に対応するカラーコンター画像および差分画像(ヒートマップ)の例を図9〜11に示す。図9は、第1の手法で得られた変化量δVのカラーコンター画像211および差分画像212を示す図である。図10は、第2の手法で得られた変化量δVのカラーコンター画像221および差分画像222を示す図である。図11は、第3の手法で得られた変化量δVのカラーコンター画像231および差分画像232を示す図である。   Examples of color contour images and difference images (heat maps) corresponding to the first to third methods are shown in FIGS. FIG. 9 is a diagram showing the color contour image 211 and the difference image 212 of the change amount δV obtained by the first method. FIG. 10 is a diagram showing the color contour image 221 and the difference image 222 of the change amount δV obtained by the second method. FIG. 11 is a diagram showing a color contour image 231 and a difference image 232 of the change amount δV obtained by the third method.

第1の手法は視認性スコアの差分をそのまま変化量δVとして求めるのでその変化量は全体的に低い値となる。したがって図9の画像211,212から分かるように、変化量δVをグレースケールで示すと画像が全体的に暗くなる傾向があり、変化量δVをカラーコンターで示すと画像が全体的に黒、青、または水色で示される傾向がある。一方、上述した第2または第3の手法では変化量δVがヒートマップの尺度の範囲に合わせて正規化されるので、画像221,222,231,232に示すように、明るい灰色または白も含むグレースケール画像、あるいは緑、黄、赤などの色も含むカラーコンター画像が生成され得る。   In the first method, the difference in the visibility score is obtained as it is as the change amount δV, so that the change amount becomes a low value as a whole. Accordingly, as can be seen from the images 211 and 212 in FIG. 9, when the change amount δV is shown in gray scale, the image tends to be dark overall, and when the change amount δV is shown in color contour, the image is entirely black, blue Or tend to be shown in light blue. On the other hand, since the change amount δV is normalized according to the scale range of the heat map in the second or third method described above, light gray or white is also included as shown in the images 221, 222, 231, 232. A gray scale image or a color contour image including colors such as green, yellow, and red can be generated.

送信部15は差分画像をユーザ端末Tに送信する機能要素である。この送信は視線分布の変化量を出力することに相当する。ユーザ端末Tはその差分画像を受信および表示し、これによりユーザは基準画像と比べて比較画像の視線分布がどのように変化したかを知ることができる。   The transmission unit 15 is a functional element that transmits the difference image to the user terminal T. This transmission is equivalent to outputting the amount of change in the line-of-sight distribution. The user terminal T receives and displays the difference image, so that the user can know how the line-of-sight distribution of the comparison image has changed compared to the reference image.

次に、図12を用いて、視線予測システム1(解析サーバ10)の動作を説明するとともに本実施形態に係る視線分析方法について説明する。   Next, the operation of the line-of-sight prediction system 1 (analysis server 10) will be described using FIG. 12 and the line-of-sight analysis method according to the present embodiment will be described.

受付部11が基準画像および比較画像をユーザ端末Tから受信すると(ステップS11、受付ステップ)、解析部12がそれら二つの画像のそれぞれに対して視線予測を適用することで各画像の視線分布を算出する(ステップS12、第1算出ステップ)。続いて、変化量算出部13が基準画像の視線分布と比較画像の視線分布との間の変化量を算出する(ステップS13、第2算出ステップ)。上記の通りその変化量の計算方法は様々であり、変化量算出部13は任意の手法を用いて各単位領域における変化量δVを求める。続いて、画像生成部14がその変化量に基づいて差分画像を生成し(ステップS14)、送信部15がその差分画像をユーザ端末Tに送信する(ステップS15、出力ステップ)。この一連の処理によりユーザ端末T上にその差分画像が表示され、ユーザは基準画像と比べて比較画像の視覚的効果がどのように変わるかを判断することができる。   When the reception unit 11 receives the reference image and the comparison image from the user terminal T (step S11, reception step), the analysis unit 12 applies the line-of-sight prediction to each of the two images, thereby determining the line-of-sight distribution of each image. Calculate (step S12, first calculation step). Subsequently, the change amount calculation unit 13 calculates a change amount between the line-of-sight distribution of the reference image and the line-of-sight distribution of the comparative image (step S13, second calculation step). As described above, there are various calculation methods for the change amount, and the change amount calculation unit 13 obtains the change amount δV in each unit region using an arbitrary method. Subsequently, the image generation unit 14 generates a difference image based on the amount of change (step S14), and the transmission unit 15 transmits the difference image to the user terminal T (step S15, output step). The difference image is displayed on the user terminal T by this series of processes, and the user can determine how the visual effect of the comparison image changes compared to the reference image.

ユーザは基準画像および比較画像の少なくとも一方を変えながら何度でも差分画像を見ることができる。解析サーバ10はユーザ端末Tから基準画像および比較画像を受信する度に上記ステップS11〜S15の処理を繰り返し実行する。ユーザは差分画像を見比べながら、その画像が所望の視覚的効果を発揮するかを判断することができる。例えば図13に示すように、ユーザは、全体において色が一様である文字列「ABCDEFG」が基準画像201に追加された比較画像202と、その文字列の一部(「DE」)のみが強調された比較画像203とを比較することもできる。図14は、比較画像202と基準画像201とから得られた差分画像301と、比較画像203と基準画像201とから得られた差分画像302とを示している。差分画像301を見ると文字列のほぼ全体において変化量δVが一様に高い。一方、差分画像302を見ると文字列のうち「DE」の部分の変化量δVが突出して高い。したがって、比較画像202の方が比較画像203よりも、文字列の全体が視覚的注意を惹き付け、文字列全体に注目して欲しい場合には比較画像202の方が有利であることが分かる。   The user can view the difference image any number of times while changing at least one of the reference image and the comparison image. Each time the analysis server 10 receives the reference image and the comparison image from the user terminal T, the analysis server 10 repeatedly executes the processes of steps S11 to S15. The user can determine whether the image exhibits a desired visual effect while comparing the difference images. For example, as illustrated in FIG. 13, the user can compare only the comparison image 202 in which the character string “ABCDEFG” having a uniform color as a whole is added to the reference image 201 and a part of the character string (“DE”). It is also possible to compare the enhanced comparative image 203. FIG. 14 shows a difference image 301 obtained from the comparison image 202 and the reference image 201, and a difference image 302 obtained from the comparison image 203 and the reference image 201. Looking at the difference image 301, the change amount δV is uniformly high in almost the entire character string. On the other hand, when the difference image 302 is viewed, the amount of change δV of the “DE” portion of the character string protrudes and is high. Therefore, it can be seen that the comparative image 202 is more advantageous than the comparative image 203 when the entire character string attracts visual attention and the entire character string needs attention.

比較画像202と比較画像203とについての文字列領域の視覚的効果を判断する際にその領域内の変化量δVの総和(積算スコア)だけで判定するとなると、その積算スコアは比較画像203の方が比較画像202よりも大きくなるかもしれない。もしそのような計算結果が得られた場合には、ユーザは比較画像203の方が比較画像202よりも文字列全体が視覚的注意を惹き付けると判断する可能性がある。本実施形態では単位領域毎の変化量δVが出力されるので、ユーザは画像全体あるいは関心領域(Area of Interest(AOI))の全体における変化量δVの傾向を見ながら画像を比較することができる。ここで、関心領域とは、画像全体のうち、相手の視覚的注意を惹き付けることができるか否かをユーザが特に知りたいと思う部分である。   When determining the visual effect of the character string region for the comparison image 202 and the comparison image 203, if it is determined only by the total sum (integration score) of the amount of change δV in that region, the integration score is the direction of the comparison image 203. May be larger than the comparison image 202. If such a calculation result is obtained, the user may determine that the comparison image 203 attracts visual attention to the entire character string more than the comparison image 202. In this embodiment, since the change amount δV for each unit area is output, the user can compare the images while observing the tendency of the change amount δV in the entire image or the entire area of interest (Area of Interest (AOI)). . Here, the region of interest is a part in which the user particularly wants to know whether or not the other person's visual attention can be attracted in the entire image.

次に、図15を用いて、コンピュータを視線予測システム1(解析サーバ10)として機能させるための視線予測プログラムP1を説明する。   Next, a line-of-sight prediction program P1 for causing a computer to function as the line-of-sight prediction system 1 (analysis server 10) will be described with reference to FIG.

視線予測プログラムP1は、メインモジュールP10、受付モジュールP11、解析モジュールP12、変化量算出モジュールP13、画像生成モジュールP14、および送信モジュールP15を備える。   The line-of-sight prediction program P1 includes a main module P10, a reception module P11, an analysis module P12, a change amount calculation module P13, an image generation module P14, and a transmission module P15.

メインモジュールP10は、視線予測機能を統括的に制御する部分である。受付モジュールP11、解析モジュールP12、変化量算出モジュールP13、画像生成モジュールP14、および送信モジュールP15を実行することにより実現される機能はそれぞれ、上記の受付部11、解析部12、変化量算出部13、画像生成部14、および送信部15の機能と同様である。   The main module P10 is a part that comprehensively controls the line-of-sight prediction function. The functions realized by executing the reception module P11, the analysis module P12, the variation calculation module P13, the image generation module P14, and the transmission module P15 are the reception unit 11, the analysis unit 12, and the variation calculation unit 13, respectively. The functions of the image generation unit 14 and the transmission unit 15 are the same.

視線予測プログラムP1は、例えば、CD−ROMやDVD−ROM、半導体メモリ等の有形の記録媒体に固定的に記録された上で提供されてもよい。あるいは、視線予測プログラムP1は、搬送波に重畳されたデータ信号として通信ネットワークを介して提供されてもよい。   The line-of-sight prediction program P1 may be provided after being fixedly recorded on a tangible recording medium such as a CD-ROM, DVD-ROM, or semiconductor memory. Alternatively, the line-of-sight prediction program P1 may be provided via a communication network as a data signal superimposed on a carrier wave.

以上説明したように、本発明の一側面に係る視線予測システムは、一または複数のプロセッサを備え、少なくとも一つのプロセッサが、共通のまたは類似のデザインを有する基準画像および比較画像を受け付け、視覚的注意を惹き付ける傾向がある領域を予測する視線予測を基準画像および比較画像の双方に適用することで、該基準画像の視線分布と該比較画像の視線分布とを算出し、基準画像の視線分布と比較画像の視線分布との間の変化量を算出し、変化量を視線分布の変化として出力する。   As described above, the line-of-sight prediction system according to one aspect of the present invention includes one or more processors, and at least one processor receives a reference image and a comparative image having a common or similar design, and visually By applying line-of-sight prediction that predicts a region that tends to attract attention to both the reference image and the comparison image, the line-of-sight distribution of the reference image and the line-of-sight distribution of the comparison image are calculated, and the line-of-sight distribution of the reference image And the line of sight distribution of the comparison image are calculated, and the amount of change is output as the line of sight distribution change.

また、本発明の一側面に係る視線予測方法は、少なくとも一つのプロセッサが、共通のまたは類似のデザインを有する基準画像および比較画像を受け付ける受付ステップと、少なくとも一つのプロセッサが、視覚的注意を惹き付ける傾向がある領域を予測する視線予測を基準画像および比較画像の双方に適用することで、該基準画像の視線分布と該比較画像の視線分布とを算出する第1算出ステップと、少なくとも一つのプロセッサが、基準画像の視線分布と比較画像の視線分布との間の変化量を算出する第2算出ステップと、少なくとも一つのプロセッサが、変化量を視線分布の変化として出力する出力ステップとを含む。   Also, in the gaze prediction method according to one aspect of the present invention, at least one processor receives a reference image and a comparative image having a common or similar design, and at least one processor attracts visual attention. A first calculation step of calculating a gaze distribution of the reference image and a gaze distribution of the comparison image by applying gaze prediction that predicts a region tending to be applied to both the reference image and the comparison image; and at least one The processor includes a second calculation step of calculating a change amount between the line-of-sight distribution of the reference image and the line-of-sight distribution of the comparative image, and an output step in which at least one processor outputs the change amount as a change in the line-of-sight distribution. .

また、本発明の一側面に係る視線予測プログラムは、共通のまたは類似のデザインを有する基準画像および比較画像を受け付ける受付ステップと、視覚的注意を惹き付ける傾向がある領域を予測する視線予測を基準画像および比較画像の双方に適用することで、該基準画像の視線分布と該比較画像の視線分布とを算出する第1算出ステップと、基準画像の視線分布と比較画像の視線分布との間の変化量を算出する第2算出ステップと、変化量を視線分布の変化として出力する出力ステップとをコンピュータに実行させる。   The eye gaze prediction program according to one aspect of the present invention is based on a reception step for receiving a reference image and a comparative image having a common or similar design, and eye gaze prediction for predicting an area that tends to attract visual attention. A first calculation step of calculating the line-of-sight distribution of the reference image and the line-of-sight distribution of the comparative image by applying to both the image and the comparative image; and between the line-of-sight distribution of the reference image and the line-of-sight distribution of the comparative image The computer executes a second calculation step for calculating the amount of change and an output step for outputting the amount of change as a change in the line-of-sight distribution.

このような側面においては、共通のまたは類似のデザインを有する二つの画像の視線分布の変化量が算出されその結果が出力されるので、複数のデザインの違いを明確に提示することができる。   In such an aspect, since the amount of change in the line-of-sight distribution of two images having a common or similar design is calculated and the result is output, differences between a plurality of designs can be clearly presented.

本発明の別の側面では、少なくとも一つのプロセッサが、基準画像および比較画像のそれぞれを複数の単位領域に分割し、基準画像に視線予測を適用することで得られる複数の単位領域の視認性スコアを該基準画像の視線分布として取得し、比較画像に視線予測を適用することで得られる複数の単位領域の視認性スコアを該比較画像の視線分布として取得し、基準画像の単位領域における視認性スコアと、対応する比較画像の単位領域における視認性スコアとの間の変化量を算出する処理をすべての単位領域について実行し、各単位領域の変化量を視線分布の変化として出力してもよい。基準画像および比較画像を複数の単位領域に分割して単位領域毎に変化量を求めることで、詳細な視線分布の変化を提示することができる。   In another aspect of the present invention, at least one processor divides each of the reference image and the comparison image into a plurality of unit regions, and applies visibility prediction to the reference image to obtain a plurality of unit region visibility scores. Is obtained as a gaze distribution of the reference image, and visibility scores of a plurality of unit areas obtained by applying gaze prediction to the comparison image are obtained as the gaze distribution of the comparison image, and the visibility in the unit area of the reference image is obtained. The process of calculating the amount of change between the score and the visibility score in the unit region of the corresponding comparison image may be executed for all unit regions, and the amount of change in each unit region may be output as a change in line-of-sight distribution. . By dividing the reference image and the comparison image into a plurality of unit regions and obtaining the amount of change for each unit region, it is possible to present a detailed change in the line-of-sight distribution.

本発明の別の側面では、少なくとも一つのプロセッサが視線分布の変化を色分けして出力してもよい。この場合には、視線分布の変化をわかり易く示すことができる。   In another aspect of the present invention, at least one processor may output a change in the line-of-sight distribution in different colors. In this case, the change in the line-of-sight distribution can be shown in an easily understandable manner.

本発明の別の側面では、少なくとも一つのプロセッサが、色分けされた視線分布の変化と比較画像とを重畳することで差分画像を生成し、該差分画像を出力してもよい。この場合には、画像のどの部分の視覚的効果がどのくらい変化したかをわかり易く提示することができる。   In another aspect of the present invention, at least one processor may generate a difference image by superimposing a change in color-coded line-of-sight distribution and a comparison image, and output the difference image. In this case, it is possible to easily show how much the visual effect of which part of the image has changed.

本発明の別の側面では、少なくとも一つのプロセッサが、0から、基準画像および比較画像の単位領域の視認性スコアの中の最大値の間で、各単位領域の変化量を正規化してもよい。単位領域の変化量を正規化することで、視線分布の変化の大きさをわかり易く示すことができる。   In another aspect of the present invention, at least one processor may normalize a change amount of each unit region between 0 and a maximum value in the visibility scores of the unit regions of the reference image and the comparison image. . By normalizing the amount of change in the unit area, the magnitude of the change in the line-of-sight distribution can be shown in an easily understandable manner.

以上、本発明をその実施形態に基づいて詳細に説明した。しかし、本発明は上記実施形態に限定されるものではない。本発明は、その要旨を逸脱しない範囲で様々な変形が可能である。   The present invention has been described in detail based on the embodiments. However, the present invention is not limited to the above embodiment. The present invention can be variously modified without departing from the gist thereof.

上記実施形態では視線予測システム1が視線分布の変化をヒートマップで示したが、表現方法はこれに限定されない。例えば視線予測システムは変化量を数個の段階(例えば3段階)に分けて示すリージョンマップを出力してもよい。このリージョンマップは、視線が集まる領域を枠で示すと共に各領域についての視線の集中度合いを数値で示す手法である。あるいは視線予測システム1は視線分布の変化をカラーコンター画像またはグレースケール画像のみで表してもよい。   In the embodiment described above, the line-of-sight prediction system 1 shows the change in the line-of-sight distribution using a heat map, but the expression method is not limited to this. For example, the line-of-sight prediction system may output a region map indicating the change amount in several stages (for example, three stages). This region map is a technique for indicating a region where the line of sight gathers with a frame and a numerical value indicating the degree of concentration of the line of sight for each region. Alternatively, the line-of-sight prediction system 1 may represent changes in the line-of-sight distribution using only a color contour image or a grayscale image.

視線分布の変化の出力先も限定されない。例えば視線予測システムは視線分布の変化のデータを任意の記憶部(例えばデータベース)に格納してもよく、この場合には差分画像を生成することなく変化量の生データのみを格納してもよい。   The output destination of the change in the line-of-sight distribution is not limited. For example, the line-of-sight prediction system may store line-of-sight distribution change data in an arbitrary storage unit (for example, a database). In this case, only the change amount raw data may be stored without generating a difference image. .

本発明は単体のコンピュータにも適用可能である。すなわち、視線予測システム全体の機能をユーザ端末に実装してもよい。   The present invention can also be applied to a single computer. That is, you may mount the function of the whole gaze prediction system in a user terminal.

1…視線予測システム、10…解析サーバ、11…受付部、12…解析部、13…変化量算出部、14…画像生成部、15…送信部、P1…視線予測プログラム、P10…メインモジュール、P11…受付モジュール、P12…解析モジュール、P13…変化量算出モジュール、P14…画像生成モジュール、P15…送信モジュール、T…ユーザ端末。   DESCRIPTION OF SYMBOLS 1 ... Gaze prediction system, 10 ... Analysis server, 11 ... Reception part, 12 ... Analysis part, 13 ... Change amount calculation part, 14 ... Image generation part, 15 ... Transmission part, P1 ... Gaze prediction program, P10 ... Main module, P11: reception module, P12: analysis module, P13: change amount calculation module, P14: image generation module, P15: transmission module, T: user terminal.

Claims (7)

一または複数のプロセッサを備え、
少なくとも一つの前記プロセッサが、
共通のまたは類似のデザインを有する基準画像および比較画像を受け付け、
視覚的注意を惹き付ける傾向がある領域を予測する視線予測を前記基準画像および前記比較画像の双方に適用することで、該基準画像の視線分布と該比較画像の視線分布とを算出し、
前記基準画像の視線分布と前記比較画像の視線分布との間の変化量を算出し、
前記変化量を視線分布の変化として出力する、
視線予測システム。
With one or more processors,
At least one of the processors is
Accept reference and comparison images with a common or similar design,
By applying line-of-sight prediction that predicts a region that tends to attract visual attention to both the reference image and the comparison image, the line-of-sight distribution of the reference image and the line-of-sight distribution of the comparison image are calculated,
Calculating the amount of change between the line-of-sight distribution of the reference image and the line-of-sight distribution of the comparative image;
Outputting the amount of change as a change in gaze distribution;
Gaze prediction system.
前記少なくとも一つのプロセッサが、
前記基準画像および前記比較画像のそれぞれを複数の単位領域に分割し、
前記基準画像に前記視線予測を適用することで得られる前記複数の単位領域の視認性スコアを該基準画像の視線分布として取得し、
前記比較画像に前記視線予測を適用することで得られる前記複数の単位領域の視認性スコアを該比較画像の視線分布として取得し、
前記基準画像の単位領域における視認性スコアと、対応する前記比較画像の単位領域における視認性スコアとの間の変化量を算出する処理をすべての単位領域について実行し、
各単位領域の変化量を前記視線分布の変化として出力する、
請求項1に記載の視線予測システム。
The at least one processor comprises:
Dividing each of the reference image and the comparative image into a plurality of unit regions;
Obtaining a visibility score of the plurality of unit regions obtained by applying the line-of-sight prediction to the reference image as a line-of-sight distribution of the reference image;
Obtaining a visibility score of the plurality of unit regions obtained by applying the line-of-sight prediction to the comparison image as a line-of-sight distribution of the comparison image;
A process of calculating the amount of change between the visibility score in the unit area of the reference image and the visibility score in the corresponding unit area of the comparison image is executed for all unit areas.
The amount of change in each unit area is output as a change in the line-of-sight distribution.
The line-of-sight prediction system according to claim 1.
前記少なくとも一つのプロセッサが前記視線分布の変化を色分けして出力する、
請求項1または2に記載の視線予測システム。
The at least one processor outputs the change in the line-of-sight distribution in different colors;
The line-of-sight prediction system according to claim 1 or 2.
前記少なくとも一つのプロセッサが、色分けされた前記視線分布の変化と前記比較画像とを重畳することで差分画像を生成し、該差分画像を出力する、
請求項3に記載の視線予測システム。
The at least one processor generates a difference image by superimposing the change in the line-of-sight distribution color-coded and the comparison image, and outputs the difference image;
The gaze prediction system according to claim 3.
前記少なくとも一つのプロセッサが、0から、前記基準画像および前記比較画像の単位領域の視認性スコアの中の最大値の間で、各単位領域の変化量を正規化する、
請求項2〜4のいずれか一項に記載の視線予測システム。
The at least one processor normalizes a change amount of each unit region between 0 and a maximum value in the visibility scores of the unit regions of the reference image and the comparison image;
The line-of-sight prediction system according to any one of claims 2 to 4.
少なくとも一つのプロセッサが、共通のまたは類似のデザインを有する基準画像および比較画像を受け付ける受付ステップと、
前記少なくとも一つのプロセッサが、視覚的注意を惹き付ける傾向がある領域を予測する視線予測を前記基準画像および前記比較画像の双方に適用することで、該基準画像の視線分布と該比較画像の視線分布とを算出する第1算出ステップと、
前記少なくとも一つのプロセッサが、前記基準画像の視線分布と前記比較画像の視線分布との間の変化量を算出する第2算出ステップと、
前記少なくとも一つのプロセッサが、前記変化量を視線分布の変化として出力する出力ステップと
を含む視線予測方法。
An accepting step in which at least one processor receives a reference image and a comparative image having a common or similar design;
The at least one processor applies a line-of-sight prediction that predicts a region that tends to attract visual attention to both the reference image and the comparative image, so that the line-of-sight distribution of the reference image and the line of sight of the comparative image A first calculation step of calculating a distribution;
A second calculating step in which the at least one processor calculates a change amount between the line-of-sight distribution of the reference image and the line-of-sight distribution of the comparative image;
An eye gaze prediction method including: an output step in which the at least one processor outputs the amount of change as a gaze distribution change.
共通のまたは類似のデザインを有する基準画像および比較画像を受け付ける受付ステップと、
視覚的注意を惹き付ける傾向がある領域を予測する視線予測を前記基準画像および前記比較画像の双方に適用することで、該基準画像の視線分布と該比較画像の視線分布とを算出する第1算出ステップと、
前記基準画像の視線分布と前記比較画像の視線分布との間の変化量を算出する第2算出ステップと、
前記変化量を視線分布の変化として出力する出力ステップと
をコンピュータに実行させる視線予測プログラム。
Receiving a reference image and a comparative image having a common or similar design;
By applying gaze prediction that predicts a region that tends to attract visual attention to both the reference image and the comparison image, a first gaze distribution of the reference image and a gaze distribution of the comparison image are calculated. A calculation step;
A second calculation step of calculating an amount of change between the line-of-sight distribution of the reference image and the line-of-sight distribution of the comparative image;
A gaze prediction program for causing a computer to execute an output step of outputting the change amount as a gaze distribution change.
JP2013268623A 2013-12-26 2013-12-26 Line-of-sight prediction system, line-of-sight prediction method, and line-of-sight prediction program Pending JP2015125543A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013268623A JP2015125543A (en) 2013-12-26 2013-12-26 Line-of-sight prediction system, line-of-sight prediction method, and line-of-sight prediction program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013268623A JP2015125543A (en) 2013-12-26 2013-12-26 Line-of-sight prediction system, line-of-sight prediction method, and line-of-sight prediction program

Publications (1)

Publication Number Publication Date
JP2015125543A true JP2015125543A (en) 2015-07-06

Family

ID=53536222

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013268623A Pending JP2015125543A (en) 2013-12-26 2013-12-26 Line-of-sight prediction system, line-of-sight prediction method, and line-of-sight prediction program

Country Status (1)

Country Link
JP (1) JP2015125543A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017173881A (en) * 2016-03-18 2017-09-28 ヤフー株式会社 Advertising review support device, advertising review support method, and advertising review support program
CN110335306A (en) * 2019-04-23 2019-10-15 华中科技大学 Blinkpunkt prediction technique and device
JP2019215688A (en) * 2018-06-12 2019-12-19 国立大学法人神戸大学 Visual line measuring device, visual line measurement method and visual line measurement program for performing automatic calibration

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017173881A (en) * 2016-03-18 2017-09-28 ヤフー株式会社 Advertising review support device, advertising review support method, and advertising review support program
JP2019215688A (en) * 2018-06-12 2019-12-19 国立大学法人神戸大学 Visual line measuring device, visual line measurement method and visual line measurement program for performing automatic calibration
JP7168953B2 (en) 2018-06-12 2022-11-10 国立大学法人神戸大学 Gaze measurement device for automatic calibration, Gaze measurement method and Gaze measurement program
CN110335306A (en) * 2019-04-23 2019-10-15 华中科技大学 Blinkpunkt prediction technique and device

Similar Documents

Publication Publication Date Title
US20200342576A1 (en) Digital Image Completion by Learning Generation and Patch Matching Jointly
US10657652B2 (en) Image matting using deep learning
US10846870B2 (en) Joint training technique for depth map generation
CN113473182B (en) Video generation method and device, computer equipment and storage medium
US20160364633A1 (en) Font recognition and font similarity learning using a deep neural network
CN106157273B (en) Method and device for generating composite picture
CN113994384A (en) Image rendering using machine learning
CN101536078A (en) Improving image masks
CN103988202A (en) Image attractiveness based indexing and searching
US11308628B2 (en) Patch-based image matting using deep learning
CN110084204B (en) Image processing method and device based on target object posture and electronic equipment
US20220207875A1 (en) Machine learning-based selection of a representative video frame within a messaging application
CN112102207A (en) Method and device for determining temperature, electronic equipment and readable storage medium
KR20200015095A (en) Image processing apparatus and operating method for the same
JP2015125543A (en) Line-of-sight prediction system, line-of-sight prediction method, and line-of-sight prediction program
US20230162399A1 (en) Information processing apparatus, information processing terminal, information processing method, and program
US11615507B2 (en) Automatic content-aware collage
US20160140748A1 (en) Automated animation for presentation of images
CN114119778A (en) Deep color mode generation method of user interface, electronic equipment and storage medium
JP2015125541A (en) Line-of-sight prediction system, line-of-sight prediction method, and line-of-sight prediction program
CN110942056A (en) Clothing key point positioning method and device, electronic equipment and medium
CN110827373A (en) Advertisement picture generation method and device and storage medium
US20190311545A1 (en) Augmented Reality Advertising Systems and Methods
JP2020030730A (en) House movement reading system, house movement reading method, house movement reading program, and house loss reading model
KR101117543B1 (en) sign estimation system