JP4896160B2 - Method for confirming conspicuous area of multimedia document, method for generating advertisement document, method for automatically confirming conspicuous area of Internet site, and related computer program - Google Patents
Method for confirming conspicuous area of multimedia document, method for generating advertisement document, method for automatically confirming conspicuous area of Internet site, and related computer program Download PDFInfo
- Publication number
- JP4896160B2 JP4896160B2 JP2008552812A JP2008552812A JP4896160B2 JP 4896160 B2 JP4896160 B2 JP 4896160B2 JP 2008552812 A JP2008552812 A JP 2008552812A JP 2008552812 A JP2008552812 A JP 2008552812A JP 4896160 B2 JP4896160 B2 JP 4896160B2
- Authority
- JP
- Japan
- Prior art keywords
- document
- area
- conspicuous
- map
- conspicuousness
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
- 238000000034 method Methods 0.000 title claims description 52
- 238000004590 computer program Methods 0.000 title claims description 3
- 230000000007 visual effect Effects 0.000 claims description 16
- 238000004458 analytical method Methods 0.000 claims description 8
- 238000013459 approach Methods 0.000 description 4
- 238000011156 evaluation Methods 0.000 description 3
- 238000012545 processing Methods 0.000 description 3
- 238000012732 spatial analysis Methods 0.000 description 2
- 238000012731 temporal analysis Methods 0.000 description 2
- 230000005540 biological transmission Effects 0.000 description 1
- 238000012790 confirmation Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000003631 expected effect Effects 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 238000003780 insertion Methods 0.000 description 1
- 230000037431 insertion Effects 0.000 description 1
- 230000002123 temporal effect Effects 0.000 description 1
- 238000012795 verification Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/40—Analysis of texture
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/46—Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
- G06V10/462—Salient features, e.g. scale invariant feature transforms [SIFT]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V30/00—Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
- G06V30/40—Document-oriented image-based pattern recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10004—Still image; Photographic image
- G06T2207/10008—Still image; Photographic image from scanner, fax or copier
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30176—Document
Landscapes
- Engineering & Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Multimedia (AREA)
- Artificial Intelligence (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
- Information Transfer Between Computers (AREA)
- Document Processing Apparatus (AREA)
- Image Analysis (AREA)
Description
本発明は、マルチメディア文書の目立ち領域を確認する装置及び方法に関する。 The present invention relates to an apparatus and method for confirming a conspicuous area of a multimedia document.
本発明は、特に、コンテンツの評価及び広告文書のような文書に適用される。今日、コンテンツを目立つようにしたいと思うとき、コンテンツを生成する種々の技術が知られていて、簡単にいうと、テキスト文書を書いているとき、線を引く場合があり、ボルド体で書く場合があり、枠を書く場合がある等である。より洗練された技術が、映像又は音響について、画像処理技術及び音声処理技術を、より一般的には、信号処理技術を組み合わせることが可能である広告者により用いられている。 The invention applies in particular to documents such as content evaluation and advertising documents. Today, when you want to make content stand out, various techniques for generating content are known. To put it simply, when writing a text document, you may draw a line, if you write in bold There is a case where a frame is written. More sophisticated techniques are used by advertisers that can combine image and audio processing techniques, and more generally signal processing techniques, for video or audio.
それらの技術の有効性を評価することは困難である。広告は、しばしば、かなり魅力的であるが、実行される種々の効果は全てが必ずしも有効でなく、確実に改善されることが可能である。 It is difficult to evaluate the effectiveness of these techniques. Advertisements are often quite attractive, but the various effects that are performed are not necessarily all effective and can be reliably improved.
今日、oculometric技術は、目立ち領域の決定で役立つものである。そのような技術は、しかしながら、複数の文書、ウェブ頁、映像文書における手法の自動化が可能でないため、手作業であり、扱い難いものである。 Today, oculometric technology is useful in determining the conspicuous area. However, such a technique is manual and difficult to handle because it is not possible to automate techniques in multiple documents, web pages, and video documents.
このために、本発明は、マルチメディア文書の目立ち領域を確認する方法を提供する。本発明に従って、その方法は、
− 文書から抽出される事前データに基づいてキー領域であるとみなされる前記文書の領域を決定するステップと、
− 前記文書の目立ち度マップを得るように、目立ち度マップの編集に基づくモデルを前記文書に適用するステップと、
− キーであるとみなされる前記文書の領域と前記目立ち度マップとを比較するステップと、
を有する。
To this end, the present invention provides a method for confirming the conspicuous area of a multimedia document. According to the present invention, the method comprises
-Determining an area of the document that is considered to be a key area based on prior data extracted from the document;
- so as to obtain a noticeable degree map of the document, and applying a model based on editing noticeable degree map in the document,
Comparing the region of the document that is considered to be a key with the conspicuity map;
Have
好適な実施形態に従って、その方法は、前記文書の全目立ち度に対する前記文書のキー領域に含まれる目立ち度の比を演算するステップを有する。 According to a preferred embodiment, the method comprises calculating a ratio of the conspicuity included in the key area of the document to the total conspicuity of the document.
好適な実施形態に従って、その方法は、前記文書の視認の間に目の方向を示す視覚経路を演算するステップであって、前記視覚経路は、前記目立ち度マップに基づいて演算され、その目立ち度が閾値より大きい画像の画素を有する、ステップを有する。 According to a preferred embodiment, the method includes the steps of calculating the visual path indicating the direction of the eye during the viewing of the document, it said visual path is computed on the basis of the noticeable level map, the conspicuous degree Having pixels of the image that are greater than the threshold.
好適な実施形態に従って、前記視覚経路の探索の間に、
− 前記文書において最大の目立ち度を有する画素が探索され、
− 前記最大の目立ち度の周囲の前記文書の領域は無効になり、
− 前記閾値より大きい目立ち度を有する画素全てが得られるまで、最大の目立ち度を有する次の画素が探索される。
According to a preferred embodiment, during the search of the visual path,
-The pixel with the highest conspicuousness in the document is searched,
The area of the document around the maximum conspicuousness is invalidated;
The next pixel with the highest degree of visibility is searched until all pixels with a degree of visibility greater than the threshold are obtained.
有利であることに、目立ち領域を有する分析レポート、前記視覚経路及び前記文書の目立ち領域を表す副画像の集合がコンパイルされる。 Advantageously, an analysis report having a conspicuous region, the visual path and a set of sub-images representing the conspicuous region of the document are compiled.
好適な実施形態に従って、前記レポートは前記文書のキー領域を有する。 According to a preferred embodiment, the report has a key area for the document.
本発明はまた、広告文書を生成する方法に関する。本発明に従って、その方法は、代替として、本発明に従って、前記文書の目立ち領域を確認する方法により後続されるコンテンツを生成するステップを有し、前記ステップは、目立ち領域が前記文書のキー領域に対応しない限り、繰り返される。 The invention also relates to a method for generating an advertising document. In accordance with the present invention, the method alternatively comprises the step of generating content followed by a method for confirming the salient area of the document according to the present invention, the step comprising the conspicuous area being a key area of the document. It is repeated unless it corresponds.
本発明はまた、インターネットのサイトの目立ち領域を自動的に確認する方法に関する。本発明に従って、その方法は、サイトの各々のページについて、次のステップであって、
− 前記ページから抽出される事前データのキー領域であるとみなされる前記ページの領域を決定するステップと、
− 前記ページの目立ち度マップを得るように、目立ち度マップのコンパイルに基づくモデルを前記ページに適用するステップと、
− 前記目立ち度マップとキーであるとみなされる前記ページの領域との間で比較するステップと、
を有する。
The present invention also relates to a method for automatically checking the conspicuous area of an Internet site. In accordance with the present invention, the method comprises the following steps for each page of the site:
-Determining an area of the page that is considered to be a key area of pre-data extracted from the page;
- so as to obtain a noticeable degree map of the page, and applying a model based on compiling noticeable degree map in the page,
-Comparing between the conspicuity map and the area of the page considered to be a key;
Have
本発明はまた、前記プログラムがコンピュータにおいて実行されるときに、本発明の実施形態の何れかの一に従った方法のステップの実行のためのプログラムコード命令を有するコンピュータプログラムプロダクトに関する。 The invention also relates to a computer program product comprising program code instructions for execution of the steps of the method according to any one of the embodiments of the invention when said program is executed in a computer.
本発明については、本発明の好適なモードに従った確認手法を表す図1を関連付けられる、全く非限定的な、有利である例示としての実施形態及び実施モードにより示され、十分に理解することができる。 The present invention is shown and fully understood by way of an illustrative embodiment and mode of implementation, which is entirely non-limiting, associated with FIG. 1, which represents a verification technique according to a preferred mode of the present invention. Can do.
本発明は、文書の構成要素がそれらの経済的影響により特に重要である広告性を有する文書において特に有利である。具体的には、映像、単純音響又は雑誌における静止画像である広告フィルムは、消費者にとって魅力的であるメッセージを出すために特に洗練されている。しかしながら、ときどき、それらのメッセージは人間の目を最も引き付ける領域には必ずしもなく、この場合、広告者は、期待された効果を有する文書を作成していない。 The present invention is particularly advantageous in documents with advertising properties where the components of the document are particularly important due to their economic impact. In particular, advertising films that are still images in video, simple sound or magazines are particularly sophisticated to produce messages that are attractive to consumers. However, sometimes these messages are not necessarily in the most attractive area of the human eye, in which case the advertiser has not created a document with the expected effect.
本発明は、それ故、文書が広告文書である又はないに拘わらず、それらの文書がそれらを受け取られるときに好ましい影響を有することを確認するように、それらの文書を解析する手段を与えることを目的とする。 The present invention therefore provides a means to analyze documents to ensure that they have a positive impact when they are received, whether or not they are advertising documents. With the goal.
それ故、文書について目立ち度マップを演算する手法が存在する。それらの手法は、目を引き付ける領域を決定することを可能にする。それらの手法は、画像の種々のパラメータを考慮する演算並びに、画像及び/又は映像の空間的及び/又は時間的解析に基づくものである。 Therefore, there is a method for calculating a conspicuousness map for a document. Those approaches make it possible to determine the eye-catching area. These approaches are based on operations that take into account various parameters of the image and on spatial and / or temporal analysis of the image and / or video.
目立ち度マップは、画像認識のトポグラフィック表現である。画像の各々の画素の視覚的関連性が決定される。そのマップは、例えば、0乃至255の範囲内で正規化される。その値が大きければ大きい程、画素は目をより惹きつけるものである。 The conspicuousness map is a topographic representation of image recognition. The visual relevance of each pixel of the image is determined. The map is normalized within a range of 0 to 255, for example. The larger the value, the more attractive the pixel is.
そのような手法については、例えば、出願人Thomson Licensing SAによるもので、2005年6月22日に公開された欧州特許第1544792号明細書に記載されている。 Such a technique is, for example, by the applicant Thomson Licensing SA and is described in EP 1544792 published on June 22, 2005.
広告文書タイプのペーパー文書Dが利用できる。この文書は、それらのソフトウェアの電子バージョンが利用可能であるパブリッシングソフトウェア、例えば、HTMLタイプのacrobat writer(登録商標(Thomson Licensing SAによる))、word(登録商標(マイクロソフト社による))に基づいて作成されてきている。それ故、この文書の著者が目立つようにするように所望したことを反映する事前情報をその文書から抽出することが可能である。例えば、wordタイプの文書においては、用いられる文字の、用いられるフォントの、文字の上に引いた線の、用いられるカーソルのサイズの関数として、情報の重要度を判断することが可能である。また、シートにおける位置、一般に、画像の中央に位置付けられている重要な情報を用いることが可能である。 Paper document D of advertising document type can be used. This document is created based on publishing software for which electronic versions of these software are available, for example, HTML type acrobat writer (registered trademark (by Thomson Licensing SA)), word (registered trademark (by Microsoft)) Has been. It is therefore possible to extract prior information from the document that reflects what the author of the document wanted to stand out. For example, in a word type document, it is possible to determine the importance of information as a function of the size of the cursor used, the font used, the font used, the line drawn over the character. Also, it is possible to use important information located in the sheet, generally in the center of the image.
htmlタイプの文書においては、“タグ”はまた、著者が目立つようにしたいと思うポイントの決定について支援する。 In html type documents, “tags” also assist in determining the points that the author wants to be prominent.
それ故、文書Dの観測での手動において、又は上記の特徴の自動抽出における自動的方法において、著者により文書Dのキーポイントを表す事前情報をコンパイルする(ステップE1)ことが可能である。 Therefore, it is possible to compile the prior information representing the key points of document D by the author (step E1), either manually in the observation of document D or in the automatic method in the automatic extraction of features described above.
それ故、文書の対象領域の幾何学的位置を得ることが可能である。 Therefore, it is possible to obtain the geometric position of the target area of the document.
更に、文書の目立ち度マップを構築することを可能にするモデルを利用することが可能である。ステップE2の間に、このモデルが文書Dに適用される。このモデルは、例えば、入力として、その文書を受け入れるソフトウェアである。そのモデルは、文書Dの目立ち度マップを得るように、目立ち度マップの抽出のために必要な文書の特徴を解析する。 Furthermore, it is possible to use a model that makes it possible to build a document conspicuousness map. This model is applied to document D during step E2. This model is, for example, software that accepts the document as input. The model analyzes the document features necessary for extracting the conspicuousness map so as to obtain the conspicuousness map of the document D.
それらの手法については、例えば、出願人がThomson Licensing SAであり、2005年6月22日に公開された欧州特許第1544792号明細書に記載されている。それらの手法は、画像の種々のパラメータを考慮する演算に基づいていて、並びに画像及び/又は映像の空間的及び/又は時間的解析に基づいている。 These techniques are described in, for example, European Patent No. 1544792 published on June 22, 2005 by Thomson Licensing SA. These approaches are based on operations that take into account various parameters of the image, and are based on spatial and / or temporal analysis of the image and / or video.
テキストタイプの情報及びフェースタイプの情報がまた、通常は、それらがまた、テキストが映像文書に含まれるときに重要であると考えられる情報を表すために、抽出される。 Text type information and face type information are also typically extracted because they also represent information that is considered important when text is included in a video document.
目立ち度マップのコンパイルの間にフェースタイプ又はテキストタイプの情報の考慮について、Hu、Xie、Chen、Maによる“Aattention model based progress image transmission”と題された文献に、そして公開されたChen等による
“A visual attention model for adapting images on small displays”と題された2003年の文献Journal “Multimedia Systems”に記載されている。
For consideration of face-type or text-type information during compiling of the conspicuity map, refer to the document entitled “Attendion model based progress image transmission” by Hu, Xie, Chen, Ma, and published by Chen et al. It is described in the 2003 journal Journal “Multimedia Systems” entitled “A visual attentation model for adapting images on small displays”.
ステップE3の間、目立ち度マップに基づいて、次の情報、
− 惹きつける領域を示すヒートマップ、
− 平均的観測者の視覚方向を示す視覚経路のマップ、
を有する解析レポートが得られる。
During step E3, based on the conspicuousness map, the following information:
-A heat map showing the attractive areas,
-A map of the visual path showing the visual direction of the average observer,
An analysis report is obtained.
この視覚方向は、得るように所望される極大の数の関数として、又は画像の全体的な目立ち度の関数として、ある閾値より大きい目立ち度値を有する局所的な極大について目立ち度マップに亘って探索することにより得られる。例えば、局所的な極大についての探索は、(n−1)番目の極大の周囲の円形領域(視度の0.5に等しい半径の中心窩を表す)を無効にすることにより、及びこの新しいマップ等の全体の最大を探索することにより行われ、そして各々の極大についての探索が行われる。各々の極大については、それ故、領域が得られ、その後、それらの領域n−1,n,...の中心が、平均的観測者の視覚方向を得るように、結び付けられる。
− 解析されるべき画像のn個の副画像を有する知覚的要点。それらの副画像は観測者により固定された領域である。
This visual direction spans the conspicuity map for local maxima with a conspicuity value greater than a certain threshold as a function of the number of maxima desired to be obtained or as a function of the overall conspicuity of the image. Obtained by searching. For example, the search for local maxima is done by invalidating the circular area around the (n−1) th maxima (representing a fovea with a radius equal to diopter 0.5) and this new This is done by searching the global maximum, such as a map, and a search is made for each local maximum. For each maxima, therefore, regions are obtained, after which those regions n-1, n,. . . Are centered so as to obtain the average observer's visual direction.
A perceptual point with n sub-images of the image to be analyzed. These sub-images are areas fixed by the observer.
そのような副画像を決定する手法については、出願人がThomson Licensing SAであり、2005年9月19日に出願された欧州特許第05291938.8号明細書に記載されている。この手法についてはまた、O.Le Meur、X.Castellan、P.Le Callet及びD.Barbaによる“Efficient saliency−based repurposing method”と題された文献ICIP 2006に記載されている。 A technique for determining such a sub-image is described in European Patent No. 05291938.8, filed Sep. 19, 2005, by the applicant Thomson Licensing SA. This method is also described in O.D. Le Meur, X. Castellan, P.A. Le Callet and D.C. It is described in the document ICIP 2006 entitled “Efficient saliency-based repurposing method” by Barba.
副画像は、局所的な最大の周囲の画素を有する。副画像の数は閾値を固定することにより決定され、副画像は、この閾値より大きい目立ち度値を有する最大のみについて規定される。 The sub-image has a local maximum surrounding pixel. The number of sub-images is determined by fixing a threshold value, and sub-images are defined only for the maximum having a conspicuousness value greater than this threshold value.
この情報は、人間の目により実際に知覚される画像の領域を検出することを可能にする。 This information makes it possible to detect regions of the image that are actually perceived by the human eye.
その後、ステップE1の間に文書の著者により示された領域又は自動的に抽出された領域、並びに解析レポートにおいて示された領域が比較される。それ故、事前情報及び解析レポートの情報を互いに対向して位置付けることにより、人間の目に実際に捉えられる情報と、著者が文書において目立つようにしたいと思うものを比較することが可能である。 Thereafter, the region indicated by the author of the document or automatically extracted during step E1 is compared with the region indicated in the analysis report. Therefore, by positioning the prior information and the information of the analysis report so as to face each other, it is possible to compare information that is actually captured by the human eye with what the author wants to stand out in the document.
その解析レポートはまた、目立ち度マップと事前データとの間の直接比較のステップを実行することによるこの解析を直接与えることが可能である。具体的には、目立ち度領域の及び著者が重要であると考える領域の幾何学的位置を比較することが可能である。 The analysis report can also provide this analysis directly by performing a direct comparison step between the conspicuity map and the prior data. In particular, it is possible to compare the geometric position of the conspicuousness region and the region that the author considers important.
例えば、文書の著者により定められた領域に含まれる目立ち度と全域的な目立ち度との比を演算することが可能である。この比は、文書のデザインの関連度の指標であることが可能である。それ故、クリエータが目を惹きつけることに関して文書の値を評価することが可能である。 For example, it is possible to calculate the ratio between the degree of conspicuousness included in the area defined by the author of the document and the overall degree of conspicuousness . This ratio can be a measure of the relevance of document design. It is therefore possible to evaluate the value of the document with regard to the creator's eye-catching.
本発明は、それ故、宣伝性又は広告性について文書を評価する手法を有利に提供することができる。 The present invention can therefore advantageously provide a way to evaluate documents for advertising or advertising.
本発明はまた、広告文書の遠隔評価方法であるとして理解することができる。実際には、人間の目が実際に捉える位置/領域を確認するように電子的形式で文書を提出するクライアント及びインターネットのサイトにおいて利用可能であるモデルを考えることが実際に可能である。サービスのユーザは、比較の結果の役割として、ユーザが目立つようにしたいと思う情報が、人間の目がフォーカシングするまさに情報であるような反復方法で再提出する。 The present invention can also be understood as a remote evaluation method for advertising documents. In practice, it is actually possible to consider a model that is available at clients and Internet sites that submit documents in electronic form so as to confirm the location / area that the human eye actually captures. The user of the service, as a result of the comparison, resubmits iteratively so that the information that the user wants to be prominent is exactly the information that the human eye focuses.
その方法はまた、アプリケーションとして、提出の要求に後続して、クライアントが提出する複数の文書の評価を有することが可能である。それ故、どの文書が消費者に最も影響を与えるものであるかを、自動的に且つ客観的に解析することが可能である。 The method can also have an evaluation of multiple documents submitted by the client as an application following a request for submission. Therefore, it is possible to automatically and objectively analyze which document has the most influence on the consumer.
他の実施形態においては、文書Dは、広告挿入タイプのペーパー文書又は静止画像でなく、テレビのチャネルに送信される宣伝のような映像文書である。そのような文書はまた、本発明で実行される方法に従って解析されることが可能である。 In other embodiments, document D is a video document, such as a promotion, sent to a television channel, rather than an ad insertion type paper document or still image. Such documents can also be analyzed according to the method implemented in the present invention.
実際には、時間的情報に基づいて、目立ち度マップをコンパイルすることがまた、可能である。そのような方法については、O.Le Meur、P.Le Callet、D.Barba及びD.Thoreauによる“A spatio−temporal model of the selective human visual attention”と題された文献Proc.ICIP−05(IEEE International Conference on Image Processing)、Genoa,Italy,September 2005に記載されている。 In practice, it is also possible to compile a conspicuity map based on temporal information. For such methods, see O.D. Le Meur, P.A. Le Callet, D.C. Barba and D.W. Document Proc., Entitled “A spatial-temporal model of the selective human visual attention” by Thoreau. ICIP-05 (IEEE International Conference on Image Processing), Genoa, Italy, September 2005.
それ故、映像文書の目立ち度マップをまた、得ることが可能である。 Therefore, it is also possible to obtain a noticeability map of the video document.
映像データに関する事前情報を得るように、映像のオーサーとしての情報を得ることが可能である。 It is possible to obtain information as a video author so as to obtain prior information regarding video data.
他の実施形態においては、この手法を文書の作成を支援するツールに直接取り入れることにより、この手法を用いることがまた、可能である。その場合、文書においてキーであると実際に考えられる領域に目が焦点を当てる文書が、実際には、得られる。それ故、代替としてコンテンツを作成し、本発明に従った確認方法を適用し、目立ち領域及びキー領域が一致しない限りそのコンテンツを修正することが可能である。 In other embodiments, it is also possible to use this approach by incorporating it directly into a tool that supports document creation. In that case, a document is actually obtained in which the eye focuses on a region that is actually considered a key in the document. Therefore, it is possible to create content as an alternative, apply the confirmation method according to the present invention, and modify the content as long as the conspicuous region and the key region do not match.
他の実施形態においては、自動的に又は手動的に、定期的に解析されるインターネットサイト及びそのサイトの各々のページであるとして解析される文書を想定することがまた、可能である。それ故、そのサイトのウェブページ全てにおいて、本発明に従って方法を実行し、レポートを、即ち、オーサーがそのページにおいてキーであると考えるデータと、必要に応じて又はキーデータが利用可能でない場合に盲目的に、目が実際に視認するページのデータとの間の比較結果を表示するための自動手法を想定することが可能である。 In other embodiments, it is also possible to envisage documents that are parsed as being Internet pages that are parsed periodically, and each page of that site, either automatically or manually. Therefore, on all the web pages of the site, the method is carried out according to the present invention and the report, i.e. the data that the author considers to be key on the page, and if necessary or if key data is not available. It is possible to envisage an automated technique for blindly displaying the result of comparison with the data of the page that the eye actually sees.
Claims (9)
前記文書から抽出される事前データに基づいて、キー領域であるとみなされる前記文書の領域を抽出するステップであって、前記事前データは、前記マルチメディア文書の著者が目立つようにしたことを反映している、ステップ;
前記文書の目立ち領域を得るように、目立ち度マップの編集に基づくモデルを前記文書に適用するステップ;及び
キーであるとみなされる前記文書の領域の地理的位置と前記目立ち度マップとを自動的に比較するステップ;
を有することを特徴とする方法。A method for checking the conspicuous area of a multimedia document:
Extracting an area of the document that is considered to be a key area based on pre-data extracted from the document , wherein the pre-data is made prominent by an author of the multimedia document Reflecting, steps ;
Applying to the document a model based on editing of a conspicuousness map to obtain a conspicuous region of the document; and automatically determining the geographical location of the region of the document considered to be a key and the conspicuousness map. the step of comparing the;
A method characterized by comprising:
前記文書において最大の目立ち度を有する画素が探索され、
前記最大の目立ち度の周囲の前記文書の領域は無効であり、
前記閾値より大きい目立ち度を有する画素全てが得られるまで、前記最大の目立ち度を有する次の画素が探索される、
ことを特徴とする方法。The method of claim 3, wherein during the search for the visual path,
The pixel having the highest conspicuousness in the document is searched,
The area of the document around the maximum conspicuousness is invalid;
The next pixel having the maximum degree of conspicuousness is searched until all pixels having a degree of conspicuous greater than the threshold are obtained;
A method characterized by that.
前記ページから抽出される事前データに基づいてキー領域であるとみなされる前記ページの前記領域を決定するステップであって、前記事前データは、前記マルチメディア文書の著者が目立つようにしたことを反映している、ステップ;
前記ページの目立ち度マップを得るように、目立ち度マップの編集に基づくモデルを前記ページに適用するステップ;及び
キーであるとみなされる前記ページの領域と前記目立ち度マップとを自動的に比較するステップ;
を有することを特徴とする方法。A method for automatically checking the prominent area of an Internet site for each page of the site:
Determining the region of the page that is considered to be a key region based on pre-extracted data from the page, the pre-data making the author of the multimedia document prominent Reflecting, steps ;
So as to obtain a noticeable degree map of the page, a model based on editing noticeable degree map step is applied to the page; automatically comparing the area and the noticeable degree map of the page that are considered and key Step;
A method characterized by comprising:
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
FR0650404A FR2897183A1 (en) | 2006-02-03 | 2006-02-03 | METHOD FOR VERIFYING THE SAVING AREAS OF A MULTIMEDIA DOCUMENT, METHOD FOR CREATING AN ADVERTISING DOCUMENT, AND COMPUTER PROGRAM PRODUCT |
FR0650404 | 2006-02-03 | ||
PCT/EP2007/051001 WO2007088193A1 (en) | 2006-02-03 | 2007-02-01 | Method of verifying the saliency areas of a multimedia document, method of creating an advertising document, method of automatically verifying the saliency areas of an internet site, and associated computer program product |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2009525525A JP2009525525A (en) | 2009-07-09 |
JP4896160B2 true JP4896160B2 (en) | 2012-03-14 |
Family
ID=36972848
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2008552812A Expired - Fee Related JP4896160B2 (en) | 2006-02-03 | 2007-02-01 | Method for confirming conspicuous area of multimedia document, method for generating advertisement document, method for automatically confirming conspicuous area of Internet site, and related computer program |
Country Status (5)
Country | Link |
---|---|
EP (1) | EP1979876A1 (en) |
JP (1) | JP4896160B2 (en) |
CN (1) | CN101379529B (en) |
FR (1) | FR2897183A1 (en) |
WO (1) | WO2007088193A1 (en) |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20020154833A1 (en) | 2001-03-08 | 2002-10-24 | Christof Koch | Computation of intrinsic perceptual saliency in visual environments, and applications |
FR2925705A1 (en) * | 2007-12-20 | 2009-06-26 | Thomson Licensing Sas | IMAGE CAPTURE ASSISTING DEVICE |
US8649606B2 (en) | 2010-02-10 | 2014-02-11 | California Institute Of Technology | Methods and systems for generating saliency models through linear and/or nonlinear integration |
CN114445784B (en) * | 2022-03-01 | 2023-01-10 | 武汉聚智惠仁信息技术有限公司 | Method and system for acquiring CRRT screen parameters in real time |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005050309A (en) * | 2003-07-17 | 2005-02-24 | Seiko Epson Corp | Eye guiding information display device, program, and method |
JP2005182746A (en) * | 2003-11-25 | 2005-07-07 | Seiko Epson Corp | System, program and method for generating visual guidance information |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6389169B1 (en) * | 1998-06-08 | 2002-05-14 | Lawrence W. Stark | Intelligent systems and methods for processing image data based upon anticipated regions of visual interest |
JP4165042B2 (en) * | 2001-07-13 | 2008-10-15 | セイコーエプソン株式会社 | Image layout evaluation method, image layout evaluation system, and image layout evaluation processing program |
JP4168793B2 (en) * | 2003-03-17 | 2008-10-22 | セイコーエプソン株式会社 | Layout evaluation system, layout evaluation program, and layout evaluation method |
JP4241235B2 (en) * | 2003-07-31 | 2009-03-18 | セイコーエプソン株式会社 | Layout system, layout program, and layout method |
JP4207883B2 (en) * | 2004-03-24 | 2009-01-14 | セイコーエプソン株式会社 | Gaze guidance degree calculation system |
GB2417808A (en) * | 2004-09-02 | 2006-03-08 | Hewlett Packard Development Co | Document creation system |
-
2006
- 2006-02-03 FR FR0650404A patent/FR2897183A1/en active Pending
-
2007
- 2007-02-01 JP JP2008552812A patent/JP4896160B2/en not_active Expired - Fee Related
- 2007-02-01 CN CN2007800043768A patent/CN101379529B/en not_active Expired - Fee Related
- 2007-02-01 WO PCT/EP2007/051001 patent/WO2007088193A1/en active Application Filing
- 2007-02-01 EP EP07726278A patent/EP1979876A1/en not_active Ceased
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005050309A (en) * | 2003-07-17 | 2005-02-24 | Seiko Epson Corp | Eye guiding information display device, program, and method |
JP2005182746A (en) * | 2003-11-25 | 2005-07-07 | Seiko Epson Corp | System, program and method for generating visual guidance information |
Also Published As
Publication number | Publication date |
---|---|
CN101379529B (en) | 2013-06-05 |
WO2007088193A1 (en) | 2007-08-09 |
CN101379529A (en) | 2009-03-04 |
FR2897183A1 (en) | 2007-08-10 |
JP2009525525A (en) | 2009-07-09 |
EP1979876A1 (en) | 2008-10-15 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11902633B2 (en) | Dynamic overlay video advertisement insertion | |
CA2634010C (en) | Detecting and rejecting annoying documents | |
RU2542923C2 (en) | Video content-based advertisement placement | |
US8510795B1 (en) | Video-based CAPTCHA | |
CN102789453B (en) | Advertising message put-on method and device | |
CN101587489B (en) | Method and system for exhibiting specific page resource for browser | |
JP4896071B2 (en) | Advertisement evaluation method, advertisement evaluation system, and recording medium using keyword comparison | |
US20050015370A1 (en) | Information management system and method | |
US20030229857A1 (en) | Apparatus, method, and computer program product for document manipulation which embeds information in document data | |
US9276758B2 (en) | Analyzing and repairing documents | |
US20130204867A1 (en) | Selection of Main Content in Web Pages | |
US9286623B2 (en) | Method for determining an area within a multimedia content element over which an advertisement can be displayed | |
CN109697245A (en) | Voice search method and device based on video web page | |
JP4896160B2 (en) | Method for confirming conspicuous area of multimedia document, method for generating advertisement document, method for automatically confirming conspicuous area of Internet site, and related computer program | |
CN113918895A (en) | Method for tracing text document source | |
US20120095825A1 (en) | Incentive Selection of Region-of-Interest and Advertisements for Image Advertising | |
CN112312189A (en) | Video generation method and video generation system | |
JP2007257069A (en) | Web page print method, image forming apparatus and image processing program | |
CN112601129A (en) | Video interaction system, method and receiving end | |
KR101047212B1 (en) | Advertising method using keyword text | |
KR101102851B1 (en) | Method, system and computer-readable recording medium for providing additional content in blank of web page caused by difference of a resolution of user terminal from a reference resolution provided by contents providing server | |
KR20080097250A (en) | Method and system using user defined meta information | |
Parmar et al. | Removal of Image Advertisement from Web Page | |
US10423987B2 (en) | Dynamic generation and layout of media assets in a campaign management system | |
AU2011253667B2 (en) | Detecting and rejecting annoying media |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20100125 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20110609 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20110614 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20110913 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20111206 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20111220 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20150106 Year of fee payment: 3 |
|
LAPS | Cancellation because of no payment of annual fees |