WO2020179537A1 - ラベリング支援方法、ラベリング支援装置及びプログラム - Google Patents

ラベリング支援方法、ラベリング支援装置及びプログラム Download PDF

Info

Publication number
WO2020179537A1
WO2020179537A1 PCT/JP2020/007404 JP2020007404W WO2020179537A1 WO 2020179537 A1 WO2020179537 A1 WO 2020179537A1 JP 2020007404 W JP2020007404 W JP 2020007404W WO 2020179537 A1 WO2020179537 A1 WO 2020179537A1
Authority
WO
WIPO (PCT)
Prior art keywords
label
data
labeling
user
image data
Prior art date
Application number
PCT/JP2020/007404
Other languages
English (en)
French (fr)
Inventor
白井 良成
泰恵 岸野
伸 水谷
敬之 須山
Original Assignee
日本電信電話株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 日本電信電話株式会社 filed Critical 日本電信電話株式会社
Priority to US17/436,595 priority Critical patent/US11967135B2/en
Publication of WO2020179537A1 publication Critical patent/WO2020179537A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/50Information retrieval; Database structures therefor; File system structures therefor of still image data
    • G06F16/58Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/5866Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using information manually generated, e.g. tags, keywords, comments, manually generated location and time information
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/90Details of database functions independent of the retrieved data types
    • G06F16/95Retrieval from the web
    • G06F16/955Retrieval from the web using information identifiers, e.g. uniform resource locators [URL]
    • G06F16/9566URL specific, e.g. using aliases, detecting broken or misspelled links
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/774Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
    • G06V10/7747Organisation of the process, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0482Interaction with lists of selectable items, e.g. menus

Definitions

  • the present invention relates to a labeling support method, a labeling support device, and a program.
  • a recognizer is created by preparing a large number of correct images with labels of objects to be recognized (for example, dogs and cats) and learning those images by a computer. When an image is input to the created recognizer, it becomes possible to determine whether the image is a dog or a cat.
  • a data set that can be used as learning data is open to the public on the Internet, and if it is a labeled image for image recognition that can be used, it can be downloaded from ImageNet, Kaggle, etc. It is also possible to automatically collect images existing on the Internet by using crawling or scraping technology. For example, it is technically possible to collect a large amount of images obtained from the image search results of a search site by using scraping technology.
  • Non-Patent Document 1 a tool that supports labeling of images searched from the Internet has been drafted.
  • Google registered trademark
  • Google has set up a service that allows you to select a category for images for the purpose of improving search accuracy. In this way, a method of labeling a specific Web page is also conceivable.
  • Non-Patent Document 2 there is a method to use monetary reward type crowdsourcing.
  • AMT Amazon Mechanical Turk
  • Non-Patent Document 2 it is possible to create such data by crowdsourcing.
  • Non-Patent Document 1 Even if efficiency is improved by using a tool such as Non-Patent Document 1, it takes a considerable amount of time to create the "large amount" of data required for deep learning. This time can be shortened by creating data with a large number of people, but it is difficult for many people in the world to use conventional tools. Most people in the world have no motivation to label with tools. Labeling tools are independent of the general-purpose browsers that many people normally use to browse information on the Internet, so there is a great motivation to set up a labeling tool and become familiar with how to use it. is necessary.
  • the present invention has been made in view of the above points, and an object of the present invention is to improve the efficiency of labeling data.
  • the computer executes a storage procedure of storing a character string in the storage device in association with the data.
  • FIG. 1 is a diagram for explaining the outline of the embodiment of the present invention.
  • the user performs labeling work using a user terminal 10 having a Web browser 11 on which an add-on (for example, Chrome extension) is installed.
  • the add-on first downloads and displays a label request list (a list of labels to be given (assigned) to an image) from the label server 20.
  • the user selects one or more labels that he/she wants to label ( ⁇ want to create a summarized site) from among them.
  • the user finds image data corresponding to any of the selected labels during Web browsing, the user assigns the corresponding label from the selected labels to the image data.
  • the add-on transmits the assigned label and the URL of the selected image data as label data to the label server 20.
  • the label server 20 stores the sent label data in the label DB 30.
  • the label server 20 responds to the HTTP request addressed to the URL.
  • a Web page hereinafter referred to as "summary page" of the labeled image data summary site is generated, and a response including the summary page is returned.
  • FIG. 2 is a diagram showing a hardware configuration example of the user terminal 10 according to the embodiment of the present invention.
  • the user terminal 10 of FIG. 2 has a drive device 100, an auxiliary storage device 102, a memory device 103, a CPU 104, an interface device 105, a display device 106, an input device 107, and the like, which are connected to each other by a bus B, respectively.
  • the program that realizes the processing in the user terminal 10 is provided by the recording medium 101 such as a CD-ROM.
  • the recording medium 101 storing the program is set in the drive device 100, the program is installed from the recording medium 101 to the auxiliary storage device 102 via the drive device 100.
  • the program may be downloaded from another computer via the network.
  • the auxiliary storage device 102 stores the installed program and also stores necessary files and data.
  • the memory device 103 reads and stores the program from the auxiliary storage device 102 when the program is instructed to start.
  • the CPU 104 realizes a function related to the user terminal 10 according to a program stored in the memory device 103.
  • the interface device 105 is used as an interface for connecting to a network.
  • the display device 106 displays a GUI (Graphical User Interface) or the like according to the program.
  • the input device 107 includes a keyboard, a mouse, and the like, and is used to input various operation instructions.
  • An example of the user terminal 10 is a computer capable of browsing a Web page, such as a PC (Personal Computer), a smartphone, or a tablet terminal.
  • a PC Personal Computer
  • smartphone a smartphone
  • tablet terminal a computer capable of browsing a Web page
  • FIG. 3 is a diagram showing a functional configuration example of the user terminal 10 and the label server 20 according to the embodiment of the present invention.
  • the user terminal 10 in addition to the Web browser 11, the user terminal 10 includes a user information input unit 12, a user information transmission unit 13, a label request reception unit 14, a label request selection unit 15, a selection menu management unit 16, and a label data transmission unit 17. And so on.
  • Each of these parts is realized by a process in which a program installed in the user terminal 10 (for example, an add-on for the Web browser 11) is executed by the CPU 104 of the user terminal 10.
  • the label server 20 has a user information receiving unit 21, a user management unit 22, a label candidate transmitting unit 23, a label data receiving unit 24, a DB management unit 25, a summary site generation unit 26, and the like. Each of these parts is realized by a process in which one or more programs installed in the label server 20 are executed by the CPU of the label server 20.
  • the label server 20 also uses the label DB 30.
  • the label DB 30 can be realized using, for example, an auxiliary storage device of the label server 20 or a storage device that can be connected to the label server 20 via a network.
  • FIG. 4 is a sequence diagram for explaining an example of a processing procedure of labeling processing.
  • the user information input unit 12 displays a login screen (FIG. 5) for inputting user information, and the user visits the user via the login screen. Input of user information such as user ID and password is accepted (S101). Then, the user information transmission unit 13 transmits the user information to the label server 20 (S102).
  • the user management unit 22 determines the success or failure of the login based on the user information (S103). Specifically, the user management unit 22 determines whether or not the user information is registered in the user table T1 registered in the label DB 30.
  • FIG. 6 is a diagram showing a configuration example of the user table T1. As shown in FIG. 6, the user table T1 stores the user ID and password of each user who can use the service provided by the label server 20.
  • the user management unit 22 determines that the login is successful when a record in which the received user information matches the user ID and password is registered in the user table T1, and starts the service.
  • the label candidate transmission unit 23 transmits the label request list (label request list) registered in the label table T2 of the label DB 30 to the user terminal 10 (S104).
  • FIG. 7 is a diagram showing a configuration example of the label table T2.
  • the label table T2 includes a label ID, a label name, a label outline, and the like for each label request for which labeling is required.
  • the label ID is an ID (identification information) of each label request registered in the label table T2.
  • the label name is the substance of the label that is the target of the request.
  • the label outline is a character string indicating an outline of a labeling request or the like related to the label name.
  • the label request may be manually registered by the administrator of the label server 20, or may be registered by each user.
  • the label addition menu is displayed on the context menu displayed by right-clicking the image data on the Web page and the label addition menu is selected
  • the label name and the label outline may be input.
  • the user terminal 10 transmits the input label name and label outline to the label server 20.
  • the DB management unit 25 of the label server 20 registers a record including the label name and label outline in the label table T2.
  • step S104 a label request list including all label requests registered in the label table T2 is transmitted to the user terminal 10.
  • the label request selection unit 15 displays the label selection screen based on the label request list (S105).
  • FIG. 8 is a diagram showing a display example of the label selection screen.
  • the label selection screen 510 includes a check button for each label request included in the label request list.
  • the selection menu management unit 16 selects the label name related to the selected label request (hereinafter, , "Selection label") can be selected together with the image data on the Web browser 11. As a result, the user can assign any of the selection labels to the image data displayed on any web page.
  • the selection menu management unit 16 displays the labeling and the selection label in the context menu displayed by the right-click.
  • the corresponding menu items and the like are displayed (added) (S107).
  • FIG. 9 is a diagram showing a display example of the context menu.
  • FIG. 9 shows an example in which the menu item mi1 corresponding to labeling is added to the context menu m1.
  • the submenu m2 of the menu item mi1 is displayed.
  • the submenu m2 includes a menu item for each selection label.
  • the label data transmission unit 17 causes the label data transmission unit 17.
  • the URL of the image hereinafter referred to as "image URL”
  • the label ID of the selection label for example, "the image of an angry bear”
  • the URL of the Web page containing the image data hereinafter, "image URL”
  • the label data associated with "page URL” and the like is transmitted to the label server 20 (S109).
  • the operation on the image data to be labeled is not limited to right-clicking. For example, double-clicking or the like.
  • a screen (window, dialog, or the like) including a list of selection labels may be displayed according to a predetermined operation.
  • the DB management unit 25 registers the label data in the image data table T3 of the label DB 30 (S110).
  • FIG. 10 is a diagram showing a configuration example of the image data table T3. As shown in FIG. 10, in the image data table T3, the record in which the registration date and time is added to the label data is registered. The registration date and time is the date and time when the label data was registered.
  • FIG. 11 is a sequence diagram for explaining an example of the processing procedure of the display processing of the summary page.
  • the user terminal 10 in FIG. 11 may be the same as or different from the user terminal 10 in FIG.
  • the Web browser 11 transmits an HTTP request addressed to the URL (S202).
  • the summary site generation unit 26 of the label server 20 Upon receiving the HTTP request, the summary site generation unit 26 of the label server 20 generates a Web page (hereinafter, referred to as “label request list page”) including the label request list registered in the label table T2 (S203). ), a response including the label request list page is returned to the user terminal 10 (S204). Upon receiving the response, the Web browser 11 of the user terminal 10 displays the label request list page included in the response (S205).
  • FIG. 12 is a diagram showing a display example of the label request list page.
  • the label request list page 520 displays the label name and the label outline of each label request included in the label request list.
  • Each label name is linked to a summary page of image data to which a label related to the label name is attached.
  • the Web browser 11 When any of the label names is selected (clicked or tapped, etc.) by the user (S206), the Web browser 11 requests the HTTP including the label ID associated with the label name and recorded on the label request list page 520. Is transmitted to the label server 20 (S207).
  • the summary site generation unit 26 of the label server 20 When the summary site generation unit 26 of the label server 20 receives the HTTP request, it searches the image data table T3 (FIG. 10) for a record including the label ID included in the HTTP request (S208). Subsequently, the summary site generation unit 26 acquires, via the network, the image data of the searched record (hereinafter, referred to as “target record”) associated with the image URL (S209). Then, the summary site generation unit 26 generates a summary page based on the target record and the acquired image data (S210). Then, the summary site generation unit 26 returns a response including the summary page to the user terminal 10 (S211).
  • the Web browser 11 of the user terminal 10 When the Web browser 11 of the user terminal 10 receives the response, the Web browser 11 displays the summary page included in the response on the display device 106 (S212).
  • FIG. 13 is a diagram showing a display example of a summary page.
  • the summary page 530 includes a list of image data to which the label (label name) of "image of Japanese rosy bitterling during spawning" is given.
  • incorrect labels may be mixed in the labels selected by the user. For example, when a user right-clicks on image data and selects the label "Spawning Japanese rosy bitterling", the image data may show the rosy bitterling. In order to eliminate such a labeling error, the viewer may be asked to evaluate each image data displayed on the summary page 530.
  • the summary site generation unit 26 generates a summary page 530 so that a two-choice button "Yes” or “No” is displayed for each of the image data displayed on the summary site.
  • the "yes” button is given to the viewer, and if it is not, the "no” button is given to the viewer. Get pushed.
  • the DB management unit 25 registers the number of "yes” and the number of "different” in each record of the image data table T3.
  • the DB management unit 25 may delete a record having a high possibility of having an incorrect label from the image data table T3 based on such information.
  • the summary site generation unit 26 may generate a summary site so that the image data is displayed in the order of the number of "yes” and "different".
  • the accuracy of label selection for each user can be calculated for the entire label and individual labels. Thereby, the reliability of the label selected by each user may be evaluated.
  • labeled image data may be used not only as a component of the summary site but also as teacher data for machine learning, for example.
  • a label can be attached to a partial character string on a web page or a moving image or audio file uploaded on the web.
  • a label may be added from a context menu displayed by selecting a partial character string with the mouse and right-clicking.
  • a label may be similarly added by right-clicking a moving image or audio file.
  • the labeling work can be performed on the general-purpose Web browser 11, the labeling work can be performed immediately when the user feels like it. For example, if the user has image data worthy of labeling while performing other work (for example, performing work-related research on the Web) on the Web browser 11, the user can use the image data as an operation target (for example, right-click). ) Labeling can be done immediately by selecting the label name.
  • the source or URL of the image data to be operated and the information of the selected label are transmitted to the label server 20 and recorded in the database. That is, the more users select the label with the image data as the operation target, the more the labeled image data is accumulated in the label server 20.
  • a summary page for each label is generated based on the image data and the label data stored in the label server 20. This allows the user to view the image data related to the label on the Web page. That is, in the present embodiment, each user cooperates in labeling the image data, and at the same time, the users cooperate with each other to create a summary site.
  • the act of right-clicking the image data and selecting the label to be assigned from the context menu is an act that many people perform by copy and paste during normal Web browsing, such as manually inputting the label corresponding to the image data. It is faster and simpler than the method.
  • the label will fluctuate (for example, some people may label the image data of the Japanese rosy bitterling as "Japanese rosy bitterling" or "Nippon rosy bitterling". If you choose a predetermined label, you don't have to worry about it.
  • the psychological burden of labeling is less in the following two points.
  • labeling can be used using the Web browser 11 that is normally used, there is little burden of mastering the usage method.
  • labeling can be performed as soon as the image data to be labeled is found.
  • the labeling support tool which is independent of the web browser 11, needs to start the tool for labeling (i.e., labeling is the main task), but in the present embodiment, the web browser 11 is used. Labeling can be done as a subtask while doing other work.
  • the labeling motivation as described above is provided. As a result, even for those who are not interested in creating a recognizer for image data corresponding to labels, the more labeling is done, the more the summary sites related to labels will be enriched, and the motivation for labeling will be maintained. I think.
  • the image search on the search site is based on the premise that the image data (address) is crawled, but in the present embodiment, the user can use the Web. Since labeling is performed while browsing, there is a possibility that labels can be added even to image data that is not crawled.
  • the user terminal 10 is an example of a labeling support device.
  • the label DB 30 is an example of a storage device.
  • the selection menu management unit 16 is an example of a display control unit.
  • the label data transmission unit 17 is an example of a storage processing unit.

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Databases & Information Systems (AREA)
  • Software Systems (AREA)
  • Data Mining & Analysis (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Evolutionary Computation (AREA)
  • Computing Systems (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Medical Informatics (AREA)
  • Artificial Intelligence (AREA)
  • Business, Economics & Management (AREA)
  • Multimedia (AREA)
  • Library & Information Science (AREA)
  • Tourism & Hospitality (AREA)
  • Human Computer Interaction (AREA)
  • Economics (AREA)
  • Human Resources & Organizations (AREA)
  • Marketing (AREA)
  • Primary Health Care (AREA)
  • Strategic Management (AREA)
  • General Business, Economics & Management (AREA)
  • Mathematical Physics (AREA)
  • User Interface Of Digital Computer (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

Webページの一部を構成するデータに対する所定の操作に応じ、予め登録されている文字列の一覧を表示する表示手順と、前記一覧の中からユーザによって選択された文字列を前記データに関連付けて記憶装置に記憶させる記憶手順と、をコンピュータが実行することで、データに対するラベリングを効率化する。

Description

ラベリング支援方法、ラベリング支援装置及びプログラム
 本発明は、ラベリング支援方法、ラベリング支援装置及びプログラムに関する。
 深層学習研究の発展と、計算機の高性能化によって、画像認識や音声認識、自然言語処理等の精度が近年飛躍的に高まっている。これらの精度向上を支えているのは大量の学習データである。画像認識であれば、認識したいモノ(例えば犬や猫)のラベルがついた正解画像を大量に準備し、それらの画像を計算機によって学習させることで認識器を作成する。作成された認識器に画像を入力すると、その画像に写っているのかが犬なのか猫なのかを判別することが可能となる。
 インターネット上には学習データとして利用できるデータセットが公開されており、利用することが可能である画像認識用のラベル付き画像であればImageNetやKaggleなどからダウンロードできる。また、クローリングやスクレイピング技術等を用いることで、インターネット上に存在する画像を自動的に収集することも可能である。例えば、スクレイピング技術を用いることで検索サイトの画像検索結果から得られる画像を大量に収集することも技術的には可能である。
 しかしながら、公開されている学習データやスクレイピング技術等で得られるデータは一般性が高く、個別のニーズに応じた学習データは、従来自作する必要があった。例えば、犬や猫といったラベルをついた学習データや、犬や猫というキーワードを検索サイトの画像検索システムに入力して得られる結果は、犬や猫の画僧識別には有用である。しかし、秋田犬のオスやアビシニアンのメスといった性別やより詳細な種類に関するラベル付けされた学習データは公開されていない場合が多く、また、画像検索システムでこれらの検索キーワードで検索した結果には、多くの別種の犬や猫の画像が混ざり込んでしまうため、そのまま学習データとして利用できない。性別や詳細な種類の判定(例えば、メスのアビシニアン)、行為の判定(ジャンプしている猫)、主観的評価を含んだ判定(悲しげな表情の猫)などを認識器によって行わせたい場合には、そのようなラベル付きの画像データを自前で大量に準備する必要がある。
 自前で画像認識等の学習データを効率的に作成するために、インターネット上から検索した画像へのラベル付けを支援するツールが概案されている(非特許文献1)。google(登録商標)は、検索精度向上等の目的で、画像に対してカテゴリを選択してもらうサービスを開設している。このように、特定のWebページでラベリングをしてもらう方法も考えられる。
 また、金銭報酬型のクラウドソーシングを利用する方法もある。AMT(Amazon Mechanical Turk)などではクラウドソーシングによってこのようなデータを作成することが可能である(非特許文献2)。
池松大志, 中江俊博, 長森藤江他: Deep Learning 画像認識エンジン生成作業効率化インターフェースの開発, 電子情報通信学会技術研究報告, 2016. Ipeirotis, P. G.: Analyzing the Amazon MechanicalTurk marketplace, ACM XRDS, Vol. 17, No. 2(2010)
 しかしながら、これらのラベル付けをツールやクラウドソーシングサービスを利用しても、低コストかつ短時間で学習データを作成することは難しい。
 まず、非特許文献1のようなツールを利用して効率化をはかっても、深層学習で必要な"大量の"データの作成にはかなりの時間がかかってしまう。多人数でデータを作成することでこの時間は短縮できるが、従来のツールは世の中の多くの人に利用してもらうのは困難である。世の中の多くの人はツールを使ってラベル付けをするだけの動機がないためである。ラベル付けツールは、多くの人がインターネット上の情報を閲覧する際に通常利用する汎用ブラウザとは独立しているため、ラベル付けツールをセットアップして使い方を習熟して利用するだけの大きな動機が必要である。
 しかし、個別のニーズに対する動機を世の中の多くの人は持っていない。例えば、ある研究者が「ジャンプしている猫」の認識器を作りたいと考えても、「ジャンプしている猫」を検索したいという欲求が無い人は、このようなラベル付けツールを使いたいとは考えない。
 すなわち、このような新たなツールを使うための心理的負担(セットアップし使い方を覚えることや、ラベリング作業をするという、すぐに役に立つわけではないことを行うことへの忌避感)に対して、それを乗り越えてラベル付けをしようという動機がない。
 Webサイトでラベリングをしてもらう場合も、そのWebサイトにユーザが能動的に移動して効果をすぐに見ることができないラベリングを行うという点では、心理的負担は小さいとは言えず、また、多くの人はラベリングの動機を見いだせないと考えられる。AMTのようなクラウドソーシングサービスは、金銭的な報酬を提供することで、動機付けを行うが、必要とするラベル付きの画像データが大量であれば、ラベリング作業を依頼する人の金銭的負担が大きくなってしまう。
 本発明は、上記の点に鑑みてなされたものであって、データに対するラベリングを効率化することを目的とする。
 そこで上記課題を解決するため、Webページの一部を構成するデータに対する所定の操作に応じ、予め登録されている文字列の一覧を表示する表示手順と、前記一覧の中からユーザによって選択された文字列を前記データに関連付けて記憶装置に記憶させる記憶手順と、をコンピュータが実行する。
 データに対するラベリングを効率化することができる。
本発明の実施の形態の概要を説明するための図である。 本発明の実施の形態におけるラベルサーバ20のハードウェア構成例を示す図である。 本発明の実施の形態におけるユーザ端末10及びラベルサーバ20の機能構成例を示す図である。 ラベリング処理の処理手順の一例を説明するためのシーケンス図である。 ログイン画面の表示例を示す図である。 ユーザテーブルT1の構成例を示す図である。 ラベルテーブルT2の構成例を示す図である。 ラベル選択画面の表示例を示す図である。 コンテキストメニューの表示例を示す図である。 画像データテーブルT3の構成例を示す図である。 まとめページの表示処理の処理手順の一例を説明するためのシーケンス図である。 ラベル要望リストページの表示例を示す図である。 まとめページの表示例を示す図である。
 以下、図面に基づいて本発明の実施の形態を説明する。図1は、本発明の実施の形態の概要を説明するための図である。
 ユーザは、アドオン(例えばChrome拡張)がインストールされたWebブラウザ11を有するユーザ端末10を用いてラベリング作業を行う。アドオンは、まず、ラベルサーバ20から、ラベル要望リスト(画像に対して付与して(割り当てて)欲しいラベルのリスト)をダウンロードし表示する。ユーザはその中から自分がラベリングをしたい(≒まとめサイトを作りたい)ラベルを1以上選択しておく。ユーザは、Webブラウジング中に、選択しておいたいずれかのラベルに対応する画像データを発見したら、選択しておいたラベルの中から該当するラベルを当該画像データに割り当てる。アドオンは割り当てられたラベル及び選択された画像データのURL等をラベルデータとしてラベルサーバ20に送信する。ラベルサーバ20は送られてきたラベルデータをラベルDB30に保存する。
 一方、上記とは非同期のタイミングで、いずれかのユーザが、ユーザ端末10のWebブラウザにラベルサーバ20のURLを入力した際には、ラベルサーバ20は、当該URL宛てのHTTPリクエストに対して、ラベルDB30に蓄積されたデータに基づいて、ラベリングされた画像データのまとめサイトのWebページ(以下、「まとめページ」という。)を生成し、当該まとめページを含む応答を返信する。
 図2は、本発明の実施の形態におけるユーザ端末10のハードウェア構成例を示す図である。図2のユーザ端末10は、それぞれバスBで相互に接続されているドライブ装置100、補助記憶装置102、メモリ装置103、CPU104、インタフェース装置105、表示装置106、及び入力装置107等を有する。
 ユーザ端末10での処理を実現するプログラムは、CD-ROM等の記録媒体101によって提供される。プログラムを記憶した記録媒体101がドライブ装置100にセットされると、プログラムが記録媒体101からドライブ装置100を介して補助記憶装置102にインストールされる。但し、プログラムのインストールは必ずしも記録媒体101より行う必要はなく、ネットワークを介して他のコンピュータよりダウンロードするようにしてもよい。補助記憶装置102は、インストールされたプログラムを格納すると共に、必要なファイルやデータ等を格納する。
 メモリ装置103は、プログラムの起動指示があった場合に、補助記憶装置102からプログラムを読み出して格納する。CPU104は、メモリ装置103に格納されたプログラムに従ってユーザ端末10に係る機能を実現する。インタフェース装置105は、ネットワークに接続するためのインタフェースとして用いられる。表示装置106はプログラムによるGUI(Graphical User Interface)等を表示する。入力装置107はキーボード及びマウス等で構成され、様々な操作指示を入力させるために用いられる。
 なお、ユーザ端末10の一例として、例えば、PC(Personal Computer)、スマートフォン、又はタブレット端末等、Webページを閲覧可能なコンピュータが挙げられる。
 図3は、本発明の実施の形態におけるユーザ端末10及びラベルサーバ20の機能構成例を示す図である。図3において、ユーザ端末10は、Webブラウザ11に加え、ユーザ情報入力部12、ユーザ情報送信部13、ラベル要望受信部14、ラベル要望選択部15、選択メニュー管理部16及びラベルデータ送信部17等を有する。これら各部は、ユーザ端末10にインストールされたプログラム(例えば、Webブラウザ11に対するアドオン)が、ユーザ端末10のCPU104に実行させる処理により実現される。
 一方、ラベルサーバ20は、ユーザ情報受信部21、ユーザ管理部22、ラベル候補送信部23、ラベルデータ受信部24、DB管理部25及びまとめサイト生成部26等を有する。これら各部は、ラベルサーバ20にインストールされた1以上のプログラムが、ラベルサーバ20のCPUに実行させる処理により実現される。ラベルサーバ20は、また、ラベルDB30を利用する。ラベルDB30は、例えば、ラベルサーバ20の補助記憶装置、又はラベルサーバ20にネットワークを介して接続可能な記憶装置等を用いて実現可能である。
 以下、ユーザ端末10及びラベルサーバ20が実行する処理手順について説明する。図4は、ラベリング処理の処理手順の一例を説明するためのシーケンス図である。
 ユーザ端末10においてWebブラウザ11の起動に応じてアドオンが起動されと、ユーザ情報入力部12が、ユーザ情報の入力用のログイン画面(図5)を表示して、当該ログイン画面を介してユーザからユーザID、パスワード等のユーザ情報の入力を受け付ける(S101)。続いて、ユーザ情報送信部13は、当該ユーザ情報をラベルサーバ20に送信する(S102)。
 ラベルサーバ20のユーザ情報受信部21が当該ユーザ情報を受信すると、ユーザ管理部22が当該ユーザ情報に基づいてログインの成否を判定する(S103)。具体的には、ユーザ管理部22は、ラベルDB30に登録されているユーザテーブルT1に当該ユーザ情報が登録されているか否かを判定する。
 図6は、ユーザテーブルT1の構成例を示す図である。図6に示されるように、ユーザテーブルT1には、ラベルサーバ20が提供するサービスを利用可能な各ユーザのユーザID及びパスワードが記憶されている。
 ユーザ管理部22は、受信されたユーザ情報とユーザID及びパスワードが一致するレコードがユーザテーブルT1に登録されている場合にはログインは成功であると判定し、サービスを開始する。ログインに成功すると、ラベル候補送信部23は、ラベルDB30のラベルテーブルT2に登録されているラベル要望のリスト(ラベル要望リスト)をユーザ端末10へ送信する(S104)。
 図7は、ラベルテーブルT2の構成例を示す図である。図7に示されるように、ラベルテーブルT2には、ラベル付けが要求されているラベル要望ごとに、ラベルID、ラベル名、ラベル概要等を含む。ラベルIDは、ラベルテーブルT2に登録されている各ラベル要望のID(識別情報)である。ラベル名は、要望の対象となるラベルの実体である。ラベル概要は、ラベル名に係るラベリングの要望等の概要を示す文字列である。
 なお、ラベル要望は、ラベルサーバ20の管理者が手動で登録してもよいし、各ユーザが登録できるようにしてもよい。例えば、Webページ上の画像データを右クリックして表示されたコンテキストメニュー上にラベル追加メニューを表示し、それを選択した際には、ラベル名及びラベル概要が入力可能とされてもよい。この場合、ユーザ端末10は、入力されたラベル名及びラベル概要をラベルサーバ20へ送信する。ラベルサーバ20のDB管理部25は、当該ラベル名及びラベル概要を含むレコードをラベルテーブルT2に登録する。
 ステップS104では、ラベルテーブルT2に登録されている全てのラベル要望を含むラベル要望リストがユーザ端末10へ送信される。ユーザ端末10のラベル要望受信部14が当該ラベル要望リストを受信すると、ラベル要望選択部15は、当該ラベル要望リストに基づきラベル選択画面を表示する(S105)。
 図8は、ラベル選択画面の表示例を示す図である。図8に示されるように、ラベル選択画面510は、ラベル要望リストに含まれるラベル要望ごとに、チェックボタンを含む。ユーザが、表示されたラベル要望リストの中から、自分がラベル付けを担当したい1以上のラベル要望をチェック(選択)すると、選択メニュー管理部16は、選択されたラベル要望に係るラベル名(以下、「選択ラベル」という。)をWebブラウザ11上で画像データと共に選択できるようにする。その結果、ユーザは、任意のWebページ上に表示される画像データに、いずれかの選択ラベルを割り当てることが可能となる。
 具体的には、任意のWebページに含まれている画像データがユーザによって右クリックされると(S106)、選択メニュー管理部16は、右クリックによって表示されるコンテキストメニューに、ラベリング及び選択ラベルに対応するメニュー項目等を表示(追加)する(S107)。
 図9は、コンテキストメニューの表示例を示す図である。図9には、コンテキストメニューm1の中にラベリングに対応するメニュー項目mi1が追加されている例が示されている。メニュー項目mi1にカーソルが移動すると、メニュー項目mi1のサブメニューm2が表示される。サブメニューm2は、選択ラベルごとにメニュー項目を含む。
 サブメニューm2の中から、右クリックされている画像データに付与する選択ラベルに対応するメニュー項目がユーザによって選択されたことを選択メニュー管理部16が検知すると(S108)、ラベルデータ送信部17は、当該画像のURL(以下、「画像URL」という。)、当該選択ラベル(例えば、(「例えば怒っている熊の画像」)のラベルID、及び当該画像データを含むWebページのURL(以下、「ページURL」という。)等を関連付けるラベルデータをラベルサーバ20へ送信する(S109)。なお、ラベリングの対象とする画像データに対する操作は、右クリックに限定されない。例えば、ダブルクリック等、他の所定の操作に応じて選択ラベルの一覧を含む画面(ウィンドウ又はダイアログ等)が表示されるようにしてもよい。
 ラベルサーバ20のラベルデータ受信部24が当該ラベルデータを受信すると、DB管理部25は、当該ラベルデータをラベルDB30の画像データテーブルT3へ登録する(S110)。
 図10は、画像データテーブルT3の構成例を示す図である。図10に示されるように画像データテーブルT3には、ラベルデータに登録日時が付与されたレコードが登録される。登録日時は、ラベルデータが登録された日時である。
 図11は、まとめページの表示処理の処理手順の一例を説明するためのシーケンス図である。図11におけるユーザ端末10は、図4におけるユーザ端末10と同じでもよいし異なってもよい。
 ユーザが、ユーザ端末10のWebブラウザ11のアドレスバーに、ラベルサーバ20のURLを入力すると(S201)、Webブラウザ11は、当該URL宛てのHTTPリクエストを送信する(S202)。
 ラベルサーバ20のまとめサイト生成部26は、当該HTTPリクエストを受信すると、ラベルテーブルT2に登録されているラベル要望リストを含むWebページ(以下、「ラベル要望リストページ」という。)を生成し(S203)、当該ラベル要望リストページを含む応答をユーザ端末10へ返信する(S204)。ユーザ端末10のWebブラウザ11は、当該応答を受信すると、当該応答に含まれているラベル要望リストページを表示する(S205)。
 図12は、ラベル要望リストページの表示例を示す図である。図12に示されるようにラベル要望リストページ520には、ラベル要望リストに含まれる各ラベル要望のラベル名及びラベル概要が表示される。各ラベル名には、当該ラベル名に係るラベルが付与された画像データのまとめページへのリンクが張られている。
 いずれかのラベル名がユーザによって選択(クリック又はタップ等)されると(S206)、Webブラウザ11は、当該ラベル名に関連付けられてラベル要望リストページ520に記録されているラベルIDを含むHTTPリクエストをラベルサーバ20へ送信する(S207)。
 ラベルサーバ20のまとめサイト生成部26は、当該HTTPリクエストを受信すると、当該HTTPリクエストに含まれているラベルIDを含むレコードを画像データテーブルT3(図10)から検索する(S208)。続いて、まとめサイト生成部26は、検索されたレコード(以下、「対象レコード」という。)のが画像URLに係る画像データをネットワークを介して取得する(S209)。続いて、まとめサイト生成部26は、対象レコード及び取得された画像データに基づいてまとめページを生成する(S210)。続いて、まとめサイト生成部26は、まとめページを含む応答をユーザ端末10へ返信する(S211)。
 ユーザ端末10のWebブラウザ11は、当該応答を受信すると、当該応答に含まれているまとめページを表示装置106へ表示する(S212)。
 図13は、まとめページの表示例を示す図である。図13に示されるように、まとめページ530には、「産卵中のニッポンバラタナゴの画像」というラベル(ラベル名)が付与された画像データの一覧が含まれる。
 なお、ユーザが選択したラベルには不正解のラベルが混在することも想定される。例えば、あるユーザが画像データを右クリックして「産卵中のニッポンバラタナゴ」というラベルを選択した際に、その画像データに写っているのはタイリクバラタナゴかもしれない。このようなラベルのつけ間違えを排除するために、まとめページ530上で表示された各画像データを閲覧者に評価してもらうようにしてもよい。
 例えば、まとめサイト生成部26は、まとめサイトに表示される画像データのそれぞれに、「そうだね」、「違うね」という2択のボタンが表示されるようにまとめページ530を生成する。そうすることで、閲覧者が、まとめサイトの画像データを見て、ラベルが正しいと思った場合には「そうだね」ボタンを、そうでないと思った場合に「違うね」ボタンを閲覧者に押してもらう。例えば、DB管理部25は、画像データテーブルT3の各レコードに、「そうだね」の件数、「違うね」の件数を登録する。
 その結果、「そうだね」の件数が多いものはラベルが正しい可能性が高く、「違うね」の件数が多いものはラベルが間違っている可能性が高いことが大まかに判別できる。例えば、DB管理部25は、このような情報に基づいて、ラベルが間違っている可能性が高いレコードを画像データテーブルT3から削除してもよい。また、まとめサイト生成部26は、「そうだね」と「違うね」の件数順に画像データが表示されるように、まとめサイトを生成してもよい。
 また、「そうだね」及び「違うね」のそれぞれの件数をユーザID別に管理することで、ユーザ毎のラベル選択の正確性をラベル全体、及び個別のラベルにおいて算出できる。これにより、各ユーザが選択したラベルの信頼性を評価してもよい。
 なお、ラベリングされた画像データは、まとめサイトの構成要素としてのみではなく、例えば、機械学習の教師データとして用いられてもよい。
 なお、上記では、画像データに対するラベリングについて説明したが、本実施の形態はWebページの一部を構成する画像データに限らず、インターネット上の様々なコンテンツに対してラベリングが可能である。例えば、Webページ上の部分文字列や、Web上にアップロードされた動画や音声ファイルに対してもラベルを付与することができる。前者であれば、例えば、部分文字列をマウスで選択して右クリックして表示されるコンテキストメニューからラベルを付与すればよい。後者に関しても、動画や音声ファイルを右クリックして同様にラベルを付与すればよい。
 上述したように、本実施の形態によれば、ラベリング作業への心理的負担を減らし、かつ金銭的報酬以外の対価を用いて動機づけを行うことで、データに対するラベリングを効率化することができる。
 すなわち、ヒューマンコンピュテーションの研究領域では、金銭的な報酬以外に、避けることのできない別のタスクに埋め込んだり、タスクをゲーム化したりすることで作業を促す方法などがあるが、本実施の形態によれば、まとめサイトをユーザが協力して簡単に構築できるという対価を提供することで、画像データに対するラベリング作業への参加を促すことができる。
 また、本実施の形態では、汎用的なWebブラウザ11上でラベリング作業が行えるため、ユーザの気が向いたときに直ちにラベリング作業を行うことができる。例えば、ユーザは、Webブラウザ11で他の作業(例えば仕事に関連した調べ物をWebで行う)中にラベリングに値する画像データがあれば、その画像データを操作対象として(例えば、右クリックして)ラベル名を選択することで即座にラベル付けを行うことができる。
 ラベル名が選択されると、操作対象の画像データのソース又はURLと、選択されたラベルの情報がラベルサーバ20に送信されデータベースに記録されていく。すなわち、多くのユーザが画像データを操作対象としてラベルを選択すればするほど、ラベル付きの画像データがラベルサーバ20に蓄積されていくことになる。
 また、本実施の形態では、ラベルサーバ20に蓄積された画像データとラベルデータと基づいて、ラベル別のまとめページが生成される。これにより、ユーザは、ラベルに関連する画像データをWebページで一望することが可能となる。すなわち、本実施の形態において、各ユーザは、画像データに対するラベル付けに協力すると同時に、ユーザ同士で協力してまとめサイトを作成していることになる。
 その結果、機械学習における画像認識器の構築に利用可能なラベル付き画像データを、低コストかつ多人数で効率的に作成することが可能となる。画像データを右クリックし、コンテキストメニューから割り当てるラベルを選択する行為は、多くの人が通常のWebブラウジング中にコピーアンドペースト等で行う行為であり、画像データに対応するラベルを手入力させる等の方法より高速かつ簡便である。また、手入力させた場合、ラベルに表記の揺れが生まれてしまうが(例えば、ニッポンバラタナゴの画像データに対して、人によっては「にっぽんばらたなご」、「ニッポンバラタナゴ」といったラベルを付けてしまうかもしれない。)、予め決められたラベルを選択する場合にはその心配がない。
 従来のラベリング支援ツールと比較すると、まず、以下の2点でラベリングの心理的負担が少ない。第一に、普段利用しているWebブラウザ11を使ってラベリングを利用できるため、利用方法を習熟する等の負担が少ない。第二に、別の作業でWeb閲覧をしている間に、ラベリングすべき画像データを見つけたらすぐにラベリングを行うことができる。Webブラウザ11とは独立したラベリング支援ツールは、ラベリングをするためにツールを起動して実施する必要がある(すなわち、ラベリングがメインタスクである。)が、本実施の形態は、Webブラウザ11で他の作業を行っている最中にサブタスクとしてラベリングを行うことができる。
 次に、本実施の形態では、上記したようなラベリングの動機づけがなされている。その結果、ラベルに対応する画像データの認識器作成に興味がない人に対しても、ラベリングをすればするほど、ラベルに関連するまとめサイトが充実していくため、ラベリングに対する動機付けが維持されると考える。
 最後に、本実施の形態の副次的な効果として、検索サイトでの画像検索は、画像データ(のアドレス)がクローリングされていることが前提であるが、本実施の形態では、ユーザがWebブラウジングをしながらラベリングを行うため、クローリングされていない画像データに対してもラベルを付与できる可能性がある。
 なお、本実施の形態において、ユーザ端末10は、ラベリング支援装置の一例である。ラベルDB30は、記憶装置の一例である。選択メニュー管理部16は、表示制御部の一例である。ラベルデータ送信部17は、記憶処理部の一例である。
 以上、本発明の実施の形態について詳述したが、本発明は斯かる特定の実施形態に限定されるものではなく、特許請求の範囲に記載された本発明の要旨の範囲内において、種々の変形・変更が可能である。
10     ユーザ端末
11     Webブラウザ
12     ユーザ情報入力部
13     ユーザ情報送信部
14     ラベル要望受信部
15     ラベル要望選択部
16     選択メニュー管理部
17     ラベルデータ送信部
20     ラベルサーバ
21     ユーザ情報受信部
22     ユーザ管理部
23     ラベル候補送信部
24     ラベルデータ受信部
25     DB管理部
26     まとめサイト生成部
30     ラベルDB
100    ドライブ装置
101    記録媒体
102    補助記憶装置
103    メモリ装置
104    CPU
105    インタフェース装置
106    表示装置
107    入力装置
B      バス

Claims (5)

  1.  Webページの一部を構成するデータに対する所定の操作に応じ、予め登録されている文字列の一覧を表示する表示手順と、
     前記一覧の中からユーザによって選択された文字列を前記データに関連付けて記憶装置に記憶させる記憶手順と、
    をコンピュータが実行することを特徴とするラベリング支援方法。
  2.  前記データは、画像データである、
    ことを特徴とする請求項1記載のラベリング支援方法。
  3.  Webページの一部を構成するデータに対する所定の操作に応じ、予め登録されている文字列の一覧を表示する表示制御部と、
     前記一覧の中からユーザによって選択された文字列を前記データに関連付けて記憶装置に記憶させる記憶処理部と、
    を有することを特徴とするラベリング支援装置。
  4.  前記データは、画像データである、
    ことを特徴とする請求項3記載のラベリング支援装置。
  5.  請求項1又は2記載のラベリング支援方法をコンピュータに実行させることを特徴とするプログラム。
PCT/JP2020/007404 2019-03-06 2020-02-25 ラベリング支援方法、ラベリング支援装置及びプログラム WO2020179537A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US17/436,595 US11967135B2 (en) 2019-03-06 2020-02-25 Labeling support method, labeling support apparatus and program

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2019-040914 2019-03-06
JP2019040914A JP2020144612A (ja) 2019-03-06 2019-03-06 ラベリング支援方法、ラベリング支援装置及びプログラム

Publications (1)

Publication Number Publication Date
WO2020179537A1 true WO2020179537A1 (ja) 2020-09-10

Family

ID=72337275

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2020/007404 WO2020179537A1 (ja) 2019-03-06 2020-02-25 ラベリング支援方法、ラベリング支援装置及びプログラム

Country Status (3)

Country Link
US (1) US11967135B2 (ja)
JP (1) JP2020144612A (ja)
WO (1) WO2020179537A1 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115994203B (zh) * 2023-02-20 2023-06-23 广州佰锐网络科技有限公司 一种基于ai的数据标注处理方法、系统及ai中台

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09138804A (ja) * 1995-11-14 1997-05-27 Masao Sakauchi 画像検索装置
JP2006059036A (ja) * 2004-08-18 2006-03-02 Nippon Telegr & Teleph Corp <Ntt> 画像検索装置および方法、そのプログラム及び記録媒体
JP2008242689A (ja) * 2007-03-27 2008-10-09 Kddi Corp コンテンツ分類システム、サーバ、端末装置、プログラム、および記録媒体

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5028858B2 (ja) * 2006-05-09 2012-09-19 セイコーエプソン株式会社 画像管理装置
JP2008226061A (ja) * 2007-03-15 2008-09-25 Fujifilm Corp 画像のタグ指定装置および画像検索装置ならびにそれらの動作制御方法およびそれらのコンピュータを制御するプログラム
US8452086B2 (en) * 2009-07-10 2013-05-28 Palo Alto Research Center Incorporated System and user interface for machine-assisted human labeling of pixels in an image
US10319035B2 (en) * 2013-10-11 2019-06-11 Ccc Information Services Image capturing and automatic labeling system
US9189707B2 (en) * 2014-02-24 2015-11-17 Invent.ly LLC Classifying and annotating images based on user context
EP3175609B1 (en) * 2014-07-31 2022-02-23 Hewlett-Packard Development Company, L.P. Processing data representing an image
CN105468630A (zh) * 2014-09-04 2016-04-06 口碑控股有限公司 提供用户信息的方法及装置
US20170109615A1 (en) * 2015-10-16 2017-04-20 Google Inc. Systems and Methods for Automatically Classifying Businesses from Images
US20170185670A1 (en) * 2015-12-28 2017-06-29 Google Inc. Generating labels for images associated with a user

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09138804A (ja) * 1995-11-14 1997-05-27 Masao Sakauchi 画像検索装置
JP2006059036A (ja) * 2004-08-18 2006-03-02 Nippon Telegr & Teleph Corp <Ntt> 画像検索装置および方法、そのプログラム及び記録媒体
JP2008242689A (ja) * 2007-03-27 2008-10-09 Kddi Corp コンテンツ分類システム、サーバ、端末装置、プログラム、および記録媒体

Also Published As

Publication number Publication date
US20220172459A1 (en) 2022-06-02
JP2020144612A (ja) 2020-09-10
US11967135B2 (en) 2024-04-23

Similar Documents

Publication Publication Date Title
US11669493B2 (en) Generating file usage information
KR100478019B1 (ko) 지역 정보 검색 결과 제공 방법 및 시스템
US9348935B2 (en) Systems and methods for augmenting a keyword of a web page with video content
US8024384B2 (en) Techniques for crawling dynamic web content
US9262766B2 (en) Systems and methods for contextualizing services for inline mobile banner advertising
US9002895B2 (en) Systems and methods for providing modular configurable creative units for delivery via intext advertising
US20110015996A1 (en) Systems and Methods For Providing Keyword Related Search Results in Augmented Content for Text on a Web Page
US20060112081A1 (en) Storing searches in an e-mail folder
US20080010249A1 (en) Relevant term extraction and classification for Wiki content
US20120290974A1 (en) Systems and methods for providing a discover prompt to augmented content of a web page
US20130054356A1 (en) Systems and methods for contextualizing services for images
US20120095834A1 (en) Systems and methods for using a behavior history of a user to augment content of a webpage
US20130054672A1 (en) Systems and methods for contextualizing a toolbar
US20120246561A1 (en) Systems and methods for extended content harvesting for contextualizing
TW201118620A (en) Systems and methods for providing advanced search result page content
Kelly Assessment of digitized library and archives materials: A literature review
CN113544689A (zh) 为文档的来源观点生成并提供附加内容
JP2007280011A (ja) Webページ閲覧履歴の提示方法および装置
JP2010039605A (ja) 個人検索システム、個人検索方法、プログラムおよび記録媒体
WO2012135690A1 (en) Systems and methods for invisible area detection and contextualization
JP4527770B2 (ja) 情報検索装置、コンピュータプログラム及び記憶媒体
WO2020179537A1 (ja) ラベリング支援方法、ラベリング支援装置及びプログラム
JP2009205588A (ja) ページ検索システム及びプログラム
KR101020895B1 (ko) 지역 정보 검색 결과 제공 방법 및 시스템
KR100909561B1 (ko) 지역 정보 검색 결과 제공 시스템

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 20766366

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 20766366

Country of ref document: EP

Kind code of ref document: A1