JP2014517390A - Support for video content search through communication network - Google Patents

Support for video content search through communication network Download PDF

Info

Publication number
JP2014517390A
JP2014517390A JP2014510716A JP2014510716A JP2014517390A JP 2014517390 A JP2014517390 A JP 2014517390A JP 2014510716 A JP2014510716 A JP 2014510716A JP 2014510716 A JP2014510716 A JP 2014510716A JP 2014517390 A JP2014517390 A JP 2014517390A
Authority
JP
Japan
Prior art keywords
user
content
videos
semantic data
service
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2014510716A
Other languages
Japanese (ja)
Other versions
JP5844887B2 (en
Inventor
セクダン,シルヴァン
ファンベル,アレクサンドレ
Original Assignee
アルカテル−ルーセント
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by アルカテル−ルーセント filed Critical アルカテル−ルーセント
Publication of JP2014517390A publication Critical patent/JP2014517390A/en
Application granted granted Critical
Publication of JP5844887B2 publication Critical patent/JP5844887B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/40Information retrieval; Database structures therefor; File system structures therefor of multimedia data, e.g. slideshows comprising image and additional audio data
    • G06F16/43Querying
    • G06F16/432Query formulation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/70Information retrieval; Database structures therefor; File system structures therefor of video data
    • G06F16/73Querying
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/40Information retrieval; Database structures therefor; File system structures therefor of multimedia data, e.g. slideshows comprising image and additional audio data
    • G06F16/43Querying
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/70Information retrieval; Database structures therefor; File system structures therefor of video data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/70Information retrieval; Database structures therefor; File system structures therefor of video data
    • G06F16/73Querying
    • G06F16/732Query formulation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/70Information retrieval; Database structures therefor; File system structures therefor of video data
    • G06F16/73Querying
    • G06F16/738Presentation of query results
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/70Information retrieval; Database structures therefor; File system structures therefor of video data
    • G06F16/74Browsing; Visualisation therefor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/70Information retrieval; Database structures therefor; File system structures therefor of video data
    • G06F16/78Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/7867Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using information manually generated, e.g. tags, keywords, comments, title and artist information, manually generated time, location and usage information, user ratings
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F17/00Digital computing or data processing equipment or methods, specially adapted for specific functions
    • G06F17/10Complex mathematical operations

Abstract

ユーザによる通信ネットワークを通じたビデオ・コンテンツ検索を支援する方法であって、
− 前記ユーザによる第1のコンテンツ・アイテム(CZ)を決定するステップと、
− この第1のコンテンツ・アイテムから意味論的なデータを自動的に抽出するステップと、
− 意味論的なデータに応じて、少なくとも1つのサービスのクエリーを自動的に生成して、このサービスまたはこれらのサービスでビデオのセットを取り出すことを可能にするステップと、
− ユーザにそのビデオのセット・コンテンツを提示するステップと
を含む方法。
A method for supporting a user to search for video content through a communication network,
-Determining a first content item (CZ) by the user;
-Automatically extracting semantic data from the first content item;
In response to semantic data, automatically generating a query for at least one service, enabling the service or a set of videos to be retrieved by these services;
-Presenting the set content of the video to the user.

Description

本発明は、インターネットを通じたビデオ・コンテンツ提供サービスへのアクセスに関する。これらのサービスは、「YouTube」、「Vimeo」、および「DailyMotion」などの一般的なプラットフォーム、またはより専門的なプラットフォーム(教育セクタ、医療セクタなど)である。   The present invention relates to access to a video content providing service through the Internet. These services are common platforms such as “Youtube”, “Videoo”, and “DailyMotion”, or more specialized platforms (education sector, medical sector, etc.).

これらの2種類のサービスは、ユーザがプラットフォームに自分のコンテンツをアップロードすることを可能にするという共通の特性を共有している。その結果、これらのサービスのすべてを通じて非常に大量のビデオ・コンテンツを入手可能である。現在、「YouTube」サービスでは毎分約355時間のビデオがアップロードされている。   These two types of services share the common property of allowing users to upload their content to the platform. As a result, very large amounts of video content are available through all of these services. Currently, the “Youtube” service uploads about 355 hours of video per minute.

利用可能なコンテンツのこのような爆発的増加に対して、大多数のコンテンツは、十分な可視性を得ていない。したがって、利用可能なビデオ・コンテンツの40%だけが、300回を超えて視聴される。   For this explosive increase in available content, the vast majority of content does not gain sufficient visibility. Thus, only 40% of the available video content is viewed over 300 times.

このような低い割合は主に、そのように膨大な量のコンテンツからユーザにとって興味深いビデオを識別することが非常に困難になっているという事実に起因する。   This low percentage is mainly due to the fact that it is very difficult to identify interesting videos for users from such a large amount of content.

ビデオ・コンテンツには記述が関連づけられていて、多くの場合はテキスト形式であり、これは自由なテキスト・フィールドまたはラベルのセットを通じて、キーワードに基づいた検索を可能にする。したがって、新しいビデオをアップロードすることを希望する各ユーザは、サービスに組み込まれている検索エンジンまたは外部の検索エンジン(「Google」、「Bing」、または「Yahoo!」など)を使用して、そのユーザのビデオを他のユーザが見つけることを可能にする記述を提供するように求められる。   Video content has a description associated with it, often in text format, which allows search based on keywords through a set of free text fields or labels. Thus, each user who wants to upload a new video can use their search engine or an external search engine (such as “Google”, “Bing”, or “Yahoo!”) You are asked to provide a description that allows other users to find your video.

しかし、記述はユーザによって提供されるので完全に主観的なものであるため、この解決法は十分ではない。特に、それらは個別のユーザの興味を示すものであり、様々な言語の場合があり、所与の言語においては、複数の可能な同意語を含むキーワードの選択が含まれる場合がある。したがって、ビデオを見つけるために、それらを決定するツールなしで、ユーザは適切なキーワードを選択しなければならない。ビデオをアップロードしたユーザによって選択されたラベルおよび用語をいかにして知ることができるであろうか。   However, this solution is not sufficient because the description is completely subjective because it is provided by the user. In particular, they represent individual user interests and may be in various languages, and in a given language may include selection of keywords that include multiple possible synonyms. Thus, to find videos, the user must select the appropriate keywords without the tools to determine them. How can you know the label and terminology selected by the user who uploaded the video?

結果として生じる問題は以下の2通りある。
− 検索によって、必ずしも最も関連性が高いビデオ・コンテンツが提供されるわけではない。
− 検索を行うユーザにビデオが十分に見えない場合がある。
The resulting problems are the following two.
-Search does not necessarily provide the most relevant video content.
-The video may not be fully visible to the user performing the search.

本発明の目的は、この状況を改善することである。   The object of the present invention is to improve this situation.

そうするために、その第1の目的は、ユーザによる通信ネットワークを通じたビデオ・コンテンツ検索を支援するための方法であって、
− 前記ユーザにより第1のコンテンツ・アイテムを決定するステップと、
− この第1のコンテンツ・アイテムから意味論的なデータを自動的に抽出するステップと、
− 前記意味論的なデータに応じて、少なくとも1つのサービスのクエリーを自動的に生成して、前記少なくとも1つのサービスでビデオのセットを取り出すことを可能にするステップと、
− 前記ユーザに前記ビデオのセットを提示するステップと
を含む。
In order to do so, its first purpose is a method for supporting video content retrieval by a user through a communication network, comprising:
-Determining a first content item by the user;
-Automatically extracting semantic data from the first content item;
-Automatically generating a query for at least one service in response to the semantic data to allow retrieval of a set of videos at the at least one service;
-Presenting the set of videos to the user.

本発明の一実施形態によると、この方法は、第1のコンテンツ・アイテムと、このセット内のビデオ・コンテンツに関連する記述との間の意味論的な近接性の基準に応じて、前記セットからビデオのサブセットを選択するステップを含むこともできる。   According to one embodiment of the present invention, the method is configured to determine the set of the semantic content between the first content item and the description associated with the video content in the set. Can also include selecting a subset of the video from.

少なくとも1つのサービスは、意味論的なデータに応じて決定することができる。   At least one service can be determined in response to semantic data.

これらのステップは、マンマシン・インタフェース(WB)の第1のコンテンツ・アイテム(CZ)の選択によって、および前記マンマシン・インタフェースを通じてアクセス可能なソフトウェア機能の選択によってトリガーすることができる。   These steps can be triggered by selection of the first content item (CZ) of the man-machine interface (WB) and by selection of software functions accessible through the man-machine interface.

意味論的なデータを自動的に抽出するステップは、「主語−動詞−目的語」関係を抽出することからなり得る。生成されたクエリーは、前記関係に基づいて構成することができる。   The step of automatically extracting semantic data may consist of extracting a “subject-verb-object” relationship. The generated query can be constructed based on the relationship.

本発明は、上に記述した方法を実施するための処理手段を備えた通信端末、ならびにこの方法を実施するための符号化手段を備えたコンピュータ・プログラムをも目的とする。   The present invention also aims at a communication terminal comprising processing means for carrying out the method described above, and a computer program comprising coding means for carrying out this method.

本発明は、ユーザが第1のコンテンツ・アイテムを選択することを可能にする手段、および
− 前記第1のコンテンツ・アイテムから意味論的なデータを自動的に抽出するステップと、
− これらの意味論的なデータに応じて、少なくとも1つのサービスのクエリーを自動的に生成して、前記少なくとも1つサービスでビデオのセットを取り出すことを可能にするステップと、
− ユーザにそのビデオのセット・コンテンツを提示するステップと
をトリガーすることを可能にする手段を備えた、通信端末のためのマンマシン・インタフェースをも目的とする。
The invention comprises means for allowing a user to select a first content item, and automatically extracting semantic data from the first content item;
-Automatically generating a query for at least one service in response to these semantic data, allowing said at least one service to retrieve a set of videos;
-It is also aimed at a man-machine interface for a communication terminal, with means allowing to trigger the step of presenting the set content of the video to the user.

このようにして、一般的にテキスト形式である、第1のコンテンツ・アイテムに基づいて、本発明は、ビデオ・コンテンツの可視性および検索の関連性を改善するために、ユーザの主観を取り除き、または少なくとも減らすことを可能にする。本発明は、ビデオ・コンテンツと検索対象と間の意味上のギャップを減らすことを可能にする。   In this way, based on the first content item, which is generally in text form, the present invention removes the user's subjectivity to improve video content visibility and search relevance, Or at least allow to reduce. The present invention makes it possible to reduce the semantic gap between video content and search objects.

本発明およびその利点は、添付の図面に関して、以下の記述からより明白になるだろう。   The invention and its advantages will become more apparent from the following description with reference to the accompanying drawings.

本発明を実施するマンマシン・インタフェースを示す図である。It is a figure which shows the man machine interface which implements this invention. 本発明による方法のステップの可能な連鎖を概略的に示す流れ図である。3 is a flow diagram schematically showing a possible chain of steps of the method according to the invention. テキスト・コンテンツの例、および抽出された意味論的なデータを示す図である。FIG. 3 is a diagram illustrating an example of text content and extracted semantic data.

図1は、ユーザがURL(ユニファイド・リソース・ロケータ:Unified Resource Locator)からウェブ・ページにアクセスすることを可能にするウェブ・ブラウザを示している。このブラウザは、マンマシン・インタフェースまたは「ウィンドウ」WBをユーザに提示する。このウィンドウには、(ビデオ・コンテンツを含む)ページが表示されるブラウザ空間WPおよびメニュー領域MZを含む複数の部分が表示される。   FIG. 1 shows a web browser that allows a user to access a web page from a URL (Unified Resource Locator). This browser presents the user with a man-machine interface or “window” WB. In this window, a plurality of parts including a browser space WP in which a page (including video contents) is displayed and a menu area MZ are displayed.

このメニュー領域はそれ自体、ドロップダウン・メニューSMおよびアイコンIMを含むことができる。このメニュー領域MZを通じて、ブラウザは、ユーザにその各種機能へのアクセスを提供する。所与の機能は、また、ドロップダウン・メニュー、アイコン、または両方を通じてアクセス可能な場合がある。これはブラウザの開発者によって行われる人間工学的な選択である。   This menu area can itself contain a drop-down menu SM and an icon IM. Through this menu area MZ, the browser provides the user with access to various functions. A given function may also be accessible through a drop-down menu, an icon, or both. This is an ergonomic choice made by browser developers.

さらに、これらの機能および/または他の機能には、ユーザはコンテキスト・メニューCMを通じてもアクセス可能な場合がある。典型的には、マイクロソフト社のWindows(TM)オペレーティング・システムでは、そのようなコンテキスト・メニューは、マウスの右メニュー・ボタンで開かれ、その要素は、マウス・ポインターの位置およびブラウザの状態に依存している。   In addition, these and / or other functions may be accessible to the user through a context menu CM. Typically, in Microsoft's Windows (TM) operating system, such a context menu is opened with the right mouse menu button, and its elements depend on the position of the mouse pointer and the state of the browser doing.

図1の例では、ブラウザ空間WPにテキスト・コンテンツが表示されている。マンマシン・インタフェースWBは、このテキスト・コンテンツのすべてまたは一部を選択することを可能にする。この選択は、マウスもしくは他の任意のポインティング・デバイス、またはキーボードなどを使用し、既知の方法によって行うことができる。描写した例では、CZ領域だけが選択されている。   In the example of FIG. 1, text content is displayed in the browser space WP. The man-machine interface WB makes it possible to select all or part of this text content. This selection can be performed by a known method using a mouse or any other pointing device or a keyboard. In the depicted example, only the CZ region is selected.

この第1のコンテンツCZが選択されると、ユーザは、マンマシン・インタフェースWBのメニューから本発明に対応する機能を選択することができる。この機能は、ドロップダウン・メニューSM、アイコンIM、またはコンテキスト・メニューCMから選択することができる。この選択は、アイコンIMをクリックする、またはドロップダウン・メニューSMもしくはコンテキスト・メニューCMから要素を選択することからなり得る。   When the first content CZ is selected, the user can select a function corresponding to the present invention from the menu of the man-machine interface WB. This function can be selected from a drop-down menu SM, an icon IM, or a context menu CM. This selection may consist of clicking on the icon IM or selecting an element from the drop-down menu SM or the context menu CM.

本発明は、また、ブラウザ以外のソフトウェア・アプリケーションに適用することができる。特に、本発明は、ファイル表示アプリケーションに適用することができる。アドビ社の「PDF」形式の電子ブック(または「eブック」)またはファイルを読むユーザは、上記のように、コンテンツ領域を選択し、選択されたコンテンツに基づいて該当するソフトウェア・アプリケーションでメニューから機能をトリガーすることができる。   The present invention can also be applied to software applications other than browsers. In particular, the present invention can be applied to a file display application. A user reading an Adobe “PDF” formatted e-book (or “e-book”) or file selects a content area as described above and from the menu in the appropriate software application based on the selected content. A function can be triggered.

ソフトウェア・アプリケーションは、また、マイクロソフト社の「Word」ソフトウェアなどワード・プロセッサでもよい。   The software application may also be a word processor such as Microsoft's “Word” software.

同様に、本発明は、テキスト・コンテンツ以外のコンテンツに適用することができる。したがって、画像、音声、またはビデオを選択することが可能である。   Similarly, the present invention can be applied to contents other than text contents. It is therefore possible to select an image, sound or video.

最初のコンテンツを決定するためにユーザによる選択以外のメカニズムも可能な場合がある。たとえば、決定は、表示されたウェブ・ページ、再生されているビデオ、読まれている電子メールのコンテンツなどに応じて自動的でもよい。   Mechanisms other than selection by the user to determine the initial content may be possible. For example, the determination may be automatic depending on the displayed web page, the video being played, the content of the email being read, etc.

この第1のコンテンツ・アイテムCZを決定するステップは、図2のステップE1に示されている。   The step of determining the first content item CZ is shown in step E1 of FIG.

第1のコンテンツ・アイテムCZおよび適切な機能を選択することで、この第1のコンテンツ・アイテムから意味論的なデータを自動的に抽出する第1のアルゴリズムのステップがトリガーされる。   Selecting the first content item CZ and the appropriate function triggers a first algorithm step that automatically extracts semantic data from the first content item.

このステップは、ステップE2として示されている。   This step is shown as step E2.

このステップは、いくつかのサブステップに細分化することができる。   This step can be subdivided into several substeps.

第1のサブステップE2aは、コンテンツのタイプを決定することからなる。すなわち、コンテンツがテキスト、ビデオ、画像、オーディオなどのどれかということである。   The first sub-step E2a consists in determining the type of content. That is, whether the content is text, video, image, audio, or the like.

コンテンツ・タイプに応じて、次に、意味論的なデータを抽出するために様々なアルゴリズム使用することができる。これらのアルゴリズムは、別個のソフトウェア・モジュールによって実装することができる。   Depending on the content type, various algorithms can then be used to extract semantic data. These algorithms can be implemented by separate software modules.

抽出ステップE2の次のサブステップは、コンテンツ・タイプに依存することができる。   The next sub-step of the extraction step E2 can depend on the content type.

テキスト・コンテンツの場合には、第2のサブステップE2bは、コンテンツ・アイテムCZから意味論的な生のデータを抽出することからなり得る。   In the case of text content, the second sub-step E2b may consist of extracting semantic raw data from the content item CZ.

これらの意味論的な生のデータは、文ごとまたは文のブロックごとに抽出することができる。   These semantic raw data can be extracted for each sentence or for each block of sentences.

文のブロックの抽出は、以前に識別されたエンティティを参照する人称代名詞の存在によって調整される。各文の主語は同じであると言えるため、同じ話題で一貫した文のブロックを識別できる場合がある。   The extraction of sentence blocks is coordinated by the presence of personal pronouns that refer to previously identified entities. Since the subject of each sentence can be said to be the same, it may be possible to identify consistent sentence blocks on the same topic.

すべての言葉が抽出されなくてもよい。テキストを理解するのに役立たないなら、一部の言葉は省略することができる。   Not all words need to be extracted. Some words can be omitted if they do not help to understand the text.

抽出は、以下に示す複数のステップで実行することができる。
− いわゆる「ストップ・ワード」の削除:等位接続詞など。
− 残りの情報を分析し、判別的な意味を持つキーワードのセットを抽出するために、統計および自然言語アルゴリズムを使用。たとえば、人の記述において、「目」という言葉は判別的ではない。誰もが「目」を持っているからである。他方では、「片目」という単語は判別的である。このために、文書のセットにおける単語の頻度についての情報を得られるコーパスを使用することができる。つまり、頻度が低いほど、単語の推測的な重要性が高い。
The extraction can be performed in a plurality of steps shown below.
-Deletion of so-called "stop words": coordinate conjunctions, etc.
-Use statistical and natural language algorithms to analyze the remaining information and extract a set of keywords with discriminative meaning. For example, in the description of a person, the word “eye” is not discriminatory. Because everyone has “eyes”. On the other hand, the word “one eye” is discriminatory. To this end, a corpus that can obtain information about the frequency of words in a set of documents can be used. In other words, the lower the frequency, the higher the speculative importance of the word.

これらの意味論的な生のデータに基づいて、第3のサブステップE2cで、洗練された意味論的なデータを決定することができる。これらの洗練された意味論的なデータは、「概念」;人、企業、場所(都市、国、地域など)の名前;日付などでもよい。   Based on these semantic raw data, refined semantic data can be determined in a third sub-step E2c. These sophisticated semantic data may be “concepts”; names of people, companies, places (city, country, region, etc.); dates, etc.

「概念」は、意味論的な生のデータのセットからの主要な意味論的なデータと見なすことができる。それらは、様々な方法で決定することができる。たとえば、各意味論的な生のデータは、テキスト・コンテンツCZ全体に渡る発生カウンターに関連づけることができる。概念は、次に、最も発生回数が多いものに対応する意味論的なデータである。   A “concept” can be viewed as the main semantic data from a set of semantic raw data. They can be determined in various ways. For example, each semantic raw data can be associated with an occurrence counter across the text content CZ. The concept is then semantic data corresponding to the one with the highest number of occurrences.

また、同意語および様々な意味レベルからの生のデータ、特に上位語(つまり、1つまたは複数のより具体的な意味論的なデータ・アイテムを包含する、より一般的な意味論的な生のデータ)を考慮する存在論を使用することが可能である。   It also includes raw data from synonyms and various semantic levels, especially broader terms (ie, more general semantic raw data that includes one or more more specific semantic data items). It is possible to use an ontology that takes into account

次に、概念は、同義語および上位語に基づいて集約された意味論的な生のデータの発生回数によって決定することができる。たとえば、生のデータ「オレンジ」、「ブドウ」、「バナナ」などの発生を含むテキスト・コンテンツから、「果物」という概念を導き出すことができる。   The concept can then be determined by the number of occurrences of semantic raw data aggregated based on synonyms and broader terms. For example, the concept of “fruit” can be derived from textual content that includes the occurrence of raw data “orange”, “grape”, “banana”, and the like.

テキスト・コンテンツCZが属するカテゴリを決定するために、たとえば、最も発生回数が多いものに関連するものなど、最も重要な概念を導き出すことが可能である。このカテゴリは、以前に決定された概念の一連の上位語を考慮して検索することができる。   In order to determine the category to which the text content CZ belongs, it is possible to derive the most important concepts, for example those related to the one with the highest number of occurrences. This category can be searched considering a series of broader terms of previously determined concepts.

人、企業、場所などの名前は辞書から決定することができる。この辞書は、本発明のソフトウェア手段の内部的なものでもよく、またはウェブ・サービスまたは他の技術的なデバイス(データベースなど)の形でインターネット上にリモートにあってもよい。   Names of people, companies, places, etc. can be determined from the dictionary. This dictionary may be internal to the software means of the present invention or may be remote on the Internet in the form of a web service or other technical device (such as a database).

図3は、テキスト・コンテンツCZの例と、抽出された意味論的なデータとの間の対応を示している。この例では、テキスト・コンテンツCZは、ブラウザ空間WPに表示されたウェブ・ページでユーザによって選択された領域である。図では灰色の背景で示されている。   FIG. 3 shows the correspondence between the example text content CZ and the extracted semantic data. In this example, the text content CZ is an area selected by the user on the web page displayed in the browser space WP. The figure shows a gray background.

本発明の機能をトリガーした後、「ポップ・アップ」ウィンドウPWが表示され、最も関連するビデオ・コンテンツVCおよび他の関連するビデオ・コンテンツRVCが表示される。このウィンドウPWには、また、「カテゴリ」、概念、人および場所(「州または国」)の名前、ならびに意味論的な生のデータ(「タグ」)が表示される。ユーザにとってたいした意味を持たず、内部的により有益な場合、この情報は表示されなくてもよい。しかし、説明を明確にするためにここに表示される。   After triggering the function of the present invention, a “pop up” window PW is displayed, displaying the most relevant video content VC and other relevant video content RVC. The window PW also displays “category”, concept, name of person and place (“state or country”), and semantic raw data (“tag”). This information may not be displayed if it does not make much sense to the user and is more useful internally. However, it is displayed here for clarity.

「ビジネス」(取引、貿易)というカテゴリは、この例では、抽出された概念に基づいて決定される。したがって、「広告」および「セール」という概念には「ビジネス」という上位語がある。この推論は、「安値」、「市場」、「手形仲買業」、「シリング」などの生のデータの存在によってさらに強化される。   The category “business” (trade, trade) is determined in this example based on the extracted concepts. Therefore, the concepts “advertisement” and “sale” have the broader term “business”. This reasoning is further strengthened by the existence of raw data such as “Low”, “Market”, “Bill Brokerage”, “Shilling”.

この意味論的な分野に複数の概念が発生することから、本発明の方法は、テキスト・コンテンツCZがビジネスに関係していると、ここで自動的に決定することができる。   Since multiple concepts arise in this semantic field, the method of the present invention can now automatically determine that the text content CZ is business relevant.

サブステップE2dは、意味論的なデータを重み付けすることからなる。各意味論的なデータならびにその同意語および上位語の発生回数に応じて、意味論的なデータの重要性を識別し、テキスト・コンテンツCZを表すために重みを割り当てることができる。   Sub-step E2d consists of weighting the semantic data. Depending on each semantic data and the number of occurrences of its synonyms and broader terms, the importance of the semantic data can be identified and a weight assigned to represent the text content CZ.

より高い重みを割り当てることもできる。   Higher weights can also be assigned.

実際には、このサブステップは、サブステップE2cと同時に実行することができる。   In practice, this sub-step can be performed simultaneously with sub-step E2c.

また、後のステップで使用するために、これらの重みに基づくランキングにより、その重みが特定のしきい値または制限数を超えるものだけを保存するために意味論的なデータのフィルタリングを含むことができる。   Also, ranking based on these weights for use in later steps may include semantic data filtering to preserve only those whose weights exceed a certain threshold or limit. it can.

本発明の一実施形態では、意味論的なデータの文法的な機能を決定し、それらの間に論理的なリンクを構成するために、テキスト・コンテンツCZの文法解析を実行することが可能である。   In one embodiment of the present invention, it is possible to perform grammatical analysis of text content CZ to determine the grammatical functions of semantic data and to construct logical links between them. is there.

このリンクは「主語−動詞−目的語」関係によって形式化することができる。   This link can be formalized by a “subject-verb-object” relationship.

本発明の方法は、文または言葉の群内に「主語」、「動詞」、および「目的語」機能を識別し、意味解析によって、3つの抽出された要素の間にそのようなリンクを確立することを試みる。当然、様々な手法が可能である。   The method of the present invention identifies “subject”, “verb”, and “object” functions within a sentence or group of words and establishes such a link between three extracted elements by semantic analysis. Try to do. Of course, various techniques are possible.

可能な1つの手法は、以下からなり得る。
− 文または言葉の群から主語を抽出するステップ。この主語、行動する人は、個人、既知の組織、実際の場所などとして識別することができる。そのような識別に辞書を使用することができる。
− 抽出された主語の近くにある動詞の検出。ここでも、動詞の形式を識別するために辞書を使用することができる。また、所与の動詞の活用および様々な形式を考慮しようとすることもできる。この形式に応じて、これが行動(動作動詞)または状態(受動態、過去分詞)に関係があるかを知るために補足の意味論的な情報を抽出することができる。
− 行動の「目的」を識別するための、動詞の近くにあるキーワードおよび概念の抽出。
One possible approach may consist of:
-Extracting a subject from a sentence or group of words. This subject, the person who acts, can be identified as an individual, a known organization, an actual location, or the like. A dictionary can be used for such identification.
-Detection of verbs near the extracted subject. Again, a dictionary can be used to identify the form of the verb. It is also possible to consider the use of a given verb and various forms. Depending on this format, supplemental semantic information can be extracted to see if this is related to behavior (action verb) or state (passive, past participle).
-Extract keywords and concepts near the verb to identify the "purpose" of the action.

このプロセスの効率を改善するために、他動詞だけを考慮するように計画することができる。これらにより、より直接的な「主語−動詞−目的語」関係を構成することができる。そうするために、動詞の形式を抽出するために使用される辞書は他動詞だけを含んでいてもよい。   To improve the efficiency of this process, one can plan to consider only transitive verbs. As a result, a more direct “subject-verb-object” relationship can be constructed. To do so, the dictionary used to extract verb forms may contain only transitive verbs.

また、辞書に属するコーパスにも属する目的語の決定に対する「主語−動詞−目的語」関係の作成を従属させるように計画することができる。「主語」の例に続き、この「目的語」は、個人、既知の組織、実際の場所などでもよい。   It can also be planned to make the creation of the “subject-verb-object” relationship subordinate to the determination of the object belonging to the corpus belonging to the dictionary. Following the “subject” example, this “object” may be an individual, a known organization, an actual location, or the like.

次に、ステップE3は、意味論的なデータに基づいて少なくとも1つのサービスを決定することからなり得る。   Next, step E3 may consist of determining at least one service based on semantic data.

実際、一部のビデオ・コンテンツ提供サービスは1つのテーマに専門化されており(スポーツ、ニュース、芸術的な短編映画、教育など)、テキスト・コンテンツCZから抽出された意味論的なデータに依存して、最も関連するサービスを対象とすることが妥当な場合がある。   In fact, some video content offering services are specialized in one theme (sports, news, artistic short films, education, etc.) and rely on semantic data extracted from text content CZ Thus, it may be appropriate to target the most relevant services.

追加として系統的に、または抽出された話題に専門化されたサービスがない場合、またはそれらが不十分な場合はときどき、DailyMotionまたはYouTubeなどの一般的な(generalist)サービスも検索することができる。   Additionally, if there are no specialized services in the systematically or extracted topics or if they are insufficient, general services such as DailyMotion or Youtube can also be searched.

あるいは、サービスは、構成によって静的に識別することができる。   Alternatively, services can be statically identified by configuration.

ステップE4は、意味論的なデータに基づいて、識別されたサービス(複数可)のクエリーを自動的に生成するステップからなる。   Step E4 consists of automatically generating a query for the identified service (s) based on semantic data.

典型的には、これは、パラメータとして抽出された意味論的なデータのすべてまたは一部を含むHTTP(ハイパーテキスト転送プロトコル)のクエリーを構成するステップを含むことができる。   Typically, this can include constructing an HTTP (Hypertext Transfer Protocol) query that includes all or part of the semantic data extracted as parameters.

これらのデータは、単一のクエリーまたは複数のクエリーを構成するために使用することができる。したがって、特定のしきい値を超える重みを持つ意味論的なデータと同数のクエリーを構成することが可能である。   These data can be used to construct a single query or multiple queries. Thus, it is possible to construct as many queries as semantic data with weights exceeding a certain threshold.

また、「主語−動詞−目的語」関係を抽出することから構成された実装形態では、各関係に対して異なるクエリーを構成することが可能な場合がある。   Also, in an implementation configured by extracting a “subject-verb-object” relationship, it may be possible to construct different queries for each relationship.

テキスト・コンテンツCZのすべては、文ごとまたは単語ブロックごとに通覧することができる。各文または単語ブロックについて、「主語−動詞−目的」関係がある場合、それらはクエリーを構成するために使用することができる。そうでなければ、クエリーは意味論的な生のデータから構成することができる。   All of the text content CZ can be browsed by sentence or word block. For each sentence or word block, if there is a “subject-verb-purpose” relationship, they can be used to construct a query. Otherwise, the query can consist of raw semantic data.

これらのクエリーにより、識別されたサービス(複数可)で利用可能なビデオのセットを取り出すことが可能になる。   These queries allow to retrieve a set of videos that are available for the identified service (s).

次に、これらのビデオはマンマシン・インタフェースWBで、より具体的にはブラウザ空間WPでユーザに提示される。   These videos are then presented to the user at the man-machine interface WB, more specifically in the browser space WP.

本発明の一実施形態では、テキスト・コンテンツCZと、取り出されたビデオとの間の意味論的な近接性の基準を実施することが可能である。   In one embodiment of the present invention, a semantic proximity criterion between text content CZ and the retrieved video can be implemented.

意味論的な近接性は、以前のステップでテキスト・コンテンツCZから抽出された意味論的なデータおよび取り出されたビデオに関連する意味内容に基づいて計算することができる。これらのデータは、「タグ」、「タイトル」フィールド、「説明」フィールドなど、ユーザによって保存された生のデータでもよい。   Semantic proximity can be calculated based on the semantic data extracted from the text content CZ in the previous step and the semantic content associated with the retrieved video. These data may be raw data saved by the user, such as a “tag”, “title” field, “description” field, and the like.

また、取り出されたビデオの分析を実施することも可能である。   It is also possible to perform an analysis of the extracted video.

したがって、質感(海、砂、氷など)および/または色をかなり容易に決定することが可能である。   Thus, the texture (sea, sand, ice, etc.) and / or color can be determined fairly easily.

また、形状認識アルゴリズムを実装することも可能である。これらは、固定情報(すなわち、視角によって変わらない形状の部分)から既知の形式を決定することを試みることができる。   It is also possible to implement a shape recognition algorithm. They can attempt to determine a known format from fixed information (ie, a portion of the shape that does not change with viewing angle).

相乗効果を得るために、様々な手法をともに使用することができる。
− たとえば、形状解析によってアザラシを決定することで、検出された質感が実際に氷であることを確認することを可能にすることができる。次に、エラーを減らし、結果の信頼性を高めることができる。
− 別の例では、色の決定が形状の決定と相関することにより、意味の追加が可能になり得る。したがって、単なる馬の決定より判別的な概念である、「黒い馬」の存在を決定することができる。
Various techniques can be used together to obtain a synergistic effect.
-For example, determining a seal by shape analysis can make it possible to confirm that the detected texture is actually ice. Second, errors can be reduced and the reliability of the results can be increased.
In another example, adding color may be possible by correlating color determination with shape determination. Therefore, it is possible to determine the existence of a “black horse”, which is a discriminatory concept rather than a simple horse determination.

ビデオ(または連続する画像)から画像の網羅的解析を実行することが可能である。したがって、周囲光のレベルを分析し、そこから意味論的な情報を取り出すことができる。たとえば、場面が屋外であることが検出されている場合、日中か夜かを決定することができる。   It is possible to perform an exhaustive analysis of the image from the video (or successive images). Thus, the level of ambient light can be analyzed and semantic information can be extracted therefrom. For example, if it is detected that the scene is outdoors, it can be determined whether it is daytime or nighttime.

この情報を比較することによって、特に存在論を使用することによって、距離を決定することが可能である。   By comparing this information, it is possible to determine the distance, especially by using ontology.

また、そのような距離を定めるために様々な方法が可能である。   Also, various methods are possible for determining such distance.

具体的には、
− グラフで扱われる距離に基づいて、所与の存在論の概念間の発見的な測定基準。この距離は、ノードがキーワードまたは概念であるグラフ上のノードの数でもよい。特定のペアは、リンクによって直接的に接続されている。リンクは、方向があってもよく、または対称でもよい。2つ単語の間のリンクが対称の場合、2つの単語の関係はより強力である。この距離により、たとえば、2つの概念の類似性を定量化することを可能にすることができる。また、これは曖昧さをなくす目的に役立つことができる。
− TF−IDF(単語の出現頻度−逆文書頻度)方法は、情報検索、特にテキスト比較においてよく使用される重み付け方法である。この統計的測定により、集合またはコーパスに対して、文書に含まれている語の重要性を評価することが可能になる。重みは、文書内での単語の出現回数に比例して増加する。また、コーパス内での単語の頻度に基づき変化する。ユーザの検索基準に関して文書の関連性を評価するために、検索エンジンでは、多くの場合、オリジナルの式の代替案が使用される。
In particular,
-A heuristic metric between given ontological concepts based on the distance treated in the graph. This distance may be the number of nodes on the graph where the nodes are keywords or concepts. Certain pairs are directly connected by links. The link may be directional or symmetric. When the link between two words is symmetric, the relationship between the two words is stronger. This distance can make it possible, for example, to quantify the similarity of two concepts. This can also serve the purpose of disambiguating.
The TF-IDF (word appearance frequency-reverse document frequency) method is a weighting method often used in information retrieval, particularly text comparison. This statistical measurement makes it possible to evaluate the importance of the words contained in the document to the set or corpus. The weight increases in proportion to the number of times the word appears in the document. It also changes based on the word frequency in the corpus. To evaluate the relevance of documents with respect to user search criteria, search engines often use original formula alternatives.

たとえば、IDFコーパスにおいて「恐竜」という単語の発生率が低い場合、これは、より一般的な単語より判別的なのでより重要であることを意味する可能性があり、この単語が、抽出された言葉の各「TF」リスト(文脈から抽出されたコーパスにリンクされたリストおよびビデオの記述から抽出されたコーパスにリンクされたリスト)に出現する場合、その発生回数に基づいて、この単語により高いまたはより低い重みを与えることができる。両方のリストに単語が見つかるという事実により、IDF値に基づいて、より強いまたはより弱いリンクを規定することが可能になる。   For example, if the incidence of the word “dinosaur” in the IDF corpus is low, this may mean that it is more discriminating and more important than the more general word, and this word is If it appears in each of the “TF” lists (a list linked to a corpus extracted from context and a list linked to a corpus extracted from a video description) Lower weight can be given. The fact that words are found in both lists makes it possible to define stronger or weaker links based on IDF values.

また、2つの手法を組み合わせることもできる。たとえば、文脈から抽出された言葉の第1のリストに、IDFコーパスにおいて比較的高い重みを持っている、「恐竜」という単語が見つかる。ビデオの記述から抽出された第2のリストに、「ティラノサウルス」という単語が見つかる。グラフは、2つのホップ(グラフのノードの数)に対称的なリンクがあることを示している。したがって、このビデオの文脈は、IDF値/ホップの数との類似点を示していると考えることができる。   Also, the two methods can be combined. For example, in the first list of words extracted from the context, the word “dinosaur” is found, which has a relatively high weight in the IDF corpus. In the second list extracted from the video description, the word "tyrannosaurus" is found. The graph shows that there is a symmetric link at the two hops (number of nodes in the graph). Thus, the context of this video can be thought of as showing similarity to the IDF value / number of hops.

したがって、このアルゴリズムを各単語に適用することによって、全体的な類似性を計算することができる。   Therefore, the overall similarity can be calculated by applying this algorithm to each word.

取り出されたビデオのそれぞれの距離に基づいて、最も妥当な方法でユーザにそれらを提示するように、それらを順位付けすることが可能である。したがって、取り出された他の関連するビデオの前に、テキスト・コンテンツCZに最も近い近接性を持つビデオが提示される。   Based on the distance of each retrieved video, they can be ranked to present them to the user in the most reasonable way. Thus, the video with the closest proximity to the text content CZ is presented before the other related videos that are retrieved.

また、近接性の基準に基づいて、取り出されたビデオのサブセットを選択することも可能である。   It is also possible to select a subset of the retrieved video based on proximity criteria.

これは、テキスト・コンテンツCZからのそれらの意味的距離に基づいたランキングに応じて、所定の数のビデオだけを選択することを含むことができる。   This can include selecting only a predetermined number of videos in response to a ranking based on their semantic distance from the text content CZ.

また、それは所定のしきい値より小さい意味的距離に対応するビデオのみを選択することを含むことができる。したがって、取り出されたビデオのいずれもが十分に近くない場合、この実施形態は、ユーザにビデオ・コンテンツを示さない場合がある。   It can also include selecting only videos that correspond to semantic distances less than a predetermined threshold. Thus, if none of the retrieved videos are close enough, this embodiment may not show the video content to the user.

当業者は、他の代替案および実施形態も可能であり、また利用可能である。したがって、本発明は上に記述した実装形態に限定するものと理解することはできない。   Other alternatives and embodiments are possible and available to those skilled in the art. Therefore, it cannot be understood that the present invention is limited to the implementation described above.

Claims (9)

ユーザによる通信ネットワークを通じたビデオ・コンテンツ検索を支援する方法であって、
− 前記ユーザによって第1のコンテンツ・アイテム(CZ)を決定するステップと、
− 前記第1のコンテンツ・アイテムから意味論的なデータを自動的に抽出するステップと、
− 前記意味論的なデータに応じて、少なくとも1つのサービスのクエリーを自動的に生成して、前記少なくとも1つサービスでビデオのセットを取り出すことを可能にするステップと、
− 前記ユーザに前記ビデオのセットを提示するステップと
を含む方法。
A method for supporting a user to search for video content through a communication network,
-Determining a first content item (CZ) by said user;
-Automatically extracting semantic data from the first content item;
-Automatically generating a query for at least one service in response to the semantic data to allow the at least one service to retrieve a set of videos;
-Presenting the set of videos to the user.
前記第1のコンテンツと、前記セット内のビデオに関連する記述との間の意味論的な近接性の基準に基づいて、前記セットの中からビデオのサブセットを選択するステップをまた含む請求項1に記載の方法。   2. The method further comprising selecting a subset of videos from the set based on a semantic proximity criterion between the first content and descriptions associated with the videos in the set. The method described in 1. 前記少なくとも1つのサービスは、前記意味論的なデータに基づいて決定される請求項2に記載の方法。   The method of claim 2, wherein the at least one service is determined based on the semantic data. 前記ステップは、マンマシン・インタフェース(WB)の第1のコンテンツ・アイテム(CZ)の選択によって、および前記マンマシン・インタフェースを通じてアクセス可能なソフトウェア機能の選択によってトリガーすることができる請求項1乃至3のいずれか1項に記載の方法。   The step can be triggered by selection of a first content item (CZ) of a man machine interface (WB) and by selection of software functions accessible through the man machine interface. The method of any one of these. 意味論的なデータを自動的に抽出する前記ステップは、「主語−動詞−目的語」関係を抽出するステップからなる請求項1乃至4のいずれか1項に記載の方法。   5. A method according to any one of claims 1 to 4, wherein the step of automatically extracting semantic data comprises the step of extracting a "subject-verb-object" relationship. 生成されたクエリーは、前記関係に基づいて構成される請求項5に記載の方法。   The method of claim 5, wherein the generated query is constructed based on the relationship. 請求項1乃至6のいずれか1項に記載の方法を実施するための処理手段を備えた通信端末。   The communication terminal provided with the processing means for implementing the method of any one of Claims 1 thru | or 6. 請求項1乃至7のいずれか1項に記載の方法を実施するための処理手段を備えたコンピュータ・プログラム。   The computer program provided with the processing means for implementing the method of any one of Claims 1 thru | or 7. ユーザが第1のコンテンツ・アイテム(CZ)を選択することを可能にする手段、および
− 前記第1のコンテンツ・アイテムから意味論的なデータを自動的に抽出するステップと、
− 前記意味論的なデータに応じて、少なくとも1つのサービスのクエリーを自動的に生成して、前記少なくとも1つのサービスでビデオのセットを取り出すことを可能にするステップと、
− 前記ユーザに前記ビデオのセットを提示するステップと
をトリガーすることを可能にする手段を備えた、通信端末のためのマンマシン・インタフェース。
Means for allowing a user to select a first content item (CZ); and- automatically extracting semantic data from the first content item;
-Automatically generating a query for at least one service in response to the semantic data to allow retrieval of a set of videos at the at least one service;
A man-machine interface for a communication terminal comprising means for enabling the user to trigger the step of presenting the set of videos to the user.
JP2014510716A 2011-05-17 2012-04-27 Support for video content search through communication network Expired - Fee Related JP5844887B2 (en)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
FR1154263A FR2975553B1 (en) 2011-05-17 2011-05-17 HELP IN SEARCHING VIDEOS CONTENT ON A COMMUNICATION NETWORK
FR1154263 2011-05-17
PCT/EP2012/057720 WO2012156193A1 (en) 2011-05-17 2012-04-27 Assistance for video content searches over a communication network

Publications (2)

Publication Number Publication Date
JP2014517390A true JP2014517390A (en) 2014-07-17
JP5844887B2 JP5844887B2 (en) 2016-01-20

Family

ID=46027944

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014510716A Expired - Fee Related JP5844887B2 (en) 2011-05-17 2012-04-27 Support for video content search through communication network

Country Status (6)

Country Link
US (1) US10176176B2 (en)
JP (1) JP5844887B2 (en)
KR (1) KR20130142192A (en)
CN (1) CN103562912A (en)
FR (1) FR2975553B1 (en)
WO (1) WO2012156193A1 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10467237B1 (en) * 2012-11-12 2019-11-05 Pinterest, Inc. Object relationships and similarities based on user context
CN105868176A (en) * 2016-03-02 2016-08-17 北京同尘世纪科技有限公司 Text based video synthesis method and system

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009295054A (en) * 2008-06-06 2009-12-17 Nippon Hoso Kyokai <Nhk> Video content search device and computer program

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5630121A (en) 1993-02-02 1997-05-13 International Business Machines Corporation Archiving and retrieving multimedia objects using structured indexes
US20040111432A1 (en) 2002-12-10 2004-06-10 International Business Machines Corporation Apparatus and methods for semantic representation and retrieval of multimedia content
US8171030B2 (en) * 2007-06-18 2012-05-01 Zeitera, Llc Method and apparatus for multi-dimensional content search and video identification
RU2477883C2 (en) 2007-08-20 2013-03-20 Нокиа Корпорейшн Segmented metadata and indices for streamed multimedia data
US20090106307A1 (en) * 2007-10-18 2009-04-23 Nova Spivack System of a knowledge management and networking environment and method for providing advanced functions therefor
US20090292685A1 (en) 2008-05-22 2009-11-26 Microsoft Corporation Video search re-ranking via multi-graph propagation
MX2011006340A (en) * 2008-12-12 2011-10-28 Atigeo Llc Providing recommendations using information determined for domains of interest.
US20100169318A1 (en) * 2008-12-30 2010-07-01 Microsoft Corporation Contextual representations from data streams
US20110087703A1 (en) * 2009-10-09 2011-04-14 Satyam Computer Services Limited Of Mayfair Center System and method for deep annotation and semantic indexing of videos

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009295054A (en) * 2008-06-06 2009-12-17 Nippon Hoso Kyokai <Nhk> Video content search device and computer program

Also Published As

Publication number Publication date
FR2975553B1 (en) 2014-05-16
JP5844887B2 (en) 2016-01-20
FR2975553A1 (en) 2012-11-23
US20140122460A1 (en) 2014-05-01
KR20130142192A (en) 2013-12-27
US10176176B2 (en) 2019-01-08
WO2012156193A1 (en) 2012-11-22
CN103562912A (en) 2014-02-05

Similar Documents

Publication Publication Date Title
US11334635B2 (en) Domain specific natural language understanding of customer intent in self-help
Chiu et al. Opinion mining of hotel customer-generated contents in Chinese weblogs
US9659084B1 (en) System, methods, and user interface for presenting information from unstructured data
Moussa et al. A survey on opinion summarization techniques for social media
RU2696305C2 (en) Browsing images through intellectually analyzed hyperlinked fragments of text
Chehal et al. Implementation and comparison of topic modeling techniques based on user reviews in e-commerce recommendations
US9798820B1 (en) Classification of keywords
US20130198195A1 (en) System and method for identifying one or more resumes based on a search query using weighted formal concept analysis
US20110173174A1 (en) Linguistically enhanced search engine and meta-search engine
US9189540B2 (en) Mobile web-based platform for providing a contextual alignment view of a corpus of documents
US20160041985A1 (en) Systems and methods for suggesting headlines
Hou et al. Newsminer: Multifaceted news analysis for event search
JP2008234090A (en) Latest popular information informing program, recording medium, device, and method
US11423439B2 (en) Expert search thread invitation engine
WO2016053130A1 (en) Method for rendering relevant context-based information
Quan et al. Feature-level sentiment analysis by using comparative domain corpora
Guo et al. An opinion feature extraction approach based on a multidimensional sentence analysis model
US10255246B1 (en) Systems and methods for providing a searchable concept network
Wu et al. Understanding customers using Facebook Pages: Data mining users feedback using text analysis
JP5844887B2 (en) Support for video content search through communication network
Christensen et al. News Hunter: a semantic news aggregator
RU2708790C2 (en) System and method for selecting relevant page items with implicitly specifying coordinates for identifying and viewing relevant information
JP6800478B2 (en) Evaluation program for component keywords that make up a Web page
KUMAR SENTIMENT ANALYSIS OF NIKE-DREAM FURTHER CAMAIGN USING PYTHON
Song et al. Entity Recognition and Relations Extraction Based on the Structure of Online Encyclopedia

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20141126

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20141202

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150302

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20150526

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150925

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20151002

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20151022

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20151119

R150 Certificate of patent or registration of utility model

Ref document number: 5844887

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees