JP2014517390A - 通信ネットワークを通じたビデオ・コンテンツ検索のための支援 - Google Patents

通信ネットワークを通じたビデオ・コンテンツ検索のための支援 Download PDF

Info

Publication number
JP2014517390A
JP2014517390A JP2014510716A JP2014510716A JP2014517390A JP 2014517390 A JP2014517390 A JP 2014517390A JP 2014510716 A JP2014510716 A JP 2014510716A JP 2014510716 A JP2014510716 A JP 2014510716A JP 2014517390 A JP2014517390 A JP 2014517390A
Authority
JP
Japan
Prior art keywords
user
content
videos
semantic data
service
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2014510716A
Other languages
English (en)
Other versions
JP5844887B2 (ja
Inventor
セクダン,シルヴァン
ファンベル,アレクサンドレ
Original Assignee
アルカテル−ルーセント
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by アルカテル−ルーセント filed Critical アルカテル−ルーセント
Publication of JP2014517390A publication Critical patent/JP2014517390A/ja
Application granted granted Critical
Publication of JP5844887B2 publication Critical patent/JP5844887B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/40Information retrieval; Database structures therefor; File system structures therefor of multimedia data, e.g. slideshows comprising image and additional audio data
    • G06F16/43Querying
    • G06F16/432Query formulation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/70Information retrieval; Database structures therefor; File system structures therefor of video data
    • G06F16/73Querying
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/40Information retrieval; Database structures therefor; File system structures therefor of multimedia data, e.g. slideshows comprising image and additional audio data
    • G06F16/43Querying
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/70Information retrieval; Database structures therefor; File system structures therefor of video data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/70Information retrieval; Database structures therefor; File system structures therefor of video data
    • G06F16/73Querying
    • G06F16/732Query formulation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/70Information retrieval; Database structures therefor; File system structures therefor of video data
    • G06F16/73Querying
    • G06F16/738Presentation of query results
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/70Information retrieval; Database structures therefor; File system structures therefor of video data
    • G06F16/74Browsing; Visualisation therefor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/70Information retrieval; Database structures therefor; File system structures therefor of video data
    • G06F16/78Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/7867Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using information manually generated, e.g. tags, keywords, comments, title and artist information, manually generated time, location and usage information, user ratings
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F17/00Digital computing or data processing equipment or methods, specially adapted for specific functions
    • G06F17/10Complex mathematical operations

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Physics & Mathematics (AREA)
  • Databases & Information Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Computational Linguistics (AREA)
  • Mathematical Physics (AREA)
  • Library & Information Science (AREA)
  • Computational Mathematics (AREA)
  • Mathematical Optimization (AREA)
  • Mathematical Analysis (AREA)
  • Pure & Applied Mathematics (AREA)
  • Software Systems (AREA)
  • Algebra (AREA)
  • Human Computer Interaction (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Information Transfer Between Computers (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

ユーザによる通信ネットワークを通じたビデオ・コンテンツ検索を支援する方法であって、
− 前記ユーザによる第1のコンテンツ・アイテム(CZ)を決定するステップと、
− この第1のコンテンツ・アイテムから意味論的なデータを自動的に抽出するステップと、
− 意味論的なデータに応じて、少なくとも1つのサービスのクエリーを自動的に生成して、このサービスまたはこれらのサービスでビデオのセットを取り出すことを可能にするステップと、
− ユーザにそのビデオのセット・コンテンツを提示するステップと
を含む方法。

Description

本発明は、インターネットを通じたビデオ・コンテンツ提供サービスへのアクセスに関する。これらのサービスは、「YouTube」、「Vimeo」、および「DailyMotion」などの一般的なプラットフォーム、またはより専門的なプラットフォーム(教育セクタ、医療セクタなど)である。
これらの2種類のサービスは、ユーザがプラットフォームに自分のコンテンツをアップロードすることを可能にするという共通の特性を共有している。その結果、これらのサービスのすべてを通じて非常に大量のビデオ・コンテンツを入手可能である。現在、「YouTube」サービスでは毎分約355時間のビデオがアップロードされている。
利用可能なコンテンツのこのような爆発的増加に対して、大多数のコンテンツは、十分な可視性を得ていない。したがって、利用可能なビデオ・コンテンツの40%だけが、300回を超えて視聴される。
このような低い割合は主に、そのように膨大な量のコンテンツからユーザにとって興味深いビデオを識別することが非常に困難になっているという事実に起因する。
ビデオ・コンテンツには記述が関連づけられていて、多くの場合はテキスト形式であり、これは自由なテキスト・フィールドまたはラベルのセットを通じて、キーワードに基づいた検索を可能にする。したがって、新しいビデオをアップロードすることを希望する各ユーザは、サービスに組み込まれている検索エンジンまたは外部の検索エンジン(「Google」、「Bing」、または「Yahoo!」など)を使用して、そのユーザのビデオを他のユーザが見つけることを可能にする記述を提供するように求められる。
しかし、記述はユーザによって提供されるので完全に主観的なものであるため、この解決法は十分ではない。特に、それらは個別のユーザの興味を示すものであり、様々な言語の場合があり、所与の言語においては、複数の可能な同意語を含むキーワードの選択が含まれる場合がある。したがって、ビデオを見つけるために、それらを決定するツールなしで、ユーザは適切なキーワードを選択しなければならない。ビデオをアップロードしたユーザによって選択されたラベルおよび用語をいかにして知ることができるであろうか。
結果として生じる問題は以下の2通りある。
− 検索によって、必ずしも最も関連性が高いビデオ・コンテンツが提供されるわけではない。
− 検索を行うユーザにビデオが十分に見えない場合がある。
本発明の目的は、この状況を改善することである。
そうするために、その第1の目的は、ユーザによる通信ネットワークを通じたビデオ・コンテンツ検索を支援するための方法であって、
− 前記ユーザにより第1のコンテンツ・アイテムを決定するステップと、
− この第1のコンテンツ・アイテムから意味論的なデータを自動的に抽出するステップと、
− 前記意味論的なデータに応じて、少なくとも1つのサービスのクエリーを自動的に生成して、前記少なくとも1つのサービスでビデオのセットを取り出すことを可能にするステップと、
− 前記ユーザに前記ビデオのセットを提示するステップと
を含む。
本発明の一実施形態によると、この方法は、第1のコンテンツ・アイテムと、このセット内のビデオ・コンテンツに関連する記述との間の意味論的な近接性の基準に応じて、前記セットからビデオのサブセットを選択するステップを含むこともできる。
少なくとも1つのサービスは、意味論的なデータに応じて決定することができる。
これらのステップは、マンマシン・インタフェース(WB)の第1のコンテンツ・アイテム(CZ)の選択によって、および前記マンマシン・インタフェースを通じてアクセス可能なソフトウェア機能の選択によってトリガーすることができる。
意味論的なデータを自動的に抽出するステップは、「主語−動詞−目的語」関係を抽出することからなり得る。生成されたクエリーは、前記関係に基づいて構成することができる。
本発明は、上に記述した方法を実施するための処理手段を備えた通信端末、ならびにこの方法を実施するための符号化手段を備えたコンピュータ・プログラムをも目的とする。
本発明は、ユーザが第1のコンテンツ・アイテムを選択することを可能にする手段、および
− 前記第1のコンテンツ・アイテムから意味論的なデータを自動的に抽出するステップと、
− これらの意味論的なデータに応じて、少なくとも1つのサービスのクエリーを自動的に生成して、前記少なくとも1つサービスでビデオのセットを取り出すことを可能にするステップと、
− ユーザにそのビデオのセット・コンテンツを提示するステップと
をトリガーすることを可能にする手段を備えた、通信端末のためのマンマシン・インタフェースをも目的とする。
このようにして、一般的にテキスト形式である、第1のコンテンツ・アイテムに基づいて、本発明は、ビデオ・コンテンツの可視性および検索の関連性を改善するために、ユーザの主観を取り除き、または少なくとも減らすことを可能にする。本発明は、ビデオ・コンテンツと検索対象と間の意味上のギャップを減らすことを可能にする。
本発明およびその利点は、添付の図面に関して、以下の記述からより明白になるだろう。
本発明を実施するマンマシン・インタフェースを示す図である。 本発明による方法のステップの可能な連鎖を概略的に示す流れ図である。 テキスト・コンテンツの例、および抽出された意味論的なデータを示す図である。
図1は、ユーザがURL(ユニファイド・リソース・ロケータ:Unified Resource Locator)からウェブ・ページにアクセスすることを可能にするウェブ・ブラウザを示している。このブラウザは、マンマシン・インタフェースまたは「ウィンドウ」WBをユーザに提示する。このウィンドウには、(ビデオ・コンテンツを含む)ページが表示されるブラウザ空間WPおよびメニュー領域MZを含む複数の部分が表示される。
このメニュー領域はそれ自体、ドロップダウン・メニューSMおよびアイコンIMを含むことができる。このメニュー領域MZを通じて、ブラウザは、ユーザにその各種機能へのアクセスを提供する。所与の機能は、また、ドロップダウン・メニュー、アイコン、または両方を通じてアクセス可能な場合がある。これはブラウザの開発者によって行われる人間工学的な選択である。
さらに、これらの機能および/または他の機能には、ユーザはコンテキスト・メニューCMを通じてもアクセス可能な場合がある。典型的には、マイクロソフト社のWindows(TM)オペレーティング・システムでは、そのようなコンテキスト・メニューは、マウスの右メニュー・ボタンで開かれ、その要素は、マウス・ポインターの位置およびブラウザの状態に依存している。
図1の例では、ブラウザ空間WPにテキスト・コンテンツが表示されている。マンマシン・インタフェースWBは、このテキスト・コンテンツのすべてまたは一部を選択することを可能にする。この選択は、マウスもしくは他の任意のポインティング・デバイス、またはキーボードなどを使用し、既知の方法によって行うことができる。描写した例では、CZ領域だけが選択されている。
この第1のコンテンツCZが選択されると、ユーザは、マンマシン・インタフェースWBのメニューから本発明に対応する機能を選択することができる。この機能は、ドロップダウン・メニューSM、アイコンIM、またはコンテキスト・メニューCMから選択することができる。この選択は、アイコンIMをクリックする、またはドロップダウン・メニューSMもしくはコンテキスト・メニューCMから要素を選択することからなり得る。
本発明は、また、ブラウザ以外のソフトウェア・アプリケーションに適用することができる。特に、本発明は、ファイル表示アプリケーションに適用することができる。アドビ社の「PDF」形式の電子ブック(または「eブック」)またはファイルを読むユーザは、上記のように、コンテンツ領域を選択し、選択されたコンテンツに基づいて該当するソフトウェア・アプリケーションでメニューから機能をトリガーすることができる。
ソフトウェア・アプリケーションは、また、マイクロソフト社の「Word」ソフトウェアなどワード・プロセッサでもよい。
同様に、本発明は、テキスト・コンテンツ以外のコンテンツに適用することができる。したがって、画像、音声、またはビデオを選択することが可能である。
最初のコンテンツを決定するためにユーザによる選択以外のメカニズムも可能な場合がある。たとえば、決定は、表示されたウェブ・ページ、再生されているビデオ、読まれている電子メールのコンテンツなどに応じて自動的でもよい。
この第1のコンテンツ・アイテムCZを決定するステップは、図2のステップE1に示されている。
第1のコンテンツ・アイテムCZおよび適切な機能を選択することで、この第1のコンテンツ・アイテムから意味論的なデータを自動的に抽出する第1のアルゴリズムのステップがトリガーされる。
このステップは、ステップE2として示されている。
このステップは、いくつかのサブステップに細分化することができる。
第1のサブステップE2aは、コンテンツのタイプを決定することからなる。すなわち、コンテンツがテキスト、ビデオ、画像、オーディオなどのどれかということである。
コンテンツ・タイプに応じて、次に、意味論的なデータを抽出するために様々なアルゴリズム使用することができる。これらのアルゴリズムは、別個のソフトウェア・モジュールによって実装することができる。
抽出ステップE2の次のサブステップは、コンテンツ・タイプに依存することができる。
テキスト・コンテンツの場合には、第2のサブステップE2bは、コンテンツ・アイテムCZから意味論的な生のデータを抽出することからなり得る。
これらの意味論的な生のデータは、文ごとまたは文のブロックごとに抽出することができる。
文のブロックの抽出は、以前に識別されたエンティティを参照する人称代名詞の存在によって調整される。各文の主語は同じであると言えるため、同じ話題で一貫した文のブロックを識別できる場合がある。
すべての言葉が抽出されなくてもよい。テキストを理解するのに役立たないなら、一部の言葉は省略することができる。
抽出は、以下に示す複数のステップで実行することができる。
− いわゆる「ストップ・ワード」の削除:等位接続詞など。
− 残りの情報を分析し、判別的な意味を持つキーワードのセットを抽出するために、統計および自然言語アルゴリズムを使用。たとえば、人の記述において、「目」という言葉は判別的ではない。誰もが「目」を持っているからである。他方では、「片目」という単語は判別的である。このために、文書のセットにおける単語の頻度についての情報を得られるコーパスを使用することができる。つまり、頻度が低いほど、単語の推測的な重要性が高い。
これらの意味論的な生のデータに基づいて、第3のサブステップE2cで、洗練された意味論的なデータを決定することができる。これらの洗練された意味論的なデータは、「概念」;人、企業、場所(都市、国、地域など)の名前;日付などでもよい。
「概念」は、意味論的な生のデータのセットからの主要な意味論的なデータと見なすことができる。それらは、様々な方法で決定することができる。たとえば、各意味論的な生のデータは、テキスト・コンテンツCZ全体に渡る発生カウンターに関連づけることができる。概念は、次に、最も発生回数が多いものに対応する意味論的なデータである。
また、同意語および様々な意味レベルからの生のデータ、特に上位語(つまり、1つまたは複数のより具体的な意味論的なデータ・アイテムを包含する、より一般的な意味論的な生のデータ)を考慮する存在論を使用することが可能である。
次に、概念は、同義語および上位語に基づいて集約された意味論的な生のデータの発生回数によって決定することができる。たとえば、生のデータ「オレンジ」、「ブドウ」、「バナナ」などの発生を含むテキスト・コンテンツから、「果物」という概念を導き出すことができる。
テキスト・コンテンツCZが属するカテゴリを決定するために、たとえば、最も発生回数が多いものに関連するものなど、最も重要な概念を導き出すことが可能である。このカテゴリは、以前に決定された概念の一連の上位語を考慮して検索することができる。
人、企業、場所などの名前は辞書から決定することができる。この辞書は、本発明のソフトウェア手段の内部的なものでもよく、またはウェブ・サービスまたは他の技術的なデバイス(データベースなど)の形でインターネット上にリモートにあってもよい。
図3は、テキスト・コンテンツCZの例と、抽出された意味論的なデータとの間の対応を示している。この例では、テキスト・コンテンツCZは、ブラウザ空間WPに表示されたウェブ・ページでユーザによって選択された領域である。図では灰色の背景で示されている。
本発明の機能をトリガーした後、「ポップ・アップ」ウィンドウPWが表示され、最も関連するビデオ・コンテンツVCおよび他の関連するビデオ・コンテンツRVCが表示される。このウィンドウPWには、また、「カテゴリ」、概念、人および場所(「州または国」)の名前、ならびに意味論的な生のデータ(「タグ」)が表示される。ユーザにとってたいした意味を持たず、内部的により有益な場合、この情報は表示されなくてもよい。しかし、説明を明確にするためにここに表示される。
「ビジネス」(取引、貿易)というカテゴリは、この例では、抽出された概念に基づいて決定される。したがって、「広告」および「セール」という概念には「ビジネス」という上位語がある。この推論は、「安値」、「市場」、「手形仲買業」、「シリング」などの生のデータの存在によってさらに強化される。
この意味論的な分野に複数の概念が発生することから、本発明の方法は、テキスト・コンテンツCZがビジネスに関係していると、ここで自動的に決定することができる。
サブステップE2dは、意味論的なデータを重み付けすることからなる。各意味論的なデータならびにその同意語および上位語の発生回数に応じて、意味論的なデータの重要性を識別し、テキスト・コンテンツCZを表すために重みを割り当てることができる。
より高い重みを割り当てることもできる。
実際には、このサブステップは、サブステップE2cと同時に実行することができる。
また、後のステップで使用するために、これらの重みに基づくランキングにより、その重みが特定のしきい値または制限数を超えるものだけを保存するために意味論的なデータのフィルタリングを含むことができる。
本発明の一実施形態では、意味論的なデータの文法的な機能を決定し、それらの間に論理的なリンクを構成するために、テキスト・コンテンツCZの文法解析を実行することが可能である。
このリンクは「主語−動詞−目的語」関係によって形式化することができる。
本発明の方法は、文または言葉の群内に「主語」、「動詞」、および「目的語」機能を識別し、意味解析によって、3つの抽出された要素の間にそのようなリンクを確立することを試みる。当然、様々な手法が可能である。
可能な1つの手法は、以下からなり得る。
− 文または言葉の群から主語を抽出するステップ。この主語、行動する人は、個人、既知の組織、実際の場所などとして識別することができる。そのような識別に辞書を使用することができる。
− 抽出された主語の近くにある動詞の検出。ここでも、動詞の形式を識別するために辞書を使用することができる。また、所与の動詞の活用および様々な形式を考慮しようとすることもできる。この形式に応じて、これが行動(動作動詞)または状態(受動態、過去分詞)に関係があるかを知るために補足の意味論的な情報を抽出することができる。
− 行動の「目的」を識別するための、動詞の近くにあるキーワードおよび概念の抽出。
このプロセスの効率を改善するために、他動詞だけを考慮するように計画することができる。これらにより、より直接的な「主語−動詞−目的語」関係を構成することができる。そうするために、動詞の形式を抽出するために使用される辞書は他動詞だけを含んでいてもよい。
また、辞書に属するコーパスにも属する目的語の決定に対する「主語−動詞−目的語」関係の作成を従属させるように計画することができる。「主語」の例に続き、この「目的語」は、個人、既知の組織、実際の場所などでもよい。
次に、ステップE3は、意味論的なデータに基づいて少なくとも1つのサービスを決定することからなり得る。
実際、一部のビデオ・コンテンツ提供サービスは1つのテーマに専門化されており(スポーツ、ニュース、芸術的な短編映画、教育など)、テキスト・コンテンツCZから抽出された意味論的なデータに依存して、最も関連するサービスを対象とすることが妥当な場合がある。
追加として系統的に、または抽出された話題に専門化されたサービスがない場合、またはそれらが不十分な場合はときどき、DailyMotionまたはYouTubeなどの一般的な(generalist)サービスも検索することができる。
あるいは、サービスは、構成によって静的に識別することができる。
ステップE4は、意味論的なデータに基づいて、識別されたサービス(複数可)のクエリーを自動的に生成するステップからなる。
典型的には、これは、パラメータとして抽出された意味論的なデータのすべてまたは一部を含むHTTP(ハイパーテキスト転送プロトコル)のクエリーを構成するステップを含むことができる。
これらのデータは、単一のクエリーまたは複数のクエリーを構成するために使用することができる。したがって、特定のしきい値を超える重みを持つ意味論的なデータと同数のクエリーを構成することが可能である。
また、「主語−動詞−目的語」関係を抽出することから構成された実装形態では、各関係に対して異なるクエリーを構成することが可能な場合がある。
テキスト・コンテンツCZのすべては、文ごとまたは単語ブロックごとに通覧することができる。各文または単語ブロックについて、「主語−動詞−目的」関係がある場合、それらはクエリーを構成するために使用することができる。そうでなければ、クエリーは意味論的な生のデータから構成することができる。
これらのクエリーにより、識別されたサービス(複数可)で利用可能なビデオのセットを取り出すことが可能になる。
次に、これらのビデオはマンマシン・インタフェースWBで、より具体的にはブラウザ空間WPでユーザに提示される。
本発明の一実施形態では、テキスト・コンテンツCZと、取り出されたビデオとの間の意味論的な近接性の基準を実施することが可能である。
意味論的な近接性は、以前のステップでテキスト・コンテンツCZから抽出された意味論的なデータおよび取り出されたビデオに関連する意味内容に基づいて計算することができる。これらのデータは、「タグ」、「タイトル」フィールド、「説明」フィールドなど、ユーザによって保存された生のデータでもよい。
また、取り出されたビデオの分析を実施することも可能である。
したがって、質感(海、砂、氷など)および/または色をかなり容易に決定することが可能である。
また、形状認識アルゴリズムを実装することも可能である。これらは、固定情報(すなわち、視角によって変わらない形状の部分)から既知の形式を決定することを試みることができる。
相乗効果を得るために、様々な手法をともに使用することができる。
− たとえば、形状解析によってアザラシを決定することで、検出された質感が実際に氷であることを確認することを可能にすることができる。次に、エラーを減らし、結果の信頼性を高めることができる。
− 別の例では、色の決定が形状の決定と相関することにより、意味の追加が可能になり得る。したがって、単なる馬の決定より判別的な概念である、「黒い馬」の存在を決定することができる。
ビデオ(または連続する画像)から画像の網羅的解析を実行することが可能である。したがって、周囲光のレベルを分析し、そこから意味論的な情報を取り出すことができる。たとえば、場面が屋外であることが検出されている場合、日中か夜かを決定することができる。
この情報を比較することによって、特に存在論を使用することによって、距離を決定することが可能である。
また、そのような距離を定めるために様々な方法が可能である。
具体的には、
− グラフで扱われる距離に基づいて、所与の存在論の概念間の発見的な測定基準。この距離は、ノードがキーワードまたは概念であるグラフ上のノードの数でもよい。特定のペアは、リンクによって直接的に接続されている。リンクは、方向があってもよく、または対称でもよい。2つ単語の間のリンクが対称の場合、2つの単語の関係はより強力である。この距離により、たとえば、2つの概念の類似性を定量化することを可能にすることができる。また、これは曖昧さをなくす目的に役立つことができる。
− TF−IDF(単語の出現頻度−逆文書頻度)方法は、情報検索、特にテキスト比較においてよく使用される重み付け方法である。この統計的測定により、集合またはコーパスに対して、文書に含まれている語の重要性を評価することが可能になる。重みは、文書内での単語の出現回数に比例して増加する。また、コーパス内での単語の頻度に基づき変化する。ユーザの検索基準に関して文書の関連性を評価するために、検索エンジンでは、多くの場合、オリジナルの式の代替案が使用される。
たとえば、IDFコーパスにおいて「恐竜」という単語の発生率が低い場合、これは、より一般的な単語より判別的なのでより重要であることを意味する可能性があり、この単語が、抽出された言葉の各「TF」リスト(文脈から抽出されたコーパスにリンクされたリストおよびビデオの記述から抽出されたコーパスにリンクされたリスト)に出現する場合、その発生回数に基づいて、この単語により高いまたはより低い重みを与えることができる。両方のリストに単語が見つかるという事実により、IDF値に基づいて、より強いまたはより弱いリンクを規定することが可能になる。
また、2つの手法を組み合わせることもできる。たとえば、文脈から抽出された言葉の第1のリストに、IDFコーパスにおいて比較的高い重みを持っている、「恐竜」という単語が見つかる。ビデオの記述から抽出された第2のリストに、「ティラノサウルス」という単語が見つかる。グラフは、2つのホップ(グラフのノードの数)に対称的なリンクがあることを示している。したがって、このビデオの文脈は、IDF値/ホップの数との類似点を示していると考えることができる。
したがって、このアルゴリズムを各単語に適用することによって、全体的な類似性を計算することができる。
取り出されたビデオのそれぞれの距離に基づいて、最も妥当な方法でユーザにそれらを提示するように、それらを順位付けすることが可能である。したがって、取り出された他の関連するビデオの前に、テキスト・コンテンツCZに最も近い近接性を持つビデオが提示される。
また、近接性の基準に基づいて、取り出されたビデオのサブセットを選択することも可能である。
これは、テキスト・コンテンツCZからのそれらの意味的距離に基づいたランキングに応じて、所定の数のビデオだけを選択することを含むことができる。
また、それは所定のしきい値より小さい意味的距離に対応するビデオのみを選択することを含むことができる。したがって、取り出されたビデオのいずれもが十分に近くない場合、この実施形態は、ユーザにビデオ・コンテンツを示さない場合がある。
当業者は、他の代替案および実施形態も可能であり、また利用可能である。したがって、本発明は上に記述した実装形態に限定するものと理解することはできない。

Claims (9)

  1. ユーザによる通信ネットワークを通じたビデオ・コンテンツ検索を支援する方法であって、
    − 前記ユーザによって第1のコンテンツ・アイテム(CZ)を決定するステップと、
    − 前記第1のコンテンツ・アイテムから意味論的なデータを自動的に抽出するステップと、
    − 前記意味論的なデータに応じて、少なくとも1つのサービスのクエリーを自動的に生成して、前記少なくとも1つサービスでビデオのセットを取り出すことを可能にするステップと、
    − 前記ユーザに前記ビデオのセットを提示するステップと
    を含む方法。
  2. 前記第1のコンテンツと、前記セット内のビデオに関連する記述との間の意味論的な近接性の基準に基づいて、前記セットの中からビデオのサブセットを選択するステップをまた含む請求項1に記載の方法。
  3. 前記少なくとも1つのサービスは、前記意味論的なデータに基づいて決定される請求項2に記載の方法。
  4. 前記ステップは、マンマシン・インタフェース(WB)の第1のコンテンツ・アイテム(CZ)の選択によって、および前記マンマシン・インタフェースを通じてアクセス可能なソフトウェア機能の選択によってトリガーすることができる請求項1乃至3のいずれか1項に記載の方法。
  5. 意味論的なデータを自動的に抽出する前記ステップは、「主語−動詞−目的語」関係を抽出するステップからなる請求項1乃至4のいずれか1項に記載の方法。
  6. 生成されたクエリーは、前記関係に基づいて構成される請求項5に記載の方法。
  7. 請求項1乃至6のいずれか1項に記載の方法を実施するための処理手段を備えた通信端末。
  8. 請求項1乃至7のいずれか1項に記載の方法を実施するための処理手段を備えたコンピュータ・プログラム。
  9. ユーザが第1のコンテンツ・アイテム(CZ)を選択することを可能にする手段、および
    − 前記第1のコンテンツ・アイテムから意味論的なデータを自動的に抽出するステップと、
    − 前記意味論的なデータに応じて、少なくとも1つのサービスのクエリーを自動的に生成して、前記少なくとも1つのサービスでビデオのセットを取り出すことを可能にするステップと、
    − 前記ユーザに前記ビデオのセットを提示するステップと
    をトリガーすることを可能にする手段を備えた、通信端末のためのマンマシン・インタフェース。
JP2014510716A 2011-05-17 2012-04-27 通信ネットワークを通じたビデオ・コンテンツ検索のための支援 Expired - Fee Related JP5844887B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
FR1154263A FR2975553B1 (fr) 2011-05-17 2011-05-17 Aide a la recherche de contenus videos sur un reseau de communication
FR1154263 2011-05-17
PCT/EP2012/057720 WO2012156193A1 (en) 2011-05-17 2012-04-27 Assistance for video content searches over a communication network

Publications (2)

Publication Number Publication Date
JP2014517390A true JP2014517390A (ja) 2014-07-17
JP5844887B2 JP5844887B2 (ja) 2016-01-20

Family

ID=46027944

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014510716A Expired - Fee Related JP5844887B2 (ja) 2011-05-17 2012-04-27 通信ネットワークを通じたビデオ・コンテンツ検索のための支援

Country Status (6)

Country Link
US (1) US10176176B2 (ja)
JP (1) JP5844887B2 (ja)
KR (1) KR20130142192A (ja)
CN (1) CN103562912A (ja)
FR (1) FR2975553B1 (ja)
WO (1) WO2012156193A1 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10467237B1 (en) * 2012-11-12 2019-11-05 Pinterest, Inc. Object relationships and similarities based on user context
CN105868176A (zh) * 2016-03-02 2016-08-17 北京同尘世纪科技有限公司 基于文字的视频合成方法及其系统

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009295054A (ja) * 2008-06-06 2009-12-17 Nippon Hoso Kyokai <Nhk> 映像コンテンツ検索装置及びコンピュータプログラム

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5630121A (en) 1993-02-02 1997-05-13 International Business Machines Corporation Archiving and retrieving multimedia objects using structured indexes
US20040111432A1 (en) 2002-12-10 2004-06-10 International Business Machines Corporation Apparatus and methods for semantic representation and retrieval of multimedia content
US8171030B2 (en) * 2007-06-18 2012-05-01 Zeitera, Llc Method and apparatus for multi-dimensional content search and video identification
US9852219B2 (en) 2007-08-20 2017-12-26 Nokia Technologies Oy Segmented metadata and indexes for streamed multimedia data
US20090106307A1 (en) * 2007-10-18 2009-04-23 Nova Spivack System of a knowledge management and networking environment and method for providing advanced functions therefor
US20090292685A1 (en) 2008-05-22 2009-11-26 Microsoft Corporation Video search re-ranking via multi-graph propagation
CN102326144B (zh) * 2008-12-12 2015-06-17 阿迪吉欧有限责任公司 使用感兴趣领域确定的信息提供建议
US20100169318A1 (en) * 2008-12-30 2010-07-01 Microsoft Corporation Contextual representations from data streams
US20110087703A1 (en) * 2009-10-09 2011-04-14 Satyam Computer Services Limited Of Mayfair Center System and method for deep annotation and semantic indexing of videos

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009295054A (ja) * 2008-06-06 2009-12-17 Nippon Hoso Kyokai <Nhk> 映像コンテンツ検索装置及びコンピュータプログラム

Also Published As

Publication number Publication date
KR20130142192A (ko) 2013-12-27
FR2975553B1 (fr) 2014-05-16
FR2975553A1 (fr) 2012-11-23
US10176176B2 (en) 2019-01-08
US20140122460A1 (en) 2014-05-01
CN103562912A (zh) 2014-02-05
WO2012156193A1 (en) 2012-11-22
JP5844887B2 (ja) 2016-01-20

Similar Documents

Publication Publication Date Title
US11334635B2 (en) Domain specific natural language understanding of customer intent in self-help
Chiu et al. Opinion mining of hotel customer-generated contents in Chinese weblogs
US9659084B1 (en) System, methods, and user interface for presenting information from unstructured data
Moussa et al. A survey on opinion summarization techniques for social media
RU2696305C2 (ru) Браузинг изображений через интеллектуально проанализированные связанные гиперссылкой фрагменты текста
US9881059B2 (en) Systems and methods for suggesting headlines
Chehal et al. Implementation and comparison of topic modeling techniques based on user reviews in e-commerce recommendations
US9798820B1 (en) Classification of keywords
US20130198195A1 (en) System and method for identifying one or more resumes based on a search query using weighted formal concept analysis
US20110173174A1 (en) Linguistically enhanced search engine and meta-search engine
US9189540B2 (en) Mobile web-based platform for providing a contextual alignment view of a corpus of documents
JP2008234090A (ja) 最新評判情報通知プログラム、記録媒体、装置及び方法
US11423439B2 (en) Expert search thread invitation engine
WO2016053130A1 (en) Method for rendering relevant context-based information
Quan et al. Feature-level sentiment analysis by using comparative domain corpora
Guo et al. An opinion feature extraction approach based on a multidimensional sentence analysis model
US10255246B1 (en) Systems and methods for providing a searchable concept network
Wu et al. Understanding customers using Facebook Pages: Data mining users feedback using text analysis
JP5844887B2 (ja) 通信ネットワークを通じたビデオ・コンテンツ検索のための支援
Christensen et al. News Hunter: a semantic news aggregator
RU2708790C2 (ru) Система и способ для выбора значимых элементов страницы с неявным указанием координат для идентификации и просмотра релевантной информации
JP6800478B2 (ja) Webページを構成する成分キーワードの評価プログラム
KUMAR SENTIMENT ANALYSIS OF NIKE-DREAM FURTHER CAMAIGN USING PYTHON
Hlava How is a Taxonomy Connected to Search?
Song et al. Entity Recognition and Relations Extraction Based on the Structure of Online Encyclopedia

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20141126

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20141202

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150302

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20150526

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150925

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20151002

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20151022

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20151119

R150 Certificate of patent or registration of utility model

Ref document number: 5844887

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees