JP2017500632A - 補助情報へのアクセスを提供するための方法およびシステム - Google Patents

補助情報へのアクセスを提供するための方法およびシステム Download PDF

Info

Publication number
JP2017500632A
JP2017500632A JP2016527166A JP2016527166A JP2017500632A JP 2017500632 A JP2017500632 A JP 2017500632A JP 2016527166 A JP2016527166 A JP 2016527166A JP 2016527166 A JP2016527166 A JP 2016527166A JP 2017500632 A JP2017500632 A JP 2017500632A
Authority
JP
Japan
Prior art keywords
auxiliary information
tags
tag
video
participant
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2016527166A
Other languages
English (en)
Inventor
ナンブーディリ,ビナイ
ティトガット,ドニー
アーツ,マールテン
リーベンス,サミー
Original Assignee
アルカテル−ルーセント
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by アルカテル−ルーセント filed Critical アルカテル−ルーセント
Publication of JP2017500632A publication Critical patent/JP2017500632A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L65/00Network arrangements, protocols or services for supporting real-time applications in data packet communication
    • H04L65/40Support for services or applications
    • H04L65/403Arrangements for multi-party communication, e.g. for conferences
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/48Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
    • G10L25/51Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
    • G10L25/54Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination for retrieval
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/31Indexing; Data structures therefor; Storage structures
    • G06F16/316Indexing structures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/34Browsing; Visualisation therefor
    • G06F16/345Summarisation for human users
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/90Details of database functions independent of the retrieved data types
    • G06F16/903Querying
    • G06F16/9032Query formulation
    • G06F16/90324Query formulation using system suggestions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/62Text, e.g. of license plates, overlay texts or captions on TV images
    • G06V20/635Overlay text, e.g. embedded captions in a TV program
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/26Speech to text systems
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel
    • G11B27/19Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier
    • G11B27/28Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier by using information signals recorded by the same method as the main recording
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L65/00Network arrangements, protocols or services for supporting real-time applications in data packet communication
    • H04L65/1066Session management
    • H04L65/1083In-session procedures
    • H04L65/1089In-session procedures by adding media; by removing media
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L65/00Network arrangements, protocols or services for supporting real-time applications in data packet communication
    • H04L65/40Support for services or applications
    • H04L65/402Support for services or applications wherein the services involve a main real-time session and one or more additional parallel non-real time sessions, e.g. downloading a file in a parallel FTP session, initiating an email or combinational services
    • H04L65/4025Support for services or applications wherein the services involve a main real-time session and one or more additional parallel non-real time sessions, e.g. downloading a file in a parallel FTP session, initiating an email or combinational services where none of the additional parallel sessions is real time or time sensitive, e.g. downloading a file in a parallel FTP session, initiating an email or combinational services
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M3/00Automatic or semi-automatic exchanges
    • H04M3/42Systems providing special services or facilities to subscribers
    • H04M3/56Arrangements for connecting several subscribers to a common circuit, i.e. affording conference facilities
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/14Systems for two-way working
    • H04N7/15Conference systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/85Assembly of content; Generation of multimedia applications
    • H04N21/858Linking data to content, e.g. by linking an URL to a video object, by creating a hotspot

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Signal Processing (AREA)
  • General Physics & Mathematics (AREA)
  • Databases & Information Systems (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Data Mining & Analysis (AREA)
  • General Engineering & Computer Science (AREA)
  • Computational Linguistics (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Acoustics & Sound (AREA)
  • Business, Economics & Management (AREA)
  • General Business, Economics & Management (AREA)
  • Software Systems (AREA)
  • Mathematical Physics (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Telephonic Communication Services (AREA)

Abstract

本発明は、ビデオおよび/またはオーディオ会議中の補助情報へのタグベースのアクセスのためのシステムおよび方法に関する。システムは、タグと補助情報の関連部分との間のマッピングを含む。方法は、ビデオおよび/またはオーディオ会議システムからのビデオデータおよび/またはオーディオデータを、ビデオ会議のパーティシパントに送信することを含んでもよい。送信中、タグが、ビデオデータおよび/またはオーディオデータから抽出されてもよい。パーティシパントからの補助情報の要求が受信されるとすぐに、方法は、送信されたビデオデータおよび/またはオーディオデータから抽出されたタグの少なくとも1つを選択することと、選択された少なくとも1つのタグに関連する少なくとも1つの補助情報部分を検索することと、少なくとも1つの検索された補助情報部分を、補助情報を要求したパーティシパントに送信することと、を含んでもよい。

Description

本発明は、ビデオおよび/またはオーディオ会議における補助情報へのアクセスのための方法およびシステムに関する。
ビデオおよび/またはオーディオ会議は、異なる場所で参加しているデバイスまたはパーティシパント(例えば、デスクトップコンピュータなどのコミュニケーションデバイスおよび/またはラップトップ、スマートフォンなどのモバイルデバイスなど)が、音と視覚で、互いにコミュニケーションすることができる会議である。コミュニケーションは、例えば会議のオーガナイザ(すなわち、ビデオおよび/またはオーディオ会議システム)から、1つのパーティシパントへ(一方向性)、またはオーガナイザとパーティシパント間(双方向性)のポイントツーポイントとすることができる。コミュニケーションは、多方向コミュニケーションを可能にする複数の場所におけるいくつかの(多地点)位置も含んでもよい。各パーティシパントは、1人または複数のユーザにサービス提供してもよい。
このような会議中に、ユーザは、コミュニケーションの内容をよりよく理解するために、補助情報を必要としてもよい。例えば、専門的な会議では、ビデオまたはオーディオは、受信者(すなわち、参加しているデバイスのユーザ)にとって共通の知識ではない専門用語が含まれる可能性がある。このような場合、ビデオおよび/またはオーディオ会議システムから補助情報を受け取ることは、ユーザにとって有用となるであろう。例えば、参照として使用され得る図、会議で使用される専門用語またはキーワードの専門的定義などを受け取ることが、ユーザにとって有用となる場合がある。
本発明の目的は、オーディオおよび/またはビデオ会議の内容に対するユーザの理解を高めるための方法およびシステムを提供することである。
本発明の第1の態様によれば、この目的は、ビデオおよび/またはオーディオ会議中の補助情報へのタグベースのアクセスのための方法において実現されてもよく、ビデオおよび/またはオーディオ会議は、タグと補助情報の関連部分との間のマッピングを含むビデオおよび/またはオーディオ会議システムを含み、方法は:
− ビデオおよび/またはオーディオ会議システムからのビデオデータおよび/またはオーディオデータを、ビデオ会議のパーティシパントに送信することと、
− 送信されるビデオデータおよび/またはオーディオデータからタグを抽出することと、
− パーティシパントから補助情報の要求を受信した時点で:
− 送信されたビデオデータおよび/またはオーディオデータから抽出されたタグから少なくとも1つを選択し、
− 選択された少なくとも1つのタグに関連する少なくとも1つの補助情報部分を検索し、
− 少なくとも1つの検索された補助情報部分を、補助情報を要求したパーティシパントに送信することと
を含む。
情報が簡単に使用できるように、補助情報は、パーティシパントのレンダリングデバイス上に表示されてもよい。会議中に、タグ(すなわち、ビジュアルタグおよび/またはオーディオタグ)の使用を通してシームレスに、この補助情報へのアクセスをパーティシパント(および、それによってユーザ)に提供することによって、会議体験を著しく高めることができる。ユーザが補助情報へのアクセスを必要とした場合、システムは、オーディオおよび/またはビデオから関連タグを抽出し、マッピングに基づいて、補助情報へのアクセスを提供する。
補助情報を提供する別の方法は、各ユーザが、ユーザのコミュニケーションデバイス上でブラウザに明示的にアクセスし、インターネット上で補助情報を探すことであろう。これは、ユーザによる明示的な「プル」の面である。しかしながら、これは、かなりの努力と時間を必要とし、会議中のユーザの寄与を低減する可能性がある。補助情報を提供するための別の選択肢は、補助情報をパーティシパント、例えばそれらのユーザの周辺デバイスの全てにプッシュすることでもよい。しかしながら、情報は、各ユーザにとって有用でない可能性があり、または会議から(他の)ユーザの注意を逸らせる可能性がある。本発明の態様によれば、パーティシパントのそれぞれは、個々のパーティシパントによって具体的に要求される補助情報を提示されることもできる。
本発明の実施形態では、方法は、補助情報を要求したパーティシパントにのみ、少なくとも1つの検索された補助情報部分を送信することを含む。利点は、補助情報を要求していない、または異なる補助情報を要求している他のパーティシパントは、それらのパーティシパントに関係のない補助情報を受信することで煩わされないということである。しかしながら、他の実施形態では、方法は、この補助情報を、要求しているパーティシパントのみならず、他のパーティシパントの1つまたは複数にも送信することを含む。
さらなる実施形態では、方法は:
− パーティシパントの周辺デバイスを、ビデオおよび/またはオーディオ会議システムに登録することと、
− 少なくとも1つの検索された補助情報部分を、登録された周辺デバイスに送信することと
を含む。
パーティシパントの登録によって、ビデオおよび/またはオーディオ会議システムが、どのパーティシパントがどの補助情報を要求したかを識別することがより容易になり、各パーティシパントに、そのパーティシパントのみに適する情報を送るよう決定することができるようになる。
パーティシパントが(要求がパーティシパントから会議システムに送信された時点で)、早い段階で関連情報を提供されるように、オーディオまたはビデオデータにおける特定の項目の受け取りから、この項目についての補助情報の送信までの時間の長さは、比較的短く、例えば10秒以下であることが好ましい。
上記のように、会議システムは、タグと補助情報の関連部分との間のマッピングを含む。このマッピングは、前処理段階で生成される。方法の前処理段階は、タグおよびそれらの関連補助情報部分を備えた少なくとも1つの構造化テキストドキュメントを受信することを含んでもよい。このようなドキュメントは、ビデオ会議を主催する人によって注釈を付けられていてもよく、また会議システムに読み込まれて、その記憶媒体に記憶されてもよい。代替的にまたは追加的に、方法は:
− ビデオおよび/またはオーディオ会議システムによって、補助情報を受信することと、
− 補助情報から1つまたは複数のタグを得るために、受信された補助情報を処理することと、
− 得られた1つまたは複数の補助情報タグを、補助情報の1つまたは複数の関連部分にマッピングすることと
を含んでもよい。
様々なパーティシパントから、かつ/または他のいずれかのソースから受信された有用と考えられる補助情報に基づき、方法は、タグの自動生成、および生成されたタグの関連情報部分とのマッピングを含んでもよい。このような他のソースの例は、以前のプレゼンテーション、社内の技術情報、ハンドブック、専門辞典、およびオンラインで使用可能な知識源である。そのため、本発明の実施形態では、補助情報の収集、タグの検索、およびタグと補助情報の関連部分との間のマッピングの生成は、自動的に行われてもよく、原則としてユーザの介入を必要としない。
本発明の一実施形態では、補助情報の処理は、補助情報にテキスト構文解析および/またはテキスト要約を適用することを含む。これらの処理動作は、タグおよびそれらの補助情報の関連テキスト部分(すなわち、タグに関連付けされるテキストの部分)をもたらしてよい。
一実施形態では、補助情報の構文解析は:
− 補助情報からテキストセグメントを得ることと、
− 各テキストセグメントに対してタグである可能性をスコアリングすることと、
− スコア付けされたテキストセグメントから1つまたは複数のタグを選択することと、
− 選択されたタグの意味を表す情報部分を決定することと
を含む。
テキストセグメントのタグである可能性をスコアリングすることは、様々なテキスト構文解析技術、例えばテキストセグメント(用語)の出現頻度および/または逆文書頻度に基づく技術に基づいてもよい。
本発明の一実施形態では、補助情報の処理は、タグを予め格納された要約と比較することによってタグを照合し、同義語および原形でタグを増補することを含む。要約は、任意のソース、例えばWordNetデータベースであってもよい。これらの同義語および原形は、関連情報部分にマッピングされているさらなるタグの構成要素となってもよい。他の実施形態では、タグは、原形のみである。従って、同義語または原形が会議データ(すなわち、ビデオデータおよび/またはオーディオデータ)に存在する場合、関連項目がより簡単に認識され、パーティシパントは、関連性の高い補助情報を提示されるようになる。
本発明の一実施形態では、補助情報の処理は、タグ、および補助情報部分とのマッピングを、タグインデックスに格納すること、好ましくは、タグをビデオおよび/またはオーディオ会議システム上の少なくとも1つのタグインデックスファイル内に格納することを含む。このようにして、現在および今後の会議の際、知識が簡単に入手可能となる。タグインデックスファイルは、ルックアップにおいて簡単アクセス用のレクシグラフィックテーブルを備えてよい。
配備段階、すなわち前処理段階後の段階では、送信されるオーディオデータからのタグの抽出は、オーディオデータに音声認識処理を適用して、オーディオデータからテキストセグメントを得ることと、認識されたテキストセグメントから1つまたは複数のタグを検索することを含んでよい。同様に、送信されるビデオデータからのタグの抽出は、ビデオデータにテキスト認識処理を適用して、ビデオデータからテキストセグメントを得ること、認識されたテキストセグメントから1つまたは複数のタグを検索することを含んでよい。
方法は、オーディオデータからテキストセグメントを認識することと、認識されたテキストセグメントからタグを検索することを含んでよい。この場合、テキストセグメントは、単語、単語の原形、および単語の組み合わせのうちのいずれかであってよい。
本発明の実施形態では、タグの抽出、より具体的には、音声認識およびタグの検索は、ビデオおよび/またはオーディオデータのパーティシパントへのデータ送信中に行われる。すなわち、タグの抽出は、オンザフライで行われてもよい。他の実施形態では、タグの抽出は、ビデオ/オーディオデータが申込者に送信される直前(または直後)に行われる。方法は、ユーザが、遅れることなく関連補助情報を提示されることができるように、実際のビデオ/データが生成され、かつ/またはパーティシパントに送信されると同時に、またはその数秒後に、タグをパーティシパントに提供するのが好ましい。
本発明の実施形態では、ビデオおよび/またはオーディオデータからの認識されたテキストセグメントからのタグの検索は:
− 処理されたオーディオおよび/またはビデオデータからの認識されたテキストセグメントを、マッピングのタグと比較することと、
− 認識されたテキストセグメントの1つまたは複数に対応する1つまたは複数のタグを決定することと、
− 各タグに対して、格納されたマッピングから関連補助情報の一部分または複数部分を決定することと
を含む。
これらの実施形態では、前処理段階で補助情報から引き出されたタグのみが、会議データの認識されたテキストセグメントから検索される。他の実施形態では、タグは、前処理段階で予め引き出されたタグに関係なく、会議データのテキストセグメントから検索される。次に、会議データから引き出された検索されたタグは、補助情報から引き出されたタグと比較される。次に、補助情報タグに対応する会議データタグのみが選択され、パーティシパントにプッシュされる補助情報を集めるために使用される。
本発明の実施形態では、方法は:
− ビデオおよび/またはオーディオ会議システムからのビデオデータおよび/またはオーディオデータを、パーティシパントの第1のレンダリングデバイスに送信することと、
− ビデオおよび/またはオーディオ会議システムからの補助情報を、パーティシパントの第2のレンダリングデバイスに送信することと
を含む。
第1のレンダリングデバイスは、会議に参加するために、ユーザによって使用されるコンピュータデバイスであってもよい。第2のレンダリングデバイスは、周辺デバイス、例えば電話、スマートフォンまたはタブレットデバイスなどのモバイルテレコミュニケーションデバイスの一部であってもよい。これらの実施形態では、補助情報およびビデオ/オーディオデータは、ビデオ会議の実際のビデオおよび/またはオーディオ用に1つ、補助情報用に1つと、別々のディスプレイ上に提示される。例えば、2人以上のユーザが第1のレンダリングデバイスを使用する場合、別のユーザは、別の補助情報が、別の時点で時間内に提示されることを必要としてもよい。会議と補助情報のデータストリームを別々にして、ストリームを別個のディスプレイデバイスへ転送することによって、情報を要求している特定のユーザのニーズを満たすように、補助情報がカスタマイズされてもよい。しかしながら、他の実施形態では、両方のデータストリームは、1つのディスプレイデバイス上に表示される。
ユーザがユーザの周辺デバイスを通して補助情報を要求した時点で、会議システムは、送信されたビデオデータおよび/またはオーディオデータから抽出されたタグから少なくとも1つを選択することを開始する。この選択することは、補助情報の要求の受け取り前の所定時間内に抽出された1つまたは複数のタグを決定することを含んでもよい。例えば、要求メッセージが会議システムによって受信されるとすぐに、システムは、最後のn回フレーム(nは1以上の自然数)で識別されたタグを選択し、このタグセットに対して、関連補助情報部分を見つけ、周辺デバイスにこれらの部分をプッシュする。
さらなる実施形態では、送信されたビデオおよび/またはオーディオデータから抽出されたタグからの選択は、パーティシパント嗜好(すなわち、パーティシパントデバイスの嗜好および/または複数のユーザの1つまたは複数の周辺デバイスの嗜好)に基づく。例えば、ユーザは、パーティシパント嗜好において、会議の主題についての知識レベルが比較的低いことを示してもよい。この場合、比較的量の多い補助情報が、ユーザの周辺デバイスにプッシュされる。ユーザが既に、会議の主題について高い知識レベルを有していればいるほど、ユーザの気を散らさないように、周辺デバイスにプッシュされる補助情報は少なくなる。
本発明の別の態様によれば、ビデオおよび/またはオーディオ会議における補助情報へのタグベースのアクセスのためのシステムが提供され、システムは:
− 補助情報、タグ、タグと補助情報の関連部分との間のマッピングを記憶するように構成された記憶ユニットと、
− ビデオデータおよび/またはオーディオデータを、会議の1つまたは複数のパーティシパントに送信するための第1の送信器と、
− 会議の1つまたは複数のパーティシパントから、補助情報の要求を受信するための受信器と、
− ビデオデータおよび/またはオーディオデータから、タグを抽出するための抽出器と、
− 受信器によって補助情報の要求を受け取った時点で、補助情報を検索するための検索ユニットであって:
− 送信されたビデオデータおよび/またはオーディオデータから抽出されたタグの少なくとも1つを選択し、
− 選択された少なくとも1つのタグに関連する少なくとも1つの補助情報部分を検索するように構成される検索ユニットと、
− 検索された補助情報部分を、補助情報を要求したパーティシパントに送信するための第2の送信器と
を備える。
本発明の実施形態では、抽出器は、オーディオデータに音声認識処理を適用して、オーディオデータからテキストセグメントを得て、認識されたテキストセグメントから1つまたは複数のタグを検索するように、かつ/またはビデオデータにテキスト認識処理を適用して、ビデオデータからテキストセグメントを得て、認識されたテキストセグメントから1つまたは複数のタグを検索するように、構成される。
本発明の実施形態では、検索ユニットは、処理されたオーディオおよび/またはビデオデータからの認識されたテキストセグメントを、格納されたマッピングからのタグと比較し、1つまたは複数の認識されたテキストセグメントに対応する1つまたは複数のタグを決定し、かつ各タグに対して、記憶媒体に記憶されたマッピングから、関連補助情報の1つの部分または複数の部分を決定するように、構成される。
本発明の実施形態では、第1の送信器は、ビデオおよび/またはオーディオデータを、パーティシパントの第1のレンダリングデバイスに送信するように構成され、第2の送信器は、検索された補助情報部分を、パーティシパントの第2のレンダリングデバイスに送信するように構成される。
本発明の実施形態では、第1および第2のレンダリングデバイスは、組み合わされて1つのレンダリングデバイスとされ、かつ/または第1および第2の送信器は、組み合わされて1つの送信器とされる。本発明の実施形態では、第2のレンダリングデバイスは、周辺デバイスであり、電話、スマートフォンまたはタブレットデバイスなどのモバイルテレコミュニケーションデバイスであることがより好ましい。
本発明の実施形態では、検索ユニットは、補助情報の要求の受け取り前の予め格納された時間内に抽出された1つまたは複数のタグを決定することによって、送信されたビデオデータおよび/またはオーディオデータから抽出されたタグの少なくとも1つを選択するように、さらに構成される。
本発明の実施形態では、検索ユニットは、選択されたタグを、タグと補助情報の関連部分との間のマッピングと比較し、選択されたタグに対応する1つまたは複数の補助情報部分を決定するように、構成される。
本発明の実施形態では、システムは:
− ビデオおよび/またはオーディオデータから抽出されたタグをランク付けし、
− ランク付けされたタグをパーティシパントに送信し、
− パーティシパントから、ランク付けされたタグから選択されたタグを受信し、
− 選択されたタグから、補助情報の1つの部分または複数の部分を検索するように、構成される。
本発明の実施形態では、システムは、パーティシパント嗜好に基づいて、送信されたビデオおよび/またはオーディオデータから抽出されたタグを選択するように構成される。嗜好は、パーティシパントデバイスによって、かつ/またはパーティシパント周辺デバイス(複数可)によって、会議システムに送信されてもよい。嗜好は、システムの前処理段階において格納されていてもよく、かつ/またはパーティシパントの動作によって(例えば、周辺デバイスが補助情報を要求した回数に依存して)、決定されるのが好ましい。
本発明の実施形態では、ビデオおよび/またはオーディオデータから抽出されたタグから選択されたタグの数は、受信された補助情報の要求の数および/または頻度に依存する。
本発明の実施形態では、システムは、本明細書に記載された前処理を行うための前処理ユニットを備える。前処理ユニットは、会議システムから独立していても、またはモノリシックアークテクチャの一部であってもよい。前処理ユニットは、補助情報を受信し、受信された補助情報を処理して、補助情報から1つまたは複数のタグを得て、得られた1つまたは複数の補助情報タグを、補助情報の1つまたは複数の関連部分にマッピングし、かつ補助情報、タグ、およびタグと補助情報の関連部分との間のマッピングを、記憶媒体に記憶するように、構成されてもよい。
本発明の実施形態では、前処理ユニットは:
− 補助情報にテキスト構文解析および/またはテキスト要約を適用して、タグ、およびそれらの補助情報の関連テキスト部分を得て、
− タグを予め格納された要約と比較してタグを照合し、同義語および原形によってタグを増補し、かつ/または、
− タグ、および補助情報部分とのマッピングを記憶媒体、好ましくはタグインデックスまたは少なくとも1つのタグインデックスファイル内に記憶するように
構成される。
本発明の別の態様によれば、本明細書に記載されるシステムと、1つまたは複数のテレコミュニケーションネットワークを通してシステムに接続される、または接続可能な1つまたは複数のパーティシパントとの組立体。
本発明の別の態様によれば、コンピュータプログラム製品が提供され、製品は、コンピュータなどの電子デバイス上で実行する場合、本明細書で定義される方法を行うためのコードを備える。
本発明のさらなる利点、特徴および詳細は、本発明のいくつかの実施形態の以下の説明に基づいて、明らかにされる。以下の説明では、図面を参照する。
本発明の一実施形態によるシステムの第1の実施形態の概略図である。 本発明の一実施形態によるシステムの第2の実施形態の概略図である。 本発明の一実施形態による方法のステップの図であり、前処理段階を示す。 本発明の一実施形態による方法のステップの図であり、配備段階を示す。 本発明の一実施形態による方法のステップの図であり、配備段階を示す。
本発明がより詳しく説明される前に、本発明は、記載された特定の実施形態に限定されるものではなく、なぜならそのような実施形態はもちろん多様であるからと理解されるべきである。また、本発明の範囲は、添付の特許請求の範囲によってのみ限定されることから、本明細書で使用される用語は、特定の実施形態のみを説明する目的のものであり、限定することを意図したものではないことが理解されるべきである。
別段の規定がない限り、本明細書で使用される全ての技術的および科学的用語は、本発明の属する技術分野における当業者によって通常理解されるのと同じ意味を有する。また、ある要素は、参照を明確に容易にするために以下に定義される。さらに、用語「システム」および「コンピュータベースのシステム」は、本発明の態様を実施するために使用されるハードウェア手段、ソフトウェア手段、およびデータ記憶手段(例えば、メモリ)を指す。本発明のコンピュータベースのシステムの必要最小限のハードウェアは、中央処理装置(CPU:Cetral Processing Unit)、入力手段、出力手段、およびデータ記憶手段(例えば、メモリ)を含む。当分野の技術者は、本発明での使用に適する多くのコンピュータベースのシステムが使用可能であることを容易に理解できる。
図1に関して、本発明の様々な態様を実装するための例示的システム100が示される。ビデオおよびデータ会議システム100(本明細書では、会議システムとも呼ばれる)は、処理ユニット102、システムメモリ103、およびシステムメモリを含む様々なシステム構成要素を処理ユニット102に接続するシステムバス104を含む従来のコンピュータ101を含む。処理ユニット102は、いずれかの市販またはプロプライエタリなプロセッサでもよい。また、処理ユニットは、複数のプロセッサを含むマルチプロセッサとして実装されてもよい。システムメモリ103は、読出専用メモリ(ROM:Read Only Memory)およびランダムアクセスメモリ(RAM:Random Access Memory)を含んでもよい。システムは、記憶機構107、例えばハードディスクなどの1つまたは複数の記憶媒体を備えてもよく、または記憶機構、例えばオンライン記憶機構に少なくとも接続されてもよい。オペレータは、コマンドおよび情報を、キーボード110、ポインティングデバイス(例えば、マウス111)、タッチスクリーン、および音声認識システムを含むがこれらに限定されない、1つまたは複数のユーザ入力デバイスを通して、コンピュータ101に入力することができる。
コンピュータ101は、会議の1つまたは複数のパーティシパント120−120への論理接続を使用して、ネットワーク化環境において動作することができる。各パーティシパントは、リモートコンピュータを備えてもよい。パーティシパント120は、ワークステーション、サーバコンピュータ、ルータ、ピアデバイスまたは他の共通のネットワークノードであってもよく、通常、コンピュータ101に関して記載された要素の多くまたは全てを含む。システムは、ローカルエリアネットワーク(LAN:Local Area Network)、広域ネットワーク(WAN:Wide Area Network)、および電話網、例えばデジタルセルラネットワークなどの1つまたは複数のコミュニケーションネットワーク129に接続されても、またはそれを含んでもよい。本発明の実施形態では、システムは、インターネットに接続される。システム100は、コミュニケーションネットワーク129上で、ビデオデータおよびオーディオデータを、会議のパーティシパント120−120に送信するための送信器117を備える。システムはまた、データ、例えば補助要求を、パーティシパントから受信するための受信器118を備える。
本発明の実施形態では、各パーティシパント120は、パーティシパントデバイス121−121および周辺デバイス122−122を備える。周辺デバイスは、パーティシパントデバイスのユーザのモバイルデバイス130−130、例えば(スマート)フォン、PDAまたはタブレットなどのモバイルテレコミュニケーションデバイスであってもよい。パーティシパントデバイス121は、ネットワーク129からデータを受信するための受信器124、およびビデオデータおよび/またはオーディオデータをレンダリングするための第1のレンダリングデバイス125を備える。パーティシパントデバイス121は、任意選択で送信器128も有する。レンダリングデバイスは、ビデオデータを表示するためのディスプレイ126、およびオーディオデータを再生するためのスピーカ127を備えてもよい。
それぞれのモバイルデバイス130は、ネットワーク136からデータを受信するための、またはネットワーク136(この場合、ネットワーク136は、無線ネットワーク、例えばWifiネットワークもしくは電話網であってもよく、またはパーティシパントデバイス121とシステム100との間のネットワーク129であってもよい)上でデータを送信するための、トランシーバ135を備える。モバイルデバイスは、ネットワーク136からのデータ、例えば補助情報を受信するための、かつネットワーク136上で、データ、例えば補助情報要求を送信するためのトランシーバ124を備える。モバイルデバイスは、補助情報をレンダリングするための第2のレンダリングデバイス131をさらに備える。レンダリングデバイスは、補助情報を表示するためのディスプレイ132、および補助情報に関連する音を再生するためのスピーカ133を備えてもよい。モバイルデバイス130は、入力手段134、例えばデバイスを操作して、デバイスに、補助情報要求信号を会議システム100に送信するようにさせる、1つのキーまたは複数のキーを備える。
図2は、本発明の一実施形態を示し、ユーザの少なくとも1人の周辺デバイス122およびモバイルデバイス130は、組み合わせられてパーティシパントデバイスとされている。組み合わせられたデバイスは、オーディオ/ビデオデータおよび補助情報の両方を、同じディスプレイ上にレンダリングするためのみの1つのディスプレイと、会議システム100とパーティシパントデバイス121との間でのデータコミュニケーション(ビデオ/オーディオデータおよび補助情報の両方)を提供するための1組の送信器/受信器または1つのトランシーバとを有してもよい。
前処理段階では、会議システム100とパーティシパント120との間での会議の設定の前に、補助情報は、システム100に読み込まれ、ストレージ107に格納される。例えば、補助情報と考えられる情報は、会議の様々なパーティシパントによって、アップロードされ格納されてもよく、または会議のプレゼンタによって格納されてもよい。代替的にまたは追加的に、有用と考えられる補助情報は、社内および/または外部の専門的知識源、例えばハンドブック、以前のプレゼンテーション、報告書などから引き出されてもよい。本発明の実施形態では、補助情報は、構造化テキストドキュメントで使用できるようにされる。構造化テキストドキュメントは、特定の専門的または非専門的項目についての補助情報を提供するテキストを含む。複数のタグは、項目と対になっているか、または関連付けられている。各タグは、補助情報の1つまたは複数の部分に関連付けられてもよい。
追加的にまたは代替的に、補助情報は、非構造化形式で使用可能であってもよい。図3を参照すると、一実施形態が示され、方法は、会議システム100において補助情報を受信すること(200)、かつ受信された補助情報を処理して、補助情報から複数のタグを得ること(210)を含む。次に、タグは、補助情報の1つまたは複数の適切な部分とマッピングされる(240)。マッピングは、会議システム100の記憶機構107に記憶される(250)。タグがまだ全て処理されていない場合、マッピング動作は、補助情報から検索された全てのタグに対して繰り返される(260)。全てのタグが処理され、会議システム100の記憶機構107に記憶されると(270)、会議システム100は、配備段階の準備が整い、会議が開催されてもよい。マッピングは、マッピングインデックスとして記憶されてもよく、例えば、補助情報の1つまたは複数の適切な部分(例えば、テキストの説明的断片)に、各タグを関係付ける。
補助情報が、テキスト、任意選択で、テキストおよび画像またはビデオ(オーディオ成分有りまたは無し)の組み合わせを含む実施形態では、補助情報のテキスト部分は、複数のタグを得るように処理されてもよい。補助情報のテキスト部分を処理することは、テキスト構文解析(220)および/またはテキスト要約(230)を適用することを含んでもよい。テキスト構文解析によって、補助情報テキストは、個々のテキストセグメントに分割される。さらなるステップでは、TF(Term−Frequency、用語の出現頻度)またはIDF(Inverse Document Frequency、逆文書頻度)などの測定基準に基づいて、テキストセグメントがタグである可能性に対してスコアが決定される。次に、最も高いスコアのテキストセグメントは、それらの最初の使用に基づいて、関連タグによって注釈を付けられることができる。考えられるヒューリスティクスの1つは、(専門)用語が、それらが使用される最初の時点で説明されるということである。タグを得て、得られたタグを補助情報の部分に関連付ける多くの代替的方法もまた考えられ、同様に当業者の考えうる範囲にある。
さらなる実施形態では、処理は、処理動作の信頼性を高めるために、同義語および原形によってタグを増補するように、タグを予め格納された要約と比較することによってタグを照合すること(235)を含む。
配備段階において、会議は、パーティシパント120の会議システム201への登録(300)で始まる。パーティシパント120が、別個のパーティシパントデバイス121および周辺デバイス122で構成される実施形態では、方法は、ビデオおよび/またはオーディオ会議システムに、パーティシパントデバイスを登録すること(310)と、パーティシパントの周辺デバイスを登録すること(320)と、を含む。これによって、システム100は、オーディオ/ビデオデータをパーティシパントデバイス121の第1のディスプレイに、補助情報を周辺デバイス122の別個の(第2の)ディスプレイデバイスに、送信することが可能となる。
会議が始まるとすぐに、ビデオデータおよびオーディオデータは、会議システム100からパーティシパント120のパーティシパントデバイス121に送信される(330)。データの送信中、会議システムは、ビデオ/オーディオデータを処理して、複数のタグを抽出する(340)。ビデオデータにテキスト認識処理(350)を適用して、テキストセグメントを得ることによって、また認識されたテキストセグメントから1つまたは複数のタグを検索すること(360)によって、タグがビデオデータから抽出されてもよい。同様に、オーディオデータの送信中、オーディオデータに音声認識処理を適用して、オーディオデータからテキストセグメントを得ることによって、また認識されたテキストセグメントから1つまたは複数のタグを検索することによって、タグがオーディオデータから抽出されてもよい。
本発明の実施形態では、認識されたテキストセグメントからタグを検索することは、処理されたオーディオおよび/またはビデオデータからの認識されたテキストセグメントを、会議システム100の記憶機構107に予め記憶されたマッピングからのタグと比較すること、次に、認識されたテキストセグメントの1つまたは複数に対応する1つまたは複数のタグを決定することを含む。
図4を参照すると、会議に耳を傾けているパーティシパントデバイス121のユーザが、会議の内容(すなわちビデオデータおよび/またはオーディオデータ)についてのさらなる説明を必要とする場合、ユーザは、周辺デバイス122のキーボード上のキー(134)を押してもよい。これによって、周辺デバイス122は、補助情報の要求を生成し、ネットワーク136を介して、この要求を会議システム100に送信するようになる。周辺デバイスから要求を受信した(370)後、会議システム100は、要求しているパーティシパント120に関連情報を提供するために、どのタグが選択される(380)必要があるかを決定する。1つの選択肢は、補助情報の要求の受け取り前の所定時間内に抽出された1つまたは複数のタグを決定することであろう。時間はどのように規定されてもよい。通常、会議システムは、数秒、例えば5から10秒の時間を要する。次に、システムは、ビデオデータおよび/またはオーディオデータから、この時間内で検索されたタグを選択する。
本発明の実施形態では、方法はまた、タグをパーティシパントに送信することを含む。次に、パーティシパントは、提示されたタグから1つまたは複数のタグを選び、選択信号を会議システムに提供する。次に、会議システムは、パーティシパントによって選ばれたタグのみを選択する。さらなる実施形態では、1つまたは複数の適切なタグを選ぶことにおいてパーティシパントを補助するために、パーティシパントに送信される抽出されたタグが、ランク付けされる。これらの実施形態は、パーティシパント嗜好に基づいた選択の例である。複数のパーティシパント嗜好に基づいた選択の他の例もある。
一実施形態では、ビデオおよび/またはオーディオデータから抽出されたタグから選択された(380)タグの数は、特定のパーティシパントによる、会議システムによって受信された補助情報の要求の数、および/または単位時間当たりの要求の数(頻度)に依存する。例えば、受信された補助情報の要求の数が大きい、または頻度が高い場合、より多くの補助情報がパーティシパントに送信され、一方、小さな数/低い頻度の場合、システムがパーティシパントに送信する補助情報は少なくなる。同様に、ユーザは、情報の必要性の低、中または高について決定してもよい。ユーザによって必要とされる情報のレベルは、パーティシパント嗜好として会議システムに提供されてもよい。会議システムは、ユーザの情報の必要性(低、中または高)に従って、多いもしくは少ない情報、または複数のタイプの情報を提供するように構成されてもよい。
選択されたタグに対応する補助情報部分は、このタグと、前処理段階において決定された1つまたは複数の補助情報部分との間のマッピングに基づいて、ストレージ107から検索される(390)。システムは、全てのタグが処理されたか否かをチェックする(410)。全てのタグがまだ処理されていない場合、補助情報の検索(390)が繰り返される。全てのタグが処理された場合、パーティシパント、例えばパーティシパントの周辺デバイスによって受信された補助情報は、会議システムへ要求を送信したパーティシパントの周辺デバイス121のトランシーバ135に、送信器177によって転送される(プッシュされる)(410)。パーティシパントにプッシュされた補助情報は、パーティシパント120のレンダリングデバイス131上にレンダリングされ、すなわちテキスト、画像および/またはビデオは、ディスプレイデバイス132上に表示され、音は、スピーカ133で再生される。
図5では、さらなる実施形態が提示される。この実施形態では、パーティシパントは、先に受信された補助情報の内容に基づいて、会議システムにフィードバックを提供する。方法は、周辺デバイスにプッシュされた補助情報に応じて、周辺デバイスからフィードバックデータを受信すること(500)を含む。会議システムは、補助情報の検索を変更すること(510)を決定してもよい。例えば、先に提供された補助情報が有用ではない旨のフィードバックをユーザが提示した場合、情報を検索して、その情報を周辺デバイスにプッシュすることを停止するよう、会議システムは決定してもよい。会議システムはまた、フィードバックで表示されたユーザ嗜好に基づいて、追加の補助情報および/またはより詳細な補助情報を、周辺デバイスに転送すること(プッシュすること)(520)を決めてもよい。
この実施形態では、補助情報は、実際に情報を要求したパーティシパントにのみ送信されることから、ユーザは、自分に関係する補助情報のみが提示される。
上記実施形態では、会議の補助情報ならびにビデオデータおよびオーディオデータは、ビデオ会議の実際のビデオおよび/またはオーディオ用に1つ、補助情報用に1つと、別々のディスプレイ上に表示される。他の実施形態では、会議の補助情報ならびにビデオデータおよびオーディオデータは、1つのディスプレイ(すなわち、第1および第2のレンダリングデバイス125、131が組み合わせられる)上に表示される。
本発明は、記載された特定の態様に限定されるものではなく、なぜならそのような態様は多様であるからと理解されるべきである。また、本発明の範囲は、添付の条項および特許請求の範囲によってのみ限定されることから、本明細書で使用される用語は、特定の態様のみを説明する目的のものであり、限定することを意図したものではないことが理解されるべきである。
条項1。ビデオおよび/またはオーディオ会議中の補助情報へのタグベースのアクセスのための方法であって、ビデオおよび/またはオーディオ会議は、タグと補助情報の関連部分との間のマッピングを含むビデオおよび/またはオーディオ会議システムを含み、方法は:
− ビデオおよび/またはオーディオ会議システムからのビデオデータおよび/またはオーディオデータを、ビデオ会議のパーティシパントに送信することと、
− 送信されるビデオデータおよび/またはオーディオデータからタグを抽出することと、
− パーティシパントから、補助情報の要求を受信した時点で:
− 送信されたビデオデータおよび/またはオーディオデータから抽出されたタグから少なくとも1つを選択し、
− 選択された少なくとも1つのタグに関連する少なくとも1つの補助情報部分を検索し、
− 少なくとも1つの検索された補助情報部分を、補助情報を要求したパーティシパントに送信することと
を含む。
条項2。抽出が、ビデオおよび/またはオーディオデータのデータ送信中に行われる、条項1に記載の方法。
条項3:方法が:
− パーティシパントの周辺デバイスを、ビデオおよび/またはオーディオ会議システムに登録することと、
− 少なくとも1つの検索された補助情報部分を、登録された周辺デバイスに送信することと
を含む、条項1または2に記載の方法。
条項4:送信されたビデオデータおよび/またはオーディオデータから抽出されたタグの少なくとも1つを選択することが:
− 補助情報の要求の受け取り前の所定時間内に抽出された1つまたは複数のタグを決定すること
を含む、条項1から3のいずれかに記載の方法。
条項4:選択された少なくとも1つのタグに関連する少なくとも1つの補助情報部分を検索することが:
− 選択されたタグを、タグと補助情報の関連部分との間のマッピングと比較することと、
− 選択されたタグに対応する1つまたは複数の補助情報部分を決定することと
を含む、条項1から3のいずれかに記載の方法。
条項5:送信されたビデオおよび/またはオーディオデータから抽出されたタグからの選択が、パーティシパント嗜好に基づく、条項1から4のいずれかに記載の方法。
条項6:ビデオおよび/またはオーディオデータから抽出されたタグから選択されるタグの数が、受信された補助情報の要求の数および/または頻度に依存する、条項1から5のいずれかに記載の方法。
条項7:ビデオおよび/またはオーディオデータから抽出されたタグから選択されるタグの数が、パーティシパント嗜好に依存する、条項1から6のいずれかに記載の方法。
条項8:
− パーティシパントによって補助情報要求を生成することと、
− 補助情報要求を、ビデオおよび/またはオーディオ会議システムに送信することと
を含む、条項1から7のいずれかに記載の方法。
条項9:レンダリングデバイス上に補助情報を示すことを含む、条項1から8のいずれかに記載の方法。
条項10:ビデオおよび/またはオーディオ会議における補助情報へのタグベースのアクセスのためのシステムであって:
− 補助情報、タグ、およびタグと補助情報の関連部分との間のマッピングを記憶するように構成された記憶ユニットと、
− ビデオデータおよび/またはオーディオデータを、会議の1つまたは複数のパーティシパントに送信するための第1の送信器と、
− 会議の1つまたは複数のパーティシパントから、補助情報の要求を受信するための受信器と、
− ビデオデータおよび/またはオーディオデータからタグを抽出するための抽出器と、
− 受信器によって補助情報の要求を受け取った時点で、補助情報を検索するための検索ユニットであって、
− 送信されたビデオデータおよび/またはオーディオデータから抽出されたタグから少なくとも1つを選択し、
− 選択された少なくとも1つのタグに関連する少なくとも1つの補助情報部分を検索するように構成された、検索ユニットと、
− 検索された補助情報部分を、補助情報を要求したパーティシパントに送信するための第2の送信器と
を備える、システム。
条項11。システムが:
− ビデオおよび/またはオーディオデータから抽出されたタグをランク付けし、
− ランク付けされたタグを、パーティシパントに送信し、
− ランク付けされたタグから選択されたタグを、パーティシパントから受信し、
− 選択されたタグから、補助情報の1つの部分または複数の部分を検索するように構成される、条項10に記載のシステム。
条項12。システムが、パーティシパント嗜好に基づいて、送信されたビデオおよび/またはオーディオデータから抽出されたタグを選択するように構成され、パーティシパント嗜好が、システムに予め格納され、かつ/またはパーティシパントの動作によって決定されるのが好ましい、条項10または11に記載のシステム。
条項13:ビデオおよび/またはオーディオデータから抽出されたタグから選択されるタグの数が、受信された補助情報の要求の数および/または頻度に依存する、条項10から12のいずれかに記載のシステム。
条項14:システムが、補助情報を受信し、受信された補助情報を処理して、補助情報から1つまたは複数のタグを得て、得られた1つまたは複数の補助情報タグを、補助情報の1つまたは複数の関連部分にマッピングし、かつ補助情報、タグ、およびタグと補助情報の関連部分との間のマッピングを、記憶媒体に記憶するように構成された前処理ユニットを備える、条項10から13のいずれかに記載のシステム。
条項15:前処理ユニットが:
− 補助情報にテキスト構文解析および/またはテキスト要約を適用して、タグおよびそれらの補助情報の関連テキスト部分を得て、かつ/または、
− タグを予め格納された要約と比較することによって、タグを照合して、同義語および原形によってタグを増補し、かつ/または、
− タグ、および補助情報部分とのマッピングを、記憶媒体、好ましくはタグインデックス内または少なくとも1つのタグインデックスファイル内に記憶するように
構成される、条項14に記載のシステム。
条項16:本明細書に記載されたシステムと、1つまたは複数のテレコミュニケーションネットワークを通して、システムに接続された、または接続可能な1つまたは複数のパーティシパントとの組立体。
条項17:パーティシパントが、
− ビデオおよび/またはオーディオデータを受信するための第1の受信器と、
− ビデオおよび/またはオーディオデータをレンダリングするための第1のレンダリングデバイスと
を備える第1のユニットと、
− 補助情報要求信号??を、システムの受信器に送信するための送信器と、
− 補助情報部分を受信するための第2の受信器と、
− 補助情報部分をレンダリングするための第2のレンダリングデバイスと
を備える第2のユニットと
を備える、条項16の組立体。
本開示を読んだ時点で当業者には明らかであるように、本明細書に記載され、例示された個々の実施形態のそれぞれは、本発明の範囲を逸脱することなく、他のいくつかの実施形態のいずれかの特徴から容易に分けることも、またはそれと組み合わせることもできる個別の構成要素および特徴を有する。列挙されたいずれの方法も、列挙された事象の順番で、または論理的に可能な他のいずれかの順番で実行され得る。

Claims (15)

  1. ビデオおよび/またはオーディオ会議中の補助情報へのタグベースのアクセスのための方法であって、ビデオおよび/またはオーディオ会議は、タグと補助情報の関連部分との間のマッピングを含むビデオおよび/またはオーディオ会議システムを含み、方法は、
    − ビデオおよび/またはオーディオ会議システムからのビデオデータおよび/またはオーディオデータを、ビデオ会議のパーティシパントに送信することと、
    − 送信されるビデオデータおよび/またはオーディオデータからタグを抽出することと、
    − パーティシパントから、補助情報の要求を受信した時点で、
    − 送信されたビデオデータおよび/またはオーディオデータから抽出されたタグの少なくとも1つを選択し、
    − 選択された少なくとも1つのタグに関連する少なくとも1つの補助情報部分を検索し、
    − 少なくとも1つの検索された補助情報部分を、補助情報を要求したパーティシパントに送信することと
    を含む、方法。
  2. 送信されるオーディオデータからタグを抽出することが、
    − オーディオデータに音声認識処理を適用して、オーディオデータからテキストセグメントを得ることと、
    − 認識されたテキストセグメントから、1つまたは複数のタグを検索することと
    を含み、
    かつ/または送信されるビデオデータからタグを抽出することが、
    − ビデオデータにテキスト認識処理を適用して、ビデオデータからテキストセグメントを得ることと、
    − 認識されたテキストセグメントから1つまたは複数のタグを検索することと
    を含む、請求項1に記載の方法。
  3. マッピングが、タグと関連補助情報部分との間で格納され、認識されたテキストセグメントからタグを検索することが、
    − 処理されたオーディオおよび/またはビデオデータからの認識されたテキストセグメントを、マッピングのタグと比較することと、
    − 認識されたテキストセグメントの1つまたは複数に対応する1つまたは複数のタグを決定することと、
    − 各タグに対して、格納されたマッピングから関連補助情報の1つの部分または複数の部分を決定することと
    を含む、請求項1または2に記載の方法。
  4. − ビデオおよび/またはオーディオ会議システムからのビデオデータおよび/またはオーディオデータを、パーティシパントの第1のレンダリングデバイスに送信することと、
    − ビデオおよび/またはオーディオ会議システムからの補助情報を、パーティシパントの第2のレンダリングデバイスに送信することと
    を含み、
    第2のレンダリングデバイスが、周辺デバイスであることが好ましく、電話、スマートフォンまたはタブレットデバイスなどのモバイルテレコミュニケーションデバイスであることがより好ましい、請求項1から3のいずれか一項に記載の方法。
  5. 送信されたビデオデータおよび/またはオーディオデータから抽出されたタグの少なくとも1つを選択することが、
    − 補助情報の要求の受け取り前の所定時間内に抽出された1つまたは複数のタグを決定することを含み、
    かつ/または方法が、
    − ビデオおよび/またはオーディオデータから抽出されたタグをランク付けすることと、
    − ランク付けされたタグを、パーティシパントに送信することと、
    − パーティシパントから、ランク付けされたタグから選択されたタグを受信することと、
    − 選択されたタグから、補助情報の1つの部分または複数の部分を検索することと
    を含み、
    かつ/または方法が、
    − パーティシパントによって、補助情報要求を生成することと、
    − 補助情報要求を、ビデオおよび/またはオーディオ会議システムに送信することと、かつ/または
    レンダリングデバイス上に補助情報を示すことと
    を含む、請求項1から4のいずれか一項に記載の方法。
  6. 送信されたビデオおよび/またはオーディオデータから抽出されたタグの選択が、パーティシパント嗜好に基づき、かつ/またはビデオおよび/またはオーディオデータから抽出されたタグから選択されるタグの数が、受信された補助情報の要求の数および/または頻度に依存する、請求項1から5のいずれか一項に記載の方法。
  7. 前処理段階において、方法が、
    − タグおよびそれらの関連補助情報部分を備えた少なくとも1つの構造化テキストドキュメントを受信することを含み、
    かつ/または、前処理段階において、方法が、
    − ビデオおよび/またはオーディオ会議システムによって、補助情報を受信することと、
    − 受信された補助情報を処理して、補助情報から1つまたは複数のタグを得ることと、
    − 得られた1つまたは複数の補助情報タグを、補助情報の1つまたは複数の関連部分にマッピングすることと
    を含む、請求項1から6のいずれか一項に記載の方法。
  8. 補助情報を処理することが、
    − 補助情報にテキスト構文解析および/またはテキスト要約を適用して、タグ、および補助情報のそれらの関連テキスト部分を得ることと、かつ/または
    − タグを予め格納された要約と比較することによってタグを照合し、同義語および原形によってタグを増補することと、かつ/または
    − タグ、および補助情報部分とのマッピングを、タグインデックス内に格納すること、好ましくは、タグをビデオおよび/またはオーディオ会議システム上の少なくとも1つのタグインデックスファイル内に格納することと
    を含む、請求項1から7のいずれか一項に記載の方法。
  9. ビデオおよび/またはオーディオ会議における補助情報へのタグベースのアクセスのためのシステムであって、
    − 補助情報、タグ、およびタグと補助情報の関連部分との間のマッピングを記憶するように構成された記憶ユニットと、
    − ビデオデータおよび/またはオーディオデータを、会議の1つまたは複数のパーティシパントに送信するための第1の送信器と、
    − 会議の1つまたは複数のパーティシパントから、補助情報の要求を受信するための受信器と、
    − ビデオデータおよび/またはオーディオデータから、タグを抽出するための抽出器と、
    − 受信器によって補助情報の要求を受け取った時点で、補助情報を検索するための検索ユニットであって、
    − 送信されたビデオデータおよび/またはオーディオデータから抽出されたタグの少なくとも1つを選択し、
    − 選択された少なくとも1つのタグに関連する少なくとも1つの補助情報部分を検索するように構成された、検索ユニットと、
    − 検索された補助情報部分を、補助情報を要求したパーティシパントに送信するための第2の送信器と
    を備える、システム。
  10. 抽出器が、オーディオデータに音声認識処理を適用して、オーディオデータからテキストセグメントを得て、認識されたテキストセグメントから1つまたは複数のタグを検索するように構成され、かつ/または抽出器が、ビデオデータにテキスト認識処理を適用して、ビデオデータからテキストセグメントを得て、認識されたテキストセグメントから1つまたは複数のタグを検索するように構成され、かつ/または検索ユニットが、処理されたオーディオおよび/またはビデオデータからの認識されたテキストセグメントを、格納されたマッピングからのタグと比較して、1つまたは複数の認識されたテキストセグメントに対応する1つまたは複数のタグを決定し、かつ各タグに対して、記憶媒体に記憶されたマッピングから、関連補助情報の1つの部分または複数の部分を決定するように構成される、請求項9に記載のシステム。
  11. 第1の送信器が、パーティシパントの第1のレンダリングデバイスに、ビデオおよび/またはオーディオデータを送信するように構成され、第2の送信器が、パーティシパントの第2のレンダリングデバイスに、検索された補助情報部分を送信するように構成され、第2のレンダリングデバイスが、周辺デバイスであることが好ましく、電話、スマートフォンまたはタブレットデバイスなどのモバイルテレコミュニケーションデバイスであることがより好ましい、請求項9または10に記載のシステム。
  12. 検索ユニットが、補助情報の要求の受け取り前の予め格納された時間内に抽出された1つまたは複数のタグを決定することによって、送信されたビデオデータおよび/またはオーディオデータから抽出されたタグの少なくとも1つを選択するようにさらに構成され、かつ/または検索ユニットが、選択されたタグを、タグと補助情報の関連部分との間のマッピングと比較し、かつ選択されたタグに対応する1つまたは複数の補助情報部分を決定するように構成される、請求項9から11のいずれか一項に記載のシステム。
  13. システムが、パーティシパント嗜好に基づき、送信されたビデオおよび/またはオーディオデータから抽出されたタグを選択するように構成され、パーティシパント嗜好が、システムに予め格納され、かつ/またはパーティシパントの挙動によって決定されるのが好ましく、かつ/またはビデオおよび/またはオーディオデータから抽出されたタグから選択されるタグの数が、受信された補助情報の要求の数および/または頻度に依存する、請求項9から12のいずれか一項に記載のシステム。
  14. システムが、補助情報を受信し、受信された補助情報を処理して、補助情報から1つまたは複数のタグを得て、得られた1つまたは複数の補助情報タグを、補助情報の1つまたは複数の関連部分にマッピングし、かつ補助情報、タグ、およびタグと補助情報の関連部分との間のマッピングを、記憶媒体に記憶するように構成された前処理ユニットを備え、
    前処理ユニットが、
    − 補助情報にテキスト構文解析および/またはテキスト要約を適用して、タグ、および補助情報のそれらの関連テキスト部分を得て、かつ/または
    − タグを、予め格納された要約と比較することによってタグを照合して、同義語および原形によってタグを増補し、かつ/または
    − タグ、および補助情報部分とのマッピングを、記憶媒体、好ましくはタグインデックス内または少なくとも1つのタグインデックスファイル内に記憶するように構成されるのが好ましい、請求項9から13のいずれか一項に記載のシステム。
  15. コンピュータなどの電子デバイス上で実行する場合、請求項1から8のいずれか一項による方法を行うためのコードを備える、コンピュータプログラム製品。
JP2016527166A 2013-10-31 2014-10-28 補助情報へのアクセスを提供するための方法およびシステム Pending JP2017500632A (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
EP13306487.3A EP2869546B1 (en) 2013-10-31 2013-10-31 Method and system for providing access to auxiliary information
EP13306487.3 2013-10-31
PCT/EP2014/073068 WO2015063055A1 (en) 2013-10-31 2014-10-28 Method and system for providing access to auxiliary information

Publications (1)

Publication Number Publication Date
JP2017500632A true JP2017500632A (ja) 2017-01-05

Family

ID=49585333

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016527166A Pending JP2017500632A (ja) 2013-10-31 2014-10-28 補助情報へのアクセスを提供するための方法およびシステム

Country Status (5)

Country Link
US (1) US20160247522A1 (ja)
EP (1) EP2869546B1 (ja)
JP (1) JP2017500632A (ja)
CN (1) CN105684406A (ja)
WO (1) WO2015063055A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022061934A (ja) * 2019-11-25 2022-04-19 株式会社オープンエイト サーバおよびデータ割り当て方法

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6373243B2 (ja) * 2015-11-19 2018-08-15 ヤフー株式会社 情報処理装置、情報処理方法および情報処理プログラム
CN109413363A (zh) * 2018-11-27 2019-03-01 平安科技(深圳)有限公司 一种会议预约方法和装置、以及存储介质
CN112995569B (zh) * 2019-12-16 2023-11-28 中兴通讯股份有限公司 会议创建方法、终端、服务端及存储介质
CN113704312A (zh) * 2020-05-21 2021-11-26 北京声智科技有限公司 一种信息处理方法、装置、介质和设备

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000207409A (ja) * 1999-01-14 2000-07-28 Matsushita Electric Ind Co Ltd 構造化文書管理装置及び構造化文書検索方法
JP2002297645A (ja) * 2001-03-30 2002-10-11 Minolta Co Ltd インターネット情報検索端末
US20050022252A1 (en) * 2002-06-04 2005-01-27 Tong Shen System for multimedia recognition, analysis, and indexing, using text, audio, and digital video
JP2005332404A (ja) * 2002-09-24 2005-12-02 Motoi Soken:Kk コンテンツ提供システム
JP2012208630A (ja) * 2011-03-29 2012-10-25 Mizuho Information & Research Institute Inc 発言管理システム、発言管理方法及び発言管理プログラム
US20120323579A1 (en) * 2011-06-17 2012-12-20 At&T Intellectual Property I, L.P. Dynamic access to external media content based on speaker content

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6304283B1 (en) * 1995-01-31 2001-10-16 Canon Kabushiki Kaisha Conference apparatus and method for realistically reproducing image data and shared board data
JP2006245876A (ja) * 2005-03-02 2006-09-14 Matsushita Electric Ind Co Ltd ネットワーク機能を有するプロジェクタを使用した会議システム
US8395652B1 (en) * 2006-06-28 2013-03-12 Insors Integrated Communications Data network collaboration systems having a shared file
US8458283B1 (en) * 2006-06-28 2013-06-04 Insors Integrated Communications Methods and program products for efficient communication of shared file modifications during a collaboration event
US20080159383A1 (en) * 2006-12-27 2008-07-03 Yahoo! Inc. Tagboard for video tagging
US8719288B2 (en) * 2008-04-15 2014-05-06 Alexander Bronstein Universal lookup of video-related data
US8433136B2 (en) * 2009-03-31 2013-04-30 Microsoft Corporation Tagging video using character recognition and propagation
EP2372578A1 (en) * 2010-03-12 2011-10-05 Alcatel Lucent Method for automatically tagging media content, media server and application server for realizing such a method
US20110268262A1 (en) * 2010-04-30 2011-11-03 American Teleconferncing Services Ltd. Location-Aware Conferencing With Graphical Interface for Communicating Information
US8965067B2 (en) * 2010-10-28 2015-02-24 Telefonaktiebolaget L M Ericsson (Publ) Face data acquirer, end user video conference device, server, method, computer program and computer program product for extracting face data
US8553065B2 (en) * 2011-04-18 2013-10-08 Cisco Technology, Inc. System and method for providing augmented data in a network environment
US8812510B2 (en) * 2011-05-19 2014-08-19 Oracle International Corporation Temporally-correlated activity streams for conferences
US10044872B2 (en) * 2015-03-27 2018-08-07 International Business Machines Corporation Organizing conference calls using speaker and topic hierarchies

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000207409A (ja) * 1999-01-14 2000-07-28 Matsushita Electric Ind Co Ltd 構造化文書管理装置及び構造化文書検索方法
JP2002297645A (ja) * 2001-03-30 2002-10-11 Minolta Co Ltd インターネット情報検索端末
US20050022252A1 (en) * 2002-06-04 2005-01-27 Tong Shen System for multimedia recognition, analysis, and indexing, using text, audio, and digital video
JP2005332404A (ja) * 2002-09-24 2005-12-02 Motoi Soken:Kk コンテンツ提供システム
JP2012208630A (ja) * 2011-03-29 2012-10-25 Mizuho Information & Research Institute Inc 発言管理システム、発言管理方法及び発言管理プログラム
US20120323579A1 (en) * 2011-06-17 2012-12-20 At&T Intellectual Property I, L.P. Dynamic access to external media content based on speaker content

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022061934A (ja) * 2019-11-25 2022-04-19 株式会社オープンエイト サーバおよびデータ割り当て方法

Also Published As

Publication number Publication date
EP2869546B1 (en) 2018-12-26
CN105684406A (zh) 2016-06-15
EP2869546A1 (en) 2015-05-06
US20160247522A1 (en) 2016-08-25
WO2015063055A1 (en) 2015-05-07

Similar Documents

Publication Publication Date Title
US11523187B2 (en) Methods, systems, and media for aggregating and presenting content relevant to a particular video game
US11288303B2 (en) Information search method and apparatus
US8521766B1 (en) Systems and methods for providing information discovery and retrieval
US11354510B2 (en) System and method for semantic analysis of song lyrics in a media content environment
US10331688B2 (en) Systems and methods for searching content from multiple sources
CN105786969B (zh) 信息展示方法和装置
US9934283B2 (en) Social annotations for enhanced search results
US10360260B2 (en) System and method for semantic analysis of song lyrics in a media content environment
JP2017503273A (ja) 文脈情報に基づいて検索結果を生成するための方法、システム、および媒体
WO2017143930A1 (zh) 一种搜索结果排序方法及其设备
CN106796590B (zh) 在搜索结果中显露直播事件
JP2017500632A (ja) 補助情報へのアクセスを提供するための方法およびシステム
US10860801B2 (en) System and method for dynamic trend clustering
TW201437832A (zh) 訊息推薦方法及其裝置與訊息資源推薦系統
US11334618B1 (en) Device, system, and method of capturing the moment in audio discussions and recordings
WO2016173185A1 (zh) 信息推送方法和装置
KR20130062799A (ko) 키워드 정보 제공 방법
US10743085B2 (en) Automatic annotation of audio-video sequences
US20150372952A1 (en) Method and system for enhanced content messaging
RU2589855C2 (ru) Способ, система и компьютерная программа для управления информацией из социальных сетей
US11836161B2 (en) Systems and methods for predicting where conversations are heading and identifying associated content
US20140207815A1 (en) Method, system and computer program for managing social networking service information
CN107004014A (zh) 有效地发现并且表面化内容属性
US10445384B2 (en) System and method for determining a search response to a research query
JP2015069386A (ja) サーバ装置、プログラム及び通信方法

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20170627

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170711

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20171006

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180110

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20180703