JP4879358B2 - データ適合化装置、データ適合化方法 - Google Patents

データ適合化装置、データ適合化方法 Download PDF

Info

Publication number
JP4879358B2
JP4879358B2 JP2011054920A JP2011054920A JP4879358B2 JP 4879358 B2 JP4879358 B2 JP 4879358B2 JP 2011054920 A JP2011054920 A JP 2011054920A JP 2011054920 A JP2011054920 A JP 2011054920A JP 4879358 B2 JP4879358 B2 JP 4879358B2
Authority
JP
Japan
Prior art keywords
segment
user
priority
viewpoint
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2011054920A
Other languages
English (en)
Other versions
JP2011181075A (ja
Inventor
恒一 江村
敏彦 宗續
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Corp
Panasonic Holdings Corp
Original Assignee
Panasonic Corp
Matsushita Electric Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Corp, Matsushita Electric Industrial Co Ltd filed Critical Panasonic Corp
Priority to JP2011054920A priority Critical patent/JP4879358B2/ja
Publication of JP2011181075A publication Critical patent/JP2011181075A/ja
Application granted granted Critical
Publication of JP4879358B2 publication Critical patent/JP4879358B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F13/00Interconnection of, or transfer of information or other signals between, memories, input/output devices or central processing units
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/83Generation or processing of protective or descriptive data associated with content; Content structuring
    • H04N21/845Structuring of content, e.g. decomposing content into time segments
    • H04N21/8456Structuring of content, e.g. decomposing content into time segments by decomposing the content in the time domain, e.g. in time segments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/90Details of database functions independent of the retrieved data types
    • G06F16/95Retrieval from the web
    • G06F16/957Browsing optimisation, e.g. caching or content distillation
    • G06F16/9577Optimising the visualization of content, e.g. distillation of HTML documents
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/02Marketing; Price estimation or determination; Fundraising
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/234Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs
    • H04N21/2343Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs involving reformatting operations of video signals for distribution or compliance with end-user requests or end-user device requirements
    • H04N21/234327Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs involving reformatting operations of video signals for distribution or compliance with end-user requests or end-user device requirements by decomposing into layers, e.g. base layer and one or more enhancement layers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/44Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs
    • H04N21/4402Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs involving reformatting operations of video signals for household redistribution, storage or real-time display
    • H04N21/440218Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs involving reformatting operations of video signals for household redistribution, storage or real-time display by transcoding between formats or standards, e.g. from MPEG-2 to MPEG-4
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/44Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs
    • H04N21/4402Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs involving reformatting operations of video signals for household redistribution, storage or real-time display
    • H04N21/440263Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs involving reformatting operations of video signals for household redistribution, storage or real-time display by altering the spatial resolution, e.g. for displaying on a connected PDA
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/45Management operations performed by the client for facilitating the reception of or the interaction with the content or administrating data related to the end-user or to the client device itself, e.g. learning user preferences for recommending movies, resolving scheduling conflicts
    • H04N21/4508Management of client data or end-user data
    • H04N21/4516Management of client data or end-user data involving client characteristics, e.g. Set-Top-Box type, software version or amount of memory available
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/45Management operations performed by the client for facilitating the reception of or the interaction with the content or administrating data related to the end-user or to the client device itself, e.g. learning user preferences for recommending movies, resolving scheduling conflicts
    • H04N21/4508Management of client data or end-user data
    • H04N21/4532Management of client data or end-user data involving end-user characteristics, e.g. viewer profile, preferences
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/45Management operations performed by the client for facilitating the reception of or the interaction with the content or administrating data related to the end-user or to the client device itself, e.g. learning user preferences for recommending movies, resolving scheduling conflicts
    • H04N21/454Content or additional data filtering, e.g. blocking advertisements
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/83Generation or processing of protective or descriptive data associated with content; Content structuring
    • H04N21/84Generation or processing of descriptive data, e.g. content descriptors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/91Television signal processing therefor
    • H04N5/92Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback
    • H04N5/926Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback by pulse code modulation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/16Analogue secrecy systems; Analogue subscription systems
    • H04N7/162Authorising the user terminal, e.g. by paying; Registering the use of a subscription channel, e.g. billing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/78Television signal recording using magnetic recording
    • H04N5/781Television signal recording using magnetic recording on disks or drums

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Databases & Information Systems (AREA)
  • Theoretical Computer Science (AREA)
  • Business, Economics & Management (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Finance (AREA)
  • Accounting & Taxation (AREA)
  • Development Economics (AREA)
  • Strategic Management (AREA)
  • General Engineering & Computer Science (AREA)
  • Entrepreneurship & Innovation (AREA)
  • Game Theory and Decision Science (AREA)
  • Data Mining & Analysis (AREA)
  • Economics (AREA)
  • Marketing (AREA)
  • General Business, Economics & Management (AREA)
  • Computer Security & Cryptography (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Information Transfer Between Computers (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Management Or Editing Of Information On Record Carriers (AREA)

Description

本発明は、データをユーザーの嗜好に適応させるデータ適合化装置及びデータ適応化方法、およびデータ適合化装置を含む記録媒体に関するものである。特に、デジタル放送やインターネットなどの放送及び通信メディアを介したビデオ、オーディオ、ドキュメントを含むデータ適合化装置に関するものである。
近年、放送のデジタル化の動きが活発になり通信との融合も進んできている。放送分野では既に衛星デジタル放送が開始され、今後地上波放送もデジタル化される予定である。放送内容をデジタル化することにより、従来のビデオ・オーディオに加えデータ放送も行われている。TiVo(www.tivo.com)やReplayTV(www.replaytv.com)など、テレビ放送をハードディスクに蓄積し、後で視聴するというコンセプト(TV Anytime)を実現する製品も米国で発売されている。また通信分野ではインターネットを介したデジタルコンテンツ配信が音楽を切り出しとして始まり、ビデオを放送するインターネット放送局も増加している。さらに、携帯端末においてもアクセスネットワークの広帯域化とインターネットへの接続によりインターネットコンテンツへのアクセスが可能となってきている。
このような情報インフラの飛躍的変化の中で、今後ビデオ、オーディオやドキュメントなどを含む膨大な情報ソースへユーザーが様々な端末から簡単にアクセス可能となることが予想される。このように通信と放送の融合・デジタル化により、コンテンツを説明するメタデータを使用してユーザーの好みに合った情報のみを選択的に伝送や再生することなしには、膨大な情報ソースをユーザーが扱うことが困難となってきている。
非特許文献1に示されるように、一つのコンテントをテレビや携帯端末など様々な端末へ配信したり、HHC(Hand Held Computer)やPDA(Personal Digital Assistant)、Smart Phoneなど様々な端末からインターネット上のリッチコンテンツへアクセスするための記述スキームと、インターネットコンテンツを端末の表示能力に合わせて変換(データ適応)する(例えば、表示サイズや表示色数の変更)方法とが提案されている。
以下、従来のデータ適応装置について説明する。図68は従来のデータ適応装置のブロック図を示すものである。従来のデータ適応装置は、データ適応部100と、ポリシーエンジン101と、コンテンツ解析部102と、コンテンツ選択部103と、コンテンツ操作部104と、端末105とから構成されている。コンテンツ解析部102には、インターネットコンテンツd1001が入力される。また、端末105には端末105の能力情報を示す端末プリファレンスd1002が蓄積されている。
また、図69は端末プリファレンスd1002の詳細図である。端末プリファレンスd1002は、端末105の表示能力である画面色数情報xと画面サイズ情報axbを含む。
以下、以上のように構成されたデータ適応部の動作について、図70を用いて説明する。図70は、データ適応部100の動作を説明する処理フロー図である。
ポリシーエンジン101は、端末105から取得した端末プリファレンスd1002により端末能力としての表示画面サイズ及び表示色数を識別する(P1201)。そして、ポリシーエンジン101は、P1201で識別した情報とポリシーに従ってコンテンツ選択部103及びコンテンツ操作部104を制御する。
また、コンテンツ解析部102は、ユーザーが要求したインターネットコンテンツd1001の物理的データ種別を解析する(P1202)。そして、コンテンツ選択部103が、インターネットコンテンツd1001が端末105の表示能力で表示可能か判断し(P1203)、インターネットコンテンツd1001が表示能力可能な場合はインターネットコンテンツd1001から端末能力で表示可能なコンテンツのみを選択する(P1204)。
そして、さらにコンテンツ操作部104が、P1204で選択した表示可能なコンテンツを端末能力で表示可能な形態にコンテンツを変換する。具体的には、コンテンツ選択部103が表示画面サイズよりコンテンツが大きいかどうか判定し(P1205)、表示画面サイズより大きなコンテンツはコンテンツ操作部104が縮小する(P1206)。また、表示画面サイズよりコンテンツが大きくない場合は、コンテンツ操作部104はコンテンツが表示能力より小さいか判断し(P1207)、小さなコンテンツはコンテンツ操作部104が拡大する(P1208)。
また、コンテンツ操作部104は、端末105の表示色数がカラーか判断する(P1209)。そして、端末105の表示色数がカラーで無い場合は、コンテンツ操作部104は、グレースケールか判定し(P1210)、グレースケールであればコンテンツの色数をグレースケールに変換(P1211)、カラーでもグレースケールでもなければ二値化する(P1212)。
"Adapting Multimedia Internet Content For Universal Access", IEEE Transactions on Multimedia, March 1999, pp.104-114.
しかしながら、上記従来技術では、一般的なポリシー、つまり特定の端末に合わせたポリシーに従ってコンテンツ解析結果からコンテンツの選択及び操作を行うことになる。このため、予め決められた一定数の端末のパターンに合わせたデータ適応しかできないという問題がある。
また、従来技術は、コンテンツをユーザーの嗜好に会わせた選択および操作、例えばある画像に対しては縮小ではなく一部を表示するなどの選択および操作を行えない。よって、従来技術では、予め決められた特定の端末を使用してコンテンツの選択および操作を行う場合であっても、ユーザーがその端末を使ってコンテンツをユーザーの嗜好にあわせた形態にデータ適応はできないという問題点がある。
本発明の第1の目的は、上記従来の問題点を解決するために、ユーザーの嗜好情報によってデータのセグメントを選択することで、ユーザーの嗜好にあわせた形態でコンテンツのデータ適応を行うことである。
また、本発明の第2の目的は、ネットワークを介してコンテンツを配信する際に、ユーザーが受信したい形態でかつ、ネットワークの状態に合わせてスケーラブルにコンテンツのデータ適応を行うことである。
上記第1の目的を達成するために、本発明は、コンテンツのある時間範囲を構成する複数のセグメントに対応して、セグメントが記述されているデータ構造部からなる第1のメタデータと、前記セグメントに対応する前記コンテンツの内容を示すセグメント観点と、前記セグメント観点ごとに対象となる前記セグメントへのリンク情報と、前記セグメント観点に対する前記セグメント観点がリンクされている前記セグメントごとに設定される重要度を示すセグメント優先度とが記述されている属性部からなる第2のメタデータとで構成されたメタデータを取得するコンテンツデータ取得部と、前記コンテンツに対するユーザーの嗜好に関するユーザー観点とユーザー優先度の組が記述されているユーザープリファレンス記述情報を取得するユーザープリファレンス取得部と、前記メタデータから前記ユーザープリファレンス記述情報に該当するセグメントを抽出することにより、前記コンテンツを前記ユーザー嗜好に適応させた、第3のメタデータを出力するユーザー適応部と、を具備するものである。これにより、ユーザーの嗜好に合わせて一意にデータ適応を可能とすることができる。
また、上記第2の目的を達成するために、本発明は、ネットワークを介してコンテンツを配信する際にネットワークの伝送帯域の情報をネットワークプリファレンスとして取得し、セグメントの優先度と伝送帯域に応じてデータ量を調整することで、ユーザーが受信したい形態でかつ、ネットワークの状態に合わせてスケーラブルにデータ適応を行うようにしたものである。これにより、ユーザーが受信したい形態でかつ、ネットワークの状態に合わせてスケーラブルにデータ適応を行うことができる。
本発明の第1の目的は、上記従来の問題点を解決するために、ユーザーの嗜好情報によってデータのセグメントを選択することで、ユーザーの嗜好にあわせた形態でコンテンツのデータ適応を行うことである。
また、本発明の第2の目的は、ネットワークを介してコンテンツを配信する際に、ユーザーが受信したい形態でかつ、ネットワークの状態に合わせてスケーラブルにコンテンツのデータ適応を行うことである。
上記第1の目的を達成するために、本発明は、ユーザーの嗜好情報をユーザープリファレンスとして持たせ、ユーザープリファレンスによってデータのセグメントを選択し、セグメントの優先度と端末能力に基づいて解像度変換を行うことで、コンテンツ毎にユーザーが見たい形態でデータ適応を行うものである。これにより、ユーザーの嗜好に合わせて一意にデータ適応を可能とすることができる。
また、上記第2の目的を達成するために、本発明は、ネットワークを介してコンテンツを配信する際にネットワークの伝送帯域の情報をネットワークプリファレンスとして取得し、セグメントの優先度と伝送帯域に応じてデータ量を調整することで、ユーザーが受信したい形態でかつ、ネットワークの状態に合わせてスケーラブルにデータ適応を行うようにしたものである。これにより、ユーザーが受信したい形態でかつ、ネットワークの状態に合わせてスケーラブルにデータ適応を行うことができる。
本発明の実施の形態1及び実施の形態3にかかるデータ適合化装置を具備する端末のブロック図 実施の形態1にかかるユーザープリファレンスの詳細図 実施の形態1にかかるユーザープリファレンスの記述定義を示す図 実施の形態1にかかるユーザープリファレンスの記述例を示す図 実施の形態1にかかるセグメント選択部の動作説明図 実施の形態1にかかるユーザー適応制御部の処理フロー図 実施の形態1にかかる端末適応制御部の処理フロー図 本発明の実施の形態2及び実施の形態4にかかるデータ適合化部を具備するシステムのブロック図 実施の形態2にかかるネットワーク適応制御部の処理フロー図 ユーザープリファレンスの第2の例を示す詳細図 ユーザープリファレンスの第2の記述定義を示す図 ユーザープリファレンスの第2の記述例を示す図 セグメント選択部の第2の動作を説明する図 ユーザー適応制御部の第2の処理のフロー図 本発明の実施の形態にかかるデータ適合化部を具備するシステムのその他の例を示すブロック図 本発明の実施の形態にかかるセグメントのその他の形態を示す図 本発明の実施の形態にかかるセグメントの記述例を示す図 本発明の実施の形態5にかかるデータ構造を示す図 本発明の実施の形態5にかかるデータの記述例を示す図 本発明の実施の形態5にかかるデータ構造のその他の例を示す図 本発明の実施の形態5にかかるデータ構造のその他の例の記述例を示す図 本発明の実施の形態6にかかるデータ構造を示す図 本発明の実施の形態6にかかるデータの記述例を示す図 本発明の実施の形態7にかかるデータ構造を示す図 本発明の実施の形態7にかかるデータの記述を示す図 本発明の実施の形態7にかかるデータ構造のその他の例を示す図 本発明の実施の形態7にかかるデータ構造のその他の例の記述を示す図 本発明の実施の形態8にかかるデータ構造を示す図 本発明の実施の形態8にかかるデータの記述を示す図 本発明の実施の形態8にかかるデータ構造のその他の例を示す図 本発明の実施の形態8にかかるデータのその他の記述例を示す図 本発明の実施の形態9にかかるユーザープリファレンスの記述定義を示す第1の図 本発明の実施の形態9にかかるユーザープリファレンスの記述定義を示す第2の図 本発明の実施の形態9にかかるユーザープリファレンスの記述例を示す図 実施の形態9にかかるセグメント記述の定義を示す第1の図 実施の形態9にかかるセグメント記述の定義を示す第2の図 実施の形態9にかかるセグメント記述の定義を示す第3の図 実施の形態9にかかるセグメントの第1の記述例を示す図 実施の形態9にかかるセグメントの第2の記述例を示す図 実施の形態9にかかるセグメントの第3の記述例を示す図 実施の形態9にかかるセグメントの第4の記述例を示す図 実施の形態9にかかるセグメントの第5の記述例を示す図 実施の形態9にかかるセグメントの第6の記述例を示す図 実施の形態9にかかるセグメントの第7の記述例を示す図 実施の形態9にかかるセグメントの第8の記述例を示す図 実施の形態9にかかるセグメントの第9の記述例を示す図 本発明の実施の形態10にかかるユーザープリファレンスの記述定義を示す第1の図 実施の形態10にかかるユーザープリファレンスの記述定義を示す第2の図 実施の形態10にかかるユーザープリファレンスの記述定義を示す第3の図 実施の形態10にかかるユーザープリファレンスの記述定義を示す第4の図 実施の形態10にかかるユーザープリファレンスの記述定義を示す第5の図 実施の形態10にかかるユーザープリファレンスの記述例を示した図 実施の形態10にかかるセグメント記述の定義を示す第1の図 実施の形態10にかかるセグメント記述の定義を示す第2の図 実施の形態10にかかるセグメント記述の定義を示す第3の図 実施の形態10にかかるセグメント記述の定義を示す第4の図 実施の形態10にかかるセグメントの記述例を示した第1の図 実施の形態10にかかるセグメントの記述例を示した第2の図 実施の形態10にかかるセグメントの記述例を示した第3の図 実施の形態10にかかるセグメントの記述のその他の例を示した第1の図 実施の形態10にかかるセグメントの記述のその他の例を示した第2の図 実施の形態11にかかるダイジェスト記述の定義を示す第1の図 実施の形態11にかかるダイジェスト記述の定義を示す第2の図 実施の形態11にかかるダイジェスト記述の定義を示す第3の図 実施の形態11にかかるダイジェスト記述の定義を示す第4の図 実施の形態にかかる観点リストの記述の例を示す図 実施の形態11にかかるダイジェストの記述の例を示す図 従来のデータ適合化装置のブロック図 従来の端末プリファレンスの記述詳細図 従来のデータ適応部の処理フロー図
以下、本発明の実施の形態について、添付図面を参照して詳細に説明する。
(実施の形態1)
以下、本発明の実施の形態1におけるデータ適合化装置を具備する端末について説明する。図1は、実施の形態1にかかるデータ適合化装置を具備する端末のブロック図である。図1に示すように、端末10は、複数のセグメントから構成されるコンテンツからなるデータd102、およびデータd102を説明するための情報であるメタデータd101が蓄積されたコンテンツデータ蓄積媒体11と、ユーザーの嗜好に関する情報であるユーザープリファレンスd103を蓄積するユーザープリファレンス蓄積部19と、端末の能力情報である端末プリファレンスd104を格納する端末プリファレンス蓄積部20と、データd102をメタデータd101とユーザープリファレンスd103および端末プリファレンスd104とを用いてユーザーの嗜好に適応させるユーザー適応部12とから構成されている。
ユーザー適応部12には、各種データを取得する手段が設けられている。各種データを取得する手段としては、メタデータd101を取得するメタデータ取得部21aとデータd102を取得するデータ取得部21bとから構成されるコンテンツデータ取得部21と、ユーザープリファレンスd103を取得するユーザープリファレンス取得部22と、端末プリファレンスd104を取得する端末プリファレンス取得部23とが設けられている。
また、ユーザー適応部12には、ユーザーの嗜好にあわせて取得したデータd102から所定のセグメントを選択しユーザーの嗜好に合わせる手段が設けられている。選択したセグメントをユーザーの嗜好に合わせる手段としては、取得したメタデータd101とユーザープリファレンスデータd103を用いて、取得したデータd102から所定のセグメントを選択するための情報を生成するユーザー適応制御部14と、ユーザー適応制御部14で生成した情報に基づいて取得したデータd102から所定のセグメントを選択し、抽出するセグメント選択部16が設けられている。
また、ユーザー適応部12には、データd102の処理装置である表示部18などの端末能力に合わせてデータd102を変換する手段が設けられている。データd102を端末能力に合わせて変換する手段としては、メタデータd101と端末プリファレンスd104からデータd102の空間解像度や色解像度を変化するための情報を生成する端末適応制御部15と、端末適応制御部15で生成した情報によりd102の空間解像度変換や色解像度変換をする解像度変換部17とが設けられている。
次に、ユーザープリファレンスd103について説明する。図2は、ユーザープリファレンスd103の詳細図である。図2に示すように、ユーザープリファレンスd103は、複数のユーザー嗜好記述3a〜3nから構成されている。また、ユーザー嗜好記述3a〜3nには、ユーザー嗜好記述3a〜3nのそれぞれに対応するコンテンツを識別するコンテンツ識別子34と、コンテンツを所望の時間で表示するための時間長情報35と、コンテンツから所望のセグメントを抽出するためのキーワード(ユーザー観点)36a、36bとこのキーワード36a、36bに対する優先度37a、37bとの組が複数格納されている。
次に、ユーザー嗜好記述3a〜3nを含むユーザープリファレンスd103の定義記述について具体的に説明する。図3は、ユーザープリファレンスd103の定義記述を示す図である。
図3に示すように、ユーザープリファレンス記述定義40は、XML(eXtensible Markup Language)のDTD(Document Type Definition)で記述されている。
ユーザープリファレンス記述定義40は、図中41に示すようにユーザープリファレンスには一つ以上のコンテンツ(Content)を有すると定義している。また、図中42に示すように、コンテンツ毎にひとつ以上のキーワード(ユーザー観点)36(Keyword)を有すると定義している。また、図中43に示すように、コンテンツには、属性としてコンテンツ識別子34(ContentID)と、時間長35(Duration)と、データを表示するサイズ情報である画面サイズ46(ScreenSize)とが定義される。また、図中47に示すようにキーワード36(Keyword)は、テキストデータで記述されると定義されている。また、図中48に示すように、キーワード36には、それぞれ属性として優先度37(Priority)を有すると定義されている。
次に、図3に示したユーザープリファレンスの記述定義を用いて作成したユーザープリファレンスについて説明する。図4は、ユーザープリファレンスの例を示す図である。
図4において、50で記されるものは、ユーザー嗜好記述定義40を使ってXMLで記述した実際のユーザー嗜好記述例である。
ユーザープリファレンス50は、2つのコンテンツ51、52を有する。コンテンツ51にはコンテンツID53a(この例では、123456789)、コンテンツ52にはコンテンツID53b(この例では、123456788)が記載されている。また、コンテンツ51には、コンテンツの属性として表示時間長54(この例では、smpte=00:05:00:00)が記載されている。
また、コンテンツ51にはキーワード(ユーザー観点)55a〜55cが記載されている。キーワード55aにはNakata、キーワード55bにはSoccer、キーワード55cにはJapanが記載されている。また、キーワード55a〜55cの属性として、キーワード55aには優先度5、キーワード55bには優先度4、キーワード55cには優先度2が記載されている。
一方、コンテンツ52には、コンテンツの属性として表示スケール56(この例では、pixel=320×240)が記載されている。また、コンテンツ52にはキーワード55d〜55fが記載されている。キーワード55dにはHeadline、キーワード55eにはStock、キーワード55fにはSportsが記載されている。また、キーワード55d〜55fの属性として、キーワード55dには優先度5、キーワード55eには優先度5、キーワード55fには優先度3が記載されている。
次に、図5を使用して、データd102の構成について説明する。
データd102は、データd102のある時間範囲を構成するセグメント61から構成される。セグメント61は、第1サブセグメント62と第2サブセグメント63とから構成される。サブセグメント62は、第1サブセグメント64と第2サブセグメント65から構成され、サブセグメント63は第1サブセグメント66とサブセグメント67とから構成される。このように、データd102は、セグメントおよびサブセグメントによって階層化された構造を持つ。
また、サブセグメント62にはキーワード(セグメント観点)621が付加され、サブセグメント63にはキーワード631が付加されている。また、サブセグメント64にはキーワード(セグメント観点)641が付与され、サブセグメント65にはキーワード(セグメント観点)651が付加され、サブセグメント66にはキーワード(セグメント観点)661が付与され、サブセグメント67にはキーワード(セグメント観点)671が付加されている。
キーワード621、631、641、651、661、671は、メタデータd101に記載されている。また、キーワード621、631、641、651、661、671には、キーワード621、631、641、651、661、671に対応するセグメント62〜67の内容を示す複数のキーワード(KWD)が付与されている。
また、キーワード(KWD)毎にセグメントの優先度(セグメント優先度)が付与されている。図の例では、キーワード621は、KWD#2とKWD#2内の順位つけであるセグメント優先度3との組と、KWD#3とKWD#3内の順位つけであるセグメント優先度3の組から構成されている。
次に、セグメント選択部16の動作およびユーザー適応制御部14の動作について図5および図6を用いて説明する。図5は、セグメント選択部16の動作を説明する動作説明図である。図6はユーザー適応制御部14の動作を説明する処理フロー図である。
データ適応部12のコンテンツデータ取得部21は、蓄積媒体11からメタデータd101とデータd102を読み出し、取得する。そして、ユーザー適応制御部14は、取得したメタデータd101を解析し、データの構造と構造の各セグメントに付加される少なくとも1つ以上のセグメント観点及びセグメント観点におけるセグメント優先度を抽出し、読み出したデータ(コンテンツ)d102を識別する(P701)。
次に、ユーザー適応制御部14は、ユーザープリファレンスd103から識別したコンテンツに対応するユーザー嗜好記述(例えばユーザー嗜好記述31)を選択する(P702)。さらに、ユーザー適応制御部14は、ユーザー嗜好記述31に含まれるユーザー観点(キーワード)をユーザー観点の属性である優先度の順番に整列する(P703)。そして、ユーザー適応制御部14は、最も優先度の高い優先度が付与されたユーザー観点を選択する(P704)。
次に、ユーザー適応制御部14は、優先度の高いユーザー観点(最初のユーザー観点)から順に、そのユーザー観点と合致するセグメントをデータd102から選択するような情報をセグメント選択部16に送る。
そして、セグメント選択部16は、ユーザー適応制御部14から送られてきた情報により、最初のユーザー観点とセグメントのセグメント観点とを比較し、最初のユーザー観点と一致するセグメント観点が付与されたセグメントがあるか判断する(P705)。
次に、最初のユーザー観点と一致するセグメント観点が付与されたセグメントの選択動作に移る。
しかし、単純に最初のユーザー観点と一致するセグメント観点が付与されたセグメントを全て選択したのでは、選択したセグメントがユーザープリファレンスd103に記載された時間長情報54、空間範囲情報56またはその両方の制約条件を超えてしまう可能性がある。そこで、本実施の形態では、一旦、最初のユーザー観点と一致するセグメント観点が付与されたセグメントを全て仮選択する。そして、仮選択したセグメントから、時間長情報54、空間範囲情報56またはその両方の制約条件を超えない範囲の数のセグメントを本選択するようにしている。
具体的には、まず、セグメント選択部16はユーザー観点に合致するセグメントを仮選択する(P706)。次に、セグメント選択部16はデータd101に含まれる全てのセグメントに対して仮選択が終了したか判断し(P707)、終了していなければメタデータd101を用いて次のセグメントを抽出し、P705、p706の処理をする。このようにして、データd102に含まれる全てのセグメントに対しての仮選択ができる。
そして、P707において、データ適応部12が全てのセグメントに対して仮選択が終了したと判断すると、仮選択されたセグメントをセグメントに付与されたセグメント優先度順に整列する(P708)。これは、後述するセグメントの本選択時にセグメント優先度の高いセグメントからセグメントの本選択するためである。
まず、データ適応部12が最もセグメント優先度の高いセグメントを本選択する(P709)。次にデータ適応部12が、仮選択した全てのセグメントの本選択が終了したか判断する(P710)。そして、P710において、データ適応部12が仮選択した全てのセグメントの本選択が終了していないと判断すると、本選択したセグメントのデータ長が時間長、空間範囲またはその両方の制約条件を超えたか判断する(P711)。そして、データ適応部12がこれらの制約条件を超えない範囲で、P709からP711までの動作を繰り返す。
また、P710において、データ適応部12が仮選択した全てのセグメントの本選択が終了しているという判断をすると、すべてのユーザー観点(キーワード)に対して処理をしたか判断する(P715)。そして、P715において、データ適応部12がすべてのユーザー観点に対して処理が終了したと判断した場合は処理を終了する。一方、P715において、データ適応部12がすべてのユーザー観点に対して処理が終了していない判断した場合は、次のユーザー観点に対する処理に移行する。
ここで、既に上述した処理で選択済みのセグメントに対して、再度処理を行って再度選択することは無意味である。よって、まず、データ適応部12が未選択のセグメントを抽出し、未選択のセグメントに限定して以下の処理を行うようにする(P714)。そして、データ適応部12が次のユーザー観点を選択し(P713)、P705からP711の処理をする。
さらに、具体的にセグメント選択動作について図5を用いて説明する。まず、データ適応部12がユーザープリファレンス(ユーザー嗜好記述)3に含まれるユーザー観点(ユーザーキーワード)のうち最もセグメント優先度が高いKWD#1があるサブセグメントを探す。サブセグメント63のキーワード631、サブセグメント66のキーワード661には、それぞれKWD#1がある。次に、データ適応部12がサブセグメント63、サブセグメント66に時間長制約を加味し、サブセグメント63、サブセグメント66から時間長制約が厳しい順に選択する。具体的には、まず、時間長制約が厳しくない、つまり時間長が短いサブセグメント66が最も優先されて出力データd102aとして選択される。そして、次に、サブセグメント63が出力データ102bを構成するセグメントとして選択される。
同様に、データ適応部12がユーザープリファレンス3に含まれるユーザー観点のうち次に優先度が高いKWD#2があるサブセグメントを探す。セグメント61を構成する全てのサブセグメントにKWD#2が含まれる。よって、ここでは、どのサブセグメントが優先されるかを決定する必要がある。
具体的には、データ適応部12が各サブセグメントに付加されるセグメント観点のセグメント優先度を比較する。図5の例では、サブセグメント63、サブセグメント62、サブセグメント65、サブセグメント66が同優先度で、次にサブセグメント64、サブセグメント67と優先度が続く。また、サブセグメント67はすでに選択済みであるので、以下の処理対象から省く。
よって、データ適応部12が出力データd102bを選択した後に、更に時間長制約が許容される場合には、セグメント優先度がサブセグメント64よりも高いサブセグメント65がサブセグメント63に加えて出力データ102cを構成するサブセグメントとして選択される。残ったサブセグメント64はKWD#2とKWD#3を含み、セグメント優先度がサブセグメント65より低い。よって、最も時間長制約が緩い場合に、サブセグメント64はサブセグメント63とサブセグメント65に加えて出力データストリーム102dを構成するサブセグメントとして選択される。
またユーザー適応制御部14は、選択されたセグメントに付加されるキーワードの優先度に応じて、キーワードと合致するユーザープリファレンスd103に含まれるユーザー観点の優先度を更新する。
このようにして、データd102からユーザープリファレンスd103に適応するセグメントを選択し、データd102をユーザープリファレンスd103に適合化できる。
次に、データ適応部12は、上述したように選択したセグメントを端末能力情報である端末プリファレンスd104に応じて変換する動作に移行する。以下、端末適応制御部15の動作について、図7を用いて説明する。図7は、端末適応制御部15の動作を説明する処理フロー図である。
まず、端末適応制御部15は、端末10に記録される端末プリファレンスd104を取得して、端末能力としての表示部18の画面表示サイズと表示色数を識別する(P801)。次に、端末適応制御部15は、セグメント選択部16によって選択されたセグメントが自身の属性として持つセグメント優先度を判定する(P802)。そして、端末適応制御部15は、選択されたセグメントが端末10の表示部18の表示能力より大きいか判断する(P803)。
そして、P803において端末適応制御部15が選択されたセグメントが端末10の表示部18の表示能力より大きいと判断した場合は、端末適応制御部15は端末プリファレンスd104にセグメント優先度を加味して、選択されたセグメント全体を縮小するか、選択されたセグメントの一部を表示するか、選択されたセグメントの一部を表示しないか、選択されたセグメントの一部を変換して表示するかを決定する(P804)。
一方、P803において端末適応制御部15が選択されたセグメントが端末10の表示部18の表示能力より大きくないと判断した場合は、端末適応制御部15は選択されたセグメントのデータが表示部18の画面表示サイズより小さいか判断する(P805)。そして、P805において端末適応制御部15が選択されたセグメントのデータが表示部18の画面表示サイズより小さいという判断をした場合には、端末適応制御部15は端末プリファレンスd104にセグメント優先度を加味して、選択したセグメント全体を拡大するか、選択したセグメントの一部を拡大するか、選択したセグメントの一部を表示しないか、選択したセグメントの一部を変換して表示するかを決定する(P806)。
次に、端末適応制御部15は、端末プリファレンスd104から端末の表示色数を識別し、端末表示色数に合わせてP801からP806の処理を施したセグメントが表示部18でカラー表示可能か判断する(P807)。そして、P807において、端末適応制御部15が、上述した処理を施したセグメントが表示部18でカラー表示可能であるという判断をすると処理を終了する。
一方、P807において、端末適応制御部15が、上述した処理を施したセグメントが表示部18でカラー表示可能でないという判断をすると、上述した処理を施したセグメントがグレースケール化した後に表示部18で表示可能になるか判断する(P808)。そして、端末適応制御部15が、上述した処理を施したセグメントが表示部18でグレースケール化した後に表示可能あるという判断をすると、上述した処理を施したセグメントをグレースケール化する決定をする(P809)。また、端末適応制御部15が、上述した処理を施したセグメントが表示部18でグレースケール化した後に表示可能でないという判断をすると、上述した処理を施したセグメントを二値化する決定をする(P810)。
そして、解像度変換部17は端末適応制御部15の決定内容を実際に選択されたセグメントに対して適応し解像度変換を行う。そして、表示部18は解像度変換部17で変換したセグメントを表示する。
以上のように、実施の形態1によれば、メタデータd101の各セグメントに付加される少なくとも1つ以上のセグメント観点及びセグメント観点におけるセグメント優先度を抽出し、ユーザープリファレンスd103に含まれるユーザー観点と合致するセグメント観点を有するセグメントをセグメント優先度に基づいてセグメントの選択を行える。これにより、データd102をユーザーの嗜好に合わせて一意にデータ適合化することが可能となる。
また、実施の形態1によれば、端末プリファレンスに含まれる端末能力情報に従ってセグメントの時間及び空間解像度変換を行うことで、端末の能力に合わせて一意にデータ適合化することが可能となる。
また、実施の形態1によれば、ユーザー観点毎にユーザー優先度を付与する形態であるので、ユーザー優先度のみを変更することでユーザー観点間の優先度を変更できる。よって、ユーザーによるユーザー観点の編集が容易になる。
(実施の形態2)
以下、本発明の実施の形態2におけるデータ適合化装置について図8を用いて説明する。図8は実施の形態2におけるデータ適合化装置のブロック図を示すものである。
実施の形態2は、実施の形態1にかかるユーザー適応制御部をサーバーに持たせ、サーバーと端末とをネットワークで接続したものである。しかし、単純にユーザー適応制御部と端末とをネットワーク接続したのでは、ユーザーが受信したい形態でかつ、ネットワークの状態に合わせてスケーラブルにデータ適応を行えない。これを解決するために、実施の形態2では、ユーザー適応部が、ネットワークを介してコンテンツを端末に配信する際にネットワークの伝送帯域の情報をネットワークプリファレンスとして取得し、セグメントの優先度と伝送帯域に応じてデータ量を調整するようにしている。このようにして、実施の形態2は、ユーザーが受信したい形態でかつ、ネットワークの状態に合わせてスケーラブルにデータ適応を行えるようになっている。
以下、実施の形態2について詳細に説明する。まず、実施の形態2にかかるデータ適合化部22の構成について図8を用いて説明する。図8は、実施の形態2におけるデータ適合化部22を具備するシステムのブロック図である。
図8に示すように、サーバー20と端末2Bとはネットワーク2Aで接続されている。端末2Bは、ユーザーの嗜好に関する情報であるユーザープリファレンスd103を蓄積するユーザープリファレンス蓄積部30と、端末2Bの能力情報である端末プリファレンスd104を格納する端末プリファレンス蓄積部31と、ネットワーク2Aの伝送帯域情報であるネットワークプリファレンスd205を格納するネットワークプリファレンス格納部32と、サーバー20から送られてくるデータを蓄積する蓄積媒体2Cとから構成される。
また、サーバー20は、複数のセグメントからなるコンテンツであるデータd102およびデータd102を説明するための情報であるメタデータd101が蓄積されたコンテンツデータ蓄積媒体21と、データd102をメタデータd101とユーザープリファレンスd103、端末プリファレンスd104、およびネットワークプリファレンスd205とを用いてユーザーの嗜好に適応させるユーザー適応部22とから構成されている。
ユーザー適応部22には、各種データを取得する手段が設けられている。各種データを取得する手段としては、メタデータd101を取得するメタデータ取得部33aとデータd102を取得するデータ取得部33bとから構成されるコンテンツデータ取得部33と、ネットワーク2Aを介してユーザープリファレンスd103を取得するユーザープリファレンス取得部34と、ネットワーク2Aを介して端末プリファレンスd104を取得する端末プリファレンス取得部35と、ネットワーク2Aを介してネットワークプリファレンスd205を取得するネットワークプリファレンス取得部36とが設けられている。
また、ユーザー適応部12には、ユーザーの嗜好にあわせて取得したデータd102から所定のセグメントを選択しユーザーの嗜好に合わせる手段が設けられている。選択したセグメントをユーザーの嗜好に合わせる手段としては、取得したメタデータd101とユーザープリファレンスデータd103を用いて、取得したデータd102から所定のセグメントを選択するための情報を生成するユーザー適応制御部24と、ユーザー適応制御部24で生成した情報に基づいて取得したデータd102から所定のセグメントを選択し、抽出するセグメント選択部26が設けられている。
また、ユーザー適応部24には、データd102の処理装置である端末2Bの能力に合わせてデータd102を変換する手段が設けられている。データd102を端末能力に合わせて変換する手段としては、メタデータd101と端末プリファレンスd104からデータd102の空間解像度や色解像度を変化するための情報を生成する端末適応制御部25と、端末適応制御部25で生成した情報によりd102の空間解像度変換や色解像度変換をする解像度変換部27と、メタデータd101とネットワークプリファレンスd205を用いてネットワーク2Aに送るデータd102の量を調整する情報を生成するネットワーク適応制御部28と、ネットワーク適応制御部28で生成した情報によりネットワーク2Aに送るデータd102の量を調整するデータ量調整部29と、が設けられている。
次に、セグメント選択部26の動作およびユーザー適応制御部24の動作について図6を用いて説明する。
データ適応部24のコンテンツデータ取得部33は、蓄積媒体21からメタデータd101とデータd102を読み出し、取得する。そして、ユーザー適応制御部24は、取得したメタデータd101を解析し、データの構造と構造の各セグメントに付加される少なくとも1つ以上のセグメント観点及びセグメント観点における優先度を抽出し、読み出したデータ(コンテンツ)d102を識別する(P701)。次に、ユーザー適応制御部24は、ユーザープリファレンスd103から識別したコンテンツに対応するユーザー嗜好記述(例えばユーザー嗜好記述31)を選択する(P702)。さらに、ユーザー適応制御部24は、ユーザー嗜好記述31に含まれるユーザー観点(キーワード)をユーザー観点の属性である優先度の順番に整列する(P703)。そして、最も優先度の高い優先度が付与されたユーザー観点を選択する(P704)。
次に、ユーザー適応制御部24は、ユーザー優先度の高いユーザー観点(最初のユーザー観点)から順に、そのユーザー観点と合致するセグメントをデータd102から選択するような情報をセグメント選択部26に送る。
そして、セグメント選択部26は、ユーザー適応制御部24から送られてきた情報により、最初のユーザー観点とセグメントのセグメント観点とを比較し、最初のユーザー観点と一致するセグメント観点が付与されたセグメントがあるか判断する(P705)。
次に、最初のユーザー観点と一致するセグメント観点が付与されたセグメントの選択動作に移る。
まず、セグメント選択部26は、ユーザー観点に合致するセグメントを仮選択する(P706)。次に、セグメント選択部26は、メタデータd101に含まれる全てのセグメントに対して仮選択が終了したか判断し(P707)、終了していなければ、メタデータd101を用いて次のセグメントを抽出し、P705、P706の処理をする。このようにして、データd102に含まれる全てのセグメントに対しての仮選択ができる。
そして、P707において、データ適応部22が全てのセグメントに対して仮選択が終了したと判断すると、仮選択されたセグメントをセグメントに付与されたセグメント優先度順に整列する(P708)。これは、後述するセグメントの本選択時にセグメント優先度の高いセグメントから本選択するためである。
そして、まずデータ適応部22が最もセグメント優先度の高いセグメントを本選択する(P709)。次に、データ適応部22が仮選択した全てのセグメントの本選択が終了したか判断する(P710)。そして、データ適応部22がP710において、仮選択した全てのセグメントの本選択が終了していないと判断すると、本選択したセグメントのデータ長が時間長、空間範囲またはその両方の制約条件を超えたか判断する(P711)。そして、データ適応部22がこれらの制約条件を超えない範囲で、P709からP711までの動作を繰り返す。
また、P710において、データ適応部22が仮選択した全てのセグメントの本選択が終了しているという判断をすると、すべてのユーザー観点(キーワード)に対して処理をしたか判断する(P715)。そして、P715において、データ適応部22がすべてのユーザー観点に対して処理が終了したと判断した場合は、処理を終了する。一方、P715において、データ適応部22がすべてのユーザー観点に対して処理が終了していないと判断した場合は、次のユーザー観点に対する処理に移行する。
ここで、既に上述した処理で選択済みのセグメントに対して、再度処理を行って再度選択することは無意味である。よって、まず、データ適応部22が未選択のセグメントを抽出し、未選択のセグメントに限定して以下の処理を行うようにする(P714)。そして、次のユーザー観点を選択し(P713)、P705からP711の処理をする。
このようにして、データd102からユーザープリファレンスd103に適応するセグメントを選択し、データd102をユーザープリファレンスd103に適合化できる。
次に、データ適応部12は、上述したように選択したセグメントを端末能力情報である端末プリファレンスd104に応じて変換する動作に移行する。以下、端末適応制御部25の動作について、図7を用いて説明する。
まず、端末適応制御部25は、端末2Bに記録される端末プリファレンスd104を端末プリファレンス取得部35から取得して、端末能力としての表示部18の画面表示サイズと表示色数を識別する(P801)。次に、端末適応制御部25は、セグメント選択部26によって選択されたセグメントが自身の属性として持つセグメント優先度を判定する(P802)。そして、端末適応制御部25は、選択されたセグメントが端末2Bの表示能力より大きいか判断する(P803)。
そして、P803において端末適応制御部25が選択されたセグメントが端末2Bの表示能力より大きいと判断した場合は、端末適応制御部25は端末プリファレンスd104にセグメント優先度を加味して、選択されたセグメント全体を縮小するか、選択されたセグメントの一部を表示するか、選択されたセグメントの一部を表示しないか、選択されたセグメントの一部を変換して表示するかを決定する(P804)。
一方、P803において端末適応制御部25が選択されたセグメントが端末2Bの表示能力より大きくないと判断した場合は、端末適応制御部25は選択されたセグメントのデータが端末2Bの画面表示サイズより小さいか判断する(P805)。そして、P805において端末適応制御部25が選択されたセグメントのデータが端末2Bの画面表示サイズより小さい場合と判断した場合には、端末適応制御部25は端末プリファレンスd104にセグメント優先度を加味して、選択したセグメント全体を拡大するか、選択したセグメントの一部を拡大するか、選択したセグメントの一部を表示しないか、選択したセグメントの一部を変換して表示するかを決定する(P806)。
次に、端末適応制御部25は、端末プリファレンスd104から端末2Bの表示色数を識別し、端末表示色数に合わせてP801からP806の処理を施したセグメントが表示部でカラー表示可能か判断する(P807)。そして、P807において、端末適応制御部25が、上述した処理を施したセグメントが端末2Bでカラー表示可能であるという判断をすると処理を終了する。
一方、P807において、端末適応制御部25が、上述した処理を施したセグメントが端末2Bでカラー表示可能でないという判断をすると、上述した処理を施したセグメントがグレースケール化した後に端末2Bで表示可能になるか判断する(P808)。そして、端末適応制御部25が、上述した処理を施したセグメントが表示部18でグレースケール化した後に表示可能あるという判断をすると、上述した処理を施したセグメントをグレースケール化する決定をする(P809)。また、端末適応制御部25が、上述した処理を施したセグメントが端末2Bでグレースケール化した後に表示可能でないという判断をすると、上述した処理を施したセグメントを二値化する決定をする(P810)。
そして、解像度変換部27は端末適応制御部25の決定内容を実際に選択されたセグメントに対して適応し解像度変換を行う。そして、解像度変換されたデータはデータ量調節部29に送られる。
次に、ネットワーク適応制御部28の動作について図9を用いて説明する。図9は、実施の形態2にかかるネットワーク適応制御部28の処理フロー図である。
ネットワーク適応制御部28は、ネットワーク2Aを介して端末2Bから送られてきたネットワークプリファレンスd205をネットワークプリファレンス取得部36から取得する。そして、ネットワーク適応制御部28は、ネットワーク2Aの伝送帯域を識別する(P901)。次に、ネットワーク適応制御部28は、セグメント選択部26によって選択されたセグメントが自身の属性として持つセグメント優先度を判定する(P902)。そして、ネットワーク適応制御部28は、変換されたデータが伝送帯域より大きいか判断する(P903)。
P903において、ネットワーク適応制御部28が、変換されたデータが伝送帯域より大きいと判断した場合には、ネットワーク適応制御部28はデータ全体を圧縮するか、データの一部を伝送するか、データ全体を伝送しないか、データの一部を変換して伝送するかを決定する(P904)。ここでデータを変換して伝送するとは、MPEG1のデータをMPEG4のデータに変換すること、またはAACのデータをMP3のデータに変換するなどのフォーマット変換である。
一方、P903において、ネットワーク適応制御部28が、変換されたデータが伝送帯域より大きくないと判断した場合には、ネットワーク適応制御部28は変換されたセグメントのデータが伝送帯域より小さいか判断する(P805)。P805において、ネットワーク適応制御部28が伝送帯域より変換されたデータが小さいと判断した場合には、ネットワーク適応制御部28は未伝送データの追加伝送するか、伝送しないか、変換または変換を元に戻して伝送するかを決定する(P906)。
そして、データ量調整部29はネットワーク適応制御部28の決定内容を実際に選択されたセグメントに対して適応し、データ量を調整して端末2Bに伝送する。端末2Bは受信したセグメントを蓄積媒体2Cに記録する。
以上のように、実施の形態2によれば、実施の形態1にかかる効果に加えて、ネットワークプリファレンスd205に含まれる伝送帯域に従って、選択されたセグメントのデータ量を調整することで、ユーザーが受信したい形態でかつ、ネットワークの状態に合わせてスケーラブルにデータ適応を行うことができる。
(実施の形態3)
以下、本発明の実施の形態3におけるデータ適合化装置について説明する。実施の形態3におけるデータ適合化装置の構成は実施の形態1にかかるデータ適合化装置の構成と同一である。よって、実施の形態3にかかるデータ適合化装置の構成の説明は省略する。
実施の形態3にかかるデータ適合化装置と実施の形態1にかかるデータ適合化装置とでは、ユーザープリファレンスd103の構成が異なる。以下、実施の形態3にかかるユーザープリファレンスd103について説明する。図10はユーザープリファレンスd103の第2の詳細図である。
図10に示すように、ユーザープリファレンスd103は、複数のユーザー嗜好記述131〜133から構成されている。また、ユーザー嗜好記述131〜133には、ユーザー嗜好記述131〜133のそれぞれに対応するコンテンツを識別するコンテンツ識別子134と、コンテンツを表示するため時間長情報135と、コンテンツから所定のセグメントを抽出するためのキーワード136a、136bが複数格納されている。このように、実施の形態3のユーザープリファレンスには、キーワード136a、136bに対する優先度が格納されていない。この点で、実施の形態3のユーザープリファレンスと実施の形態1のユーザープリファレンスとは異なる。
次に、ユーザー嗜好記述131〜133を含むユーザープリファレンスd103の定義記述について具体的に説明する。図11は、ユーザープリファレンスd103の定義記述である。
図11に示すように、ユーザープリファレンス記述定義140は、XML(eXtensible Markup Language)のDTD(Document Type Definition)で記述されている。
ユーザープリファレンス記述定義140は、図中141に示すようにユーザープリファレンスには一つ以上のコンテンツ(Content)を有すると定義している。また、図中142に示すように、コンテンツ毎にひとつ以上のキーワード136(Keyword)を有すると定義している。また、図中143に示すように、コンテンツには、属性としてコンテンツ識別子134(ContentID)と、時間長135(Duration)と、データを表示するサイズ情報である画面サイズ144(ScreenSize)とが定義される。また、図中148に示すようにキーワード136(Keyword)は、テキストデータで記述されると定義されている。
図11のユーザープリファレンス記述定義140からも、実施の形態3のユーザープリファレンスには、キーワード136に対する優先度が格納されていないことがわかる。
次に、図11に示したユーザープリファレンスの記述定義を用いて作成したユーザープリファレンスについて説明する。図12は、ユーザープリファレンスの例を示す図である。
図12において150はユーザー嗜好記述定義40を使ってXMLで記述した実際のユーザー嗜好記述例である。
図12に示すユーザープリファレンス150は、2つのコンテンツ151、152を有する。コンテンツ151にはコンテンツID153a(この例では、123456789)、コンテンツ152にはコンテンツID153b(この例では、123456788)が記載されている。また、コンテンツ151には、コンテンツの属性として表示時間長154(この例では、smpte=00:05:00:00)が記載されている。また、コンテンツ151にはキーワード155a〜155cが記載されている。キーワード155aにはNakata、キーワード155bにはSoccer、キーワード155cにはJapanが記載されている。
一方、コンテンツ152には、コンテンツの属性として表示スケール156(この例では、pixel=320×240)が記載されている。また、コンテンツ152にはキーワード155d〜155fが記載されている。キーワード155dにはHeadline、キーワード155eにはStock、キーワード155fにはSportsが記載されている。
次に、図13を使用して、実施の形態3にかかるデータd102の構成について説明する。また図13は、セグメント選択部16の動作を説明する動作説明図である。図13において、131が付与されているものはユーザー嗜好記述である。ユーザー嗜好記述131以外の構成は、実施の形態1と同様である。
次に、実施の形態3にかかるセグメント選択部16の動作およびユーザー適応制御部14の動作について図13および図14を用いて説明する。図13は、セグメント選択部16の動作を説明する動作説明図である。図14はユーザー適応制御部14の動作を説明する処理フロー図である。
データ適応部12のコンテンツデータ取得部21は、蓄積媒体11からメタデータd101とデータd102を読み出し、取得する。そして、ユーザー適応制御部14は、取得したメタデータd101を解析し、データの構造と構造の各セグメントに付加される少なくとも1つ以上のセグメント観点及びセグメント観点における優先度を抽出し、読み出したデータ(コンテンツ)d102を識別する(P1701)。次に、ユーザー適応制御部14は、ユーザープリファレンスd103から識別したコンテンツに対応するユーザー嗜好記述(例えばユーザー嗜好記述131)を選択する(P1702)。さらに、ユーザー適応制御部14は、ユーザー嗜好記述131に含まれるユーザー観点(キーワード)を記述された順番に整列する。図12の例では、上の行に記述されたキーワードから順に、つまりキーワード155a、キーワード155b、キーワード155cの順に整列する。そして、最初に、つまり最も上位に記述されたユーザー観点を選択する(P1704)。このように、キーワードを記述された順番に整列するのは、実施の形態3にかかるユーザープリファレンスd103にユーザー優先度が付与されていないため、ユーザー優先度に対応する何らかの優先度を付与する必要があるからである。実施の形態3では、このユーザー優先度の代わりとして、キーワードの優先度を記述した順に対応させるようにしている。
次に、ユーザー適応制御部14は、優先度の高いユーザー観点(最初のユーザー観点)から順に、そのユーザー観点と合致するセグメントをデータd102から選択するような情報をセグメント選択部16に送る。
そして、セグメント選択部16は、ユーザー適応制御部14から送られてきた情報により、最初のユーザー観点とセグメントのセグメント観点とを比較し、最初のユーザー観点と一致するセグメント観点が付与されたセグメントがあるか判断する(P1705)。
次に、最初のユーザー観点と一致するセグメント観点が付与されたセグメントの選択動作に移る。
まず、セグメント選択部16はユーザー観点に合致するセグメントを仮選択する(P1706)。次に、セグメント選択部16はデータd102に含まれる全てのセグメントに対して仮選択が終了したか判断し(P1707)、終了していなければ、メタデータd101を用いて次のセグメントを抽出し、P1705、P1706の処理をする。このようにして、データd102に含まれる全てのセグメントに対しての仮選択ができる。
そして、P1707において、データ適応部12が全てのセグメントに対して仮選択が終了したと判断すると、仮選択されたセグメントをセグメントに付与されたセグメント優先度順に整列する(P1708)。これは、後述するセグメントの本選択時にセグメント優先度の高いセグメントから本選択するためである。
そして、まずデータ適応部12が最もセグメント優先度の高いセグメントを本選択する(P1709)。次にデータ適応部12が、仮選択した全てのセグメントの本選択が終了したか判断する(P1710)。そして、P1710において、データ適応部12が仮選択した全てのセグメントの本選択が終了していないと判断すると、本選択したセグメントのデータ長が時間長、空間範囲またはその両方の制約条件を超えたか判断する(P1711)。そして、データ適応部12がこれらの制約条件を超えない範囲で、P1709からP1711までの動作を繰り返す。
また、P1710において、データ適応部12が仮選択した全てのセグメントの本選択が終了しているという判断をすると、すべてのユーザー観点(キーワード)に対して処理をしたか判断する(P1715)。そして、P1715において、データ適応部12がすべてのユーザー観点に対して処理が終了したと判断した場合は処理を終了する。一方、P1715において、データ適応部12がすべてのユーザー観点に対して処理が終了していない判断した場合は、次のユーザー観点に対する処理に移行する。
ここで、既に上述した処理で選択済みのセグメントに対して、再度処理を行って再度選択することは無意味である。よって、まず、データ適応部12が未選択のセグメントを抽出し、未選択のセグメントに限定して以下の処理を行うようにする(P1714)。そして、データ適応部12が次のユーザー観点を選択し(P1713)、P1705からP1711の処理をする。
さらに具体的にセグメント選択動作について図13を用いて説明する。まず、データ適応部12がユーザープリファレンス(ユーザー嗜好記述)131に含まれるユーザー観点(ユーザーキーワード)のうち最も上の行に記載された、つまり優先度が高いKWD#1があるサブセグメントを探す。サブセグメント63のキーワード631、サブセグメント66のキーワード661には、それぞれKWD#1がある。次に、データ適応部12がサブセグメント63、サブセグメント66に時間長制約を加味し、サブセグメント63、サブセグメント66から時間長制約が厳しい順に選択する。具体的には、まず、時間長制約が厳しくない、つまり時間長が短いサブセグメント66が最も優先されて出力データd102aとして選択される。そして、次に、サブセグメント63が出力データ102bを構成するセグメントとして選択される。
同様に、データ適応部12がユーザープリファレンスd103に含まれるユーザー観点のうち次に優先度が高いKWD#2があるサブセグメントを探す。セグメント61を構成する全てのサブセグメントにKWD#2が含まれる。よって、ここではどのサブセグメントが優先されるかを決定する必要がある。
具体的には、データ適応部12が各サブセグメントに付加されるセグメント観点のセグメント優先度を比較する。図13の例では、サブセグメント63、サブセグメント62、サブセグメント65、サブセグメント66が同優先度で、次にサブセグメント64、サブセグメント67と優先度が続く。また、サブセグメント67はすでに選択済みであるので、以下の処理対象から省く。
よって、データ適応部12が出力データd102bを選択した後に、更に時間長制約が許容される場合には、セグメント優先度がサブセグメント64よりも高いサブセグメント65がサブセグメント63に加えて出力データ102cを構成するサブセグメントとして選択される。残ったサブセグメント64はKWD#2とKWD#3を含み、セグメント優先度がサブセグメント65より低いので、最も時間長制約が緩い場合に、サブセグメント64はサブセグメント63とサブセグメント65に加えて出力データストリーム102dを構成するサブセグメントとして選択される。
またユーザー適応制御部14は、選択されたセグメントに付加されるキーワードの優先度に応じて、キーワードと合致するユーザープリファレンスd103に含まれるユーザー観点の優先度を更新する。
このようにして、データd102からユーザープリファレンスd103に適応するセグメントを選択し、データd102をユーザープリファレンスd103に適合化できる。
そして、次に、端末制御部15が実施の形態1と同様に、図7に示すフローにしたがって、セグメント選択部16から送られてくる選択されたセグメントの解像度変換をする。
以上のように、実施の形態3によれば、ユーザープリファレンスd103にユーザー優先度を付与しなくても、ユーザー観点を記述した順をユーザー観点の優先度として処理することができる。これにより、ユーザープリファレンスd103にユーザー優先度を付与しなくても、実施の形態1と同様にユーザーの嗜好に合わせて一意にデータ適応を可能とすることができる。
また、実施の形態3のように、ユーザー優先度を具備しないようにすることで、ユーザープリファレンスd103のデータ構造が簡単になる。
(実施の形態4)
以下、本発明の実施の形態4におけるデータ適合化装置について説明する。実施の形態4は、実施の形態3にかかるユーザー適応制御部をサーバーに持たせ、サーバーと端末とをネットワークで接続したものである。
実施の形態4にかかるデータ適合化装置を含むシステムは、実施の形態2にかかるデータ適合化装置を含むシステムと同一の構成である。よって、図8は、実施の形態4におけるデータ適合化装置を含むシステムブロック図を示すものである。
また、実施の形態4にかかるユーザープリファレンスd103については、実施の形態3と同じである。よって、図10に示す図が実施の形態4にかかるユーザープリファレンスd103を示す図である。また、図11は、実施の形態4にかかるユーザープリファレンスの定義である。
また、実施の形態4にかかるセグメント選択部26の動作も、実施の形態3にかかるセグメント選択部26と同一である。よって、図13はセグメント選択部26の動作を説明する動作説明図である。また、図14は、実施の形態4にかかるユーザー適応制御部24の動作を説明する処理フロー図である。
また、実施の形態4にかかる端末適応制御部25は、実施の形態1から実施の形態3にかかる端末適応制御部と同一の動作をする。よって、図7は、実施の形態4にかかる端末適応制御部25の動作を説明する処理フローである。また、実施の形態4にかかるネットワーク適応制御部28は、実施の形態2にかかるネットワーク適応制御部28と同一の動作をする。よって、図9は、実施の形態4にかかるネットワーク適応制御部28の動作を説明する処理フロー図である。
以下、これらの添付図面を使用して実施の形態4にかかるデータ適合化装置を含むシステムについて説明する。
データ適応部22のコンテンツデータ取得部33は、蓄積媒体21からメタデータd101とデータd102を読み出し、取得する。そして、ユーザー適応制御部24は、取得したメタデータd101を解析し、データの構造と構造の各セグメントに付加される少なくとも1つ以上のセグメント観点及びセグメント観点における優先度を抽出し、読み出したデータ(コンテンツ)d102を識別する(P1701)。次に、ユーザー適応制御部24は、ユーザープリファレンスd103から識別したコンテンツに対応するユーザー嗜好記述(例えばユーザー嗜好記述131)を選択する(P1702)。さらに、ユーザー適応制御部24は、ユーザー嗜好記述131に含まれるユーザー観点(キーワード)を記載された順番に整列する。図12の例では、記載順、つまり上の行から順に、キーワード155a、キーワード155b、キーワード155cの順に整列する。そして、最初に、つまり最も上位に記載されたユーザー観点を選択する(P1704)。このように、キーワードを記載された順番に整列するのは、実施の形態4にかかるユーザープリファレンスd103にユーザー優先度が付与されていないから、何らかのユーザー優先度に対応する優先度を付与する必要があるからである。実施の形態3では、このユーザー優先度の代わりとして、キーワードの優先度を記述した順として設定している。
次に、ユーザー適応制御部24は、優先度の高いユーザー観点(最初のユーザー観点)から順に、そのユーザー観点と合致するセグメントをデータd102から選択するような情報をセグメント選択部26に送る。
そして、セグメント選択部26は、ユーザー適応制御部24から送られてきた情報により、最初のユーザー観点とセグメントのセグメント観点とを比較し、最初のユーザー観点と一致するセグメント観点が付与されたセグメントがあるか判断する(P1705)。
次に、最初のユーザー観点と一致するセグメント観点が付与されたセグメントの選択動作に移る。
まず、セグメント選択部26はユーザー観点に合致するセグメントを仮選択する(P1706)。次に、セグメント選択部26はメタデータd101に含まれる全てのセグメントに対して仮選択が終了したか判断し(P1707)、終了していなければ、メタデータd101を用いて次のセグメントを抽出し、P1705、P1706の処理をする。このようにして、データd102に含まれる全てのセグメントに対しての仮選択ができる。
そして、P1707において、データ適応部22が全てのセグメントに対して仮選択が終了したと判断すると、仮選択されたセグメントをセグメントに付与されたセグメント優先度順に整列する(P1708)。これは、後述するセグメントの本選択時にセグメント優先度の高いセグメントから本選択するためである。
そして、まずデータ適応部22が最もセグメント優先度の高いセグメントを本選択する(P1709)。次にデータ適応部22が、仮選択した全てのセグメントの本選択が終了したか判断する(P1710)。そして、P1710において、データ適応部22が仮選択した全てのセグメントの本選択が終了していないと判断すると、本選択したセグメントのデータ長が時間長、空間範囲またはその両方の制約条件を超えたか判断する(P1711)。そして、データ適応部22がこれらの制約条件を超えない範囲で、P1709からP1711までの動作を繰り返す。
また、P1710において、データ適応部22が仮選択した全てのセグメントの本選択が終了しているという判断をすると、すべてのユーザー観点(キーワード)に対して処理をしたか判断する(P1715)。そして、P1715において、データ適応部22がすべてのユーザー観点に対して処理が終了したと判断した場合は処理を終了する。一方、P1715において、データ適応部22がすべてのユーザー観点に対して処理が終了していないと判断した場合は、次のユーザー観点に対する処理に移行する。
ここで、既に上述した処理で選択済みのセグメントに対して、再度処理を行って再度選択することは無意味である。よって、まず、データ適応部22が未選択のセグメントを抽出し、未選択のセグメントに限定して以下の処理を行うようにする(P1714)。そして、データ適応部22が次のユーザー観点を選択し(P1713)、P1705からP1711の処理をする。
さらに具体的にセグメント選択動作について図13を用いて説明する。まず、データ適応部22がユーザープリファレンス(ユーザー嗜好記述)131に含まれるユーザー観点(ユーザーキーワード)のうち最も上の行に記載された、つまり優先度が高いKWD#1があるサブセグメントを探す。サブセグメント63のキーワード631、サブセグメント66のキーワード661には、それぞれKWD#1がある。次に、データ適応部22がサブセグメント63、サブセグメント66に時間長制約を加味し、サブセグメント63、サブセグメント66から時間長制約が厳しい順に選択する。
具体的には、まず、時間長制約が厳しくない、つまり時間長が短いサブセグメント66が最も優先されて出力データd102aとして選択される。そして、次に、サブセグメント63が出力データ102bを構成するセグメントとして選択される。
同様に、データ適応部22がユーザープリファレンスd103に含まれるユーザー観点のうち次に優先度が高いKWD#2があるサブセグメントを探す。セグメント61を構成する全てのサブセグメントにKWD#2が含まれる。よって、ここではどのサブセグメントが優先されるかを決定する必要がある。
具体的には、データ適応部22が各サブセグメントに付加されるセグメント観点のセグメント優先度を比較する。図13の例では、サブセグメント63、サブセグメント62、サブセグメント65、サブセグメント66が同優先度で、次にサブセグメント64、サブセグメント67と優先度が続く。また、サブセグメント67はすでに選択済みであるので、以下の処理対象から省く。
よって、データ適応部12が出力データd102bを選択した後に、更に時間長制約が許容される場合には、セグメント優先度がサブセグメント64よりも高いサブセグメント65がサブセグメント63に加えて出力データ102cを構成するサブセグメントとして選択される。残ったサブセグメント64はKWD#2とKWD#3を含み、セグメント優先度がサブセグメント65より低いので、最も時間長制約が緩い場合に、サブセグメント64はサブセグメント63とサブセグメント65に加えて出力データストリーム102dを構成するサブセグメントとして選択される。
またユーザー適応制御部24は、選択されたセグメントに付加されるキーワードの優先度に応じて、キーワードと合致するユーザープリファレンスd103に含まれるユーザー観点の優先度を更新する。
このようにして、データd102からユーザープリファレンスd103に適応するセグメントを選択し、データd102をユーザープリファレンスd103に適合化できる。
そして、次に、端末適応制御部25が実施の形態1と同様に、図7のフローにしたがって、セグメント選択部26から送られてくる選択されたセグメントの解像度変換をする。
次に、ネットワーク適応制御部28の動作について図9を用いて説明する。図9は、実施の形態4にかかるネットワーク適応制御部28の処理フロー図である。
ネットワーク適応制御部28は、ネットワーク2Aを介して端末2Bから送られてきたネットワークプリファレンスd205をネットワークプリファレンス取得部36から取得する。そして、ネットワーク適応制御部28は、ネットワーク2Aの伝送帯域を識別する(P901)。次に、ネットワーク適応制御部28は、セグメント選択部26によって選択されたセグメントが自身の属性として持つセグメント優先度を判定する(P902)。そして、ネットワーク適応制御部28は、変換されたデータが伝送帯域より大きいか判断する(P903)。
P903において、ネットワーク適応制御部28が、変換されたデータが伝送帯域より大きいと判断した場合には、ネットワーク適応制御部28はデータ全体を圧縮するか、データの一部を伝送するか、データ全体を伝送しないか、データの一部を変換して伝送するかを決定する(P904)。
一方、P903において、ネットワーク適応制御部28が、変換されたデータが伝送帯域より大きくないと判断した場合には、ネットワーク適応制御部28は変換されたセグメントのデータが伝送帯域より小さいか判断する(P905)。P905において、ネットワーク適応制御部28が伝送帯域より変換されたデータが小さいと判断した場合には、ネットワーク適応制御部28は未伝送データの追加伝送するか、伝送しないか、変換または変換を元に戻して伝送するかを決定する(P906)。
そして、データ量調整部29はネットワーク適応制御部28の決定内容を実際に選択されたセグメントに対して適応し、データ量を調整して端末2Bに伝送する。端末2Bは受信したセグメントを蓄積媒体2Cに記録する。
以上のように、実施の形態4によれば、メタデータからデータの構造及び構造の各セグメントに付加される少なくとも1つ以上の観点及び観点における優先度を抽出し、ユーザープリファレンスに含まれるユーザー観点と合致する観点の優先度に基づいてセグメントの選択を行い、端末プリファレンスに含まれる端末能力情報に従って選択されたセグメントの時間及び空間解像度変換を行い、ネットワークプリファレンスに含まれる伝送帯域に従って選択されたセグメントのデータ量を調整することで、ユーザーが受信したい形態でかつ、ネットワークの状態に合わせてスケーラブルにデータ適応を行うことができる。
なお、実施の形態3及び実施の形態4において、ユーザー観点の優先度を記述順としたが、その順番が逆であったり、記述した順の中心に位置するものを最も高くするなどその他の記述方法で各ユーザー観点の優先度を表現してもよい。
また、実施の形態2および実施の形態4では、図8のようにサーバー20側に制御手段であるユーザー適応制御部24、端末適応制御部25、ネットワーク適応制御部28を設けた形態で説明したが、図15に示すようにユーザー適応制御部24、端末適応制御部25、ネットワーク適応制御部28を端末2Bに設ける形態でも良い。
この形態の場合は、サーバー20から端末2Bにメタデータd102を送って、端末2Bでデータd102をユーザー適応制御部25でユーザー適応し、その結果をサーバー20に送る。そして、サーバー20が、ユーザー適応制御部25から送られてきた情報に基づいてデータd102からセグメントを選択し、選択したセグメントを端末2Bに送信する。また、端末2Bの端末適応制御部25からサーバー20の解像度変換部27を制御する信号を送り、端末2Bのネットワーク適応制御部28からサーバー20のデータ量調整部29を制御する信号を送る。解像度変換部27およびデータ量調整部29は、端末2Bから送られてくる制御信号に応じて動作し、セグメント選択部26が選択したデータを処理し、処理したセグメントを端末2Bの蓄積媒体2Cに送る。
また、上記実施例では、セグメントもしくはサブセグメントに対してそれぞれ1つのセグメント観点をわりあてた形態で説明した。しかし、同一のセグメント観点が付与されたセグメントあるいはサブセグメントが複数ある場合に、どれかひとつのセグメントまたはサブセグメントにセグメント観点を付加し、他のセグメントもしくはサブセグメントにはそのセグメント観点に対するリンク情報を付与する形態であっても良い。
これにより、あるセグメントもしくはサブセグメントのセグメント観点を他のセグメントもしくはサブセグメントのセグメント観点に対するリンクで表現できる。
以下、この形態について、図16、図17を使用して詳細に説明する。図16は、本発明の実施の形態のセグメントのその他の形態を示す図である。図.17は、本発明の実施の形態のセグメントの記述例を示す図である。
図16からわかるように、セグメント1601は、実施の形態1から実施の形態4で既に説明した構造を有するセグメントである。セグメント1601には、セグメント観点とセグメント優先度が付与されている。
セグメント1602と、セグメント1603とは、同一のセグメント観点が付与されている。セグメント1603には、セグメント1602に対してのリンク情報が付与されていて、セグメント1602にリンクしている。
セグメント1602およびセグメント1603について図17を使用して詳細に説明する。
セグメント1602には、セグメント観点(キーワード)のID番号(id)1701が記載されている。この例では、ID番号1701は1である。また、セグメント1602には、キーワードに対するセグメント優先度(P)1702が記載されている。この例では、セグメント優先度は5である。そして、セグメント1602にはキーワードとして、”TeamA”が記載されている。
また、セグメント1603には、リンク情報でる他のセグメント観点(キーワード)に対する参照番号(idref)1703が記載されている。この例では、参照番号1701は1である。つまり、セグメント1603は、ID番号が1のキーワードを参照している。
よって、セグメント1603のキーワードは”TeamA”になる。セグメント1603には、キーワードに対するセグメント優先度(P)1704が記載されている。この例では、セグメント優先度は2である。
このように、セグメントキーワード同士をリンクさせることで、すべてのセグメントにキーワードを記載する必要がなくなる。また、セグメントキーワード同士をリンクさせることによりセグメント間の関係が明確になる。
(実施の形態5)
以下、本発明の実施の形態5におけるデータ適合化装置について説明する。システム構成としては実施の形態1から実施の形態4と同様である。
実施の形態5は、セグメントまたはサブセグメントに付加するセグメント観点に関して、登場するセグメント観点すべてをまとめた表(観点表)を文脈構造記述データの最上位層の要素であるコンテンツの子要素として持たせたものである。
次に、実施の形態5にかかるデータ構造について、図18、図19を用いて説明する。図18は、実施の形態5におけるデータ構造を示す図である。図19は、実施の形態5におけるデータの記述例を示す図である。
図18からわかるように、コンテンツは、観点表1801を子要素として有する。観点表1801には、コンテンツに含まれる複数のセグメント観点1802a〜1802nが格納されている。
また、コンテンツには複数のセグメント1803〜1805が含まれている。セグメント1803には、観点表1801に対してのリンク情報が付与されていて、観点表1801のセグメント観点1802aにリンクしている。セグメント1804には、観点表1801に対してのリンク情報が付与されていて、観点表1801のセグメント観点1802bにリンクしている。セグメント1804には、観点表1801に対してのリンク情報が付与されていて、観点表1801のセグメント観点1802cにリンクしている。また、セグメント1803〜1805には、それぞれのセグメント観点に対するセグメント優先度が付与されている。
次に、実施の形態5にかかるデータ構造について図19を使用して詳細に説明する。
観点表1801には、セグメント観点1802aから1802cが記載されている。セグメント観点1802aには、ID番号(id)1901aが記載されている。この例では、ID番号1901aは1である。また、セグメント観点1802aは、”A”というテキストで表されている。
また、セグメント観点1802bには、ID番号(id)1901bが記載されている。この例では、ID番号1901bは2である。また、セグメント観点1802bは、”B”というテキストで表されている。セグメント観点1802cには、ID番号(id)1901cが記載されている。この例では、ID番号1901cは3である。また、セグメント観点1802cは、”C”というテキストで表されている。
一方、セグメント1803〜1805には、観点表1801のセグメント観点1802a〜1802cに対するリンク情報である参照番号(idref)1903a〜1903cがそれぞれ記載されている。
この例では、セグメント1803の参照番号1903aは1である。つまり、セグメント1803は、ID番号が1のユーザー観点1802aを参照している。よって、セグメント1803のキーワードは”A”になる。さらに、セグメント1803には、キーワードに対するセグメント優先度(P)1904aが記載されている。この例では、セグメント優先度は2である。また、セグメント1804の参照番号1903bは2である。つまり、セグメント18034、ID番号が2のユーザー観点1802bを参照している。よって、セグメント1804のキーワードは”B”になる。
さらに、セグメント1804には、キーワードに対するセグメント優先度(P)1904bが記載されている。この例では、セグメント優先度は3である。また、セグメント1805の参照番号1903cは3である。つまり、セグメント1805は、ID番号が1のユーザー観点1802cを参照している。よって、セグメント1805のキーワードは”C”になる。さらに、セグメント1805には、キーワードに対するセグメント優先度(P)1904cが記載されている。この例では、セグメント優先度は4である。
このような構成とすることで、ユーザーにあらかじめセグメント観点リストの提示が容易となる。これにより、ユーザーが好みのセグメント観点を入力する前にそこに現れるセグメント観点を知ることが出来る。また、ユーザーのセグメント観点入力を観点表からの選択作業で出来る。
なお、各セグメントまたはサブセグメントには、この観点表の中に対応する観点へのリンクとそれに対するスコアの組を付加する構成にしてもよい。
また、観点表は、コンテンツではなく、いずれかのセグメントまたはサブセグメントに持たせる構成であっても、また、別途記述するものであっても構わない。
また、すべてを観点リストへのリンクで表現するのではなく、観点リストへのリンクとスコアの組、および観点とスコアの組を混在させてもよい。
図20は、観点とスコアの組を混在させたデータ構成を示した図である。図20からもわかるように、コンテンツには、観点表1801に対するリンク情報を持つセグメント1803,1804と、観点表1801に対するリンク情報を持たないセグメント2001が混在している。
図21は、図20に示すデータ構成の記述例である。この図からあきらかなように、観点表1801には、文脈内容記述データに現れるすべてのセグメント観点を記述する必要はなく、リンクで参照されるものだけになっている。また、セグメント2001には、観点表1801への、リンク情報が含まれない。
(実施の形態6)
以下、本発明の実施の形態6のデータ適合化装置について説明する。
実施の形態6は、文脈内容記述データに現れるセグメント観点の一覧を表す観点表を用意し、ユーザーに対して入力前に提示するものである。
以下、実施の形態6にかかるデータ構造について図22を用いて説明する。
実施の形態6にかかるコンテンツは、観点表2101と複数のセグメント2103〜2105から構成されている。観点表2101には、複数のセグメント観点2102a〜2102nが含まれている。
また、セグメント2103にはセグメント観点2106とセグメント優先度2107が、セグメント2104にはセグメント観点2108とセグメント優先度2109が、セグメント2105にはセグメント観点2110とセグメント優先度2122が、含まれている。セグメント2103〜2105には、実施の形態5のセグメントとは違い観点表2101に対するリンク情報は含まれていない。つまり、セグメント2103〜2105と観点表2101とは独立した構成になっている。
図23は、本発明の実施の形態6にかかるデータの記述例を示す図である。図23からわかるように、観点表2101には、セグメント2103〜2105に含まれる観点2106、2108、2110が格納されている。具体的には、観点2106、2108、2110に対応して観点2301〜2303が格納されている。
そして、ユーザーがユーザー観点を入力する前に、観点表2101を表示するようにする。
これにより、ユーザーが好みのユーザー観点を入力する前にそこに現れる観点を知ることが出来る。また、ユーザーのユーザー観点入力をこの観点表からの選択作業で出来る、といった効果がある。
(実施の形態7)
以下、本発明の実施の形態7のデータ適合化装置について説明する。
実施の形態7は、文脈内容記述データをコンピュータが処理できるように表現する場合に、構造を記述する部分と、属性である観点とそのスコアを記述する部分に分けて表現したものである。
以下、図24、25を用いて実施の形態7について説明する。図24は、実施の形態7におけるデータ構造を示す図である。図25は、実施の形態7におけるデータの記述を示す図である。
図24の上半分に記載されたものが構造を記述する構造部分2200a、下半分に記載されたものが属性であるセグメント観点とその優先度を記述する属性部分2200bである。構造部分2200aのコンテンツには、複数のセグメント2201a〜2201nが記述されている。
なお、この図では、構造を記述する部分は最も簡単な構成を記述しているが、他の実施の形態で記述したような構成がとれる。
また、属性部分2200bには、複数のセグメント観点2202a、2202bが記述されている。各セグメント観点2202a、2202b毎に、対象となるセグメントやサブセグメントへのリンク情報2203a〜2203fと、各セグメント観点2202a、2202bに関する優先度2204a〜2204fの組とがまとめられている。
次に、実施の形態7にかかるデータ構造について図25を用いて詳細に説明する。
図25からわかるように、コンテンツには、複数のセグメント2201a〜2201cが記載されている。セグメント2201aには、セグメントのID番号(id)2301aが付与されている。この例では、id2301aは1である。セグメント2201bには、セグメントのID番号(id)2301bが付与されている。この例では、id2301aは2である。セグメント2201nには、セグメントのID番号(id)2301nが付与されている。この例では、id2301nはnである。
一方、図25からセグメント観点2202aは、”TeamA”であることがわかる。また、セグメント観点2202aには、複数のセグメント優先度2204a〜2204cが記載されている。この例では、セグメント優先度2204aの優先度は3、セグメント優先度2204bの優先度は2、セグメント優先度2204cの優先度は5である。
また、セグメント優先度2202aには、それぞれリンク情報2203a〜2203cが付与されている。リンク情報2203a〜2203cは、セグメント2201a〜2201cのID番号2301a〜2301cを参照するための参照番号Idrefが記載されている。この例では、セグメント優先度2204aのidrefは1、セグメント優先度2204bのidrefはn、セグメント優先度2204cのidrefは2である。よって、セグメント優先度2204aの対象セグメントはセグメント2201a、セグメント優先度2204bの対象セグメントはセグメント2201c、セグメント優先度2204cの対象セグメントはセグメント2201nとなる。
このように、セグメント優先度2204a〜2204cからセグメント2201a〜2201cを参照できるようになっている。
また、図25からセグメント観点2202bは、”TeamB”であることがわかる。また、セグメント観点2202bには、複数のセグメント優先度2204d〜2204fが記載されている。この例では、セグメント優先度2204dの優先度は4、セグメント優先度2204eの優先度は5、セグメント優先度2204fの優先度は2である。
また、セグメント優先度2202bには、それぞれリンク情報2203d〜2203fが付与されている。リンク情報2203d〜2203fは、セグメント2201a〜2201cのID番号2301a〜2301cを参照するための参照番号idrefが記載されている。この例では、セグメント優先度2204dのidrefは2、セグメント優先度2204eのidrefは3、セグメント優先度2204fのidrefは1である。よって、セグメント優先度2204dの対象セグメントはセグメント2201b、セグメント優先度2204eの対象セグメントはセグメント2201c、セグメント優先度2204fの対象セグメントはセグメント2201aとなる。
このように、セグメント優先度2204a〜2204fからセグメント2201a〜2201nを参照できるようになっている。
以下、このようなデータ構造の場合のセグメント選択処理について説明する。まず、上述したセグメント選択部16、26が、属性部分2200bに記述した部分から対象となるセグメント観点2202a、2202bごとに、優先度2204a〜2204fを選択する。選択した優先度2204a〜2204fには、それぞれリンク情報2203a〜2203fが付与されているので、選択した優先度2203a〜2203fの対象となるセグメント2201a〜2201nを選択することができる。このようにして、セグメント選択部16,26は、セグメント2202a、2202b毎に、観点優先度2204a観点を指定することで、対象となるセグメント2201a〜2201nを選択できる。
なお、リンク情報2203a〜2203fと優先度2204a〜2204fの部分は、同一ファイルとせず、別々に記述されたものであっても、同様の効果が得られる。
また、セグメントとセグメント観点を双方向のリンクで結ぶ形態も考えられる。
以下、図26、27を用いてこの形態について説明する。図26は、実施の形態7におけるデータ構造を示す図である。図27は、実施の形態7におけるデータの記述を示す図である。
この形態のデータも、実施の形態7と同様、構造部分2400aと属性部分2400bとから構成されている。構造部分2400aのコンテンツには、複数のセグメント2401a〜2401nが記述されている。また、属性部分2400bには、複数のセグメント観点2402a、2402bが記述されている。各セグメント観点2402a、2402b毎に、対象となるセグメントやサブセグメントへのリンク情報2403a〜2403fと、各セグメント観点2402a、2402bに関する優先度2404a〜2404fの組とがまとめられている。
また、この形態では、構造部分2400aと属性部分2400bとを双方向にリンクさせるため、セグメント2401a〜セグメント2401nにもセグメント優先度2404a〜2404fに対するリンク情報が記載されている。
次に、この実施にかかるデータ構造について図25を用いて詳細に説明する。
図27からわかるように、コンテンツには、複数のセグメント2401a〜2401cが記載されている。セグメント2401aには、セグメントのID番号(id)2501aが付与されている。この例では、id2501aは1である。セグメント2401bには、セグメントのID番号(id)2501bが付与されている。この例では、id2501aは2である。セグメント2401cには、セグメントのID番号(id)2501cが付与されている。この例では、id2501cは3である。
一方、セグメント観点2402aには、複数のセグメント優先度2404a〜2404cが記載されている。この例では、セグメント優先度2404aの優先度は3、セグメント優先度2404bの優先度は2、セグメント優先度2404cの優先度は5である。
また、セグメント優先度2402aには、それぞれリンク情報2403a〜2403cが付与されている。リンク情報2403a〜2403cは、セグメント2401a〜2401cのID番号2501a〜2501cを参照するための参照番号Idrefが記載されている。この例では、セグメント優先度2404aのidrefは1、セグメント優先度2404bのidrefは2、セグメント優先度2404cのidrefはnである。
よって、セグメント優先度2404aの対象セグメントはセグメント2401a、セグメント優先度2404bの対象セグメントはセグメント2401b、セグメント優先度2404cの対象セグメントはセグメント2401nとなる。
一方、セグメント観点2402bには、複数のセグメント優先度2404d〜2404fが記載されている。この例では、セグメント優先度2404dの優先度は4、セグメント優先度2404eの優先度は5、セグメント優先度2404fの優先度は2である。
また、セグメント優先度2402bには、それぞれリンク情報2403d〜2403fが付与されている。リンク情報2403d〜2403fは、セグメント2401a〜2401cのID番号2501a〜2501cを参照するための参照番号Idrefが記載されている。この例では、セグメント優先度2404dのidrefは2、セグメント優先度2404eのidrefは3、セグメント優先度2404fのidrefは1である。
よって、セグメント優先度2404dの対象セグメントはセグメント2401b、セグメント優先度2404eの対象セグメントはセグメント2401c、セグメント優先度2404fの対象セグメントはセグメント2401aとなる。
また、セグメント優先度2402aには、それぞれ優先度ID番号(idref)2503a〜2503cが付与されている。この例では、優先度ID番号2503aはp101、優先度ID番号2503bはp102、優先度ID番号2503cはp103である。
また、セグメント優先度2402bには、それぞれ優先度ID番号(idref)2503d〜2503fが付与されている。この例では、優先度ID番号2503dはp201、優先度ID番号2503eはp202、優先度ID番号2503fはp203である。
一方、セグメント2401a〜2401nには、セグメント優先度2404a〜2404fに対するリンク情報である、優先度ID2503a〜2503cを参照する優先度参照番号(idrefs)2502a〜2502eが付与されている。この例では、idrefs2502aはp101、idrefs2502bはp203、idrefs2502cはp102、idrefs2502dはp201、idrefs2502eはp202である。
よって、セグメント2401aの対象となるセグメント優先度はセグメント優先度2404a、2404fであり、セグメント2401bの対象となるセグメント優先度はセグメント優先度2404c、2404dであり、セグメント2401nの対象となるセグメント優先度はセグメント優先度2404bとなる。
このように、セグメント2401a〜2401nとセグメント優先度2204a〜2204fとが双方から参照できるようになっている。これにより、上述したセグメント選択部16、26が、実施の形態1〜実施の形態6に記載した手法でも、実施の形態7で記載した手法でも、処理を行うことができる。
(実施の形態8)
以下、本発明の実施の形態8のデータ適合化装置について説明する。
実施の形態8は、実施の形態7と同様に、文脈内容記述データの表現を、構造を記述する部分と、属性である観点とそのスコアを記述する部分に分けて表現するものである。ただし、実施の形態8の場合は、セグメントへの、リンクおよびセグメント優先度との組で表現するのではなく、各セグメント観点毎にセグメント優先度の高い順に記述するものである。
以下、図28、29を用いて実施の形態8について説明する。図28は、実施の形態8におけるデータ構造を示す図である。図29は、実施の形態8におけるデータの記述を示す図である。
図28に示すように、実施の形態8にかかるデータ構造は、構造を記述する構造部分2600aと属性部分2600bとから構成されている。構造部分2600aのコンテンツには、複数のセグメント2601a〜2601nが記述されている。属性部分2600bには、複数のセグメント観点2602a、2602bが記述されている。各セグメント観点2602a、2602b毎に、対象となるセグメントやサブセグメントへのリンク情報2603a〜2603fが記述されている。
次に、実施の形態8にかかるデータ構造について図29を用いて詳細に説明する。
図29からわかるように、コンテンツには、複数のセグメント2601a〜2601nが記載されている。セグメント2601a〜2601nには、それぞれセグメントのID番号(id)2701a〜2701nが付与されている。この例では、id2701aは1、id2701aは2、id2701nはnである。
一方、図29から、セグメント観点2602aは、”TeamA”であることがわかる。また、セグメント観点2602aには、それぞれリンク情報2603a〜2603cが付与されている。リンク情報2603a〜2603cは、セグメント2601a〜2601nのID番号2701a〜2701nを参照するための参照番号idref2702a〜2302cが記載されている。この例では、idref2702aは1、idref2702bはn、idref2702cは2である。
また、リンク情報2603a〜2603cは、記述順がセグメント優先度として認識されるため、この例では、リンク情報2603aのセグメント優先度が最も高く、リンク情報2603cのセグメント優先度が最も低くなる。
よって、セグメント2601aのセグメント優先度が最も高く、セグメント2601bのセグメント優先度が最も低くなる。
一方、図29から、セグメント観点2602bは、”TeamB”であることがわかる。また、セグメント観点2602bには、それぞれリンク情報2603d〜2603fが付与されている。リンク情報2603d〜2603fは、セグメント2601a〜2601nのID番号2701a〜2701nを参照するための参照番号idref2702d〜2302fが記載されている。この例では、idref2702dは2、idref2702eは3、idref2702fは1である。
また、リンク情報2603d〜2603fは、記述順がセグメント優先度として認識されるため、この例では、リンク情報2603dのセグメント優先度が最も高く、リンク情報2603fのセグメント優先度が最も低くなる。
よって、セグメント2601bのセグメント優先度が最も高く、セグメント2601aのセグメント優先度が最も低くなる。
このように、セグメント観点2602a、bにセグメント優先度が記載されていなくても、セグメント観点2602a、bからセグメント2201a〜2201nを参照でき、優先度を決定できるようになっている。
なお、図28では、各セグメント(またはサブセグメント)に対して、すべて異なるセグメント優先度を有するようになっているが、図30のように同じセグメント優先度のものを記述できるようにしても良い。
図30に示す例では、属性部分2800のセグメント観点2802に、左から順にセグメント優先度が高いものを表し、同じセグメント優先度のものは上下に並べて記述している。
具体的には、リンク情報2803aとリンク情報2803bを上下に、リンク情報2803aをリンク情報2803cの左に記述している。そして、リンク情報2803aはセグメント2601bにリンクし、リンク情報2803cはセグメント2601aにリンクし、リンク情報2803bはセグメント2601nにリンクしている。つまり、セグメント2601bとセグメント2601nは同じセグメント優先度を有し、セグメント2601aはセグメント2601bとセグメント2601nより低いセグメント優先度を有することになる。
ここで、図31を用いて図30のデータ構造について詳細に説明する。
図31からわかるように、コンテンツには、複数のセグメント2601a〜2601nが記載されている。セグメント2601a〜2601nには、それぞれセグメントのID番号(id)2901a〜2901nが付与されている。この例では、id2901aは1、id2901aは2、id2901nはnである。
一方、図31から、セグメント観点2802は、”TeamA”であることがわかる。また、セグメント観点2602aには、それぞれリンク情報(idref)2803a〜2803cが付与されている。この例では、idref2803aは2、idref2803bは1、idref2803cはnである。
また、リンク情報2803a〜2803cは、記述順がセグメント優先度として認識されるため、この例では、リンク情報2803aのセグメント優先度が最も高く、リンク情報2803cのセグメント優先度が最も低くなる。
よって、セグメント2601aのセグメント優先度が最も高く、セグメント2601bのセグメント優先度が最も低くなる。
このようにして、セグメント優先度をセグメント観点に記載しなくても、同じセグメント優先度を有するセグメントを記述することができる。
また、上述したセグメント選択部16、26が、実施の形態7で記載した手法により、セグメントの選択を行う。
(実施の形態9)
本発明の実施の形態1〜8までは、コンテンツ識別子によりコンテンツの識別を行う形態である。しかし、コンテンツ識別により、コンテンツ識別を行わず、キーワードまたはキーワードの共起確率によりコンテンツの識別を行ってもよい。また、その他の方法によりコンテンツを識別しても構わない。
また、ユーザープリファレンスをコンテンツ毎に用意せず、ユーザープリファレンスを年代やグループ毎等のいくつかの嗜好カテゴリや一般的な嗜好として、ユーザー嗜好に関係なくデフォルトとして用意してもよい。
実施の形態9は、コンテンツ識別によりコンテンツ識別を行わないものである。以下、実施の形態9にかかるユーザープリファレンスについて、図32、33を用いて説明する。図32、33は、実施の形態9にかかるユーザープリファレンスの記述定義を示す図である。
なお、図中、ユーザープリファレンスはUserPreference、キーワードはPreferenceSummaryTheme、コンテンツを表示するため時間長情報はSummaryDuration、キーワードに対する優先度はpreferencevalueで示されている。
図からわかるように、UserPreference3201は、要素としてユーザー情報として、ユーザーを識別するための識別子であるUserIdentifier3202と、ユーザーの嗜好情報であるUsagePreference3203とを含むと定義されている。また、UsagePreference3203は、0個又は1個含むと定義されている。
次に、UserIdentifier3202の定義について説明する。UserIdentifier3202は、図中3204で示すように、要素を含まないと定義されている。また、UserIdentifier3202は、書き換え可能かを示す情報であるprotected3204と、ユーザー名であるuserName3205とを属性として含むと定義されている。protected3204は、書き換え可能である”true”、書き換え不可能である”false”、ユーザーに応じて書き換え可能になる”user”の中から一つを選択するようになっている。また、protected3204のデフォルトは”true”になっている。userName3205は、CDATAつまりテキスト情報であると定義されている。また、userName3205は、デフォルトとして”anoymous”が設定されている。
次に、UsagePreference3203の定義について説明する。図中3206に示すように、UsagePreference3203は、要素として時間や天候などの状況などの情報を持つBrowsingPreferences3207を0個以上含むと定義されている。また、UsagePreference3203は、管理者などにより自動的に書き換え可能かを示す情報であるallowAutomaticupdate3208を属性として含むと定義されている。allowAutomaticupdate3208は、書き換え可能である”true”、書き換え不可能である”false”、ユーザーに応じて書き換え可能になる”user”の中から一つを選択するようになっている。また、allowAutomaticupdate3208のデフォルトは”true”になっている。
次に、BrowsingPreferences3207の定義について説明する。図中3209に示すように、BrowsingPreferences3207には、要素としてSummarypreferences3210を0個以上持つと定義されている。そして、BrowsingPreferences3207には、要素として書き換え可能かを示す情報であるprotected3211と、BrowsingPreferences3207の優先度であるprefernceValue3212とを属性として含むと定義されている。protected3211は、書き換え可能である”true”、書き換え不可能である”false”、ユーザーに応じて書き換え可能になる”user”の中から一つを選択するようになっている。また、protected3211のデフォルトは”true”になっている。prefernceValue3212は、CDATAつまりテキスト情報であると定義されている。また、prefernceValue3212は、デフォルトとして100が設定されている。
このように、BrowsingPreferences3207がprefernceValue3212を持つので、Userpreference3201をBrowsingPreferences3207という上位の階層においても、優先度付けして処理を行うことができる。
次に、SummaryPreferences3210の定義について説明する。図中3301で示すように、SummaryPreferences3210は、キーワードであるPreferredSummaryTheme3302を0個以上、表示期間情報であるSummaryDuration3303を0又は1個、要素として持つと定義されている。
また、SummaryPreferences3210は、優先度であるpreferncevalue3304を属性として持つと定義されている。また、preferncevalue3304のデフォルトは100であると、定義されている。
このように、SummaryPreferences3210が優先度であるpreferncevalue3304を属性として持つことで、キーワードであるPreferredSummaryTheme3302の上位の階層であるSummaryPreferences3210においても、優先度付けした処理ができる。
次に、PreferredSummaryTheme3302の定義について説明する。図中3305に示すように、PreferredSummaryTheme3302は、要素としてテキストデータを有すると定義されている。また、PreferredSummaryTheme3302は、オプションとして言語情報であるxml:lang3306と、優先度情報であるpreferenceValue3307を属性として持つと定義されている。また、優先度情報であるpreferenceValue3307のデフォルトは、100であると定義されている。
このように、キーワードであるPreferredSummaryTheme3302が優先度情報であるpreferenceValue3307を属性として持つことで、PreferredSummaryTheme3302を優先度付けした処理ができる。
また、図中3308に示すようにSummaryDuration3303は、要素としてテキストデータを含むと定義されている。
このように、実施の形態9にかかるユーザープリファレンスは、コンテンツ毎の処理ではなく、BrowsingPreferences3207、SummaryPreferences3210という、PreferredSummaryTheme3302の上位の階層毎に処理することができる。また、BrowsingPreferences3207、SummaryPreferences3210という、PreferredSummaryTheme3302の上位の階層毎に優先度付けした処理ができる。
次に、実施の形態9にかかるユーザープリファレンスの具体的な記述について図34を用いて説明する。図34は、実施の形態9にかかるユーザープリファレンスの記述例を示す図である。図34に示すユーザープリファレンスの記述例は、図4に示すユーザープリファレンスの記述例を実施の形態9に対応するようにしたものである。
図中3401に示すように、UserIdentifierは、protectedとして”true”が、userNameとして”Bob”が記述されている。また、図中3402に示すように、UsagePreferencesは、allowAutomaticUpdateとして”false”が記述されている。また、図中3403に示すように、BrowsingPreferencesは、protectedとして”true”が記述されている。
また、UserPreference3400には、2つのSummaryPreferences3404a、3404bが記述されている。
図中3405aに示すように、SummaryPreferences3404aには、PreferredSummaryThemeとして、”Nakata”という情報が記述されている。また、図中3405aに示すPreferredSummaryThemeのpreferenceValueは500である。また、図中3406aに示すように、SummaryPreferences3404aには、PreferredSummaryThemeとして、”Soccer”という情報が記述されている。また、図中3406aに示すPreferredSummaryThemeのpreferenceValueは400である。図中3407aに示すように、SummaryPreferences3404aには、PreferredSummaryThemeとして、”Japan”という情報が記述されている。また、図中3407aに示すPreferredSummaryThemeのpreferenceValueは200である。また、図中3408aに示すように、SummaryDurationには、”PT5M”、つまり5分という情報が記述されている。
図中3405bに示すように、SummaryPreferences3404bには、PreferredSummaryThemeとして、”Headline”という情報が記述されている。また、図中3405bに示すPreferredSummaryThemeのpreferenceValueは500である。また、図中3406bに示すように、SummaryPreferences3404bには、PreferredSummaryThemeとして、”Stock”という情報が記述されている。また、図中3406bに示すPreferredSummaryThemeのpreferenceValueは500である。図中3407bに示すように、SummaryPreferences3404bには、PreferredSummaryThemeとして、”Sports”という情報が記述されている。また、図中3407bに示すPreferredSummaryThemeのpreferenceValueは300である。また、図中3408bに示すように、SummaryDurationには、”PT3M”、つまり3分という情報が記述されている。
以上のように、実施の形態9にかかるユーザープリファレンスの定義によっても、図4に対応する内容の記述ができる。
次に、実施の形態9にかかるセグメント記述について説明する。まず、実施の形態9にかかるセグメントの定義について、図35〜図37を用いて説明する。図35〜図37は、実施の形態9にかかるセグメント記述の定義を示す図である。
この例では、セグメントとして、オーディオとビジュアルのセグメントであるAudioVisualSegmentの定義について説明する。
図中3501に示すように、AudioVisualSegment3502には、0個以上のPointOfView3503と、MediaTime3504とを要素として含むと定義されている。PointOfView3503は、セグメントに関する観点を含む要素である。MediaTime3504は、セグメントの時間長などを含む要素である。
また、図中3505に示すように、AudioVisualSegment3502は、識別子であるIDを属性として持つと定義されている。また、AudioVisualSegment3502は、図中3506に示すようにオプションとしてURL参照情報であるhrefと、図中3507に示すようにオプションとしてID参照情報であるidrefを属性として持つと定義されている。
次に、PointOfView3503の定義について説明する。図中3508に示すように、PointOfView3503は、0個か1個のSupplementalInfo3503と、1個以上のValue3510とを要素として持つと定義されている。SupplementalInfo3503は、PointOfView3503の内容を示すコメントなどである。Value3510は、PointOfView3503の優先度情報である。
また、PointOfView3503は、図中3511に示すように、識別子情報であるidをオプションとして属性に持つと定義されている。また、PointOfView3503は、図中3512に示すように、セグメント観点であるviewPointを属性として持つと定義されている。また、viewPointはテキスト情報で記述されると定義されている。
次に、Value3510の定義について説明する。図中3513に示すように、Value3510は要素としてテキスト情報を含むと定義されている。また、図中3514に示すように、Value3510は識別子idを属性として持つと定義されている。また、Value3510の識別子idはオプションであると定義されている。
このように、PointOfView3502と、Value3510がidを持ちAudioVisualSegment3502がこれらのidを参照するidrefを持つことで、AudioVisualSegment3502が、idrefによりPointOfView3502と、Value3510を参照することができる。つまり、AudioVisualSegment3502が、idrefによりPointOfView3502と、Value3510とにリンクすることができる。
次に、SupplementalInfo3509の定義について説明する。図中3601に示すように、SupplementalInfo3509は、FreeTextAnnotation3602もしくはStructuredAnnotation3603を少なくとも1つ要素として持つと定義されている。
また、図中3604に示すように、SupplementalInfo3509は、要素としてテキストデータを持つと定義されている。また、図中3605に示すように、SupplementalInfo3509は、言語情報を属性として有すると定義されている。
次に、StructuredAnnotation3603の定義について説明する。図中3606に示すように、StructuredAnnotation3603は、誰が行ったかを示す情報であるWho3607を0もしくは1個、もしくは何に対して行われたかを示す情報であるWhatObject3608を0個もしくは1個、もしくは何をしたかを示す情報であるWhatAction3609を0個もしくは1個、もしくはどこで行われたかを示す情報であるWhere3610を0個もしくは1個、もしくはいつ行われたかを示す情報であるWhen3611を0個もしくは1個、もしくはなぜ行われたかを示す情報であるWhy3612を0個もしくは1個、要素として持つと定義されている。
また、図中3613〜3618に示すように、Who3607、WhatObject3608、WhatAction3609、Where3610、When3611、Why3612は、要素としてテキスト情報を含むと定義されている。
また、図中3619に示すように、StructuredAnnotation3603は、識別子情報であるidを属性として持つと定義されている。また、図中3620に示すように、StructuredAnnotation3603は、言語情報を属性として持つと定義されている。
このように、StructuredAnnotation3603によって、AudioVisualSegment3502がどのような情報かを容易に認識することができる。
次に、MediaTime3504の定義について説明する。図中3701に示すように、MediaTime3504は、MediaTimePoint3702と、 MediaDuration3703とを要素として持つと定義されている。MediaTimePoint3702は、AudioVisualSegment3502の開始時間情報であり、MediaDuration3703はAudioVisualSegment3502の時間長情報である。
また、図中3704に示すように、MediaTimePoint3702は、テキスト情報を要素として持つと定義されている。また、図中3705に示すように、MediaDuration3703も、テキスト情報を要素として持つと定義されている。
以上、説明したように、AudioVisualSegment3502は定義されている。次に、上述したように定義されたAudioVisualSegment3502の記述例について説明する。
図38は、図17に示すセグメントの記述例を実施の形態9に対応させた記述例である。
図38からわかるように、セグメント1602には、図17の記述例と同様に、セグメント観点(キーワード)のID番号(id)1701が記載されている。また、セグメント1602には、キーワードに対するセグメント優先度(P)1702が記載されている。そして、セグメント1602にはキーワードとして、”TeamA”が記載されている。
また、セグメント1603には、図17の記述例と同様に、リンク情報である他のセグメント観点(キーワード)に対する参照番号(idref)1703が記載されている。よって、セグメント1603のキーワードは”TeamA”になる。また、セグメント1603には、キーワードに対するセグメント優先度(P)1704が記載されている。
このように、実施の形態9によってもセグメント同士をリンクさせることができる。
次に、図19に示すセグメントの記述例を実施の形態9に対応させた記述について図39を用いて説明する。
図39からわかるように、観点表1801には、セグメント観点1802aから1802cが記載されている。セグメント観点1802aには、ID番号(id)1901aが記載されている。また、セグメント観点1802aは、”A”というテキストで表されている。
また、セグメント観点1802bには、ID番号(id)1901bが記載されている。また、セグメント観点1802bは、”B”というテキストで表されている。セグメント観点1802cには、ID番号(id)1901cが記載されている。また、セグメント観点1802cは、”C”というテキストで表されている。
一方、セグメント1803〜1805には、観点表1801のセグメント観点1802a〜1802cに対するリンク情報である参照番号(idref)1903a〜1903cがそれぞれ記載されている。
さらに、セグメント1803には、キーワードに対するセグメント優先度(P)1904aが記載されている。セグメント1804には、キーワードに対するセグメント優先度(P)1904bが記載されている。セグメント1805には、キーワードに対するセグメント優先度(P)1904cが記載されている。
このように、実施の形態9を用いても、ユーザーにあらかじめセグメント観点リストを提示することが容易となる。
次に、図21に示すセグメントの記述例を実施の形態9に対応させた記述について図40を用いて説明する。
図40からあきらかなように、観点表1801には、文脈内容記述データに現れるすべてのセグメント観点を記述する必要はなく、リンクで参照されるものだけになっている。また、セグメント2001には、観点表1801への、リンク情報が含まれない。
このように、図40のような記述により、図21の記述を実施の形態9に対応させることができる。
次に、図23に示すセグメントの記述例を実施の形態9に対応させた記述について図41を用いて説明する。
図41からわかるように、観点表2101には、セグメント2103〜2105に含まれる観点2106、2108、2110が格納されている。具体的には、観点2106、2108、2110に対応して観点2301〜2303が格納されている。
そして、ユーザーがユーザー観点を入力する前に、観点表2101を表示するようにする。このようにして、図41のような記述により、図23の記述を実施の形態9に対応させることができる。
次に、図25に示すセグメントの記述例を実施の形態9に対応させた記述について図42を用いて説明する。
図42からわかるように、コンテンツには、複数のセグメント2201a〜2201cが記載されている。セグメント2201aには、セグメントのID番号(id)2301aが付与されている。セグメント2201bには、セグメントのID番号(id)2301bが付与されている。セグメント2201cには、セグメントのID番号(id)2301cが付与されている。
一方、セグメント観点2202aは、”TeamA”であることがわかる。また、セグメント観点2202aには、複数のセグメント優先度2204a〜2204cが記載されている。
また、セグメント優先度2202aには、それぞれリンク情報2203a〜2203cが付与されている。リンク情報2203a〜2203cは、セグメント2201a〜2201cのID番号2301a〜2301cを参照するための参照番号Idrefが記載されている。
このように、セグメント優先度2204a〜2204cからセグメント2201a〜2201cを参照できるようになっている。
また、セグメント観点2202bは、”TeamB”であることがわかる。また、セグメント観点2202bには、複数のセグメント優先度2204d〜2204fが記載されている。
また、セグメント優先度2202bには、それぞれリンク情報2203d〜2203fが付与されている。リンク情報2203d〜2203fは、セグメント2201a〜2201cのID番号2301a〜2301cを参照するための参照番号Idrefが記載されている。
このように、セグメント優先度2204a〜2204fからセグメント2201a〜2201nを参照できるようになっている。
このように、図42のような記述により、図25の記述を実施の形態9に対応させることができる。
次に、図27に示すセグメントの記述例を実施の形態9に対応させた記述について図43、図44を用いて説明する。
図からわかるように、コンテンツには、複数のセグメント2401a〜2401cが記載されている。セグメント2401aには、セグメントのID番号(id)2501aが付与されている。セグメント2401bには、セグメントのID番号(id)2501bが付与されている。セグメント2401cには、セグメントのID番号(id)2501cが付与されている。
一方、セグメント観点2402aには、複数のセグメント優先度2404a〜2404cが記載されている。
また、セグメント優先度2402aには、それぞれリンク情報2403a〜2403cが付与されている。リンク情報2403a〜2403cは、セグメント2401a〜2401cのID番号2501a〜2501cを参照するための参照番号Idrefが記載されている。
よって、セグメント優先度2404aの対象セグメントはセグメント2401a、セグメント優先度2404bの対象セグメントはセグメント2401b、セグメント優先度2404cの対象セグメントはセグメント2401nとなる。
一方、セグメント観点2402bには、複数のセグメント優先度2404d〜2404fが記載されている。また、セグメント優先度2402bには、それぞれリンク情報2403d〜2403fが付与されている。リンク情報2403d〜2403fは、セグメント2401a〜2401cのID番号2501a〜2501cを参照するための参照番号Idrefが記載されている。
よって、セグメント優先度2404dの対象セグメントはセグメント2401b、セグメント優先度2404eの対象セグメントはセグメント2401c、セグメント優先度2404fの対象セグメントはセグメント2401aとなる。
また、セグメント優先度2402aには、それぞれ優先度ID番号(idref)2503a〜2503cが付与されている。また、セグメント優先度2402bには、それぞれ優先度ID番号(idref)2503d〜2503fが付与されている。
一方、セグメント2401a〜2401cには、セグメント優先度2404a〜2404fに対するリンク情報である、優先度ID2503a〜2503cを参照する優先度参照番号(idrefs)2502a〜2502eが付与されている。
よって、セグメント2401aの対象となるセグメント優先度はセグメント優先度2404a、2404fであり、セグメント2401bの対象となるセグメント優先度はセグメント優先度2404b、2404dであり、セグメント2401cの対象となるセグメント優先度はセグメント優先度2404eとなる。
このように、実施の形態9を用いても、セグメント2401a〜2401cとセグメント優先度2204a〜2204fとが双方から参照できるようになる。
次に、図29に示すセグメントの記述例を実施の形態9に対応させた記述について図45を用いて説明する。
図からわかるように、コンテンツには、複数のセグメント2601a〜2601cが記載されている。セグメント2601a〜2601cには、それぞれセグメントのID番号(id)2701a〜2701cが付与されている。
一方、図から、セグメント観点2602aは、”TeamA”であることがわかる。また、セグメント観点2602aには、それぞれリンク情報2603a〜2603cが付与されている。リンク情報2603a〜2603cは、セグメント2601a〜2601cのID番号2701a〜2701cを参照するための参照番号idref2702a〜2302cが記載されている。
また、リンク情報2603a〜2603cは、記述順がセグメント優先度として認識されるため、この例では、リンク情報2603aのセグメント優先度が最も高く、リンク情報2603cのセグメント優先度が最も低くなる。
よって、セグメント2601aのセグメント優先度が最も高く、セグメント2601bのセグメント優先度が最も低くなる。
一方、図から、セグメント観点2602bは、”TeamB”であることがわかる。また、セグメント観点2602bには、それぞれリンク情報2603d〜2603fが付与されている。リンク情報2603d〜2603fは、セグメント2601a〜2601cのID番号2701a〜2701cを参照するための参照番号idref2702d〜2302fが記載されている。
また、リンク情報2603d〜2603fは、記述順がセグメント優先度として認識されるため、この例では、リンク情報2603dのセグメント優先度が最も高く、リンク情報2603fのセグメント優先度が最も低くなる。
よって、セグメント2601bのセグメント優先度が最も高く、セグメント2601aのセグメント優先度が最も低くなる。
このように、図45の記述により、図29の記述を実施の形態9に対応させられる。
次に、図31に示すセグメントの記述例を実施の形態9に対応させた記述について図46を用いて説明する。
図からわかるように、コンテンツには、複数のセグメント2601a〜2601cが記載されている。セグメント2601a〜2601cには、それぞれセグメントのID番号(id)2901a〜2901cが付与されている。
一方、図から、セグメント観点2802は、”TeamA”であることがわかる。また、セグメント観点2602aには、それぞれリンク情報(idref)2803a〜2803cが付与されている。
また、リンク情報2803a〜2803cは、記述順がセグメント優先度として認識されるため、この例では、リンク情報2803aのセグメント優先度が最も高く、リンク情報2803cのセグメント優先度が最も低くなる。
よって、セグメント2601aのセグメント優先度が最も高く、セグメント2601bのセグメント優先度が最も低くなる。
このように、図46の記述を用いて、図31の記述を実施の形態9に対応させることができる。
(実施の形態10)
実施の形態1から実施の形態9まではユーザープリファレンスをXML-DTDで記述する形態で説明したが、ユーザープリファレンスをRDF、XML-Schema、XMLベースの他の言語、XML以外の言語、または言語以外の記述をしても良い。
実施の形態10は、ユーザープリファレンスをXML-Schemaで記載したものである。以下、実施の形態10にかかるユーザープリファレンスの定義について図47から図51を用いて説明する。図47から図51は、実施の形態10にかかるユーザープリファレンスの記述定義を示す図である。また、図47から図51は、実施の形態9にかかるユーザープリファレンスの記述定義に対応したものである。
図からわかるように、UserPreference3201は、要素としてユーザー情報として、ユーザーを識別するための識別子であるUserIdentifier3202と、ユーザーの嗜好情報であるUsagePreference3203とを含むと定義されている。また、UsagePreference3203は、0個又は1個含むと定義されている。
次に、UsagePreference3203の定義について説明する。図中4803に示すように、UsagePreference3203は、BrowsingPreferences3207を0個以上含むと定義されている。また、UsagePreference3203は、allowAutomaticUpdate3208を属性として含むと定義されている。また、UsagePreference3203は、図中4801に示すように、FilteringAndSearchPreferences4802を要素として、0個以上持つと定義されている。
次に、BrowsingPreferences3207の定義について説明する。図中4900に示すように、BrowsingPreferences3207には、要素としてSummarypreferences3210を0個以上持つと定義されている。そして、BrowsingPreferences3207には、protected3211と、prefernceValue3212とを属性として含むと定義されている。また、BrowsingPreferences3207には、要素としてPrefernceConditionType4902を0個以上含むと定義されている。
次に、SummaryPreferences3210の定義について説明する。図中5002に示すように、SummaryPreferences3210は、図中5003で示されるようなリストを持つsummaryComponentTypeを拡張したSummaryPreferncesTypeという要素を0個以上持つと定義されている。また、SummaryPreferences3210は、キーワードであるPreferredSummaryTheme3302を0個以上、表示期間情報であるSummaryDuration3303を0又は1個、要素として持つと定義されている。
また、SummaryPreferences3210は、優先度であるpreferncevalue3304を属性として持つと定義されている。また、preferncevalue3304のデフォルトは100であると、定義されている。
また、PreferredSummaryTheme3302は、TextualTypeつまり要素としてテキストデータと、言語情報を有すると定義されている。また、PreferredSummaryTheme3302は、優先度情報であるpreferenceValue3307を属性として持つと定義されている。
また、図中5101〜5110に示すように、SummaryPreferences3210は、最小時間長を示すMinSummaryDurationと、最大時間長を示すMaxSummaryDurationと、表示フレーム数を示すNumOfKeyframesと、最小表示フレーム数を示すMinNumOfKeyframesと、最大表示フレーム数を示すMaxNumOfKeyframesと、表示文字数を示すNumOfCharsと、最小表示文字数を示すMinNumOfCharsと、最大表示文字数を示すMaxNumOfCharsと、を要素として持つと定義されている。
また、図中5110に示すように、これらの要素は属性として、優先度を持つと定義されている。
このように、図47から図51を用いて、XML-Schemaを用いてユーザープリファレンスが記述できる。
次に、実施の形態10にかかるユーザープリファレンス定義の具体例について図52を用いて説明する。図52は、実施の形態10にかかるユーザープリファレンスの記述例を示した図である。
図中5201に示すように、UserIdentifierは、protectedとして”true”が、userNameとして”Mike”が記述されている。また、図中5202に示すように、UsagePreferencesは、allowAutomaticUpdateとして”false”が記述されている。また、図中5203に示すように、BrowsingPreferencesは、protectedとして"true"が記述されている。
また、UserPreference5200には、2つのSummaryPreferences5204が記述されている。
図中5205に示すように、SummaryPreferences5204には、PreferredSummaryThemeとして、”Free-kick”という情報が記述されている。また、図中5206に示すように、SummaryPreferences5204には、PreferredSummaryThemeとして、”Goals”という情報が記述されている。また、図中5208に示すように、SummaryDurationには、”PT5M”、つまり5分という情報が記述されている。
このように、XML-Schemaを用いてユーザープリファレンスを記述できる。
また、実施の形態10は、セグメント記述についてもXML-Schemaで記述している。以下、実施の形態10にかかるセグメント記述について説明する。まず、実施の形態9にかかるセグメントの定義について、図53〜図56を用いて説明する。図53〜図56は、実施の形態10にかかるセグメント記述の定義を示す図である。
実施の形態10にかかるセグメントは、図53、図54に示す抽象セグメントであるSegment DSとして定義されている。そして、AudioVisualSegment DS、AudioSegment DS、VideoSegment DS、StillRegion DS,MovingRegion DSがそれぞれSegment DSを継承して具体的な記述定義になる。以下、AudioVisualSegment DSについて説明するが、まずSegment DSについて説明する。
図中5300に示されるように、Segmentは抽象タイプであると宣言されている。
そして、図中5301で示されるように、Segmentは、符号化フォーマットなどのメディアインフォメーションであるMediaInformationを要素として持つと定義されている。また、図中5302で示されるように、Segmentは、このセグメントの実体へのリンク情報であるMediaLocatorを要素として持つと定義されている。また、図中5303で示されるように、Segmentは、コピーライト情報などの製造者情報であるCreationInformationを要素として持つと定義されている。また、図中5304で示されるように、Segmentは、使用方法や、使用制限などの使用情報であるUsageInformationを要素として持つと定義されている。また、図中5305で示されるように、Segmentは、セグメントの注釈などであるTextAnnotationを要素として持つと定義されている。また、図中5307で示されるように、Segmentは、セグメントの観点(キーワード)であるPointOfViewを要素として持つと定義されている。また、図中5308で示されるように、Segmentは、サブセグメントを指定するのに使用するSegmentDecompositionを要素として持つと定義されている。
また、図中5311で示されるように、Segmentは、識別子であるidを属性として持つと定義されている。また、図中5312で示されるように、Segmentは、URLへのリンク情報であるhrefを属性として持つと定義されている。また、図中5313で示されるように、Segmentは、idへのリンク情報であるidrefを属性として持つと定義されている。
このように、segmentには、キーワード情報であるPointOfViewと、識別子であるidと、他のセグメントの識別子に対する参照情報であるidrefと、を有する。
次に、上述した抽象セグメントを継承したAudioVisualSegmentについて図55を用いて説明する。
図中5501に示すように、AudioVisualSegmentは上述した抽象Segmentを拡張したものであると記述されている。
そして、図中5502に示すようにAudioVisualSegmentは、開始時間を示すMediaTimeを拡張された要素として持つと定義されている。
また、図中5504に示すようにAudioVisualSegmentは、他のセグメント対する参照情報であるidrefを属性として持つと定義されている。
このように、AudioVisualSegmentは、実施の形態9と同様に参照情報であるidrefを有する。
次に、PointOfViewの定義について図56を用いて説明する。図中5600で示されるように、PointOfViewのタイプが宣言されている。
そして、図中5601で示されるように、PointOfViewはSupplementalInfoを要素として持つと定義されている。また、図中5602で示されるように、PointOfViewはValueを要素として持つと定義されている。
Valueのタイプは、図中5603で示されるPrimitiveImportanceTypeである。PrimitiveImportanceTypeは、図中5604で示すように、セグメントのidの参照情報であるidrefを属性で持つと定義されている。
また、図中5606に示すように、PointOfViewはテキストで記述されたviewPointを属性に持つと記述されている。
このように、PointOfViewは実施の形態9と同様に、idとidrefとを持っている。
次に、上述した定義に基づいたセグメントの記述例について図57から図59を用いて説明する。図57から図59は、実施の形態10にかかるセグメントの記述例を示した図である。
図57から図59に示す記述例は、セグメント構造中に、PointOfViewを記述した例である。
この例では、図中5700で示すように、idが”FootBallGame”というセグメントを持つ。この”FootBallGame”というidを持つセグメントは、図中5701a、5701bに示すように、2つのサブセグメントによって構成されている。さらに、図中5701aで示されるサブセグメントは、idが”seg1”というサブセグメント5702aと、idが”seg2”というサブセグメント5702bと、idが”seg20”というサブセグメント5702cを有する。
そして、サブセグメント5702aは、図中5703aに示すように、優先度であるValueが0.3である”TeamA”というviewPointと、図中5703bに示すように、優先度であるValueが0.7である”TeamB”というviewPointとを持つ。また、サブセグメント5702aは、図中5704aに示すように、MediaTime情報も有する。
また、サブセグメント5702bは、図中5703cに示すように、優先度であるValueが0.5である”TeamA”というviewPointを持つ。また、サブセグメント5702aは、図中5704bに示すように、MediaTime情報も有する。
また、サブセグメント5702cは、図中5703dに示すように、優先度であるValueが0.8である”TeamA”というviewPointと、図中5703eに示すように、優先度であるValueが0.2である”TeamB”というviewPointとを持つ。また、サブセグメント5702aは、図中5704cに示すように、MediaTime情報も有する。
一方、図中5701bで示されるサブセグメントは、idが”2seg1”というサブセグメント5702dと、idが”2seg2”というサブセグメント5702eと、idが”2seg20”というサブセグメント5702fを有する。サブセグメント5702dは、図中5703fに示すように、優先度であるValueが0.3である”TeamA”というviewPointを持つ。また、サブセグメント5702bは、図中5704dに示すように、MediaTime情報も有する。
また、サブセグメント5702bは、図中5703gに示すように、優先度であるValueが0.5である”TeamA”というviewPointを持つ。また、サブセグメント5702aは、図中5704eに示すように、MediaTime情報も有する。
また、サブセグメント5702fは、図中5703hに示すように、優先度であるValueが0.8である”TeamA”というviewPointを持つ。また、サブセグメント5702fは、図中5704fに示すように、MediaTime情報も有する。
このように、図57から図59に示す記述例では、セグメント構造中にPointOfViewが記述されている。
次に、セグメント構造とPointOfView構造を分けた記述例について図60、図61を用いて説明する。図60、61は実施の形態10にかかるセグメントの記述のその他の例を示した図である。
これ例では、図中6000で示すように、idが”FootBallGame”というセグメント構造と、PointOfView構造6005、6008とを持つ。この”FootBallGame”というidを持つセグメント構造は、図中6001に示すように、1つのサブセグメントによって構成されている。さらに、図中6001で示されるサブセグメントは、idが”seg1”というサブセグメント6004aと、idが”seg2”というサブセグメント6004bと、idが”seg20”というサブセグメント6004cを有する。
そして、サブセグメント6002aは、図中6004aに示すように、MediaTime情報を有する。また、サブセグメント6002bは、図中6004bに示すように、MediaTime情報を有する。サブセグメント6002cは、図中6004cに示すように、MediaTime情報を有する。
サブセグメント6001も、図中6004dに示すように、MediaTime情報を有する。
一方、PointOfView構造6005は、”TeamA”というPointOfViewを持つ。そして、PointOfView構造6005は、セグメント参照情報6006a〜600cを有する。セグメント参照情報6006aはValueとして0.3を有し、セグメントへの参照情報idrefは”seg1”である。セグメント参照情報6006bはValueとして0.5を有し、セグメントへの参照情報idrefは”seg2”である。セグメント参照情報6006cはValueとして0.8を有し、セグメントへの参照情報idrefは”seg20”である。
また、PointOfView構造6008は、”TeamB”というPointOfViewを持つ。そして、PointOfView構造6008は、セグメント参照情報6009a、600bを有する。セグメント参照情報6009aはValueとして0.7を有し、セグメントへの参照情報idrefは”seg1”である。セグメント参照情報6009bはValueとして0.2を有し、セグメントへの参照情報idrefは”seg20”である。
このように、実施の形態10においても、PointOfViewがセグメントのidを参照する情報をもっているので、セグメント構造とPointOfView構造を分けることができる。
(実施の形態11)
上述した実施の形態では、セグメントに対して観点(キーワード)を付与し、この観点を用いてセグメントの抽出を行っている。そして、このように抽出した複数のセグメントをグループ化し、ダイジェストを作成している。
実施の形態11は、このダイジェストに対して観点(キーワード)を付与したものである。これにより、観点を用いてダイジェストの抽出も行えるようにしている。
以下、実施の形態11にかかるダイジェストについて、図62〜図65を用いて説明する。まず、ダイジェスト(図中ではHierarchicalSummaryと記述)の定義について図62、63を用いて説明する。
図中6200に示すように、HierarchicalSummaryのタイプが宣言されている。そして、図中6201に示すように、HierarchicalSummaryは、HierarchicalSummaryの観点(キーワード)リストであるSummaryThemeListをエレメントに持つと定義されている。また、図中6202に示すように、HierarchicalSummaryは、HierarchicalSummaryがどのようなセグメント構成になっているか示す情報であるHighlightLevelを要素として持つと定義されている。
また、図中6203に示すようにHierarchicalSummaryは、summaryComponentListを属性に持つと定義されている。SummaryComponentListは、図中6204に示すように、HierarchicalSummaryがどのような構成かを示すsummaryComponentListTypeを継承したものである。具体的には、SummaryComponentListTypeは、リストとしてフレーム構成を示すkeyFrames、ビデオクリップ構成を示すkeyVideoClips、オーディオクリップ構成を示すkeyAudioClips、テーマの構成を示すkeyThemes、や制約条件を示すunconstrainedを持つ構成になっている。
次に、HierarchicalSummaryの観点(キーワード)リストであるSummaryThemeListの定義について図64を用いて説明する。
図中6400に示すように、SummaryThemeListのタイプが宣言されている。
そして、図中6401に示すように、SummaryThemeListは、HierarchicalSummaryの観点であるSummaryThemeを要素として持つと定義されている。また、SummaryThemeは、テキスト情報であり、言語情報も持つと定義されている。
また、図中6402に示すように、SummaryThemeは、識別子であるidを属性に持つと定義されている。さらに、図中6403に示すように、SummaryThemeは、上位階層の他のSummaryThemeへの参照情報であるparentIdを持つと定義されている。
このように、SummaryThemeを階層化した表現ができるようになっている。
次に、HierarchicalSummaryがどのようなセグメント構成になっているか示す情報であるHighlightLevelの定義について図65を用いて説明する。
図中6500に示すように、HighlightLevelは宣言されている。そして、図中6501に示すように、HighlightLevelはHierarchicalSummaryにふくまれるセグメント情報であるHighlightSegmentを要素として持つ。
また、図中6502に示すように、HighlightLevelはHighlightLevelを要素として持つ。これにより、HighlightLevelの下位階層にHighlightLevelを持つことが可能になり、HighlightLevelを再帰的な構成にできる。
また、HighlightLevelは、図中6503〜6506に示すように、HighlightLevelの名前情報であるnameと、HighlightLevelの優先度情報であるlevelと、HighlightLevelの長さ情報であるdurationと、どのSummaryThemeへの参照情報であるthemeIdsとを属性として持つ。
このようにして、HighlightLevelを、SummaryThemeに対してリンクさせることができる。
次に、HierarchicalSummaryの定義に基づいて作成されたSummaryThemeの具体例について、図66を用いて説明する。
SummaryThemeList6600には、SummaryTheme6601a〜6601fが含まれる。
SummaryTheme6601aは、図中6602aに示すように英語で示されている。そして、SummaryTheme6601aは、図中6603aに示すように”item0”というidを持つ。また、SummaryTheme6601aは、図中6604aに示すように”baseball”という内容である。
また、SummaryTheme6601bは、図中6602bに示すように英語で示されている。そして、SummaryTheme6601bは、図中6603bに示すように”item01”というidを持つ。また、SummaryTheme6601bは、図中6604bに示すように”home run”という内容である。そして、SummaryTheme6601bは、図中6605bに示すように、”item0”というparentIDを持つ。つまり、SummaryTheme6601bは、SummaryTheme6601aの下位階層に位置するSummaryThemeである。
また、SummaryTheme6601cは、図中6602cに示すように英語で示されている。そして、SummaryTheme6601cは、図中6603cに示すように”item1”というidを持つ。また、SummaryTheme6601cは、図中6604cに示すように”basketball”という内容である。そして、SummaryTheme6601aは、”item0”というparentIDを持つ。
また、SummaryTheme6601dは、図中6602dに示すように英語で示されている。そして、SummaryTheme6601dは、図中6603dに示すように”item11”というidを持つ。また、SummaryTheme6601dは、図中6604dに示すように”three-pointer”という内容である。そして、SummaryTheme6601dは、図中6605dに示すように、”item1”というparentIDを持つ。つまり、SummaryTheme6601dは、SummaryTheme6601cの下位階層に位置するSummaryThemeである。
また、SummaryTheme6601eは、図中6602eに示すように英語で示されている。そして、SummaryTheme6601eは、図中6603eに示すように”item12”というidを持つ。また、SummaryTheme6601eは、図中6604eに示すように”slamdunk”という内容である。そして、SummaryTheme6601eは、図中6605eに示すように、”item1”というparentIDを持つ。つまり、SummaryTheme6601eは、SummaryTheme6601cの下位階層に位置するSummaryThemeである。
また、SummaryTheme6601fは、図中6602fに示すように英語で示されている。そして、SummaryTheme6601fは、図中6603fに示すように”item2”というidを持つ。また、SummaryTheme6601fは、図中6604fに示すように”soccer”という内容である。
このように、SummaryThemeがparentIDを持つことで、他のSummaryThemeに対してリンクすることができる。また、SummaryTheme同士を階層化してリンクさせることができる。
次に、SummaryThemeListを用いたHierarchicalSummaryの記述例について図67を用いて説明する。
図中6700で示すように、”keyThemesSummary001”という名前を持つHierarchicalSummaryが宣言されている。
そして、HierarchicalSummaryは、SummaryThemeList6701と、”summary001”という名前のHighlightLevel6702aと、”summary002”という名前のHighlightLevel6702bとから構成されている。
SummaryThemeList6701は、”slam dunk”というSummaryTheme6703aを持つ。また、SummaryTheme6703aは、”E0”というidを持つ。さらに、SummaryThemeList6701は、”3-point shots”というSummaryTheme6703bを持つ。また、SummaryTheme6703bは、”E1”というidを持つ。
一方、HighlightLevel6702aは、図中6704aで示されるようなセグメント構成をしている。そして、HighlightLevel6702aは、図中6705aに示すように、”E0”というthemeIdsを持つ。つまり、HighlightLevel6702aは、”E0”というidを持つSummaryTheme6703aにリンクしている。よって、HighlightLevel6702aは、”slam dunk”というSummaryThemeを持つ。
また、HighlightLevel6702bは、図中6704bで示されるようなセグメント構成をしている。そして、HighlightLevel6702bは、図中6705bに示すように、”E1”というthemeIdsを持つ。つまり、HighlightLevel6702bは、”E1”というidを持つSummaryTheme6703bにリンクしている。よって、HighlightLevel6702bは、”3-point shots”というSummaryThemeを持つ。
このようにして、HierarchicalSummaryにSummaryThemeを持たせることができる。
また、このようにして、HighlightLevelとSummaryThemeとをリンクさせることができる。よって、HighlightLevelとSummaryThemeとを別構成に分けて記述できる。
また、実施の形態1から実施の形態11において、ユーザープリファレンスは、ユーザーの利用履歴や購買履歴、イベント履歴、あらかじめ用意されたテンプレートなど何でも良い。
また、実施の形態1から実施の形態11において、ユーザープリファレンスにおけるコンテンツ識別子、時間長、キーワード、優先度またはキーワードの優先関係の記述方法は本実施例に限定しない。
また、実施の形態1から実施の形態11において、端末プリファレンスは具体的な、端末の種類や端末の能力値でなく、端末のカテゴリ(例えばPC用、携帯端末用等)を代表するID等でもよい。また端末プリファレンスは端末によって一意に決まっても良いし、ファームウェアやソフトウェアのバージョンアップによって更新されても良い。
また、実施の形態1から実施の形態11において、データはオーディオ・ビデオやドキュメント以外のデータであってもよい。
また、実施の形態1から実施の形態11において、ユーザー適応制御部はユーザープリファレンスを更新しなくても良い。また、同じコンテンツに対して異なる複数のユーザー嗜好記述を持つこともできる。
また、実施の形態1から実施の形態10において、セグメント及びサブセグメントの階層は1以上いくつあってもよい。
また、実施の形態2において、ユーザープリファレンス、端末プリファレンス、ネットワークプリファレンスは端末側でなく、サーバー側または全く別の管理サイトにあっても良い。また、ネットワークプリファレンスは、端末の契約するサービスによって一意に決まっても良いし、端末とサーバー間の通信の状態により一意または動的に決まっても良い。
なお、上述した本発明の各部の全てもしくは一部の動作をプログラム化にし、このプログラムをコンピュータ読み取り可能な記憶媒体に格納し、コンピュータを用いてこのプログラムを実行することにより、各部の動作を実現するようにしてもよい。
また、上述した本発明の各部の機能を発揮する専用のハードウェアを用いて実現しても構わない。
また、上述した本発明に含まれる各部の全て又は一部の動作をコンピュータで実行するためのコンピュータ・プログラム・プロダクトという形態を採っても良い。
本明細書は、1999年12月3日出願の特願平11−344476号及び2000年3月10日出願の特願2000−066531号に基づく。これらの内容はすべてここに含めておく。
以上のように、本発明によれば、第1に、ユーザーの嗜好情報をユーザープリファレンスとしてコンテンツ毎に持たせ、ユーザープリファレンスによってデータのセグメントを選択し、セグメントの優先度と端末能力に基づいて解像度変換を行うことで、コンテンツ毎にユーザーが見たい形態でデータ適応を行うことができる。
第2に、ネットワークを介してコンテンツを配信する際にネットワークの伝送帯域の情報をネットワークプリファレンスとして取得し、セグメントの優先度と伝送帯域に応じてデータ量を調整することで、ユーザーが受信したい形態でかつ、ネットワークの状態に合わせてスケーラブルにデータ適応を行うことができる。

Claims (4)

  1. コンテンツのある時間範囲を構成する複数のセグメントに対応して、セグメントが階層的に記述されているデータ構造部からなる第1のメタデータと、前記セグメントに対応する前記コンテンツの内容を示すセグメント観点と、前記セグメント観点ごとに対象となる前記セグメントへのリンク情報と、前記セグメント観点に対する前記セグメント観点がリンクされている前記セグメントごとに設定される重要度を示すセグメント優先度とが記述されている属性部からなる第2のメタデータとで構成されたメタデータを取得するコンテンツデータ取得部と、
    前記コンテンツに対するユーザーの嗜好に関するユーザー観点とユーザー優先度の組が記述されているユーザープリファレンス記述情報を取得するユーザープリファレンス取得部と、
    前記メタデータから前記ユーザープリファレンス記述情報に該当するセグメントを抽出することにより、前記コンテンツを前記ユーザー嗜好に適応させた、第3のメタデータを出力するユーザー適応部と、
    を具備し、
    前記第2のメタデータの属性部には、各セグメント観点に、セグメントへのリンク情報とセグメント優先度の組が複数付与された、
    コンテンツ適合化装置。
  2. 前記第2のメタデータの属性部には、各セグメント観点に、セグメントへのリンク情報が複数付与されている請求項1記載のコンテンツ適合化装置。
  3. 前記ユーザープリファレンス記述情報は、前記ユーザー観点とその属性としてユーザー優先度の組が複数付与されている請求項1記載のコンテンツ適合化装置。
  4. コンテンツのある時間範囲を構成する複数のセグメントに対応して、セグメントが階層的に記述されているデータ構造部からなる第1のメタデータと、前記セグメントに対応する前記コンテンツの内容を示すセグメント観点と、前記セグメント観点ごとに対象となる前記セグメントへのリンク情報と、前記セグメント観点に対する前記セグメント観点がリンクされている前記セグメントごとに設定される重要度を示すセグメント優先度とが記述されている属性部からなる第2のメタデータとで構成されたメタデータを取得するステップと、
    前記コンテンツに対するユーザーの嗜好に関するユーザー観点とユーザー優先度の組が記述されているユーザープリファレンス記述情報を取得するステップと、
    前記メタデータから前記ユーザープリファレンス記述情報に該当するセグメントを抽出することにより、前記コンテンツを前記ユーザー嗜好に適応させた、第3のメタデータを出力するステップと、
    からなり、
    前記第2のメタデータの属性部には、各セグメント観点に、セグメントへのリンク情報とセグメント優先度の組が複数付与された、
    コンテンツ適合化方法。

JP2011054920A 1999-12-03 2011-03-14 データ適合化装置、データ適合化方法 Expired - Fee Related JP4879358B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011054920A JP4879358B2 (ja) 1999-12-03 2011-03-14 データ適合化装置、データ適合化方法

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
JP34447699 1999-12-03
JP1999344476 1999-12-03
JP2000066531 2000-03-10
JP2000066531 2000-03-10
JP2011054920A JP4879358B2 (ja) 1999-12-03 2011-03-14 データ適合化装置、データ適合化方法

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2001541947A Division JP4741133B2 (ja) 1999-12-03 2000-11-29 データ適合化装置、データ適合化方法

Publications (2)

Publication Number Publication Date
JP2011181075A JP2011181075A (ja) 2011-09-15
JP4879358B2 true JP4879358B2 (ja) 2012-02-22

Family

ID=26577778

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2001541947A Expired - Fee Related JP4741133B2 (ja) 1999-12-03 2000-11-29 データ適合化装置、データ適合化方法
JP2011054920A Expired - Fee Related JP4879358B2 (ja) 1999-12-03 2011-03-14 データ適合化装置、データ適合化方法

Family Applications Before (1)

Application Number Title Priority Date Filing Date
JP2001541947A Expired - Fee Related JP4741133B2 (ja) 1999-12-03 2000-11-29 データ適合化装置、データ適合化方法

Country Status (7)

Country Link
US (1) US8266653B2 (ja)
EP (2) EP1246070A4 (ja)
JP (2) JP4741133B2 (ja)
KR (1) KR100441704B1 (ja)
CN (1) CN100437528C (ja)
AU (1) AU1648501A (ja)
WO (1) WO2001040953A1 (ja)

Families Citing this family (71)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20020120925A1 (en) * 2000-03-28 2002-08-29 Logan James D. Audio and video program recording, editing and playback systems using metadata
US7134074B2 (en) 1998-12-25 2006-11-07 Matsushita Electric Industrial Co., Ltd. Data processing method and storage medium, and program for causing computer to execute the data processing method
JP2001333353A (ja) * 2000-03-16 2001-11-30 Matsushita Electric Ind Co Ltd データ処理方法および記録媒体、並びに該データ処理方法をコンピュータに実行させるためのプログラム
JP3966503B2 (ja) * 2002-05-30 2007-08-29 インターナショナル・ビジネス・マシーンズ・コーポレーション コンテンツ再生制御装置、データ管理装置、蓄積型コンテンツ配信システム、コンテンツの配信方法、制御データ送信サーバ、プログラム
US7251697B2 (en) * 2002-06-20 2007-07-31 Koninklijke Philips Electronics N.V. Method and apparatus for structured streaming of an XML document
CN1682224B (zh) * 2002-09-09 2012-08-15 皇家飞利浦电子股份有限公司 用于提供推荐的数据网络、用户终端和方法
US7103591B2 (en) * 2002-12-02 2006-09-05 International Business Machines Corporation Method of describing business and technology information for utilization
JP2004234158A (ja) * 2003-01-29 2004-08-19 Sony Corp 情報処理装置、およびコンテンツ管理方法、コンテンツ情報管理方法、並びにコンピュータ・プログラム
KR100745995B1 (ko) * 2003-06-04 2007-08-06 삼성전자주식회사 메타 데이터 관리 장치 및 방법
EP1647010B1 (de) * 2003-07-21 2017-09-06 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Audiodateiformatumwandlung
DE10339498B4 (de) * 2003-07-21 2006-04-13 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Audiodateiformatumwandlung
JP2005071227A (ja) * 2003-08-27 2005-03-17 Sony Corp メタデータ流通管理システム,メタデータ流通管理装置,個人別メタデータ管理装置,クライアント端末,メタデータ流通管理方法およびコンピュータプログラム
JP4550809B2 (ja) 2004-03-29 2010-09-22 パナソニック株式会社 蓄積表示装置及び連動表示方法並びにシステム
KR100664306B1 (ko) * 2004-10-29 2007-01-04 삼성전자주식회사 데이터 유효성 검증을 위한 예방 통제 데이터 생성 및검증 장치 및 방법
KR100673653B1 (ko) * 2005-08-22 2007-01-24 주식회사 텔레칩스 메타 데이터 검색 방법
US9703892B2 (en) 2005-09-14 2017-07-11 Millennial Media Llc Predictive text completion for a mobile communication facility
US8832100B2 (en) 2005-09-14 2014-09-09 Millennial Media, Inc. User transaction history influenced search results
US8209344B2 (en) 2005-09-14 2012-06-26 Jumptap, Inc. Embedding sponsored content in mobile applications
US10592930B2 (en) 2005-09-14 2020-03-17 Millenial Media, LLC Syndication of a behavioral profile using a monetization platform
US8302030B2 (en) 2005-09-14 2012-10-30 Jumptap, Inc. Management of multiple advertising inventories using a monetization platform
US10038756B2 (en) 2005-09-14 2018-07-31 Millenial Media LLC Managing sponsored content based on device characteristics
US8660891B2 (en) 2005-11-01 2014-02-25 Millennial Media Interactive mobile advertisement banners
US7577665B2 (en) * 2005-09-14 2009-08-18 Jumptap, Inc. User characteristic influenced search results
US8805339B2 (en) 2005-09-14 2014-08-12 Millennial Media, Inc. Categorization of a mobile user profile based on browse and viewing behavior
US8433297B2 (en) 2005-11-05 2013-04-30 Jumptag, Inc. System for targeting advertising content to a plurality of mobile communication facilities
US7660581B2 (en) 2005-09-14 2010-02-09 Jumptap, Inc. Managing sponsored content based on usage history
US20070061242A1 (en) * 2005-09-14 2007-03-15 Jorey Ramer Implicit searching for mobile content
US8615719B2 (en) 2005-09-14 2013-12-24 Jumptap, Inc. Managing sponsored content for delivery to mobile communication facilities
US8812526B2 (en) 2005-09-14 2014-08-19 Millennial Media, Inc. Mobile content cross-inventory yield optimization
US8156128B2 (en) 2005-09-14 2012-04-10 Jumptap, Inc. Contextual mobile content placement on a mobile communication facility
US20110313853A1 (en) 2005-09-14 2011-12-22 Jorey Ramer System for targeting advertising content to a plurality of mobile communication facilities
US8364521B2 (en) 2005-09-14 2013-01-29 Jumptap, Inc. Rendering targeted advertisement on mobile communication facilities
US8311888B2 (en) 2005-09-14 2012-11-13 Jumptap, Inc. Revenue models associated with syndication of a behavioral profile using a monetization platform
US9471925B2 (en) 2005-09-14 2016-10-18 Millennial Media Llc Increasing mobile interactivity
US8666376B2 (en) 2005-09-14 2014-03-04 Millennial Media Location based mobile shopping affinity program
US8229914B2 (en) 2005-09-14 2012-07-24 Jumptap, Inc. Mobile content spidering and compatibility determination
US8131271B2 (en) 2005-11-05 2012-03-06 Jumptap, Inc. Categorization of a mobile user profile based on browse behavior
US8238888B2 (en) 2006-09-13 2012-08-07 Jumptap, Inc. Methods and systems for mobile coupon placement
US8103545B2 (en) 2005-09-14 2012-01-24 Jumptap, Inc. Managing payment for sponsored content presented to mobile communication facilities
US7769764B2 (en) 2005-09-14 2010-08-03 Jumptap, Inc. Mobile advertisement syndication
US8989718B2 (en) 2005-09-14 2015-03-24 Millennial Media, Inc. Idle screen advertising
US8503995B2 (en) 2005-09-14 2013-08-06 Jumptap, Inc. Mobile dynamic advertisement creation and placement
US10911894B2 (en) 2005-09-14 2021-02-02 Verizon Media Inc. Use of dynamic content generation parameters based on previous performance of those parameters
US7702318B2 (en) 2005-09-14 2010-04-20 Jumptap, Inc. Presentation of sponsored content based on mobile transaction event
US20110153428A1 (en) * 2005-09-14 2011-06-23 Jorey Ramer Targeted advertising to specified mobile communication facilities
US7676394B2 (en) 2005-09-14 2010-03-09 Jumptap, Inc. Dynamic bidding and expected value
US7752209B2 (en) 2005-09-14 2010-07-06 Jumptap, Inc. Presenting sponsored content on a mobile communication facility
US20110145076A1 (en) * 2005-09-14 2011-06-16 Jorey Ramer Mobile Campaign Creation
US9076175B2 (en) 2005-09-14 2015-07-07 Millennial Media, Inc. Mobile comparison shopping
US9201979B2 (en) 2005-09-14 2015-12-01 Millennial Media, Inc. Syndication of a behavioral profile associated with an availability condition using a monetization platform
US7912458B2 (en) 2005-09-14 2011-03-22 Jumptap, Inc. Interaction analysis and prioritization of mobile content
US9058406B2 (en) 2005-09-14 2015-06-16 Millennial Media, Inc. Management of multiple advertising inventories using a monetization platform
US8819659B2 (en) 2005-09-14 2014-08-26 Millennial Media, Inc. Mobile search service instant activation
US8688671B2 (en) 2005-09-14 2014-04-01 Millennial Media Managing sponsored content based on geographic region
US8364540B2 (en) 2005-09-14 2013-01-29 Jumptap, Inc. Contextual targeting of content using a monetization platform
US8195133B2 (en) 2005-09-14 2012-06-05 Jumptap, Inc. Mobile dynamic advertisement creation and placement
US8175585B2 (en) 2005-11-05 2012-05-08 Jumptap, Inc. System for targeting advertising content to a plurality of mobile communication facilities
KR101366805B1 (ko) 2006-05-30 2014-02-21 삼성전자주식회사 사용자 관심 사항에 기초한 이동 통신 장치의애플리케이션의 런칭 패드 장치 및 구동 방법
CA2658798A1 (en) * 2006-12-12 2008-06-19 Panasonic Corporation Content information outputting apparatus, content information receiving apparatus, content information outputting method, content information receiving method
KR100964013B1 (ko) * 2007-11-09 2010-06-15 광주과학기술원 사용자 선호도 기반의 데이터 변환 서비스 시스템 및 그방법
CN102783167B (zh) 2010-03-05 2015-10-14 三星电子株式会社 基于文件格式生成和再现自适应流的方法和装置
EP2614654B1 (en) * 2010-09-07 2018-12-19 Samsung Electronics Co., Ltd Manifest mechanism in broadcast involved system
US8782519B1 (en) * 2011-10-27 2014-07-15 Symantec Corporation Systems and methods for archiving and displaying lengthy documents based on content priority levels
US20130127920A1 (en) * 2011-11-22 2013-05-23 Sap Portals Israel Ltd. Focusing on Contextually-Relevant Content
US9172999B2 (en) * 2012-08-08 2015-10-27 Verizon Patent And Licensing Inc. Behavioral keyword identification based on thematic channel viewing
US8774596B2 (en) * 2012-12-10 2014-07-08 Futurewei Technologies, Inc. Context driven video prioritization and bookmarking
MX366219B (es) 2013-12-03 2019-07-03 Sony Corp Dispositivo de recepcion.
US9608876B2 (en) 2014-01-06 2017-03-28 Microsoft Technology Licensing, Llc Dynamically adjusting brand and platform interface elements
US9483811B2 (en) 2014-01-06 2016-11-01 Microsoft Technology Licensing, Llc Division of processing between systems based on external factors
US9501808B2 (en) 2014-01-06 2016-11-22 Microsoft Technology Licensing, Llc Division of processing between systems based on business constraints
JP7529950B2 (ja) 2020-11-25 2024-08-07 株式会社Nttドコモ 情報処理システム

Family Cites Families (26)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5434678A (en) * 1993-01-11 1995-07-18 Abecassis; Max Seamless transmission of non-sequential video segments
JPH07152668A (ja) 1993-11-26 1995-06-16 Canon Inc 情報処理装置及び通信方法
JPH0946689A (ja) 1995-07-28 1997-02-14 Hitachi Ltd 映像ソフト紹介システムおよび映像ソフト紹介方法
JPH09128405A (ja) 1995-10-31 1997-05-16 Toshiba Corp 文書検索方法及び文書検索装置
TW347498B (en) 1996-09-30 1998-12-11 Casio Computer Co Ltd Information supply system
US20020120925A1 (en) * 2000-03-28 2002-08-29 Logan James D. Audio and video program recording, editing and playback systems using metadata
US7055166B1 (en) * 1996-10-03 2006-05-30 Gotuit Media Corp. Apparatus and methods for broadcast monitoring
JP3814903B2 (ja) * 1996-12-25 2006-08-30 株式会社日立製作所 映像・データ表示方法及び装置
JP3803189B2 (ja) 1998-01-07 2006-08-02 松下電器産業株式会社 番組情報編成装置
JP3274393B2 (ja) 1997-09-22 2002-04-15 株式会社ディジタル・ビジョン・ラボラトリーズ ネットワークシステム、データ配信方法、および、配信用データが記録されたコンピュータ読み取り可能な記録媒体
JPH11126205A (ja) * 1997-10-22 1999-05-11 Fujitsu Ltd マルチメディアデータ・プレゼンテーションシステムおよびそれを実現するプログラムを記憶する記憶媒体
JPH11134364A (ja) 1997-10-31 1999-05-21 Omron Corp 体系化知識解析方法及び装置並びに分類方法及び装置
JP3208116B2 (ja) * 1998-02-03 2001-09-10 株式会社次世代情報放送システム研究所 映像インデックス情報を記録した記録媒体、映像インデックス情報を用いた映像情報管理方法、音声インデックス情報を記録した記録媒体および音声インデックス情報を用いた音声情報管理方法
JPH11242687A (ja) 1998-02-26 1999-09-07 Dainippon Screen Mfg Co Ltd 実時間連続データ管理システム及びそのプログラムを記録したコンピュータ読み取り可能な記録媒体
JPH11288403A (ja) 1998-04-03 1999-10-19 Toshiba Corp 分散ネットワークコンピューティングシステム、同システムに用いられる情報交換装置、情報交換方法、及び記憶媒体
US6356902B1 (en) 1998-07-28 2002-03-12 Matsushita Electric Industrial Co., Ltd. Method and system for storage and retrieval of multimedia objects
JP2000066531A (ja) 1998-08-25 2000-03-03 Fuji Xerox Co Ltd 画像形成装置
US6487566B1 (en) * 1998-10-05 2002-11-26 International Business Machines Corporation Transforming documents using pattern matching and a replacement language
JP3551045B2 (ja) 1998-11-02 2004-08-04 松下電器産業株式会社 データ送受信装置および方法
JP2001333353A (ja) 2000-03-16 2001-11-30 Matsushita Electric Ind Co Ltd データ処理方法および記録媒体、並びに該データ処理方法をコンピュータに実行させるためのプログラム
US6470378B1 (en) * 1999-03-31 2002-10-22 Intel Corporation Dynamic content customization in a clientserver environment
KR100319157B1 (ko) * 1999-09-22 2002-01-05 구자홍 사용자 프로파일의 복합항목 사용자 선호도 정보 자료구조와 복합항목 사용자 선호도 정보 자료구조를 이용한 멀티미디어 콘텐트 필터링 및 검색 방법
US7882520B2 (en) * 2000-12-20 2011-02-01 Tivo Inc. Broadcast program recording overrun and underrun scheduling system
JP3810268B2 (ja) * 2000-04-07 2006-08-16 シャープ株式会社 オーディオビジュアルシステム
US7334249B1 (en) * 2000-04-26 2008-02-19 Lucent Technologies Inc. Method and apparatus for dynamically altering digital video images
US8302127B2 (en) * 2000-09-25 2012-10-30 Thomson Licensing System and method for personalized TV

Also Published As

Publication number Publication date
EP1950673A3 (en) 2010-01-20
AU1648501A (en) 2001-06-12
JP4741133B2 (ja) 2011-08-03
KR20020060983A (ko) 2002-07-19
EP1950673A2 (en) 2008-07-30
EP1246070A4 (en) 2004-08-18
CN1433546A (zh) 2003-07-30
CN100437528C (zh) 2008-11-26
KR100441704B1 (ko) 2004-07-27
JP2011181075A (ja) 2011-09-15
EP1246070A1 (en) 2002-10-02
US20020184622A1 (en) 2002-12-05
WO2001040953A1 (fr) 2001-06-07
US8266653B2 (en) 2012-09-11

Similar Documents

Publication Publication Date Title
JP4879358B2 (ja) データ適合化装置、データ適合化方法
US20230359613A1 (en) Systems and methods for generating smart responses for natural language queries
JP6266818B2 (ja) 双方向メディアガイダンスアプリケーションにおいてメディアを取得、分類、および配信するためのシステムおよび方法
JP7007917B2 (ja) 会話におけるコンテキスト切替を決定するためのシステムおよび方法
US8266660B2 (en) Portal for future episode information
CN104053032B (zh) 虚拟频道的管理方法和网络多媒体重现系统
US8381249B2 (en) Systems and methods for acquiring, categorizing and delivering media in interactive media guidance applications
CN1600022A (zh) 向用户介绍推荐理由的媒体推荐器
US20160316268A1 (en) Systems and methods for improving accuracy in media asset recommendation models
KR20010080633A (ko) 습관, 통계적 추론 및 사이코-데모그래픽 프로파일에기초한 스마트 에이전트
JP2021048611A (ja) メディアアセット推奨モデルにおける正確度を向上させるためのシステムおよび方法
US20160314410A1 (en) Systems and methods for improving accuracy in media asset recommendations based on data from one data space
JP2021516356A (ja) 音声データおよびメディア消費データに基づいてユーザを識別するためのシステムおよび方法
JP2002007460A (ja) コンテンツ選択装置、コンテンツ選択方法および記録媒体
EP3628123B1 (en) Systems and methods for generating aggregated media assets on related content from different sources
CN104754427B (zh) 用于确定媒体分级的方法和系统
AU2018241142B2 (en) Systems and Methods for Acquiring, Categorizing and Delivering Media in Interactive Media Guidance Applications
WO2006019232A1 (en) Method and apparatus for accessing tv contents data utilizing virtual domain system and the media and transferring signal containing the method

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110830

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20111007

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20111108

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20111129

R150 Certificate of patent or registration of utility model

Ref document number: 4879358

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20141209

Year of fee payment: 3

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

LAPS Cancellation because of no payment of annual fees