JP5182680B2 - コンテンツ統合フレームワークにおけるユーザインターフェイスのための視覚処理 - Google Patents

コンテンツ統合フレームワークにおけるユーザインターフェイスのための視覚処理 Download PDF

Info

Publication number
JP5182680B2
JP5182680B2 JP2011240632A JP2011240632A JP5182680B2 JP 5182680 B2 JP5182680 B2 JP 5182680B2 JP 2011240632 A JP2011240632 A JP 2011240632A JP 2011240632 A JP2011240632 A JP 2011240632A JP 5182680 B2 JP5182680 B2 JP 5182680B2
Authority
JP
Japan
Prior art keywords
content
tile
content image
image
user interface
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2011240632A
Other languages
English (en)
Other versions
JP2012120157A (ja
Inventor
学 坂本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Publication of JP2012120157A publication Critical patent/JP2012120157A/ja
Application granted granted Critical
Publication of JP5182680B2 publication Critical patent/JP5182680B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/50Information retrieval; Database structures therefor; File system structures therefor of still image data
    • G06F16/54Browsing; Visualisation therefor

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Data Mining & Analysis (AREA)
  • Databases & Information Systems (AREA)
  • User Interface Of Digital Computer (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Information Transfer Between Computers (AREA)

Description

コンテンツを集約する方法には、寄稿者のコンテンツの体系を、コンテンツの全てを集約するソフトウェアの開発者が採用する単一の体系構造に一致させるように寄稿者に要求する方法がある。多くの場合、コンテンツの各寄稿者は、自身のコンテンツの(階層などの)体系構造の各々を別の階層構造に適合するように一致させ、自身の(画像ファイルなどの)コンテンツを別のユーザインターフェイスに適合するように一致させなければならない。例えば、寄稿者は、これらの体系構造を、コンテンツを集約するソフトウェアにより提供及び提示される構造に適合するように変更しなければならない。
残念ながら、寄稿者は、コンテンツを集約するソフトウェアにより提供されるユーザインターフェイス内に収まるように画像を変更する必要もある。例えば、寄稿者は、コンテンツを集約するソフトウェアのユーザインターフェイス内に自身の画像を収めるために、自身の画像を切り取り、又は歪ませることによって画像のどの部分を廃棄するかを決定する必要がある。
コンテンツ統合フレームワークにおけるユーザインターフェイスを視覚処理するための命令を有する方法、システム、及びコンピュータ可読媒体において、タイルマトリクスのタイルサイズに関する情報を受け取り、このマトリクスは、ユーザインターフェイス上に表示されるタイルサイズを有する1又はそれ以上のタイルを有し、ユーザインターフェイス上に表示するための1又はそれ以上のコンテンツ画像を受け取り、このマトリクスの第1のタイル内の、1又はそれ以上のコンテンツ画像からの第1のコンテンツ画像を表示するための位置を決定し、第1のコンテンツ画像を第1のタイル内に配置した後で、タイル内の第1の余剰空間領域を決定し、この第1の余剰空間領域は、第1のコンテンツ画像のアスペクト比及び第1のコンテンツ画像のサイズの少なくとも一方に依存し、第1のタイル内の第1の余剰空間領域の少なくとも一部内に第1のコンテンツ画像の反射を表示し、マトリクスの第1のタイル内に第1のコンテンツ画像を表示し、第1のコンテンツ画像に関連するテキストを、第1のコンテンツ画像ではなく反射上に重なるように表示する。
本明細書の残り部分及び添付図面を参照することにより、本明細書に開示する特定の実施形態の性質及び利点のさらなる理解をもたらすことができる。
以下の図面では、同じ要素を示すために同じ参照番号を使用する。以下の図には本発明の様々な例を示しているが、本発明は図示の例に限定されるものではない。
コンテンツ統合開発フレームワークを実現するシステムの例を示すブロック図である。 コンテンツ統合開発フレームワークを利用するソフトウェアアプリケーションのためのユーザインターフェイスを実行する例を示すフロー図である。 コンテンツ統合開発フレームワークを利用するソフトウェアアプリケーションを実行するユーザインターフェイスの例を示す図である。 コンテンツ統合開発フレームワークを利用するソフトウェアアプリケーションを実行する例のフロー図である。 コンテンツ統合開発フレームワークを利用するソフトウェアアプリケーションを実行する例のフロー図である。 コンテンツ統合開発フレームワークのための表示テンプレートを定義する実施構成例のフロー図である。 コンテンツ統合開発フレームワークを利用するソフトウェアアプリケーションを実行する例のフロー図である。 コンテンツ統合開発フレームワークを利用するソフトウェアアプリケーションを実行するユーザインターフェイスの例を示す図である。 コンテンツ統合開発フレームワークを利用するソフトウェアアプリケーションを実行するユーザインターフェイスのための表示テンプレートの例を示す図である。 コンテンツ統合開発フレームワークを利用するソフトウェアアプリケーションを実行するユーザインターフェイスの例を示す図である。 コンテンツ統合開発フレームワークを利用するソフトウェアアプリケーションを実行するユーザインターフェイスの例を示す図である。 コンテンツ統合開発フレームワークを利用するソフトウェアアプリケーションを実行するユーザインターフェイスの関連コンテンツ部分の例を示す図である。 コンテンツ統合開発フレームワークを利用するソフトウェアアプリケーションを実行するユーザインターフェイスの関連コンテンツ部分の例を示す図である。 コンピュータシステムのアーキテクチャ例を示すブロック図である。
コンテンツを統合するためのシステム、方法、装置、コンピュータ可読媒体、及びコンピュータプログラム製品を提供する。本発明の実施形態は、1又はそれ以上のコンテンツソース、パートナー、及び/又はコンテンツプロバイダからのコンテンツを統合するソフトウェアアプリケーションを開発できるようにするフレームワーク又は基盤を提供する。このフレームワークに統合されるコンテンツは、サードパーティからのものとすることができ、及び/又はコンテンツ統合におけるパートナーからのコンテンツとみなすことができる。全てのコンテンツに関してユーザの体験がほぼ一致する一貫した及び/又は一様なインターフェイスを提供するとともに、コンテンツを発見する視覚体験を改善するコンテンツ統合方法を有することが望ましい。
コンテンツを発見するための一貫した一様なユーザインターフェイスは、コンテンツプロバイダが様々なサイズ及びアスペクト比のコンテンツ画像を提供する場合にも好ましい。コンテンツを統合する場合、この一様なユーザインターフェイスを、パートナーにより提供される原画像の切り取り及び全体的な歪みを制限して提示することが望ましい。1又はそれ以上の実施形態では、ユーザインターフェイス上に一様なコンテンツの表示を行うために、様々なサイズ及びアスペクト比で受け取り得る画像に視覚処理を施すことができる。例えば、タイル内の余剰空間領域に反射視覚処理を施して、(発見可能コンテンツを表す画像などの)画像が、ページ上に表示された他の画像と同じサイズ又はほぼ同じサイズになるようにすることができる。
実施形態では、ユーザインターフェイス上に表示されるタイル表示内のタイルマトリクスの1又はそれ以上のタイル内に視覚処理を施して、一貫した又はほぼ一貫したタイルサイズでマトリクスが表示されることを保証することができる。マトリクスは、ユーザインターフェイス上に行及び列で表示されるタイルの組である。マトリクスは、ユーザインターフェイス上に表示される均等に離間したタイルを有することができ、格子と同様の外観を有することができる。タイル表示のコンテンツ画像を、タイルの横の行と縦の列を有するマトリクス内に配置することができ、各タイルは、均一な又はほぼ均一な正方形形状及びサイズを有することができる。このマトリクスのタイル内にコンテンツ画像を表示することができる。例えば、1×4マトリクスのタイルは、画像を含む1行及び4列のタイルを有することができ、1×1マトリクスは1つのタイルを有することができる。
また、一様なユーザインターフェイスは、ユーザインターフェイス及びナビゲーション体験を個々のパートナーごとにカスタマイズする上での柔軟性を提供することが望ましい。例えば、コンテンツ統合フレームワークの実施形態を使用して開発されたソフトウェアアプリケーションでは、共通の、一様な、及び/又は一貫したインターフェイスを使用してSony(登録商標)のコンテンツからYouTube(登録商標)のコンテンツへのナビゲーションが可能であるが、パートナーは、これらのコンテンツ及び関連コンテンツの発見及びナビゲーション体験を制御及び/又はカスタマイズすることができる。
好ましい実施形態では、コンテンツをコンテンツ開発フレームワークに統合することにより、ユーザが容易にコンテンツを通り抜けてコンテンツを発見できるようにすることができる。コンテンツ統合フレームワークは、パートナーにコンテンツの体系を別の体系構造に一致させるように要求することなく、コンテンツの発見、又はコンテンツを見つける能力を高めることができる。例えば、パートナーに、コンテンツ及び/又はコンテンツのデータの階層構造又は体系構造を別の階層に一致又は適合させるように強制しなくてもよい。1又はそれ以上のパートナー及び/又は別のソースからのコンテンツのメタデータにより、コンテンツ統合フレームワークに統合するためのコンテンツの体系を示すことができる。
実施形態では、テンプレートを使用して、パートナーがユーザインターフェイスをカスタマイズできるようにすることができる。パートナーは、自身のコンテンツを他のパートナーからのコンテンツと統合するために、フレームワークが自身のコンテンツ及び/又は自身のコンテンツのメタデータにアクセスできるようにすることができる。その後、パートナーは、テンプレートを使用して、自身のコンテンツ及び関連コンテンツをナビゲートするようにユーザ体験をカスタマイズすることができる。1又はそれ以上の実施形態では、テンプレートを使用して、関連コンテンツの表示に使用するタイル表示を特定することができる。
本明細書では、フレームワークを使用して統合すべきコンテンツを有する個人、ユーザのグループ、個人のグループ、コンテンツソース、及び/又は管理者を示すために「パートナー」及び「コンテンツプロバイダ」という用語を広義に使用する。コンテンツ統合の好ましい実施形態のために、全体を通じてユーザインターフェイスの説明を行うが、当業者であれば、パートナーに自身のコンテンツ及び階層を、コンテンツ統合ソフトウェアが採用及び提供する特定の体系構造に一致させるように要求する他のコンテンツ統合方法などの、多くのコンテンツ統合方法とともにこのユーザインターフェイスを使用できることを理解するであろう。
図1Aは、コンテンツ統合開発フレームワークを実現するためのシステム例のブロック図である。ネットワーク100は、1又はそれ以上の指定されたフォーマット、規格又はプロトコルに従って信号及びメッセージを送信及び受信するための基盤である。ネットワーク100は、図1の様々な要素間に有線及び無線の両方の通信を提供することができる。実施形態は、以下に限定されるわけではないが、パートナーコンテンツのデータベース1〜N 104、コンテンツメタデータのデータベース1〜N 106、コンテンツ統合要素108、コンテンツ分類要素110、あらゆる数の表示テンプレート1〜N 112、ユーザインターフェイス114、及びクライアント装置116などの、図示のようなコンテンツ統合開発フレームワーク102を実現する要素間の通信のためにネットワーク100に依存することができる。
あらゆる数のネットワーク及びサービスプロバイダを使用して、図1の要素間の通信を容易にすることができる。ネットワーク100に利用できる実施構成の例として、以下に限定されるわけではないが、衛星、WiFi、WiMAX、グローバル・システム・フォー・モバイル(GSM)、時分割多元接続(TDMA)、符号分割多元接続(CDMA)無線ネットワーク、及び/又は光ファイバ、T1、ケーブル、DSL、高速トランク、及び公衆交換電話網(pSTN)回線などの有線接続を挙げることができる。TDMA、CDMA、GSM、パーソナル通信システム(PCS)、WiFi、WLAN、WiMAX、ハイパーテキスト転送プロトコル(HTTP)、(送信制御プロトコル(TCP)及びインターネットプロトコル(IP)などの)インターネットプロトコル群、ボイス・オーバー・インターネットプロトコル(VoIP)、又はその他のいずれかの音声及び/又はデータ通信プロトコル及び規格などの様々なプロトコルを使用して要素間の通信を可能にすることができる。
ネットワーク100は、コンテンツ統合要素108がパートナーコンテンツ1〜N 104データベースからコンテンツを取り出すことができるようにすることができる。(単複の)パートナーコンテンツ104データベースは、コンテンツ統合開発フレームワーク102で開発されたアプリケーションとともにコンピュータシステムにローカルに記憶されたものであってもよく、及び/又は(単複の)パートナーコンテンツ104データベースは、コンテンツ統合開発フレームワーク102で開発されたアプリケーションから離れて存在してもよい。コンテンツ統合要素108は、パートナーコンテンツ104データベースからコンテンツを取り出せるようにするアドレス及び/又は識別子にアクセスすることができる。或いは、コンテンツ統合要素108は、コンテンツを取り出すために(単複の)パートナーコンテンツ104データベースに問い合わせを行うことができる。好ましい実施形態では、コンテンツ統合要素102が、コンテンツ統合開発フレームワーク102に統合されたコンテンツのアドレス、識別子、及び/又はユニフォームリソースロケータ(URL)を有し、コンテンツを取り出せるようにするためにこれらのアドレス、識別子及び/又はURLを提供することができる。
データベースの実施構成としては、以下に限定されるわけではないが、(単複の)リレーショナルデータベース、(単複の)オブジェクト指向データベース、(単複の)ファイルシステム、及び/又は他のいずれかのデータの一群を挙げることができる。(単複の)データベースに記憶されるコンテンツとしては、以下に限定されるわけではないが、メタデータ、画像、ビデオ、オーディオ、テキスト、及び/又はその他のいずれかの種類のデータを挙げることができる。例えば、「パートナーコンテンツ1」データベースは、YouTube(著作権)上でアクセス可能なコンテンツを表すコンテンツ及び画像を有することができ、「パートナーコンテンツ2」データベースは、TED(著作権)上でアクセス可能なコンテンツを表すコンテンツ及び画像を有することができ、「パートナーコンテンツ3」データベースは、Sonyのコンテンツ及びこのコンテンツを表す画像を有することができる。
コンテンツ開発フレームワーク102に統合されたコンテンツに関連するメタデータは、コンテンツメタデータ1〜N 106のためのデータベースに記憶することができる。パートナーコンテンツ1〜N 104データベース内の個々のコンテンツを記述するメタデータを提供することができる。メタデータは、パートナーコンテンツ1〜N 104のパートナー及び/又はコンテンツプロバイダ、及びその他のソースにより提供することができる。好ましい実施形態におけるフレームワークを使用してパートナーからのメタデータを統合するために、これらのメタデータを、既存の基盤、体系、及び/又はメタデータから別の階層/体系に適合するように一致又は適合させる必要はない。これらのメタデータを使用して、閲覧するコンテンツを体系化するための技術を適用し、ユーザが関連コンテンツを発見(コンテンツ発見)できるようにすることができる。1又はそれ以上の実施形態では、パートナーが、自身のデータベースの構造をXMLファイルで示すことができ、コンテンツ統合要素108が、メタデータを取り出すためにパートナーコンテンツ1〜N 104データベースに問い合わせを行うことができる。
メタデータは、以下に限定されるわけではないが、キーワード、階層の体系、パートナーごとの体系、コンテンツの概要、歌詞、画像、その他のコンテンツとの関係、関連コンテンツ、及び/又はテキストをなどの様々な方法でコンテンツを記述することができる。パートナーにより提供されるメタデータは、パートナーコンテンツ1〜N 104データベースにおけるコンテンツの構成の階層構造を示すことができる。パートナーは、ツリー構造、アルファベット順、ジャンルごと、及び/又は他のいずれかの種類の体系などの様々な方法でコンテンツを体系化することができる。例えば、パートナーは、コンテンツをツリー構造で体系化することができる。
[図]
Video ビデオ
Movies 映画
Television テレビ
Action アクション
Drama ドラマ
Comedy コメディ
Daytime 昼間
Content A コンテンツA
Content B..Z コンテンツB〜Z
この例では、メタデータが、(「ビデオ」などの)種類ごと、(「映画」、「テレビ」、「アクション」、「ドラマ」、「コメディ」、及び「昼間」などの)ジャンルごと、及び(「コンテンツA」、「コンテンツB」〜「コンテンツZ」などの)アルファベット順にツリー構造の体系を示す。別の例では、協調フィルタを使用してコンテンツとの関係を識別することができる。協調フィルタは、ユーザがコンテンツを選択したときにコンテンツ間の関係を確立し(例えば、「コンテンツA」を選択した複数のユーザが「コンテンツB」も選択した場合、このコンテンツが関連しているとみなす)、パートナーからのメタデータ内にこの関係を示すことができる。
サードパーティ及び/又はパートナーコンテンツ1〜N 104データベース内のコンテンツのいずれかの別のソース又はサービスがメタデータを提供することもできる。好ましい実施形態では、Gracenote(登録商標)及びコンテンツの評価を提供するサイト又はソースを、コンテンツのメタデータのための参照ソース及び/又は別のソースとして使用し、これに依存してコンテンツを分類することができる。メタデータは、時間とともに変更されることがあり、常に最新のメタデータを取り出すことにより、この変更を取り込むことができる。あるコンテンツのカテゴリ、及びカテゴリ内に存在する特定のコンテンツの両方の指定においてこの変更を反映させることができる。
コンテンツ統合要素108は、コンテンツ分類要素110を使用して、関連コンテンツを分類及び/又は編成することができる。コンテンツ分類要素110は、コンテンツメタデータ1〜N 106の(単複の)データベース内のメタデータを使用して、コンテンツの体系を決定することができる。コンテンツ分類要素110は、選択されたコンテンツに関連するコンテンツを、ユーザインターフェイス114上に表示するための「ピボット」内にグループ化することにより、コンテンツを体系化することができる。例えば、アニメ映画のコンテンツが選択された場合、コンテンツのメタデータに基づいて、ユーザインターフェイス上の「深海」及び「魚」などのピボットに関連コンテンツをグループ化することができる。メタデータに基づく関連コンテンツのピボットへのグループ化は、パートナーにより提供される階層体系とは異なっていてもよい。一例では、アニメ映画にアニメの魚が登場し、メタデータが「魚」というキーワードを含んで、「魚」に関する関連コンテンツのカテゴリを識別できるようにすることができる。この例を続けると、このアニメ映画は、「ビデオ」−>「アニメ」−>「子供」−>アニメ映画タイトルといった階層で見つけることができ、ピボットで選択されるカテゴリは、パートナーが使用する階層とは無関係であってもよい。ピボットは、1又はそれ以上のパートナーからのコンテンツを有することができ、ユーザを複数のパートナーからのコンテンツにナビゲートすることができる。
パートナー及び/又はコンテンツプロバイダは、1又はそれ以上の表示テンプレート1〜N 112を指定して、これらのコンテンツ及び/又はコンテンツのナビゲーション体験をユーザインターフェイス114上にどのように表示すべきかを選択することができる。表示テンプレート112は、コンテンツ統合開発フレームワーク102により提供される基盤内でこれらのコンテンツをナビゲートする際に、ユーザのナビゲーション体験を選択する柔軟性をパートナーに提供する。表示テンプレート1〜N 112は、以下に限定されるわけではないが、テキスト及び/又は画像で表されるコンテンツのリスト、関連コンテンツのメタデータを表すテキストのリスト及び/又は画像のタイル、コンテンツ画像を含むタイルマトリクス、タグクラウド、及び/又はメタデータに基づいて関連コンテンツをグループ化する「ピボット」などの関連コンテンツをパートナーが表示できるようにする。複数のタイルを含むマトリクスを使用する実施構成を示しているが、当業者であれば、ディスプレイ上の単一のタイル、又はユーザインターフェイス上のあらゆる数のタイルに視覚処理を施すことができると認識するであろう。
ユーザインターフェイス114は、表示テンプレート112を使用して、クライアント装置116のディスプレイ118上に関連コンテンツを表示することができる。クライアント装置116はいずれのコンピュータシステムであってもよく、このクライアント装置116に、コンテンツ統合開発フレームワーク102を使用して開発されたソフトウェアアプリケーションをインストールすることができる。或いは、コンテンツ統合開発フレームワーク102を使用して開発されたソフトウェアアプリケーションを、クライアント装置116がアクセスできるコンピュータシステムにインストールすることができる。実現できるユーザインターフェイス114は、以下に限定されるわけではないが、ビデオゲーム機によりウェブページの組として表示されるソフトウェアインターフェイス、ソフトウェアユーザインターフェイス、又はクライアント装置116によりサポートされる他のいずれかの種類のユーザインターフェイスなどの実施構成を含む。1又はそれ以上の実施形態では、ユーザインターフェイスをC++及び/又はJavaScriptで実現することができる。
ユーザインターフェイス114は、タイル表示要素120を使用して、コンテンツ画像を含むタイル表示及び/又はタイルマトリクスを表示することができる。タイル表示要素120を使用して、ユーザインターフェイス114上のタイルマトリクス内に1又はそれ以上のコンテンツ画像を表示することができる。タイル表示要素120は、画像最適化要素122を使用して、表示する画像を最適化することができる。画像最適化要素122は、コンテンツ画像のアスペクト比のサイズ変更及び/又は修正を可能にすることができる。
画像最適化要素122は、画素サイズ及び/又はパーセンテージを定めることにより、画像のサイズを自動的に調整することができる。例えば、必要に応じて、画像最適化要素122が、異なる画素サイズである50×50画素及び/又は50%のパーセンテージを定めることにより、100×100画素のサイズの画像を50×50画素に縮小することができる。
画像最適化要素122は、アスペクト比を変更することができる。例えば、画像最適化要素122を使用して、画素のアスペクト比を16×8から16×9に、及び/又は8×5から4×3に変更することができる。1又はそれ以上のパートナーにより提供される画像は、異なるサイズ及びアスペクト比を有することがある。ある実施形態では、コンテンツ画像に限定された歪みが存在する場合、より均一なユーザインターフェイスの表示を作成するために、画像最適化要素122が、サイズ及びアスペクト比を変更することができる。画像最適化要素122は、画像を歪ませること及び画像の品質を損なうことを伴わずにサイズ変更が可能であるかどうかを判断することができる。ある実施形態では、画像エディタを使用して、画像の最適化を手動で行うことができる。別の実施形態では、プログラムによって、及び/又はプログラムと手動の組み合わせによって最適化を行うことができる。
画像最適化要素122を使用して、以下に限定されるわけではないが、jpeg、gif、及び/又は他のいずれかの画像圧縮又は画像フォーマットなどのファイルフォーマットを変更することができる。画像最適化要素122を使用して、ビデオファイルから画像を作成することもできる。例えば、画像最適化要素122は、ビデオコンテンツファイルから静止画像を選択してこのビデオファイルを表示内に表すことができる。
タイル表示要素120は、ユーザインターフェイスのタイル表示などのマトリクスのタイル内に最適化した画像を表示することができる。タイル表示要素120は、反射視覚処理などの視覚処理を使用してタイル内の余剰空間を埋めることができる。タイル表示要素120は、反射視覚処理要素124を使用して反射を作成し、画像により使用されていない又は満たされていないタイル内の余剰空間を埋めることができる。
図1Bは、コンテンツ統合開発フレームワークを利用するソフトウェアアプリケーションのユーザインターフェイスを実行する例のフロー図である。タイルマトリクスのタイルサイズに関する情報を受け取ることができる(130)。ユーザインターフェイス上のタイルマトリクスは、ユーザインターフェイス上のタイルの行列表示(コンテンツ画像など)である。例えば、4×3マトリクスは、4行及び3列のタイルを有する。タイルマトリクスがユーザインターフェイス上の格子に見えるように、タイルは、ユーザインターフェイス上に行列の形で均等に離間することができる。
タイルサイズは、行列の形で均等に離間したタイルをユーザインターフェイス上に表示するために利用できる空間などの情報に基づいて決定することができる。ユーザインターフェイス上に表示されるマトリクスのタイルサイズを決定できる要素は数多く存在し、以下に限定されるわけではないが、マトリクスの表示に利用できる空間、ユーザが定義したタイルのサイズ、一様なインターフェイス内にコンテンツを統合するために固定されたタイルサイズ、表示するコンテンツ画像の品質を損なわないサイズ、マトリクスの行列の数、及び/又はユーザインターフェイス上のマトリクス内のタイル表示に影響する可能性がある他のいずれかの要素といった情報が挙げられる。例えば、ユーザインターフェイスは、ユーザインターフェイス上のタイル表示内に表示されるコンテンツ画像のサイズを固定することができ、ユーザが選択したコンテンツ画像を、ユーザインターフェイス上に表示される他のコンテンツ画像よりも大きなサイズにすることができる。別の例では、タイルマトリクスが背景内にサムネイルとして表示されるという情報、及び最前面に組み込みプレーヤが存在し得るという情報に基づいてタイルサイズを決定することができる。好ましい実施形態では、タイルサイズを1×1のアスペクト比を有する正方形とすることができる。
ユーザインターフェイス上に表示するための1又はそれ以上のコンテンツ画像を受け取る(132)。ユーザインターフェイス上に表示するための1又はそれ以上のコンテンツ画像は、1又はそれ以上のパートナーが寄稿したコンテンツからのものとすることができ、従って、受け取ったコンテンツ画像のサイズ及びアスペクト比は様々であり得る。ユーザインターフェイス上のマトリクス内に表示するために選択するコンテンツ画像については、以下で図2〜図4とともにより詳細に説明する。例えば、マトリクス内に表示すべきコンテンツ画像は、ユーザが入力した検索語、及びユーザの所在位置などの他の個人化因子、1又はそれ以上のユーザのコンテンツ発見履歴、及び/又はユーザインターフェイス上に表示するためのコンテンツ画像の選択に役立つことができる他のいずれかの因子に基づいて選択することができる。
次に、コンテンツ画像を最適化するかどうかを決定する(134)。コンテンツ画像は、ユーザインターフェイス上に表示する前に最適化することができる。ある実施形態では、コンテンツ画像を最適化し、後から取り出して及びユーザインターフェイス上に表示するために複数のフォーマットで記憶することができる。例えば、高速取り出し及び高速表示のために、(小さな画像及び大きな画像などの)複数のサイズのコンテンツ画像を記憶することができる。
画像の最適化が望まれる場合、コンテンツ画像を最適化する(136)。コンテンツ画像には様々な最適化を行うことができ、以下に限定されるわけではないが、アスペクト比の変更、画像のサイズ変更、マトリクスのタイルサイズに対応するための画像のサイズ変更、画像の鮮鋭化又はぼかし、圧縮フォーマットの変更、及び/又はコンテンツ画像のための他のいずれかの最適化などが挙げられる。この最適化によって、画像の歪み、切り取り、又は損傷を質的に抑えることが望ましい。例えば、パートナーにより提供された原画像の品質を保つために、アスペクト比及び/又はサイズを最適化しなくてもよい。この例を続けると、100×100画素のサイズのコンテンツ画像を受け取った場合、50×50画素にサイズを縮小してもコンテンツ画像の品質が損なわれることはなく、最適化を実行することができる。これとは別に、50×50画素のコンテンツ画像を受け取った場合、100x100画素にサイズを拡大すると画像の品質が損なわれる恐れがあり、最適化を実行しなくてもよい。
別の例では、16×8のアスペクト比のコンテンツ画像を受け取り、最適化を行って16×9のアスペクト比のコンテンツ画像を提供することができる。最適化を行う決定は、表示用に受け取った他の画像次第とすることができ、これに応じて最適化の決定を調整することができる。例えば、同様のアスペクト比の画像が数多く存在する場合、その他の画像を、表示用に受け取った1又はそれ以上のコンテンツ画像の大部分のアスペクト比に合わせて最適化することができる。ある実施形態では、画像を最適化する決定を画像ごとに行って、最適化によって品質が損なわれないようにすることができる。次に、1又はそれ以上のコンテンツ画像から選択したコンテンツ画像を表示するための、マトリクスのタイル内の位置を決定することができる(138)。
引き続き図1Bを参照すると、画像の最適化を望まない場合、1又はそれ以上のコンテンツ画像から選択したコンテンツ画像を表示するための、マトリクスのタイル内の位置を決定することができる(138)。好ましい実施形態では、コンテンツ画像の上部がタイルの上部に位置合わせされる。タイル内のコンテンツ画像を配置する位置はコンテンツ画像に基づいて変更することができ、これに応じて調整を行うことができる。位置は、各個々のコンテンツ画像に基づいて変更することができる。例えば、一貫したユーザインターフェイスを提示するために位置を固定することができ、及び/又は特定のコンテンツ画像を含むユーザインターフェイス上に知覚される余剰空間の量を削減するために位置を調整することができる。
ある実施形態では、選択されたコンテンツ画像、又はユーザのために強調表示したコンテンツ画像を、マトリクスに表示される他の画像とは異なるようにタイル内に配置することができる。例えば、選択されたコンテンツ画像は、画像の周囲に配置された追加の境界線を有することができ、この画像のタイル内の位置を、マトリクス内の他のコンテンツ画像と異なるようにすることができる。別の例では、組み込みプレーヤ内にコンテンツ画像を表示することができ、この画像のタイル内の位置を他のコンテンツ画像と異なるようにすることができる。
タイル内にコンテンツ画像を配置した後で、タイル内の余剰空間領域を決定することができる(140)。余剰空間領域は、第1のコンテンツ画像のアスペクト比、又は第1のコンテンツ画像のサイズに依存することができる。例えば、最適化後のコンテンツ画像のサイズが正方形タイルの2/3を満たし、余剰空間領域が正方形タイルの1/3とすることができる。別の例では、原コンテンツ画像のアスペクト比によって画像をサイズ変更することができるが、最適化後のコンテンツ画像を(16×9のアスペクト比などの)矩形のままで残し、この矩形のコンテンツ画像を正方形タイル内に配置したときに余剰空間領域をそのまま残すことができる。
次に、余剰空間が存在するかどうかを判定する(142)。コンテンツ画像を含むタイル内に余剰空間がない場合、このコンテンツ画像をユーザインターフェイス上のタイル内に表示する(146)。
これとは別に、余剰空間が存在する場合(142)、タイル内の余剰空間領域の少なくとも一部内にコンテンツ画像の反射を表示する(144)。タイルに反射視覚処理を施して、コンテンツ画像の鏡像の外観をタイル内に提供することができる。コンテンツ画像を上下に反転又は回転させて、鏡像がタイルの下部に現れるようにすることができる。反射視覚処理では、コンテンツ画像に比べて鏡像を薄暗く及び/又は半透明にして、コンテンツ画像の明度を抑えることができる。反射視覚処理により、鏡像を不鮮明又は鮮明にすることができる。好ましい実施形態では、鏡像が30%の不透明度を有することができる。反射視覚処理を施すための好ましい方法について説明しているが、当業者であれば、コンテンツ画像に反射視覚処理を施す方法は様々であることを理解するであろう。
次に、コンテンツ画像をマトリクスのタイル内に表示する(146)。コンテンツ画像は、マトリクス内の決められた位置のタイル内に表示される。ユーザインターフェイス上に表示するコンテンツ画像がもはや存在しない場合(148)、処理を終了することができる。これとは別に、ユーザインターフェイス上に表示するコンテンツ画像がさらに存在する場合(148)、処理を繰り返すことができる(134)。
図1Cに、コンテンツ統合開発フレームワークを利用するソフトウェアアプリケーションを実行するユーザインターフェイスの例を示す。図1Cは、ユーザインターフェイス上のN行及びN列を含むタイルマトリクス150を示している。マトリクス150のタイルは同じサイズであり、ユーザインターフェイス上で均等に離間する。第1のタイル152及び第2のタイル154はコンテンツ画像を有し、余剰空間内に施される視覚処理がこれらのそれぞれのコンテンツ画像によって消費されることはない。
第1のタイル152は、第1のコンテンツ画像(すなわち、コンテンツ画像1 156)を有し、この画像は、第2のタイル154の第2のコンテンツ画像(すなわち、コンテンツ画像2 158)とはサイズ及び/又はアスペクト比が異なる。全体を通じて指摘するように、画像に対して任意に最適化を行った後でも、コンテンツ画像は、異なるサイズ及びアスペクト比を有することができる。これらのそれぞれのタイル内に画像を配置した後、タイル内の余剰空間領域、すなわちコンテンツ画像によって消費されないタイルの部分は、(例えば、図1Cに余剰空間1 160及び余剰空間2 162で示すように)第1のタイル152と第2のタイル154で異なり得る。タイル間で異なる余剰空間領域は、マトリクス内のコンテンツ画像の画像サイズ及び/又はアスペクト比に起因し得る。図示のように、タイル内のそれぞれの余剰空間領域の少なくとも一部内に、第1の画像及び第2の画像それぞれの反射を表示することができる。犬を含むコンテンツ画像164は、余剰空間領域内に反射166で反射される。タイル内では、反射166が反転する。
タイル168は、画像及びこの画像のタイル内の反射の例を示している。タイル168では、コンテンツ画像164が、タイルの下部方向の余剰空間領域内のコンテンツ画像164の下方に反射された犬の画像を含む。反射166は、コンテンツ画像164に隣接又は近接して、縦方向に反転した画像の反射になるように作成される。反射166に重なってテキスト170が示される。好ましい実施形態では、テキストが反射の上に重なり、画像自体には重ならない。これにより、画像を不明瞭にすることなく視覚的に連結した魅力ある方法でテキストを画像に関連付けることができる。なお、他の実施形態では、異なる反射及びテキストの位置を使用することができる。
1又はそれ以上の実施形態では、第1のタイルと第2のタイルの間で、コンテンツ画像のサイズ及び余剰空間領域を同じにすることができる。反射に使用されるタイル内の余剰空間領域は、(50×50画素などの)サイズ及び/又は(16×9などの)アスペクト比、及び画像を歪ませたり又はコンテンツ画像の品質を損なわずにコンテンツ画像に利用できる(サイズ変更などの)最適化に依存する。例えば、第1のコンテンツ画像及び第2のコンテンツ画像のサイズ及びアスペクト比が異なる場合には余剰空間領域が異なり、最適化によって同じサイズにサイズ変更することはできず、各画像が同じサイズのタイル内に表示されるようになる。この例を続けると、異なるサイズのコンテンツ画像は、同じサイズのタイル内に表示された場合、異なる余剰空間領域を有することができる。
好ましい実施形態では、画像の反射全体にわたってテキストを書き、反射視覚処理を施して、テキストがユーザインターフェイス上で容易に見えるように十分なコントラストを与えることができる。このコントラストは、コンテンツ画像をマトリクスのタイル内に表示して反射させたことに基づいて調整することができる。
図2Aは、コンテンツ統合開発フレームワークを利用するソフトウェアアプリケーションを実行する例のフロー図である。最初に、コンテンツプロバイダからコンテンツの1又はそれ以上のメタデータを受け取ることができる(200)。このメタデータは、コンテンツの記述、コンテンツプロバイダの階層に関する情報、コンテンツプロバイダの階層内のこのコンテンツと他のコンテンツとの関係、画像、画像タイトル、コンテンツのアドレス、タイトル、日付、コンテンツのタグ、及び/又はこのコンテンツに関する他のいずれかのテキストを提供することができる。各コンテンツのメタデータからキーワードを決定することができる。このキーワードを使用して、コンテンツ統合するためのコンテンツを分類し、及び/又はコンテンツを階層/体系内に配置することができる。コンテンツを分類又は体系化するためのキーワードの参照として、複数のコンテンツメタデータのソースを使用することができる。1又はそれ以上の実施形態では、複数のソースから得た1つのコンテンツのメタデータを使用して、このコンテンツのキーワードを識別することができる。あるコンテンツに関するものとして識別されたコンテンツのメタデータを使用して、このコンテンツのキーワードを識別することもできる。
メタデータ内でキーワードが発見される頻度、及び/又は特定の単語が、パートナーから取り出したメタデータの種類に基づくキーワードであるという信頼に基づいて、1つのコンテンツからキーワードを識別することができる。例えば、キーワードが、パートナーにより提供される記述及び他のソースにより提供されるコンテンツの評価又は概要の中で繰り返し発見される場合、特定のキーワードがコンテンツの適切なキーワードであるという信頼が高まり得る。他の実施形態では、テキストがコンテンツのタグ内で発見された場合、テキストをコンテンツのタグとして割り当てることで、キーワードとして使用される単語に十分な信頼を与えることができる。
類似のキーワードを有するコンテンツは、関連コンテンツとして一緒にグループ化又は分類することができる。例えば、タイトル、画像タイトル、記述、階層記述、及び/又はコンテンツに関する他のいずれかのテキストに「魚」というキーワードを含むコンテンツでは、第1のコンテンツ及び第2のコンテンツが「魚」というカテゴリによって分類され、関連コンテンツとして一緒にグループ化されるようにすることができる。コンテンツのメタデータは時間とともに変化することができ、1つのコンテンツのメタデータを個々に更新することで、関連コンテンツの分類及び/又はグループ化を変更することができる。
1又はそれ以上の実施形態では、関連コンテンツのメタデータ内で発見されたキーワードを使用して、コンテンツを分類/グループ化することができる。例えば、あるコンテンツが、ソースが関連するものとして指定しているコンテンツを有することができ、関連するものとして指定されるコンテンツの(コンテンツの説明などの)メタデータをこのコンテンツのキーワードとして使用することもできる。メタデータ内で発見されたテキストを、コンテンツのメタデータ内の同じキーワードを識別できるように標準化することができる。例えば、「釣り」及び「魚」を魚という単語に標準化して、類似のキーワードを含むコンテンツを識別することができる。
関連コンテンツのカテゴリ/グループに重みを付けて、最も関連するカテゴリ又は関連コンテンツのグループがユーザに提示されることを保証することができる。関連コンテンツがより関連するものとして重み付けされるようにする因子としては、以下に限定されるわけではないが、関連するコンテンツをパートナーが指定すること、コンテンツの複数のソースがコンテンツを一緒にグループ化したこと、共通画像がコンテンツによって共有されたこと、及び/又はコンテンツを決定するために使用できる他のいずれかの因子が関連付けられることが挙げられる。
メタデータを使用してコンテンツの体系を決定することができる(202)。メタデータ内で発見されたキーワードを使用して、関連するコンテンツをグループ化/分類することにより、コンテンツの新たな体系を形成することができる。1又はそれ以上の実施形態では、コンテンツの新たな体系内の第2のコンテンツに第1のコンテンツを関連付けて結びつけ、第1及び第2のコンテンツ間で共有されるキーワードのリストが、コンテンツにより共有される1又は複数のカテゴリを示すようにすることができる。
コンテンツの選択を検出することができる(204)。ユーザは、コンテンツ統合フレームワーク102のユーザインターフェイス114を使用して、コンテンツを発見した後にコンテンツを選択することができる。ユーザは、様々な方法を使用してコンテンツを選択することができ、これらの方法として、以下に限定されるわけではないが、コンテンツへのナビゲーション、コンテンツを識別するためのテキストを入力すること、コンテンツを表す画像を選択すること、ラジオボタンを使用してコンテンツを選択すること、画面をタッチしてコンテンツを選択すること、選択するコンテンツを強調表示すること、及び/又はコンテンツ統合フレームワーク102にコンテンツの選択を入力又は伝達するための他のいずれかの方法が挙げられる。ある実施形態では、ユーザがテキストを入力し、このテキストの入力に応答して、コンテンツを表すタイル化された画像の組の表示を受け取ることができ、ユーザは、タイル化された画像表示上の1又はそれ以上の画像を選択することによりコンテンツを選択することができる。別の実施形態では、ユーザが、(リモコン、マウス、スマートフォン、又はコンピュータシステム用の他のいずれかの種類のコントローラなどの)別の装置を使用して、コンテンツ統合フレームワーク102を使用して開発されたコンテンツ統合アプリケーションを実行するコンピュータシステムと通信してコンテンツを選択することができる。
ユーザは、1又はそれ以上のコンテンツを選択し、この選択したコンテンツを、1又はそれ以上のパートナーからのメタデータに基づいて表示することができる。選択したコンテンツに対応するメタデータを、コンテンツメタデータのデータベース1〜N 106から取り出すことができる。メタデータは、選択されたコンテンツの記述、タイトル、及び/又はコンテンツとともに表示できる他のいずれかのテキストを提供することができる。メタデータは、選択されたコンテンツに、コンテンツのための特定の組み込みプレーヤを提供すべきである旨を示すことができる。パートナーは、タイトル、テキスト、リンク及び/又は画像などの、選択されたコンテンツとともに表示することが望ましいメタデータを指定することができる。
関連コンテンツの1又はそれ以上のカテゴリを表示するように指定された表示テンプレートを取り出すことができる(206)。この(単複の)表示テンプレートにより、パートナーがユーザのナビゲーション体験を定義できるようになる。パートナーは、望まれるいずれかのレベルの粒度のコンテンツのために、表示テンプレート1〜N 112のデータベースから表示テンプレートを指定することができる。パートナーは、自身のコンテンツの全て、特定の種類のコンテンツ、特定のコンテンツ、あるジャンルのコンテンツ、あるカテゴリのコンテンツのための表示テンプレート、及び/又はコンテンツの他のいずれかのレベルの粒度を指定することができる。例えば、選択したコンテンツのメタデータによってパートナーを識別することができ、このパートナーの識別子及びコンテンツの識別子の組み合わせを使用してデータベースからコンテンツの識別子及び表示テンプレートを取り出すことができる。
表示テンプレートは、ユーザがコンテンツをさらにナビゲートするために関連コンテンツの1又はそれ以上のカテゴリをどのように表示できるかを示すことができる。表示テンプレートは、統合されたコンテンツを使用するユーザのナビゲーション体験を定義する上で相当の柔軟性をパートナーに提供する。
1又はそれ以上の実施形態では、表示テンプレートが、ディスプレイの関連コンテンツ領域に表示するための「ピボット」を有することができる。例えば、表示テンプレートは、各カテゴリが表示された独自の「ピボット」を有する旨を示すことができる。「ピボット」は、選択に利用できるカテゴリであり、ピボットを選択することで、1又はそれ以上の関連コンテンツ及び/又はカテゴリ内に指定されるさらなるカテゴリを表示することができる。ピボットは、カテゴリを表す画像及び/又はテキストとして表示することができ、1又はそれ以上の関連コンテンツの山及び/又はピボットのための追加カテゴリを有するものとみなすことができる。例えば、設定をニューヨーク市内とする選択された映画のコンテンツでは、「ニューヨーク」というカテゴリに関する選択されたコンテンツを含むピボットを表示することができ、ピボットの選択時には、(ニューヨークに関する曲の歌詞、ニューヨークに設定された他の映画などの)ニューヨークの全ての関連コンテンツが利用可能になる。ピボットは、選択したコンテンツの関連コンテンツ及び/又はカテゴリの山又はリストとみなすことができる。
実施形態は、カテゴリのための様々なサイズ及び/又はフォントで表示されるタグクラウド又はテキストを利用する表示テンプレートを有することができる。コンテンツの選択後にユーザが選択する確率の高い関連コンテンツのカテゴリについては、サイズ及びフォントを大きく及び/又は太くすることができる。確率を使用してタグクラウドを実現するための一例を示すが、当業者であれば、より関連性の高い関連コンテンツを決定するための方法は、重み付けシステム及び/又は統計のように数多く存在することを認識するであろう。別の実施形態では、パートナーが、表示内でユーザに対してより目立たせるべきカテゴリの好みを示すことができる。タグクラウドでは、大きなテキスト、太字、特定のフォント、カテゴリを表す大きな画像、ユーザインターフェイス内の特定の配置、及び/又はカテゴリを際立たせるための他のいずれかの方法により、好ましいカテゴリをより目立たせることができる。
別の実施形態では、表示テンプレートが、複数のパートナーからのコンテンツを一緒に表示できる旨を示すことができる。パートナーは、他のパートナーからのコンテンツの量をどのように許可するか、及び他のパートナーのコンテンツをどこに表示できるようにするかの両方を指定することができる。例えば、パートナーは、他のパートナーからのコンテンツを、特定の種類のカテゴリの関連コンテンツ、あるパーセンテージのカテゴリの関連コンテンツに制限することができ、及び/又は含むことができる他のパートナーのコンテンツに他のいずれかの制限を設けることができる。
別の実施形態では、複数のパートナーが同じコンテンツを利用することができ、いずれの表示テンプレートを使用するかを決定しなければならず、及び/又はパートナーが表示テンプレートを指定しなくてもよい。コンテンツ統合開発フレームワーク102は、このような事例に対処するためにデフォルト表示テンプレートを有することができる。
上述したように、パートナーは、自身のコンテンツの体系又は基盤を有することができ、パートナーからのメタデータは、パートナーの体系/基盤、並びに関連コンテンツのカテゴリ及び/又は選択されたコンテンツとともに表示できる関連コンテンツを示すことができる。指定された表示テンプレートは、パートナーの基盤/体系で利用できる関連コンテンツ及び/又はカテゴリをテンプレート上に表示すべきである旨を示すことができる。
上記では、表示テンプレートの実施構成を、1つの種類の表示法にユーザインターフェイスの関連コンテンツ部分全体を使用するように説明しているかもしれないが、当業者であれば、1つの方法を使用して表示テンプレートの一部を表示できること、及び別の方法を使用して関連コンテンツ部分のあらゆる数の部分を表示できることを認識するであろう。例えば、表示テンプレートは、関連コンテンツ部分の一部が、パートナーが定義した関連コンテンツカテゴリを(例えば、パートナーのメタデータを使用して)表示し、関連コンテンツ部分の別の一部が、別のソースからのメタデータにより定義されるカテゴリを有することができる旨を示すことができる。
次に、コンテンツを選択するための関連コンテンツの1又はそれ以上のカテゴリを取り出す(208)。コンテンツ分類要素110は、コンテンツメタデータ1〜N 106から取り出したコンテンツのメタデータを使用して、選択されたコンテンツに関連するコンテンツを決定することができる。上述したように、関連コンテンツのカテゴリを識別するために、パートナー及びサードパーティからのメタデータを利用することができる。例えば、パートナーは、子供用アニメを分類し、子供用アニメのカテゴリ内にある関連コンテンツを示すことができる。この例を続けると、サードパーティは、「深海」及び/又は「魚」のカテゴリのコンテンツに関連する同じアニメの分類を示すメタデータを有することができる。
ある実施形態では、パートナーが、自身のコンテンツに関連付けたい特定のカテゴリを示すことができる。例えば、アニメコンテンツが選択された場合、パートナーは、自身のアニメコンテンツの全てとともに「アニメ」カテゴリを表示したいと望むことができる。パートナーは、関連コンテンツのカテゴリの各々に入れたいと望む自身のコンテンツのパーセンテージを示すことができる。例えば、パートナーは、ユーザに表示する関連カテゴリ内のコンテンツの75%が自身のコンテンツでなければならないと指定することができる。
次に、指定された表示テンプレートに基づいて1又はそれ以上のカテゴリを表示する(210)。表示テンプレートは、関連コンテンツを表示するためにパートナーが選択する規則の組として実現することができる。
図2Bは、コンテンツ統合開発フレームワークを利用するソフトウェアアプリケーションを実行する例のフロー図である。図2Bは、コンテンツ統合開発フレームワーク102を使用するソフトウェアアプリケーションを実行することによりコンテンツの体系を決定するためのフロー図である。最初に、1又はそれ以上のコンテンツプロバイダからあるコンテンツのメタデータを受け取る(212)。コンテンツ統合要素108は、コンテンツのために1又はそれ以上のコンテンツプロバイダからのメタデータをパートナーコンテンツ1〜N 104データベースから取り出し、このメタデータをコンテンツメタデータ1〜N 106データベースに記憶することができる。コンテンツのメタデータは、以下に限定されるわけではないが、このコンテンツのテキスト記述、タイトル、日付、コンテンツを表す画像、画像タイトル、又はこのコンテンツのための他のいずれかのデータを含むことができる。
次に、このコンテンツの1又はそれ以上のキーワードを決定する(214)。コンテンツのキーワードは、1又はそれ以上のコンテンツプロバイダにより提供されたメタデータから決定することができる。コンテンツのメタデータ及び/又は関連コンテンツのメタデータ内でキーワードが発見された場合、このキーワードをコンテンツに関連付けることができる。
別のメタデータソースを使用すべきかどうかを判断することができる(216)。統合されたコンテンツを正確に体系化して分類するために、コンテンツを記述するための参照ソースに、コンテンツのメタデータを拡張するように求めることができる。別のソースのメタデータが望まれる場合(216)、コンテンツ統合要素108が別のソースからメタデータを受け取る(218)。このメタデータを使用して、コンテンツの1又はそれ以上の追加キーワードを決定することができる(214)。或いは、追加メタデータのために別のソースを望まなくてもよい(216)。
引き続き図2を参照すると、コンテンツの1又はそれ以上の関連コンテンツを決定することができる(220)。コンテンツ統合要素108がキーワードを使用して、コンテンツの関連コンテンツを決定することができる。コンテンツの1又はそれ以上のキーワードが別のコンテンツのメタデータ内で発見された場合、このコンテンツを関連するものとみなすことができる。両方のコンテンツのメタデータ内で発見されたキーワードは、両方のコンテンツのカテゴリとすることができ、コンテンツ分類要素110が、両方のコンテンツのカテゴリとして識別することができる。
関連コンテンツのメタデータを使用して関連コンテンツを識別し、コンテンツ統合開発フレームワーク102によってコンテンツの体系を拡張するかどうかを決定することができる(222)。コンテンツを体系化するために関連コンテンツのメタデータが望まれる場合(224)、コンテンツ統合要素108が、関連コンテンツのメタデータを使用してコンテンツの体系を拡張することができる(224)。コンテンツに関連するコンテンツから得られるメタデータを使用して、コンテンツのより多くのキーワードを識別することができ(214)、この処理は、関連コンテンツ及びキーワードの決定を繰り返す。或いは、コンテンツの体系を拡張するために関連コンテンツからのメタデータを望まない場合(222)、このコンテンツの関連コンテンツとキーワードの関係を記憶する(226)。
コンテンツ分類要素110は、関連コンテンツ及びキーワードを使用してコンテンツのカテゴリを決定することができる。コンテンツ分類要素110は、重み付けシステムを順序付け及び/又は使用して、コンテンツのより関連性の高いカテゴリを識別することができる。
図3は、コンテンツ統合開発フレームワークの表示テンプレートを定義するための実施構成例のフロー図である。最初に、1又はそれ以上のコンテンツに関する第1のメタデータの組を、1又はそれ以上のコンテンツプロバイダから受け取ることができる(300)。統合するコンテンツに関する第1のメタデータの組は、コンテンツプロバイダ又はパートナーから受け取ることができる。統合する1又はそれ以上のコンテンツに関する第1のメタデータの組は、コンテンツを記述するとともに、コンテンツがパートナーの基盤内の階層のどこに適合するかを示すことができる。コンテンツプロバイダから統合すべきコンテンツごとに、コンテンツのカテゴリを識別することができる。
次に、1又はそれ以上のコンテンツの第2のメタデータの組を決定することができる(302)。第2のメタデータの組は、1又はそれ以上のコンテンツの別のソースから決定することができる。好ましい実施形態では、コンテンツのメタデータの参照ソース又はその他のソースとしてGracenote(登録商標)を使用することができる。このメタデータの組を使用して、コンテンツを体系化するため及び表示テンプレートの関連コンテンツ部分のためにコンテンツを分類することができる。コンテンツを分類するために他のソースからのメタデータを使用することで、複数のソースからの複数のメタデータの組を使用してコンテンツを再編、グループ化、及び分類することができるので、追加のメタデータを提供して、ユーザがコンテンツプロバイダ又はパートナーの階層又は基盤に制限されることなくコンテンツを通り抜け、及び/又はコンテンツを発見できることを保証することができる。パートナーからのメタデータは、関連コンテンツの他のソースを示すことができる。例えば、パートナーからのメタデータが、コンテンツがオルタナティヴロックのジャンル内に存在し、コンテンツに年度が与えられていることを示す場合、関連コンテンツを識別するために、同じジャンル及び日付範囲内のコンテンツに関するメタデータを求めて別のソース及び/又は参照先を検索し、又はこれにアクセスすることができる。
パートナー又はコンテンツプロバイダは、関連コンテンツのための表示テンプレート1〜N 112の表示法を指定することができる。関連コンテンツの表示法は、選択したコンテンツに関連するコンテンツを表示できる方法を定義する。例えば、パートナーは、表示テンプレート112の関連コンテンツ部分の表示法が、ピボット、タグクラウド、リスト及び/又は関連コンテンツを使用すべきであることを指定することができる。パートナーは、あらゆる数の表示テンプレート112を指定することができる。例えば、パートナーは、デフォルトテンプレート、特定のカテゴリのテンプレート、あるジャンルのテンプレート及び/又は1又はそれ以上のコンテンツのテンプレートを指定することができる。あらゆるオーディオビデオコンテンツに対して表示テンプレート1を定義することができ、この「表示テンプレート1」は、ユーザインターフェイスの関連コンテンツ部分内の関連コンテンツにピボット表示法を使用することを指定することができる。
次に、パートナーは、他のコンテンツプロバイダの関連コンテンツのあらゆる数の部分を任意に特定することができる(306)。パートナーは、パートナーが関連コンテンツ部分内に自身のコンテンツとともに表示することを許容する別のコンテンツプロバイダからのコンテンツの割合及び/又はパーセンテージを指定することができる。例えば、パートナーは、「表示テンプレート1」の関連コンテンツの1/4が別のコンテンツプロバイダからのものであってもよいことを指定することができる。或いは、パートナーは、関連コンテンツ部分内に自身の選択したコンテンツとともに関連コンテンツを表示できる他のコンテンツプロバイダはないことを表示テンプレート内で指定することができる。任意に、パートナーは、ディスプレイの関連コンテンツ部分内にコンテンツを表示できる特定のパートナーを指定することができる。
パートナーメタデータに基づいて、あらゆる数の関連コンテンツカテゴリを指定することができる(308)。パートナーは、関連コンテンツの一部が、コンテンツのパートナーメタデータに基づくカテゴリを有することを指定することができる。例えば、パートナーは、1又はそれ以上のピボットが、自身の階層又は基盤内で発見されるカテゴリを有することを指定することができる。この例を続けると、パートナーは、「表示テンプレート1」内のピボットが、協調フィルタを有するパートナーにより発見された関連コンテンツを有することを指定することができる。別の例では、パートナーは、1又はそれ以上のピボットが、コンテンツの自身のツリー階層構造内のノード(ジャンルなど)であるカテゴリを有することを指定することができる。或いは、パートナーは、表示する関連コンテンツ部分内のカテゴリに関して別のソースからのメタデータに完全に依存することを選択することができる。
1又はそれ以上のソースからのメタデータに基づいて、あらゆる数の関連コンテンツカテゴリを指定することができる(310)。パートナーは、関連コンテンツのカテゴリの一部が複数のメタデータのソースに従うように指定することができる。好ましい実施形態では、コンテンツのメタデータの参照ソース又はその他のソースとしてGracenote(登録商標)を使用することができる。この例を続けると、パートナーは、「表示テンプレート1」の残りのピボットが、Gracenote(登録商標)メタデータに依存するカテゴリを使用することを指定することができる。
次に、表示テンプレート112を使用して、コンテンツ統合開発フレームワーク102のユーザインターフェイス114の関連コンテンツ部分内に関連コンテンツを表示することができる。図3の例では、(カテゴリ及びピボットの使用などの)特定の実施構成及びステップを参照しているが、当業者であれば、他の実施構成を使用することもでき、上記のあらゆる数のステップを使用して表示テンプレートを定義できることを認識するであろう。
図4は、コンテンツ統合開発フレームワークを利用するソフトウェアアプリケーションを実行する例を示すフロー図である。詳細には、図4は、コンテンツ発見及びナビゲーションの例に、コンテンツ統合開発フレームワーク102を使用して開発されたソフトウェアアプリケーションを提供するものである。最初に、入力された用語を受け取る(400)。ユーザは、検索を開始するために、ユーザが発見したいと望むコンテンツに関するテキスト用語を入力することができる。別の実施形態では、ユーザが、関心のあるコンテンツを表す画像を選択することができ、この画像の選択に基づいて、入力された用語を識別することができる。当業者であれば、ソフトウェアアプリケーションの要素に用語を入力して送信するための実施構成は様々であることを認識するであろう。
次に、コンテンツ統合要素108が、入力された用語を使用して、この用語に関連するコンテンツを発見することができる。入力された用語に応じて、タイル表示内にコンテンツを表示することができる(402)。コンテンツのタイル表示は、コンテンツ統合要素108が入力した用語に関連するものとして識別されたコンテンツを表す画像の組を表示することができる。タイル表示については、図5とともにより詳細に説明する。様々な検索方法を使用して、入力された用語に関連するコンテンツを識別することができる。例えば、入力された用語を、コンテンツ統合要素108が関連するものとして識別した各コンテンツのメタデータ内で発見できるキーワードとすることができる。
次に、コンテンツの選択を検出する(404)。ユーザは、ユーザインターフェイスを使用してコンテンツの選択を示すことができる。例えば、ユーザは、コンテンツのタイル表示上のコンテンツを表す画像をダブルクリックすることによりコンテンツを選択することができる。
パートナーのために指定された表示テンプレートを取り出すことができる(406)。パートナーのために指定された表示テンプレートを取り出すことができる。ある実施形態では、パートナー及び選択されたコンテンツの両方によって、指定された表示テンプレートを識別することができる。例えば、パートナーは、ある種のコンテンツ、又は特定のコンテンツに関する特定の表示テンプレートを有することができる。
別のパートナーからのコンテンツを含めるかどうかを決定することができる(408)。別のパートナーからのコンテンツを含める場合(408)、メタデータに基づいて1又はそれ以上のパートナーからのコンテンツを分類する(410)。次に、表示テンプレートに基づいてカテゴリを表示することができる(414)。
引き続き図4を参照すると、別のパートナーからのコンテンツを含めない場合(408)、メタデータに基づいてパートナーのコンテンツを分類する(412)。次に、表示テンプレートに基づいてカテゴリを表示することができる(414)。
図5に、コンテンツ統合開発フレームワークを利用するソフトウェアアプリケーションを実行するユーザインターフェイスの例を示す。詳細には、図5は、コンテンツ統合開発フレームワーク102のためのユーザインターフェイス上のコンテンツのタイル表示を示している。好ましい実施形態では、用語の入力に応じてコンテンツの選択肢を最初に表示する場合、及び/又はユーザがコンテンツのカテゴリ又はピボットを選択した場合にタイル表示を使用する。タイル表示のコンテンツ画像は、横の行及び縦の列の形で配置され、各画像は一様な正方形である。
図5のタイル表示500では、(単複の)コンテンツ画像502が視覚処理を利用して、一様な画像表示が行われることを保証することができる。ある実施形態では、一様な1×1のアスペクト比を使用して、タイル表示上の各画像のサイズが一様な正方形になることを保証することができる。原コンテンツ画像の16×9などのアスペクト比を保存することができ、余剰空間を満たすために反射504視覚処理を施して、画像が正方形となることを保証することができる。例えば、原コンテンツ画像は16×9のアスペクト比を有することができ、これにより矩形の画像を生成して、タイル表示内の1×1のアスペクト比の正方形の上に配置することができ、余剰空間を画像の反射で満たして、全てのコンテンツ画像に関して正方形を作成することができるので、この原コンテンツ画像の比率を保存することができる。原コンテンツは、原画像を切り取ること及び歪ませることなく、後で1×1の正方形内に配置できるので、16×9の原コンテンツ画像を1×1のアスペクト比の正方形内に入れ込んで反射などの視覚処理を施すことが望ましい。
ある実施形態では、1×1の正方形内に、タイル内にテキストが表示されるようにするための空間を割り当てることができる。16×9のアスペクト比の例を示しているが、当業者であれば、16×9及び1×1のアスペクト比は一例として示すものにすぎず、視覚処理を施して他のアスペクト比による一様な表示を行うことができると認識するであろう。タイル表示の選択肢とともに、任意にパートナーロゴ506を表示することができる。
図6に、コンテンツ統合開発フレームワークを利用するソフトウェアアプリケーションを実行するユーザインターフェイスの表示テンプレートの例を示す。図6の表示テンプレート600は、選択コンテンツ602、及びユーザインターフェイス上の関連コンテンツ部分606内にピボット関連コンテンツ604を表示する。ピボットA606、ピボットB608、及びピボットC610は、選択された場合にはコンテンツのカテゴリを表示し、このカテゴリは、1又はそれ以上のパートナーのコンテンツを含むことができる。ピボットが選択されると、ピボットによって表されるカテゴリ内のコンテンツをユーザインターフェイスに表示することができる。1又はそれ以上の実施形態では、ピボットのコンテンツがタイル表示フォーマットで表示される。関連パートナーコンテンツピボットD612は、ユーザがピボットD612を選択した場合、選択コンテンツ602を提供したパートナーからのコンテンツをユーザインターフェイス上に表示する。
図7に、コンテンツ統合開発フレームワークを利用するソフトウェアアプリケーションを実行するユーザインターフェイスの例を示す。ユーザインターフェイス700は、選択したオーディオビデオコンテンツ704のための組み込みプレーヤ702を有し、選択したオーディオビデオコンテンツ704は、関連コンテンツ部分708内にピボット706表示タイプで表示される。ピボット706表示タイプは、表示テンプレートを使用してパートナーにより選択され、ピボットA〜C710及び関連パートナーコンテンツピボットD712は、表示テンプレートに基づいてユーザインターフェイス上に表示される。ピボットA〜C710は、ユーザがピボットを選択した場合、ピボットによって表されるカテゴリ内のコンテンツを表示する。組み込みプレーヤ702は、コンテンツタイトル、日付、パートナー名、及び/又は選択されたオーディオビデオコンテンツ704に関する他のいずれかの情報などのビデオ情報714を表示することができる。組み込みプレーヤ702は、オーディオビデオコンテンツ704の表示をユーザが制御するためのプレーヤ制御716を有することができる。ユーザインターフェイス700は、パートナーロゴ718、タイトル720、及び他のコンテンツのサムネイル722を表示することができる。サムネイル722は、画像が表すコンテンツをユーザインターフェイス700上に表示できるようにする画像とすることができる。ユーザインターフェイス700は、選択されたオーディオビデオコンテンツ704の記述724を有することができる。記述724は、パートナーにより供給されるメタデータに含めて提供することができる。
図8に、コンテンツ統合開発フレームワークを利用するソフトウェアアプリケーションを実行するユーザインターフェイスの例を示す。ユーザインターフェイス800は、選択したオーディオビデオコンテンツ804のための組み込みプレーヤ802を有し、選択したオーディオビデオコンテンツ804は、関連コンテンツ部分808内に関連タイル806表示タイプで表示される。関連タイル806表示タイプは、表示テンプレートを使用してパートナーにより選択され、関連コンテンツA〜C810は、表示テンプレートに基づいてユーザインターフェイス上に表示される。関連コンテンツA〜C810は、ユーザが関連コンテンツ810を選択した場合、ユーザインターフェイス上に表示される関連コンテンツ810の画像によって表されるコンテンツを表示する。関連コンテンツD812は、選択されたオーディオビデオコンテンツ804を供給したパートナーにより提供されるコンテンツのパートナーによって保存することができる。組み込みプレーヤ802は、コンテンツタイトル、日付、パートナー名、及び/又は選択されたオーディオビデオコンテンツ804に関する他のいずれかの情報などのビデオ情報814を表示することができる。組み込みプレーヤ802は、オーディオビデオコンテンツ804の表示をユーザが制御するためのプレーヤ制御816を有することができる。ユーザインターフェイス800は、パートナーロゴ818、タイトル820、及び他のコンテンツのサムネイル822を表示することができる。サムネイル822は、画像が表すコンテンツをユーザインターフェイス800上に表示できるようにする画像とすることができる。ユーザインターフェイス800は、選択されたオーディオビデオコンテンツ804の記述824を有することができる。記述824は、パートナーにより供給されるメタデータに含めて提供することができる。
図9Aに、コンテンツ統合開発フレームワークを利用するソフトウェアアプリケーションを実行するためのユーザインターフェイスの関連コンテンツ部分の例を示す。図9Aは、ユーザインターフェイスの関連コンテンツ部分902内の関連タグクラウド900表示タイプを示している。関連タグクラウド900は、様々なフォント、サイズのテキスト、イタリック体で強調したテキスト、ボールド体で強調したテキスト、及び他のいずれかのテキストフォーマットの選択肢でカテゴリ選択肢を表示する。ユーザにとってより関連性が高いと思われるカテゴリを、関連タグクラウド900内のカテゴリのフォントフォーマットの違いで強調することができる。
図9Bに、コンテンツ統合開発フレームワークを利用するソフトウェアアプリケーションを実行するためのユーザインターフェイスの関連コンテンツ部分の例を示す。図9Bは、ユーザインターフェイスの関連コンテンツ部分906内の関連タグ904表示タイプを示している。関連タグ904表示タイプは、カテゴリ選択肢をテキストで表示する。ユーザにとってより関連性が高いと思われるカテゴリを、関連タグ904表示タイプで表示されたタグを順序付けすることにより強調することができる。
記述について特定の実施形態に関して説明したが、これらの特定の実施形態は例示にすぎず、限定的なものではない。
図10に、コンピュータシステムのアーキテクチャ例のブロック図を示す。本発明を実施するための命令の実行は、図10に示すようなあらゆる数のコンピュータシステム1000によって行うことができる。本明細書では、1又はそれ以上のプログラム、アプリケーション、スクリプト、又はソフトウェア処理を記憶して個別に実行できるいずれかのコンピュータ装置を示すためにコンピュータシステムという用語を広義に使用する。本発明の実施構成は、単一のコンピュータシステム1000又はあらゆる数のコンピュータシステム1000を有することができる。
コンピュータシステム1000は、あらゆる数の通信インターフェイス1002を使用して他のコンピュータシステム/装置と通信することができる。通信インターフェイス1002は、(メッセージ、通信、命令、及びデータなどの)様々な種類の情報を表すデータストリームを含む、電子、電磁又は光信号などの信号を送信及び受信する機能を提供することができる。通信インターフェイス1002は、ネットワークプロトコルなどの通信プロトコルを実行することができる。命令は、受信時にプロセッサ1008によって実行され、及び/又はコンピュータシステム1000がアクセスできる記憶装置1004に記憶することができる。
コンピュータシステム1000は、記憶インターフェイス1006を使用して記憶装置1004にアクセスすることができる。コンピュータシステム1000は、記憶インターフェイス1006を使用して記憶装置1004と通信することができる。記憶インターフェイス1006は、記憶装置に結合されたバスを含み、信号を送信及び受信することができる。記憶装置1004は、動的データ及びプロセッサ1008により実行される命令を記憶するための、ランダムアクセスメモリ(RAM)又はその他の動的記憶装置を含むことができる。あらゆる数のプロセッサ1008を使用して、コンピュータシステム1000のための命令を実行することができる。記憶装置は、以下に限定されるわけではないが、読み出し専用メモリ(ROM)、磁気ディスク、フラッシュドライブ、USBドライブ、及び光学ディスクを含むことができる。1又はそれ以上の実施形態では、コンピュータシステム1000を、ユーザに情報を表示するためのディスプレイ1010に接続することができる。
「コンピュータ使用可能媒体」又は「コンピュータ可読媒体」は、情報を提供する、又はプロセッサ1008が使用できるあらゆる媒体を意味する。媒体は、揮発性及び不揮発性記憶媒体を含むことができる。
本発明の様々な実施形態は、(プログラム又はルーチンなどの)コンピュータ実行処理又は方法を利用して実現することができ、これらの処理又は方法は、C#、C/C++、FORTRAN、COBOL、PASCAL、Ruby、Python、アセンブリ言語、(HTML、SGML、XML、VoXMLなどの)マークアップ言語、及び同様のもの、並びに共通オブジェクト・リクエスト・ブローカ・アーキテクチャ(CORBA)、Java(商標)及び同様のものなどのオブジェクト指向環境を制限なく含むあらゆるコンピュータ言語で表現することができる。しかしながら、一般に、本明細書で使用する上述の用語は全て、所与の目的を達成するために順番に実行されるあらゆる一連の論理ステップを含むことを意図されている。
してみれば、この詳細な説明のいくつかの部分は、コンピュータメモリ内のデータにおける演算のアルゴリズム及び記号表現の観点から示すものであることを理解すべきである。これらのアルゴリズムによる記述及び表現は、コンピュータ科学技術における当業者が自らの研究内容を他の当業者に最も効果的に伝えるために使用する手段である。ここでは、及び一般的に、アルゴリズムとは、望ましい結果をもたらす首尾一貫した一連のステップであると考えられる。これらのステップは、物理量の物理的操作を必要とするものである。必ずしもそうではないが、通常これらの量は、記憶、転送、合成、比較、及び別様に操作できる電気又は磁気信号の形をとる。主に共通使用という理由で、時にはこれらの信号をビット、値、要素、記号、文字、用語、番号などと呼ぶことが便利であることが分かっている。しかしながら、これらの及び同様の用語は、全て適当な物理量に関連付けられるべきものであり、またこれらの量に与えられた便利な表記にすぎないことに留意されたい。特に別途述べていない限り、本発明の記載全体を通じて、「processing(処理する)」又は「computing(算出する)」又は「calculating(計算する)」又は「determining(決定する)」又は「displaying(表示する)」などの用語の使用は、コンピュータシステムのレジスタ及びメモリ内の物理(電子)量として表されるデータを操作し、コンピュータシステムのメモリ、レジスタ、又はその他のこのような情報記憶装置、送信又は表示装置内の物理量として同様に表される他のデータに変換するコンピュータシステム又は同様の電子コンピュータ装置の動作及び処理を意味するものである。
本発明は、本明細書で説明した動作を実行するための装置を使用して実施することができる。この装置は、必要な目的のために特別に構成することができ、又は汎用コンピュータを含むことができ、コンピュータに記憶されたコンピュータプログラムによって選択的に起動又は再構成することができる。このようなコンピュータプログラムを、以下に限定されるわけではないが、フロッピーディスク、光ディスク、CD−ROM、及び磁気光学ディスク、読み出し専用メモリ(ROM)、ランダムアクセスメモリ(RAM)、EPROM、EEPROM、磁気又は光カード、或いは電子命令を記憶するのに適したいずれかの種類の媒体などのコンピュータ可読記憶媒体に記憶することができ、これらの各々はコンピュータシステムバスに結合される。
本明細書の教示に従って、様々な汎用システムをプログラムとともに使用することができ、或いは必要な方法を実施するためにより専門化した装置を構築することが便利であると証明することができる。例えば、汎用プロセッサをプログラムすることにより、又はハードウェアとソフトウェアのいずれかの組み合わせにより、本発明による方法のいずれかを配線回路内で実施することができる。当業者であれば、ハンドヘルド装置、マルチプロセッサシステム、マイクロプロセッサベースの又はプログラム可能な家電製品、DSP装置、ミニコンピュータ、メインフレームコンピュータなどの、説明したもの以外のコンピュータシステム構成を使用して本発明を実施できることを直ちに理解するであろう。本発明はまた、通信ネットワークを介してリンクされた遠隔処理装置によってタスクが実行される分散コンピュータ環境で実施することもできる。
いくつかの例示的な実施形態について説明し、これらを添付図面に示したが、このような実施形態は例示的なものにすぎず、本発明を限定するものではないこと、及び当業者には修正が思い浮かぶと考えられるので、図示し説明した特定の構造及び構成に本発明が限定されないことを理解されたい。上記の詳細な説明は、本発明を実施するためのわずかな実施形態についてのものであり、範囲を限定することを意図するものではない。当業者であれば、詳述した以外の分野で本発明を実施するために使用する方法及び変形例を直ちに予想するであろう。
以下の特許請求の範囲には、詳細に開示した本発明のいくつかの実施形態を示す。C、C++、Java、アセンブリ言語などを含むあらゆる適当なプログラミング言語を使用して特定の実施形態のルーチンを実行することができる。手続きプログラミング又はオブジェクト指向プログラミングなどの様々なプログラミング技術を利用することができる。これらのルーチンは、単一の処理装置又は複数のプロセッサ上で実行することができる。ステップ、動作、又は計算を特定の順序で示していることがあるが、異なる特定の実施形態ではこの順序を変更することができる。いくつかの特定の実施形態では、この明細書に順次的に示す複数のステップを同時に実行することができる。
特定の実施形態を、命令実行システム、装置、システム、又は機器が使用する、或いはこれら接続されたコンピュータ可読記憶媒体内で実現することができる。特定の実施形態を、ソフトウェア又はハードウェア又はこれらの組み合わせにおける制御論理の形で実現することもできる。制御論理は、1又はそれ以上のプロセッサによって実行された場合、特定の実施形態において説明した内容を実行することができる。
プログラムされた汎用デジタルコンピュータを使用することにより、特定用途向け集積回路、プログラマブル論理装置、フィールドプログラマブルゲートアレイ、光学、化学、生物学、量子又はナノエンジニアリングシステム、構成要素及び機構を使用することにより、特定の実施形態を実現することができる。一般に、特定の実施形態の機能は、当業で公知のあらゆる手段によって実現することができる。分散、ネットワーク化システム、構成要素、及び/又は回路を使用することもできる。データの通信又は転送は、有線、無線、又は他のいずれの手段によるものであってもよい。
特定の用途に従って有用な場合には、図面/図に示す要素の1又はそれ以上をより分離した又は統合した態様で実現し、或いは事例によっては取り除き、又は動作不能とすることができることも理解されよう。機械可読媒体に記憶できるプログラム又はコードを実装して、上述した方法のいずれかをコンピュータが実行できるようにすることも本発明の思想及び範囲に含まれる。
「プロセッサ」は、データ、信号又はその他の情報を処理するいずれかの適当なハードウェア及び/又はソフトウェアシステム、機構又は構成要素を含む。プロセッサは、汎用中央処理装置、複数の処理装置、機能を実現するための専用回路、又はその他のシステムを有するシステムを含むことができる。処理を地理的位置に制限したり、又は処理が時間的制限を有する必要はない。例えば、プロセッサは、その機能を「リアルタイム」、「オフライン」、「バッチモード」などで実行することができる。処理の一部は、異なる時間に異なる場所で、異なる(又は同じ)処理システムによって実行することができる。コンピュータは、メモリと通信するいずれのプロセッサであってもよい。メモリは、ランダムアクセスメモリ(RAM)、読み出し専用メモリ(ROM)、磁気又は光学ディスク、或いはプロセッサが実行するための命令を記憶するのに適した他の有形媒体などのいずれの適当なプロセッサ可読記憶媒体であってもよい。
本明細書において、及び以下の特許請求の範囲を通じて使用する「1つの(英文不定冠詞)」及び「その(英文定冠詞)」は、文脈において別途明確に示していない限り複数形の意味を含む。また、本明細書において、及び以下の特許請求の範囲を通じて使用する「〜内(in)」の意味は、文脈において別途明確に示していない限り、「〜内(in)」及び「〜上(on)」の意味を含む。
以上、本明細書では特定の実施形態について説明したが、上述の開示では修正、様々な変更、及び置き換えの自由が意図されており、場合によっては、記述の範囲及び思想から逸脱することなく、特定の実施形態のいくつかの特徴が、他の特徴を対応して使用することなく利用されると理解されよう。従って、基本的な範囲及び思想に特定の状況又は材料を適応させるために多くの修正を行うことができる。

Claims (20)

  1. コンテンツ統合フレームワークのユーザインターフェイスのための方法であって、
    ユーザインターフェイス上に表示されるタイルサイズを有する1又はそれ以上のタイルで構成されるタイルマトリクスの前記タイルサイズに関する情報を受け取るステップと、
    前記ユーザインターフェイス上に表示するための1又はそれ以上のコンテンツ画像を受け取るステップと、
    前記1又はそれ以上のコンテンツ画像からの第1のコンテンツ画像を表示するための、前記マトリクスの第1のタイル内の位置を決定するステップと、
    前記第1のタイル内に前記第1のコンテンツ画像を配置した後に、前記第1のコンテンツ画像のアスペクト比及び前記第1のコンテンツ画像のサイズの少なくとも一方に依存する、前記タイル内の第1の余剰空間領域を決定するステップと、
    前記第1のタイル内の前記第1の余剰空間領域の少なくとも一部内に前記第1のコンテンツ画像の反射を表示するステップと、
    前記マトリクスの第1のタイル内に前記第1のコンテンツ画像を表示するステップと、
    前記第1のコンテンツ画像に関連するテキストを、前記反射の上に重なって前記第1のコンテンツ画像には重ならないように表示するステップと、
    を含むことを特徴とする方法。
  2. 前記ユーザインターフェイスに表示するための1又はそれ以上のコンテンツ画像からの、アスペクト比及び画像サイズの少なくとも一方が前記第1のコンテンツ画像と異なる第2のコンテンツ画像を受け取るステップと、
    前記1又はそれ以上のコンテンツ画像からの第2のコンテンツ画像を表示するための、前記マトリクスの第2のタイル内の位置を決定するステップと、
    前記タイル内に前記第2のコンテンツ画像を配置した後に、前記第2のタイル内の、前記第1の余剰空間領域と異なる第2の余剰空間領域を決定するステップと、
    前記第2のタイル内の第2の余剰空間領域の少なくとも一部内に前記第2のコンテンツ画像の反射を表示するステップと、
    前記マトリクスの前記第2のタイル内に前記第2のコンテンツ画像を表示するステップと、
    をさらに含むことを特徴とする請求項1に記載の方法。
  3. 前記マトリクスの前記第1のタイル内の位置が、前記マトリクスの前記第2のタイル内の位置と同じである、
    ことを特徴とする請求項2に記載の方法。
  4. 1又はそれ以上の入力された用語を受け取るステップと、
    前記1又はそれ以上の入力された用語を受け取ったことに応答して、1又はそれ以上のコンテンツプロバイダからのコンテンツ画像をタイル表示ユーザインターフェイスに表示するステップと、
    をさらに含むことを特徴とする請求項1に記載の方法。
  5. 前記第1のコンテンツ画像が、ビデオファイルからの静止コンテンツ画像である、
    ことを特徴とする請求項1に記載の方法。
  6. 前記第1のコンテンツ画像のアスペクト比及び前記第1のコンテンツ画像のサイズの少なくとも一方に従って、前記第1のコンテンツ画像に利用できる最適化を決定するステップと、
    前記第1のコンテンツ画像をサイズ変更すること、前記第1のコンテンツ画像のアスペクト比を変更すること、前記第1のコンテンツ画像のファイルフォーマットを変更すること、及び前記第1のコンテンツ画像のファイルの圧縮方法を変更することのうちの少なくとも1つによって前記第1のコンテンツ画像を最適化するステップと、
    をさらに含むことを特徴とする請求項1に記載の方法。
  7. 前記第1のタイル内に前記第1のコンテンツ画像の反射及び前記第1のコンテンツ画像を表示するステップと、
    前記第1のタイルを、表示のために前記ユーザインターフェイスに提供するステップと、
    をさらに含むことを特徴とする請求項1に記載の方法。
  8. コンテンツ統合フレームワークのための1又はそれ以上の命令を有するコンピュータ可読記憶媒体であって、前記命令が、1又はそれ以上のプロセッサによって実行された場合、該1又はそれ以上のプロセッサに、
    ユーザインターフェイス上に表示されるタイルサイズを有する1又はそれ以上のタイルで構成されるタイルマトリクスの前記タイルサイズに関する情報を受け取るステップと、
    前記ユーザインターフェイス上に表示するための1又はそれ以上のコンテンツ画像を受け取るステップと、
    前記1又はそれ以上のコンテンツ画像からの第1のコンテンツ画像を表示するための、前記マトリクスの第1のタイル内の位置を決定するステップと、
    前記第1のタイル内に前記第1のコンテンツ画像を配置した後に、前記第1のコンテンツ画像のアスペクト比及び前記第1のコンテンツ画像のサイズの少なくとも一方に依存する、前記タイル内の第1の余剰空間領域を決定するステップと、
    前記第1のタイル内の前記第1の余剰空間領域の少なくとも一部内に前記第1のコンテンツ画像の反射を表示するステップと、
    前記マトリクスの第1のタイル内に前記少なくとも1つのコンテンツ画像を表示するステップと、
    前記第1のコンテンツ画像に関連するテキストを、前記反射の上に重なって前記第1のコンテンツ画像には重ならないように表示するステップと、
    を実行させることを特徴とするコンピュータ可読記憶媒体。
  9. 前記命令が、
    前記ユーザインターフェイスに表示するための1又はそれ以上のコンテンツ画像からの、アスペクト比及び画像サイズの少なくとも一方が前記第1のコンテンツ画像と異なる第2のコンテンツ画像を受け取るステップと、
    前記1又はそれ以上のコンテンツ画像からの第2のコンテンツ画像を表示するための、前記マトリクスの第2のタイル内の位置を決定するステップと、
    前記タイル内に前記第2のコンテンツ画像を配置した後に、前記第2のタイル内の、前記第1の余剰空間領域と異なる第2の余剰空間領域を決定するステップと、
    前記第2のタイル内の第2の余剰空間領域の少なくとも一部内に前記第2のコンテンツ画像の反射を表示するステップと、
    前記マトリクスの前記第2のタイル内に前記第2のコンテンツ画像を表示するステップと、
    をさらに含むことを特徴とする請求項8に記載のコンピュータ可読記憶媒体。
  10. 前記マトリクスの前記第1のタイル内の位置が、前記マトリクスの前記第2のタイル内の位置と同じである、
    ことを特徴とする請求項9に記載のコンピュータ可読記憶媒体。
  11. 前記命令が、
    1又はそれ以上の入力された用語を受け取るステップと、
    前記1又はそれ以上の入力された用語を受け取ったことに応答して、1又はそれ以上のコンテンツプロバイダからのコンテンツ画像をタイル表示ユーザインターフェイスに表示するステップと、
    をさらに含むことを特徴とする請求項8に記載のコンピュータ可読記憶媒体。
  12. 前記第1のコンテンツ画像が、ビデオファイルからの静止コンテンツ画像である、
    ことを特徴とする請求項8に記載のコンピュータ可読記憶媒体。
  13. 前記命令が、
    前記第1のコンテンツ画像のアスペクト比及び前記第1のコンテンツ画像のサイズの少なくとも一方に従って、前記第1のコンテンツ画像に利用できる最適化を決定するステップと、
    前記第1のコンテンツ画像をサイズ変更すること、前記第1のコンテンツ画像のアスペクト比を変更すること、前記第1のコンテンツ画像のファイルフォーマットを変更すること、及び前記第1のコンテンツ画像のファイルの圧縮方法を変更することのうちの少なくとも1つによって前記第1のコンテンツ画像を最適化するステップと、
    をさらに含むことを特徴とする請求項8に記載のコンピュータ可読記憶媒体。
  14. コンテンツ統合フレームワークのためのユーザインターフェイスを提供するシステムであって、
    命令セットを実行するプロセッサと、
    前記プロセッサと通信する、命令セットを記憶するコンピュータ可読媒体と、
    を備え、前記命令セットが、
    ユーザインターフェイス上に表示されるタイルサイズを有する1又はそれ以上のタイルで構成されるタイルマトリクスの前記タイルサイズに関する情報を受け取り、
    前記ユーザインターフェイス上に表示するための1又はそれ以上のコンテンツ画像を受け取り、
    前記1又はそれ以上のコンテンツ画像からの第1のコンテンツ画像を表示するための、前記マトリクスの第1のタイル内の位置を決定し、
    前記第1のタイル内に前記第1のコンテンツ画像を配置した後に、前記第1のコンテンツ画像のアスペクト比及び前記第1のコンテンツ画像のサイズの少なくとも一方に依存する、前記タイル内の第1の余剰空間領域を決定し、
    前記第1のタイル内の前記第1の余剰空間領域の少なくとも一部内に前記第1のコンテンツ画像の反射を表示し、
    前記マトリクスの第1のタイル内に前記少なくとも1つのコンテンツ画像を表示し、
    前記第1のコンテンツ画像に関連するテキストを、前記反射の上に重なって前記第1のコンテンツ画像には重ならないように表示する、
    ように構成される、
    ことを特徴とするシステム。
  15. 前記命令が、
    前記ユーザインターフェイスに表示するための1又はそれ以上のコンテンツ画像からの、アスペクト比及び画像サイズの少なくとも一方が前記第1のコンテンツ画像と異なる第2のコンテンツ画像を受け取り、
    前記1又はそれ以上のコンテンツ画像からの第2のコンテンツ画像を表示するための、前記マトリクスの第2のタイル内の位置を決定し、
    前記タイル内に前記第2のコンテンツ画像を配置した後に、前記第2のタイル内の、前記第1の余剰空間領域と異なる第2の余剰空間領域を決定し、
    前記第2のタイル内の第2の余剰空間領域の少なくとも一部内に前記第2のコンテンツ画像の反射を表示し、
    前記マトリクスの前記第2のタイル内に前記第2のコンテンツ画像を表示する、
    ようにさらに構成されることを特徴とする請求項14に記載のシステム。
  16. 前記命令が、前記マトリクスの前記第1のタイル内の位置が、前記マトリクスの前記第2のタイル内の位置と同じであるようにさらに構成される、
    ことを特徴とする請求項15に記載のシステム。
  17. 前記命令が、
    1又はそれ以上の入力された用語を受け取り、
    前記1又はそれ以上の入力された用語を受け取ったことに応答して、1又はそれ以上のコンテンツプロバイダからのコンテンツ画像をタイル表示ユーザインターフェイスに表示する、
    ようにさらに構成されることを特徴とする請求項14に記載のシステム。
  18. 前記第1のコンテンツ画像が、ビデオファイルからの静止コンテンツ画像である、
    ことを特徴とする請求項14に記載のシステム。
  19. 前記命令が、
    前記第1のコンテンツ画像のアスペクト比及び前記第1のコンテンツ画像のサイズの少なくとも一方に従って、前記第1のコンテンツ画像に利用できる最適化を決定するステップと、
    前記第1のコンテンツ画像をサイズ変更すること、前記第1のコンテンツ画像のアスペクト比を変更すること、前記第1のコンテンツ画像のファイルフォーマットを変更すること、及び前記第1のコンテンツ画像のファイルの圧縮方法を変更することのうちの少なくとも1つによって前記第1のコンテンツ画像を最適化するステップと、
    をさらに含むことを特徴とする請求項14に記載のシステム。
  20. 前記命令が、
    前記第1のタイル内に前記第1のコンテンツ画像の反射及び前記第1のコンテンツ画像を表示するステップと、
    前記第1のタイルを、表示のために前記ユーザインターフェイスに提供するステップと、
    をさらに含むことを特徴とする請求項14に記載のシステム。
JP2011240632A 2010-12-02 2011-10-14 コンテンツ統合フレームワークにおけるユーザインターフェイスのための視覚処理 Active JP5182680B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US12/959,196 US8549425B2 (en) 2010-12-02 2010-12-02 Visual treatment for a user interface in a content integration framework
US12/959,196 2010-12-02

Publications (2)

Publication Number Publication Date
JP2012120157A JP2012120157A (ja) 2012-06-21
JP5182680B2 true JP5182680B2 (ja) 2013-04-17

Family

ID=44862562

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011240632A Active JP5182680B2 (ja) 2010-12-02 2011-10-14 コンテンツ統合フレームワークにおけるユーザインターフェイスのための視覚処理

Country Status (4)

Country Link
US (2) US8549425B2 (ja)
EP (1) EP2461260A1 (ja)
JP (1) JP5182680B2 (ja)
CN (1) CN102592298B (ja)

Families Citing this family (40)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8117548B1 (en) 2005-05-03 2012-02-14 Apple Inc. Image preview
US8549425B2 (en) * 2010-12-02 2013-10-01 Sony Corporation Visual treatment for a user interface in a content integration framework
US9436685B2 (en) 2010-12-23 2016-09-06 Microsoft Technology Licensing, Llc Techniques for electronic aggregation of information
US9679404B2 (en) 2010-12-23 2017-06-13 Microsoft Technology Licensing, Llc Techniques for dynamic layout of presentation tiles on a grid
US20120166953A1 (en) * 2010-12-23 2012-06-28 Microsoft Corporation Techniques for electronic aggregation of information
US9715485B2 (en) * 2011-03-28 2017-07-25 Microsoft Technology Licensing, Llc Techniques for electronic aggregation of information
US9104307B2 (en) 2011-05-27 2015-08-11 Microsoft Technology Licensing, Llc Multi-application environment
US20130057587A1 (en) 2011-09-01 2013-03-07 Microsoft Corporation Arranging tiles
US8922575B2 (en) * 2011-09-09 2014-12-30 Microsoft Corporation Tile cache
US10739932B2 (en) * 2011-10-11 2020-08-11 Semi-Linear, Inc. Systems and methods for interactive mobile electronic content creation and publication
US9069433B2 (en) * 2012-02-10 2015-06-30 Randall Hunt Method and apparatus for generating chain-link fence design
US9360982B2 (en) * 2012-05-01 2016-06-07 International Business Machines Corporation Generating visualizations of facet values for facets defined over a collection of objects
US20130311940A1 (en) * 2012-05-15 2013-11-21 Salvadore V. Ragusa System of Organizing Digital Images
US9143823B2 (en) 2012-10-01 2015-09-22 Google Inc. Providing suggestions for optimizing videos to video owners
US8612450B1 (en) 2012-11-20 2013-12-17 Limelight Networks, Inc. Content tagging using multi-node hierarchical content assignments
US9756282B2 (en) 2012-11-20 2017-09-05 Sony Corporation Method and apparatus for processing a video signal for display
CN103037165A (zh) * 2012-12-21 2013-04-10 厦门美图网科技有限公司 一种实时滤镜即时拼贴的拍照方法
US9836551B2 (en) 2013-01-08 2017-12-05 International Business Machines Corporation GUI for viewing and manipulating connected tag clouds
CA3096751C (en) * 2013-03-14 2023-10-17 Daniel SHMUGLIN A system and method for dialog customization
US20140325407A1 (en) * 2013-04-25 2014-10-30 Microsoft Corporation Collection, tracking and presentation of reading content
US9807145B2 (en) 2013-05-10 2017-10-31 Successfactors, Inc. Adaptive tile framework
KR101584635B1 (ko) * 2013-12-18 2016-01-12 네이버 주식회사 콘텐츠 저작 툴에서 인덱스 페이지를 구축하는 방법 및 시스템
CN103885706B (zh) * 2014-02-10 2017-07-28 广东欧珀移动通信有限公司 一种人脸图像美化的方法及装置
US10169734B2 (en) * 2014-08-22 2019-01-01 Successfactors, Inc. Dynamic layout for organizational charts
US10635296B2 (en) 2014-09-24 2020-04-28 Microsoft Technology Licensing, Llc Partitioned application presentation across devices
US10025684B2 (en) 2014-09-24 2018-07-17 Microsoft Technology Licensing, Llc Lending target device resources to host device computing environment
US9678640B2 (en) * 2014-09-24 2017-06-13 Microsoft Technology Licensing, Llc View management architecture
US9769227B2 (en) 2014-09-24 2017-09-19 Microsoft Technology Licensing, Llc Presentation of computing environment on multiple devices
US10448111B2 (en) 2014-09-24 2019-10-15 Microsoft Technology Licensing, Llc Content projection
US11797172B2 (en) 2015-03-06 2023-10-24 Alibaba Group Holding Limited Method and apparatus for interacting with content through overlays
US11222397B2 (en) * 2016-12-23 2022-01-11 Qualcomm Incorporated Foveated rendering in tiled architectures
CN107103581B (zh) * 2017-04-21 2021-09-07 努比亚技术有限公司 一种图像倒影处理方法、装置及计算机可读介质
US10885607B2 (en) 2017-06-01 2021-01-05 Qualcomm Incorporated Storage for foveated rendering
JP7410613B2 (ja) * 2019-08-27 2024-01-10 キヤノン株式会社 情報処理装置およびその制御方法およびプログラム
US11962547B2 (en) * 2019-09-27 2024-04-16 Snap Inc. Content item module arrangements
US11288310B2 (en) 2019-09-27 2022-03-29 Snap Inc. Presenting content items based on previous reactions
US11477143B2 (en) 2019-09-27 2022-10-18 Snap Inc. Trending content view count
US11425062B2 (en) 2019-09-27 2022-08-23 Snap Inc. Recommended content viewed by friends
US11343209B2 (en) 2019-09-27 2022-05-24 Snap Inc. Presenting reactions from friends
CN112040142B (zh) * 2020-07-08 2023-05-02 智者四海(北京)技术有限公司 用于移动终端上的视频创作的方法

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7234114B2 (en) * 2003-03-24 2007-06-19 Microsoft Corporation Extensible object previewer in a shell browser
TW200704183A (en) * 2005-01-27 2007-01-16 Matrix Tv Dynamic mosaic extended electronic programming guide for television program selection and display
US20060253782A1 (en) * 2005-04-01 2006-11-09 Vulcan Inc. Interface for manipulating multimedia playlists
JP2007292971A (ja) * 2006-04-25 2007-11-08 Hitachi Ltd 画像取扱装置
JP5025457B2 (ja) * 2007-12-28 2012-09-12 キヤノン株式会社 画像処理装置およびその方法
EP2304584A4 (en) * 2008-05-13 2011-11-09 Cyandia Inc APPARATUS AND METHODS FOR INTERACTING WITH MULTIPLE FORMS OF INFORMATION ON MULTIPLE TYPES OF COMPUTER DEVICES
US20100095219A1 (en) * 2008-10-15 2010-04-15 Maciej Stachowiak Selective history data structures
US20100185965A1 (en) * 2009-01-21 2010-07-22 Frederick Collin Davidson Artistic file manager
US8839128B2 (en) * 2009-11-25 2014-09-16 Cooliris, Inc. Gallery application for content viewing
KR101726607B1 (ko) * 2010-10-19 2017-04-13 삼성전자주식회사 휴대 단말기의 화면 제어 방법 및 장치
US8480238B2 (en) * 2010-10-26 2013-07-09 Canon Kabushiki Kaisha Projector array for multiple images
US8549425B2 (en) * 2010-12-02 2013-10-01 Sony Corporation Visual treatment for a user interface in a content integration framework
US20120216117A1 (en) * 2011-02-18 2012-08-23 Sony Corporation Method and apparatus for navigating a hierarchical menu based user interface

Also Published As

Publication number Publication date
US9229622B2 (en) 2016-01-05
CN102592298A (zh) 2012-07-18
US8549425B2 (en) 2013-10-01
CN102592298B (zh) 2015-05-06
US20120139932A1 (en) 2012-06-07
EP2461260A1 (en) 2012-06-06
JP2012120157A (ja) 2012-06-21
US20140040817A1 (en) 2014-02-06

Similar Documents

Publication Publication Date Title
JP5182680B2 (ja) コンテンツ統合フレームワークにおけるユーザインターフェイスのための視覚処理
US10275433B2 (en) Remote browsing and searching
US8261209B2 (en) Updating content display based on cursor position
US8812988B2 (en) Dynamic icons associated with remote content
US9195750B2 (en) Remote browsing and searching
US8479108B2 (en) Methods and systems for shareable virtual devices
US9336321B1 (en) Remote browsing and searching
US8948525B2 (en) Transferring system for huge and high quality images on network and method thereof
CN104603778A (zh) 信息处理设备、信息处理方法以及程序
US20080028312A1 (en) Scene organization in computer-assisted filmmaking
US20090307602A1 (en) Systems and methods for creating and sharing a presentation
US20110083082A1 (en) Fractional download based on currently presented portions from large content pages
US20200073903A1 (en) Method and device of tagging links included in a screenshot of webpage
US20130132422A1 (en) System and method for creating and controlling an application operating on a plurality of computer platform types
US20150347615A1 (en) Active Web Page Consolidator and Internet History Management System
US20170351713A1 (en) Image processing systems and/or methods
JP2003248683A (ja) サーバ、情報提供方法およびプログラム
US20080072157A1 (en) System for controlling objects in a recursive browser system: ZSpace sharing
WO2011098457A1 (en) Method and system for organizing information with a sharable user interface
US9092405B1 (en) Remote browsing and searching
US20090019370A1 (en) System for controlling objects in a recursive browser system: forcefield
CN101039489A (zh) 一种实现动态菜单的方法
US20180032479A1 (en) Unified content publishing system
KR102523006B1 (ko) 컨텐츠 목록 제공 방법, 장치 및 컴퓨터 프로그램
US20200045374A1 (en) Organizing alternative content for publication

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20121126

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20121206

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20121226

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130104

R150 Certificate of patent or registration of utility model

Ref document number: 5182680

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20160125

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250