JP6940951B2 - ユーザプロファイルに基づくメディアアセットのための画像の自動フォーマットのためのシステムおよび方法 - Google Patents
ユーザプロファイルに基づくメディアアセットのための画像の自動フォーマットのためのシステムおよび方法 Download PDFInfo
- Publication number
- JP6940951B2 JP6940951B2 JP2016576020A JP2016576020A JP6940951B2 JP 6940951 B2 JP6940951 B2 JP 6940951B2 JP 2016576020 A JP2016576020 A JP 2016576020A JP 2016576020 A JP2016576020 A JP 2016576020A JP 6940951 B2 JP6940951 B2 JP 6940951B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- control circuit
- entity
- user
- individual
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/47—End-user applications
- H04N21/482—End-user interface for program selection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T11/00—2D [Two Dimensional] image generation
- G06T11/60—Editing figures and text; Combining figures or text
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/43—Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
- H04N21/431—Generation of visual interfaces for content selection or interaction; Content or additional data rendering
- H04N21/4312—Generation of visual interfaces for content selection or interaction; Content or additional data rendering involving specific graphical features, e.g. screen layout, special fonts or colors, blinking icons, highlights or animations
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/43—Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
- H04N21/44—Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream, rendering scenes according to MPEG-4 scene graphs
- H04N21/44008—Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream, rendering scenes according to MPEG-4 scene graphs involving operations for analysing video streams, e.g. detecting features or characteristics in the video stream
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/45—Management operations performed by the client for facilitating the reception of or the interaction with the content or administrating data related to the end-user or to the client device itself, e.g. learning user preferences for recommending movies, resolving scheduling conflicts
- H04N21/4508—Management of client data or end-user data
- H04N21/4532—Management of client data or end-user data involving end-user characteristics, e.g. viewer profile, preferences
Description
本願明細書は、例えば、以下の項目も提供する。
(項目1)
表示のために、ユーザプロファイルに基づいて、画像の部分を選択的に生成するための方法であって、
メディアアセットに対応する画像を識別するステップであって、前記画像は、複数の部分を備え、前記複数の部分の各部分は、個別のエンティティを備える、ステップと、
前記複数の部分の各個別の部分内の各個別のエンティティの識別を判定するステップと、
データベースからユーザプロファイルにアクセスするステップと、
前記ユーザプロファイルのメタデータと各個別のエンティティの各識別を相互参照するステップと、
前記相互参照に基づいて、好ましいエンティティを識別するステップと、
表示のために、前記好ましいエンティティを備える個別の部分を生成するステップと
を含む、方法。
(項目2)
表示のために、前記個別の部分を生成するステップは、画像全体未満を含み、かつ前記好ましいエンティティを含むように前記画像を切り取るステップを含む、項目1に記載の方法。
(項目3)
前記好ましいエンティティを識別するステップはさらに、前記ユーザプロファイルと関連付けられたユーザが好む可能性が高いと前記ユーザプロファイルが反映する、前記画像のエンティティを識別するステップを含む、項目1に記載の方法。
(項目4)
前記相互参照に基づいて、前記好ましいエンティティを識別するステップは、
前記画像内の各エンティティに対する前記ユーザの好感度を識別するステップと、
各個別の好感度をランク付けするステップと、
前記複数の部分の隣接する部分の各他のサブセットと比較して、最高組み合わせランクと関連付けられた個別のエンティティを備える、前記複数の部分の隣接する部分のサブセットを識別するステップと、
を含み、表示のために、前記好ましいエンティティを備える個別の部分を生成するステップは、表示のために、前記隣接する部分のサブセットを生成するステップを含む、項目1に記載の方法。
(項目5)
前記複数の部分の各個別の部分内の各個別のエンティティの識別を判定するステップは、顔認識を前記画像の各個別のエンティティに行うステップを含む、項目1に記載の方法。
(項目6)
前記顔認識の結果と知識グラフのデータを比較するステップをさらに含む、項目5に記載の方法。
(項目7)
前記相互参照に基づいて、複数の好ましいエンティティを識別するステップと、
表示のために、規定された縦横比要件を満たすために十分な量の前記複数の好ましいエンティティのエンティティを備える複数の部分を生成するステップと
をさらに含む、項目1に記載の方法。
(項目8)
前記個別の部分のユーザによる選択を受信するステップと、
前記選択の受信に応答して、表示のために、前記画像を生成するステップと
をさらに含む、項目1に記載の方法。
(項目9)
前記画像内のテキストコンテンツを認識するステップと、
同時表示のために、前記好ましいエンティティを備える個別の部分を伴うテキストコンテンツを生成するステップと
をさらに含む、項目1に記載の方法。
(項目10)
前記好ましいエンティティの特性を判定するステップと、
前記好ましいエンティティに対応する個別の部分内において前記エンティティを囲繞する特徴のための最適特性を判定するステップと、
前記エンティティを囲繞する特徴の特性を変更し、前記最適特性を反映するステップと
をさらに含む、項目1に記載の方法。
(項目11)
表示のために、ユーザプロファイルに基づいて、画像の部分を選択的に生成するためのシステムであって、
通信回路と、
制御回路であって、
メディアアセットに対応する画像を識別することであって、前記画像は、複数の部分を備え、前記複数の部分の各部分は、個別のエンティティを備える、ことと、
前記複数の部分の各個別の部分内の各個別のエンティティの識別を判定することと、
前記通信回路を使用して、データベースからユーザプロファイルにアクセスすることと、
前記ユーザプロファイルのメタデータと各個別のエンティティの各識別を相互参照することと、
前記相互参照に基づいて、好ましいエンティティを識別することと、
表示のために、前記好ましいエンティティを備える個別の部分を生成することと
を行うように構成される、制御回路と
を備える、システム。
(項目12)
前記制御回路はさらに、表示のために、前記個別の部分を生成するとき、画像全体未満を含み、かつ前記好ましいエンティティを含むように前記画像を切り取るように構成される、項目11に記載のシステム。
(項目13)
前記制御回路はさらに、前記好ましいエンティティを識別するとき、前記ユーザプロファイルと関連付けられたユーザが好む可能性が高いと前記ユーザプロファイルが反映する、前記画像のエンティティを識別するように構成される、項目11に記載のシステム。
(項目14)
前記制御回路はさらに、前記相互参照に基づいて、前記好ましいエンティティを識別するとき、
前記画像内の各エンティティに対する前記ユーザの好感度を識別することと、
各個別の好感度をランク付けすることと、
前記複数の部分の隣接する部分の各他のサブセットと比較して、最高組み合わせランクと関連付けられた個別のエンティティを備える、前記複数の部分の隣接する部分のサブセットを識別することと
を行うように構成され、
前記制御回路はさらに、表示のために、前記好ましいエンティティを備える個別の部分を生成するとき、表示のために、前記隣接する部分のサブセットを生成するように構成される、項目11に記載のシステム。
(項目15)
前記制御回路はさらに、前記複数の部分の各個別の部分内の各個別のエンティティの識別を判定するとき、顔認識を前記画像の各個別のエンティティに行うように構成される、項目11に記載のシステム。
(項目16)
前記制御回路はさらに、前記顔認識の結果と知識グラフのデータを比較するように構成される、項目15に記載のシステム。
(項目17)
前記制御回路はさらに、
前記相互参照に基づいて、複数の好ましいエンティティを識別することと、
表示のために、規定された縦横比要件を満たすために十分な量の前記複数の好ましいエンティティのエンティティを備える複数の部分を生成することと
を行うように構成される、項目11に記載のシステム。
(項目18)
前記制御回路はさらに、
前記個別の部分のユーザによる選択を受信することと、
前記選択の受信に応答して、表示のために、前記画像を生成することと
を行うように構成される、項目11に記載のシステム。
(項目19)
前記制御回路はさらに、
前記画像内のテキストコンテンツを認識することと、
同時表示のために、前記好ましいエンティティを備える個別の部分を伴うテキストコンテンツを生成することと
を行うように構成される、項目11に記載のシステム。
(項目20)
前記制御回路はさらに、
前記好ましいエンティティの特性を判定することと、
前記好ましいエンティティに対応する個別の部分内において前記エンティティを囲繞する特徴のための最適特性を判定することと、
前記エンティティを囲繞する特徴の特性を変更し、前記最適特性を反映することと
を行うように構成される、項目11に記載のシステム。
(項目21)
表示のために、ユーザプロファイルに基づいて、画像の部分を選択的に生成するためのシステムであって、
メディアアセットに対応する画像を識別するための手段であって、前記画像は、複数の部分を備え、前記複数の部分の各部分は、個別のエンティティを備える、手段と、
前記複数の部分の各個別の部分内の各個別のエンティティの識別を判定するための手段と、
データベースからユーザプロファイルにアクセスするための手段と、
前記ユーザプロファイルのメタデータと各個別のエンティティの各識別を相互参照するための手段と、
前記相互参照に基づいて、好ましいエンティティを識別するための手段と、
表示のために、前記好ましいエンティティを備える個別の部分を生成するための手段と
を備える、システム。
(項目22)
表示のために、前記個別の部分を生成するための手段は、画像全体未満を含み、かつ前記好ましいエンティティを含むように前記画像を切り取るための手段を備える、項目21に記載のシステム。
(項目23)
前記好ましいエンティティを識別するための手段はさらに、前記ユーザプロファイルと関連付けられたユーザが好む可能性が高いと前記ユーザプロファイルが反映する、前記画像のエンティティを識別するための手段を備える、項目21に記載のシステム。
(項目24)
前記相互参照に基づいて、前記好ましいエンティティを識別するための手段は、
前記画像内の各エンティティに対する前記ユーザの好感度を識別するための手段と、
各個別の好感度をランク付けするための手段と、
前記複数の部分の隣接する部分の各他のサブセットと比較して、最高組み合わせランクと関連付けられた個別のエンティティを備える、前記複数の部分の隣接する部分のサブセットを識別するための手段と
を備え、表示のために、前記好ましいエンティティを備える個別の部分を生成するための手段は、表示のために、前記隣接する部分のサブセットを生成するための手段を備える、項目21に記載のシステム。
(項目25)
前記複数の部分の各個別の部分内の各個別のエンティティの識別を判定するための手段は、顔認識を前記画像の各個別のエンティティに行うための手段を備える、項目21に記載のシステム。
(項目26)
前記顔認識の結果と知識グラフのデータを比較するための手段をさらに備える、項目25に記載のシステム。
(項目27)
前記相互参照に基づいて、複数の好ましいエンティティを識別するための手段と、
表示のために、規定された縦横比要件を満たすために十分な量の前記複数の好ましいエンティティのエンティティを備える複数の部分を生成するための手段と
をさらに備える、項目21に記載のシステム。
(項目28)
前記個別の部分のユーザによる選択を受信するための手段と、
前記選択の受信に応答して、表示のために、前記画像を生成するための手段と
をさらに備える、項目21に記載のシステム。
(項目29)
前記画像内のテキストコンテンツを認識するための手段と、
同時表示のために、前記好ましいエンティティを備える個別の部分を伴うテキストコンテンツを生成するための手段と
をさらに備える、項目21に記載のシステム。
(項目30)
前記好ましいエンティティの特性を判定するための手段と、
前記好ましいエンティティに対応する個別の部分内において前記エンティティを囲繞する特徴のための最適特性を判定するための手段と、
前記エンティティを囲繞する特徴の特性を変更し、前記最適特性を反映するための手段と
をさらに備える、項目21に記載のシステム。
(項目31)
表示のために、ユーザプロファイルに基づいて、画像の部分を選択的に生成するための方法であって、
制御回路を使用して、メディアアセットに対応する画像を識別するステップであって、前記画像は、複数の部分を備え、前記複数の部分の各部分は、個別のエンティティを備える、ステップと、
前記制御回路を使用して、前記複数の部分の各個別の部分内の各個別のエンティティの識別を判定するステップと、
前記制御回路を使用して、データベースからユーザプロファイルにアクセスするステップと、
前記制御回路を使用して、前記ユーザプロファイルのメタデータと各個別のエンティティの各識別を相互参照するステップと、
前記制御回路を使用して、前記相互参照に基づいて、好ましいエンティティを識別するステップと、
表示のために、前記制御回路を使用して、前記好ましいエンティティを備える個別の部分を生成するステップと
を含む、方法。
(項目32)
表示のために、前記個別の部分を生成するステップは、画像全体未満を含み、かつ前記好ましいエンティティを含むように前記画像を切り取るステップを含む、項目31に記載の方法。
(項目33)
前記好ましいエンティティを識別するステップはさらに、前記ユーザプロファイルと関連付けられたユーザが好む可能性が高いと前記ユーザプロファイルが反映する、前記画像のエンティティを識別するステップを含む、項目31または32に記載の方法。
(項目34)
前記相互参照に基づいて、前記好ましいエンティティを識別するステップは、
前記画像内の各エンティティに対する前記ユーザの好感度を識別するステップと、
各個別の好感度をランク付けするステップと、
前記複数の部分の隣接する部分の各他のサブセットと比較して、最高組み合わせランクと関連付けられた個別のエンティティを備える、前記複数の部分の隣接する部分のサブセットを識別するステップと
を含み、表示のために、前記好ましいエンティティを備える個別の部分を生成するステップは、表示のために、前記隣接する部分のサブセットを生成するステップを含む、項目31−33のいずれかに記載の方法。
(項目35)
前記複数の部分の各個別の部分内の各個別のエンティティの識別を判定するステップは、顔認識を前記画像の各個別のエンティティに行うステップを含む、項目31−34のいずれかに記載の方法。
(項目36)
前記顔認識の結果と知識グラフのデータを比較するステップをさらに含む、項目35に記載の方法。
(項目37)
前記相互参照に基づいて、複数の好ましいエンティティを識別するステップと、
表示のために、規定された縦横比要件を満たすために十分な量の前記複数の好ましいエンティティのエンティティを備える複数の部分を生成するステップと
をさらに含む、項目31−36のいずれかに記載の方法。
(項目38)
前記個別の部分のユーザによる選択を受信するステップと、
前記選択の受信に応答して、表示のために、前記画像を生成するステップと
をさらに含む、項目31−37のいずれかに記載の方法。
(項目39)
前記画像内のテキストコンテンツを認識するステップと、
同時表示のために、前記好ましいエンティティを備える個別の部分を伴うテキストコンテンツを生成するステップと
をさらに含む、項目31−38のいずれかに記載の方法。
(項目40)
前記好ましいエンティティの特性を判定するステップと、
前記好ましいエンティティに対応する個別の部分内において前記エンティティを囲繞する特徴のための最適特性を判定するステップと、
前記エンティティを囲繞する特徴の特性を変更し、前記最適特性を反映するステップと
をさらに含む、項目31−39のいずれかに記載の方法。
(項目41)
表示のために、ユーザプロファイルに基づいて、画像の部分を選択的に生成するためのその上にエンコードされた機械可読命令を備える、非一過性機械可読媒体であって、前記命令は、
メディアアセットに対応する画像を識別するための命令であって、前記画像は、複数の部分を備え、前記複数の部分の各部分は、個別のエンティティを備える、命令と、
前記複数の部分の各個別の部分内の各個別のエンティティの識別を判定するための命令と、
データベースからユーザプロファイルにアクセスための命令と、
前記ユーザプロファイルのメタデータと各個別のエンティティの各識別を相互参照するための命令と、
前記相互参照に基づいて、好ましいエンティティを識別するための命令と、
表示のために、前記好ましいエンティティを備える個別の部分を生成するための命令と
を備える、非一過性機械可読媒体。
(項目42)
表示のために、前記個別の部分を生成するための命令は、画像全体未満を含み、かつ前記好ましいエンティティを含むように前記画像を切り取るための命令を備える、項目41に記載の非一過性機械可読媒体
(項目43)
前記好ましいエンティティを識別するための命令はさらに、前記ユーザプロファイルと関連付けられたユーザが好む可能性が高いと前記ユーザプロファイルが反映する、前記画像のエンティティを識別するための命令を備える、項目41に記載の非一過性機械可読媒体。
(項目44)
前記相互参照に基づいて、前記好ましいエンティティを識別するための命令は、
前記画像内の各エンティティに対する前記ユーザの好感度を識別するための命令と、
各個別の好感度をランク付けするための命令と、
前記複数の部分の隣接する部分の各他のサブセットと比較して、最高組み合わせランクと関連付けられた個別のエンティティを備える、前記複数の部分の隣接する部分のサブセットを識別するための命令と
を備え、表示のために、前記好ましいエンティティを備える個別の部分を生成するための命令は、表示のために、前記隣接する部分のサブセットを生成するための命令を備える、項目41に記載の非一過性機械可読媒体。
(項目45)
前記複数の部分の各個別の部分内の各個別のエンティティの識別を判定するための命令は、顔認識を前記画像の各個別のエンティティに行うための命令を備える、項目41に記載の非一過性機械可読媒体。
(項目46)
前記命令はさらに、前記顔認識の結果と知識グラフのデータを比較するための命令を備える、項目45に記載の非一過性機械可読媒体。
(項目47)
前記命令はさらに、
前記相互参照に基づいて、複数の好ましいエンティティを識別するための命令と、
表示のために、規定された縦横比要件を満たすために十分な量の前記複数の好ましいエンティティのエンティティを備える複数の部分を生成するための命令と
を備える、項目41に記載の非一過性機械可読媒体。
(項目48)
前記命令はさらに、
前記個別の部分のユーザによる選択を受信するための命令と、
前記選択の受信に応答して、表示のために、前記画像を生成するための命令と
を備える、項目41に記載の非一過性機械可読媒体。
(項目49)
前記命令はさらに、
前記画像内のテキストコンテンツを認識するための命令と、
同時表示のために、前記好ましいエンティティを備える個別の部分を伴うテキストコンテンツを生成するための命令と
を備える、項目41に記載の非一過性機械可読媒体。
(項目50)
前記命令はさらに、
前記好ましいエンティティの特性を判定するための命令と、
前記好ましいエンティティに対応する個別の部分内において前記エンティティを囲繞する特徴のための最適特性を判定するための命令と、
前記エンティティを囲繞する特徴の特性を変更し、前記最適特性を反映するための命令と
を備える、項目41に記載の非一過性機械可読媒体。
(項目51)
表示のために、画像の部分を選択的に生成するための方法であって、
メディアアセットに対応する画像を識別するステップであって、前記画像は、複数の部分を備え、前記複数の部分の各部分は、個別のエンティティを備える、ステップと、
前記複数の部分の各個別の部分内の各個別のエンティティの識別を判定するステップと、
データベースにアクセスし、前記メディアアセット内の各識別の頻出率のレベルを判定するステップと、
最高レベルの頻出率に対応する個別のエンティティを判定するステップと、
表示のために、前記最高レベルの頻出率に対応する前記個別のエンティティを備える個別の部分を生成するステップと
を含む、方法。
(項目52)
データベースからユーザプロファイルにアクセスするステップと、
前記ユーザプロファイルのメタデータと各個別のエンティティの各識別を相互参照するステップと、
前記相互参照に基づいて、各個別のエンティティをランク付けするステップと、
前記個別のエンティティに対応する頻出率の個別のレベルに基づいて、各個別のエンティティに加重付けするステップと、
各個別のエンティティのランクおよび加重をヒューリスティックに組み合わせ、各個別のエンティティの組み合わせられたランクを判定するステップと、
表示のために、前記最高組み合わせランクに対応する前記個別のエンティティを備える個別の部分を生成するステップと
をさらに含む、項目51に記載の方法。
(項目53)
表示のために、前記個別の部分を生成するステップは、画像全体未満を含み、かつ前記好ましいエンティティを含むように前記画像を切り取るステップを含む、項目51に記載の方法。
(項目54)
前記複数の部分の各個別の部分内の各個別のエンティティの識別を判定するステップは、顔認識を前記画像の各個別のエンティティに行うステップを含む、項目51に記載の方法。
(項目55)
前記顔認識の結果と知識グラフのデータを比較するステップをさらに含む、項目54に記載の方法。
(項目56)
各他のエンティティに対して前記最高頻出率レベルを伴う2つまたはそれを上回るエンティティを判定することによって、複数の高頻出エンティティを識別するステップと、
表示のために、規定された縦横比要件を満たすために十分な量の前記複数の好ましいエンティティのエンティティを備える複数の部分を生成するステップと
をさらに含む、項目51に記載の方法。
(項目57)
前記個別の部分のユーザによる選択を受信するステップと、
前記選択の受信に応答して、表示のために、前記画像を生成するステップと
をさらに含む、項目51に記載の方法。
(項目58)
前記画像内のテキストコンテンツを認識するステップと、
同時表示のために、前記好ましいエンティティを備える個別の部分を伴うテキストコンテンツを生成するステップと
をさらに含む、項目51に記載の方法。
(項目59)
前記最高レベルの頻出率に対応する前記エンティティの特性を判定するステップと、
前記最高レベルの頻出率に対応するエンティティに対応する前記個別の部分内のエンティティを囲繞する特徴のための最適特性を判定するステップと、
前記エンティティを囲繞する特徴の特性を変更し、前記最適特性を反映するステップと
をさらに含む、項目51に記載の方法。
(項目60)
頻出率のレベルは、出演時間、拡大映像内の時間量、広角撮影映像内の時間量、および前記メディアアセット内のフレーム中で単独登場人物である時間量のうちの少なくとも1つに基づいて判定される、項目51に記載の方法。
(項目61)
表示のために、画像の部分を選択的に生成するためのシステムであって、
通信回路と、
制御回路であって、
メディアアセットに対応する画像を識別することであって、前記画像は、複数の部分を備え、前記複数の部分の各部分は、個別のエンティティを備える、ことと、
前記複数の部分の各個別の部分内の各個別のエンティティの識別を判定することと、
前記通信回路を使用して、データベースにアクセスし、前記メディアアセット内の各識別の頻出率のレベルを判定することと、
最高レベルの頻出率に対応する個別のエンティティを判定することと、
表示のために、前記最高レベルの頻出率に対応する前記個別のエンティティを備える個別の部分を生成することと
を行うように構成される、制御回路と
を備える、システム。
(項目62)
前記制御回路はさらに、
データベースからユーザプロファイルにアクセスすることと、
前記ユーザプロファイルのメタデータと各個別のエンティティの各識別を相互参照することと、
前記相互参照に基づいて、各個別のエンティティをランク付けすることと、
前記個別のエンティティに対応する頻出率の個別のレベルに基づいて、各個別のエンティティに加重付けすることと、
各個別のエンティティのランクおよび加重をヒューリスティックに組み合わせ、各個別のエンティティの組み合わせられたランクを判定することと、
表示のために、前記最高組み合わせランクに対応する前記個別のエンティティを備える個別の部分を生成することと
を行うように構成される、項目61に記載のシステム。
(項目63)
前記制御回路はさらに、表示のために、前記個別の部分を生成するとき、画像全体未満を含み、かつ前記好ましいエンティティを含むように前記画像を切り取るように構成される、項目61に記載のシステム。
(項目64)
前記制御回路はさらに、前記複数の部分の各個別の部分内の各個別のエンティティの識別を判定するとき、顔認識を前記画像の各個別のエンティティに行うように構成される、項目61に記載のシステム。
(項目65)
前記制御回路はさらに、前記顔認識の結果と知識グラフのデータを比較するように構成される、項目64に記載のシステム。
(項目66)
前記制御回路はさらに、
各他のエンティティに対して前記最高頻出率レベルを伴う2つまたはそれを上回るエンティティを判定することによって、複数の高頻出エンティティを識別することと、
表示のために、規定された縦横比要件を満たすために十分な量の前記複数の好ましいエンティティのエンティティを備える複数の部分を生成することと
を行うように構成される、項目61に記載のシステム。
(項目67)
前記制御回路はさらに、
前記個別の部分のユーザによる選択を受信することと、
前記選択の受信に応答して、表示のために、前記画像を生成することと
を行うように構成される、項目61に記載のシステム。
(項目68)
前記制御回路はさらに、
前記画像内のテキストコンテンツを認識することと、
同時表示のために、前記好ましいエンティティを備える個別の部分を伴うテキストコンテンツを生成することと
を行うように構成される、項目61に記載のシステム。
(項目69)
前記制御回路はさらに、
前記最高レベルの頻出率に対応する前記エンティティの特性を判定することと、
前記最高レベルの頻出率に対応するエンティティに対応する前記個別の部分内のエンティティを囲繞する特徴のための最適特性を判定することと、
前記エンティティを囲繞する特徴の特性を変更し、前記最適特性を反映することと
を行うように構成される、項目61に記載のシステム。
(項目70)
頻出率のレベルは、出演時間、拡大映像内の時間量、広角撮影映像内の時間量、および前記メディアアセット内のフレーム中で単独登場人物である時間量のうちの少なくとも1つに基づいて判定される、項目61に記載のシステム。
(項目71)
表示のために、画像の部分を選択的に生成するためのシステムであって、
メディアアセットに対応する画像を識別する手段であって、前記画像は、複数の部分を備え、前記複数の部分の各部分は、個別のエンティティを備える、手段と、
前記複数の部分の各個別の部分内の各個別のエンティティの識別を判定するための手段と、
データベースにアクセスし、前記メディアアセット内の各識別の頻出率のレベルを判定するための手段と、
最高レベルの頻出率に対応する個別のエンティティを判定するための手段と、
表示のために、前記最高レベルの頻出率に対応する前記個別のエンティティを備える個別の部分を生成するための手段と
を備える、システム。
(項目72)
データベースからユーザプロファイルにアクセスするための手段と、
前記ユーザプロファイルのメタデータと各個別のエンティティの各識別を相互参照するための手段と、
前記相互参照に基づいて、各個別のエンティティをランク付けするための手段と、
前記個別のエンティティに対応する頻出率の個別のレベルに基づいて、各個別のエンティティに加重付けするための手段と、
各個別のエンティティのランクおよび加重をヒューリスティックに組み合わせ、各個別のエンティティの組み合わせられたランクを判定するための手段と、
表示のために、前記最高組み合わせランクに対応する前記個別のエンティティを備える個別の部分を生成するための手段と
をさらに備える、項目71に記載のシステム。
(項目73)
表示のために、前記個別の部分を生成するための手段は、画像全体未満を含み、かつ前記好ましいエンティティを含むように前記画像を切り取るための手段を備える、項目71に記載のシステム。
(項目74)
前記複数の部分の各個別の部分内の各個別のエンティティの識別を判定するための手段は、顔認識を前記画像の各個別のエンティティに行うための手段を備える、項目71に記載のシステム。
(項目75)
前記顔認識の結果と知識グラフのデータを比較するための手段をさらに備える、項目74に記載のシステム。
(項目76)
各他のエンティティに対して前記最高頻出率レベルを伴う2つまたはそれを上回るエンティティを判定することによって、複数の高頻出エンティティを識別するための手段と、
表示のために、規定された縦横比要件を満たすために十分な量の前記複数の好ましいエンティティのエンティティを備える複数の部分を生成するための手段と
をさらに備える、項目71に記載のシステム。
(項目77)
前記個別の部分のユーザによる選択を受信するための手段と、
前記選択の受信に応答して、表示のために、前記画像を生成するための手段と
をさらに備える、項目71に記載のシステム。
(項目78)
前記画像内のテキストコンテンツを認識するための手段と、
同時表示のために、前記好ましいエンティティを備える個別の部分を伴うテキストコンテンツを生成するための手段と
をさらに備える、項目71に記載のシステム。
(項目79)
前記最高レベルの頻出率に対応する前記エンティティの特性を判定するための手段と、
前記最高レベルの頻出率に対応するエンティティに対応する前記個別の部分内のエンティティを囲繞する特徴のための最適特性を判定するための手段と、
前記エンティティを囲繞する特徴の特性を変更し、前記最適特性を反映するための手段と
をさらに備える、項目71に記載のシステム。
(項目80)
頻出率のレベルは、出演時間、拡大映像内の時間量、広角撮影映像内の時間量、および前記メディアアセット内のフレーム中で単独登場人物である時間量のうちの少なくとも1つに基づいて判定される、項目71に記載のシステム。
(項目81)
表示のために、画像の部分を選択的に生成するための方法であって、
メディアアセットに対応する画像を識別するステップであって、前記画像は、複数の部分を備え、前記複数の部分の各部分は、個別のエンティティを備える、ステップと、
前記複数の部分の各個別の部分内の各個別のエンティティの識別を判定するステップと、
データベースにアクセスし、前記メディアアセット内の各識別の頻出率のレベルを判定するステップと、
最高レベルの頻出率に対応する個別のエンティティを判定するステップと、
表示のために、前記最高レベルの頻出率に対応する前記個別のエンティティを備える個別の部分を生成するステップと
を含む、方法。
(項目82)
データベースからユーザプロファイルにアクセスするステップと、
前記ユーザプロファイルのメタデータと各個別のエンティティの各識別を相互参照するステップと、
前記相互参照に基づいて、各個別のエンティティをランク付けするステップと、
前記個別のエンティティに対応する頻出率の個別のレベルに基づいて、各個別のエンティティに加重付けするステップと、
各個別のエンティティのランクおよび加重をヒューリスティックに組み合わせ、各個別のエンティティの組み合わせられたランクを判定するステップと、
表示のために、前記最高組み合わせランクに対応する前記個別のエンティティを備える個別の部分を生成するステップと
をさらに含む、項目81に記載の方法。
(項目83)
表示のために、前記個別の部分を生成するステップは、画像全体未満を含み、かつ前記好ましいエンティティを含むように前記画像を切り取るステップを含む、項目81および82のいずれかに記載の方法。
(項目84)
前記複数の部分の各個別の部分内の各個別のエンティティの識別を判定するステップは、顔認識を前記画像の各個別のエンティティに行うステップを含む、項目81−83のいずれかに記載の方法。
(項目85)
前記顔認識の結果と知識グラフのデータを比較するステップをさらに含む、項目84に記載の方法。
(項目86)
各他のエンティティに対して前記最高頻出率レベルを伴う2つまたはそれを上回るエンティティを判定することによって、複数の高頻出エンティティを識別するステップと、
表示のために、規定された縦横比要件を満たすために十分な量の前記複数の好ましいエンティティのエンティティを備える複数の部分を生成するステップと
をさらに含む、項目81−85のいずれかに記載の方法。
(項目87)
前記個別の部分のユーザによる選択を受信するステップと、
前記選択の受信に応答して、表示のために、前記画像を生成するステップと
をさらに含む、項目81−85のいずれかに記載の方法。
(項目88)
前記画像内のテキストコンテンツを認識するステップと、
同時表示のために、前記好ましいエンティティを備える個別の部分を伴うテキストコンテンツを生成するステップと
をさらに含む、項目81−85のいずれかに記載の方法。
(項目89)
前記最高レベルの頻出率に対応する前記エンティティの特性を判定するステップと、
前記最高レベルの頻出率に対応するエンティティに対応する前記個別の部分内のエンティティを囲繞する特徴のための最適特性を判定するステップと、
前記エンティティを囲繞する特徴の特性を変更し、前記最適特性を反映するステップと
をさらに含む、項目81−85のいずれかに記載の方法。
(項目90)
頻出率のレベルは、出演時間、拡大映像内の時間量、広角撮影映像内の時間量、および前記メディアアセット内のフレーム中で単独登場人物である時間量のうちの少なくとも1つに基づいて判定される、項目81−85のいずれかに記載の方法。
(項目91)
表示のために、画像の部分を選択的に生成するためのその上にエンコードされた機械可読命令を備える、非一過性機械可読媒体であって、前記命令は、
メディアアセットに対応する画像を識別するための命令であって、前記画像は、複数の部分を備え、前記複数の部分の各部分は、個別のエンティティを備える、命令と、
前記複数の部分の各個別の部分内の各個別のエンティティの識別を判定するための命令と、
データベースにアクセスし、前記メディアアセット内の各識別の頻出率のレベルを判定するための命令と、
最高レベルの頻出率に対応する個別のエンティティを判定するための命令と、
表示のために、前記最高レベルの頻出率に対応する前記個別のエンティティを備える個別の部分を生成するための命令と
を備える、非一過性機械可読媒体。
(項目92)
データベースからユーザプロファイルにアクセスするための命令と、
前記ユーザプロファイルのメタデータと各個別のエンティティの各識別を相互参照するための命令と、
前記相互参照に基づいて、各個別のエンティティをランク付けするための命令と、
前記個別のエンティティに対応する頻出率の個別のレベルに基づいて、各個別のエンティティに加重付けするための命令と、
各個別のエンティティのランクおよび加重をヒューリスティックに組み合わせ、各個別のエンティティの組み合わせられたランクを判定するための命令と、
表示のために、前記最高組み合わせランクに対応する前記個別のエンティティを備える個別の部分を生成するための命令と
をさらに備える、項目91に記載の非一過性機械可読媒体。
(項目93)
表示のために、前記個別の部分を生成するための命令は、画像全体未満を含み、かつ前記好ましいエンティティを含むように前記画像を切り取るための命令を備える、項目91に記載の非一過性機械可読媒体。
(項目94)
前記複数の部分の各個別の部分内の各個別のエンティティの識別を判定するための命令は、顔認識を前記画像の各個別のエンティティに行うための命令を備える、項目91に記載の非一過性機械可読媒体。
(項目95)
前記顔認識の結果と知識グラフのデータを比較するための命令をさらに備える、項目94に記載の非一過性機械可読媒体。
(項目96)
各他のエンティティに対して前記最高頻出率レベルを伴う2つまたはそれを上回るエンティティを判定することによって、複数の高頻出エンティティを識別するための命令と、
表示のために、規定された縦横比要件を満たすために十分な量の前記複数の好ましいエンティティのエンティティを備える複数の部分を生成するための命令と
をさらに備える、項目91に記載の非一過性機械可読媒体。
(項目97)
前記個別の部分のユーザによる選択を受信するための命令と、
前記選択の受信に応答して、表示のために、前記画像を生成するための命令と
をさらに備える、項目91に記載の非一過性機械可読媒体
(項目98)
前記画像内のテキストコンテンツを認識するための命令と、
同時表示のために、前記好ましいエンティティを備える個別の部分を伴うテキストコンテンツを生成するための命令と
をさらに備える、項目91に記載の非一過性機械可読媒体。
(項目99)
前記最高レベルの頻出率に対応する前記エンティティの特性を判定するための命令と、
前記最高レベルの頻出率に対応するエンティティに対応する前記個別の部分内のエンティティを囲繞する特徴のための最適特性を判定するための命令と、
前記エンティティを囲繞する特徴の特性を変更し、前記最適特性を反映するための命令と
をさらに備える、項目91に記載の非一過性機械可読媒体。
(項目100)
頻出率のレベルは、出演時間、拡大映像内の時間量、広角撮影映像内の時間量、および前記メディアアセット内のフレーム中で単独登場人物である時間量のうちの少なくとも1つに基づいて判定される、項目91に記載の非一過性機械可読媒体。
(項目101)
表示のために、画像を選択的に生成するための方法であって、
メディアアセットに対応する複数の画像を識別するステップであって、各画像は、少なくとも1つの部分を備え、各部分は、個別のエンティティを備える、ステップと、
各個別のエンティティの識別を判定するステップと、
データベースからユーザプロファイルにアクセスするステップと、
前記ユーザプロファイルのメタデータと各個別のエンティティの各識別を相互参照するステップと、
前記相互参照に基づいて、好ましいエンティティを識別するステップと、
前記好ましいエンティティが最も高頻出する、前記複数の画像のうちの画像を判定するステップと、
表示のために、前記画像を生成するステップと
を含む、方法。
(項目102)
表示のために、前記画像を生成するステップは、表示のために、前記画像のフルサイズ未満である前記画像の部分を生成するステップを含み、前記部分は、前記画像内の全部より少ないエンティティを備える、項目101に記載の方法。
(項目103)
表示のために、前記画像のフルサイズ未満である前記画像の部分を生成するステップは、前記好ましいエンティティを含むように前記画像を切り取るステップを含む、項目102に記載の方法。
(項目104)
前記好ましいエンティティを識別するステップはさらに、前記ユーザプロファイルと関連付けられたユーザが好む可能性が高いと前記ユーザプロファイルが反映する、前記複数の画像のエンティティを識別するステップを含む、項目101に記載の方法。
(項目105)
前記相互参照に基づいて、前記好ましいエンティティを識別するステップは、
前記複数の画像の各画像内の各エンティティに対する前記ユーザの好感度を識別するステップと、
各個別の好感度をランク付けするステップと、
前記複数の画像の隣接する部分の各他のサブセットと比較して、最高組み合わせランクと関連付けられた個別のエンティティを備える前記複数の画像の隣接する画像の部分のサブセットを識別するステップと
を含み、表示のために、前記好ましいエンティティを備える個別の部分を生成するステップは、表示のために、前記隣接する部分のサブセットを生成するステップを含む、項目101に記載の方法。
(項目106)
各個別のエンティティの識別を判定するステップは、顔認識を前記画像の各個別のエンティティに行うステップを含む、項目101に記載の方法。
(項目107)
前記顔認識の結果と知識グラフのデータを比較するステップをさらに含む、項目106に記載の方法。
(項目108)
前記画像のユーザによる選択を受信するステップと、
前記選択の受信に応答して、表示のために、前記画像を生成するステップと
をさらに含む、項目101に記載の方法。
(項目109)
前記画像内のテキストコンテンツを認識するステップと、
同時表示のために、前記好ましいエンティティを備える個別の部分を伴うテキストコンテンツを生成するステップと
をさらに含む、項目101に記載の方法。
(項目110)
前記相互参照に基づいて、複数の好ましいエンティティを識別するステップと、
表示のために、規定された縦横比要件を満たすために十分な量の前記複数の好ましいエンティティのエンティティを備える複数の部分を生成するステップと
をさらに含む、項目101に記載の方法。
(項目111)
表示のために、画像を選択的に生成するためのシステムであって、
通信回路と、
制御回路であって、
メディアアセットに対応する複数の画像を識別することであって、各画像は、少なくとも1つの部分を備え、各部分は、個別のエンティティを備える、ことと、
各個別のエンティティの識別を判定することと、
データベースからユーザプロファイルにアクセスすることと、
前記ユーザプロファイルのメタデータと各個別のエンティティの各識別を相互参照することと、
前記相互参照に基づいて、好ましいエンティティを識別することと、
前記好ましいエンティティが最も高頻出する、前記複数の画像のうちの画像を判定することと、
表示のために、前記画像を生成することと
を行うように構成される、制御回路と
を備える、システム。
(項目112)
前記制御回路は、表示のために、前記画像を生成するとき、表示のために、前記画像のフルサイズ未満である前記画像の部分を生成するように構成され、前記部分は、前記画像内の全部より少ないエンティティを備える、項目111に記載のシステム。
(項目113)
前記制御回路は、表示のために、前記画像のフルサイズ未満である前記画像の部分を生成するとき、前記好ましいエンティティを含むように前記画像を切り取るように構成される、項目112に記載のシステム。
(項目114)
前記制御回路はさらに、前記好ましいエンティティを識別するとき、前記ユーザプロファイルと関連付けられたユーザが好む可能性が高いと前記ユーザプロファイルが反映する、前記複数の画像のエンティティを識別するように構成される、項目111に記載のシステム。
(項目115)
前記制御回路は、前記相互参照に基づいて、前記好ましいエンティティを識別するとき、
前記複数の画像の各画像内の各エンティティに対する前記ユーザの好感度を識別することと、
各個別の好感度をランク付けすることと、
前記複数の画像の隣接する部分の各他のサブセットと比較して、最高組み合わせランクと関連付けられた個別のエンティティを備える前記複数の画像の隣接する画像の部分のサブセットを識別することと
を行うように構成され、前記制御回路はまた、表示のために、前記好ましいエンティティを備える個別の部分を生成するとき、表示のために、前記隣接する部分のサブセットを生成するように構成される、項目111に記載のシステム。
(項目116)
前記制御回路は、各個別のエンティティの識別を判定するとき、顔認識を前記画像の各個別のエンティティに行うように構成される、項目111に記載のシステム。
(項目117)
前記制御回路はさらに、前記顔認識の結果と知識グラフのデータを比較するように構成される、項目116に記載のシステム。
(項目118)
前記制御回路はさらに、
前記画像のユーザによる選択を受信することと、
前記選択の受信に応答して、表示のために、前記画像を生成することと
を行うように構成される、項目111に記載のシステム。
(項目119)
前記制御回路はさらに、
前記画像内のテキストコンテンツを認識することと、
同時表示のために、前記好ましいエンティティを備える個別の部分を伴うテキストコンテンツを生成することと
を行うように構成される、項目111に記載のシステム。
(項目120)
前記制御回路はさらに、
前記相互参照に基づいて、複数の好ましいエンティティを識別することと、
表示のために、規定された縦横比要件を満たすために十分な量の前記複数の好ましいエンティティのエンティティを備える複数の部分を生成することと
を行うように構成される、項目111に記載のシステム。
(項目121)
表示のために、画像を選択的に生成するためのシステムであって、
メディアアセットに対応する複数の画像を識別するための手段であって、各画像は、少なくとも1つの部分を備え、各部分は、個別のエンティティを備える、手段と、
各個別のエンティティの識別を判定するための手段と、
データベースからユーザプロファイルにアクセスするための手段と、
前記ユーザプロファイルのメタデータと各個別のエンティティの各識別を相互参照するための手段と、
前記相互参照に基づいて、好ましいエンティティを識別するための手段と、
前記好ましいエンティティが最も高頻出する、前記複数の画像のうちの画像を判定するための手段と、
表示のために、前記画像を生成するための手段と
を備える、システム。
(項目122)
表示のために、前記画像を生成するための手段は、表示のために、前記画像のフルサイズ未満である前記画像の部分を生成するための手段を備え、前記部分は、前記画像内の全部より少ないエンティティを備える、項目121に記載のシステム。
(項目123)
表示のために、前記画像のフルサイズ未満である前記画像の部分を生成するための手段は、前記好ましいエンティティを含むように前記画像を切り取るための手段を備える、項目122に記載のシステム。
(項目124)
前記好ましいエンティティを識別するための手段はさらに、前記ユーザプロファイルと関連付けられたユーザが好む可能性が高いと前記ユーザプロファイルが反映する、前記複数の画像のエンティティを識別するための手段を備える、項目121に記載のシステム。
(項目125)
前記相互参照に基づいて、前記好ましいエンティティを識別するための手段は、
前記複数の画像の各画像内の各エンティティに対する前記ユーザの好感度を識別するための手段と、
各個別の好感度をランク付けするための手段と、
前記複数の画像の隣接する部分の各他のサブセットと比較して、最高組み合わせランクと関連付けられた個別のエンティティを備える前記複数の画像の隣接する画像の部分のサブセットを識別するための手段と
を備え、表示のために、前記好ましいエンティティを備える個別の部分を生成するための手段は、表示のために、前記隣接する部分のサブセットを生成するための手段を備える、項目121に記載のシステム
(項目126)
各個別のエンティティの識別を判定するための手段は、顔認識を前記画像の各個別のエンティティに行うための手段を備える、項目121に記載のシステム。
(項目127)
前記顔認識の結果と知識グラフのデータを比較するための手段をさらに備える、項目126に記載のシステム。
(項目128)
前記画像のユーザによる選択を受信するための手段と、
前記選択の受信に応答して、表示のために、前記画像を生成するための手段と
をさらに備える、項目121に記載のシステム。
(項目129)
前記画像内のテキストコンテンツを認識するための手段と、
同時表示のために、前記好ましいエンティティを備える個別の部分を伴うテキストコンテンツを生成するための手段と
をさらに備える、項目121に記載のシステム。
(項目130)
前記相互参照に基づいて、複数の好ましいエンティティを識別するための手段と、
表示のために、規定された縦横比要件を満たすために十分な量の前記複数の好ましいエンティティのエンティティを備える複数の部分を生成するための手段と
をさらに備える、項目121に記載のシステム。
(項目131)
表示のために、画像を選択的に生成するための方法であって、
制御回路を使用して、メディアアセットに対応する複数の画像を識別するステップであって、各画像は、少なくとも1つの部分を備え、各部分は、個別のエンティティを備える、ステップと、
各個別のエンティティの識別を判定するステップと、
データベースからユーザプロファイルにアクセスするステップと、
前記ユーザプロファイルのメタデータと各個別のエンティティの各識別を相互参照するステップと、
前記相互参照に基づいて、好ましいエンティティを識別するステップと、
前記好ましいエンティティが最も高頻出する、前記複数の画像のうちの画像を判定するステップと、
表示のために、前記画像を生成するステップと
を含む、方法。
(項目132)
表示のために、前記画像を生成するステップは、表示のために、前記画像のフルサイズ未満である前記画像の部分を生成するステップを含み、前記部分は、前記画像内の全部より少ないエンティティを備える、項目131に記載の方法。
(項目133)
表示のために、前記画像のフルサイズ未満である前記画像の部分を生成するステップは、前記好ましいエンティティを含むように前記画像を切り取るステップを含む、項目132に記載の方法。
(項目134)
前記好ましいエンティティを識別するステップはさらに、前記ユーザプロファイルと関連付けられたユーザが好む可能性が高いと前記ユーザプロファイルが反映する、前記複数の画像のエンティティを識別するステップを含む、項目131−133のいずれかに記載の方法。
(項目135)
前記相互参照に基づいて、前記好ましいエンティティを識別するステップは、
前記複数の画像の各画像内の各エンティティに対する前記ユーザの好感度を識別するステップと、
各個別の好感度をランク付けするステップと、
前記複数の画像の隣接する部分の各他のサブセットと比較して、最高組み合わせランクと関連付けられた個別のエンティティを備える前記複数の画像の隣接する画像の部分のサブセットを識別するステップと
を含み、表示のために、前記好ましいエンティティを備える個別の部分を生成するステップは、表示のために、前記隣接する部分のサブセットを生成するステップを含む、項目131−134のいずれかに記載の方法。
(項目136)
各個別のエンティティの識別を判定するステップは、顔認識を前記画像の各個別のエンティティに行うステップを含む、項目131−135のいずれかに記載の方法。
(項目137)
前記顔認識の結果と知識グラフのデータを比較するステップをさらに含む、項目136に記載の方法。
(項目138)
前記画像のユーザによる選択を受信するステップと、
前記選択の受信に応答して、表示のために、前記画像を生成するステップと
をさらに含む、項目131−137のいずれかに記載の方法。
(項目139)
前記画像内のテキストコンテンツを認識するステップと、
同時表示のために、前記好ましいエンティティを備える個別の部分を伴うテキストコンテンツを生成するステップと
をさらに含む、項目131−138のいずれかに記載の方法。
(項目140)
前記相互参照に基づいて、複数の好ましいエンティティを識別するステップと、
表示のために、規定された縦横比要件を満たすために十分な量の前記複数の好ましいエンティティのエンティティを備える複数の部分を生成するステップと
をさらに含む、項目131−139のいずれかに記載の方法。
(項目141)
表示のために、画像を選択的に生成するためのその上にエンコードされた機械可読命令を備える、非一過性機械可読媒体であって、前記命令は、
メディアアセットに対応する複数の画像を識別するための命令であって、各画像は、少なくとも1つの部分を備え、各部分は、個別のエンティティを備える、命令と、
各個別のエンティティの識別を判定するための命令と、
データベースからユーザプロファイルにアクセスするための命令と、
前記ユーザプロファイルのメタデータと各個別のエンティティの各識別を相互参照するための命令と、
前記相互参照に基づいて、好ましいエンティティを識別するための命令と、
前記好ましいエンティティが最も高頻出する、前記複数の画像のうちの画像を判定するための命令と、
表示のために、前記画像を生成するための命令と
を備える、非一過性機械可読媒体。
(項目142)
表示のために、前記画像を生成するための命令は、表示のために、前記画像のフルサイズ未満である前記画像の部分を生成するための命令を備え、前記部分は、前記画像内の全部より少ないエンティティを備える、項目141に記載の非一過性機械可読媒体。
(項目143)
表示のために、前記画像のフルサイズ未満である前記画像の部分を生成するための命令は、前記好ましいエンティティを含むように前記画像を切り取るための命令を備える、項目142に記載の非一過性機械可読媒体。
(項目144)
前記好ましいエンティティを識別するための命令はさらに、前記ユーザプロファイルと関連付けられたユーザが好む可能性が高いと前記ユーザプロファイルが反映する、前記複数の画像のエンティティを識別するための命令を備える、項目143に記載の非一過性機械可読媒体。
(項目145)
前記相互参照に基づいて、前記好ましいエンティティを識別するための命令は、
前記複数の画像の各画像内の各エンティティに対する前記ユーザの好感度を識別するための命令と、
各個別の好感度をランク付けするための命令と、
前記複数の画像の隣接する部分の各他のサブセットと比較して、最高組み合わせランクと関連付けられた個別のエンティティを備える前記複数の画像の隣接する画像の部分のサブセットを識別するための命令と
を備え、表示のために、前記好ましいエンティティを備える個別の部分を生成するための命令は、表示のために、前記隣接する部分のサブセットを生成するための命令を備える、項目141に記載の非一過性機械可読媒体。
(項目146)
各個別のエンティティの識別を判定するための命令は、顔認識を前記画像の各個別のエンティティに行うための命令を備える、項目141に記載の非一過性機械可読媒体。
(項目147)
前記顔認識の結果と知識グラフのデータを比較するための命令をさらに備える、項目146に記載の非一過性機械可読媒体。
(項目148)
前記画像のユーザによる選択を受信するための命令と、
前記選択の受信に応答して、表示のために、前記画像を生成するための命令と
をさらに備える、項目141に記載の非一過性機械可読媒体。
(項目149)
前記画像内のテキストコンテンツを認識するための命令と、
同時表示のために、前記好ましいエンティティを備える個別の部分を伴うテキストコンテンツを生成するための命令と
をさらに備える、項目141に記載の非一過性機械可読媒体。
(項目150)
前記相互参照に基づいて、複数の好ましいエンティティを識別するための命令と、
表示のために、規定された縦横比要件を満たすために十分な量の前記複数の好ましいエンティティのエンティティを備える複数の部分を生成するための命令と
をさらに備える、項目141に記載の非一過性機械可読媒体。
Claims (6)
- 表示のために、画像の部分を選択的に生成するためのシステムであって、前記システムは、
通信回路と、
制御回路と
を備え、
前記制御回路は、
提供されるべきメディアアセットに対応する画像を識別することであって、前記画像は、複数の部分を含み、前記複数の部分のうちの各部分は、個別のエンティティを含む、ことと、
前記複数の部分の各個別の部分内の各個別のエンティティの識別を判定することと、
前記通信回路を使用して、データベースにアクセスすることにより、前記メディアアセット内の各識別の頻出率のレベルを判定することと、
最高レベルの頻出率に対応する個別のエンティティを判定することと、
前記最高レベルの頻出率に対応する前記個別のエンティティを判定することに応答して、前記最高レベルの頻出率に対応する前記個別のエンティティを含む個別の部分を前記画像から切り取ることと、
提供されるべき前記メディアアセットを識別するテキストを伴う前記切り取られた個別の部分を表示のために生成することと
を行うように構成されている、システム。 - 前記制御回路は、
データベースからユーザプロファイルにアクセスすることと、
前記ユーザプロファイルのメタデータと各個別のエンティティの各識別とを相互参照することと、
前記相互参照に基づいて、各個別のエンティティをランク付けすることと、
前記個別のエンティティに対応する頻出率の個別のレベルに基づいて、各個別のエンティティに加重付けすることと、
各個別のエンティティのランクおよび加重をヒューリスティックに組み合わせることにより、各個別のエンティティの組み合わせられたランクを判定することと、
最高である前記組み合わせられたランクに対応する前記個別のエンティティを含む個別の部分を表示のために生成することと
を行うようにさらに構成されている、請求項1に記載のシステム。 - 前記制御回路は、前記複数の部分の各個別の部分内の各個別のエンティティの識別を判定するとき、前記画像の各個別のエンティティに対して顔認識を実行するようにさらに構成されている、請求項1に記載のシステム。
- 前記制御回路は、前記顔認識の結果と知識グラフのデータとを比較するようにさらに構成されている、請求項3に記載のシステム。
- 前記制御回路は、
各他のエンティティに対して前記最高レベルの頻出率を伴う2つ以上のエンティティを判定することによって、複数の高頻出エンティティを識別することと、
規定された縦横比要件を満たすために、前記複数の高頻出エンティティのエンティティを含む複数の部分の十分な量を表示のために生成することと
を行うようにさらに構成されている、請求項1に記載のシステム。 - 前記メディアアセット内の各識別の頻出率のレベルは、前記メディアアセット内の、出演時間量、拡大映像内の時間量、広角撮影映像内の時間量、フレーム内で単独登場人物である時間量という基準のうちの少なくとも1つの判定に基づく、請求項1に記載のシステム。
Applications Claiming Priority (7)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US14/752,031 | 2015-06-26 | ||
US14/752,333 US20160378308A1 (en) | 2015-06-26 | 2015-06-26 | Systems and methods for identifying an optimal image for a media asset representation |
US14/752,031 US10628009B2 (en) | 2015-06-26 | 2015-06-26 | Systems and methods for automatic formatting of images for media assets based on user profile |
US14/752,333 | 2015-06-26 | ||
US14/752,204 | 2015-06-26 | ||
US14/752,204 US9591359B2 (en) | 2015-06-26 | 2015-06-26 | Systems and methods for automatic formatting of images for media assets based on prevalence |
PCT/US2016/038897 WO2016210052A1 (en) | 2015-06-26 | 2016-06-23 | Systems and methods for automatic formatting of images for media assets based on user profile |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2018528492A JP2018528492A (ja) | 2018-09-27 |
JP2018528492A5 JP2018528492A5 (ja) | 2019-08-08 |
JP6940951B2 true JP6940951B2 (ja) | 2021-09-29 |
Family
ID=56555716
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016576020A Active JP6940951B2 (ja) | 2015-06-26 | 2016-06-23 | ユーザプロファイルに基づくメディアアセットのための画像の自動フォーマットのためのシステムおよび方法 |
Country Status (9)
Country | Link |
---|---|
EP (3) | EP3343940A1 (ja) |
JP (1) | JP6940951B2 (ja) |
KR (1) | KR20180021669A (ja) |
CN (1) | CN107810639A (ja) |
AU (2) | AU2016277553B2 (ja) |
BR (1) | BR112017018539A2 (ja) |
CA (1) | CA2952461A1 (ja) |
MX (2) | MX2017011141A (ja) |
WO (1) | WO2016210052A1 (ja) |
Families Citing this family (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7036695B2 (ja) | 2018-09-19 | 2022-03-15 | Kddi株式会社 | 配信装置及び配信方法 |
CN111414639B (zh) * | 2019-01-07 | 2023-08-08 | 百度在线网络技术(北京)有限公司 | 文件加密和解密方法、装置及设备 |
CN109767397B (zh) | 2019-01-09 | 2022-07-12 | 三星电子(中国)研发中心 | 一种基于人工智能的图像优化方法和系统 |
CN112883410A (zh) * | 2019-11-29 | 2021-06-01 | 北京百度网讯科技有限公司 | 用于显示信息的方法及装置 |
CN114827702B (zh) * | 2021-01-22 | 2023-06-30 | 腾讯科技(深圳)有限公司 | 视频推送方法、视频播放方法、装置、设备以及介质 |
Family Cites Families (34)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6239794B1 (en) | 1994-08-31 | 2001-05-29 | E Guide, Inc. | Method and system for simultaneously displaying a television program and information about the program |
US6388714B1 (en) | 1995-10-02 | 2002-05-14 | Starsight Telecast Inc | Interactive computer system for providing television schedule information |
US6177931B1 (en) | 1996-12-19 | 2001-01-23 | Index Systems, Inc. | Systems and methods for displaying and recording control interface with television programs, video, advertising information and program scheduling information |
US6564378B1 (en) | 1997-12-08 | 2003-05-13 | United Video Properties, Inc. | Program guide system with browsing display |
DE69906954T2 (de) | 1998-03-04 | 2003-11-06 | United Video Properties Inc | Programmführungssystem mit gezielter werbung |
CN1867068A (zh) | 1998-07-14 | 2006-11-22 | 联合视频制品公司 | 交互式电视节目导视系统及其方法 |
ATE460812T1 (de) | 1998-07-17 | 2010-03-15 | United Video Properties Inc | Interaktives fernsehprogrammführungssystem mit mehreren geräten in einem haus |
AR020608A1 (es) | 1998-07-17 | 2002-05-22 | United Video Properties Inc | Un metodo y una disposicion para suministrar a un usuario acceso remoto a una guia de programacion interactiva por un enlace de acceso remoto |
US7165098B1 (en) | 1998-11-10 | 2007-01-16 | United Video Properties, Inc. | On-line schedule system with personalization features |
US7023492B2 (en) * | 2000-10-19 | 2006-04-04 | Microsoft Corporation | Method and apparatus for encoding video content |
CN101883233B (zh) | 2001-02-21 | 2012-10-03 | 联合视频制品公司 | 具有个人视频记录特征的交互式节目导视器的系统和方法 |
JP4185333B2 (ja) * | 2001-09-07 | 2008-11-26 | 松下電器産業株式会社 | 映像配信装置および映像受信装置 |
JP2007174378A (ja) * | 2005-12-22 | 2007-07-05 | Fujifilm Corp | 画像ファイリング方法及びデジタルカメラ及び画像ファイリング処理プログラム及び動画記録再生装置 |
US20100153885A1 (en) | 2005-12-29 | 2010-06-17 | Rovi Technologies Corporation | Systems and methods for interacting with advanced displays provided by an interactive media guidance application |
JP4446983B2 (ja) * | 2006-07-07 | 2010-04-07 | 富士フイルム株式会社 | 画像処理装置及び画像処理プログラム |
JP2008165700A (ja) * | 2007-01-05 | 2008-07-17 | Seiko Epson Corp | 画像処理装置、電子機器、画像処理システム、画像処理方法、および、プログラム |
JP4775306B2 (ja) * | 2007-04-23 | 2011-09-21 | ソニー株式会社 | 画像処理装置、撮像装置、および画像表示制御方法、並びにコンピュータ・プログラム |
GB2452508A (en) * | 2007-09-05 | 2009-03-11 | Sony Corp | Generating a three-dimensional representation of a sports game |
JP2009089065A (ja) * | 2007-09-28 | 2009-04-23 | Toshiba Corp | 電子機器および顔画像表示装置 |
JP2009296346A (ja) * | 2008-06-05 | 2009-12-17 | Sony Corp | 番組推薦装置、番組推薦方法及び番組推薦プログラム |
JP4496263B2 (ja) * | 2008-10-23 | 2010-07-07 | 株式会社東芝 | 情報処理装置およびコンテンツ表示方法 |
JP5039020B2 (ja) * | 2008-12-25 | 2012-10-03 | 株式会社東芝 | 電子機器および映像コンテンツ情報表示方法 |
US9135277B2 (en) * | 2009-08-07 | 2015-09-15 | Google Inc. | Architecture for responding to a visual query |
US8670597B2 (en) * | 2009-08-07 | 2014-03-11 | Google Inc. | Facial recognition with social network aiding |
JP4853582B1 (ja) * | 2010-08-17 | 2012-01-11 | 株式会社ニコン | 画像処理装置および画像処理プログラム |
US8977639B2 (en) * | 2009-12-02 | 2015-03-10 | Google Inc. | Actionable search results for visual queries |
JP5629499B2 (ja) * | 2010-06-15 | 2014-11-19 | キヤノン株式会社 | 情報処理装置、情報処理方法、およびプログラム |
CN102637255A (zh) * | 2011-02-12 | 2012-08-15 | 北京千橡网景科技发展有限公司 | 用于处理图像中包含的面部的方法和设备 |
US20130016128A1 (en) * | 2011-07-13 | 2013-01-17 | Apple Inc. | Tiled Zoom of Multiple Digital Image Portions |
CN104584566A (zh) * | 2012-01-08 | 2015-04-29 | 汤姆逊许可公司 | 提供媒体资产推荐的方法和设备 |
CN103034841B (zh) * | 2012-12-03 | 2016-09-21 | Tcl集团股份有限公司 | 一种人脸追踪方法及系统 |
US9247309B2 (en) * | 2013-03-14 | 2016-01-26 | Google Inc. | Methods, systems, and media for presenting mobile content corresponding to media content |
CN103197931B (zh) * | 2013-03-28 | 2016-08-03 | 深圳桑菲消费通信有限公司 | 一种基于触摸屏的界面布局方法和装置 |
CA2913461C (en) * | 2013-05-30 | 2016-05-24 | Facebook, Inc. | Tag suggestions for images on online social networks |
-
2016
- 2016-06-23 EP EP17210580.1A patent/EP3343940A1/en not_active Withdrawn
- 2016-06-23 JP JP2016576020A patent/JP6940951B2/ja active Active
- 2016-06-23 EP EP17210581.9A patent/EP3343941A1/en not_active Ceased
- 2016-06-23 KR KR1020177024573A patent/KR20180021669A/ko unknown
- 2016-06-23 CA CA2952461A patent/CA2952461A1/en active Pending
- 2016-06-23 MX MX2017011141A patent/MX2017011141A/es active IP Right Grant
- 2016-06-23 WO PCT/US2016/038897 patent/WO2016210052A1/en active Application Filing
- 2016-06-23 BR BR112017018539A patent/BR112017018539A2/pt not_active Application Discontinuation
- 2016-06-23 AU AU2016277553A patent/AU2016277553B2/en active Active
- 2016-06-23 EP EP16745225.9A patent/EP3314905B1/en active Active
- 2016-06-23 CN CN201680016640.9A patent/CN107810639A/zh active Pending
-
2017
- 2017-08-30 MX MX2019013535A patent/MX2019013535A/es unknown
-
2022
- 2022-02-02 AU AU2022200691A patent/AU2022200691B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
MX2019013535A (es) | 2020-02-13 |
EP3314905A1 (en) | 2018-05-02 |
AU2022200691B2 (en) | 2023-11-30 |
BR112017018539A2 (pt) | 2018-04-24 |
CA2952461A1 (en) | 2016-12-26 |
AU2022200691A1 (en) | 2022-02-24 |
KR20180021669A (ko) | 2018-03-05 |
EP3343941A1 (en) | 2018-07-04 |
AU2016277553B2 (en) | 2022-02-17 |
JP2018528492A (ja) | 2018-09-27 |
WO2016210052A1 (en) | 2016-12-29 |
MX2017011141A (es) | 2018-01-18 |
EP3314905B1 (en) | 2022-05-04 |
AU2016277553A1 (en) | 2017-01-12 |
EP3343940A1 (en) | 2018-07-04 |
CN107810639A (zh) | 2018-03-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6949885B2 (ja) | 第2のユーザの視聴アクティビティに基づいて第2のユーザのための再生リストに含めるための第1のユーザのメディアアセットに対する推奨のための方法およびシステム | |
EP3797522B1 (en) | Systems and methods for displaying multiple media assets for a plurality of users | |
US11842040B2 (en) | Systems and methods for automatic formatting of images for media assets based on user profile | |
US10779058B2 (en) | System and methods for selecting and generating portions of a target media asset for advertising the target media asset while the user watches a media asset | |
JP6940951B2 (ja) | ユーザプロファイルに基づくメディアアセットのための画像の自動フォーマットのためのシステムおよび方法 | |
JP2021503821A (ja) | 短いメディア視聴プロファイルおよび長いメディア視聴プロファイルに基づいて、推奨を提供するためのシステムおよび方法 | |
US20230209151A1 (en) | Systems and methods for enabling and monitoring content creation while consuming a live video | |
US11443488B2 (en) | Systems and methods for updating a non-augmented reality display with user interactions in an augmented reality display | |
US20190027190A1 (en) | Systems and methods for determining playback points in media assets | |
US9591359B2 (en) | Systems and methods for automatic formatting of images for media assets based on prevalence | |
EP4354886A2 (en) | Systems and methods for generating a recommendation of a media asset for simultaneous consumption with a current media asset | |
US20160378308A1 (en) | Systems and methods for identifying an optimal image for a media asset representation | |
WO2019132986A1 (en) | Systems and methods for providing a storyline selection interface | |
US10448072B1 (en) | Systems and methods for increasing a likelihood of media asset consumption using recommendation chains | |
US20180070128A1 (en) | Systems and methods for presenting background graphics for media asset identifiers identified in a user defined data structure |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20180521 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20190624 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20190624 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20200729 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20200831 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20201127 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210129 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20210802 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20210901 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20210903 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6940951 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |