JP2018528492A - ユーザプロファイルに基づくメディアアセットのための画像の自動フォーマットのためのシステムおよび方法 - Google Patents
ユーザプロファイルに基づくメディアアセットのための画像の自動フォーマットのためのシステムおよび方法 Download PDFInfo
- Publication number
- JP2018528492A JP2018528492A JP2016576020A JP2016576020A JP2018528492A JP 2018528492 A JP2018528492 A JP 2018528492A JP 2016576020 A JP2016576020 A JP 2016576020A JP 2016576020 A JP2016576020 A JP 2016576020A JP 2018528492 A JP2018528492 A JP 2018528492A
- Authority
- JP
- Japan
- Prior art keywords
- entity
- image
- individual
- display
- preferred
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 128
- 238000004891 communication Methods 0.000 claims description 61
- 230000004044 response Effects 0.000 claims description 27
- 230000001052 transient effect Effects 0.000 claims description 11
- 230000008859 change Effects 0.000 claims description 7
- 230000008569 process Effects 0.000 description 41
- 238000012545 processing Methods 0.000 description 19
- 238000013459 approach Methods 0.000 description 12
- 230000006870 function Effects 0.000 description 11
- 230000002452 interceptive effect Effects 0.000 description 9
- 230000007246 mechanism Effects 0.000 description 9
- 238000010586 diagram Methods 0.000 description 6
- 238000005516 engineering process Methods 0.000 description 6
- 230000000694 effects Effects 0.000 description 4
- 230000001815 facial effect Effects 0.000 description 3
- 230000006855 networking Effects 0.000 description 3
- 238000003825 pressing Methods 0.000 description 3
- 239000000047 product Substances 0.000 description 3
- 230000009471 action Effects 0.000 description 2
- 230000005540 biological transmission Effects 0.000 description 2
- 238000006243 chemical reaction Methods 0.000 description 2
- 238000004590 computer program Methods 0.000 description 2
- 238000011156 evaluation Methods 0.000 description 2
- 230000003993 interaction Effects 0.000 description 2
- 230000007935 neutral effect Effects 0.000 description 2
- 230000008520 organization Effects 0.000 description 2
- 238000005192 partition Methods 0.000 description 2
- 238000012935 Averaging Methods 0.000 description 1
- OKTJSMMVPCPJKN-UHFFFAOYSA-N Carbon Chemical compound [C] OKTJSMMVPCPJKN-UHFFFAOYSA-N 0.000 description 1
- 230000001133 acceleration Effects 0.000 description 1
- 229910021417 amorphous silicon Inorganic materials 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 230000007177 brain activity Effects 0.000 description 1
- 239000002041 carbon nanotube Substances 0.000 description 1
- 229910021393 carbon nanotube Inorganic materials 0.000 description 1
- 230000001413 cellular effect Effects 0.000 description 1
- 239000003795 chemical substances by application Substances 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 230000009977 dual effect Effects 0.000 description 1
- 230000002708 enhancing effect Effects 0.000 description 1
- 239000000835 fiber Substances 0.000 description 1
- 230000004927 fusion Effects 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 230000036651 mood Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 229910021420 polycrystalline silicon Inorganic materials 0.000 description 1
- 229920005591 polysilicon Polymers 0.000 description 1
- 239000002096 quantum dot Substances 0.000 description 1
- 238000009877 rendering Methods 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 239000013589 supplement Substances 0.000 description 1
- 239000010409 thin film Substances 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/45—Management operations performed by the client for facilitating the reception of or the interaction with the content or administrating data related to the end-user or to the client device itself, e.g. learning user preferences for recommending movies, resolving scheduling conflicts
- H04N21/4508—Management of client data or end-user data
- H04N21/4532—Management of client data or end-user data involving end-user characteristics, e.g. viewer profile, preferences
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T11/00—2D [Two Dimensional] image generation
- G06T11/60—Editing figures and text; Combining figures or text
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/43—Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
- H04N21/431—Generation of visual interfaces for content selection or interaction; Content or additional data rendering
- H04N21/4312—Generation of visual interfaces for content selection or interaction; Content or additional data rendering involving specific graphical features, e.g. screen layout, special fonts or colors, blinking icons, highlights or animations
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/43—Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
- H04N21/44—Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs
- H04N21/44008—Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs involving operations for analysing video streams, e.g. detecting features or characteristics in the video stream
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/47—End-user applications
- H04N21/482—End-user interface for program selection
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Databases & Information Systems (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
- Devices For Indicating Variable Information By Combining Individual Elements (AREA)
- Processing Or Creating Images (AREA)
- Image Analysis (AREA)
Abstract
Description
Claims (150)
- 表示のために、ユーザプロファイルに基づいて、画像の部分を選択的に生成するための方法であって、
メディアアセットに対応する画像を識別するステップであって、前記画像は、複数の部分を備え、前記複数の部分の各部分は、個別のエンティティを備える、ステップと、
前記複数の部分の各個別の部分内の各個別のエンティティの識別を判定するステップと、
データベースからユーザプロファイルにアクセスするステップと、
前記ユーザプロファイルのメタデータと各個別のエンティティの各識別を相互参照するステップと、
前記相互参照に基づいて、好ましいエンティティを識別するステップと、
表示のために、前記好ましいエンティティを備える個別の部分を生成するステップと
を含む、方法。 - 表示のために、前記個別の部分を生成するステップは、画像全体未満を含み、かつ前記好ましいエンティティを含むように前記画像を切り取るステップを含む、請求項1に記載の方法。
- 前記好ましいエンティティを識別するステップはさらに、前記ユーザプロファイルと関連付けられたユーザが好む可能性が高いと前記ユーザプロファイルが反映する、前記画像のエンティティを識別するステップを含む、請求項1に記載の方法。
- 前記相互参照に基づいて、前記好ましいエンティティを識別するステップは、
前記画像内の各エンティティに対する前記ユーザの好感度を識別するステップと、
各個別の好感度をランク付けするステップと、
前記複数の部分の隣接する部分の各他のサブセットと比較して、最高組み合わせランクと関連付けられた個別のエンティティを備える、前記複数の部分の隣接する部分のサブセットを識別するステップと、
を含み、表示のために、前記好ましいエンティティを備える個別の部分を生成するステップは、表示のために、前記隣接する部分のサブセットを生成するステップを含む、請求項1に記載の方法。 - 前記複数の部分の各個別の部分内の各個別のエンティティの識別を判定するステップは、顔認識を前記画像の各個別のエンティティに行うステップを含む、請求項1に記載の方法。
- 前記顔認識の結果と知識グラフのデータを比較するステップをさらに含む、請求項5に記載の方法。
- 前記相互参照に基づいて、複数の好ましいエンティティを識別するステップと、
表示のために、規定された縦横比要件を満たすために十分な量の前記複数の好ましいエンティティのエンティティを備える複数の部分を生成するステップと
をさらに含む、請求項1に記載の方法。 - 前記個別の部分のユーザによる選択を受信するステップと、
前記選択の受信に応答して、表示のために、前記画像を生成するステップと
をさらに含む、請求項1に記載の方法。 - 前記画像内のテキストコンテンツを認識するステップと、
同時表示のために、前記好ましいエンティティを備える個別の部分を伴うテキストコンテンツを生成するステップと
をさらに含む、請求項1に記載の方法。 - 前記好ましいエンティティの特性を判定するステップと、
前記好ましいエンティティに対応する個別の部分内において前記エンティティを囲繞する特徴のための最適特性を判定するステップと、
前記エンティティを囲繞する特徴の特性を変更し、前記最適特性を反映するステップと
をさらに含む、請求項1に記載の方法。 - 表示のために、ユーザプロファイルに基づいて、画像の部分を選択的に生成するためのシステムであって、
通信回路と、
制御回路であって、
メディアアセットに対応する画像を識別することであって、前記画像は、複数の部分を備え、前記複数の部分の各部分は、個別のエンティティを備える、ことと、
前記複数の部分の各個別の部分内の各個別のエンティティの識別を判定することと、
前記通信回路を使用して、データベースからユーザプロファイルにアクセスすることと、
前記ユーザプロファイルのメタデータと各個別のエンティティの各識別を相互参照することと、
前記相互参照に基づいて、好ましいエンティティを識別することと、
表示のために、前記好ましいエンティティを備える個別の部分を生成することと
を行うように構成される、制御回路と
を備える、システム。 - 前記制御回路はさらに、表示のために、前記個別の部分を生成するとき、画像全体未満を含み、かつ前記好ましいエンティティを含むように前記画像を切り取るように構成される、請求項11に記載のシステム。
- 前記制御回路はさらに、前記好ましいエンティティを識別するとき、前記ユーザプロファイルと関連付けられたユーザが好む可能性が高いと前記ユーザプロファイルが反映する、前記画像のエンティティを識別するように構成される、請求項11に記載のシステム。
- 前記制御回路はさらに、前記相互参照に基づいて、前記好ましいエンティティを識別するとき、
前記画像内の各エンティティに対する前記ユーザの好感度を識別することと、
各個別の好感度をランク付けすることと、
前記複数の部分の隣接する部分の各他のサブセットと比較して、最高組み合わせランクと関連付けられた個別のエンティティを備える、前記複数の部分の隣接する部分のサブセットを識別することと
を行うように構成され、
前記制御回路はさらに、表示のために、前記好ましいエンティティを備える個別の部分を生成するとき、表示のために、前記隣接する部分のサブセットを生成するように構成される、請求項11に記載のシステム。 - 前記制御回路はさらに、前記複数の部分の各個別の部分内の各個別のエンティティの識別を判定するとき、顔認識を前記画像の各個別のエンティティに行うように構成される、請求項11に記載のシステム。
- 前記制御回路はさらに、前記顔認識の結果と知識グラフのデータを比較するように構成される、請求項15に記載のシステム。
- 前記制御回路はさらに、
前記相互参照に基づいて、複数の好ましいエンティティを識別することと、
表示のために、規定された縦横比要件を満たすために十分な量の前記複数の好ましいエンティティのエンティティを備える複数の部分を生成することと
を行うように構成される、請求項11に記載のシステム。 - 前記制御回路はさらに、
前記個別の部分のユーザによる選択を受信することと、
前記選択の受信に応答して、表示のために、前記画像を生成することと
を行うように構成される、請求項11に記載のシステム。 - 前記制御回路はさらに、
前記画像内のテキストコンテンツを認識することと、
同時表示のために、前記好ましいエンティティを備える個別の部分を伴うテキストコンテンツを生成することと
を行うように構成される、請求項11に記載のシステム。 - 前記制御回路はさらに、
前記好ましいエンティティの特性を判定することと、
前記好ましいエンティティに対応する個別の部分内において前記エンティティを囲繞する特徴のための最適特性を判定することと、
前記エンティティを囲繞する特徴の特性を変更し、前記最適特性を反映することと
を行うように構成される、請求項11に記載のシステム。 - 表示のために、ユーザプロファイルに基づいて、画像の部分を選択的に生成するためのシステムであって、
メディアアセットに対応する画像を識別するための手段であって、前記画像は、複数の部分を備え、前記複数の部分の各部分は、個別のエンティティを備える、手段と、
前記複数の部分の各個別の部分内の各個別のエンティティの識別を判定するための手段と、
データベースからユーザプロファイルにアクセスするための手段と、
前記ユーザプロファイルのメタデータと各個別のエンティティの各識別を相互参照するための手段と、
前記相互参照に基づいて、好ましいエンティティを識別するための手段と、
表示のために、前記好ましいエンティティを備える個別の部分を生成するための手段と
を備える、システム。 - 表示のために、前記個別の部分を生成するための手段は、画像全体未満を含み、かつ前記好ましいエンティティを含むように前記画像を切り取るための手段を備える、請求項21に記載のシステム。
- 前記好ましいエンティティを識別するための手段はさらに、前記ユーザプロファイルと関連付けられたユーザが好む可能性が高いと前記ユーザプロファイルが反映する、前記画像のエンティティを識別するための手段を備える、請求項21に記載のシステム。
- 前記相互参照に基づいて、前記好ましいエンティティを識別するための手段は、
前記画像内の各エンティティに対する前記ユーザの好感度を識別するための手段と、
各個別の好感度をランク付けするための手段と、
前記複数の部分の隣接する部分の各他のサブセットと比較して、最高組み合わせランクと関連付けられた個別のエンティティを備える、前記複数の部分の隣接する部分のサブセットを識別するための手段と
を備え、表示のために、前記好ましいエンティティを備える個別の部分を生成するための手段は、表示のために、前記隣接する部分のサブセットを生成するための手段を備える、請求項21に記載のシステム。 - 前記複数の部分の各個別の部分内の各個別のエンティティの識別を判定するための手段は、顔認識を前記画像の各個別のエンティティに行うための手段を備える、請求項21に記載のシステム。
- 前記顔認識の結果と知識グラフのデータを比較するための手段をさらに備える、請求項25に記載のシステム。
- 前記相互参照に基づいて、複数の好ましいエンティティを識別するための手段と、
表示のために、規定された縦横比要件を満たすために十分な量の前記複数の好ましいエンティティのエンティティを備える複数の部分を生成するための手段と
をさらに備える、請求項21に記載のシステム。 - 前記個別の部分のユーザによる選択を受信するための手段と、
前記選択の受信に応答して、表示のために、前記画像を生成するための手段と
をさらに備える、請求項21に記載のシステム。 - 前記画像内のテキストコンテンツを認識するための手段と、
同時表示のために、前記好ましいエンティティを備える個別の部分を伴うテキストコンテンツを生成するための手段と
をさらに備える、請求項21に記載のシステム。 - 前記好ましいエンティティの特性を判定するための手段と、
前記好ましいエンティティに対応する個別の部分内において前記エンティティを囲繞する特徴のための最適特性を判定するための手段と、
前記エンティティを囲繞する特徴の特性を変更し、前記最適特性を反映するための手段と
をさらに備える、請求項21に記載のシステム。 - 表示のために、ユーザプロファイルに基づいて、画像の部分を選択的に生成するための方法であって、
制御回路を使用して、メディアアセットに対応する画像を識別するステップであって、前記画像は、複数の部分を備え、前記複数の部分の各部分は、個別のエンティティを備える、ステップと、
前記制御回路を使用して、前記複数の部分の各個別の部分内の各個別のエンティティの識別を判定するステップと、
前記制御回路を使用して、データベースからユーザプロファイルにアクセスするステップと、
前記制御回路を使用して、前記ユーザプロファイルのメタデータと各個別のエンティティの各識別を相互参照するステップと、
前記制御回路を使用して、前記相互参照に基づいて、好ましいエンティティを識別するステップと、
表示のために、前記制御回路を使用して、前記好ましいエンティティを備える個別の部分を生成するステップと
を含む、方法。 - 表示のために、前記個別の部分を生成するステップは、画像全体未満を含み、かつ前記好ましいエンティティを含むように前記画像を切り取るステップを含む、請求項31に記載の方法。
- 前記好ましいエンティティを識別するステップはさらに、前記ユーザプロファイルと関連付けられたユーザが好む可能性が高いと前記ユーザプロファイルが反映する、前記画像のエンティティを識別するステップを含む、請求項31または32に記載の方法。
- 前記相互参照に基づいて、前記好ましいエンティティを識別するステップは、
前記画像内の各エンティティに対する前記ユーザの好感度を識別するステップと、
各個別の好感度をランク付けするステップと、
前記複数の部分の隣接する部分の各他のサブセットと比較して、最高組み合わせランクと関連付けられた個別のエンティティを備える、前記複数の部分の隣接する部分のサブセットを識別するステップと
を含み、表示のために、前記好ましいエンティティを備える個別の部分を生成するステップは、表示のために、前記隣接する部分のサブセットを生成するステップを含む、請求項31−33のいずれかに記載の方法。 - 前記複数の部分の各個別の部分内の各個別のエンティティの識別を判定するステップは、顔認識を前記画像の各個別のエンティティに行うステップを含む、請求項31−34のいずれかに記載の方法。
- 前記顔認識の結果と知識グラフのデータを比較するステップをさらに含む、請求項35に記載の方法。
- 前記相互参照に基づいて、複数の好ましいエンティティを識別するステップと、
表示のために、規定された縦横比要件を満たすために十分な量の前記複数の好ましいエンティティのエンティティを備える複数の部分を生成するステップと
をさらに含む、請求項31−36のいずれかに記載の方法。 - 前記個別の部分のユーザによる選択を受信するステップと、
前記選択の受信に応答して、表示のために、前記画像を生成するステップと
をさらに含む、請求項31−37のいずれかに記載の方法。 - 前記画像内のテキストコンテンツを認識するステップと、
同時表示のために、前記好ましいエンティティを備える個別の部分を伴うテキストコンテンツを生成するステップと
をさらに含む、請求項31−38のいずれかに記載の方法。 - 前記好ましいエンティティの特性を判定するステップと、
前記好ましいエンティティに対応する個別の部分内において前記エンティティを囲繞する特徴のための最適特性を判定するステップと、
前記エンティティを囲繞する特徴の特性を変更し、前記最適特性を反映するステップと
をさらに含む、請求項31−39のいずれかに記載の方法。 - 表示のために、ユーザプロファイルに基づいて、画像の部分を選択的に生成するためのその上にエンコードされた機械可読命令を備える、非一過性機械可読媒体であって、前記命令は、
メディアアセットに対応する画像を識別するための命令であって、前記画像は、複数の部分を備え、前記複数の部分の各部分は、個別のエンティティを備える、命令と、
前記複数の部分の各個別の部分内の各個別のエンティティの識別を判定するための命令と、
データベースからユーザプロファイルにアクセスための命令と、
前記ユーザプロファイルのメタデータと各個別のエンティティの各識別を相互参照するための命令と、
前記相互参照に基づいて、好ましいエンティティを識別するための命令と、
表示のために、前記好ましいエンティティを備える個別の部分を生成するための命令と
を備える、非一過性機械可読媒体。 - 表示のために、前記個別の部分を生成するための命令は、画像全体未満を含み、かつ前記好ましいエンティティを含むように前記画像を切り取るための命令を備える、請求項41に記載の非一過性機械可読媒体
- 前記好ましいエンティティを識別するための命令はさらに、前記ユーザプロファイルと関連付けられたユーザが好む可能性が高いと前記ユーザプロファイルが反映する、前記画像のエンティティを識別するための命令を備える、請求項41に記載の非一過性機械可読媒体。
- 前記相互参照に基づいて、前記好ましいエンティティを識別するための命令は、
前記画像内の各エンティティに対する前記ユーザの好感度を識別するための命令と、
各個別の好感度をランク付けするための命令と、
前記複数の部分の隣接する部分の各他のサブセットと比較して、最高組み合わせランクと関連付けられた個別のエンティティを備える、前記複数の部分の隣接する部分のサブセットを識別するための命令と
を備え、表示のために、前記好ましいエンティティを備える個別の部分を生成するための命令は、表示のために、前記隣接する部分のサブセットを生成するための命令を備える、請求項41に記載の非一過性機械可読媒体。 - 前記複数の部分の各個別の部分内の各個別のエンティティの識別を判定するための命令は、顔認識を前記画像の各個別のエンティティに行うための命令を備える、請求項41に記載の非一過性機械可読媒体。
- 前記命令はさらに、前記顔認識の結果と知識グラフのデータを比較するための命令を備える、請求項45に記載の非一過性機械可読媒体。
- 前記命令はさらに、
前記相互参照に基づいて、複数の好ましいエンティティを識別するための命令と、
表示のために、規定された縦横比要件を満たすために十分な量の前記複数の好ましいエンティティのエンティティを備える複数の部分を生成するための命令と
を備える、請求項41に記載の非一過性機械可読媒体。 - 前記命令はさらに、
前記個別の部分のユーザによる選択を受信するための命令と、
前記選択の受信に応答して、表示のために、前記画像を生成するための命令と
を備える、請求項41に記載の非一過性機械可読媒体。 - 前記命令はさらに、
前記画像内のテキストコンテンツを認識するための命令と、
同時表示のために、前記好ましいエンティティを備える個別の部分を伴うテキストコンテンツを生成するための命令と
を備える、請求項41に記載の非一過性機械可読媒体。 - 前記命令はさらに、
前記好ましいエンティティの特性を判定するための命令と、
前記好ましいエンティティに対応する個別の部分内において前記エンティティを囲繞する特徴のための最適特性を判定するための命令と、
前記エンティティを囲繞する特徴の特性を変更し、前記最適特性を反映するための命令と
を備える、請求項41に記載の非一過性機械可読媒体。 - 表示のために、画像の部分を選択的に生成するための方法であって、
メディアアセットに対応する画像を識別するステップであって、前記画像は、複数の部分を備え、前記複数の部分の各部分は、個別のエンティティを備える、ステップと、
前記複数の部分の各個別の部分内の各個別のエンティティの識別を判定するステップと、
データベースにアクセスし、前記メディアアセット内の各識別の頻出率のレベルを判定するステップと、
最高レベルの頻出率に対応する個別のエンティティを判定するステップと、
表示のために、前記最高レベルの頻出率に対応する前記個別のエンティティを備える個別の部分を生成するステップと
を含む、方法。 - データベースからユーザプロファイルにアクセスするステップと、
前記ユーザプロファイルのメタデータと各個別のエンティティの各識別を相互参照するステップと、
前記相互参照に基づいて、各個別のエンティティをランク付けするステップと、
前記個別のエンティティに対応する頻出率の個別のレベルに基づいて、各個別のエンティティに加重付けするステップと、
各個別のエンティティのランクおよび加重をヒューリスティックに組み合わせ、各個別のエンティティの組み合わせられたランクを判定するステップと、
表示のために、前記最高組み合わせランクに対応する前記個別のエンティティを備える個別の部分を生成するステップと
をさらに含む、請求項51に記載の方法。 - 表示のために、前記個別の部分を生成するステップは、画像全体未満を含み、かつ前記好ましいエンティティを含むように前記画像を切り取るステップを含む、請求項51に記載の方法。
- 前記複数の部分の各個別の部分内の各個別のエンティティの識別を判定するステップは、顔認識を前記画像の各個別のエンティティに行うステップを含む、請求項51に記載の方法。
- 前記顔認識の結果と知識グラフのデータを比較するステップをさらに含む、請求項54に記載の方法。
- 各他のエンティティに対して前記最高頻出率レベルを伴う2つまたはそれを上回るエンティティを判定することによって、複数の高頻出エンティティを識別するステップと、
表示のために、規定された縦横比要件を満たすために十分な量の前記複数の好ましいエンティティのエンティティを備える複数の部分を生成するステップと
をさらに含む、請求項51に記載の方法。 - 前記個別の部分のユーザによる選択を受信するステップと、
前記選択の受信に応答して、表示のために、前記画像を生成するステップと
をさらに含む、請求項51に記載の方法。 - 前記画像内のテキストコンテンツを認識するステップと、
同時表示のために、前記好ましいエンティティを備える個別の部分を伴うテキストコンテンツを生成するステップと
をさらに含む、請求項51に記載の方法。 - 前記最高レベルの頻出率に対応する前記エンティティの特性を判定するステップと、
前記最高レベルの頻出率に対応するエンティティに対応する前記個別の部分内のエンティティを囲繞する特徴のための最適特性を判定するステップと、
前記エンティティを囲繞する特徴の特性を変更し、前記最適特性を反映するステップと
をさらに含む、請求項51に記載の方法。 - 頻出率のレベルは、出演時間、拡大映像内の時間量、広角撮影映像内の時間量、および前記メディアアセット内のフレーム中で単独登場人物である時間量のうちの少なくとも1つに基づいて判定される、請求項51に記載の方法。
- 表示のために、画像の部分を選択的に生成するためのシステムであって、
通信回路と、
制御回路であって、
メディアアセットに対応する画像を識別することであって、前記画像は、複数の部分を備え、前記複数の部分の各部分は、個別のエンティティを備える、ことと、
前記複数の部分の各個別の部分内の各個別のエンティティの識別を判定することと、
前記通信回路を使用して、データベースにアクセスし、前記メディアアセット内の各識別の頻出率のレベルを判定することと、
最高レベルの頻出率に対応する個別のエンティティを判定することと、
表示のために、前記最高レベルの頻出率に対応する前記個別のエンティティを備える個別の部分を生成することと
を行うように構成される、制御回路と
を備える、システム。 - 前記制御回路はさらに、
データベースからユーザプロファイルにアクセスすることと、
前記ユーザプロファイルのメタデータと各個別のエンティティの各識別を相互参照することと、
前記相互参照に基づいて、各個別のエンティティをランク付けすることと、
前記個別のエンティティに対応する頻出率の個別のレベルに基づいて、各個別のエンティティに加重付けすることと、
各個別のエンティティのランクおよび加重をヒューリスティックに組み合わせ、各個別のエンティティの組み合わせられたランクを判定することと、
表示のために、前記最高組み合わせランクに対応する前記個別のエンティティを備える個別の部分を生成することと
を行うように構成される、請求項61に記載のシステム。 - 前記制御回路はさらに、表示のために、前記個別の部分を生成するとき、画像全体未満を含み、かつ前記好ましいエンティティを含むように前記画像を切り取るように構成される、請求項61に記載のシステム。
- 前記制御回路はさらに、前記複数の部分の各個別の部分内の各個別のエンティティの識別を判定するとき、顔認識を前記画像の各個別のエンティティに行うように構成される、請求項61に記載のシステム。
- 前記制御回路はさらに、前記顔認識の結果と知識グラフのデータを比較するように構成される、請求項64に記載のシステム。
- 前記制御回路はさらに、
各他のエンティティに対して前記最高頻出率レベルを伴う2つまたはそれを上回るエンティティを判定することによって、複数の高頻出エンティティを識別することと、
表示のために、規定された縦横比要件を満たすために十分な量の前記複数の好ましいエンティティのエンティティを備える複数の部分を生成することと
を行うように構成される、請求項61に記載のシステム。 - 前記制御回路はさらに、
前記個別の部分のユーザによる選択を受信することと、
前記選択の受信に応答して、表示のために、前記画像を生成することと
を行うように構成される、請求項61に記載のシステム。 - 前記制御回路はさらに、
前記画像内のテキストコンテンツを認識することと、
同時表示のために、前記好ましいエンティティを備える個別の部分を伴うテキストコンテンツを生成することと
を行うように構成される、請求項61に記載のシステム。 - 前記制御回路はさらに、
前記最高レベルの頻出率に対応する前記エンティティの特性を判定することと、
前記最高レベルの頻出率に対応するエンティティに対応する前記個別の部分内のエンティティを囲繞する特徴のための最適特性を判定することと、
前記エンティティを囲繞する特徴の特性を変更し、前記最適特性を反映することと
を行うように構成される、請求項61に記載のシステム。 - 頻出率のレベルは、出演時間、拡大映像内の時間量、広角撮影映像内の時間量、および前記メディアアセット内のフレーム中で単独登場人物である時間量のうちの少なくとも1つに基づいて判定される、請求項61に記載のシステム。
- 表示のために、画像の部分を選択的に生成するためのシステムであって、
メディアアセットに対応する画像を識別する手段であって、前記画像は、複数の部分を備え、前記複数の部分の各部分は、個別のエンティティを備える、手段と、
前記複数の部分の各個別の部分内の各個別のエンティティの識別を判定するための手段と、
データベースにアクセスし、前記メディアアセット内の各識別の頻出率のレベルを判定するための手段と、
最高レベルの頻出率に対応する個別のエンティティを判定するための手段と、
表示のために、前記最高レベルの頻出率に対応する前記個別のエンティティを備える個別の部分を生成するための手段と
を備える、システム。 - データベースからユーザプロファイルにアクセスするための手段と、
前記ユーザプロファイルのメタデータと各個別のエンティティの各識別を相互参照するための手段と、
前記相互参照に基づいて、各個別のエンティティをランク付けするための手段と、
前記個別のエンティティに対応する頻出率の個別のレベルに基づいて、各個別のエンティティに加重付けするための手段と、
各個別のエンティティのランクおよび加重をヒューリスティックに組み合わせ、各個別のエンティティの組み合わせられたランクを判定するための手段と、
表示のために、前記最高組み合わせランクに対応する前記個別のエンティティを備える個別の部分を生成するための手段と
をさらに備える、請求項71に記載のシステム。 - 表示のために、前記個別の部分を生成するための手段は、画像全体未満を含み、かつ前記好ましいエンティティを含むように前記画像を切り取るための手段を備える、請求項71に記載のシステム。
- 前記複数の部分の各個別の部分内の各個別のエンティティの識別を判定するための手段は、顔認識を前記画像の各個別のエンティティに行うための手段を備える、請求項71に記載のシステム。
- 前記顔認識の結果と知識グラフのデータを比較するための手段をさらに備える、請求項74に記載のシステム。
- 各他のエンティティに対して前記最高頻出率レベルを伴う2つまたはそれを上回るエンティティを判定することによって、複数の高頻出エンティティを識別するための手段と、
表示のために、規定された縦横比要件を満たすために十分な量の前記複数の好ましいエンティティのエンティティを備える複数の部分を生成するための手段と
をさらに備える、請求項71に記載のシステム。 - 前記個別の部分のユーザによる選択を受信するための手段と、
前記選択の受信に応答して、表示のために、前記画像を生成するための手段と
をさらに備える、請求項71に記載のシステム。 - 前記画像内のテキストコンテンツを認識するための手段と、
同時表示のために、前記好ましいエンティティを備える個別の部分を伴うテキストコンテンツを生成するための手段と
をさらに備える、請求項71に記載のシステム。 - 前記最高レベルの頻出率に対応する前記エンティティの特性を判定するための手段と、
前記最高レベルの頻出率に対応するエンティティに対応する前記個別の部分内のエンティティを囲繞する特徴のための最適特性を判定するための手段と、
前記エンティティを囲繞する特徴の特性を変更し、前記最適特性を反映するための手段と
をさらに備える、請求項71に記載のシステム。 - 頻出率のレベルは、出演時間、拡大映像内の時間量、広角撮影映像内の時間量、および前記メディアアセット内のフレーム中で単独登場人物である時間量のうちの少なくとも1つに基づいて判定される、請求項71に記載のシステム。
- 表示のために、画像の部分を選択的に生成するための方法であって、
メディアアセットに対応する画像を識別するステップであって、前記画像は、複数の部分を備え、前記複数の部分の各部分は、個別のエンティティを備える、ステップと、
前記複数の部分の各個別の部分内の各個別のエンティティの識別を判定するステップと、
データベースにアクセスし、前記メディアアセット内の各識別の頻出率のレベルを判定するステップと、
最高レベルの頻出率に対応する個別のエンティティを判定するステップと、
表示のために、前記最高レベルの頻出率に対応する前記個別のエンティティを備える個別の部分を生成するステップと
を含む、方法。 - データベースからユーザプロファイルにアクセスするステップと、
前記ユーザプロファイルのメタデータと各個別のエンティティの各識別を相互参照するステップと、
前記相互参照に基づいて、各個別のエンティティをランク付けするステップと、
前記個別のエンティティに対応する頻出率の個別のレベルに基づいて、各個別のエンティティに加重付けするステップと、
各個別のエンティティのランクおよび加重をヒューリスティックに組み合わせ、各個別のエンティティの組み合わせられたランクを判定するステップと、
表示のために、前記最高組み合わせランクに対応する前記個別のエンティティを備える個別の部分を生成するステップと
をさらに含む、請求項81に記載の方法。 - 表示のために、前記個別の部分を生成するステップは、画像全体未満を含み、かつ前記好ましいエンティティを含むように前記画像を切り取るステップを含む、請求項81および82のいずれかに記載の方法。
- 前記複数の部分の各個別の部分内の各個別のエンティティの識別を判定するステップは、顔認識を前記画像の各個別のエンティティに行うステップを含む、請求項81−83のいずれかに記載の方法。
- 前記顔認識の結果と知識グラフのデータを比較するステップをさらに含む、請求項84に記載の方法。
- 各他のエンティティに対して前記最高頻出率レベルを伴う2つまたはそれを上回るエンティティを判定することによって、複数の高頻出エンティティを識別するステップと、
表示のために、規定された縦横比要件を満たすために十分な量の前記複数の好ましいエンティティのエンティティを備える複数の部分を生成するステップと
をさらに含む、請求項81−85のいずれかに記載の方法。 - 前記個別の部分のユーザによる選択を受信するステップと、
前記選択の受信に応答して、表示のために、前記画像を生成するステップと
をさらに含む、請求項81−85のいずれかに記載の方法。 - 前記画像内のテキストコンテンツを認識するステップと、
同時表示のために、前記好ましいエンティティを備える個別の部分を伴うテキストコンテンツを生成するステップと
をさらに含む、請求項81−85のいずれかに記載の方法。 - 前記最高レベルの頻出率に対応する前記エンティティの特性を判定するステップと、
前記最高レベルの頻出率に対応するエンティティに対応する前記個別の部分内のエンティティを囲繞する特徴のための最適特性を判定するステップと、
前記エンティティを囲繞する特徴の特性を変更し、前記最適特性を反映するステップと
をさらに含む、請求項81−85のいずれかに記載の方法。 - 頻出率のレベルは、出演時間、拡大映像内の時間量、広角撮影映像内の時間量、および前記メディアアセット内のフレーム中で単独登場人物である時間量のうちの少なくとも1つに基づいて判定される、請求項81−85のいずれかに記載の方法。
- 表示のために、画像の部分を選択的に生成するためのその上にエンコードされた機械可読命令を備える、非一過性機械可読媒体であって、前記命令は、
メディアアセットに対応する画像を識別するための命令であって、前記画像は、複数の部分を備え、前記複数の部分の各部分は、個別のエンティティを備える、命令と、
前記複数の部分の各個別の部分内の各個別のエンティティの識別を判定するための命令と、
データベースにアクセスし、前記メディアアセット内の各識別の頻出率のレベルを判定するための命令と、
最高レベルの頻出率に対応する個別のエンティティを判定するための命令と、
表示のために、前記最高レベルの頻出率に対応する前記個別のエンティティを備える個別の部分を生成するための命令と
を備える、非一過性機械可読媒体。 - データベースからユーザプロファイルにアクセスするための命令と、
前記ユーザプロファイルのメタデータと各個別のエンティティの各識別を相互参照するための命令と、
前記相互参照に基づいて、各個別のエンティティをランク付けするための命令と、
前記個別のエンティティに対応する頻出率の個別のレベルに基づいて、各個別のエンティティに加重付けするための命令と、
各個別のエンティティのランクおよび加重をヒューリスティックに組み合わせ、各個別のエンティティの組み合わせられたランクを判定するための命令と、
表示のために、前記最高組み合わせランクに対応する前記個別のエンティティを備える個別の部分を生成するための命令と
をさらに備える、請求項91に記載の非一過性機械可読媒体。 - 表示のために、前記個別の部分を生成するための命令は、画像全体未満を含み、かつ前記好ましいエンティティを含むように前記画像を切り取るための命令を備える、請求項91に記載の非一過性機械可読媒体。
- 前記複数の部分の各個別の部分内の各個別のエンティティの識別を判定するための命令は、顔認識を前記画像の各個別のエンティティに行うための命令を備える、請求項91に記載の非一過性機械可読媒体。
- 前記顔認識の結果と知識グラフのデータを比較するための命令をさらに備える、請求項94に記載の非一過性機械可読媒体。
- 各他のエンティティに対して前記最高頻出率レベルを伴う2つまたはそれを上回るエンティティを判定することによって、複数の高頻出エンティティを識別するための命令と、
表示のために、規定された縦横比要件を満たすために十分な量の前記複数の好ましいエンティティのエンティティを備える複数の部分を生成するための命令と
をさらに備える、請求項91に記載の非一過性機械可読媒体。 - 前記個別の部分のユーザによる選択を受信するための命令と、
前記選択の受信に応答して、表示のために、前記画像を生成するための命令と
をさらに備える、請求項91に記載の非一過性機械可読媒体 - 前記画像内のテキストコンテンツを認識するための命令と、
同時表示のために、前記好ましいエンティティを備える個別の部分を伴うテキストコンテンツを生成するための命令と
をさらに備える、請求項91に記載の非一過性機械可読媒体。 - 前記最高レベルの頻出率に対応する前記エンティティの特性を判定するための命令と、
前記最高レベルの頻出率に対応するエンティティに対応する前記個別の部分内のエンティティを囲繞する特徴のための最適特性を判定するための命令と、
前記エンティティを囲繞する特徴の特性を変更し、前記最適特性を反映するための命令と
をさらに備える、請求項91に記載の非一過性機械可読媒体。 - 頻出率のレベルは、出演時間、拡大映像内の時間量、広角撮影映像内の時間量、および前記メディアアセット内のフレーム中で単独登場人物である時間量のうちの少なくとも1つに基づいて判定される、請求項91に記載の非一過性機械可読媒体。
- 表示のために、画像を選択的に生成するための方法であって、
メディアアセットに対応する複数の画像を識別するステップであって、各画像は、少なくとも1つの部分を備え、各部分は、個別のエンティティを備える、ステップと、
各個別のエンティティの識別を判定するステップと、
データベースからユーザプロファイルにアクセスするステップと、
前記ユーザプロファイルのメタデータと各個別のエンティティの各識別を相互参照するステップと、
前記相互参照に基づいて、好ましいエンティティを識別するステップと、
前記好ましいエンティティが最も高頻出する、前記複数の画像のうちの画像を判定するステップと、
表示のために、前記画像を生成するステップと
を含む、方法。 - 表示のために、前記画像を生成するステップは、表示のために、前記画像のフルサイズ未満である前記画像の部分を生成するステップを含み、前記部分は、前記画像内の全部より少ないエンティティを備える、請求項101に記載の方法。
- 表示のために、前記画像のフルサイズ未満である前記画像の部分を生成するステップは、前記好ましいエンティティを含むように前記画像を切り取るステップを含む、請求項102に記載の方法。
- 前記好ましいエンティティを識別するステップはさらに、前記ユーザプロファイルと関連付けられたユーザが好む可能性が高いと前記ユーザプロファイルが反映する、前記複数の画像のエンティティを識別するステップを含む、請求項101に記載の方法。
- 前記相互参照に基づいて、前記好ましいエンティティを識別するステップは、
前記複数の画像の各画像内の各エンティティに対する前記ユーザの好感度を識別するステップと、
各個別の好感度をランク付けするステップと、
前記複数の画像の隣接する部分の各他のサブセットと比較して、最高組み合わせランクと関連付けられた個別のエンティティを備える前記複数の画像の隣接する画像の部分のサブセットを識別するステップと
を含み、表示のために、前記好ましいエンティティを備える個別の部分を生成するステップは、表示のために、前記隣接する部分のサブセットを生成するステップを含む、請求項101に記載の方法。 - 各個別のエンティティの識別を判定するステップは、顔認識を前記画像の各個別のエンティティに行うステップを含む、請求項101に記載の方法。
- 前記顔認識の結果と知識グラフのデータを比較するステップをさらに含む、請求項106に記載の方法。
- 前記画像のユーザによる選択を受信するステップと、
前記選択の受信に応答して、表示のために、前記画像を生成するステップと
をさらに含む、請求項101に記載の方法。 - 前記画像内のテキストコンテンツを認識するステップと、
同時表示のために、前記好ましいエンティティを備える個別の部分を伴うテキストコンテンツを生成するステップと
をさらに含む、請求項101に記載の方法。 - 前記相互参照に基づいて、複数の好ましいエンティティを識別するステップと、
表示のために、規定された縦横比要件を満たすために十分な量の前記複数の好ましいエンティティのエンティティを備える複数の部分を生成するステップと
をさらに含む、請求項101に記載の方法。 - 表示のために、画像を選択的に生成するためのシステムであって、
通信回路と、
制御回路であって、
メディアアセットに対応する複数の画像を識別することであって、各画像は、少なくとも1つの部分を備え、各部分は、個別のエンティティを備える、ことと、
各個別のエンティティの識別を判定することと、
データベースからユーザプロファイルにアクセスすることと、
前記ユーザプロファイルのメタデータと各個別のエンティティの各識別を相互参照することと、
前記相互参照に基づいて、好ましいエンティティを識別することと、
前記好ましいエンティティが最も高頻出する、前記複数の画像のうちの画像を判定することと、
表示のために、前記画像を生成することと
を行うように構成される、制御回路と
を備える、システム。 - 前記制御回路は、表示のために、前記画像を生成するとき、表示のために、前記画像のフルサイズ未満である前記画像の部分を生成するように構成され、前記部分は、前記画像内の全部より少ないエンティティを備える、請求項111に記載のシステム。
- 前記制御回路は、表示のために、前記画像のフルサイズ未満である前記画像の部分を生成するとき、前記好ましいエンティティを含むように前記画像を切り取るように構成される、請求項112に記載のシステム。
- 前記制御回路はさらに、前記好ましいエンティティを識別するとき、前記ユーザプロファイルと関連付けられたユーザが好む可能性が高いと前記ユーザプロファイルが反映する、前記複数の画像のエンティティを識別するように構成される、請求項111に記載のシステム。
- 前記制御回路は、前記相互参照に基づいて、前記好ましいエンティティを識別するとき、
前記複数の画像の各画像内の各エンティティに対する前記ユーザの好感度を識別することと、
各個別の好感度をランク付けすることと、
前記複数の画像の隣接する部分の各他のサブセットと比較して、最高組み合わせランクと関連付けられた個別のエンティティを備える前記複数の画像の隣接する画像の部分のサブセットを識別することと
を行うように構成され、前記制御回路はまた、表示のために、前記好ましいエンティティを備える個別の部分を生成するとき、表示のために、前記隣接する部分のサブセットを生成するように構成される、請求項111に記載のシステム。 - 前記制御回路は、各個別のエンティティの識別を判定するとき、顔認識を前記画像の各個別のエンティティに行うように構成される、請求項111に記載のシステム。
- 前記制御回路はさらに、前記顔認識の結果と知識グラフのデータを比較するように構成される、請求項116に記載のシステム。
- 前記制御回路はさらに、
前記画像のユーザによる選択を受信することと、
前記選択の受信に応答して、表示のために、前記画像を生成することと
を行うように構成される、請求項111に記載のシステム。 - 前記制御回路はさらに、
前記画像内のテキストコンテンツを認識することと、
同時表示のために、前記好ましいエンティティを備える個別の部分を伴うテキストコンテンツを生成することと
を行うように構成される、請求項111に記載のシステム。 - 前記制御回路はさらに、
前記相互参照に基づいて、複数の好ましいエンティティを識別することと、
表示のために、規定された縦横比要件を満たすために十分な量の前記複数の好ましいエンティティのエンティティを備える複数の部分を生成することと
を行うように構成される、請求項111に記載のシステム。 - 表示のために、画像を選択的に生成するためのシステムであって、
メディアアセットに対応する複数の画像を識別するための手段であって、各画像は、少なくとも1つの部分を備え、各部分は、個別のエンティティを備える、手段と、
各個別のエンティティの識別を判定するための手段と、
データベースからユーザプロファイルにアクセスするための手段と、
前記ユーザプロファイルのメタデータと各個別のエンティティの各識別を相互参照するための手段と、
前記相互参照に基づいて、好ましいエンティティを識別するための手段と、
前記好ましいエンティティが最も高頻出する、前記複数の画像のうちの画像を判定するための手段と、
表示のために、前記画像を生成するための手段と
を備える、システム。 - 表示のために、前記画像を生成するための手段は、表示のために、前記画像のフルサイズ未満である前記画像の部分を生成するための手段を備え、前記部分は、前記画像内の全部より少ないエンティティを備える、請求項121に記載のシステム。
- 表示のために、前記画像のフルサイズ未満である前記画像の部分を生成するための手段は、前記好ましいエンティティを含むように前記画像を切り取るための手段を備える、請求項122に記載のシステム。
- 前記好ましいエンティティを識別するための手段はさらに、前記ユーザプロファイルと関連付けられたユーザが好む可能性が高いと前記ユーザプロファイルが反映する、前記複数の画像のエンティティを識別するための手段を備える、請求項121に記載のシステム。
- 前記相互参照に基づいて、前記好ましいエンティティを識別するための手段は、
前記複数の画像の各画像内の各エンティティに対する前記ユーザの好感度を識別するための手段と、
各個別の好感度をランク付けするための手段と、
前記複数の画像の隣接する部分の各他のサブセットと比較して、最高組み合わせランクと関連付けられた個別のエンティティを備える前記複数の画像の隣接する画像の部分のサブセットを識別するための手段と
を備え、表示のために、前記好ましいエンティティを備える個別の部分を生成するための手段は、表示のために、前記隣接する部分のサブセットを生成するための手段を備える、請求項121に記載のシステム - 各個別のエンティティの識別を判定するための手段は、顔認識を前記画像の各個別のエンティティに行うための手段を備える、請求項121に記載のシステム。
- 前記顔認識の結果と知識グラフのデータを比較するための手段をさらに備える、請求項126に記載のシステム。
- 前記画像のユーザによる選択を受信するための手段と、
前記選択の受信に応答して、表示のために、前記画像を生成するための手段と
をさらに備える、請求項121に記載のシステム。 - 前記画像内のテキストコンテンツを認識するための手段と、
同時表示のために、前記好ましいエンティティを備える個別の部分を伴うテキストコンテンツを生成するための手段と
をさらに備える、請求項121に記載のシステム。 - 前記相互参照に基づいて、複数の好ましいエンティティを識別するための手段と、
表示のために、規定された縦横比要件を満たすために十分な量の前記複数の好ましいエンティティのエンティティを備える複数の部分を生成するための手段と
をさらに備える、請求項121に記載のシステム。 - 表示のために、画像を選択的に生成するための方法であって、
制御回路を使用して、メディアアセットに対応する複数の画像を識別するステップであって、各画像は、少なくとも1つの部分を備え、各部分は、個別のエンティティを備える、ステップと、
各個別のエンティティの識別を判定するステップと、
データベースからユーザプロファイルにアクセスするステップと、
前記ユーザプロファイルのメタデータと各個別のエンティティの各識別を相互参照するステップと、
前記相互参照に基づいて、好ましいエンティティを識別するステップと、
前記好ましいエンティティが最も高頻出する、前記複数の画像のうちの画像を判定するステップと、
表示のために、前記画像を生成するステップと
を含む、方法。 - 表示のために、前記画像を生成するステップは、表示のために、前記画像のフルサイズ未満である前記画像の部分を生成するステップを含み、前記部分は、前記画像内の全部より少ないエンティティを備える、請求項131に記載の方法。
- 表示のために、前記画像のフルサイズ未満である前記画像の部分を生成するステップは、前記好ましいエンティティを含むように前記画像を切り取るステップを含む、請求項132に記載の方法。
- 前記好ましいエンティティを識別するステップはさらに、前記ユーザプロファイルと関連付けられたユーザが好む可能性が高いと前記ユーザプロファイルが反映する、前記複数の画像のエンティティを識別するステップを含む、請求項131−133のいずれかに記載の方法。
- 前記相互参照に基づいて、前記好ましいエンティティを識別するステップは、
前記複数の画像の各画像内の各エンティティに対する前記ユーザの好感度を識別するステップと、
各個別の好感度をランク付けするステップと、
前記複数の画像の隣接する部分の各他のサブセットと比較して、最高組み合わせランクと関連付けられた個別のエンティティを備える前記複数の画像の隣接する画像の部分のサブセットを識別するステップと
を含み、表示のために、前記好ましいエンティティを備える個別の部分を生成するステップは、表示のために、前記隣接する部分のサブセットを生成するステップを含む、請求項131−134のいずれかに記載の方法。 - 各個別のエンティティの識別を判定するステップは、顔認識を前記画像の各個別のエンティティに行うステップを含む、請求項131−135のいずれかに記載の方法。
- 前記顔認識の結果と知識グラフのデータを比較するステップをさらに含む、請求項136に記載の方法。
- 前記画像のユーザによる選択を受信するステップと、
前記選択の受信に応答して、表示のために、前記画像を生成するステップと
をさらに含む、請求項131−137のいずれかに記載の方法。 - 前記画像内のテキストコンテンツを認識するステップと、
同時表示のために、前記好ましいエンティティを備える個別の部分を伴うテキストコンテンツを生成するステップと
をさらに含む、請求項131−138のいずれかに記載の方法。 - 前記相互参照に基づいて、複数の好ましいエンティティを識別するステップと、
表示のために、規定された縦横比要件を満たすために十分な量の前記複数の好ましいエンティティのエンティティを備える複数の部分を生成するステップと
をさらに含む、請求項131−139のいずれかに記載の方法。 - 表示のために、画像を選択的に生成するためのその上にエンコードされた機械可読命令を備える、非一過性機械可読媒体であって、前記命令は、
メディアアセットに対応する複数の画像を識別するための命令であって、各画像は、少なくとも1つの部分を備え、各部分は、個別のエンティティを備える、命令と、
各個別のエンティティの識別を判定するための命令と、
データベースからユーザプロファイルにアクセスするための命令と、
前記ユーザプロファイルのメタデータと各個別のエンティティの各識別を相互参照するための命令と、
前記相互参照に基づいて、好ましいエンティティを識別するための命令と、
前記好ましいエンティティが最も高頻出する、前記複数の画像のうちの画像を判定するための命令と、
表示のために、前記画像を生成するための命令と
を備える、非一過性機械可読媒体。 - 表示のために、前記画像を生成するための命令は、表示のために、前記画像のフルサイズ未満である前記画像の部分を生成するための命令を備え、前記部分は、前記画像内の全部より少ないエンティティを備える、請求項141に記載の非一過性機械可読媒体。
- 表示のために、前記画像のフルサイズ未満である前記画像の部分を生成するための命令は、前記好ましいエンティティを含むように前記画像を切り取るための命令を備える、請求項142に記載の非一過性機械可読媒体。
- 前記好ましいエンティティを識別するための命令はさらに、前記ユーザプロファイルと関連付けられたユーザが好む可能性が高いと前記ユーザプロファイルが反映する、前記複数の画像のエンティティを識別するための命令を備える、請求項143に記載の非一過性機械可読媒体。
- 前記相互参照に基づいて、前記好ましいエンティティを識別するための命令は、
前記複数の画像の各画像内の各エンティティに対する前記ユーザの好感度を識別するための命令と、
各個別の好感度をランク付けするための命令と、
前記複数の画像の隣接する部分の各他のサブセットと比較して、最高組み合わせランクと関連付けられた個別のエンティティを備える前記複数の画像の隣接する画像の部分のサブセットを識別するための命令と
を備え、表示のために、前記好ましいエンティティを備える個別の部分を生成するための命令は、表示のために、前記隣接する部分のサブセットを生成するための命令を備える、請求項141に記載の非一過性機械可読媒体。 - 各個別のエンティティの識別を判定するための命令は、顔認識を前記画像の各個別のエンティティに行うための命令を備える、請求項141に記載の非一過性機械可読媒体。
- 前記顔認識の結果と知識グラフのデータを比較するための命令をさらに備える、請求項146に記載の非一過性機械可読媒体。
- 前記画像のユーザによる選択を受信するための命令と、
前記選択の受信に応答して、表示のために、前記画像を生成するための命令と
をさらに備える、請求項141に記載の非一過性機械可読媒体。 - 前記画像内のテキストコンテンツを認識するための命令と、
同時表示のために、前記好ましいエンティティを備える個別の部分を伴うテキストコンテンツを生成するための命令と
をさらに備える、請求項141に記載の非一過性機械可読媒体。 - 前記相互参照に基づいて、複数の好ましいエンティティを識別するための命令と、
表示のために、規定された縦横比要件を満たすために十分な量の前記複数の好ましいエンティティのエンティティを備える複数の部分を生成するための命令と
をさらに備える、請求項141に記載の非一過性機械可読媒体。
Applications Claiming Priority (7)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US14/752,333 US20160378308A1 (en) | 2015-06-26 | 2015-06-26 | Systems and methods for identifying an optimal image for a media asset representation |
US14/752,204 | 2015-06-26 | ||
US14/752,031 | 2015-06-26 | ||
US14/752,333 | 2015-06-26 | ||
US14/752,031 US10628009B2 (en) | 2015-06-26 | 2015-06-26 | Systems and methods for automatic formatting of images for media assets based on user profile |
US14/752,204 US9591359B2 (en) | 2015-06-26 | 2015-06-26 | Systems and methods for automatic formatting of images for media assets based on prevalence |
PCT/US2016/038897 WO2016210052A1 (en) | 2015-06-26 | 2016-06-23 | Systems and methods for automatic formatting of images for media assets based on user profile |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2018528492A true JP2018528492A (ja) | 2018-09-27 |
JP2018528492A5 JP2018528492A5 (ja) | 2019-08-08 |
JP6940951B2 JP6940951B2 (ja) | 2021-09-29 |
Family
ID=56555716
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016576020A Active JP6940951B2 (ja) | 2015-06-26 | 2016-06-23 | ユーザプロファイルに基づくメディアアセットのための画像の自動フォーマットのためのシステムおよび方法 |
Country Status (9)
Country | Link |
---|---|
EP (3) | EP3314905B1 (ja) |
JP (1) | JP6940951B2 (ja) |
KR (1) | KR20180021669A (ja) |
CN (1) | CN107810639A (ja) |
AU (2) | AU2016277553B2 (ja) |
BR (1) | BR112017018539A2 (ja) |
CA (1) | CA2952461A1 (ja) |
MX (2) | MX2017011141A (ja) |
WO (1) | WO2016210052A1 (ja) |
Families Citing this family (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7036695B2 (ja) | 2018-09-19 | 2022-03-15 | Kddi株式会社 | 配信装置及び配信方法 |
CN111414639B (zh) * | 2019-01-07 | 2023-08-08 | 百度在线网络技术(北京)有限公司 | 文件加密和解密方法、装置及设备 |
CN109767397B (zh) | 2019-01-09 | 2022-07-12 | 三星电子(中国)研发中心 | 一种基于人工智能的图像优化方法和系统 |
US11126796B2 (en) * | 2019-03-15 | 2021-09-21 | Microsoft Technology Licensing, Llc | Intelligent summaries based on automated learning and contextual analysis of a user input |
CN112883410B (zh) * | 2019-11-29 | 2024-05-07 | 北京百度网讯科技有限公司 | 用于显示信息的方法及装置 |
CN114827702B (zh) * | 2021-01-22 | 2023-06-30 | 腾讯科技(深圳)有限公司 | 视频推送方法、视频播放方法、装置、设备以及介质 |
Citations (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003179908A (ja) * | 2001-09-07 | 2003-06-27 | Matsushita Electric Ind Co Ltd | 映像配信装置および映像受信装置 |
JP2007174378A (ja) * | 2005-12-22 | 2007-07-05 | Fujifilm Corp | 画像ファイリング方法及びデジタルカメラ及び画像ファイリング処理プログラム及び動画記録再生装置 |
JP2008015854A (ja) * | 2006-07-07 | 2008-01-24 | Fujifilm Corp | 画像処理装置及び画像処理プログラム |
JP2008165700A (ja) * | 2007-01-05 | 2008-07-17 | Seiko Epson Corp | 画像処理装置、電子機器、画像処理システム、画像処理方法、および、プログラム |
JP2008271268A (ja) * | 2007-04-23 | 2008-11-06 | Sony Corp | 画像処理装置、撮像装置、および画像表示制御方法、並びにコンピュータ・プログラム |
US20090066784A1 (en) * | 2007-09-05 | 2009-03-12 | Sony Corporation | Image processing apparatus and method |
JP2009089065A (ja) * | 2007-09-28 | 2009-04-23 | Toshiba Corp | 電子機器および顔画像表示装置 |
JP2009296346A (ja) * | 2008-06-05 | 2009-12-17 | Sony Corp | 番組推薦装置、番組推薦方法及び番組推薦プログラム |
JP2010103764A (ja) * | 2008-10-23 | 2010-05-06 | Toshiba Corp | 情報処理装置およびコンテンツ表示方法 |
JP2010154342A (ja) * | 2008-12-25 | 2010-07-08 | Toshiba Corp | 電子機器および映像コンテンツ情報表示方法 |
JP2012003433A (ja) * | 2010-06-15 | 2012-01-05 | Canon Inc | 情報処理装置、情報処理方法、およびプログラム |
JP2012044358A (ja) * | 2010-08-17 | 2012-03-01 | Nikon Corp | 画像処理装置および画像処理プログラム |
CN102637255A (zh) * | 2011-02-12 | 2012-08-15 | 北京千橡网景科技发展有限公司 | 用于处理图像中包含的面部的方法和设备 |
US20130016128A1 (en) * | 2011-07-13 | 2013-01-17 | Apple Inc. | Tiled Zoom of Multiple Digital Image Portions |
JP2013501975A (ja) * | 2009-08-07 | 2013-01-17 | グーグル インコーポレイテッド | 視覚クエリに応答するためのアーキテクチャ |
US20140282660A1 (en) * | 2013-03-14 | 2014-09-18 | Ant Oztaskent | Methods, systems, and media for presenting mobile content corresponding to media content |
WO2014194020A1 (en) * | 2013-05-30 | 2014-12-04 | Facebook, Inc. | Tag suggestions for images on online social networks |
Family Cites Families (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6239794B1 (en) | 1994-08-31 | 2001-05-29 | E Guide, Inc. | Method and system for simultaneously displaying a television program and information about the program |
US6388714B1 (en) | 1995-10-02 | 2002-05-14 | Starsight Telecast Inc | Interactive computer system for providing television schedule information |
US6177931B1 (en) | 1996-12-19 | 2001-01-23 | Index Systems, Inc. | Systems and methods for displaying and recording control interface with television programs, video, advertising information and program scheduling information |
US6564378B1 (en) | 1997-12-08 | 2003-05-13 | United Video Properties, Inc. | Program guide system with browsing display |
EP1237367A1 (en) | 1998-03-04 | 2002-09-04 | United Video Properties, Inc. | Program guide system with targeted advertising |
CN1867068A (zh) | 1998-07-14 | 2006-11-22 | 联合视频制品公司 | 交互式电视节目导视系统及其方法 |
AR020608A1 (es) | 1998-07-17 | 2002-05-22 | United Video Properties Inc | Un metodo y una disposicion para suministrar a un usuario acceso remoto a una guia de programacion interactiva por un enlace de acceso remoto |
CN101383946A (zh) | 1998-07-17 | 2009-03-11 | 联合视频制品公司 | 点播节目的系统及其相关方法 |
US7165098B1 (en) | 1998-11-10 | 2007-01-16 | United Video Properties, Inc. | On-line schedule system with personalization features |
US7023492B2 (en) * | 2000-10-19 | 2006-04-04 | Microsoft Corporation | Method and apparatus for encoding video content |
KR20140126420A (ko) | 2001-02-21 | 2014-10-30 | 유나이티드 비디오 프로퍼티즈, 인크. | 개인용 비디오 녹화 특징을 갖는 대화식 프로그램 가이드를 위한 시스템 및 방법 |
US20100153885A1 (en) | 2005-12-29 | 2010-06-17 | Rovi Technologies Corporation | Systems and methods for interacting with advanced displays provided by an interactive media guidance application |
US8670597B2 (en) * | 2009-08-07 | 2014-03-11 | Google Inc. | Facial recognition with social network aiding |
US8977639B2 (en) * | 2009-12-02 | 2015-03-10 | Google Inc. | Actionable search results for visual queries |
CN104584566A (zh) * | 2012-01-08 | 2015-04-29 | 汤姆逊许可公司 | 提供媒体资产推荐的方法和设备 |
CN103034841B (zh) * | 2012-12-03 | 2016-09-21 | Tcl集团股份有限公司 | 一种人脸追踪方法及系统 |
CN103197931B (zh) * | 2013-03-28 | 2016-08-03 | 深圳桑菲消费通信有限公司 | 一种基于触摸屏的界面布局方法和装置 |
-
2016
- 2016-06-23 CN CN201680016640.9A patent/CN107810639A/zh active Pending
- 2016-06-23 AU AU2016277553A patent/AU2016277553B2/en active Active
- 2016-06-23 EP EP16745225.9A patent/EP3314905B1/en active Active
- 2016-06-23 EP EP17210581.9A patent/EP3343941A1/en not_active Ceased
- 2016-06-23 EP EP17210580.1A patent/EP3343940A1/en not_active Withdrawn
- 2016-06-23 CA CA2952461A patent/CA2952461A1/en active Pending
- 2016-06-23 KR KR1020177024573A patent/KR20180021669A/ko unknown
- 2016-06-23 WO PCT/US2016/038897 patent/WO2016210052A1/en active Application Filing
- 2016-06-23 MX MX2017011141A patent/MX2017011141A/es active IP Right Grant
- 2016-06-23 JP JP2016576020A patent/JP6940951B2/ja active Active
- 2016-06-23 BR BR112017018539A patent/BR112017018539A2/pt not_active Application Discontinuation
-
2017
- 2017-08-30 MX MX2019013535A patent/MX2019013535A/es unknown
-
2022
- 2022-02-02 AU AU2022200691A patent/AU2022200691B2/en active Active
Patent Citations (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003179908A (ja) * | 2001-09-07 | 2003-06-27 | Matsushita Electric Ind Co Ltd | 映像配信装置および映像受信装置 |
JP2007174378A (ja) * | 2005-12-22 | 2007-07-05 | Fujifilm Corp | 画像ファイリング方法及びデジタルカメラ及び画像ファイリング処理プログラム及び動画記録再生装置 |
JP2008015854A (ja) * | 2006-07-07 | 2008-01-24 | Fujifilm Corp | 画像処理装置及び画像処理プログラム |
JP2008165700A (ja) * | 2007-01-05 | 2008-07-17 | Seiko Epson Corp | 画像処理装置、電子機器、画像処理システム、画像処理方法、および、プログラム |
JP2008271268A (ja) * | 2007-04-23 | 2008-11-06 | Sony Corp | 画像処理装置、撮像装置、および画像表示制御方法、並びにコンピュータ・プログラム |
US20090066784A1 (en) * | 2007-09-05 | 2009-03-12 | Sony Corporation | Image processing apparatus and method |
JP2009089065A (ja) * | 2007-09-28 | 2009-04-23 | Toshiba Corp | 電子機器および顔画像表示装置 |
JP2009296346A (ja) * | 2008-06-05 | 2009-12-17 | Sony Corp | 番組推薦装置、番組推薦方法及び番組推薦プログラム |
JP2010103764A (ja) * | 2008-10-23 | 2010-05-06 | Toshiba Corp | 情報処理装置およびコンテンツ表示方法 |
JP2010154342A (ja) * | 2008-12-25 | 2010-07-08 | Toshiba Corp | 電子機器および映像コンテンツ情報表示方法 |
JP2013501975A (ja) * | 2009-08-07 | 2013-01-17 | グーグル インコーポレイテッド | 視覚クエリに応答するためのアーキテクチャ |
JP2012003433A (ja) * | 2010-06-15 | 2012-01-05 | Canon Inc | 情報処理装置、情報処理方法、およびプログラム |
JP2012044358A (ja) * | 2010-08-17 | 2012-03-01 | Nikon Corp | 画像処理装置および画像処理プログラム |
CN102637255A (zh) * | 2011-02-12 | 2012-08-15 | 北京千橡网景科技发展有限公司 | 用于处理图像中包含的面部的方法和设备 |
US20130016128A1 (en) * | 2011-07-13 | 2013-01-17 | Apple Inc. | Tiled Zoom of Multiple Digital Image Portions |
US20140282660A1 (en) * | 2013-03-14 | 2014-09-18 | Ant Oztaskent | Methods, systems, and media for presenting mobile content corresponding to media content |
WO2014194020A1 (en) * | 2013-05-30 | 2014-12-04 | Facebook, Inc. | Tag suggestions for images on online social networks |
Also Published As
Publication number | Publication date |
---|---|
CN107810639A (zh) | 2018-03-16 |
AU2016277553A1 (en) | 2017-01-12 |
JP6940951B2 (ja) | 2021-09-29 |
MX2017011141A (es) | 2018-01-18 |
KR20180021669A (ko) | 2018-03-05 |
EP3314905B1 (en) | 2022-05-04 |
AU2016277553B2 (en) | 2022-02-17 |
EP3343940A1 (en) | 2018-07-04 |
CA2952461A1 (en) | 2016-12-26 |
EP3314905A1 (en) | 2018-05-02 |
BR112017018539A2 (pt) | 2018-04-24 |
AU2022200691A1 (en) | 2022-02-24 |
WO2016210052A1 (en) | 2016-12-29 |
EP3343941A1 (en) | 2018-07-04 |
AU2022200691B2 (en) | 2023-11-30 |
MX2019013535A (es) | 2020-02-13 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10187696B2 (en) | Systems and methods for overriding crowd-sourced auto-skip commands based on user activity | |
JP6949885B2 (ja) | 第2のユーザの視聴アクティビティに基づいて第2のユーザのための再生リストに含めるための第1のユーザのメディアアセットに対する推奨のための方法およびシステム | |
JP2021509206A (ja) | 拡張現実において補完コンテンツを提示するためのシステムおよび方法 | |
US10893327B2 (en) | Methods and systems for recommending media assets based on the geographic location at which the media assets are frequently consumed | |
JP2019520009A (ja) | 別のデバイスに双方向特徴を伝送するための方法およびシステム | |
JP6940951B2 (ja) | ユーザプロファイルに基づくメディアアセットのための画像の自動フォーマットのためのシステムおよび方法 | |
US11842040B2 (en) | Systems and methods for automatic formatting of images for media assets based on user profile | |
US11617020B2 (en) | Systems and methods for enabling and monitoring content creation while consuming a live video | |
US20230121693A1 (en) | Systems and methods for generating a media-based result to an ambiguous query | |
US20220157343A1 (en) | Systems and methods for determining playback points in media assets | |
KR20200087814A (ko) | 짧은 미디어 시청 프로파일 및 긴 미디어 시청 프로파일에 기초하여 추천들을 제공하기 위한 시스템들 및 방법들 | |
JP2018526837A (ja) | メディアのシーケンスを消費するときのユーザ視聴経験を向上させるための方法 | |
JP2019511181A (ja) | 広告コンテンツの代わりに再生するためのユーザ関連コンテンツのプレイリストを提供するためのシステムおよび方法 | |
JP2019527385A (ja) | 自然言語クエリのための補助機能を実行する装置および方法 | |
JP2019526081A (ja) | 自然言語クエリのための実行パスを判定するシステムおよび方法 | |
JP2019532430A (ja) | メディアアセットからの参照画像を再現するためのシステムおよび方法 | |
JP2019537169A (ja) | ユーザ画像に関連するメディアアセットのセグメントを受信するためのシステムおよび方法 | |
US9591359B2 (en) | Systems and methods for automatic formatting of images for media assets based on prevalence | |
US20160378308A1 (en) | Systems and methods for identifying an optimal image for a media asset representation | |
JP2019522404A (ja) | ユーザデバイス上のメディアアセットの提示中にユーザデバイスの近傍の表示のために補充コンテンツを選択するための方法およびシステム | |
US20190297365A1 (en) | Systems and methods for increasing a likelihood of media asset consumption using recommendation chains | |
CN110799962A (zh) | 用更适合用户的版本替换媒体的存储版本的系统和方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20180521 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20190624 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20190624 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20200729 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20200831 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20201127 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210129 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20210802 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20210901 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20210903 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6940951 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |