JP2019530041A - 検索クエリに基づいたソース画像の顔とターゲット画像との結合 - Google Patents

検索クエリに基づいたソース画像の顔とターゲット画像との結合 Download PDF

Info

Publication number
JP2019530041A
JP2019530041A JP2018567909A JP2018567909A JP2019530041A JP 2019530041 A JP2019530041 A JP 2019530041A JP 2018567909 A JP2018567909 A JP 2018567909A JP 2018567909 A JP2018567909 A JP 2018567909A JP 2019530041 A JP2019530041 A JP 2019530041A
Authority
JP
Japan
Prior art keywords
image
images
target
face
source image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2018567909A
Other languages
English (en)
Inventor
ケメルマーヘル、イレーナ
Original Assignee
フェイスブック,インク.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by フェイスブック,インク. filed Critical フェイスブック,インク.
Publication of JP2019530041A publication Critical patent/JP2019530041A/ja
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/50Information retrieval; Database structures therefor; File system structures therefor of still image data
    • G06F16/51Indexing; Data structures therefor; Storage structures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/50Information retrieval; Database structures therefor; File system structures therefor of still image data
    • G06F16/53Querying
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/50Information retrieval; Database structures therefor; File system structures therefor of still image data
    • G06F16/58Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/50Information retrieval; Database structures therefor; File system structures therefor of still image data
    • G06F16/58Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/583Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
    • G06F16/5854Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content using shape and object relationship
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/60Editing figures and text; Combining figures or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/97Determining parameters from multiple pictures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • G06T2207/30201Face

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Databases & Information Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Library & Information Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Software Systems (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Processing Or Creating Images (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

いくつかの実施形態において、顔を描写するソース画像にアクセスすることができる。ソース画像の顔を描写する部分を決定することができる。ユーザ入力に基づいて検索クエリを取得することができる。検索クエリに関連付けられている1以上のターゲット画像のセットを識別することができる。1以上のターゲット画像のセットの各ターゲット画像内で、ソース画像の部分がレンダリングされるべきそれぞれの位置を識別することができる。1以上のターゲット画像のセットの各ターゲット画像について、ソース画像の部分が各ターゲット画像内のそれぞれの位置にレンダリングされて、1以上の結合画像のセットを生成することができる。結合画像のセットの各結合画像は、各ターゲット画像内のそれぞれの位置にレンダリングされたソース画像の部分を含むことができる。

Description

本開示は、一般にマルチメディア処理に関し、具体的にはマルチメディアまたはメディア・コンテンツ・アイテムの結合に関する。
現在、人々は多様な目的でコンピューティング・デバイス(すなわち、コンピューティング・システム)をよく利用する。ユーザは、自分のコンピューティング・デバイスを使用して、例えば、互いに対話し、コンテンツにアクセスし、コンテンツをシェアし、コンテンツを作成することができる。ある場合には、ユーザは、自分のコンピューティング・デバイスを利用して、画像、ビデオおよびオーディオなどのマルチメディア(すなわち、メディア)・コンテンツを生成し、ダウンロードし、視聴し、コンテンツにアクセスし、またはその他の形でコンテンツと対話することができる。例えば、オンライン・システムまたはオンライン・サービス(例、ソーシャル・ネットワーキング・システムまたはソーシャル・ネットワーキング・サービス)のユーザは、自分のコンピューティング・デバイスを介して、メディア・コンテンツを視聴するためにメディア・コンテンツをダウンロードし、メディア・コンテンツをシェアするためにアップロードし、またはメディア・コンテンツに関連する情報と対話することができる。
ある場合には、人の顔の描写または表現を含む画像などのコンテンツに関して、メディア処理を実施または適用することができる。コンピュータ技術に根ざした従来のアプローチにおいては、こうしたメディア・コンテンツに実施または適用されるメディア処理操作は、非現実的な、非効率的な、または興味のわかない結果を出しかねない。一例において、電子商取引の顧客が仮想の衣類アイテムを着た自分を見られるようにするためにメディア処理を利用することは、融通がきかず、退屈で、不正確で、または便利なようにパーソナライズ/カスタマイズすることが不可能なことがある。したがって、従来のアプローチは、メディア・コンテンツを利用し、コンテンツにアクセスし、またはコンテンツと対話することに関連する体験全体に課題を生むか、または体験全体を減じかねない。
人々は様々な目的でコンピューティング・システム(またはデバイス)を使用する。ユーザは、自分のコンピューティング・システムを利用して、接続を確立し、コミュニケーションに参加し、互いに対話し、および/または様々なタイプのコンテンツと対話することができる。ある場合には、コンピューティング・デバイスは、(ビデオ画像フレームの、または静止フレームのセットに基づいて形成することができる)画像またはビデオなどのメディア(すなわち、マルチメディア)・コンテンツをキャプチャまたは録画することが可能なカメラを含むか、またはカメラに対応することができる。しばしば、画像などのメディア・コンテンツは、1つまたは複数のオブジェクトを描写し、表現し、または含むことができる。画像内のオブジェクトの例には、ユーザ(例、ユーザの顔)またはその一部を含むことができるが、これに限定されない。
メディア処理に関するコンピュータ技術に根ざした従来のアプローチは、顔を描写し、表現し、または含む画像の修正を試みることができる。しかし、従来のメディア処理のアプローチは、限定された、融通のきかない、または実際的でない結果を出すことがある。例えば、ある場合には、従来のアプローチは、限定された数の修正しか画像に施すことはできない。別の例では、従来のアプローチは、デフォルトまたは予め構成されている修正しか画像に施せないので、ユーザの入力および/または選択は利用できない。別の例では、従来のアプローチは、画像に、十分に現実的または正確とは思えない修正を生じさせることが度々ある。したがって、多くの場合、メディア処理のために従来のアプローチを利用することは課題が多く、非効率的であり、および/または望ましくない。
以上のまたは他の懸念材料のため、従来のアプローチは、不都合であるかまたは問題のあるものになりかねない。そのため、従来のアプローチに関連する様々な欠点に対処するかまたはそれらを軽減するための、改良されたアプローチが有益となりうる。コンピュータ技術に基づき、開示された技術は、顔を描写するソース画像を取得するかまたは画像にアクセスすることができる。例えば、ユーザは、コンピューティング・デバイスを利用して、画像をキャプチャおよび/または入力(例、アップロード、提出、等)することができる。ソース画像の顔を描写する部分を識別または決定することができる。ある場合には、1つまたは複数のオブジェクト認識および/または検出技術を利用して、ソース画像の顔を描写または表現している部分を識別、検出、または探し出すことができる。また、検索クエリは、ユーザ入力に基づいて取得することができる。いくつかの実施態様において、検索クエリは、ユーザが入力したテキストに基づいて取得し、生成することができる。いくつかの実施形態では、開示される技術は、複数の検索クエリを定義(すなわち、事前に定義、事前に設定等)することができ、複数の定義された検索クエリをユーザに提供することができ、提供された複数の定義された検索クエリの中から、特定の検索クエリのユーザによる選択を受信し、獲得し、またはその他の形で取得することができる。
さらに、開示される技術は、検索クエリに関連付けられている、1つまたは複数のターゲット画像のセットを識別することができる。例えば、ターゲット画像のセットは、検索クエリ(例、用語、キーワード、フレーズ、話題、テーマ、ラベル、タグ、等)に関連しているとすでに認識、分類および/またはラベル付けされている、複数のターゲット画像から識別することができる。ターゲット画像のそれぞれは、1つまたは複数の顔を描写または表現することもできる。開示される技術は、1つまたは複数のターゲット画像のセットからの各ターゲット画像内で、ソース画像の部分をレンダリングするべきそれぞれの位置を識別することができる。一例として、各ターゲット画像内のそれぞれの位置は、各ターゲット画像で顔が描写または表現されている場所に基づいて識別することができる。
1つまたは複数のターゲット画像のセットからの各ターゲット画像について、開示される技術は、1つまたは複数の結合画像のセットを生成するために、各ターゲット画像内のそれぞれの位置にソース画像の部分をレンダリングすることができる。結合画像のセット内の各結合画像は、各ターゲット画像内のそれぞれの位置にレンダリングされる、ソース画像の部分を含むことができる。例えば、各結合画像は、ソース画像の顔が検索クエリに一致する、各ターゲット画像にマッピングされる合成画像に対応させることができる。この場合、開示される技術は、ソース画像の顔部分(のエッジ)を、ソース画像の顔部分がレンダリングされる各ターゲット画像内のそれぞれの位置(のエッジ)にミックスまたはブレンドして、例えば、合成画像の外観全体、自然さおよび/または意図される現実性を改善することができる。
開示される技術の多くの他の特徴、アプリケーション、実施形態および/または変型例は、添付の図面および以下の説明から明らかになることは理解されるべきである。本明細書で説明される構造、システム、非一時的コンピュータ可読媒体および方法の追加および/または代替実施態様を、開示される技術の原理から逸脱することなく採用することができる。
一実施形態による、例示的なオンライン・システムが動作する例示的なシステム環境のブロック図。 一実施形態による、例示的なオンライン・システムのブロック図。 一実施形態による、例示的な画像結合モジュールのブロック図。 一実施形態による、検索クエリに基づいてソース画像の顔をターゲット画像に結合することに関連する例示的なシナリオを示す図。 一実施形態による、検索クエリに基づいてソース画像の顔をターゲット画像に結合することに関連する例示的なプロセスを表すフローチャート。 一実施形態による、検索クエリに基づいてソース画像の顔をターゲット画像に結合することに関連する例示的なプロセスを表すフローチャート。 一実施形態による、検索クエリに基づいてソース画像の顔をターゲット画像に結合することに関連する例示的なプロセスを表すフローチャート。
図面は様々な実施形態を例示目的でのみ図示している。当業者は、以下の考察から、本明細書において説明される原理から逸脱することなく、本明細書において例示される構造および方法の代替実施形態が採用できることを容易に認識するであろう。
システム・アーキテクチャ
図1は、一実施形態による、例示的なオンライン・システム140が動作する例示的なシステム環境100のブロック図を示す。図1に図示する例示的なシステム環境100は、1つまたは複数のクライアント・デバイス110、ネットワーク120、1つまたは複数のサードパーティ・システム130、およびオンライン・システム140を備えることができる。代替構成においては、システム環境100に異なるコンポーネントおよび/または追加のコンポーネントを含め、および/またはシステム環境100から異なるコンポーネントおよび/または追加のコンポーネントを省いてもよい。ある場合には、オンライン・システム140は、例えば、ソーシャル・ネットワーキング・システム、コンテンツ共有ネットワーク、および/またはシステムのユーザにコンテンツを提供するための別のシステム等とすることができる。
クライアント・デバイス110は、ネットワーク120経由でユーザ入力を受信すること、ならびにデータを送信および/または受信することのできる、1つまたは複数のコンピューティング・デバイスとすることができる。一実施態様では、クライアント・デバイス110は、デスクトップまたはラップトップ・コンピュータなどの従来のコンピュータ・システムである。あるいは、クライアント・デバイス110は、携帯情報端末(PDA)、携帯電話、スマートフォン、ウェアラブル・デバイス、または別の適切なデバイスなど、コンピュータ機能を有するデバイスであってもよい。クライアント・デバイス110は、ネットワーク120経由で通信するように構成することができる。一実施形態において、クライアント・デバイス110は、クライアント・デバイス110のユーザがオンライン・システム140と対話できるようにするアプリケーションを実行する。例えば、クライアント・デバイス110は、クライアント・デバイス110とオンライン・システム140との間の対話をネットワーク120経由で可能にするために、オンライン・システムによって提供されるアプリケーションまたはブラウザ・アプリケーションを実行することができる。別の実施形態では、クライアント・デバイス110は、IOS(登録商標)またはANDROID(登録商標)など、クライアント・デバイス110のネイティブ・オペレーティング・システム上で稼働するアプリケーション・プログラミング・インタフェース(API)を通じて、オンライン・システム140と対話することができる。多くの変型例が可能であることは了解されるべきである。
クライアント・デバイス110は、有線および/または無線両方の通信システムを使用して、ネットワーク120経由で通信するように構成することができ、ネットワークは、ローカル・エリア・ネットワークおよび/または広域ネットワークの任意の組み合わせを備えることができる。一実施形態では、ネットワーク120は、標準的な通信技術および/またはプロトコルを使用する。例えば、ネットワーク120は、イーサネット(登録商標)、802.11、ワールドワイド・インターオペラビリティ・フォー・マイクロウェーブ・アクセス(WiMAX)、3G、4G、符号分割多元接続(CDMA)、デジタル加入者線(DSL)、等の技術を使用する通信リンクを含む。ネットワーク120経由で通信するために使用されるネットワーキング・プロトコルの例は、マルチプロトコル・ラベル・スイッチング(MPLS)、トランスミッション・コントロール・プロトコル/インターネット・プロトコル(TCP/IP)、ハイパーテキスト転送プロトコル(HTTP)、簡易メール転送プロトコル(SMTP)、およびファイル転送プロトコル(FTP)を含むことができる。ネットワーク120で交換されるデータは、ハイパーテキスト・マークアップ言語(HTML)または拡張マークアップ言語(XML)など、任意の適切なフォーマットを使用して表すことができる。いくつかの実施形態では、ネットワーク120の通信リンクの全部または一部は、1つまたは複数の任意の適切な手法を使用して暗号化することができる。
また、1つまたは複数のサードパーティ・システム130は、オンライン・システム140と通信するためにネットワーク120に連結することができ、これを、図2に関連して以下詳細に説明する。いくつかの実施形態において、サードパーティ・システム130は、クライアント・デバイス110が実行するためのアプリケーションを記述する情報を通信する、または、クライアント・デバイス110上で実行するアプリケーションが使用するためにクライアント・デバイス110にデータを通信するアプリケーション・プロバイダである。例えば、サードパーティ・システム130は、開示される技術の様々な実施形態に関連する、1つまたは複数のアプリケーションを開発または提供することができる。この例では、開示される技術、または少なくともその一部は、1つまたは複数のアプリケーション経由で実施することができ、または、1つまたは複数のアプリケーションに含むことができる。いくつかの実施態様では、サードパーティ・システム130は、クライアント・デバイス110経由で提示するために、コンテンツまたは他の情報を提供することができる。サードパーティ・システム130は、サードパーティ・システム130によって提供されるアプリケーションに関する広告、コンテンツ、または情報などの情報を、オンライン・システム140に通信することもできる。いくつかの実施形態では、サードパーティ・システム130は、オンライン・システム140内の、広告主などのコンテンツ・プロバイダとすることができる。例えば、コンテンツ・プロバイダは、オンライン・システム140内のページなどのリソースの管理者またはマネージャに対応することができる。開示される技術に関連する多くの変型例が可能である。
図2は、一実施形態による、例示的なオンライン・システム140のブロック図を示す。図2に図示するオンライン・システム140は、ユーザ・プロフィール・ストア205と、コンテンツ・ストア210と、アクション・ロガー215と、アクション・ログ220と、エッジ・ストア225と、画像結合モジュール230と、ウェブ・サーバ235とを含むことができる。いくつかの実施形態では、オンライン・システム140は、様々なアプリケーションのために、追加のコンポーネント/モジュール、より少ないコンポーネント/モジュール、または異なるコンポーネント/モジュールを含むことができる。一般に、本明細書で述べるモジュールは、ソフトウェア、ハードウェアまたはその任意の組み合わせに関連付けることができる。いくつかの実施態様では、モジュールの1つまたは複数の機能、タスクおよび/または動作は、ソフトウェアのルーチン、ソフトウェアのプロセス、ハードウェア、および/またはその任意の組み合わせによって実施または実行することができる。ある場合には、モジュールは、一部または全体を、ユーザまたはクライアント・コンピューティング・デバイスなど、1つまたは複数のコンピューティング・デバイスまたはシステム上で稼働するソフトウェアなどとして実装することができる。例えば、モジュールまたは少なくともその一部は、ユーザのコンピューティング・デバイスまたはクライアント/ユーザのコンピューティング・システム上で稼働しているアプリケーション(例、アプリ)、プログラム、アプレット、またはオペレーティング・システム等として、またはその中に実装することができる。別の実施例では、モジュールまたは少なくともその一部は、ネットワーク・サーバまたはクラウド・サーバなどの1つまたは複数のサーバを含むことができる、1つまたは複数のコンピューティング・デバイスまたはシステムを使用して実装することができる。ある場合には、モジュールは、一部または全体を、ソーシャル・ネットワーキング・システムまたはサービスなど、オンライン・システムまたはサーバ140内に実装されるか、またはそれと連動して動作するように構成することができる。また、ネットワーク・インタフェース、セキュリティ機能、ロード・バランサ、フェイルオーバ・サーバ、管理およびネットワーク・オペレーション・コンソール等の従来のコンポーネントは、システム・アーキテクチャの細部がわかりにくくならないように、明確には図示していない。
オンライン・システム140の各ユーザは、ユーザ・プロフィール・ストア205に記憶されているユーザ・プロフィールに関連付けられていてもよい。ユーザ・プロフィールは、ユーザが明白にシェアしたユーザに関する宣言的情報を含んでもいてもよい、オンライン・システム140によって推定されるプロフィール情報も含むことができる。一実施形態においては、ユーザ・プロフィールは、対応するオンライン・システムのユーザの1つまたは複数の属性をそれぞれ記述する複数のデータフィールドを含む。ユーザ・プロフィールに記憶される情報の例には、職歴、学歴、性別、趣味や嗜好、ロケーション等など、人物、人口統計学的およびその他のタイプの記述的情報が含まれる。ユーザ・プロフィールは、ユーザが提供する他の情報、たとえば、画像やビデオを記憶することもできる。一定の実施形態においては、ユーザの画像を、画像に表示されるオンライン・システムのユーザを識別する情報でタグ付けすることが可能であり、ユーザがタグ付された画像を識別する情報は、ユーザのユーザ・プロフィールに記憶される。ユーザ・プロフィール・ストア205内のユーザ・プロフィールは、コンテンツ・ストア210内のコンテンツ・アイテムに対して行われてアクション・ログ220に記憶される、対応するユーザによるアクションへの参照を維持することもできる。
ユーザ・プロフィール・ストア205内のユーザ・プロフィールは、しばしば個人に関連付けられて、個人がオンライン・システム140を通じて互いに対話することを可能にするが、ユーザ・プロフィールは、企業や組織などのエンティティについても記憶することができる。これによりエンティティは、オンライン・システム140上で、他のオンライン・システムのユーザとつながり、コンテンツを交換するためのプレゼンスを確立することが可能である。エンティティは、自社、自社製品についての情報を投稿するか、またはエンティティのユーザ・プロフィールに関連付けられているブランド・ページを使用してオンライン・システム140のユーザに他の情報を提供することができる。オンライン・システム140の他のユーザはブランド・ページにつながって、ブランド・ページに投稿された情報を受け取るか、またはブランド・ページからの情報を受け取ることができる。ブランド・ページに関連付けられているユーザ・プロフィールは、エンティティ自体に関する情報を含むことができるので、そのエンティティに関するバックグラウンドまたは情報データをユーザに提供する。
コンテンツ・ストア210は、さまざまなタイプのコンテンツをそれぞれ代表するオブジェクトを記憶する。オブジェクトによって代表されるコンテンツの例には、ページ投稿、ステータスの更新、写真、画像、ビデオ、リンク、共有コンテンツ・アイテム、ゲーム・アプリケーションの達成度、ローカル・ビジネスにおけるチェックイン・イベント、ブランド・ページ、または他のタイプのコンテンツが含まれる。オンライン・システムのユーザは、ステータスの更新、オンライン・システム140内の他のオブジェクトに関連付けるためにユーザがタグ付した写真、イベント、グループ、またはアプリケーションなど、コンテンツ・ストア210によって記憶されるオブジェクトを作成することができる。いくつかの実施形態においては、オブジェクトは、サードパーティ・アプリケーション、またはオンライン・システム140とは別のサードパーティ・アプリケーションから受け取られる。一実施形態においては、コンテンツ・ストア210内のオブジェクトは1つのコンテンツ、すなわちコンテンツ「アイテム」を表す。そのため、オンライン・システムのユーザは、さまざまな通信チャネルを通してテキストやさまざまなタイプの媒体のコンテンツ・アイテムをオンライン・システム140に投稿することによって、互いに通信するよう促される。これによりユーザ同士の対話の量が増え、オンライン・システム140内でユーザが対話する頻度が増す。
アクション・ロガー215は、オンライン・システム140の内部および/または外部のユーザ・アクションに関する通信を受け取って、ユーザ・アクションに関する情報をアクション・ログ220に投入する。アクションの例には、別のユーザとのつながりを追加すること、別のユーザにメッセージを送信すること、画像をアップロードすること、別のユーザからのメッセージを読むこと、別のユーザに関連付けられているコンテンツを閲覧すること、および、別のユーザによって投稿されたイベントに出席することが含まれる。さらに、多数のアクションがオブジェクトおよび1人または複数人の特定のユーザに関わることがあるため、これらのアクションもその特定のユーザに関連付けられて、アクション・ログ220に記憶される。
アクション・ログ220は、オンライン・システム140が、オンライン・システム140上でのユーザ・アクション、および、オンライン・システム140に情報を通信するサードパーティ・システム130上でのアクションを追跡するために使用することができる。ユーザは、オンライン・システム140上のさまざまなオブジェクトと対話することができ、これらの対話について記述する情報がアクション・ログ220に記憶される。オブジェクトとの対話の例には、投稿に対してコメントすること、リンクをシェアすること、クライアント・デバイス110を通じて実際のロケーションにチェックインすること、コンテンツ・アイテムにアクセスすること、および他の適切な対話が含まれる。アクション・ログ220に含まれるオンライン・システム140上のオブジェクトとの対話のさらなる例には、フォト・アルバムに対してコメントすること、ユーザと通信すること、オブジェクトとのつながりを確立すること、イベントに参加すること、グループに参加すること、イベントを作成すること、アプリケーションを承認すること、アプリケーションを使用すること、オブジェクトに関する好みを表現すること(そのオブジェクトに「いいね!」を表明すること)、および、トランザクションに関与することが含まれる。さらに、アクション・ログ220は、オンライン・システム140上の広告およびオンライン・システム140上で動作する他のアプリケーションとの、ユーザの対話を記録することができる。いくつかの実施形態においては、アクション・ログ220からのデータは、ユーザの関心または好みを推定するために使用されて、ユーザのユーザ・プロフィールに含まれる関心を拡張し、ユーザの好みをさらに完全に理解できるようにする。
アクション・ログ220は、外部ウェブサイトなどのサードパーティ・システム130上で行われてオンライン・システム140に通信されるユーザ・アクションを記憶することもできる。たとえば、電子商取引のウェブサイトは、ソーシャル・プラグインを通じてオンライン・システム140のユーザを認識することができるので、電子商取引のウェブサイトがオンライン・システム140のユーザを識別することが可能である。オンライン・システム140のユーザは一意に識別できるため、前述の例におけるように、電子商取引のウェブサイトは、オンライン・システム140外のユーザのアクションに関する情報を、ユーザに関連付けるためにオンライン・システム140に通信することができる。そのため、アクション・ログ220は、ウェブ・ページの閲覧履歴、関わった広告、行った購入、および買い物や購買からの他のパターンなど、ユーザがサードパーティ・システム130上で行うアクションに関する情報を記録することができる。さらに、サードパーティ・システム130に関連付けられてクライアント・デバイス110上で実行されるアプリケーションを通じて行うユーザがアクションは、アクション・ログ220に記録しユーザに関連付けるために、アプリケーションが、アクション・ロガー215に通信することができる。
エッジ・ストア225は、ユーザとオンライン・システム140上の他のオブジェクトとのつながりについて記述する情報をエッジとして記憶する。いくつかのエッジはユーザによって定義されることができ、ユーザが他のユーザとの関係を指定することが可能である。たとえば、ユーザは、友達、同僚、パートナーなど、ユーザの実生活の関係に即した他のユーザとのエッジを生成することができる。オンライン・システム140上のあるページへの関心を表明すること、オンライン・システム140の他のユーザとリンクをシェアすること、およびオンライン・システム140の他のユーザが行った投稿にコメントすることなど、ユーザがオンライン・システム140でオブジェクトと対話するとき、他のエッジが生成される。
一実施形態においては、エッジは、ユーザ同士の対話、ユーザとオブジェクトとの対話、またはオブジェクト同士の対話の特性をそれぞれ表すさまざまな特徴を含むことができる。たとえば、エッジに含まれる特徴は、2人のユーザ間の対話の割合、2人のユーザが互いに対話したのがどれくらい最近であったか、あるユーザがオブジェクトに関して取り出した情報の割合もしくは量、またはユーザがオブジェクトに関して投稿したコメントの数とタイプを記述する。特徴は、ある特定のオブジェクトまたはユーザについて記述する情報を表すこともできる。たとえば、特徴は、ある特定のトピックに対してユーザがもつ関心のレベル、ユーザがオンライン・システム140にログインしている割合、またはユーザに関する人口統計学的情報について記述する情報を表すことができる。各特徴は、ソース・オブジェクトまたはユーザ、ターゲット・オブジェクトまたはユーザ、および特徴値に関連付けることができる。特徴は、ソース・オブジェクトもしくはユーザ、ターゲット・オブジェクトもしくはユーザについて、またはソース・オブジェクトもしくはユーザとターゲット・オブジェクトもしくはユーザとの間における対話について記述する値に基づいた式として指定されることが可能である。そのため、エッジは1つまたは複数の特徴式として表されることが可能である。
エッジ・ストア225は、オブジェクト、関心および他のユーザについての親和性スコアなど、エッジに関する情報も記憶する。オンライン・システム140によって経時的に親和性スコア、すなわち、「親和度」が計算されて、ユーザが行うアクションに基づいて、オンライン・システム140内のオブジェクトまたは別のユーザへのユーザの関心を概算することができる。オンライン・システム140によって経時的にユーザの親和度が計算されて、ユーザが行うアクションに基づいてオンライン・システム140内のオブジェクト、トピック、または別のユーザへのユーザの関心を概算することができる。親和度の計算については、2010年12月23日に出願された米国特許出願第12/978,265号、2012年11月30日に出願された米国特許出願第13/690,254号、2012年11月30日に出願された米国特許出願第13/689,969号、および2012年11月30日に出願された米国特許出願第13/690,088号にさらに記述されており、これら特許出願のそれぞれを参照によりその全体を本明細書に組み込む。一実施形態においては、ユーザと特定のオブジェクトとの間における複数の対話を、1つのエッジとしてエッジ・ストア225内に記憶することができる。あるいは、ユーザと特定のオブジェクトとの間における各対話を個別のエッジとして記憶する。いくつかの実施形態においては、ユーザ間のつながりをユーザ・プロフィール・ストア205に記憶することができ、またはユーザ・プロフィール・ストア205がユーザ間のつながりを決定するためにエッジ・ストア225にアクセスすることができる。
さらに、画像結合モジュール230は、顔を描写または表現するソース画像(すなわち、入力画像)の受信、獲得、アクセス、またはその他の形での取得をしやすくするように構成することができる。画像結合モジュール230は、顔を描写または表現するソース画像の部分(例、サブイメージ)を決定、識別、検出または探し出すように構成することもできる。画像結合モジュール230は、ユーザ入力に基づいて、検索クエリの取得、受信または獲得等をしやすくするようにさらに構成することができる。ユーザ入力は、ユーザが自分の好みの検索クエリを(例、タイピングにより)生成または(例、提供される複数の選択肢により)選択できるようにすることができる。
また、画像結合モジュール230は、検索クエリに関連付けられている、1つまたは複数のターゲット画像のセットを識別することができる。画像結合モジュール230は、1つまたは複数のターゲット画像のセットからの各ターゲット画像内で、ターゲット画像の(顔)部分をレンダリングするべきそれぞれの位置を識別することもできる。例えば、各ターゲット画像は、顔を描写または表現することもできる。各ターゲット画像内のそれぞれの位置は、各ターゲット画像内のどこに顔が描写、表現、または配置されるかに基づいて決定することができる。顔が各ターゲット画像内に描写されるそれぞれの場所で、各ターゲット画像の対応する部分(例、対応するサブイメージ)を取り除くことができるので、顔が各ターゲット画像から「切り取られる」。画像結合モジュール230は、さらに、1つまたは複数のターゲット画像のセットからの各ターゲット画像について、各ターゲット画像内のそれぞれの位置に、1つまたは複数の結合画像のセットを生成するために、ソース画像の部分をレンダリングすることができる。このように、1つまたは複数の結合画像のセット内の各結合画像は、各ターゲット画像内のそれぞれの位置にレンダリングされる、ソース画像の部分を含むことができる。例えば、各結合画像は、ターゲット画像の顔を取り除いて、代わりにソース画像の顔に取り替えられている各ターゲット画像に対応することができる。この例は、例示目的で提示されており、開示される技術に関連した多くの変型例が可能であることは了解されるべきである。
追加的に、ウェブ・サーバ235は、ネットワーク120を通じてオンライン・システム140を1つまたは複数のクライアント・デバイス110へ、および1つまたは複数のサードパーティ・システム130へリンクさせる。ウェブ・サーバ235は、ウェブ・ページ、およびその他のコンテンツ、たとえば、JAVA(登録商標)、FLASH(登録商標)、XMLなどを供給する。ウェブ・サーバ235は、オンライン・システム140とクライアント・デバイス110との間におけるメッセージ、たとえば、インスタント・メッセージ、キューに入れられたメッセージ(例、電子メール)、テキスト・メッセージ、ショート・メッセージ・サービス(SMS)のメッセージ、またはその他適切なメッセージング技術を使用して送信されるメッセージを受け取って回送することができる。ユーザは、コンテンツ・ストア210に記憶される情報(例、画像またはビデオ)をアップロードするよう求める要求をウェブ・サーバ235に送信することができる。加えて、ウェブ・サーバ235は、IOS(登録商標)、ANDROID(登録商標)、またはBLACKBERRY(登録商標)OSなどのネイティブ・クライアント・デバイス・オペレーティング・システムに対してデータを直接送信するためのアプリケーション・プログラミング・インタフェース(API)機能を提供することができる。
図3は、一実施形態による、例示的な画像結合モジュール300のブロック図を示す。いくつかの実施形態では、例示的な画像結合モジュール300は、前述した画像結合モジュール230として実装される。図3の例に示すように、例示的な画像結合モジュール300は、ソース画像処理モジュール302、検索クエリ・モジュール304、ターゲット画像処理モジュール306、レンダリング・モジュール308、および機械学習モジュール310を含むことができる。
ソース画像処理モジュール302は、1つまたは複数のソース画像に関連する様々な動作および/またはタスクを促すように構成することができる。いくつかの実施形態では、ソース画像処理モジュール302は、顔を描写するソース画像の受信、獲得、アクセスまたはその他の形での取得ができる。ソース画像は、例えばユーザにより、選択、提出、アップロード、またはその他の形で入力される画像に対応することができる。ある場合には、ソース画像は、静止画像または写真とすることができる。ある例では、ソース画像は、他のビデオ画像フレームと合わせて、ビデオを形成することができるビデオ画像フレームとすることができる。
開示する技術の様々なモジュール(またはその一部)は、一緒に実装され、および/または連動することができる。いくつかの実施形態では、ソース画像処理モジュール302は、機械学習モジュール310と協働して、ソース画像の顔を描写する部分を決定または識別しやすくすることができる。例えば、機械学習モジュール310は、コンテンツの視覚的属性に基づいて、コンテンツ内の主題を認識するように、画像分析モデルを訓練することができる。コンテンツは、例えば、画像などのメディア・コンテンツ、および関連情報もしくはメタデータを含んでもよい。視覚的属性は、コンテンツ内に描写される主題の特有の性質を反映する、画像または画像部分/セグメント内の視覚的パターンを含んでもよい。視覚的属性は、例えば、外観、色、形状および/またはレイアウト等のうちの1つまたはそれらの組み合わせに基づくことができる。例えば、トレーニング・データからの抽出された画像特徴は、画像内に描写または表現される人の顔の視覚的特徴に対応することができる。機械学習モジュール310は、少なくとも1つの画像分類アルゴリズム(例、顔認識アルゴリズム)を使用して、画像データ内の顔を認識するよう、画像分析モデルを訓練することができる。したがって、ソース画像処理モジュール302は、ソース画像の顔を描写する部分を決定または識別するために、機械学習モジュール310と協働することができる。
いくつかの実施形態において、画像分析モデルは、トレーニング・データ・ストアに記憶されているトレーニング・データから選択された画像のサンプル・セットから収集される状況から得られる手がかりに基づいて、画像クラスの視覚的属性を認識するように、機械学習モジュール310によって訓練された画像分類器である。画像のサンプル・セットは、分類器による正確な結果を確保するために、十分大きな数(例、指定の閾値量を超える)画像を含むことができる。分類器は、コンテンツが特定の画像クラス内に入る範囲に対応する統計スコアをコンテンツの各アイテムに割り当てることができる。いくつかの実施形態では、分類器は、階層的分類器、線形分類器、またはその他の分類器を組み込んでもよい。いくつかの実施形態では、分類器は、最初に、オンライン・システム140によって維持される画像のうちの選択されたサブセットに基づいて、訓練してもよい。分類器は、様々な状況に基づいて訓練し直すことができる。例えば、分類器は、画像が分類器に利用できるようになると、選択された頻度で定期的にまたは不定期に訓練し直してもよい。別の実施例としては、分類器は、多数の画像をオンライン・システム140にアップロードさせそうなイベント(例、スポーツ・イベント、音楽フェスティバル、パーティ、等)などの特定のイベントの発生時に、訓練し直してもよい。さらに別の例としては、分類器は、オンライン・システム140が閾値数の新画像を受信したときに、訓練し直してもよい。以上および他の状況での再訓練は、画像クラスの視覚的属性を認識する分類器の能力を改善させることができる。
画像クラスは、例えば、オブジェクト(例、猫、車、人、財布、等)、人体の部位(例、顎髭、顔)、ブランドもしくはブランドに関連するオブジェクト(例、コカ・コーラ(登録商標)、フェラーリ(登録商標))、プロ・スポーツ・チーム(例、ゴールデンステートウォリアーズ(登録商標)、サンフランシスコジャイアンツ(登録商標))、関心のある位置もしくは場所(例、エレベスト山)、植物(例、様々な種類の蘭)、構造物(例、超高層ビル、橋梁、住宅)、乗物(例、飛行機、自転車、車、オートバイ)、活動(例、水泳、ランニング)、フレーズもしくはコンセプト(例、赤い服、幸せ)、およびコンテンツに関連付けることのできる他のこと、行為、または考えを含むことができる。本明細書に提示する多くの例は、単一の「画像クラス」をいうかもしれないが、画像クラスは、オブジェクト、ブランド、プロ・スポーツ・チーム、位置等の融合体を構成する複数の画像クラスまたは1つまたは複数の画像クラスをいうこともあることに留意する。各画像クラスは、その画像クラスに一般に関連する画像特徴、例えば、男性の顔に関連付けられている明確な視覚的特徴の、複数のセットを有することができる。
いくつかの実施形態において、機械学習モジュール310は、また、選択された表現空間における2つの画像を比較することによって、2つの画像を区別するように画像分析モデルを訓練する。一実施形態において、機械学習モジュール310は、対応するカラー・ヒストグラムで表現される画像を比較し、2つの画像のヒストグラム間の相違点を多様な距離尺度、例えばχ2統計量で測定するように、画像分析モデルを訓練する。別の実施形態において、機械学習モジュール310は、連続確率フレームワークで表現される画像をガウスモデルの混合に基づいて比較し、2つの画像の相違点をKL情報量に関して測定するよう、画像分析モデルを訓練する。開示する技術に関連する多くの変型例が可能であることは理解されるべきである。
図3の例を続けると、検索クエリ・モジュール304は、ユーザ入力に基づいて検索クエリを取得しやすくするように構成することができる。ある場合には、検索クエリ・モジュール304は、複数の検索クエリを定義(すなわち、事前に定義、事前に設定等)することができる。検索クエリ・モジュール304は、複数の定義された検索クエリをユーザに提供または提示することができる。したがって、ユーザ入力は、提供された複数の定義された検索クエリの中からユーザにより取得された検索クエリの選択を含むことができる。追加的または代替的に、ある例では、ユーザ入力は、ユーザによって提供(例、入力、タイプ、口述筆記、等)されるテキストを含むことができる。テキストは、検索クエリ・モジュール304によって取得された検索クエリを生成するために利用することができる。
さらに、ターゲット画像処理モジュール306は、検索クエリに関連付けられている、1つまたは複数のターゲット画像のセットを識別しやすくするように構成することができる。いくつかの実施形態では、ターゲット画像処理モジュール306は、機械学習モジュール310と協働して、ターゲット画像(またはターゲット画像候補)内のオブジェクトを検出、認識、ラベル付け、および/または分類することができる。このように、ターゲット画像処理モジュール306は、各ターゲット画像に、各ターゲット画像内で認識/検出される1つもしくは複数のオブジェクトをラベル付けするか、または各ターゲット画像を、各ターゲット画像内で認識/検出される1つもしくは複数のオブジェクトに関連付けることができる。例えば、ターゲット画像候補と成り得る画像は、顔を描写または表現することができる。顔は、スパイキー・ヘア、顎髭、しわ、および青い目を持つ40歳男性のものとすることができる。この場合、ターゲット画像処理モジュール306は、画像に、「男」、「男性」、「中年」、「スパイキー・ヘア」、「顎髭」、「しわ」、「青い目」などの用語との関連を持たせることができる。こうした用語は、検索クエリ(またはその一部)に対応させることができる。
いくつかの実施態様において、1つまたは複数のターゲット画像のセットを識別する前に、ターゲット画像処理モジュール306は、機械学習モジュール310と協働して、複数の画像内の各画像に画像分類アルゴリズム(例、オブジェクト検出アルゴリズム、オブジェクト認識アルゴリズム等)を適用しやすくすることができる。複数の画像は、例えば、ターゲット画像候補となり得る。ターゲット画像処理モジュール306および機械学習モジュール310は、画像分類アルゴリズムを適用することに基づいて、1つまたは複数の検索クエリ(例、用語、キーワード、フレーズ、話題、テーマ、ラベル、タグ等)との1つまたは複数の関連付けのそれぞれのセットを有することを決定しやすくすることができる。ターゲット画像処理モジュール306は、取得またはアクセスされる顔をソース画像が描写する前に、複数の画像、および複数の画像内の各画像の1つまたは複数の関連付けのそれぞれのセットを記憶することができる。それから、ターゲット画像処理モジュール306は、複数の画像から、または複数の画像の中から、1つまたは複数のターゲット画像のセットを識別することができる。ある場合には、検索クエリに関連付けられている、1つまたは複数のターゲット画像のセットを識別することは、1つまたは複数のターゲット画像のセットの各ターゲット画像が、検索クエリに一致するしきい値の信頼水準を少なくとも有することを決定することを含むことができる。例えば、1つまたは複数のターゲット画像のセットは、記憶されている複数の画像の中からランクの最も高い画像であると(例、検索クエリに一致する信頼水準に基づいて)識別することができる。
また、ターゲット画像処理モジュール306は、機械学習モジュール310と協働して、1つまたは複数のターゲット画像のセットからの各ターゲット画像内で、ソース画像の(顔)部分がレンダリングされるべきそれぞれの位置を識別しやすくすることができる。一実施例において、機械学習モジュール310によって利用される顔認識アルゴリズムに基づいて、ターゲット画像処理モジュール306は、各ターゲット画像内で、少なくとも1つの顔が描写されているそれぞれの位置を決定し、探し出し、またはその他の形で識別することができる。ある場合には、ターゲット画像処理モジュール306は、各ターゲット画像内に描写されている任意の顔を取り除くかまたは切り取って、代わりに、各ターゲット画像内のその位置にソース画像の顔をレンダリングできるようにすることができる。さらに、ある場合には、各ターゲット画像内でソース画像の部分がレンダリングされるべきそれぞれの位置を、顔を描写するソース画像が取得またはアクセスされる前に識別することができる。多くの変型例が可能である。
追加的に、いくつかの実施形態において、ソース画像処理モジュール302は、ソース画像の部分を介して描写される顔に関連付けられた1つまたは複数の属性を識別しやすくすることができる。ターゲット画像処理モジュール306は、ソース画像の部分が各ターゲット画像内のそれぞれの位置にレンダリングされる前に、1つまたは複数のターゲット画像のセットからの各ターゲット画像が、顔に関連付けられた1つまたは複数の属性に一致する(指定/計算された)しきい値の信頼水準を少なくとも有する1つまたは複数の属性のそれぞれのセットに関連することを決定しやすくすることができる。したがって、ある場合には、1つまたは複数のターゲット画像のセットは、記憶されている複数の画像の中からランクの最も高い画像(例、検索クエリおよび/またはソース画像に一致する信頼水準に基づく)であると識別することができる。1つまたは複数の属性は、例えば、顔属性(例、顔のアンカー・ポイント、形、大きさ、特徴、特性等)、ポーズ属性(例、頭の傾き、頭の向き、ジェスチャ、表情等)、皮膚属性(例、色、明るさ、肌理等)、髪属性(例、色、長さ、スタイル等)、年齢属性(例、絶対値、範囲値等)、または性別属性(例、男性、女性等)のうちの少なくとも1つを含むことができる。多くの変型例が可能である。
いくつかの実施態様において、1つまたは複数のターゲット画像のセットからの各ターゲット画像が、顔に関連付けられた1つまたは複数の属性に一致するしきい値の信頼水準を少なくとも有する1つまたは複数の属性のそれぞれのセットに関連していることを決定することは、各ターゲット画像に関連付けられた1つまたは複数の属性のそれぞれのセットおよび顔に関連付けられた1つまたは複数の属性に、類似関数を適用することに基づくことができる。類似関数は、例えば、各ターゲット画像に関連付けられた1つまたは複数の属性のそれぞれのセットと、顔に関連付けられた1つまたは複数の属性との間の距離として計算することができる。一実施例では、類似関数は、次の等式に基づくことができる。
この式において、Dは距離、sはソース画像、tはターゲット画像、Pはロール角、ヨー角およびピッチ角を含む3ベクトルであり、Ageは推定年齢であり、Hは勾配方向ヒストグラム(HoG)特徴量であり、Sは皮膚および髪のマスクに対応する。この実施例は例示目的で提示されており、開示される技術に関連して多くの変型例が可能であることは理解されるべきである。
さらに、レンダリング・モジュール308は、1つまたは複数のターゲット画像のセットからの各ターゲット画像について、各ターゲット画像内のそれぞれの位置にソース画像の部分をレンダリングしやすくして、1つまたは複数の結合画像のセットを生成するように構成することができる。したがって、1つまたは複数の結合画像のセット内の各結合画像は、各ターゲット画像内のそれぞれの位置にレンダリングされたソース画像の部分を含むことができる。例えば、レンダリング・モジュール308は、検索クエリに一致する(および/またはソース画像に一致する)各ターゲット画像にソース画像の顔がマッピングされる合成画像になるように、各結合画像を生成することができる。この場合、レンダリング・モジュール308は、ソース画像の顔部分(のエッジ)を、ソース画像の顔部分がレンダリングされる各ターゲット画像内のそれぞれの位置(のエッジ)とミックスまたはブレンドして、例えば、合成画像の外観全体、自然さ、および/または意図される現実性を改善することができる。
追加的に、いくつかの実施形態では、レンダリング・モジュール308は、ソース画像および/または1つまたは複数のターゲット画像を修正することができる。例えば、レンダリング・モジュール308は、ソース画像および/またはターゲット画像(もしくはその一部)を、必要に応じてモーフィング、ワーピング、回転、平行移動、縮小および/または拡大等することができる。前述したように、開示される技術に関連して多くの変型例が可能である。
ソース画像の顔とターゲット画像との結合
図4は、実施形態による、検索クエリに基づいてソース画像の顔をターゲット画像に結合することに関連する例示的なシナリオを示す。図4の例示的なシナリオでは、それぞれの顔を各々描写する、複数の画像(402,404,406,408,410,412,414および416)が存在することができる。複数の画像(402,404,406,408,410,412,414および416)は、ターゲット画像候補として利用することができる。図4に図示するように、ソース画像418は、取得またはアクセスすることができ、検索クエリ420は、取得することができる。ソース画像418は、黒髪を持つ顔を描写することができる。ソース画像418の、顔を描写する部分422を決定または識別することができる。検索クエリ420は、ユーザによって入力されたテキストに対応することができる。この実施例では、ユーザは、ソース画像418内の顔が金髪にしたらどのように見えるかを確認しようとしている。
したがって、1つまたは複数のターゲット画像(404,410および414)のそれぞれが金髪を持つため、検索クエリ(「金髪」)420に関連する1つまたは複数のターゲット画像(404,410および414)のセットを、複数の画像(402,404,406,408,410,412,414および416)の中から識別することができる。またこの例では、1つまたは複数のターゲット画像(404,410および414)のセットは、各ターゲット画像がソース画像418にどの程度一致するかに基づいて識別または選択することもできる。例えば、画像402は、画像402とソース画像418とで顔の形が異なるためターゲット画像のセットには含まれない。画像406は、ポーズが異なるため含まれない。画像408は、検索クエリ420に関連せず、ソース画像418に関連するものとは性別も異なる。画像412は、性別が異なるため含まれない。画像416は、検索クエリ420に関連しない。
実施例のシナリオを続けると、識別されたターゲット画像(404,410および414)内で、ソース画像の顔部分422をレンダリングするべきそれぞれの位置(424,426および428)を識別することができる。次に、識別された各ターゲット画像(404,410および414)について、ソース画像の顔部分422を、各ターゲット画像(404,410および414)内のそれぞれの位置(424,426および428)にレンダリングし、結合画像(430,432および434)のセットを生成する。図示するように、各結合画像は、各ターゲット画像(404,410および414)内のそれぞれの位置(424,426および428)にレンダリングされたソース画像の顔部分422を含む。開示される技術に関連して多くの変型例が可能であることは理解されるべきである。
図5は、実施形態による、検索クエリに基づいてソース画像の顔をターゲット画像に結合することに関連する例示的なプロセス500を説明するフローチャートを示す。特に記載されない限り、様々な実施形態の範囲内で、追加ステップ、より少ないステップまたは代替ステップを、同様な順序で、もしくは別の順序で、または同時に行うことができることは了解されるべきである。
例示的なプロセス500において、ブロック502で、顔を描写するソース画像を取得するかまたはそれにアクセスすることができる。ブロック504で、ソース画像の顔を描写する部分を決定または識別することができる。ブロック506で、ユーザ入力に基づいて検索クエリを取得することができる。ブロック508で、検索クエリに関連付けられている、1つまたは複数のターゲット画像のセットを識別することができる。ブロック510で、1つまたは複数のターゲット画像のセットからの各ターゲット画像内で、ソース画像の部分をレンダリングするべきそれぞれの位置を識別することができる。ブロック512で、1つまたは複数のターゲット画像のセットからの各ターゲット画像について、ソース画像の部分を各ターゲット画像内のそれぞれの位置にレンダリングし、1つまたは複数の結合画像のセットを生成することができる。1つまたは複数の結合画像のセット内の各結合画像は、各ターゲット画像内のそれぞれの位置にレンダリングされる、ソース画像の部分を含むことができる。多くの変型例が可能である。
図6は、実施形態による、検索クエリに基づいてソース画像の顔をターゲット画像に結合することに関連する例示的なプロセス600を説明するフローチャートを示す。ここでも、特に記載されない限り、様々な実施形態の範囲内で、追加ステップ、より少ないステップまたは代替ステップを、同様な順序で、もしくは別の順序で、または同時に行うことができることは理解されるべきである。
例示的なプロセス600において、ブロック602で、画像分類アルゴリズムは、複数の画像内の各画像に適用することができる。ブロック604で、画像分類アルゴリズムを適用することに基づいて、複数の画像内の各画像が1つまたは複数の検索クエリと1つまたは複数の関連付けのそれぞれのセットを有することを決定することができる。ブロック606で、複数の画像と、複数の画像および複数の画像内の各画像についての1つまたは複数の関連付けのそれぞれのセットとを、顔を描写するソース画像の取得前またはアクセス前に記憶することができる。1つまたは複数のターゲット画像のセットは、複数の画像から識別することができる。前述したように、多くの変型例が可能である。
図7は、実施形態による、検索クエリに基づいてソース画像の顔をターゲット画像に結合することに関連する例示的なプロセス700を説明するフローチャートを示す。前述したように、追加ステップ、より少ないステップまたは代替ステップを、同様な順序で、もしくは別の順序で、または同時に行うことができる。いくつかの実施形態では、開示される技術は、グループとともに利用することができる。一実施例において、グループのチャット・セッションがトリガ用語またはキーワードを使用する場合に、開示する技術を利用することができる。この実施例では、トリガ用語またはキーワードは、例えば自然言語処理(NLP)技術に基づいて、検出して検索クエリに対応させることができる。別の実施例では、ソース画像が複数の顔(例、第2の顔を含む)を描写または表現する場合に、開示する技術を利用することができる。
例示的なプロセス700において、ブロック702で、第2の顔を描写するソース画像の第2部分を決定または識別することができる。1つまたは複数のターゲット画像のセットは、顔と一致するしきい値の第1信頼水準を少なくとも有し、かつ、第2の顔と一致するしきい値の第2信頼水準を少なくとも有すると識別することができる。ブロック704で、1つまたは複数のターゲット画像のセットからの各ターゲット画像内で、ソース画像の第2部分がレンダリングされるべきそれぞれの第2位置を識別することができる。ブロック706で、1つまたは複数のターゲット画像のセットからの各ターゲット画像について、ソース画像の第2部分を、各ターゲット画像内のそれぞれの第2位置にレンダリングすることができる。1つまたは複数の結合画像のセット内の各結合画像は、各ターゲット画像内のそれぞれの第2位置にレンダリングされたソース画像の第2部分をさらに含むことができる。ここでも、多くの変型例が可能である。例えば、ソース画像内の異なる顔に、異なる加重値および/またはしきい値の信頼水準を利用することができる。
いくつかの実施態様において、ソース画像がソース・ビデオを形成するために利用されるビデオ画像フレームである場合など、ソース画像は、ソース・ビデオの一部とすることができる。ターゲット画像がターゲット・ビデオを形成するために利用されるビデオ画像フレームである場合など、各ターゲット画像も、各ターゲット・ビデオの一部にすることができる。また、ある場合には、開示される技術の様々な実施形態は、リアルタイム(またはほぼリアルタイム)のライブ・ビデオとともに利用することができる。例えば、ソース画像は、ライブ・ストリーム・ビデオの一部であるビデオ画像フレームに対応することができる。さらに、ある例では、ソース画像は、一連の画像の一部とすることができる。開示される技術は、一連の画像の中から、ソース画像にするのに最適な画像を選択することができる。
いくつかの実施形態では、開示される技術の様々な部分は、クライアント・デバイス、サーバ、またはその任意の組み合わせを経由して行うことができる。例えば、ある場合には、クライアント・デバイスは、1つまたは複数の圧縮モデルを利用して、開示される技術に関連する様々な動作/機能を行うことができる。
いくつかの実施態様では、1つの顔に対してであるか、またはソース画像内の複数の顔に対してであるかに関係なく、検索クエリに複数の検索用語(例、テーマ)を含めることができる。開示される技術は、各検索クエリ(またはテーマ)のプレビュー/サムネイルを提供することができる。ある場合には、ユーザは、特定の検索クエリに関連付けられている追加のターゲット画像(またはさらに多くの明細)にアクセスするために、特定の検索クエリについての特定のプレビュー/サムネイルを選択することができる。
いくつかの実施形態において、アーケード・モードを起動することができる。検索クエリおよび/またはソース画像に関するものなど、追加のオブジェクト、フィルタ、またはグラフィカル要素(例、背景オブジェクト、前景フィルタ、アニメーション、等)を識別し、開示される技術とともに利用することができる。
本開示の様々な実施形態に関連して、他の多くの用途、応用、特徴、可能性および/または変型例が可能であることが企図される。例えば、ユーザは、ある場合には、開示される技術を利用するためにオプトインするべきかどうかを選ぶことができる。開示される技術は、例えば、様々なプライバシー設定、嗜好、および構成が維持されることを確実にすることもでき、プライベートな情報の漏洩を防止できる。別の実施例では、本開示の様々な実施形態は、経時的に学習、改良および/または改善することができる。
まとめ
上記の実施形態の説明は、例示の目的で提示されており、網羅的なものであるように、または特許権を開示された形態そのものに限定するように意図されていない。上記の開示に鑑みて、多くの修正および変形形態が可能であることは、当業者であれば了解されるであろう。
この説明のいくつかの部分は、情報に対する操作のアルゴリズムおよび記号表現の観点から、実施形態を説明している。これらのアルゴリズムに関する説明および表現は、データ処理分野における当業者によって、自らの作業の本質を他の当業者に有効に伝えるために一般に使用される。これらの操作は、機能的、計算的、または論理的に説明されるが、コンピュータ・プログラムまたは等価な電気回路、マイクロコードなどによって実装されることが理解される。さらにまた、これらの操作の配列を、一般性を損なうことなく、モジュールと呼ぶことが場合によっては好都合であることも判明している。説明された操作およびそれらの関連付けられたモジュールは、ソフトウェア、ファームウェア、ハードウェア、またはそれらの任意の組合せにおいて具現化され得る。
本願明細書で説明された工程、操作、またはプロセスのうちのいずれかが、1または複数のハードウェアまたはソフトウェア・モジュールによって、単独でまたは他のデバイスと組合せて、実施または実装され得る。一実施形態では、ソフトウェア・モジュールは、説明された工程、操作、またはプロセスのうちのいずれかまたはすべてを実施するためにコンピュータ・プロセッサによって実行され得るコンピュータ・プログラム・コードを含有するコンピュータ可読媒体を備えるコンピュータ・プログラム製品によって実装される。
実施形態はまた、本願明細書の操作を実施するための装置にも関し得る。この装置は、要求された目的のために特別に構築されてよく、および/または、コンピュータに記憶されたコンピュータ・プログラムによって選択的に起動または再構成される汎用コンピューティング・デバイスを備えてよい。そのようなコンピュータ・プログラムは、コンピュータ・システム・バスに結合され得る、非一時的な有形のコンピュータ可読記憶媒体、または電子命令を記憶するために好適な任意のタイプの媒体に記憶され得る。さらに、本願明細書で言及される任意のコンピューティング・システムは、単一のプロセッサを含んでよく、または、増大されたコンピューティング力のために複数のプロセッサ設計を採用するアーキテクチャであってよい。
実施形態はまた、本願明細書で説明されたコンピューティング・プロセスによって作り出される製品にも関し得る。そのような製品は、コンピューティング・プロセスから得られる情報を備えることができ、その場合、その情報は、非一時的な有形のコンピュータ可読記憶媒体に記憶され、本願明細書で説明されたコンピュータ・プログラム製品または他のデータの組合せの任意の実施形態を含み得る。
最後に、本願明細書で使用される言語は、主に読み易さおよび教示目的のために選択されており、特許権を線引きまたは制限するように選択されていないことがある。したがって、特許権の範囲は、この発明を実施するための形態によってではなく、明細書に基づく出願において出るいずれかの請求項によって限定されることが意図される。したがって、実施形態の開示は、以下の特許請求の範囲に記載される特許権の範囲を限定するのではなく例示することが意図される。

Claims (20)

  1. コンピューティング・システムが、顔を描写するソース画像にアクセスする工程と、
    前記コンピューティング・システムが、前記ソース画像の前記顔を描写する部分を決定する工程と、
    前記コンピューティング・システムが、ユーザ入力に基づいて検索クエリを取得する工程と、
    前記コンピューティング・システムが、前記検索クエリに関連付けられている1以上のターゲット画像のセットを識別する、ターゲット画像識別工程と、
    前記コンピューティング・システムが、前記1以上のターゲット画像のセットの各ターゲット画像内で、前記ソース画像の前記部分がレンダリングされるべきそれぞれの位置を識別する工程と、
    前記コンピューティング・システムが、前記1以上のターゲット画像のセットの各ターゲット画像について、各ターゲット画像内の前記それぞれの位置に前記ソース画像の前記部分をレンダリングして1以上の結合画像のセットを生成する工程であって、前記1以上の結合画像のセット内の各結合画像が各ターゲット画像内の前記それぞれの位置にレンダリングされた前記ソース画像の前記部分を含む、工程と、
    を含む、コンピュータ実装方法。
  2. 複数の画像内の各画像に画像分類アルゴリズムを適用する工程と、
    前記画像分類アルゴリズムを適用することに基づいて、前記複数の画像内の各画像が1以上の検索クエリとの1以上の関連付けのそれぞれのセットを有することを決定する工程と、
    前記顔を描写する前記ソース画像にアクセスする前に、前記複数の画像と、前記複数の画像内の各画像についての前記1以上の関連付けのそれぞれのセットと、を記憶する工程であって、前記1以上のターゲット画像のセットは前記複数の画像から識別される、工程と、
    をさらに含む、請求項1に記載の方法。
  3. 前記1以上のターゲット画像のセットの各ターゲット画像内で、前記ソース画像の前記部分がレンダリングされるべき前記それぞれの位置は、前記顔を描写する前記ソース画像にアクセスする前に識別される、請求項1に記載の方法。
  4. 前記描写される顔に関連付けられている1以上の属性を前記ソース画像の前記部分を介して識別する工程と、
    各ターゲット画像内の前記それぞれの位置に前記ソース画像の前記部分をレンダリングする前に、前記1以上のターゲット画像のセットの各ターゲット画像が、前記顔に関連付けられている前記1以上の属性に一致するしきい値の信頼水準を少なくとも有する1以上の属性のそれぞれのセットに関連付けられていることを決定する工程と、
    をさらに含む、請求項1に記載の方法。
  5. 前記1以上のターゲット画像のセットの各ターゲット画像が、前記顔に関連付けられている前記1以上の属性に一致するしきい値の信頼水準を有する1以上の属性のそれぞれのセットに関連付けられていることを決定する工程は、各ターゲット画像に関連付けられている1以上の属性の前記それぞれのセットおよび前記顔に関連付けられている前記1以上の属性に類似関数を適用することに基づく、請求項4に記載の方法。
  6. 前記1以上の属性は、顔属性、ポーズ属性、皮膚属性、髪属性、年齢属性、および性別属性のうちの少なくとも1つを含む、請求項4に記載の方法。
  7. 前記ターゲット画像識別工程は、前記1以上のターゲット画像のセットの各ターゲット画像が前記検索クエリに一致するしきい値の信頼水準を少なくとも有すると決定することを含む、請求項1に記載の方法。
  8. 前記ユーザ入力は、1)ユーザに提供された複数の定義された検索クエリの中からの、前記ユーザによる前記検索クエリの選択、および2)前記検索クエリを生成するために前記ユーザが入力したテキスト、のうちの少なくとも1つを含む、請求項1に記載の方法。
  9. 前記ソース画像の第2の顔を描写する第2部分を決定する工程であって、前記1以上のターゲット画像のセットは、前記顔と一致するしきい値の第1信頼水準を少なくとも有し、かつ、前記第2の顔と一致するしきい値の第2信頼水準を少なくとも有すると識別される工程と、
    前記1以上のターゲット画像のセットの各ターゲット画像内で、前記ソース画像の前記第2部分がレンダリングされるべきそれぞれの第2位置を識別する工程と、
    前記1以上のターゲット画像のセットの各ターゲット画像について、各ターゲット画像内の前記それぞれの第2位置に前記ソース画像の前記第2部分をレンダリングする工程と、をさらに含み、前記1以上の結合画像のセット内の各結合画像は、各ターゲット画像内の前記それぞれの第2位置にレンダリングされた前記ソース画像の前記第2部分をさらに含む、請求項1に記載の方法。
  10. 前記ソース画像はソース・ビデオの一部であり、各ターゲット画像はそれぞれのターゲット・ビデオの一部である、請求項1に記載の方法。
  11. 少なくとも1つのプロセッサと、
    命令を記憶したメモリと、を備えるシステムであって、
    前記命令は、前記少なくとも1つのプロセッサによって実行されたときに、
    顔を描写するソース画像にアクセスする工程と、
    前記ソース画像の前記顔を描写する部分を決定する工程と、
    ユーザ入力に基づいて検索クエリを取得する工程と、
    前記検索クエリに関連付けられている1以上のターゲット画像のセットを識別する工程と、
    前記1以上のターゲット画像のセットの各ターゲット画像内で、前記ソース画像の前記部分がレンダリングされるべきそれぞれの位置を識別する工程と、
    前記1以上のターゲット画像のセットの各ターゲット画像について、各ターゲット画像内の前記それぞれの位置に前記ソース画像の前記部分をレンダリングして1以上の結合画像のセットを生成する工程であって、前記1以上の結合画像のセット内の各結合画像が各ターゲット画像内の前記それぞれの位置にレンダリングされた前記ソース画像の前記部分を含む、工程と、
    をシステムに行わせる、システム。
  12. 前記命令は前記システムに、
    複数の画像内の各画像に画像分類アルゴリズムを適用する工程と、
    前記画像分類アルゴリズムを適用することに基づいて、前記複数の画像内の各画像が1以上の検索クエリとの1以上の関連付けのそれぞれのセットを有することを決定する工程と、
    前記顔を描写する前記ソース画像にアクセスする前に、前記複数の画像と、前記複数の画像内の各画像についての前記1以上の関連付けのそれぞれのセットと、を記憶する工程であって、前記1以上のターゲット画像のセットは前記複数の画像から識別される、工程と、
    をさらに行わせる、請求項11に記載の方法。
  13. 前記命令は前記システムに、
    前記描写される顔に関連付けられている1以上の属性を前記ソース画像の前記部分を介して識別する工程と、
    各ターゲット画像内の前記それぞれの位置に前記ソース画像の前記部分をレンダリングする前に、前記1以上のターゲット画像のセットの各ターゲット画像が、前記顔に関連付けられている前記1以上の属性に一致するしきい値の信頼水準を少なくとも有する1以上の属性のそれぞれのセットに関連付けられていることを決定する工程と、
    をさらに行わせる、請求項11に記載のシステム。
  14. 前記1以上のターゲット画像のセットの各ターゲット画像が、前記顔に関連付けられている前記1以上の属性に一致するしきい値の信頼水準を少なくとも有する1以上の属性のそれぞれのセットに関連付けられていることを決定する工程は、各ターゲット画像に関連付けられている1以上の属性の前記それぞれのセットおよび前記顔に関連付けられている前記1以上の属性に類似関数を適用することに基づく、請求項13に記載のシステム。
  15. 前記1以上の属性は、顔属性、ポーズ属性、皮膚属性、髪属性、年齢属性、および性別属性のうちの少なくとも1つを含む、請求項13に記載のシステム。
  16. 命令を備えた非一時的コンピュータ可読記憶媒体であって、
    コンピューティング・システムの少なくとも1つのプロセッサによって実行されたときに、前記コンピューティング・システムに、
    顔を描写するソース画像にアクセスする工程と、
    前記ソース画像の前記顔を描写する部分を決定する工程と、
    ユーザ入力に基づいて検索クエリを取得する工程と、
    前記検索クエリに関連付けられている1以上のターゲット画像のセットを識別する工程と、
    前記1以上のターゲット画像のセットの各ターゲット画像内で、前記ソース画像の前記部分がレンダリングされるべきそれぞれの位置を識別する工程と、
    前記1以上のターゲット画像のセットの各ターゲット画像について、各ターゲット画像内の前記それぞれの位置に前記ソース画像の前記部分をレンダリングして1以上の結合画像のセットを生成する工程であって、前記1以上の結合画像のセット内の各結合画像が各ターゲット画像内の前記それぞれの位置にレンダリングされた前記ソース画像の前記部分を含む、工程と、
    を行わせる、非一時的コンピュータ可読記憶媒体。
  17. 前記命令は前記コンピューティング・システムに、
    複数の画像内の各画像に画像分類アルゴリズムを適用する工程と、
    前記画像分類アルゴリズムを適用することに基づいて、前記複数の画像内の各画像が1以上の検索クエリとの1以上の関連付けのそれぞれのセットを有することを決定する工程と、
    前記顔を描写する前記ソース画像にアクセスする前に、前記複数の画像と、前記複数の画像内の各画像についての前記1以上の関連付けのそれぞれのセットと、を記憶する工程であって、前記1以上のターゲット画像のセットは前記複数の画像から識別される、工程と、
    をさらに行わせる、請求項16に記載の非一時的コンピュータ可読記憶媒体。
  18. 前記命令は前記コンピューティング・システムに、
    前記描写される顔に関連付けられている1以上の属性を前記ソース画像の前記部分を介して識別する工程と、
    各ターゲット画像内の前記それぞれの位置に前記ソース画像の前記部分をレンダリングする前に、前記1以上のターゲット画像のセットの各ターゲット画像と、前記顔に関連付けられている前記1以上の属性とが一致する少なくともしきい値の信頼水準を有する1以上の属性のそれぞれのセットに関連付けられていることを決定する工程と、
    をさらに行わせる、請求項16に記載の非一時的コンピュータ可読記憶媒体。
  19. 前記1以上のターゲット画像のセットの各ターゲット画像が、前記顔に関連付けられている前記1以上の属性に一致するしきい値の信頼水準を少なくとも有する1以上の属性のそれぞれのセットに関連付けられていることを決定する工程は、各ターゲット画像に関連付けられている1以上の属性の前記それぞれのセットおよび前記顔に関連付けられている前記1以上の属性に類似関数を適用することに基づく、請求項18に記載の非一時的コンピュータ可読記憶媒体。
  20. 前記1以上の属性は、顔属性、ポーズ属性、皮膚属性、髪属性、年齢属性、および性別属性のうちの少なくとも1つを含む、請求項18に記載の非一時的コンピュータ可読記憶媒体。
JP2018567909A 2016-07-06 2017-07-06 検索クエリに基づいたソース画像の顔とターゲット画像との結合 Pending JP2019530041A (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US201662358749P 2016-07-06 2016-07-06
US62/358,749 2016-07-06
PCT/US2017/040902 WO2018009666A1 (en) 2016-07-06 2017-07-06 Combining faces from source images with target images based on search queries

Publications (1)

Publication Number Publication Date
JP2019530041A true JP2019530041A (ja) 2019-10-17

Family

ID=60910980

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018567909A Pending JP2019530041A (ja) 2016-07-06 2017-07-06 検索クエリに基づいたソース画像の顔とターゲット画像との結合

Country Status (7)

Country Link
US (1) US10593085B2 (ja)
JP (1) JP2019530041A (ja)
KR (1) KR102427412B1 (ja)
AU (1) AU2017292843A1 (ja)
CA (1) CA3027414A1 (ja)
IL (1) IL263490A (ja)
WO (1) WO2018009666A1 (ja)

Families Citing this family (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018033137A1 (zh) * 2016-08-19 2018-02-22 北京市商汤科技开发有限公司 在视频图像中展示业务对象的方法、装置和电子设备
US10423820B2 (en) * 2017-09-13 2019-09-24 General Electric Company Systems and methods for automatic generation of training sets for machine interpretation of images
JP7278724B2 (ja) 2018-07-23 2023-05-22 株式会社東芝 情報処理装置、情報処理方法、および情報処理プログラム
JP6972043B2 (ja) * 2019-01-11 2021-11-24 株式会社東芝 情報処理装置、情報処理方法およびプログラム
CN109815353B (zh) * 2019-01-21 2021-07-13 成都考拉悠然科技有限公司 一种基于类中心的人脸检索方法及系统
WO2020159241A1 (ko) * 2019-01-30 2020-08-06 삼성전자 주식회사 이미지를 처리하기 위한 방법 및 그에 따른 장치
US11568168B2 (en) * 2019-04-08 2023-01-31 Shutterstock, Inc. Generating synthetic photo-realistic images
US11100145B2 (en) * 2019-09-11 2021-08-24 International Business Machines Corporation Dialog-based image retrieval with contextual information
US10943371B1 (en) * 2020-03-31 2021-03-09 Snap Inc. Customizing soundtracks and hairstyles in modifiable videos of multimedia messaging application
US11704851B2 (en) * 2020-05-27 2023-07-18 Snap Inc. Personalized videos using selfies and stock videos
CN114868109B (zh) * 2020-11-20 2023-06-02 尤帕斯公司 用户界面自动化中的自动锚点确定和目标图形元素标识
US11200073B1 (en) * 2020-11-20 2021-12-14 UiPath, Inc. Automatic anchor determination and target graphical element identification in user interface automation
US11755638B2 (en) * 2021-02-19 2023-09-12 Samsung Electronics Co., Ltd. Method of personalized image and video searching based on a natural language query, and an apparatus for the same
KR102481538B1 (ko) * 2021-02-24 2022-12-26 군산대학교산학협력단 몽타주 생성 장치 및 방법
US11573706B2 (en) * 2021-06-07 2023-02-07 Western Digital Technologies, Inc. Data storage device and method for efficient image searching
KR102485469B1 (ko) * 2022-01-17 2023-01-09 비쿱 주식회사 Nft 기반의 헤어샵 관리 서비스 제공 장치, 시스템, 방법 및 프로그램
US20230252687A1 (en) * 2022-02-10 2023-08-10 Qualcomm Incorporated Systems and methods for facial attribute manipulation

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20120005595A1 (en) * 2010-06-30 2012-01-05 Verizon Patent And Licensing, Inc. Users as actors in content
JP2014067117A (ja) * 2012-09-25 2014-04-17 Dainippon Printing Co Ltd 画像表示システムおよび画像処理装置
JP2014067131A (ja) * 2012-09-25 2014-04-17 Zenrin Datacom Co Ltd 画像処理装置、画像処理システム、画像処理方法およびコンピュータプログラム
US20140153832A1 (en) * 2012-12-04 2014-06-05 Vivek Kwatra Facial expression editing in images based on collections of images

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7907755B1 (en) * 2006-05-10 2011-03-15 Aol Inc. Detecting facial similarity based on human perception of facial similarity
DE102007034010A1 (de) * 2007-07-20 2009-01-22 Dallmeier Electronic Gmbh & Co. Kg Verfahren und Vorrichtung zur Bearbeitung von Videodaten
US8831379B2 (en) * 2008-04-04 2014-09-09 Microsoft Corporation Cartoon personalization
JP5232669B2 (ja) * 2009-01-22 2013-07-10 オリンパスイメージング株式会社 カメラ
US9179201B2 (en) 2011-08-26 2015-11-03 Cyberlink Corp. Systems and methods of detecting significant faces in video streams
JP2014085796A (ja) * 2012-10-23 2014-05-12 Sony Corp 情報処理装置およびプログラム
JP5554441B2 (ja) * 2013-07-31 2014-07-23 株式会社巴コーポレーション 鋼管部材の端部接合構造
JP5866545B1 (ja) * 2014-03-06 2016-02-17 パナソニックIpマネジメント株式会社 表示制御装置および表示制御プログラム
US9639741B2 (en) * 2014-04-14 2017-05-02 International Business Machines Corporation Facial recognition with biometric pre-filters
JP6463095B2 (ja) * 2014-11-25 2019-01-30 キヤノン株式会社 画像検索装置及び方法
US10810252B2 (en) * 2015-10-02 2020-10-20 Adobe Inc. Searching using specific attributes found in images

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20120005595A1 (en) * 2010-06-30 2012-01-05 Verizon Patent And Licensing, Inc. Users as actors in content
JP2014067117A (ja) * 2012-09-25 2014-04-17 Dainippon Printing Co Ltd 画像表示システムおよび画像処理装置
JP2014067131A (ja) * 2012-09-25 2014-04-17 Zenrin Datacom Co Ltd 画像処理装置、画像処理システム、画像処理方法およびコンピュータプログラム
US20140153832A1 (en) * 2012-12-04 2014-06-05 Vivek Kwatra Facial expression editing in images based on collections of images

Also Published As

Publication number Publication date
CA3027414A1 (en) 2018-01-11
IL263490A (en) 2019-01-31
US20180012386A1 (en) 2018-01-11
AU2017292843A1 (en) 2019-01-03
US10593085B2 (en) 2020-03-17
WO2018009666A1 (en) 2018-01-11
KR102427412B1 (ko) 2022-08-01
KR20190017029A (ko) 2019-02-19

Similar Documents

Publication Publication Date Title
US10593085B2 (en) Combining faces from source images with target images based on search queries
US11544884B2 (en) Virtual clothing try-on
US10529109B1 (en) Video stream customization using graphics
US9984729B2 (en) Facial detection, recognition and bookmarking in videos
US10573349B2 (en) Systems and methods for generating personalized emoticons and lip synching videos based on facial recognition
US20180300534A1 (en) Automatically segmenting video for reactive profile portraits
US11120526B1 (en) Deep feature generative adversarial neural networks
US20190236450A1 (en) Multimodal machine learning selector
US11657575B2 (en) Generating augmented reality content based on third-party content
US20190205627A1 (en) Systems and methods for generating amplified facial expressions based on facial recognition
US12008811B2 (en) Machine learning-based selection of a representative video frame within a messaging application
US11847528B2 (en) Modulated image segmentation
EP4272184A1 (en) Selecting representative video frame by machine learning

Legal Events

Date Code Title Description
RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20190517

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20191209

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20201225

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210126

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210423

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20211102

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220202

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20220705