JP7084457B2 - 画像の生成方法、生成装置、電子機器、コンピュータ可読媒体およびコンピュータプログラム - Google Patents

画像の生成方法、生成装置、電子機器、コンピュータ可読媒体およびコンピュータプログラム Download PDF

Info

Publication number
JP7084457B2
JP7084457B2 JP2020157447A JP2020157447A JP7084457B2 JP 7084457 B2 JP7084457 B2 JP 7084457B2 JP 2020157447 A JP2020157447 A JP 2020157447A JP 2020157447 A JP2020157447 A JP 2020157447A JP 7084457 B2 JP7084457 B2 JP 7084457B2
Authority
JP
Japan
Prior art keywords
image
user
face
presenting
input
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020157447A
Other languages
English (en)
Other versions
JP2021114279A (ja
Inventor
ヂァン,フゥーナァン
リィー,シィン
リィー,フゥー
リィン,ティェンウェイ
スゥン,ハァォ
ウェン,シィーレェィ
ヂァン,ホォンウー
ディン,ウールゥイ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Baidu Netcom Science and Technology Co Ltd
Original Assignee
Beijing Baidu Netcom Science and Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Baidu Netcom Science and Technology Co Ltd filed Critical Beijing Baidu Netcom Science and Technology Co Ltd
Publication of JP2021114279A publication Critical patent/JP2021114279A/ja
Application granted granted Critical
Publication of JP7084457B2 publication Critical patent/JP7084457B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/2621Cameras specially adapted for the electronic generation of special effects during image pickup, e.g. digital cameras, camcorders, video cameras having integrated special effects capability
    • G06T3/04
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • G06T1/0007Image acquisition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T13/00Animation
    • G06T13/203D [Three Dimensional] animation
    • G06T13/403D [Three Dimensional] animation of characters, e.g. humans, animals or virtual beings
    • G06T5/70
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • G06V40/166Detection; Localisation; Normalisation using acquisition arrangements
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L51/00User-to-user messaging in packet-switching networks, transmitted according to store-and-forward or real-time protocols, e.g. e-mail
    • H04L51/21Monitoring or handling of messages
    • H04L51/23Reliability checks, e.g. acknowledgments or fault reporting
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • H04N23/631Graphical user interfaces [GUI] specially adapted for controlling image capture or setting capture parameters
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/64Computer-aided capture of images, e.g. transfer from script file into camera, check of taken image quality, advice or proposal for image composition or decision on when to take image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20172Image enhancement details
    • G06T2207/20182Noise reduction or smoothing in the temporal domain; Spatio-temporal filtering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • G06T2207/30201Face

Description

本開示は、コンピュータ技術の分野に関し、具体的には画像変換の技術分野に関し、特に画像の生成方法生成装置、電子機器、コンピュータ稼働媒体およびコンピュータプログラムに関する。
現在、市場には多くのデジタル娯楽製品があり、その中の自撮り特殊効果の遊び方、例えば顔を子供の顔に変えたり、顔のスタイルを変えたりするなどは、非常に面白く、人々に愛用されている。
現在、大多数のアプリケーションが提供しているサービスは、顔テンプレートを用いて異なるスタイルの顔を生成している。すなわち、認識されたユーザの五官や顔型に基づいて、異なるスタイルの素材ライブラリの中で認識されたユーザの五官や顔型に最も類似した素材を選択して組み合せることで、顔を二次元変換し、異なるスタイルの顔を得ることである。
本開示の実施形態は、画像の生成方法および生成装置を提供する。
第1態様において、本開示の実施例は、ユーザから入力した顔を含む第1の画像を受信するステップと、第1の画像をユーザに提示するステップと、バックグラウンドで入力された画像に基づいて生成された顔属性情報を制約とする事前トレーニングされた敵対的生成ネットワークに第1の画像を入力し、敵対的生成ネットワークから出力された第2の画像を得るステップと、バックグラウンドで敵対的生成ネットワークから出力された第2の画像が得られたことに応答して、第2の画像をユーザに提示するステップと、を含む顔画像の生成方法を提供する。
いくつかの実施例において、方法は、ユーザから入力した顔を含む第1の画像を受信するステップの前に、対話シーンにおいて、顔変換の指示を受けるステップと、顔画像を入力する情報をユーザに提示するステップと、をさらに含む。
いくつかの実施例において、顔画像を入力する情報をユーザに提示するステップは、顔自動撮影画面をユーザに提示するステップを含み、ユーザから入力した顔を含む第1の画像を受信するステップは、ユーザが自動撮影画面で顔を入力したことが検出されたことに応答して、自動撮影機能をトリガして第1の画像を得るステップを含む。
いくつかの実施例において、顔自動撮影画面をユーザに提示するステップは、
所定スタイルの枠および/または撮影要件を含む自動撮影画面をユーザに提示するステップと、撮影画面で顔が検出されなかったことに応答して、顔が検出されなかった提示情報をユーザに提示するステップと、のうちの少なくとも1項を含む。
いくつかの実施例において、顔自動撮影画面をユーザに提示するステップは、撮影画面で顔が検出されたことに応答して、自動撮影カウントダウンをユーザに提示するステップと、自動撮影カウントダウンが終了したことに応答して、検出された顔を撮影するステップと、自動撮影カウントダウン期間内にユーザからの顔の入力がなかったことに応答して、カウントダウンを終了し、顔が検出されなかった提示情報をユーザに提示するステップと、をさらに含む。
いくつかの実施例において、第1の画像をユーザに提示するステップは、第1の画像をユーザに所定時間提示した後に、提示された第1の画像にマスキングレイヤーを設け、対話シーンにおいて顔変換進行状況提示情報を表示するステップを含む。
いくつかの実施例において、所定スタイルの枠は、顔変換進行状況提示情報の設計スタイルと同一または類似している。
いくつかの実施例において、事前トレーニングされた敵対的生成ネットワークに第1の画像を入力するステップは、第1の画像に対して異なる程度のガウシアンぼかしを行い、異なる程度のガウシアンぼかし後の第1の画像を事前トレーニングされた敵対的生成ネットワークに入力するステップを含むか、または、第1の画像のテクスチャ特徴パラメータ値がテクスチャ閾値よりも大きいか否かを検出し、大きい場合、第1の画像に対して異なる程度のガウシアンぼかしを行い、異なる程度のガウシアンぼかし後の第1の画像を事前トレーニングされた敵対的生成ネットワークに入力するステップを含む。
いくつかの実施例において、敵対的生成ネットワークが入力された画像に基づいて生成された顔属性情報を制約とすることは、敵対的生成ネットワークが入力された画像に基づいて生成されたマルチチャネルの顔画像を入力とするステップを含み、マルチチャネルの顔画像は、入力された画像のRGB3チャネル画像と、入力された画像のうち、顔のキーポイントの1チャネル二値画像またはRGB3チャネル画像、顔のセマンティックセグメンテーション結果の1チャネル二値画像またはRGB3チャネル画像および髪の1チャネル二値画像のうちの少なくとも1項と、を含む。
いくつかの実施例において、方法は、第2の画像をユーザに所定時間提示した後に、第1の画像と第2の画像を同時にユーザに提示するステップをさらに含む。
いくつかの実施例において、方法は、顔スタイル変換オプションをユーザに提示するステップと、ユーザによる変換オプションの選択を受け取るステップと、変換プロセス画像をユーザに提示するステップと、バックグラウンドで変換前の第2の画像とは異なるスタイルを有する新たな第2の画像が生成されたことに応答して、新たな第2の画像をユーザに提示するステップと、をさらに含む。
いくつかの実施例において、顔スタイル変換オプションをユーザに提示するステップは、ダイスボタンの画像および動的にクリックする手の画像をユーザに提示するステップを含み、ユーザによる変換オプションの選択を受け取るステップは、ユーザによるダイスボタンへのクリックを受け取るステップを含み、変換プロセス画像をユーザに提示するステップは、動的ダイス画像をユーザに提示するステップを含む。
いくつかの実施例において、新たな第2の画像をユーザに提示するステップは、下向き消去の特殊効果で新たな第2の画像をユーザに提示するステップを含む。
いくつかの実施例において、方法は、変換オプションを提示した後、所定時間内にユーザによる保存オプションまたは変換オプションへの選択操作を受け取っていないことに応じて、顔画像を入力する情報をユーザに提示するステップに戻るステップをさらに含む。
いくつかの実施例において、バックグラウンドで事前トレーニングされた敵対的生成ネットワークに第1の画像を入力し、敵対的生成ネットワークから出力された第2の画像を得るステップは、バックグラウンドで第1の画像をクラウドサーバに位置する事前トレーニングされた敵対的生成ネットワークに入力し、敵対的生成ネットワークから出力された第2の画像を得るステップを含み、方法は、バックグラウンドで第1の画像をクラウドサーバに位置する事前トレーニングされた敵対的生成ネットワークに入力するときにネットワーク異常が検出されたことに応答して、「ネットワーク異常、再試行してください」という情報をユーザに提示し、かつ、「ネットワーク異常、再試行してください」という情報をユーザに所定時間提示した後に、顔画像を入力する情報をユーザに提示するステップに戻るステップ、をさらに含む。
いくつかの実施例において、方法は、バックグラウンドで事前トレーニングされた敵対的生成ネットワークに第1の画像を入力し、敵対的生成ネットワークから出力された第2の画像を得るための所要時間が事前設定された時間を超えたことに応答して、「生成エラー、再試行してください」という情報をユーザに提示し、かつ、「生成エラー、再試行してください」という情報をユーザに提示した時間が所定時間に達したときに、顔画像を入力する情報をユーザに提示するステップに戻るステップと、バックグラウンドで事前トレーニングされた敵対的生成ネットワークに第1の画像を入力し、敵対的生成ネットワークから出力された第2の画像を得る過程で異常が発生したことに応答して、「生成エラー、再試行してください」という情報をユーザに提示し、かつ、「生成エラー、再試行してください」という情報をユーザに提示した時間が所定時間に達したときに、顔画像を入力する情報をユーザに提示するステップに戻るステップと、ユーザが他のアプリケーションに切り替え、また他のアプリケーションから戻ったことに応答して、顔画像を入力する情報をユーザに提示するステップに戻るステップと、の少なくとも1項をさらに含む。
第2態様において、本開示の実施例は、ユーザから入力した顔を含む第1の画像を受信するように構成された第1の画像入力ユニットと、第1の画像をユーザに提示するように構成された第1の画像提示ユニットと、バックグラウンドで入力された画像に基づいて生成された顔属性情報を制約とする事前トレーニングされた敵対的生成ネットワークに第1の画像を入力し、敵対的生成ネットワークから出力された第2の画像を得るように構成された第2の画像出力ユニットと、バックグラウンドで敵対的生成ネットワークから出力された第2の画像が得られたことに応答して、第2の画像をユーザに提示するように構成された第2の画像提示ユニットと、を含むことを特徴とする、顔画像の生成装置を提供する。
いくつかの実施例において、第1の画像提示ユニットはさらに、第1の画像をユーザに所定時間提示した後に、提示された第1の画像にマスキングレイヤーを設け、対話シーンにおいて顔変換進行状況提示情報を表示するように構成されている。
いくつかの実施例において、第2の画像出力ユニットはさらに、第1の画像に対して異なる程度のガウシアンぼかしを行い、異なる程度のガウシアンぼかし後の第1の画像を事前トレーニングされた敵対的生成ネットワークに入力するか、または、第1の画像のテクスチャ特徴パラメータ値がテクスチャ閾値よりも大きいか否かを検出し、大きい場合、第1の画像に対して異なる程度のガウシアンぼかしを行い、異なる程度のガウシアンぼかし後の第1の画像を事前トレーニングされた敵対的生成ネットワークに入力するように構成されている。
いくつかの実施例において、第2の画像出力ユニットで用いられる敵対的生成ネットワークが入力された画像に基づいて生成された顔属性情報を制約とすることは、敵対的生成ネットワークが入力された画像に基づいて生成されたマルチチャネルの顔画像を入力とするステップを含み、マルチチャネルの顔画像は、入力された画像のRGB3チャネル画像と、入力された画像のうち、顔のキーポイントの1チャネル二値画像またはRGB3チャネル画像、顔のセマンティックセグメンテーション結果の1チャネル二値画像またはRGB3チャネル画像、および髪の1チャネル二値画像のうちの少なくとも1項と、を含む。
いくつかの実施例において、装置は、顔スタイル変換オプションをユーザに提示するように構成された変換オプション提示ユニットと、ユーザによる変換オプションの選択を受け取るように構成されたユーザ選択受取ユニットと、変換プロセス画像をユーザに提示するように構成されたプロセス画像提示ユニットと、バックグラウンドで変換前の第2の画像とは異なるスタイルを有する新たな第2の画像が生成されたことに応答して、新たな第2の画像をユーザに提示するように構成された第2の画像更新ユニットと、をさらに含む。
いくつかの実施例において、変換オプション提示ユニットはさらに、ダイスボタンの画像および動的にクリックする手の画像をユーザに提示するように構成され、ユーザ選択受取ユニットはさらに、ユーザによるダイスボタンへのクリックを受け取るように構成され、プロセス画像提示ユニットはさらに、動的ダイス画像をユーザに提示するように構成されている。
いくつかの実施例において、第2の画像更新ユニットはさらに、下向き消去の特殊効果で新たな第2の画像をユーザに提示するように構成されている。
いくつかの実施例において、装置は、変換オプションを提示した後、所定時間内にユーザによる保存オプションまたは変換オプションへの選択操作を受け取っていないことに応じて、顔画像を入力する情報をユーザに提示するステップに戻るように構成された情報提示復帰ユニットをさらに含む。
第3態様において、本開示の実施例は、1つまたは複数のプロセッサと、1つまたは複数のプログラムを記憶するための記憶装置と、を含む電子機器あって、1つまたは複数のプログラムが1つまたは複数のプロセッサによって実行されると、1つまたは複数のプロセッサに上記のいずれかに記載の方法を実施させる電子機器提供する。
第4態様において、本開示の実施例は、コンピュータプログラムが格納されているコンピュータ可読媒体であって、プログラムはプロセッサによって実行されると、上記のいずれかに記載の方法を実施するコンピュータ可読媒体を提供する。
第5態様において、コンピュータプログラムであって、前記コンピュータプログラムがプロセッサにより実行されると、上記のいずれかに記載の方法を実現する、コンピュータプログラムを提要する。
本開示の実施形態で提供される画像の生成方法および生成装置は、まず、ユーザが入力した顔を含む第1の画像を受信し、そして、第1の画像をユーザに提示し、その後、バックグラウンドで第1の画像を事前トレーニングされた敵対的生成ネットワークに入力し、入力された画像に基づいて生成された顔属性情報を制約とする敵対的生成ネットワークから出力された第2の画像を得、最後に、バックグラウンドで敵対的生成ネットワークから出力された第2の画像が得られたことに応答して、第2の画像をユーザに提示する。この過程では、敵対的生成ネットワークの制約として顔属性情報を採用しているため、敵対的生成ネットワークが入力された第1の画像に基づいて第2の画像を生成する精度と効率を向上させ、画像を誤生成する確率を減少させることができる。これにより、生成された第2の画像をより的確にすることができる。
以下の図面を参照して行われた非限定的な実施形態の詳細な説明を読むことによって、本開示の他の特徴、目的および利点は、より明らかになるであろう。
図1は本開示が適用できる例示的なシステムアーキテクチャである。 図2は本開示の一実施形態に係る画像の生成方法の一実施形態のフローチャートである。 図3は、本開示の一実施形態に係る画像の生成方法の例示的な適用シーンである。 図4は本開示の一実施形態に係る画像の生成方法の別の実施形態のフローチャートである。 図5は、本開示の画像の生成装置の一実施形態の例示的な構成図である。 図6は本開示の実施形態のサーバの実施に適したコンピュータシステムの構成図である。
以下、本開示について、添付の図面および実施形態に関連してさらに詳細に説明する。本明細書に記載された特定の実施形態は、本発明の限定ではなく、関連する発明を説明するためにのみ使用されることを理解されたい。さらに、説明を容易にするために、図面には、関連する発明に関連する部分のみが示されている。
本開示における実施形態および実施形態における特徴は、衝突することなく、互いに組み合わせられてもよいことに留意されたい。以下、本開示について図面を参照し、実施形態に関連して詳細に説明する。当業者はまた、本明細書では、用語「第1」、「第2」などを使用して画像を記述することができるが、これらの画像は、これらの用語によって限定されるべきではないことを理解するであろう。これらの用語は、1つの画像を他の画像から区別するためにのみ使用される。
図1は、本開示の画像の生成方法または画像の生成装置の一実施形態が適用できる例示的なシステムアーキテクチャ100を示す。
図1に示すように、システムアーキテクチャ100は、端末装置101、102、103、ネットワーク104、およびサーバ105を含むことができる。ネットワーク104は、端末装置101、102、103とサーバ105との間に通信リンクを提供するための媒体である。ネットワーク104は、有線、無線通信リンク、または光ファイバケーブルなどの様々な接続タイプを含むことができる。
ユーザは、端末装置101、102、103を使用して、メッセージなどを受信または送信するために、ネットワーク104を介してサーバ105と対話することができる。端末装置101、102、103には、ショートビデオアプリケーション、ブラウザアプリケーション、ショッピング系アプリケーション、検索系アプリケーション、インスタントメッセージツール、メールボックスクライアント、ソーシャルプラットフォームソフトウェアなどの様々な通信クライアントアプリケーションがインストールされていてもよい。
端末装置101、102、103は、ハードウェアであってもよいし、ソフトウェアであってもよい。端末装置101、102、103がハードウェアである場合、タブレット、ラップトップ、およびデスクトップコンピュータなどを含むが、これらに限定されないブラウザアプリケーションをサポートする様々な電子機器であってもよい。端末装置101、102、103がソフトウェアである場合、上記電子機器にインストールすることができる。これは、例えば、分散サービスを提供するために使用される複数のソフトウェアまたはソフトウェアモジュールとして実施されてもよく、単一のソフトウェアまたはソフトウェアモジュールとして実施されてもよい。ここでは具体的に限定しない。
サーバ105は、端末装置101、102、103をサポートするバックグラウンドサーバのような様々なサービスを提供するサーバであってもよい。バックグラウンドサーバは、受信した要求などのデータを分析するなどの処理を行い、処理結果を端末装置にフィードバックすることができる。
なお、サーバはハードウェアであってもよいし、ソフトウェアであってもよい。サーバがハードウェアである場合には、複数のサーバからなる分散サーバクラスタを実施することができ、単一のサーバとして実施することもできる。サーバがソフトウェアである場合、例えば、分散サービスを提供するために使用される複数のソフトウェアまたはソフトウェアモジュールとして実施されてもよく、単一のソフトウェアまたはソフトウェアモジュールとして実施されてもよい。ここでは具体的に限定しない。
実際には、本開示の実施形態によって提供される画像の生成方法は、端末装置101、102、103および/またはサーバ105、106によって実行されてもよく、画像の生成装置は、端末装置101、102、103および/またはサーバ105、106に配置されてもよい。
図1の端末装置、ネットワーク、およびサーバの数は、概略的なものにすぎないことを理解されたい。実施の必要に応じて、任意の数の端末装置、ネットワーク、およびサーバを有することができる。
図2を参照すると、図2は、本開示に係る画像の生成方法の一実施形態のプロセス200を示す。画像の生成方法は、以下のステップ(ステップ201~204)を含む。
ステップ201:ユーザから入力した顔を含む第1の画像を受信する。
本実施形態では、画像の生成方法の実行主体(例えば、図1に示す端末装置やサーバ)は、対話シーンにおいてユーザがローカルまたはリモートアルバム、データベースから入力した顔を含む第1の画像を取得してもよいし、ローカルまたは遠隔の撮影サービスを介して顔を含む第1の画像を取得してもよい。
本実施形態のいくつかのオプションの実施形態では、ユーザが入力した顔を含む第1の画像を受信する前に、顔画像の生成方法は、対話シーンにおいて、顔変換の指示を受信するステップと、顔画像を入力する情報をユーザに提示するステップと、をさらに含む。
本実施形態では、上記実行主体が受けた顔変換の指示は、ユーザから入力した顔変換の指示、例えば、ユーザによる顔変換オプションの選択等であってもよいし、ユーザの出現によりトリガする顔変換の指示であってもよい。例えば、上記実行主体は、顔変換サービスモードにおいて、ユーザの顔を検出すると、顔変換の指示が受けられたとみなす。
上記実行主体は、顔変換の指示を受けた後、顔画像を入力する情報をユーザに提示することができる。例えば、ローカルまたはクラウドアルバムまたはデータベースから顔画像を入力するようにユーザに促す情報をユーザに提示したり、ローカルまたは遠隔の撮影サービスを呼び出して顔画像を入力する情報をユーザに提示したりする。
一具体例では、顔画像を入力する情報をユーザに提示するステップは、顔自動撮影画面をユーザに提示するステップを含み得、ユーザから入力した顔を含む第1の画像を受信するステップは、ユーザが自動撮影画面で顔を入力したことが検出されたことに応答して、自動撮影機能をトリガして第1の画像を得るステップを含むことができる。これにより、実行主体が受けた顔変換の指示に応じて、第1の画像を迅速に取得することができる。さらに、自動撮影機能をトリガする際に、フラッシュの光学および音響効果をユーザに提示することもでき、ユーザの注意力を向上させ、自動撮影の効率を向上させることができる。
上記実行主体は、顔自動撮影画面をユーザに提示する際に、所定スタイルの枠および/または撮影要件を含む自動撮影画面をユーザに提示することができ、撮影の面白さおよび/またはマンマシンインタラクション効率を向上させることができる。あるいは、または追加的に、上記実行主体は、撮影画面において顔が検出されなかったことに応答して、顔が検出されなかった提示情報をユーザに提示することができ、ユーザに顔の入力を注意させ、マンマシンインタラクション効率を向上させることができる。
本実施形態のいくつかのオプションの実施形態では、顔自動撮影画面をユーザに提示するステップは、撮影画面で顔が検出されたことに応答して、自動撮影カウントダウンをユーザに提示するステップと、ユーザが自動撮影カウントダウン期間内に顔を入力し続けたことに応答して、自動撮影カウントダウン終了時に検出された顔を撮影するステップと、ユーザが自動撮影カウントダウン期間内に顔を入力しなかったことに応答して、カウントダウンを終了し、顔が検出されなかった提示情報をユーザに提示するステップと、をさらに含む。
本実施形態では、上記実行主体は、撮影画面において顔を検出した後、自動撮影カウントダウンをユーザに提示することができる。ユーザが自動撮影カウントダウン期間内に顔を入力し続けた場合、すなわち上記実行主体が自動撮影カウントダウン期間内に顔を継続して検出した場合、上記実行主体は、自動撮影カウントダウン終了時に、検出された顔を撮影することができる。ユーザが自動撮影カウントダウン期間内に顔を入力しなかった場合、すなわち上記実行主体が自動撮影カウントダウン期間内に顔を検出しなかった場合、上記実行主体は、カウントダウンを終了し、顔が検出されなかった提示情報をユーザに提示する。
本実施形態における顔自動撮影画面をユーザに提示する方式は、自動撮影カウントダウンの時間帯に顔が存在するか否かを監視することができる。ユーザの顔がずっと存在していた場合、自動撮影カウントダウン終了時に写真を撮影し、顔が検出されなかった場合、速やかにユーザに注意させることができ、顔自動撮影の効率を向上させることができる。
ステップ202:第1の画像をユーザに提示する。
本実施形態では、画像の生成方法の実行主体は、従来技術または将来開発される技術における提示方法を用いて第1の画像をユーザに提示することができ、本明細書では限定されない。例えば、上記実行主体は、ディスプレイ上で第1の画像をユーザに提示するか、または通常の投影技術もしくはホログラフィ技術を使用して第1の画像をユーザに提示することができる。
本実施形態のいくつかのオプションの実施形態では、第1の画像をユーザに提示するステップは、第1の画像をユーザに提示した時間が所定時間に達した後に、提示された第1の画像にマスキングレイヤーを設け、対話シーンにおいて顔変換進行状況提示情報を表示するステップを含むことができる。
本実施形態では、第1の画像をユーザに提示した時間が所定時間(例えば3秒)に達した後に、提示された第1の画像にマスキングレイヤーを設け、対話シーンにおいて顔変換進行状況提示情報を表示することができる。これにより、第1の画像に対して顔変換を行っていることをユーザに注意させ、ユーザが顔変換の進行状況を直感的に見ることができ、マンマシンインタラクション効率を向上させることができる。
本実施形態のいくつかのオプションの実施形態では、所定スタイルの枠は、顔変換進行状況提示情報の設計スタイルと同じまたは近い。
本実施方法では、所定スタイルの枠を顔進行状況提示情報の設計スタイルと同じか近いものに設定することで、前後一致した視認感をユーザに提示することができ、ユーザの視認度を向上させることができる。ここにいう設計スタイルが近いとは、設計スタイルの類似度が所定類似度閾値よりも大きいか、または設計スタイルが所定スタイルランキングリストにおいて隣接するスタイルであることである。
ステップ203:バックグラウンドで事前トレーニングされた敵対的生成ネットワークに第1の画像を入力し、敵対的生成ネットワークから出力された第2の画像を得る。
本実施形態では、上記実行主体は、バックグラウンドで、入力された画像に基づいて生成された顔属性情報を制約とする事前トレーニングされた敵対的生成ネットワークに第1の画像を入力して、敵対的生成ネットワークから出力された第2の画像を得ることができる。
事前トレーニングされた敵対的生成ネットワークとは、敵対的生成ネットワーク(GAN、Generative Adversarial Networks)に基づいて発展したディープラーニングモデルである。例としては、敵対的生成ネットワークGAN、循環一貫敵対的生成ネットワークCycleGAN、顔高精度属性編集モデルAttGAN、スター型敵対的生成ネットワークStarGAN、空間コンバータ敵対的生成ネットワークSTGAN、双方向学習の敵対的生成ネットワークDualGAN、DiscoGANなどが挙げられる。
この事前トレーニングされた敵対的生成ネットワークは通常、生成器G(Generator)と弁別器(Discriminator)を含む。2つのデータドメインがそれぞれX、Yである。GはXドメイン内のデータを真のデータに模倣して真のデータに隠すことを担当し、Dは偽造データと真のデータを分離することを担当する。両者のゲームを経て、Gの偽造技術はますます強くなり、Dの弁別技術も強くなる。Dはデータが真であるかGに生成されたデータであるかを区別できなくなる時点で、敵対の過程は動的なバランスに達する。
敵対的生成ネットワークのトレーニングには、生成器の再構成損失関数と弁別器の弁別損失関数の2つの損失関数が必要である。再構成損失関数は、生成された画像が原画像と可能な限り類似しているかどうかを判定するために用いられ、弁別損失関数は、生成された偽画像と元の真画像を弁別器に入力し、式が0,1の二項分類の損失を得るために用いられる。
生成器は、エンコーダ、コンバータ、デコーダから構成される。エンコーダは、畳み込みニューラルネットワークを用いて、入力された画像から特徴を抽出する。例えば、画像を256個の64×64の特徴ベクトルに圧縮する。コンバータは、画像の非近接特徴を組み合わせることにより、画像のDAドメインにおける特徴ベクトルをDBドメインにおける特徴ベクトルに変換する。例えば、6層のResetモジュールを用いることができる。各Resetモジュールは、2つの畳み込み層からなるニューラルネットワーク層であり、変換時に元の画像特徴を同時に保持することができる。デコーダは、逆畳み込み層(Decovolution)を用いて、特徴ベクトルから低級特徴を復元する作業を完了し、生成画像を得る。
弁別器は、1枚の画像を入力とし、それが元の画像であるかそれとも生成器の出力画像であるかを予測することを試みる。弁別器自体は畳み込みネットワークに属し、画像から特徴を抽出する必要があり、1次元出力を生成する畳み込み層を追加することで、抽出された特徴が特定のカテゴリに属するかどうかを判定する必要がある。
ここでは、事前トレーニングされた敵対的生成ネットワークは、入力された画像に基づいて生成された顔属性情報を制約とする。この顔属性情報は、顔特徴を特徴付ける一連の生体特性情報であり、非常に強い自己安定性と個体差を持ち、人の身分を識別している。顔属性情報には、性別、肌色、年齢、表情などを含むことができる。
敵対的生成ネットワークは、入力された画像(例えば、敵対的生成ネットワークを適用する際に入力された第1の画像または敵対的生成ネットワークをトレーニングする際に入力された第1の画像サンプル)に基づいて生成された顔属性情報を制約とする場合には、従来技術または将来開発される技術における機械学習ネットワークの制約のための方法を用いて実現することができ、本出願ではこれについて限定しない。
本出願の一具体例では、上記入力された画像に基づいて生成された顔属性情報は、敵対的生成ネットワークにおける生成器ネットワークのいずれか1層または複数層の入力として、当該層のネットワークの既存の入力と連携して入力とすることにより、機械学習において制約を導入した生成器ネットワークの出力画像と顔属性情報との関連性を改善することができる。
本出願の別の具体例では、上記入力された画像に基づいて生成された顔属性情報は、顔マーク特徴を用いて一貫性損失を定義し、敵対的生成ネットワークにおける弁別器のトレーニングを指導する。まず、生成器は、入力された第1の画像に基づいて粗い第2の画像を生成する。その後、敵対的生成ネットワークは、生成された第2の画像に基づいて、1つの事前トレーニングリグレッサー(Regressor)を生成して顔ランドマークlandmarkを予測し、顔のキーポイントをマークする。最後に、ローカルとグローバルの2種類の弁別器により、第2の画像において第1の画像に対応する顔特徴を詳細化する。この段階では、landmarkの整合性が強調されているため、最後の生成結果はリアルで認識できる。
当業者は、敵対的生成ネットワークは、トレーニングおよび応用段階において、入力された画像に基づいて生成された顔属性情報を制約とすることができることを理解するであろう。ここで、この敵対的生成ネットワークをトレーニングする際に、入力された画像は、入力された第1の画像サンプルとすることができる。敵対的生成ネットワークは、入力された第1の画像サンプルの顔属性情報を抽出し、顔属性情報を敵対的生成ネットワークの制約とし、出力された生成された画像を得る。この敵対的生成ネットワークを応用する際に、入力された画像は、入力された第1の画像とすることができる。敵対的生成ネットワークは、入力された第1の画像の顔属性情報を抽出し、第1の画像の顔属性情報を敵対的生成ネットワークの制約とし、出力された第2の画像を得る。
上記敵対的生成ネットワークに入力された第1の画像は、顔を含む画像とすることができる。敵対的生成ネットワークから出力された第2の画像は、スタイルまたは性別が第1の画像とは異なり、顔を含む画像とすることができる。
具体的には、敵対的生成ネットワークが入力された画像に基づいて生成された顔属性情報を制約とすることは、敵対的生成ネットワークが入力された画像に基づいて生成された顔キーポイントおよび/または顔のセマンティックセグメンテーション結果を制約とすることを含む。
上記実行主体は、顔キーポイント抽出技術を用いて、入力された画像の顔キーポイントを抽出し、顔キーポイントを敵対的生成ネットワークが出力画像を生成する際の制約とすることができる。あるいは、または追加的に、上記実行主体は、顔のセマンティックセグメンテーション技術を用いて、顔のセマンティックセグメンテーション結果を敵対的生成ネットワークが出力画像を生成する際の制約とすることができる。
入力された画像に基づいて生成された顔キーポイントおよび/または顔のセマンティックセグメンテーション結果を制約として用いることにより、生成器は、入力された画像の五官と出力された画像の五官とを関連付けることができ、他の部位で顔特徴を誤生成することはない。また、入力された画像を、顔を含むより大きな画像とすることができ、顔画像のみの入力に限らない。さらに、出力された画像の精度と品質を向上させることができる。
本実施形態のいくつかのオプションの実施形態では、第1の画像を事前トレーニングされた敵対的生成ネットワークに入力するステップは、第1の画像に対して異なる程度のガウシアンぼかしを行い、異なる程度のガウシアンぼかし後の第1の画像を事前トレーニングされた敵対的生成ネットワークに入力するステップを含む。
本実施形態では、ガウス平滑化とも呼ばれるガウシアンぼかし(Gaussian Blur)により、画像ノイズを低減し、細部レベルを低減し、異なるスケールの大きさでの画像効果を向上させることができる(スケール空間表現およびスケール空間実現を参照)。数学的には、画像のガウシアンぼかし過程は画像と正規分布を畳み込みすることである。正規分布はガウス分布とも呼ばれるため、この技術はガウシアンぼかしとも呼ばれる。
異なる程度のガウシアンぼかし後の第1の画像を敵対的生成ネットワークの入力として用いることにより、異なる解像度の第2の画像を得ることができ、異なる解像度の第2の画像に基づいて、所望の鮮明な第2の画像を確定することができる。
あるいは、または追加的に、第1の画像を事前トレーニングされた敵対的生成ネットワークに入力するステップは、第1の画像のテクスチャ特徴パラメータ値がテクスチャ閾値よりも大きいかどうかを検出し、大きい場合、第1の画像に対して異なる程度のガウシアンぼかしを行い、異なる程度のガウシアンぼかし後の第1の画像を事前トレーニングされた敵対的生成ネットワークに入力するステップを含む。
ここで、画像のテクスチャ特徴パラメータ値とは、画像のテクスチャ特徴を特徴付けるためのパラメータ値を指す。例えば、テクスチャの太さ、密度、方向性などである。第1の画像のテクスチャ特徴パラメータ値がテクスチャ閾値よりも大きいことが検出された場合には、第1の画像のテクスチャが複雑であることを示す。通常、テクスチャの複雑な画像に基づいて生成された画像の内容が乱れている。このため、第1の画像に対して異なる程度のガウシアンぼかしを行い、異なる程度のガウシアンぼかし後の第1の画像に対してそれぞれ第2の画像を生成し、解像度の異なる第2の画像を得ることができる。その後、異なる解像度の第2の画像に基づいて、所望の鮮明な第2の画像を確定することができ、生成された画像の品質を向上させることができる。
上記事前トレーニングされた敵対的生成ネットワークは、クローラーを用いてネットワークから画像サンプルをクロールするか、または画像サンプルデータセットを直接取得することができる。これらの画像にはいずれも顔が含まれている。その後、クロールしたまたは取得した画像を直接、敵対的生成ネットワークのトレーニングのための画像サンプルとすることができる。または、クロールした、顔を含む画像を初期画像サンプルとし、初期画像サンプルに対してさらなるデータ処理を行い、画像サンプルの要求に合致したフィルタリングされた画像を得、フィルタリングされた画像を敵対的生成ネットワークのトレーニングのための画像サンプルとすることができる。
事前トレーニングされた敵対的生成ネットワークは、データのトレーニングにはスタイルが一致し、しかも異なる性別、異なる角度、異なる顔の大きさの画像サンプルを含む必要があるため、初期画像サンプルに対してデータ拡張を行うことにより、トレーニングのデータ量を増加させ、敵対的生成ネットワークの汎化能力を高め、かつノイズデータを増加させ、敵対的生成ネットワークのロバスト性を高めることができる。データ拡張は、回転、平行移動、折り返し、反転、スケーリング、および異なる程度のガウシアンぼかしなどの動作を含むことができる。
本実施形態のいくつかのオプションの実施形態では、敵対的生成ネットワークが入力された画像に基づいて生成された顔属性情報を制約とすることは、敵対的生成ネットワークが入力された画像に基づいて生成されたマルチチャネルの顔画像を入力とするステップを含み、マルチチャネルの顔画像は、入力された画像のRGB3チャネル画像と、入力された画像の顔キーポイントの1チャネル二値画像またはRGB3チャネル画像、顔のセマンティックセグメンテーション結果の1チャネル二値画像またはRGB3チャネル画像、髪の1チャネル二値画像のうちの少なくとも1つの画像と、を含む。
本実施形態のいくつかの具体例では、第1の画像に基づいて、従来技術または将来開発される技術における顔キーポイント抽出技術を用いて、第1の画像の顔キーポイント画像を取得することができる。本出願ではこれについて限定しない。例えば、能動形状モデル(ASM,Active Shape Model)、能動外観モデル(AMM,Active Appearance Model、)、カスケード形状回帰モデルCascaded Shape Regression(CSR)、または顔整列アルゴリズム(DAN、Deep Alignment Network)などを用いて顔キーポイント抽出を行うことができる。その後、顔キーポイント画像に基づいて、顔キーポイントのRGB3チャネル画像または顔キーポイントの1チャネル二値画像を得ることができる。
第1の画像に基づいて、従来技術または将来開発される技術におけるセマンティックセグメンテーション技術を用いて、第1の画像の顔のセマンティックセグメンテーション結果を取得することができる。本出願ではこれについて限定しない。いくつかの具体例では、顔のセマンティックセグメンテーション技術は、全畳み込みニューラルネットワークFCN(Fully Convolutional Networks For Semantic Segmentation)、セマンティックセグメンテーションネットワーク(SegNet、Semantic Segmentation)、拡張畳み込み(Dilated Convolutions)、セマンティックセグメンテーション(Deep Lab(v1、v2、V3など))、画像分割モデル(RefineNet)、ピラミッドシーン解析ネットワーク(PSPNet)などを用いて、第1の画像に基づいて、第1の画像に対する顔のセマンティックセグメンテーション結果を取得することができる。セマンティックセグメンテーションはターゲット検出の拡張であり、その出力はオブジェクトをカテゴリごとに区別したカラーマスクであり、ターゲットに対してより正確な測位を実現することができ、ターゲットの複雑な形状の影響を受けない。その後、顔のセマンティックセグメンテーション結果に基づいて、顔のセマンティックセグメンテーション結果のRGB3チャネル画像または顔キーポイントの1チャネル二値画像を得ることができる。
第1の画像に基づいて、従来技術または将来開発される技術における髪分割技術を用いて、第1の画像の髪の1チャネル二値画像を取得することができる。本出願ではこれについて限定しない。例えば、髪分割技術を用いて、まず、髪分割結果を取得し、そして、髪分割結果を髪の1チャネル二値画像に変換することができる。髪分割結果の各画素点を1チャネル二値画像で表す。
当業者は、応用時に入力されたマルチチャンネル顔画像に適したトレーニング済みの敵対的生成ネットワークを得るために、敵対的生成ネットワークの事前トレーニングに用いられるマルチチャネル顔画像サンプルと、当該敵対的生成ネットワークの応用時に入力されたマルチチャネル顔画像とを適させることを理解するであろう。
本実施形態における顔画像の生成方法は、マルチチャネル顔画像を事前トレーニングされた敵対的生成ネットワークに入力し、入力された画像の細部がより豊富であり、事前トレーニングされた敵対的生成ネットワークから出力された第2の画像の精度と品質を向上させることができる。
ステップ204:バックグラウンドで敵対的生成ネットワークから出力された第2の画像が得られたことに応答して、第2の画像をユーザに提示する。
本実施形態では、上記実行主体は、事前トレーニングされた敵対的生成ネットワークから出力された第2の画像をユーザに提示することができる。
一具体例では、第1の画像は真の顔画像であり、第2の画像は漫画画像である。ここの漫画画像は、壁画、油絵、カーペットなどのスケッチ、下絵であってもよいし、漫画、風刺画、ユーモラスな絵画などであってもよい。
本実施形態のいくつかのオプションの実施形態では、上記方法は、第2の画像をユーザに提示した時間が所定時間に達した後に、第1の画像と第2の画像を同時にユーザに提示するステップをさらに含むことができる。
本実施形態では、上記実行主体は、第2の画像をユーザに提示した時間が所定時間に達した後に、第1の画像と第2の画像を同時にユーザに提示してもよい。例えば、上記実行主体は、画面内の左上と右下の位置にそれぞれ第1の画像と第2の画像を表示することができる。または、第1の画像と第2の画像を分割画面に表示することもできる。これにより、ユーザは第1の画像と第2の画像とを比較できるため、インタラクション効率を向上させることができる。
本開示に係る上記実施形態の画像の生成方法は、敵対的生成ネットワークが第1の画像に基づいて第2の画像を生成する過程において、敵対的生成ネットワークの制約として第1の画像の顔属性情報を採用したため、敵対的生成ネットワークが入力された第1の画像に基づいて第2の画像を生成する品質、精度、効率を向上させ、画像を誤生成する確率を低減することができる。これにより、生成された第2の画像がより標的化になる。
以下、図3を参照して、本開示に係る画像の生成方法の例示的な適用シーンについて説明する。
図3に示すように、図3は、本開示に係る画像の生成方法の適用シーンの一例を示す。
図3に示すように、画像の生成方法300は、電子機器310において動作する。次のステップを含む。
まず、ユーザから入力した顔を含む第1の画像301を受信する。
そして、第1の画像301をユーザに提示する。
さらに、バックグラウンドで、入力された画像に基づいて生成された顔属性情報304を制約305とする事前トレーニングされた敵対的生成ネットワーク302に第1の画像301を入力し、敵対的生成ネットワークから出力された第2の画像303を得る。
最後に、バックグラウンドで敵対的生成ネットワークから出力された第2の画像303が得られたことに応答して、第2の画像303をユーザに提示する。
上記図3に示す画像の生成方法の適用シーンは、画像の生成方法の例示的な説明にすぎず、この方法への限定を意味するものでないことを理解されたい。例えば、上記図3に示す各ステップは、より詳細な実施方法をさらに採用することができる。上記図3に基づいて、その他の画像生成ステップをさらに追加してもよい。
さらに図4を参照すると、図4は、本開示に係る顔画像の生成方法の別の実施形態の概略フローチャートを示す。
図4に示すように、本実施形態に係る顔画像の生成方法400は、以下のステップ(ステップ401~408)を含むことができる。
ステップ401:ユーザから入力した顔を含む第1の画像を受信する。
本実施形態では、画像の生成方法の実行主体(例えば、図1に示す端末装置やサーバ)は、ユーザが対話シーンにおいてローカルまたはリモートアルバム、データベースから入力した顔を含む第1の画像を取得してもよいし、ローカルまたは遠隔の撮影サービスを介して顔を含む第1の画像を取得してもよい。
ステップ402:第1の画像をユーザに提示する。
本実施形態では、画像の生成方法の実行主体は、従来技術または将来開発された技術における提示方法を用いて第1の画像をユーザに提示することができる。本出願ではこれについて限定しない。例えば、上記実行主体は、ディスプレイ上で第1の画像をユーザに提示するか、または通常の投影技術またはホログラフィック投影技術を使用して第1の画像をユーザに提示することができる。
ステップ403:バックグラウンドで事前トレーニングされた敵対的生成ネットワークに第1の画像を入力し、敵対的生成ネットワークから出力された第2の画像を得る。
本実施形態では、上記実行主体は、入力された画像に基づいて生成された顔属性情報を制約とする敵対的生成ネットワークから出力された第2の画像を得るために、バックグラウンドで事前トレーニングされた敵対的生成ネットワークに第1の画像を入力することができる。
事前トレーニングされた敵対的生成ネットワークとは、敵対的生成ネットワーク(GAN、Generative Adversarial Networks)に基づいて発展したディープラーニングモデルである。例としては、敵対的生成ネットワークGAN、循環一貫敵対的生成ネットワークCycleGAN、顔高精度属性編集モデルAttGAN、スター型敵対的生成ネットワークStarGAN、空間コンバータ敵対的生成ネットワークSTGAN、双方向学習の敵対的生成ネットワークDualGAN、DiscoGANなどが挙げられる。
ステップ404:バックグラウンドで敵対的生成ネットワークから出力された第2の画像が得られたことに応答して、第2の画像をユーザに提示する。
本実施形態では、上記実行主体は、事前トレーニングされた敵対的生成ネットワークから出力された第2の画像をユーザに提示することができる。
一具体例では、第1の画像は真の顔画像であり、第2の画像は漫画画像である。ここの漫画画像は、壁画、油絵、カーペットなどのスケッチ、下絵であってもよいし、漫画、風刺画、ユーモラスな絵画などであってもよい。
当業者は、上記ステップ401~ステップ404が、図2に示す実施形態におけるステップ201~ステップ204に対応することを理解するであろう。したがって、上述した図2に示す実施形態におけるステップ201~ステップ204について説明した動作および特徴は、ステップ401~ステップ404にも同様に適用可能であり、ここではこれ以上説明しない。
ステップ405:顔スタイル変換オプションをユーザに提示する。
本実施形態では、上記実行主体が第2の画像をユーザに提示する際に、または第2の画像をユーザに提示した後に、顔スタイル変換オプションをユーザに提示することにより、ユーザはスタイル変換オプションを選択して、生成された第2の画像のスタイルを変換することができる。例えば、回転可能なスタイル変換オプションのローラをユーザに提示することにより、ユーザはローラを回転することで、自分の好きなスタイルを選択することができる。
本実施形態のいくつかのオプションの実施形態では、顔スタイル変換オプションをユーザに提示するステップは、ダイスボタンおよび動的にクリックする手の画像をユーザに提示するステップを含むことができる。これにより、受信ユーザをダイスボタンをクリックするように誘導し、顔スタイルの変換を行うことができる。
ステップ406:ユーザによる変換オプションの選択を受け取る。
本実施形態では、ユーザによる変換オプションの選択を受け取る。すなわち、上記実行主体は、ユーザによる変換オプションの選択を受け取る。
ステップ407:変換プロセス画像をユーザに提示する。
本実施形態では、上記実行主体は、ユーザによる変換オプションの選択を受信した後、バックグラウンドで変換前の第2の画像とは異なるスタイルの新たな第2の画像を生成し、変換プロセス画像をユーザに提示する。ここで、変換プロセス画像とは、変換プロセスを表現できる画像、例えば変換プログレスバー、動的変換画像などである。
バックグラウンドで前回生成された第2の画像とは異なる第2の画像を生成する際に、第1の画像の一部の内容を修正することで、異なるスタイルの新たな第2の画像を得ることができる。例えば、第1の画像の背景の輝度、コントラスト等のパラメータを修正し、修正された第1の画像を事前トレーニングされた敵対的生成ネットワークに入力して、新たな第2の画像を得ることができる。
本実施形態のいくつかのオプションの実施形態では、ダイスボタンおよび動的にクリックする手の画像を上記ユーザに提示した後、ユーザは、ダイスボタンをクリックすることができる。上記実行主体は、動的ダイス画像をユーザに提示することができる。これにより、ダイスをクリックして顔スタイルを切り替えるようユーザを直感的に誘導し、ダイスをクリックした後のインタラクション過程を直感的にユーザに提示することができ、マンマシンインタラクションの効率を向上させることができる。
ステップ408:バックグラウンドで変換前の第2の画像とは異なるスタイルの新たな第2の画像が生成されたことに応答して、新たな第2の画像をユーザに提示する。
本実施形態では、上記実行主体はバックグラウンドでスタイル変換後の第2の画像が生成された場合、スタイル変換後の第2の画像を新たな第2の画像とし、新たな第2の画像をユーザに提示することができる。
新たな第2の画像をユーザに提示する際に、いくつかの特殊効果を使用して新たな第2の画像を提示することができる。例えば、下向き消去の特殊効果、点状ブランキング特殊効果、または回転ブランキング特殊効果などの特殊効果で新たな第2の画像をユーザに提示することができる。これにより、第2の画像の変換プロセスを直感的に具現化することができる。
本実施形態のいくつかのオプションの実施形態では、上記顔画像の生成方法は、変換オプションを提示した時間が所定時間に達するまでに、ユーザによる保存オプションまたは変換オプションの選択操作を受信していなければ、顔画像を入力する情報をユーザに提示するステップに戻るステップをさらに含む。
本実施形態では、変換オプションを提示した時間が所定時間に達するまでに、ユーザによる保存オプションまたは変換オプションの選択操作を受信していなければ、ユーザが現在の第2の画像に満足しておらず、以前の第1の画像に基づいてスタイルを変換したくないことを意味し、このとき、実行主体は、顔画像を入力する情報をユーザに提示するステップに戻る。このように、ユーザによる操作を必要とせずに、上記実行主体は、次の顔画像の生成を行うために、新たな顔を含む第1の画像の入力をユーザに促すことができる。これにより、顔画像の生成方法の知能性とマンマシンインタラクション効率を向上させることができる。
本実施形態のいくつかのオプションの実施形態では、上記実行主体は、バックグラウンドで第1の画像をクラウドサーバに位置する事前トレーニングされた敵対的生成ネットワークに入力し、敵対的生成ネットワークから出力された第2の画像を得、バックグラウンドでクラウドサーバに位置する事前トレーニングされた敵対的生成ネットワークに第1の画像を入力するときにネットワーク異常が検出されたことに応答して、「ネットワーク異常、再試行してください」という情報をユーザに提示し、かつ、「ネットワーク異常、再試行してください」という情報をユーザに提示した時間が所定時間に達した後、顔画像を入力する情報をユーザに提示するステップに戻る。
本実施形態では、上記実行主体は、ネットワーク異常時に、「ネットワーク異常、再試行してください」とユーザに注意させ、かつ所定時間が経過した後に、再び顔画像を入力する情報をユーザに提示するステップに戻ることができる。このように、ユーザの操作を必要とせずに、次の顔画像の生成を行うために、新たな顔を含む第1の画像の入力をユーザに促すことができる。これにより、顔画像の生成方法の知能性とマンマシンインタラクション効率を向上させることができる。
本実施形態のいくつかのオプションの実施形態では、顔画像の生成方法は、バックグラウンドで第1の画像を事前トレーニングされた敵対的生成ネットワークに入力し、敵対的生成ネットワークから出力される第2の画像を得るための所要時間が所定時間を超えたことに応答して、「生成エラー、再試行してください」という情報をユーザに提示するステップと、バックグラウンドで第1の画像を事前トレーニングされた敵対的生成ネットワークに入力し、敵対的生成ネットワークから出力される第2の画像を得る過程で異常が発生したことに応答して、「生成エラー、再試行してください」という情報をユーザに提示するステップと、ユーザが他のアプリケーションに切り替え、また他のアプリケーションから戻ったことに応答して、顔画像を入力する情報をユーザに提示するステップに戻るステップと、のうちの少なくとも1つをさらに含む。
本実施形態では、上記実行主体は、第2の画像を生成するための所要時間が所定時間を超えた場合、または第2の画像を生成する過程で異常が発生した場合に、「生成エラー、再試行してください」という情報をユーザに提示し、かつ、「生成エラー、再試行してください」という情報をユーザに提示した時間が所定時間を満たした場合に、顔画像を入力する情報をユーザに提示するステップに戻る。このように、ユーザに再試行を直感的に提示し、インタラクション効率を向上させることができる。
また、ユーザが他のアプリケーションに切り替え、また他のアプリケーションから戻ると、上記実行主体は顔画像を入力する情報をユーザに提示するステップに戻る。このようにすると、ユーザの操作を必要とせずに、次に顔画像を生成するために新たな顔を含む第1の画像を入力するようにユーザに促すことができる。これにより、顔画像の生成方法の知能性とマンマシンインタラクション効率を向上させることができる。
本開示に係る上記実施形態の画像の生成方法は、上記図2に示す実施形態の方法と比較して、図2に示す実施形態をベースに、顔スタイル変換オプションをユーザに提示し、そして、ユーザによる変換オプションの選択を受信し、その後、変換プロセス画像をユーザに提示し、最後に、バックグラウンドで第2の画像とは異なるスタイルの新たな第2の画像が生成されたことに応答して、新たな第2の画像をユーザに提示することができる。これにより、ユーザは生成された二次元イメージに満足していない場合には、再撮影することなく、ボタンをクリックするだけで、二次元イメージを再生成することができる。1枚の原画像により、異なるタイプの二次元イメージを生成することができ、ユーザのニーズに応じた第2の画像を生成する効率を向上させることができる。
上記各図に示す方法の実施として、本開示の実施形態は、上記図1に示す端末装置またはサーバに具体的に適用可能な図2~図4に示す方法の実施形態に対応する画像の生成装置の一実施形態を提供する。
図5に示すように、本実施形態に係る画像の生成装置500は、ユーザから入力した顔を含む第1の画像を受信するように構成された第1の画像入力ユニット501と、第1の画像をユーザに提示するように構成された第1の画像提示ユニット502と、バックグラウンドで入力された画像に基づいて生成された顔属性情報を制約とする事前トレーニングされた敵対的生成ネットワークに第1の画像を入力し、敵対的生成ネットワークから出力された第2の画像を得るように構成された第2の画像出力ユニット503と、バックグラウンドで敵対的生成ネットワークから出力された第2の画像が得られたことに応答して、第2の画像をユーザに提示するように構成された第2の画像提示ユニット504と、を含む。
いくつかの実施形態では、装置は、対話シーンにおいて顔変換の指示を受信するように構成された指示受信ユニット(図示せず)と、顔画像を入力する情報をユーザに提示するように構成された情報提示ユニット(図示せず)と、をさらに含む。
いくつかの実施形態では、顔画像を入力する情報をユーザに提示するステップは、顔自動撮影画面をユーザに提示するステップを含み、ユーザから入力した顔を含む第1の画像を受信するステップは、ユーザが自動撮影画面で顔を入力したことが検出されたことに応答して、自動撮影機能をトリガして第1の画像を得るステップを含む。
いくつかの実施形態では、顔自動撮影画面をユーザに提示するステップは、所定スタイルの枠および/または撮影要件を含む自動撮影画面をユーザに提示するステップと、撮影画面で顔が検出されなかったことに応答して、顔が検出されなかった提示情報をユーザに提示するステップと、のうちの少なくとも1つを含む。
いくつかの実施形態では、顔自動撮影画面をユーザに提示するステップは、撮影画面で顔が検出されたことに応答して、自動撮影カウントダウンをユーザに提示するステップと、自動撮影カウントダウンが終了したことに応答して、検出された顔を撮影するステップと、ユーザが自動撮影カウントダウン期間内に顔を入力しなかったことに応答して、カウントダウンを終了し、顔が検出されなかった提示情報をユーザに提示するステップと、をさらに含む。
いくつかの実施形態では、第1の画像提示ユニットはさらに、第1の画像をユーザに提示した時間が所定時間に達した後に、提示された第1の画像にマスキングレイヤーを設け、対話シーンにおいて顔変換進行状況提示情報を表示するように構成されている。
いくつかの実施形態では、所定スタイルの枠は、顔変換進行状況提示情報の設計スタイルと同じまたは近い。
いくつかの実施形態では、第2の画像出力ユニットはさらに、第1の画像に対して異なる程度のガウシアンぼかしを行い、異なる程度のガウシアンぼかし後の第1の画像を事前トレーニングされた敵対的生成ネットワークに入力するか、または、第1の画像のテクスチャ特徴パラメータ値がテクスチャ閾値よりも大きいか否かを検出し、大きい場合、第1の画像に対して異なる程度のガウシアンぼかしを行い、異なる程度のガウシアンぼかし後の第1の画像を事前トレーニングされた敵対的生成ネットワークに入力するように構成されている。
いくつかの実施形態では、第2の画像出力ユニットで用いられる敵対的生成ネットワークが入力された画像に基づいて生成された顔属性情報を制約とすることは、敵対的生成ネットワークが入力された画像に基づいて生成されたマルチチャネルの顔画像を入力とするステップを含み、マルチチャネルの顔画像は、入力された画像のRGB3チャネル画像と、入力された画像の顔キーポイントの1チャネル二値画像またはRGB3チャネル画像、顔のセマンティックセグメンテーション結果の1チャネル二値画像またはRGB3チャネル画像、髪の1チャネル二値画像のうちの少なくとも1つの画像と、を含む。
いくつかの実施形態では、装置は、第2の画像をユーザに提示した時間が所定時間に達した後に、第1の画像と第2の画像を同時にユーザに提示するように構成された画像同時提示ユニット(図示せず)をさらに含む。
いくつかの実施形態では、装置は、顔スタイル変換オプションをユーザに提示するように構成された変換オプション提示ユニットと、ユーザによる変換オプションの選択を受け取るように構成されたユーザ選択受取ユニット(図示せず)と、変換プロセス画像をユーザに提示するように構成されたプロセス画像提示ユニット(図示せず)と、バックグラウンドで変換前の第2の画像とは異なるスタイルの新たな第2の画像が生成されたことに応答して、新たな第2の画像をユーザに提示するように構成された第2の画像更新ユニット(図示せず)と、をさらに含む。
いくつかの実施形態では、変換オプション提示ユニットはさらに、ダイスボタンおよび動的にクリックする手の画像をユーザに提示するように構成され、ユーザ選択受取ユニットはさらに、ユーザによるダイスボタンへのクリックを受信するように構成され、プロセス画像提示ユニットはさらに、動的ダイス画像をユーザに提示するように構成されている。
いくつかの実施形態では、第2の画像更新ユニットはさらに、下向き消去の特殊効果で新たな第2の画像をユーザに提示するように構成されている。
いくつかの実施形態では、装置は、変換オプションを提示した時間が所定時間に達するまでに、ユーザによる保存オプションまたは変換オプションの選択操作が受信されず、顔画像を入力する情報をユーザに提示するステップに戻るように構成される情報提示復帰ユニット(図示せず)をさらに含む。
いくつかの実施形態では、バックグラウンドで事前トレーニングされた敵対的生成ネットワークに第1の画像を入力し、敵対的生成ネットワークから出力された第2の画像を得るステップは、バックグラウンドでクラウドサーバに位置する事前トレーニングされた敵対的生成ネットワークに第1の画像を入力し、敵対的生成ネットワークから出力された第2の画像を得るステップを含み、上記装置は、バックグラウンドでクラウドサーバに位置する事前トレーニングされた敵対的生成ネットワークに第1の画像を入力するときにネットワーク異常が検出されたことに応答して、「ネットワーク異常、再試行してください」という情報をユーザに提示し、かつ、「ネットワーク異常、再試行してください」という情報をユーザに提示した時間が所定時間に達した後に、顔画像を入力する情報をユーザに提示するステップに戻るように構成された情報提示復帰ユニットをさらに含む。
いくつかの実施形態では、上記情報提示復帰ユニットはさらに、バックグラウンドで第1の画像を事前トレーニングされた敵対的生成ネットワークに入力し、敵対的生成ネットワークから出力された第2の画像を得るための所要時間が所定時間を超えたことに応答して、「生成エラー、再試行してください」という情報をユーザに提示し、かつ、「生成エラー、再試行してください」という情報をユーザに提示した時間が所定時間に達したときに、顔画像を入力する情報をユーザに提示するステップに戻り、バックグラウンドで第1の画像を事前トレーニングされた敵対的生成ネットワークに入力し、敵対的生成ネットワークから出力された第2の画像を得る過程で異常が発生したことに応答して、「生成エラー、再試行してください」という情報をユーザに提示し、かつ、「生成エラー、再試行してください」という情報をユーザに提示した時間が所定時間に達したときに、顔画像を入力する情報をユーザに提示するステップに戻り、ユーザが他のアプリケーションに切り替え、また他のアプリケーションから戻ったことに応答して、顔画像を入力する情報をユーザに提示するステップに戻るように構成されている。
なお、装置500に記載されている各ユニットは、図2~図4を参照して説明した方法に記載されている各ステップに対応することを理解されたい。したがって、上述した方法に関する動作および特徴は、装置500およびその中に含まれる様々なユニットにも同様に適用可能であり、ここではこれ以上説明しない。
次に図6を参照すると、本開示の実施形態を実施するのに適した電子機器(例えば、図1に示すサーバまたは端末装置)600の構造概略図が示されている。本開示の実施形態における端末装置は、ノートパソコン、デスクトップコンピュータなどを含むが、これらに限定されない。図6に示す端末装置/サーバは一例にすぎず、本開示の実施形態の機能および使用範囲に制限を与えるべきではない。
図6に示すように、電子機器600は、読み取り専用メモリ(RОM)602に記憶されているプログラム、又は記憶装置608からランダムアクセスメモリ(RAM)603にロードされたプログラムに応じて様々な適切な動作及び処理を実行する処理装置(例えば、CPU、グラフィックスプロセッサなど)601を含むことができる。RAM603には、電子機器600の動作に必要な各種のプログラム及びデータも記憶されている。処理装置601、RОM602及びRAM603は、バス604を介して互いに接続されている。バス604には、入出力(I/O)インタフェース605も接続されている。
一般に、タッチスクリーン、タッチパッド、キーボード、マウス、カメラ、マイク、加速度計、ジャイロスコープなどの入力装置606、液晶ディスプレイ(LCD)、スピーカ、振動子などの出力装置607、テープ、ハードディスクなどの記憶装置608、及び通信装置609は、I/Oインタフェース605に接続することができる。通信装置609は、データを交換するために、電子機器600が他の装置と無線又は有線通信を行うことを可能にすることができる。図6は、様々な装置を有する電子機器600を示しているが、図示した全ての装置を実施又は備えることが要求されていないことを理解されたい。代替的に、より多く又はより少ない装置を実施又は備えることができる。図6に示す各ブロックは、1つのデバイスを表してもよく、必要に応じて複数のデバイスを代表してもよい。
特に、本開示の実施形態によれば、フローチャートを参照して上述したプロセスは、コンピュータソフトウェアプログラムとして実施されることが可能である。例えば、本開示の実施形態は、フローチャートに示された方法を実行するためのプログラムコードを含む、コンピュータ可読媒体上に担持されたコンピュータプログラム製品を含む。このような実施形態では、該コンピュータプログラムは、通信装置609を介してネットワークからダウンロードされインストールされたり、記憶装置608からインストールされたり、RОM602からインストールされたりすることができる。このコンピュータプログラムが処理装置601によって実行されると、本開示の実施形態の方法に限定された上記機能が実行される。なお、本開示の実施形態で説明したコンピュータ可読媒体は、コンピュータ可読信号媒体若しくはコンピュータ可読記憶媒体、又はこれらの任意の組合せであり得る。コンピュータ可読記憶媒体は、例えば、電気的、磁気的、光学的、電磁気的、赤外線の、又は半導体のシステム、装置若しくはデバイス、又はこれらの任意の組み合せであり得るが、これらに限られない。コンピュータ可読記憶媒体のより具体的な例は、1本又は複数本の導線により電気的に接続された、携帯型コンピュータディスク、ハードディスク、ランダムアクセスメモリ(RAM)、読み取り専用メモリ(RОM)、消去可能プログラマブル読取り専用メモリ(EPRОM又はフラッシュメモリ)、携帯型コンパクトディスク読取り専用メモリ(CD-RОM)、光メモリ、磁気メモリ、又は上記の任意の適切な組み合せを含むが、これらに限られない。本開示の実施形態では、コンピュータ可読記憶媒体は、命令実行システム、装置又はデバイスによって使用されることもそれらに結合して使用されることも可能なプログラムを含む又は記憶する任意の有形の媒体であり得る。本開示の実施形態では、コンピュータ可読信号媒体は、ベースバンド内において又はキャリアの一部として伝播された、コンピュータ可読プログラムコードを搬送しているデータ信号を含んでもよい。このような伝播されたデータ信号は、電磁信号、光信号、又はこれらの任意の適切な組み合せを含むが、これらに限られない様々な形態を採用することができる。コンピュータ可読信号媒体はまた、コンピュータ可読記憶媒体以外の任意のコンピュータ可読媒体であってもよい。このコンピュータ可読信号媒体は、命令実行システム、装置又はデバイスによって使用されることもそれらに結合して使用されることも可能なプログラムを送信、伝播又は伝送することができる。コンピュータ可読媒体に含まれているプログラムコードは、電線、光ケーブル、RF(無線周波数)など、又はこれらの任意の適切な組合せを含むが、これらに限られない任意の適切な媒体で伝送することができる。
上記コンピュータ可読媒体は、上記電子機器に含まれるものであってもよく、個別に存在しており、該電子機器に組み込まれていないものであってもよい。上記コンピュータ可読媒体には1つ以上のプログラムが格納されており、上記1つ以上のプログラムが該電子機器によって実行されると、当該電子機器は、ユーザから入力した顔を含む第1の画像を受信するステップと、第1の画像をユーザに提示するステップと、バックグラウンドで入力された画像に基づいて生成された顔属性情報を制約とする事前トレーニングされた敵対的生成ネットワークに第1の画像を入力し、敵対的生成ネットワークから出力された第2の画像を得るステップと、バックグラウンドで敵対的生成ネットワークから出力された第2の画像が得られたことに応答して、第2の画像をユーザに提示するステップと、を実行する。
本出願の実施形態の動作を実行するためのコンピュータプログラムコードは、1つ又は複数のプログラミング言語、又はそれらの組み合せで書くことができる。プログラミング言語は、Java、Smalltalk、C++などのオブジェクト指向プログラミング言語や、「C」言語又は類似するプログラミング言語などの従来の手続き型プログラミング言語を含む。プログラムコードは、完全にユーザのコンピュータ上で実行されることも、部分的にユーザのコンピュータ上で実行されることも、スタンドアロンソフトウェアパッケージとして実行されることも、部分的にユーザのコンピュータ上で実行されながら部分的にリモートコンピュータ上で実行されることも、又は完全にリモートコンピュータ又はサーバ上で実行されることも可能である。リモートコンピュータの場合、リモートコンピュータは、ローカルエリアネットワーク(LAN)又はワイドエリアネットワーク(WAN)を含む任意の種類のネットワークを介してユーザのコンピュータに接続されることができる。又は、外部のコンピュータに接続されることができる(例えば、インターネットサービスプロバイダーによるインターネット経由で接続される)。
図面におけるフローチャート及びブロック図は、本出願の様々な実施形態に係るシステム、方法、及びコンピュータプログラム製品の実施可能なアーキテクチャ、機能、及び動作を示している。ここで、フローチャート又はブロック図における各ブロックは、モジュール、プログラムセグメント、又はコードの一部を表すことができる。該モジュール、プログラムセグメント、又はコードの一部は、指定されたロジック関数を実施するための1つ又は複数の実行可能な命令を含む。また、いくつかの代替的な実施形態では、ブロックに記載されている機能は、図面に示されているものとは異なる順序で発生する場合があることにも留意されたい。例えば、連続して表されている2つのブロックは、実際にほぼ並行して実行されてもよく、時には逆の順序で実行されてもよい。これは関連する機能によって決まる。また、ブロック図及び/又はフローチャートにおける各ブロック、及びブロック図及び/又はフローチャートにおけるブロックの組み合せは、指定された機能又は動作を実行する専用のハードウェアベースのシステムで実施することも、又は専用のハードウェアとコンピュータの命令の組み合せで実施することも可能であることに留意されたい。
本開示の実施形態において説明されたユニットは、ソフトウェアまたはハードウェアによって実施され得る。説明されたユニットはプロセッサに内蔵されてもよい。例えば、「第1の画像入力ユニットと、第1の画像提示ユニットと、第2の画像出力ユニットと、第2の画像提示ユニットと、を含むプロセッサ」と説明することができる。なお、これらのユニットの名称は、場合によってはユニット自体を限定するものではない。例えば、第1の画像入力ユニットは、「ユーザが入力した顔を含む第1の画像を受信するユニット」と説明することもできる。
上記の説明は、あくまでも本出願の好ましい実施形態および応用技術原理の説明にすぎない。本出願に係る発明の範囲は、上記の技術的特徴の特定の組み合わせによって形成された技術的解決手段に限定されず、上記の発明の構想から逸脱しない範囲で上記の技術的特徴またはその同等の技術的特徴の任意の組み合せによって形成されたその他の技術的解決手段、例えば、上記の特徴と本出願に開示された同様の機能を有する技術的特徴(それだけに限定されない)とが相互に代替することによって形成された技術的解決手段もカバーしていることを当業者は理解すべきである。
なお、本願の出願当初の開示事項を維持するために、本願の出願当初の請求項1~26の記載内容を以下に追加する。
(請求項1)
ユーザから入力した顔を含む第1の画像を受信するステップと、
前記第1の画像をユーザに提示するステップと、
バックグラウンドで、入力された画像に基づいて生成された顔属性情報を制約とする事前トレーニングされた敵対的生成ネットワークに前記第1の画像を入力し、敵対的生成ネットワークから出力された第2の画像を得るステップと、
バックグラウンドで敵対的生成ネットワークから出力された第2の画像が得られたことに応答して、前記第2の画像をユーザに提示するステップと
を含むことを特徴とする、顔画像の生成方法。
(請求項2)
前記方法は、ユーザから入力した顔を含む第1の画像を受信するステップの前に、
対話シーンにおいて、顔変換の指示を受けるステップと、
顔画像を入力する情報をユーザに提示するステップと
をさらに含むことを特徴とする、請求項1に記載の方法。
(請求項3)
顔画像を入力する情報をユーザに提示するステップは、顔自動撮影画面をユーザに提示するステップを含み、
ユーザから入力した顔を含む第1の画像を受信するステップは、ユーザが自動撮影画面で顔を入力したことが検出されたことに応答して、自動撮影機能をトリガして前記第1の画像を得るステップを含むことを特徴とする、請求項2に記載の方法。
(請求項4)
顔自動撮影画面をユーザに提示するステップは、
所定スタイルの枠および/または撮影要件を含む自動撮影画面をユーザに提示するステップと、
撮影画面で顔が検出されなかったことに応答して、顔が検出されなかった提示情報をユーザに提示するステップと
のうちの少なくとも1項を含むことを特徴とする、請求項3に記載の方法。
(請求項5)
顔自動撮影画面をユーザに提示するステップは、
撮影画面で顔が検出されたことに応答して、自動撮影カウントダウンをユーザに提示するステップと、
自動撮影カウントダウンが終了したことに応答して、検出された顔を撮影するステップと、
自動撮影カウントダウン期間内にユーザからの顔の入力がなかったことに応答して、カウントダウンを終了し、顔が検出されなかった提示情報をユーザに提示するステップと
をさらに含むことを特徴とする、請求項3に記載の方法。
(請求項6)
前記第1の画像をユーザに提示するステップは、
前記第1の画像をユーザに所定時間提示した後に、提示された前記第1の画像にマスキングレイヤーを設け、対話シーンにおいて顔変換進行状況提示情報を表示するステップを含むことを特徴とする、請求項4に記載の方法。
(請求項7)
前記所定スタイルの枠は、前記顔変換進行状況提示情報の設計スタイルと同一または類似していることを特徴とする、請求項6に記載の方法。
(請求項8)
事前トレーニングされた敵対的生成ネットワークに前記第1の画像を入力するステップは、
前記第1の画像に対して異なる程度のガウシアンぼかしを行い、異なる程度のガウシアンぼかし後の第1の画像を事前トレーニングされた敵対的生成ネットワークに入力するステップを含むか、または、
前記第1の画像のテクスチャ特徴パラメータ値がテクスチャ閾値よりも大きいか否かを検出し、大きい場合、前記第1の画像に対して異なる程度のガウシアンぼかしを行い、異なる程度のガウシアンぼかし後の第1の画像を事前トレーニングされた敵対的生成ネットワークに入力するステップを含むことを特徴とする、請求項1に記載の方法。
(請求項9)
前記敵対的生成ネットワークが入力された画像に基づいて生成された顔属性情報を制約とすることは、
前記敵対的生成ネットワークが入力された画像に基づいて生成されたマルチチャネルの顔画像を入力とするステップを含み、
前記マルチチャネルの顔画像は、
入力された画像のRGB3チャネル画像と、
入力された画像のうち、顔のキーポイントの1チャネル二値画像またはRGB3チャネル画像、顔のセマンティックセグメンテーション結果の1チャネル二値画像またはRGB3チャネル画像、および髪の1チャネル二値画像のうちの少なくとも1項と
を含むことを特徴とする、請求項1または8に記載の方法。
(請求項10)
前記方法は、前記第2の画像をユーザに所定時間提示した後に、前記第1の画像と前記第2の画像を同時にユーザに提示するステップをさらに含むことを特徴とする、請求項1に記載の方法。
(請求項11)
前記方法は、
顔スタイル変換オプションをユーザに提示するステップと、
ユーザによる変換オプションの選択を受け取るステップと、
変換プロセス画像をユーザに提示するステップと、
バックグラウンドで変換前の第2の画像とは異なるスタイルを有する新たな第2の画像が生成されたことに応答して、新たな第2の画像をユーザに提示するステップと
をさらに含むことを特徴とする、請求項2に記載の方法。
(請求項12)
顔スタイル変換オプションをユーザに提示するステップは、ダイスボタンの画像および動的にクリックする手の画像をユーザに提示するステップを含み、
ユーザによる変換オプションの選択を受け取るステップは、ユーザによるダイスボタンへのクリックを受け取るステップを含み、
変換プロセス画像をユーザに提示するステップは、動的ダイス画像をユーザに提示するステップを含むことを特徴とする、請求項11に記載の方法。
(請求項13)
新たな第2の画像をユーザに提示するステップは、下向き消去の特殊効果で新たな第2の画像をユーザに提示するステップを含むことを特徴とする、請求項11に記載の方法。
(請求項14)
前記方法は、変換オプションを提示した後、所定時間内にユーザによる保存オプションまたは前記変換オプションへの選択操作を受け取っていないことに応じて、顔画像を入力する情報をユーザに提示するステップに戻るステップをさらに含むことを特徴とする、請求項11に記載の方法。
(請求項15)
バックグラウンドで事前トレーニングされた敵対的生成ネットワークに前記第1の画像を入力し、敵対的生成ネットワークから出力された第2の画像を得るステップは、
バックグラウンドで前記第1の画像をクラウドサーバに位置する事前トレーニングされた敵対的生成ネットワークに入力し、敵対的生成ネットワークから出力された第2の画像を得るステップを含み、
前記方法は、バックグラウンドで前記第1の画像をクラウドサーバに位置する事前トレーニングされた敵対的生成ネットワークに入力するときにネットワーク異常が検出されたことに応答して、「ネットワーク異常、再試行してください」という情報をユーザに提示し、かつ、「ネットワーク異常、再試行してください」という情報をユーザに所定時間提示した後に、顔画像を入力する情報をユーザに提示するステップに戻るステップ、をさらに含むことを特徴とする、請求項1に記載の方法。
(請求項16)
前記方法は、
バックグラウンドで事前トレーニングされた敵対的生成ネットワークに前記第1の画像を入力し、敵対的生成ネットワークから出力された第2の画像を得るための所要時間が事前設定された時間を超えたことに応答して、「生成エラー、再試行してください」という情報をユーザに提示し、かつ、「生成エラー、再試行してください」という情報をユーザに提示した時間が所定時間に達したときに、顔画像を入力する情報をユーザに提示するステップに戻るステップと、
バックグラウンドで事前トレーニングされた敵対的生成ネットワークに前記第1の画像を入力し、敵対的生成ネットワークから出力された第2の画像を得る過程で異常が発生したことに応答して、「生成エラー、再試行してください」という情報をユーザに提示し、かつ、「生成エラー、再試行してください」という情報をユーザに提示した時間が所定時間に達したときに、顔画像を入力する情報をユーザに提示するステップに戻るステップと、
ユーザが他のアプリケーションに切り替え、また他のアプリケーションから戻ったことに応答して、顔画像を入力する情報をユーザに提示するステップに戻るステップと
の少なくとも1項をさらに含むことを特徴とする、請求項1に記載の方法。
(請求項17)
ユーザから入力した顔を含む第1の画像を受信するように構成された第1の画像入力ユニットと、
前記第1の画像をユーザに提示するように構成された第1の画像提示ユニットと、
バックグラウンドで、入力された画像に基づいて生成された顔属性情報を制約とする事前トレーニングされた敵対的生成ネットワークに前記第1の画像を入力し、敵対的生成ネットワークから出力された第2の画像を得るように構成された第2の画像出力ユニットと、
バックグラウンドで敵対的生成ネットワークから出力された第2の画像が得られたことに応答して、前記第2の画像をユーザに提示するように構成された第2の画像提示ユニットと
を含むことを特徴とする、顔画像の生成装置。
(請求項18)
前記第1の画像提示ユニットはさらに、前記第1の画像をユーザに所定時間提示した後に、提示された前記第1の画像にマスキングレイヤーを設け、対話シーンにおいて顔変換進行状況提示情報を表示するように構成されていることを特徴とする、請求項17に記載の装置。
(請求項19)
前記第2の画像出力ユニットはさらに、
前記第1の画像に対して異なる程度のガウシアンぼかしを行い、異なる程度のガウシアンぼかし後の第1の画像を事前トレーニングされた敵対的生成ネットワークに入力するか、または、
前記第1の画像のテクスチャ特徴パラメータ値がテクスチャ閾値よりも大きいか否かを検出し、大きい場合、前記第1の画像に対して異なる程度のガウシアンぼかしを行い、異なる程度のガウシアンぼかし後の第1の画像を事前トレーニングされた敵対的生成ネットワークに入力するように構成されていることを特徴とする、請求項17に記載の装置。
(請求項20)
前記第2の画像出力ユニットで用いられる前記敵対的生成ネットワークが入力された画像に基づいて生成された顔属性情報を制約とすることは、
前記敵対的生成ネットワークが入力された画像に基づいて生成されたマルチチャネルの顔画像を入力とするステップを含み、
前記マルチチャネルの顔画像は、
入力された画像のRGB3チャネル画像と、
入力された画像のうち、顔のキーポイントの1チャネル二値画像またはRGB3チャネル画像、顔のセマンティックセグメンテーション結果の1チャネル二値画像またはRGB3チャネル画像、および髪の1チャネル二値画像のうちの少なくとも1項と
を含むことを特徴とする、請求項17または19に記載の装置。
(請求項21)
前記装置は、
顔スタイル変換オプションをユーザに提示するように構成された変換オプション提示ユニットと、
ユーザによる変換オプションの選択を受け取るように構成されたユーザ選択受取ユニットと、
変換プロセス画像をユーザに提示するように構成されたプロセス画像提示ユニットと、
バックグラウンドで変換前の第2の画像とは異なるスタイルを有する新たな第2の画像が生成されたことに応答して、新たな第2の画像をユーザに提示するように構成された第2の画像更新ユニットと
をさらに含むことを特徴とする、請求項17に記載の装置。
(請求項22)
前記変換オプション提示ユニットはさらに、ダイスボタンの画像および動的にクリックする手の画像をユーザに提示するように構成され、
前記ユーザ選択受取ユニットはさらに、ユーザによるダイスボタンへのクリックを受け取るように構成され、
前記プロセス画像提示ユニットはさらに、動的ダイス画像をユーザに提示するように構成されていることを特徴とする、請求項21に記載の装置。
(請求項23)
前記第2の画像更新ユニットはさらに、下向き消去の特殊効果で新たな第2の画像をユーザに提示するように構成されていることを特徴とする、請求項21に記載の装置。
(請求項24)
前記装置は、変換オプションを提示した後、所定時間内にユーザによる保存オプションまたは前記変換オプションへの選択操作を受け取っていないことに応じて、顔画像を入力する情報をユーザに提示するステップに戻るように構成された情報提示復帰ユニットをさらに含むことを特徴とする、請求項21に記載の装置。
(請求項25)
1つまたは複数のプロセッサと、
1つまたは複数のプログラムを記憶するための記憶装置と
を含む電子機器であって、
前記1つまたは複数のプログラムが前記1つまたは複数のプロセッサによって実行されると、前記1つまたは複数のプロセッサに請求項1~16のいずれか1項に記載の方法を実施させることを特徴とする、電子機器。
(請求項26)
コンピュータプログラムが格納されているコンピュータ可読媒体であって、
前記プログラムはプロセッサによって実行されると、請求項1~16のいずれか1項に記載の方法を実施することを特徴とする、コンピュータ可読媒体。

Claims (27)

  1. ユーザから入力した顔を含む第1の画像を受信するステップと、
    前記第1の画像をユーザに提示するステップと、
    前記第1の画像に対して異なる程度のガウシアンぼかしを行い、バックグラウンドで、入力された画像に基づいて生成された顔属性情報を制約とする事前トレーニングされた敵対的生成ネットワークに、異なる程度のガウシアンぼかしが行われた前記第1の画像を入力し、敵対的生成ネットワークから出力された第2の画像を得るステップと、
    バックグラウンドで敵対的生成ネットワークから出力された第2の画像が得られたことに応答して、前記第2の画像をユーザに提示するステップと
    を含むことを特徴とする、顔画像の生成方法。
  2. 前記方法は、ユーザから入力した顔を含む第1の画像を受信するステップの前に、
    対話シーンにおいて、顔変換の指示を受けるステップと、
    顔画像を入力する情報をユーザに提示するステップと
    をさらに含むことを特徴とする、請求項1に記載の方法。
  3. 顔画像を入力する情報をユーザに提示するステップは、顔自動撮影画面をユーザに提示するステップを含み、
    ユーザから入力した顔を含む第1の画像を受信するステップは、ユーザが自動撮影画面で顔を入力したことが検出されたことに応答して、自動撮影機能をトリガして前記第1の画像を得るステップを含むことを特徴とする、請求項2に記載の方法。
  4. 顔自動撮影画面をユーザに提示するステップは、
    所定スタイルの枠および/または撮影要件を含む自動撮影画面をユーザに提示するステップと、
    撮影画面で顔が検出されなかったことに応答して、顔が検出されなかった提示情報をユーザに提示するステップと
    のうちの少なくとも1項を含むことを特徴とする、請求項3に記載の方法。
  5. 顔自動撮影画面をユーザに提示するステップは、
    撮影画面で顔が検出されたことに応答して、自動撮影カウントダウンをユーザに提示するステップと、
    自動撮影カウントダウンが終了したことに応答して、検出された顔を撮影するステップと、
    自動撮影カウントダウン期間内にユーザからの顔の入力がなかったことに応答して、カウントダウンを終了し、顔が検出されなかった提示情報をユーザに提示するステップと
    をさらに含むことを特徴とする、請求項3に記載の方法。
  6. 前記第1の画像をユーザに提示するステップは、
    前記第1の画像をユーザに所定時間提示した後に、提示された前記第1の画像にマスキングレイヤーを設け、対話シーンにおいて顔変換進行状況提示情報を表示するステップを含むことを特徴とする、請求項4に記載の方法。
  7. 前記所定スタイルの枠は、前記顔変換進行状況提示情報の設計スタイルと同一または類似していることを特徴とする、請求項6に記載の方法。
  8. 記第1の画像に対して異なる程度のガウシアンぼかしを行う前に記第1の画像のテクスチャ特徴パラメータ値がテクスチャ閾値よりも大きいか否かを検出し、大きい場合、前記第1の画像に対する異なる程度のガウシアンぼかしを行ステップをさらに含むことを特徴とする、請求項1に記載の方法。
  9. 前記敵対的生成ネットワークが入力された画像に基づいて生成された顔属性情報を制約とすることは、
    前記敵対的生成ネットワークが入力された画像に基づいて生成されたマルチチャネルの顔画像を入力とするステップを含み、
    前記マルチチャネルの顔画像は、
    入力された画像のRGB3チャネル画像と、
    入力された画像のうち、顔のキーポイントの1チャネル二値画像またはRGB3チャネル画像、顔のセマンティックセグメンテーション結果の1チャネル二値画像またはRGB3チャネル画像、および髪の1チャネル二値画像のうちの少なくとも1項と
    を含むことを特徴とする、請求項1または8に記載の方法。
  10. 前記方法は、前記第2の画像をユーザに所定時間提示した後に、前記第1の画像と前記第2の画像を同時にユーザに提示するステップをさらに含むことを特徴とする、請求項1に記載の方法。
  11. 前記方法は、
    顔スタイル変換オプションをユーザに提示するステップと、
    ユーザによる変換オプションの選択を受け取るステップと、
    変換プロセス画像をユーザに提示するステップと、
    バックグラウンドで変換前の第2の画像とは異なるスタイルを有する新たな第2の画像が生成されたことに応答して、新たな第2の画像をユーザに提示するステップと
    をさらに含むことを特徴とする、請求項2に記載の方法。
  12. 顔スタイル変換オプションをユーザに提示するステップは、ダイスボタンの画像および動的にクリックする手の画像をユーザに提示するステップを含み、
    ユーザによる変換オプションの選択を受け取るステップは、ユーザによるダイスボタンへのクリックを受け取るステップを含み、
    変換プロセス画像をユーザに提示するステップは、動的ダイス画像をユーザに提示するステップを含むことを特徴とする、請求項11に記載の方法。
  13. 新たな第2の画像をユーザに提示するステップは、下向き消去の特殊効果で新たな第2の画像をユーザに提示するステップを含むことを特徴とする、請求項11に記載の方法。
  14. 前記方法は、変換オプションを提示した後、所定時間内にユーザによる保存オプションまたは前記変換オプションへの選択操作を受け取っていないことに応じて、顔画像を入力する情報をユーザに提示するステップに戻るステップをさらに含むことを特徴とする、請求項11に記載の方法。
  15. バックグラウンドで事前トレーニングされた敵対的生成ネットワークに前記第1の画像を入力し、敵対的生成ネットワークから出力された第2の画像を得るステップは、
    バックグラウンドで前記第1の画像をクラウドサーバに位置する事前トレーニングされた敵対的生成ネットワークに入力し、敵対的生成ネットワークから出力された第2の画像を得るステップを含み、
    前記方法は、バックグラウンドで前記第1の画像をクラウドサーバに位置する事前トレーニングされた敵対的生成ネットワークに入力するときにネットワーク異常が検出されたことに応答して、「ネットワーク異常、再試行してください」という情報をユーザに提示し、かつ、「ネットワーク異常、再試行してください」という情報をユーザに所定時間提示した後に、顔画像を入力する情報をユーザに提示するステップに戻るステップ、をさらに含むことを特徴とする、請求項1に記載の方法。
  16. 前記方法は、
    バックグラウンドで事前トレーニングされた敵対的生成ネットワークに前記第1の画像を入力し、敵対的生成ネットワークから出力された第2の画像を得るための所要時間が事前設定された時間を超えたことに応答して、「生成エラー、再試行してください」という情報をユーザに提示し、かつ、「生成エラー、再試行してください」という情報をユーザに提示した時間が所定時間に達したときに、顔画像を入力する情報をユーザに提示するステップに戻るステップと、
    バックグラウンドで事前トレーニングされた敵対的生成ネットワークに前記第1の画像を入力し、敵対的生成ネットワークから出力された第2の画像を得る過程で異常が発生したことに応答して、「生成エラー、再試行してください」という情報をユーザに提示し、かつ、「生成エラー、再試行してください」という情報をユーザに提示した時間が所定時間に達したときに、顔画像を入力する情報をユーザに提示するステップに戻るステップと、
    ユーザが他のアプリケーションに切り替え、また他のアプリケーションから戻ったことに応答して、顔画像を入力する情報をユーザに提示するステップに戻るステップと
    の少なくとも1項をさらに含むことを特徴とする、請求項1に記載の方法。
  17. ユーザから入力した顔を含む第1の画像を受信するように構成された第1の画像入力ユニットと、
    前記第1の画像をユーザに提示するように構成された第1の画像提示ユニットと、
    前記第1の画像に対して異なる程度のガウシアンぼかしを行い、バックグラウンドで、入力された画像に基づいて生成された顔属性情報を制約とする事前トレーニングされた敵対的生成ネットワークに、異なる程度のガウシアンぼかしが行われた前記第1の画像を入力し、敵対的生成ネットワークから出力された第2の画像を得るように構成された第2の画像出力ユニットと、
    バックグラウンドで敵対的生成ネットワークから出力された第2の画像が得られたことに応答して、前記第2の画像をユーザに提示するように構成された第2の画像提示ユニットと
    を含むことを特徴とする、顔画像の生成装置。
  18. 前記第1の画像提示ユニットはさらに、前記第1の画像をユーザに所定時間提示した後に、提示された前記第1の画像にマスキングレイヤーを設け、対話シーンにおいて顔変換進行状況提示情報を表示するように構成されていることを特徴とする、請求項17に記載の装置。
  19. 前記第2の画像出力ユニットはさらに、
    前記第1の画像に対して異なる程度のガウシアンぼかしを行う前に記第1の画像のテクスチャ特徴パラメータ値がテクスチャ閾値よりも大きいか否かを検出し、大きい場合、前記第1の画像に対する異なる程度のガウシアンぼかしを行ように構成されていることを特徴とする、請求項17に記載の装置。
  20. 前記第2の画像出力ユニットで用いられる前記敵対的生成ネットワークが入力された画像に基づいて生成された顔属性情報を制約とすることは、
    前記敵対的生成ネットワークが入力された画像に基づいて生成されたマルチチャネルの顔画像を入力とするステップを含み、
    前記マルチチャネルの顔画像は、
    入力された画像のRGB3チャネル画像と、
    入力された画像のうち、顔のキーポイントの1チャネル二値画像またはRGB3チャネル画像、顔のセマンティックセグメンテーション結果の1チャネル二値画像またはRGB3チャネル画像、および髪の1チャネル二値画像のうちの少なくとも1項と
    を含むことを特徴とする、請求項17または19に記載の装置。
  21. 前記装置は、
    顔スタイル変換オプションをユーザに提示するように構成された変換オプション提示ユニットと、
    ユーザによる変換オプションの選択を受け取るように構成されたユーザ選択受取ユニットと、
    変換プロセス画像をユーザに提示するように構成されたプロセス画像提示ユニットと、
    バックグラウンドで変換前の第2の画像とは異なるスタイルを有する新たな第2の画像が生成されたことに応答して、新たな第2の画像をユーザに提示するように構成された第2の画像更新ユニットと
    をさらに含むことを特徴とする、請求項17に記載の装置。
  22. 前記変換オプション提示ユニットはさらに、ダイスボタンの画像および動的にクリックする手の画像をユーザに提示するように構成され、
    前記ユーザ選択受取ユニットはさらに、ユーザによるダイスボタンへのクリックを受け取るように構成され、
    前記プロセス画像提示ユニットはさらに、動的ダイス画像をユーザに提示するように構成されていることを特徴とする、請求項21に記載の装置。
  23. 前記第2の画像更新ユニットはさらに、下向き消去の特殊効果で新たな第2の画像をユーザに提示するように構成されていることを特徴とする、請求項21に記載の装置。
  24. 前記装置は、変換オプションを提示した後、所定時間内にユーザによる保存オプションまたは前記変換オプションへの選択操作を受け取っていないことに応じて、顔画像を入力する情報をユーザに提示するステップに戻るように構成された情報提示復帰ユニットをさらに含むことを特徴とする、請求項21に記載の装置。
  25. 1つまたは複数のプロセッサと、
    1つまたは複数のプログラムを記憶するための記憶装置と
    を含む電子機器であって、
    前記1つまたは複数のプログラムが前記1つまたは複数のプロセッサによって実行されると、前記1つまたは複数のプロセッサに請求項1~16のいずれか1項に記載の方法を実施させることを特徴とする、電子機器。
  26. コンピュータプログラムが格納されているコンピュータ可読媒体であって、
    前記プログラムはプロセッサによって実行されると、請求項1~16のいずれか1項に記載の方法を実施することを特徴とする、コンピュータ可読媒体。
  27. コンピュータプログラムであって、
    前記コンピュータプログラムがプロセッサにより実行されると、請求項1~16のいずれか一項に記載の方法が実現する、コンピュータプログラム。
JP2020157447A 2020-01-20 2020-09-18 画像の生成方法、生成装置、電子機器、コンピュータ可読媒体およびコンピュータプログラム Active JP7084457B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
CN202010065590.1A CN111260545B (zh) 2020-01-20 2020-01-20 生成图像的方法和装置
CN202010065590.1 2020-01-20

Publications (2)

Publication Number Publication Date
JP2021114279A JP2021114279A (ja) 2021-08-05
JP7084457B2 true JP7084457B2 (ja) 2022-06-14

Family

ID=70948037

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020157447A Active JP7084457B2 (ja) 2020-01-20 2020-09-18 画像の生成方法、生成装置、電子機器、コンピュータ可読媒体およびコンピュータプログラム

Country Status (4)

Country Link
US (1) US11463631B2 (ja)
JP (1) JP7084457B2 (ja)
KR (1) KR102451198B1 (ja)
CN (1) CN111260545B (ja)

Families Citing this family (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6693684B2 (ja) * 2018-03-29 2020-05-13 三菱電機株式会社 異常検査装置および異常検査方法
CN111738910A (zh) * 2020-06-12 2020-10-02 北京百度网讯科技有限公司 一种图像处理方法、装置、电子设备和存储介质
CN111833242A (zh) * 2020-07-17 2020-10-27 北京字节跳动网络技术有限公司 人脸变换方法、装置、电子设备和计算机可读介质
CN111915526A (zh) * 2020-08-05 2020-11-10 湖北工业大学 一种基于亮度注意力机制低照度图像增强算法的摄影方法
US11425121B2 (en) * 2020-12-15 2022-08-23 International Business Machines Corporation Generating an evaluation-mask for multi-factor authentication
US11651525B2 (en) * 2020-12-31 2023-05-16 Accenture Global Solutions Limited Utilizing machine learning models for inserting user-generated content into media content
CN113762015A (zh) * 2021-01-05 2021-12-07 北京沃东天骏信息技术有限公司 一种图像处理方法和装置
KR20230159608A (ko) * 2021-03-30 2023-11-21 스냅 인코포레이티드 포괄적 카메라
CN113780084A (zh) * 2021-08-11 2021-12-10 上海藤核智能科技有限公司 基于生成式对抗网络的人脸数据扩增方法、电子设备和存储介质
US11908071B2 (en) * 2021-10-07 2024-02-20 Google Llc Systems and methods for reconstructing body shape and pose
CN113870422B (zh) * 2021-11-30 2022-02-08 华中科技大学 一种点云重建方法、装置、设备及介质
CN114387160B (zh) * 2022-03-23 2022-06-24 北京大甜绵白糖科技有限公司 训练方法、图像的处理方法、装置、电子设备及存储介质
CN115439375B (zh) * 2022-11-02 2023-03-24 国仪量子(合肥)技术有限公司 图像去模糊模型的训练方法和装置以及应用方法和装置
CN116137023B (zh) * 2023-04-20 2023-06-20 中国民用航空飞行学院 基于背景建模和细节增强的低照度图像增强方法
CN117057981B (zh) * 2023-10-10 2024-04-26 广州方图科技有限公司 一种图像处理方法、装置、电子设备及存储介质
CN117649695B (zh) * 2024-01-30 2024-04-12 深圳市宗匠科技有限公司 一种人脸图像生成方法、装置、设备及存储介质

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019148980A (ja) 2018-02-27 2019-09-05 株式会社サムスン日本研究所 画像変換装置及び画像変換方法
CN110706303A (zh) 2019-10-15 2020-01-17 西南交通大学 基于GANs的人脸图像生成方法

Family Cites Families (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5060233B2 (ja) * 2007-09-25 2012-10-31 富士フイルム株式会社 撮像装置およびその自動撮影方法
US8457367B1 (en) * 2012-06-26 2013-06-04 Google Inc. Facial recognition
FR3057403B1 (fr) * 2016-10-10 2019-10-18 Citel Composant integrant une varistance thermoprotegee et un eclateur en serie
CN106951867B (zh) * 2017-03-22 2019-08-23 成都擎天树科技有限公司 基于卷积神经网络的人脸识别方法、装置、系统及设备
KR102370063B1 (ko) * 2017-03-28 2022-03-04 삼성전자주식회사 얼굴 인증 방법 및 장치
US10552977B1 (en) * 2017-04-18 2020-02-04 Twitter, Inc. Fast face-morphing using neural networks
CN107577985B (zh) * 2017-07-18 2019-10-15 南京邮电大学 基于循环生成对抗网络的人脸头像卡通化的实现方法
AU2017101166A4 (en) * 2017-08-25 2017-11-02 Lai, Haodong MR A Method For Real-Time Image Style Transfer Based On Conditional Generative Adversarial Networks
CN107491771A (zh) * 2017-09-21 2017-12-19 百度在线网络技术(北京)有限公司 人脸检测方法和装置
US10482337B2 (en) * 2017-09-29 2019-11-19 Infineon Technologies Ag Accelerating convolutional neural network computation throughput
CN108537152B (zh) * 2018-03-27 2022-01-25 百度在线网络技术(北京)有限公司 用于检测活体的方法和装置
CN108550176A (zh) * 2018-04-19 2018-09-18 咪咕动漫有限公司 图像处理方法、设备及存储介质
CN108564127B (zh) * 2018-04-19 2022-02-18 腾讯科技(深圳)有限公司 图像转换方法、装置、计算机设备及存储介质
US10607065B2 (en) * 2018-05-03 2020-03-31 Adobe Inc. Generation of parameterized avatars
JP7010774B2 (ja) * 2018-06-26 2022-01-26 トヨタ自動車株式会社 中間工程状態推定方法
JP7022668B2 (ja) 2018-09-04 2022-02-18 藤森工業株式会社 粘着剤層付き光学フィルムの製造方法
KR102503939B1 (ko) * 2018-09-28 2023-02-28 한국전자통신연구원 얼굴 이미지 비식별화 장치 및 방법
CN109800732B (zh) * 2019-01-30 2021-01-15 北京字节跳动网络技术有限公司 用于生成漫画头像生成模型的方法和装置
CN110070483B (zh) * 2019-03-26 2023-10-20 中山大学 一种基于生成式对抗网络的人像卡通化方法
US20210019541A1 (en) * 2019-07-18 2021-01-21 Qualcomm Incorporated Technologies for transferring visual attributes to images
CN110503601A (zh) * 2019-08-28 2019-11-26 上海交通大学 基于对抗网络的人脸生成图片替换方法及系统
CN110648294B (zh) * 2019-09-19 2022-08-30 北京百度网讯科技有限公司 图像修复方法、装置及电子设备
US11385526B2 (en) * 2019-11-15 2022-07-12 Samsung Electronics Co., Ltd. Method of processing image based on artificial intelligence and image processing device performing the same

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019148980A (ja) 2018-02-27 2019-09-05 株式会社サムスン日本研究所 画像変換装置及び画像変換方法
CN110706303A (zh) 2019-10-15 2020-01-17 西南交通大学 基于GANs的人脸图像生成方法

Also Published As

Publication number Publication date
CN111260545B (zh) 2023-06-20
KR102451198B1 (ko) 2022-10-05
KR20210094451A (ko) 2021-07-29
US20210227152A1 (en) 2021-07-22
JP2021114279A (ja) 2021-08-05
CN111260545A (zh) 2020-06-09
US11463631B2 (en) 2022-10-04

Similar Documents

Publication Publication Date Title
JP7084457B2 (ja) 画像の生成方法、生成装置、電子機器、コンピュータ可読媒体およびコンピュータプログラム
CN110827378B (zh) 虚拟形象的生成方法、装置、终端及存储介质
JP7225188B2 (ja) ビデオを生成する方法および装置
US20220375247A1 (en) Image generation using surface-based neural synthesis
WO2021008166A1 (zh) 用于虚拟试衣的方法和装置
CN111275784B (zh) 生成图像的方法和装置
US11816773B2 (en) Music reactive animation of human characters
US11736717B2 (en) Video compression system
CN115937033A (zh) 图像生成方法、装置及电子设备
US11430158B2 (en) Intelligent real-time multiple-user augmented reality content management and data analytics system
WO2024041235A1 (zh) 图像处理方法、装置、设备、存储介质及程序产品
WO2023220163A1 (en) Multi-modal human interaction controlled augmented reality
US11983462B2 (en) Conversation guided augmented reality experience
US20230067305A1 (en) Conversation guided augmented reality experience
US20230326445A1 (en) Animated speech refinement using machine learning
US20230252972A1 (en) Emotion-based text to speech
US11984114B2 (en) Speech to intent
US20240087266A1 (en) Deforming real-world object using image warping
WO2024058966A1 (en) Deforming real-world object using image warping
WO2023060111A1 (en) Speech recognition with intent estimation
WO2024086534A1 (en) Stylizing a whole-body of a person
CN115861491A (zh) 舞蹈动画的生成方法、电子设备、存储介质和程序产品
CN117710263A (zh) 图像处理方法、装置、电子设备及存储介质
CN115828844A (zh) 一种数据处理方法、装置、设备及存储介质

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201030

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20201030

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20211124

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220214

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220513

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220602

R150 Certificate of patent or registration of utility model

Ref document number: 7084457

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150