JP2022060420A - アバター生成装置およびコンピュータプログラム - Google Patents

アバター生成装置およびコンピュータプログラム Download PDF

Info

Publication number
JP2022060420A
JP2022060420A JP2022025411A JP2022025411A JP2022060420A JP 2022060420 A JP2022060420 A JP 2022060420A JP 2022025411 A JP2022025411 A JP 2022025411A JP 2022025411 A JP2022025411 A JP 2022025411A JP 2022060420 A JP2022060420 A JP 2022060420A
Authority
JP
Japan
Prior art keywords
animal
measured values
avatar
basic model
model
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2022025411A
Other languages
English (en)
Other versions
JP7357706B2 (ja
Inventor
クォン,スンホ
Soon Ho Kwon
ユ,グムリョン
Geum Yong Yoo
イム,ヨンソン
Yongseon Yim
キム,ジョンフン
Jeong Hoon Kim
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Line Plus Corp
Original Assignee
Line Plus Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Line Plus Corp filed Critical Line Plus Corp
Priority to JP2022025411A priority Critical patent/JP7357706B2/ja
Publication of JP2022060420A publication Critical patent/JP2022060420A/ja
Application granted granted Critical
Publication of JP7357706B2 publication Critical patent/JP7357706B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T13/00Animation
    • G06T13/203D [Three Dimensional] animation
    • G06T13/403D [Three Dimensional] animation of characters, e.g. humans, animals or virtual beings
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/50Information retrieval; Database structures therefor; File system structures therefor of still image data
    • G06F16/58Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/583Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
    • G06F16/5854Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content using shape and object relationship
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/20Information retrieval; Database structures therefor; File system structures therefor of structured data, e.g. relational data
    • G06F16/22Indexing; Data structures therefor; Storage structures
    • G06F16/2228Indexing structures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/50Information retrieval; Database structures therefor; File system structures therefor of still image data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/50Information retrieval; Database structures therefor; File system structures therefor of still image data
    • G06F16/55Clustering; Classification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/10Geometric effects
    • G06T15/20Perspective computation
    • G06T15/205Image-based rendering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/14Transformations for image registration, e.g. adjusting or mapping for alignment of images
    • G06T3/147Transformations for image registration, e.g. adjusting or mapping for alignment of images using affine transformations
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • G06V40/165Detection; Localisation; Normalisation using facial parts and geometric relationships
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • G06V40/171Local features and components; Facial parts ; Occluding parts, e.g. glasses; Geometrical relationships
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • G06T2207/30201Face
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2215/00Indexing scheme for image rendering
    • G06T2215/16Using real world measurements to influence rendering

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Data Mining & Analysis (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • Databases & Information Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Geometry (AREA)
  • Library & Information Science (AREA)
  • Computing Systems (AREA)
  • Computer Graphics (AREA)
  • Software Systems (AREA)
  • Processing Or Creating Images (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

【課題】 人間の顔を利用した動物形状のアバターを生成する方法およびシステムを提供する。【解決手段】 本発明の実施形態に係るアバター生成方法により、人間の顔が含まれたイメージを分析して、人間の顔に対応する動物形状のアバターを自動で生成することができる。【選択図】 図3

Description

以下の説明は、人間の顔を利用した動物形状のアバターを生成する方法およびシステムに関し、より詳細には、人間の顔が含まれたイメージを分析して人間の顔に対応する動物形状のアバターを自動で生成するアバター生成方法、アバター生成方法を実行するコンピュータ装置、コンピュータと結合してアバター生成方法をコンピュータに実行させるためにコンピュータ読み取り可能な記録媒体に記録されたコンピュータプログラムとその記録媒体に関する。
アバター(avatar)とは、サイバー空間でユーザの分身を表す視覚的イメージであって、コミュニティーサイト、インターネットチャット、ショッピングモール、オンラインゲームなどでユーザの代わりに表示される仮想グラフィックキャラクタを意味する。例えば、韓国公開特許第10-2007-0036857号公報は、ユーザ基盤のアバター生成方法に関するものであって、3Dスキャナによってユーザをスキャンしてパターンデータを生成し、生成されたパターンデータを利用してユーザの3Dアバターイメージを生成する技術を開示している。
韓国公開特許第10-2007-0036857号公報
本願の課題は、人間の顔が含まれたイメージを分析して人間の顔に対応する動物形状のアバターを自動で生成するアバター生成方法、アバター生成方法を実行するコンピュータ装置、コンピュータと結合してアバター生成方法をコンピュータに実行させるためにコンピュータ読み取り可能な記録媒体に記録されたコンピュータプログラムとその記録媒体などを提供することである。
動物の顔を含む多数の動物イメージそれぞれに対し、前記動物の顔を数値化した第1測定値集合を生成する段階、前記多数の動物イメージから得られる動物分類ごとに対応する第1測定値集合をデータベースに記録する段階、前記動物分類ごとに基本モデルを生成する段階、人間の顔を数値化した第2測定値集合を受信して前記データベースに記録された第1測定値集合と比較することにより、前記人間の顔に対応する動物分類を決定する段階、前記決定された動物分類に対応して生成された基本モデルを確認する段階、および前記人間の顔に対応する動物形状のアバターを提供するために、前記確認された基本モデルを前記人間の顔に対応させて処理する段階を含む、アバター生成方法を提供する。
一側面によると、前記第1測定値集合は、前記動物の顔に対する顔構成要素として予め定義された特徴それぞれに対して予め定義された測定項目ごとに測定値を抽出することにより生成されてよく、前記第2測定値集合は、前記人間の顔に対する顔構成要素として、前記特徴それぞれに対して前記測定項目ごとに測定値を抽出することにより生成されてよい。
他の側面によると、前記第1測定値集合を生成する段階は、ディープラーニングモデルを利用して前記多数の動物イメージを分析し、前記多数の動物イメージそれぞれが含む動物を分類して前記動物分類を決定する段階を含んでよい。
また他の側面によると、前記基本モデルを生成する段階は、前記データベースに同じ動物分類と連係されて記録された第1測定値集合で互いに対応する要素の平均値を計算し、前記計算された平均値の集合に基づいて前記基本モデルを生成してよい。
また他の側面によると、前記動物分類を決定する段階は、前記第2測定値集合を前記データベースに記録された第1測定値集合と順に比較し、類似度が高い順にm個の測定値集合に対応するn(nは自然数)個の動物分類を決定する段階を含んでよく、前記基本モデルを確認する段階は、前記n個の動物分類それぞれに対して生成されたn個の基本モデルを確認してよい。
また他の側面によると、前記確認されたn個の基本モデルを合成することによって最終モデルが生成されてよい。
さらに他の側面によると、前記確認された基本モデルを前記人間の顔に対応させて処理する段階は、前記確認された基本モデルに該当する数値を前記第2測定値集合に基づいて修正し、前記確認された基本モデルを前記人間の顔に合わせてカスタマイズしてよい。
ユーザ端末からネットワークを介して人間の顔が含まれたイメージを受信する段階、前記イメージに含まれた人間の顔を数値化して第1測定値集合を生成する段階、前記第1測定値集合を分析サーバに伝達する段階、動物イメージを分析して動物の顔を数値化することによって生成された第2測定値集合が動物分類ごとに記録されたデータベースと前記伝達された第1測定値集合に基づいて選択された動物分類に対する基本モデルを前記分析サーバから受信する段階、および前記人間の顔に対応する動物形状のアバターを提供するために、前記基本モデルまたは前記基本モデルによって生成される最終モデルを前記ユーザ端末と共有する段階を含む、アバター生成方法を提供する。
人間の顔が含まれたイメージを生成または選択する段階、前記選択されたイメージをネットワークを介してサーバに送信する段階、前記イメージが含む人間の顔を数値化して生成された第1測定値集合と動物イメージが含む動物の顔を数値化して生成された第2測定値集合との比較によって選択された動物モデルを前記サーバから受信する段階、および前記受信した動物モデルをレンダリングして生成された動物アバターを画面に表示する段階を含む、アバター生成方法を提供する。
コンピュータと結合して前記制御方法をコンピュータに実行させるためにコンピュータ読み取り可能な記録媒体に記録された、コンピュータプログラムを提供する。
前記制御方法をコンピュータに実行させるためのプログラムが記録されている、コンピュータ読み取り可能な記録媒体を提供する。
コンピュータ装置で読み取り可能な命令を実行するように実現される少なくとも1つのプロセッサを含み、前記少なくとも1つのプロセッサにより、動物の顔を含む多数の動物イメージそれぞれに対して前記動物の顔を数値化した第1測定値集合を生成し、前記多数の動物イメージから得られる動物分類ごとに対応する第1測定値集合をデータベースに記録し、前記動物分類ごとに基本モデルを生成し、人間の顔を数値化した第2測定値集合を受信して前記データベースに記録された第1測定値集合と比較することによって前記人間の顔に対応する動物分類を決定し、前記決定された動物分類に対応して生成された基本モデルを確認し、前記人間の顔に対応する動物形状のアバターを提供するために、前記確認された基本モデルを前記人間の顔に対応させて処理する、コンピュータ装置を提供する。
コンピュータ装置で読み取り可能な命令を実行するように実現される少なくとも1つのプロセッサを含み、前記少なくとも1つのプロセッサにより、ユーザ端末からネットワークを介して人間の顔が含まれたイメージを受信し、前記イメージに含まれた人間の顔を数値化して第1測定値集合を生成し、前記第1測定値集合を分析サーバに伝達し、動物イメージを分析して動物の顔を数値化することによって生成された第2測定値集合が動物分類ごとに記録されたデータベースと前記伝達された第1測定値集合によって選択された動物分類に対する基本モデルを前記分析サーバから受信し、前記人間の顔に対応する動物形状のアバターを提供するために、前記基本モデルまたは前記基本モデルによって生成される最終モデルを前記ユーザ端末と共有する、コンピュータ装置を提供する。
コンピュータ装置で読み取り可能な命令を実行するように実現される少なくとも1つのプロセッサを含み、前記少なくとも1つのプロセッサにより、人間の顔が含まれたイメージを生成または選択する段階、前記選択されたイメージをネットワークを介してサーバに送信する段階、前記イメージが含む人間の顔を数値化して生成された第1測定値集合と動物イメージが含む動物の顔を数値化して生成された第2測定値集合との比較によって選択された動物モデルを前記サーバから受信する段階、および前記受信した動物モデルをレンダリングして生成された動物アバターを画面に表示する、コンピュータ装置を提供する。
人間の顔が含まれたイメージを分析して、人間の顔に対応する動物形状のアバターを自動で生成することができる。
本発明の一実施形態における、ネットワーク環境の例を示した図である。 本発明の一実施形態における、コンピュータ装置の例を示したブロック図である。 本発明の一実施形態における、アバター生成過程の例を示したフローチャートである。 本発明の一実施形態における、イメージを数値化する例を示した図である。 本発明の一実施形態における、イメージを数値化する例を示した図である。 本発明の一実施形態における、モデル合成過程の例を示した図である。
以下、本発明の実施形態について、添付の図面を参照しながら詳しく説明する。
本発明の実施形態に係る制御方法は、以下で説明する電子デバイスのようなコンピュータ装置によって実現されてよい。このとき、コンピュータ装置においては、本発明の一実施形態に係るコンピュータプログラムがインストールされて実行されてよく、コンピュータ装置は、実行されるコンピュータプログラムの制御にしたがって本発明の実施形態に係る制御方法を実行してよい。上述したコンピュータプログラムは、コンピュータ装置と結合して前記制御方法をコンピュータに実行させるためにコンピュータ読み取り可能な記録媒体に記録されてよい。
図1は、本発明の一実施形態における、ネットワーク環境の例を示した図である。図1のネットワーク環境は、複数の電子デバイス110、120、130、140、複数のサーバ150、160、およびネットワーク170を含む例を示している。このような図1は、発明の説明のための一例に過ぎず、電子デバイスの数やサーバの数が図1のように限定されることはない。
複数の電子デバイス110、120、130、140は、コンピュータ装置によって実現される固定端末や移動端末であってよい。複数の電子デバイス110、120、130、140の例としては、スマートフォン、携帯電話、ナビゲーション、PC(personal computer)、ノート型パンコン、デジタル放送用端末、PDA(Personal Digital Assistant)、PMP(Portable Multimedia Player)、タブレットなどがある。一例として、図1では、電子デバイス1(110)の例としてスマートフォンを示しているが、本発明の実施形態において、電子デバイス1(110)は、実質的に無線または有線通信方式を利用し、ネットワーク170を介して他の電子デバイス120、130、140および/またはサーバ150、160と通信することのできる多様な物理的なコンピュータ装置のうちの1つを意味してよい。
通信方式が限定されることはなく、ネットワーク170が含むことのできる通信網(一例として、移動通信網、有線インターネット、無線インターネット、放送網)を利用する通信方式だけではなく、デバイス間の近距離無線通信が含まれてもよい。例えば、ネットワーク170は、PAN(personal area network)、LAN(local area network)、CAN(campus area network)、MAN(metropolitan area network)、WAN(wide area network)、BBN(broadband network)、インターネットなどのネットワークのうちの1つ以上の任意のネットワークを含んでよい。さらに、ネットワーク170は、バスネットワーク、スターネットワーク、リングネットワーク、メッシュネットワーク、スター-バスネットワーク、ツリーまたは階層的ネットワークなどを含むネットワークトポロジのうちの任意の1つ以上を含んでもよいが、これに限定されることはない。
サーバ150、160それぞれは、複数の電子デバイス110、120、130、140とネットワーク170を介して通信して命令、コード、ファイル、コンテンツ、サービスなどを提供する1つ以上のコンピュータ装置によって実現されてよい。例えば、サーバ150は、ネットワーク170を介して接続した複数の電子デバイス110、120、130、140にサービス(一例として、コンテンツ提供サービス、ソーシャルネットワークサービス、メッセージングサービス、検索サービス、メールサービスなど)を提供するシステムであってよい。
上述した図1では、サーバとクライアントの通信環境の例について説明しているが、これは一実施形態に過ぎず、本発明の実施形態に係る制御方法は、複数の電子デバイス110、120、130、140それぞれで個別に実行されてもよい。例えば、図1の実施形態に係る制御方法は、電子デバイス110がサーバ150からコンテンツの提供を受けてメディアプレイヤで再生する場合についての説明であってよい。他の実施形態では、電子デバイス110がサーバ150とは通信せず、電子デバイス110のローカル保存場所に保存されたコンテンツをメディアプレイヤで再生する場合を含んでよい。
図2は、本発明の一実施形態における、コンピュータ装置の例を示したブロック図である。上述した複数の電子デバイス110、120、130、140それぞれやサーバ150、160それぞれは、図2に示したコンピュータ装置200によって実現されてよい。例えば、コンピュータ装置200においては、一実施形態に係るコンピュータプログラムがインストールされて実行されてよく、コンピュータ装置は、実行されるコンピュータプログラムの制御にしたがって本発明の一実施形態に係る音源再生共有方法を実行してよい。
このようなコンピュータ装置200は、図2に示すように、メモリ210、プロセッサ220、通信インタフェース230、および入力/出力インタフェース240を含んでよい。メモリ210は、コンピュータ読み取り可能な記録媒体であって、RAM(random access memory)、ROM(read only memory)、およびディスクドライブのような永続的大容量記録装置を含んでよい。ここで、ROMやディスクドライブのような永続的大容量記録装置は、メモリ210とは区分される別の永続的記録装置としてコンピュータ装置200に含まれてもよい。また、メモリ210には、オペレーティングシステムと、少なくとも1つのプログラムコードが記録されてよい。このようなソフトウェア構成要素は、メモリ210とは別のコンピュータ読み取り可能な記録媒体からメモリ210にロードされてよい。このような別のコンピュータ読み取り可能な記録媒体は、フロッピードライブ、ディスク、テープ、DVD/CD-ROMドライブ、メモリカードなどのコンピュータ読み取り可能な記録媒体を含んでよい。他の実施形態において、ソフトウェア構成要素は、コンピュータ読み取り可能な記録媒体ではない通信インタフェース230を通じてメモリ210にロードされてもよい。例えば、ソフトウェア構成要素は、ネットワーク170を介して受信されるファイルによってインストールされるコンピュータプログラムに基づいてコンピュータ装置200のメモリ210にロードされてよい。
プロセッサ220は、基本的な算術、ロジック、および入出力演算を実行することにより、コンピュータプログラムの命令を処理するように構成されてよい。命令は、メモリ210または通信インタフェース230によって、プロセッサ220に提供されてよい。例えば、プロセッサ220は、メモリ210のような記録装置に記録されたプログラムコードにしたがって受信される命令を実行するように構成されてよい。
通信インタフェース230は、ネットワーク170を介してコンピュータ装置200が他の装置(一例として、上述した記録装置)と互いに通信するための機能を提供してよい。一例として、コンピュータ装置200のプロセッサ220がメモリ210のような記録装置に記録されたプログラムコードにしたがって生成した要求や命令、データ、ファイルなどが、通信インタフェース230の制御にしたがってネットワーク170を介して他の装置に伝達されてよい。これとは逆に、他の装置からの信号や命令、データ、ファイルなどが、ネットワーク170を経てコンピュータ装置200の通信インタフェース230を通じてコンピュータ装置200に受信されてよい。通信インタフェース230を通じて受信された信号や命令、データなどは、プロセッサ220やメモリ210に伝達されてよく、ファイルなどは、コンピュータ装置200がさらに含むことのできる記録媒体(上述した永続的記録装置)に記録されてよい。
入力/出力インタフェース240は、入力/出力装置250とのインタフェースのための手段であってよい。例えば、入力装置は、マイク、キーボード、またはマイクなどの装置を、出力装置は、ディスプレイ、スピーカのような装置を含んでよい。他の例として、入力/出力インタフェース240は、タッチスクリーンのように入力と出力のための機能が1つに統合された装置とのインタフェースのための手段であってもよい。入力/出力装置250は、コンピュータ装置200と1つの装置で構成されてもよい。
また、他の実施形態において、コンピュータ装置200は、図2の構成要素よりも少ないか多くの構成要素を含んでもよい。しかし、大部分の従来技術的構成要素を明確に図に示す必要はない。例えば、コンピュータ装置200は、上述した入力/出力装置250のうちの少なくとも一部を含むように実現されてもよいし、トランシーバ、データベースなどのような他の構成要素をさらに含んでもよい。
図3は、本発明の一実施形態における、アバター生成方法の例を示したフローチャートである。図3の実施形態に係るアバター生成方法は、ユーザ端末310、フロントサーバ320、および分析サーバ330によって実行される全体的な過程の例を示している。ここで、ユーザ端末310は、上述した複数の電子デバイス110、120、130、140のうちのいずれか1つのように、アバター生成方法のためのコンピュータプログラムがインストールされて実行される物理的な装置に対応してよく、フロントサーバ320と分析サーバ330は、上述したサーバ150、160に対応してよい。上述したように、複数の電子デバイス110、120、130、140それぞれとサーバ150、160それぞれは、図2で説明したコンピュータ装置200によって実現されてよい。実施形態によって、フロントサーバ320と分析サーバ330は、1つの物理的な装置によって実現されてもよいし、フロントサーバ320および/または分析サーバ330が互いに連係する2つ以上の物理的な装置によって実現されてもよい。
段階311で、ユーザ端末310は、イメージを生成または選択してよい。例えば、ユーザ端末310は、ユーザ端末310に含まれるカメラによってイメージをキャプチャするか、またはユーザ端末310に含まれるローカル保存場所に保存されたイメージからユーザが選択したイメージを確認してよい。
段階312で、ユーザ端末310は、イメージをアップロードしてよい。例えば、ユーザ端末310は、段階311で生成または選択されたイメージを、ネットワーク170を介してフロントサーバ320に送信してよい。
より具体的な例として、ユーザ端末310は、ユーザ端末310においてインストールされて実行されたアプリケーションの制御にしたがい、カメラを駆動させてイメージをキャプチャするための機能、またはユーザ端末310のローカル保存場所に保存されたイメージから少なくとも1つを選択するための機能をユーザに提供してよく、このような機能を利用して生成または選択されるイメージをフロントサーバ320にアップロードしてよい。
段階321で、フロントサーバ320は、イメージを数値化してよい。例えば、フロントサーバ320は、ユーザ端末310から受信したイメージを分析し、イメージが含む人間の顔に対する顔構成要素を数値化してよい。数値化は、一例として、顔構成要素として予め定義された特徴それぞれに対して予め定義された測定項目ごとに測定値を抽出する形態で実現されてよい。より具体的な例として、顔構成要素として予め定義された特徴は、目、鼻、口、顔型などから選択されてよく、予め定義された測定項目は、面積、割合、角度、長さなどから選択されてよい。実施形態によって、1つの特徴が1つ以上の細部特徴で構成されてもよい。例えば、特徴「目」は、「左目」と「右目」の細部特徴で構成されてもよいし、「左目」、「左目尻」、「右目」、および「右目尻」などの細部特徴で構成されてもよい。このとき、特徴(または細部特徴)に対して要求される測定項目は、面積、割合、および角度のようにすべて同じ測定項目を含んでもよいが、実施形態によっては要求される測定項目が異なってもよい。例えば、特徴「目」に対しては幅と高さが、細部特徴「左目尻」に対しては角度が、特徴として要求されてよい。測定項目として算出される測定値は、物理的な単位の実際値よりは、基準に沿った相対的な値として測定されてよい。例えば、目の幅や目と目の間の距離は、顔の幅に対する相対的な値で計算されてよく、目の高さは、顔の長さに対する相対的な値で計算されてよい。測定値は、特徴/測定項目ごとに抽出された多数の値の集合(以下、「測定値集合」)を形成してよい。
段階322で、フロントサーバ320は、測定値を分析サーバ330に伝達してよい。例えば、フロントサーバ320は、段階321でイメージを数値化することによって抽出される測定値集合を、分析サーバ330に送信してよい。
段階331で、分析サーバ330は、動物イメージを数値化してよい。例えば、分析サーバ330は、段階321でフロントサーバ320がイメージに含まれた人間の顔を数値化する方式と同じ方式により、イメージに含まれた動物の顔を数値化してよい。例えば、分析サーバ330は、顔構成要素として予め定義された動物の顔の特徴それぞれに対して予め定義された測定項目ごとに測定値を抽出して測定値集合を生成する形態により、動物イメージに対する数値化を実現してよい。また、動物イメージが含む動物の種類を分類するために、ディープラーニング(deep learning)が活用されてよい。例えば、分析サーバ330は、入力される動物イメージを分析して動物イメージに含まれた動物の種類を分類するように学習されたCNN(Convolutional Neural Network)のようなディープラーニングモデルにより、多数の動物イメージそれぞれから導き出される動物の分類を生成してよい。
段階332で、分析サーバ330は、データベースを構築してよい。例えば、分析サーバ330は、上述したディープラーニングによって動物イメージが含む動物を分類し、動物分類ごとに抽出された測定値集合を記録するようにデータベースを構築してよい。
段階333で、分析サーバ330は、分類された動物ごとに基本モデルを生成してよい。例えば、犬、猫、うさぎなどのような動物ごとに基本モデルが生成されてよい。動物がより具体的に分類される場合には、同じ種類の動物が細部種類に分けられてもよい。例えば、犬の場合、犬の多様な種類に応じて細部分類が行われる場合には、それぞれの細部分類ごとに基本モデルが生成されてよい。また、子犬と成犬のような細部分類ごとに基本モデルが生成されてもよい。一例として、基本モデルは、データベースに記録された測定値集合に基づいて生成されてよい。1つの動物分類に対してデータベースに2つ以上の測定値集合が記録されている場合には、2つ以上の測定値集合において互いに対応する要素の平均値を計算し、計算された平均値の集合に基づいて基本モデルが生成されてよい。
このような段階331~333は、上述した段階311、312、321、322と並列的に実行されてよく、上述した段階311、312、321、322の開始前にデータベースが予め構築されて基本モデルが生成されてよい。
段階334で、分析サーバ330は、基本モデルを選択してよい。例えば、分析サーバ330は、フロントサーバ320から受信した測定値集合をデータベースに記録された測定値集合と順に比較していき、最も類似するm(mは自然数)個の測定値集合を決定してよく、このようなm個の測定値集合に対応するn(nはm以下の自然数)個の動物分類を決定してよい。言い換えれば、分析サーバ330は、人間の顔を数値化した測定値集合を受信し、データベースに記録された測定値集合と比較することにより、人間の顔に対応する動物分類を決定してよい。m個の測定値集合に同じ動物分類に対応する2つ以上の測定値集合が存在する場合には、該当の2つ以上の測定値集合に対して1つの動物分類が決定されるため、決定される動物分類の数は、決定される測定値集合の数と同じであるか少ない。また、分析サーバ330は、決定されたn個の動物分類に対応するn個の基本モデルを選択してよい。実施形態によって、分析サーバ330は、測定値集合が最も類似する1つの測定値集合にしたがって1つの基本モデルを選択および提供してもよく、n個の基本モデルを選択および提供してフロントサーバ320やユーザ端末310がn個の基本モデルから1つを選択するようにしてもよく、以下で説明する実施形態のように、n個の基本モデルを合成して新たな動物モデルを生成してもよい。
段階335で、分析サーバ330は、基本モデルをカスタマイズしてよい。言い換えれば、分析サーバ330は、人間の顔に対応する動物形状のアバターを提供するために確認された基本モデルを、人間の顔に対応させて処理してよい。例えば、分析サーバ330は、フロントサーバ320から受信した測定値集合によって基本モデルの顔構成要素の項目ごとに値を調節することにより、基本モデルを目標とする人間の顔に合わせてカスタマイズしてよい。言い換えれば、目標とする人間の顔特徴を基本モデルに適用させるのである。このとき、段階334で選択されたn個の基本モデルそれぞれがカスタマイズされてよく、カスタマイズされたn個の基本モデルはフロントサーバ320に伝達されてよい。
また、実施形態によって、カスタマイズは、フロントサーバ320で実行されてもよい。例えば、段階334で、分析サーバ330は、選択されたn個の基本モデルをフロントサーバ320に送信してよく、フロントサーバ320がn個の基本モデルそれぞれを段階331で計算された数値を基にしてカスタマイズしてよい。この場合、フロントサーバ320は、人間の顔を数値化した測定値集合によって基本モデルに該当する数値を修正することにより、基本モデルを人間の顔に合うようにカスタマイズしてよい。
段階323で、フロントサーバ320は、最終モデルを生成してよい。一実施形態として、フロントサーバ320は、カスタマイズされたn個の基本モデルを互いに合成した、まったく新しい動物モデルを最終モデルとして生成してよい。他の実施形態として、フロントサーバ320は、単にn個の基本モデルそれぞれを最終モデルとして生成してもよい。一方、カスタマイズされたn個の基本モデルは、最終モデルの生成に使用されるだけでなく、その測定値集合とともにデータベースに記録され、以後に他のアバターを生成するときに使用されてもよい。
段階324で、フロントサーバ320は、最終モデルを共有してよい。例えば、フロントサーバ320は、最終モデルをネットワーク170を介してユーザ端末310に送信し、生成された最終モデルを共有してよい。言い換えれば、フロントサーバ320は、人間の顔に対応する動物形状のアバターを提供するために、基本モデルまたは基本モデルによって生成される最終モデルをユーザ端末310と共有してよい。例えば、カスタマイズや合成が適用されていない場合には、基本モデルをユーザ端末310に提供してよく、カスタマイズや合成が適用された場合には、カスタマイズや合成が適用された最終モデルをユーザ端末310に提供してよい。
段階313で、ユーザ端末320は、最終モデルをレンダリングしてよい。例えば、ユーザ端末320は、フロントサーバ320から動物モデルを受信してよく、モデリングされた動物モデルを画面に実際に表示するための作業を処理してよい。言い換えれば、ユーザ端末320は、モデリングによって最終的に生成されたグラフィック要素を画面に表示することにより、段階311で生成または選択されたイメージに含まれたユーザの顔に対応する動物アバターを生成および表示することができるようになる。一方、実施形態によって、ユーザ端末320は、レンダリングの前に、上述したアプリケーションの制御にしたがい、最終モデルをもう一度カスタマイズする機能をユーザに提供してもよい。この場合、ユーザは、提供される機能を利用して最終モデルの顔立ちなどをユーザの思いのままに修正してよく、最終的に修正された動物モデルがユーザ端末320によってレンダリングされて画面に表示されてよい。
このように、本実施形態に係るアバター生成方法により、人間の顔が含まれたイメージを分析して、人間の顔に対応する動物形状のアバターを自動で生成することができる。このとき、生成される動物形状のアバターは、単に予め生成されている動物アバターのテンプレートにユーザの表情などを適用するのではなく、ユーザの顔と類似する動物を見つけ出し、該当の動物形状のアバターが自動で生成されるサービスを提供することができる。
また、生成された動物アバターは、多様なポーズや表情、他の効果との結合により、複数のスタンプイメージを含むスタンプパッケージを生成するために利用されてよい。一方、ユーザ端末310で1つのイメージではない一例として、カメラに入力される連続的なフレームがフロントサーバ320に伝達される場合、フロントサーバ320は、連続的なフレームそれぞれから抽出される測定値集合を最終モデルに順に適用することにより、ユーザの顔の表情や行動がリアルタイムで動物アバターに適用されるサービスを提供してもよい。このように、自動で生成される動物アバターは、多様なサービスに活用することができる。
図4および図5は、本発明の一実施形態における、イメージを数値化する例を示した図である。
図4は、動物イメージの数値化の例として、「うさぎ」の顔が含まれた第1イメージ410、「猫」の顔が含まれた第2イメージ420、および「犬」の顔が含まれた第3イメージ430において、特徴である目、鼻、口、顔型それぞれに対し、項目として面積、割合、および回転(角度)それぞれに対する値を含む測定値集合を抽出した例を示している。このような第1イメージ410から抽出された測定値集合は表1(440)のように、第2イメージ420から抽出された測定値集合は表2(450)のように、第3イメージ430から抽出された測定値集合は表3(460)のように示されてよく、それぞれの動物分類と連係されてデータベースに記録されてよい。
このような図4では、1つの動物に対して1つの測定値集合が抽出された例を示しているが、上述したように、同じ種類の動物であっても、細部種類や、子犬と成犬などのような成長程度などによって細部分類されてよく、それぞれの動物分類ごとに複数の測定値集合が抽出されてよい。このために、分析サーバ330は、多数の動物イメージをディープラーニングによって分析して動物イメージの動物を分類してよく、それぞれの動物分類ごとに1つ以上の測定値集合を該当の動物分類と連係させて記録することにより、各動物分類の測定値集合に対するデータベースを構築してよい。一方、他の実施形態では、同じ動物分類に連係されてデータベースに記録された2つ以上の測定値集合が、各要素の平均値によって1つの測定値集合(以下、「平均測定値集合」)の形態で記録されてもよい。例えば、面積、割合、回転に対する項目が存在する場合、面積の平均値、割合の平均値、および回転の平均値がそれぞれ計算され、該当の動物分類に対応して記録されてよい。
また、分析サーバ330は、それぞれの動物分類ごとに基本モデルを生成して管理してよい。図4の例では、「うさぎ」に対応する基本モデル、「猫」に対応する基本モデル、および「犬」に対応する基本モデルが、それぞれ生成および管理されてよい。このような基本モデルは、上述したように、対応する動物分類の測定値集合または平均測定値集合に基づいて生成されてよい。
図5は、人間イメージを数値化する例として、人間の顔が含まれた第4イメージ510において、特徴である目、鼻、口、顔型それぞれに対し、項目として面積、割合、および回転(角度)それぞれに対する測定値を含む測定値集合を抽出した例を示している。このような測定値集合は、表4(520)のように抽出され、データベースに記録された測定値集合と順に比較されてよい。
このとき、分析サーバ330は、測定値集合の比較により、第4イメージに含まれた人間の顔と最も類似する測定値集合をもつn個の動物分類を決定してよく、決定されたn個の動物分類に対応するn個の基本モデルを選択してよい。選択されたn個の基本モデルは、分析サーバ330またはフロントサーバ320でカスタマイズされてよい。カスタマイズには、上述した表4(520)の測定値が活用されてよい。上述したように、カスタマイズは、ユーザの選択にしたがい、ユーザ端末310で追加的に行われてもよい。
基本モデルは、対応する動物分類をグラフィック的に実現するためのベクトルであってよい。上述したように、フロントサーバ320は、このようなベクトルの加重和によってn個の基本モデルを合成し、最終モデルを生成してよい。例えば、nが2であり、「犬」基本モデルの類似度が80%、「猫」基本モデルの類似度が20%と計算されたと仮定する。この場合、「犬」基本モデルに対する第1ベクトルと「猫」基本モデルに対する第2ベクトルに対し、それぞれの要素の加重和によって最終モデルに対する第3ベクトルが生成されてよい。例えば、第1ベクトルの1番目の要素がaであり、第2ベクトルの1番目の要素がbであるとき、第3ベクトルの1番目の要素は(0.8a+0.2b)と計算されてよい。このとき、0.8と0.2は、類似度80%と類似度20%に基づいて決定された加重値であってよい。
実施形態によって、類似度が最も高い動物分類の基本モデルが、最終モデルとしてそのまま決定されてもよい。例えば、分析サーバ330は、図5の実施形態において第1位として選択された「犬」に対する基本モデルを最終モデルとして決定し、フロントサーバ320に伝達してよい。また他の実施形態において、分析サーバ330は、n個の基本モデルそれぞれをカスタマイズしてフロントサーバ320に伝達し、フロントサーバ320がユーザ端末310と通信し、カスタマイズされたn個の基本モデルからユーザに1つを選択させるようにしてもよい。
図6は、本発明の一実施形態における、モデル合成過程の例を示した図である。図6は、図4で説明した「うさぎ」基本モデルと「猫」基本モデルが抽出されることにより、2つの基本モデルを合成する例について説明する。基本モデル「うさぎ」は、表1(440)に示された測定値集合によって実現されてよく、基本モデル「猫」は、表2(450)に示された測定値集合によって実現されてよい。このとき、ユーザの顔に対する測定値集合と表1(440)に示された「うさぎ」に対する測定値集合との類似度が80%であり、ユーザの顔に対する測定値集合と表2(450)に示された「猫」に対する測定値集合との類似度が20%であると仮定する。この場合、合成モデル「うさぎ+猫」を生成するための測定値集合は、図6の表5(610)のように計算されてよい。このとき、フロントサーバ320は、計算された測定値集合に基づいて合成モデル「うさぎ+猫」を生成し、最終モデルとしてユーザ端末310と共有してよい。ここで、合成モデル「うさぎ+猫」は、図6の表5(610)に示された値によって新たに生成されたモデルであってよく、類似度が最も高い基本モデル「うさぎ」をベースとし、図6の表5(610)に示された値を適用して変形させたモデルであってもよい。
このように、本発明の実施形態によると、人間の顔が含まれたイメージを分析して、人間の顔に対応する動物形状のアバターを自動で生成することができる。
上述したシステムまたは装置は、ハードウェア構成要素、ソフトウェア構成要素、またはハードウェア構成要素とソフトウェア構成要素との組み合わせによって実現されてよい。例えば、実施形態で説明された装置および構成要素は、例えば、プロセッサ、コントローラ、ALU(arithmetic logic unit)、デジタル信号プロセッサ、マイクロコンピュータ、FPGA(field programmable gate array)、PLU(programmable logic unit)、マイクロプロセッサ、または命令を実行して応答することができる様々な装置のように、1つ以上の汎用コンピュータまたは特殊目的コンピュータを利用して実現されてよい。処理装置は、オペレーティングシステム(OS)およびOS上で実行される1つ以上のソフトウェアアプリケーションを実行してよい。また、処理装置は、ソフトウェアの実行に応答し、データにアクセスし、データを記録、操作、処理、および生成してもよい。理解の便宜のために、1つの処理装置が使用されるとして説明される場合もあるが、当業者は、処理装置が複数個の処理要素および/または複数種類の処理要素を含んでもよいことが理解できるであろう。例えば、処理装置は、複数個のプロセッサまたは1つのプロセッサおよび1つのコントローラを含んでよい。また、並列プロセッサのような、他の処理構成も可能である。
ソフトウェアは、コンピュータプログラム、コード、命令、またはこれらのうちの1つ以上の組み合わせを含んでもよく、思うままに動作するように処理装置を構成したり、独立的または集合的に処理装置に命令したりしてよい。ソフトウェアおよび/またはデータは、処理装置に基づいて解釈されたり、処理装置に命令またはデータを提供したりするために、いかなる種類の機械、コンポーネント、物理装置、仮想装置、コンピュータ記録媒体または装置に具現化されてよい。ソフトウェアは、ネットワークによって接続されたコンピュータシステム上に分散され、分散された状態で記録されても実行されてもよい。ソフトウェアおよびデータは、1つ以上のコンピュータ読み取り可能な記録媒体に記録されてよい。
実施形態に係る方法は、多様なコンピュータ手段によって実行可能なプログラム命令の形態で実現されてコンピュータ読み取り可能な媒体に記録されてよい。前記コンピュータ読み取り可能な媒体は、プログラム命令、データファイル、データ構造などを単独でまたは組み合わせて含んでよい。前記媒体に記録されるプログラム命令は、実施形態のために特別に設計されて構成されたものであっても、コンピュータソフトウェア当業者に公知な使用可能なものであってもよい。コンピュータ読み取り可能な記録媒体の例としては、ハードディスク、フロッピディスク、および磁気テープのような磁気媒体、CD-ROM、DVDのような光媒体、フロプティカルディスク(floptical disk)のような光磁気媒体、およびROM、RAM、フラッシュメモリなどのようなプログラム命令を記録して実行するように特別に構成されたハードウェア装置が含まれる。このような記録媒体は、単一または複数のハードウェアが結合した形態の多様な記録手段または格納手段であってよく、あるコンピュータシステムに直接接続する媒体に限定されるのではなく、ネットワーク上に分散して存在するものであってもよい。プログラム命令の例には、コンパイラによって生成されるもののような機械語コードだけではなく、インタプリタなどを使用してコンピュータによって実行される高級言語コードを含む。
以上のように、実施形態を、限定された実施形態および図面に基づいて説明したが、当業者であれば、上述した記載から多様な修正および変形が可能であろう。例えば、説明された技術が、説明された方法とは異なる順序で実行されたり、かつ/あるいは、説明されたシステム、構造、装置、回路などの構成要素が、説明された方法とは異なる形態で結合されたりまたは組み合わされたり、他の構成要素または均等物によって対置されたり置換されたとしても、適切な結果を達成することができる。
したがって、異なる実施形態であっても、特許請求の範囲と均等なものであれば、添付される特許請求の範囲に属する。

Claims (20)

  1. アバター生成装置であって、
    動物の顔を含む多数の動物イメージそれぞれに対し、前記動物の顔を数値化した第1測定値集合を生成する手段、
    前記多数の動物イメージから得られる動物分類ごとに対応する第1測定値集合をデータベースに記録する手段、
    前記動物分類ごとに基本モデルを生成する手段、
    人間の顔を数値化した第2測定値集合を受信して前記データベースに記録された第1測定値集合と比較することにより、前記人間の顔に対応する動物分類を決定する手段、
    前記決定された動物分類に対応して生成された基本モデルを確認する手段、および
    前記人間の顔に対応する動物形状のアバターを提供するために、前記確認された基本モデルを前記人間の顔に対応させて処理する手段
    を含む、アバター生成装置。
  2. 前記第1測定値集合は、前記動物の顔に対する顔構成要素として予め定義された特徴それぞれに対して予め定義された測定項目ごとに測定値を抽出することにより生成され、
    前記第2測定値集合は、前記人間の顔に対する顔構成要素として、前記特徴それぞれに対して前記測定項目ごとに測定値を抽出することにより生成される、
    請求項1に記載のアバター生成装置。
  3. 前記第1測定値集合を生成する手段は、
    ディープラーニングモデルを利用して前記多数の動物イメージを分析し、前記多数の動物イメージそれぞれが含む動物を分類して前記動物分類を決定する手段
    を含む、請求項1又は2に記載のアバター生成装置。
  4. 前記基本モデルを生成する手段は、
    前記データベースにおいて同じ動物分類と連係されて記録された第1測定値集合で互いに対応する要素の平均値を計算し、前記計算された平均値の集合に基づいて前記基本モデルを生成する、請求項1~3のうちの何れか1項に記載のアバター生成装置。
  5. 前記動物分類を決定する手段は、
    前記第2測定値集合を前記データベースに記録された第1測定値集合と順に比較し、類似度が高い順にm個の測定値集合に対応するn(nは自然数)個の動物分類を決定する手段
    を含み、
    前記基本モデルを確認する手段は、
    前記n個の動物分類それぞれに対して生成されたn個の基本モデルを確認する、請求項1~4のうちの何れか1項に記載のアバター生成装置。
  6. 前記確認されたn個の基本モデルを合成することによって最終モデルが生成される、請求項5に記載のアバター生成装置。
  7. 前記確認された基本モデルを前記人間の顔に対応させて処理する手段は、
    前記確認された基本モデルに該当する数値を前記第2測定値集合に基づいて修正し、前記確認された基本モデルを前記人間の顔に合わせてカスタマイズする、請求項1~6のうちの何れか1項に記載のアバター生成装置。
  8. アバター生成装置であって、
    ユーザ端末からネットワークを介して人間の顔が含まれたイメージを受信する手段、
    前記イメージに含まれた人間の顔を数値化して第1測定値集合を生成する手段、
    前記第1測定値集合を分析サーバに伝達する手段、
    動物イメージを分析して動物の顔を数値化することによって生成された第2測定値集合が動物分類ごとに記録されたデータベースと前記伝達された第1測定値集合に基づいて選択された動物分類に対する基本モデルを前記分析サーバから受信する手段、および
    前記人間の顔に対応する動物形状のアバターを提供するために、前記基本モデルまたは前記基本モデルによって生成される最終モデルを前記ユーザ端末と共有する手段
    を含む、アバター生成装置。
  9. 前記第1測定値集合は、前記人間の顔に対する顔構成要素として予め定義された特徴それぞれに対して予め定義された測定項目ごとに測定値を抽出することにより生成され、
    前記第2測定値集合は、前記分析サーバにおいて、前記動物の顔に対する顔構成要素として、前記特徴それぞれに対し、前記測定項目ごとに測定値を抽出することにより生成される、請求項8に記載のアバター生成装置。
  10. 前記動物分類は、前記分析サーバにおいて、前記第1測定値集合を前記データベースに記録された第2測定値集合と比較し、類似度が高い順に選択されたm個の第2測定値集合に対応するn(nは自然数)個の動物分類を含み、
    前記基本モデルは、前記n個の動物分類それぞれに対して生成されたn個の基本モデルを含む、請求項8又は9に記載のアバター生成装置。
  11. 前記ユーザ端末と共有する手段は、
    前記n個の基本モデルを合成して前記最終モデルを生成する手段
    を含む、請求項10に記載のアバター生成装置。
  12. 前記基本モデルに対する第2測定値集合は、前記分析サーバで前記第1測定値集合を利用して修正され、
    前記基本モデルは、前記修正された第2測定値集合を利用して前記人間の顔に合わせてカスタマイズされる、請求項8~11のうちの何れか1項に記載のアバター生成装置。
  13. 前記共有する手段は、
    前記ユーザ端末においてレンダリングによって動物アバターが表現されるように、前記基本モデルまたは前記最終モデルをネットワークを介して前記ユーザ端末に送信する、請求項8~12のうちの何れか1項に記載のアバター生成装置。
  14. アバター生成方法をコンピュータに実行させるコンピュータプログラムであって、前記アバター生成方法は、
    動物の顔を含む多数の動物イメージそれぞれに対し、前記動物の顔を数値化した第1測定値集合を生成する段階、
    前記多数の動物イメージから得られる動物分類ごとに対応する第1測定値集合をデータベースに記録する段階、
    前記動物分類ごとに基本モデルを生成する段階、
    人間の顔を数値化した第2測定値集合を受信して前記データベースに記録された第1測定値集合と比較することにより、前記人間の顔に対応する動物分類を決定する段階、
    前記決定された動物分類に対応して生成された基本モデルを確認する段階、および
    前記人間の顔に対応する動物形状のアバターを提供するために、前記確認された基本モデルを前記人間の顔に対応させて処理する段階
    を含む、コンピュータプログラム。
  15. アバター生成方法をコンピュータに実行させるコンピュータプログラムであって、前記アバター生成方法は、
    ユーザ端末からネットワークを介して人間の顔が含まれたイメージを受信する段階、
    前記イメージに含まれた人間の顔を数値化して第1測定値集合を生成する段階、
    前記第1測定値集合を分析サーバに伝達する段階、
    動物イメージを分析して動物の顔を数値化することによって生成された第2測定値集合が動物分類ごとに記録されたデータベースと前記伝達された第1測定値集合に基づいて選択された動物分類に対する基本モデルを前記分析サーバから受信する段階、および
    前記人間の顔に対応する動物形状のアバターを提供するために、前記基本モデルまたは前記基本モデルによって生成される最終モデルを前記ユーザ端末と共有する段階を含む、コンピュータプログラム。
  16. アバター生成方法をコンピュータに実行させるコンピュータプログラムであって、
    前記アバター生成方法は、
    人間の顔が含まれたイメージを生成または選択する段階、
    前記選択されたイメージをネットワークを介してサーバに送信する段階、
    前記イメージが含む人間の顔を数値化して生成された第1測定値集合と動物イメージが含む動物の顔を数値化して生成された第2測定値集合との比較によって選択された動物モデルを前記サーバから受信する段階、および
    前記受信した動物モデルをレンダリングして生成された動物アバターを画面に表示する段階
    を含む、コンピュータプログラム。
  17. 前記動物モデルは、前記第1測定値集合と前記第2測定値集合との比較によって選択された基本モデルに該当する数値を前記第2測定値集合に基づいて修正し、前記基本モデルを前記人間の顔に合わせてカスタマイズしたモデルを含む、請求項16に記載のコンピュータプログラム。
  18. 前記動物モデルは、前記第1測定値集合と前記第2測定値集合との比較によって選択されたn個の基本モデルを合成して生成される、請求項16又は17に記載のコンピュータプログラム。
  19. 前記サーバは、動物の顔を含む多数の動物イメージそれぞれに対し、前記動物の顔を数値化した第2測定値集合を生成し、前記多数の動物イメージから得られる動物分類ごとに対応する前記生成された第2測定値集合を記録してデータベースを構築し、前記動物分類ごとに基本モデルを生成する、請求項16~18のうちの何れか1項に記載のコンピュータプログラム。
  20. 前記動物モデルは、基本モデルによって生成され、
    前記基本モデルは、前記サーバにおいて、前記第2測定値集合に基づいて前記動物分類ごとに生成される、請求項19に記載のコンピュータプログラム。
JP2022025411A 2018-04-13 2022-02-22 アバター生成装置およびコンピュータプログラム Active JP7357706B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2022025411A JP7357706B2 (ja) 2018-04-13 2022-02-22 アバター生成装置およびコンピュータプログラム

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
PCT/KR2018/004337 WO2019198850A1 (ko) 2018-04-13 2018-04-13 사람의 얼굴을 이용한 동물 형상의 아바타를 생성하는 방법 및 시스템
JP2020555875A JP7031009B2 (ja) 2018-04-13 2018-04-13 アバター生成装置およびコンピュータプログラム
JP2022025411A JP7357706B2 (ja) 2018-04-13 2022-02-22 アバター生成装置およびコンピュータプログラム

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2020555875A Division JP7031009B2 (ja) 2018-04-13 2018-04-13 アバター生成装置およびコンピュータプログラム

Publications (2)

Publication Number Publication Date
JP2022060420A true JP2022060420A (ja) 2022-04-14
JP7357706B2 JP7357706B2 (ja) 2023-10-06

Family

ID=67480921

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2020555875A Active JP7031009B2 (ja) 2018-04-13 2018-04-13 アバター生成装置およびコンピュータプログラム
JP2022025411A Active JP7357706B2 (ja) 2018-04-13 2022-02-22 アバター生成装置およびコンピュータプログラム

Family Applications Before (1)

Application Number Title Priority Date Filing Date
JP2020555875A Active JP7031009B2 (ja) 2018-04-13 2018-04-13 アバター生成装置およびコンピュータプログラム

Country Status (4)

Country Link
US (1) US11574430B2 (ja)
JP (2) JP7031009B2 (ja)
KR (1) KR102002863B1 (ja)
WO (1) WO2019198850A1 (ja)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8584031B2 (en) 2008-11-19 2013-11-12 Apple Inc. Portable touch screen device, method, and graphical user interface for using emoji characters
US9940637B2 (en) 2015-06-05 2018-04-10 Apple Inc. User interface for loyalty accounts and private label accounts
CN105912074A (zh) * 2016-03-31 2016-08-31 联想(北京)有限公司 一种电子设备
US11580608B2 (en) 2016-06-12 2023-02-14 Apple Inc. Managing contact information for communication applications
KR102585858B1 (ko) 2017-05-16 2023-10-11 애플 인크. 이모지 레코딩 및 전송
DK201870374A1 (en) 2018-05-07 2019-12-04 Apple Inc. AVATAR CREATION USER INTERFACE
CN110321868A (zh) * 2019-07-10 2019-10-11 杭州睿琪软件有限公司 对象识别及显示的方法及系统
CN112017140B (zh) * 2020-09-14 2024-04-12 北京百度网讯科技有限公司 用于处理人物形象数据的方法和装置

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001292305A (ja) * 2000-02-02 2001-10-19 Casio Comput Co Ltd 画像データ合成装置、画像データ合成システム、画像データ合成方法及び記録媒体
JP2005004342A (ja) * 2003-06-10 2005-01-06 Nec Corp コミュニケーションシステムとサーバ装置およびプロフィール開示方法とプログラム
JP2017084192A (ja) * 2015-10-29 2017-05-18 株式会社沖データ 画像処理システム、画像処理装置及びWebサーバ

Family Cites Families (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3090472U (ja) * 2002-03-29 2002-12-13 一巳 稲葉 画像合成プログラムを用いて印刷物等を出力する演算機能付きの動物型装置
KR20040106844A (ko) * 2003-06-11 2004-12-18 이응주 유무선 온라인 얼굴영상 해석을 이용한 얼굴 관상 정보 및관상학적 이성 정보제공 시스템과 정보제공 방법
JP4340860B2 (ja) * 2003-09-03 2009-10-07 日本電気株式会社 顔照合システム
KR100613848B1 (ko) * 2004-04-16 2006-08-18 (주)에이치컬쳐테크놀러지 아바타정보를 이용한 운세정보제공 시스템 및 그 제공방법
JP2006059200A (ja) * 2004-08-20 2006-03-02 Fuji Photo Film Co Ltd 顔画像格納システム、顔画像格納方法、及び顔画像格納プログラム
KR20070036857A (ko) 2005-09-30 2007-04-04 에스케이씨앤씨 주식회사 사용자 기반의 아바타 생성 시스템
JP2011090348A (ja) * 2007-12-25 2011-05-06 J Magic Kk 広告管理システム、広告管理サーバ、広告管理方法、プログラム、および閲覧クライアント
KR101081494B1 (ko) * 2008-08-28 2011-11-09 동명대학교산학협력단 얼굴인식을 이용한 얼굴관상정보 및 얼굴 아바타 생성 방법 및 그 생성시스템
JP2010097449A (ja) * 2008-10-17 2010-04-30 Casio Computer Co Ltd 画像合成装置、及び画像合成方法、画像合成プログラム
JP2011209887A (ja) * 2010-03-29 2011-10-20 Sannetto:Kk アバター作成方法、アバター作成プログラム、およびネットワークサービスシステム
CN102622366B (zh) * 2011-01-28 2014-07-30 阿里巴巴集团控股有限公司 相似图像的识别方法和装置
JP2013074461A (ja) * 2011-09-28 2013-04-22 Casio Comput Co Ltd 画像処理装置、画像処理方法及びプログラム
JP5420056B2 (ja) * 2012-05-31 2014-02-19 株式会社コナミデジタルエンタテインメント 画像作成システム、画像作成アプリケーションサーバ、画像作成方法およびプログラム
JP5930450B2 (ja) * 2013-09-06 2016-06-08 Necソリューションイノベータ株式会社 アノテーション装置及びアノテーションシステム
US10095917B2 (en) * 2013-11-04 2018-10-09 Facebook, Inc. Systems and methods for facial representation
US10573091B2 (en) * 2017-02-22 2020-02-25 Andre R. Vincelette Systems and methods to create a virtual object or avatar
KR102661019B1 (ko) * 2018-02-23 2024-04-26 삼성전자주식회사 얼굴에 대응하는 3차원 아바타를 이용하여 얼굴의 움직임이 반영된 3차원 아바타를 포함하는 이미지를 생성하는 전자 장치 및 그 동작 방법

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001292305A (ja) * 2000-02-02 2001-10-19 Casio Comput Co Ltd 画像データ合成装置、画像データ合成システム、画像データ合成方法及び記録媒体
JP2005004342A (ja) * 2003-06-10 2005-01-06 Nec Corp コミュニケーションシステムとサーバ装置およびプロフィール開示方法とプログラム
JP2017084192A (ja) * 2015-10-29 2017-05-18 株式会社沖データ 画像処理システム、画像処理装置及びWebサーバ

Also Published As

Publication number Publication date
US11574430B2 (en) 2023-02-07
US20210027514A1 (en) 2021-01-28
JP7031009B2 (ja) 2022-03-07
JP2021528714A (ja) 2021-10-21
JP7357706B2 (ja) 2023-10-06
WO2019198850A1 (ko) 2019-10-17
KR102002863B1 (ko) 2019-07-24

Similar Documents

Publication Publication Date Title
JP7031009B2 (ja) アバター生成装置およびコンピュータプログラム
CN108961369B (zh) 生成3d动画的方法和装置
US10347028B2 (en) Method for sharing emotions through the creation of three-dimensional avatars and their interaction
CN109472365A (zh) 使用辅助输入通过生成式对抗网络来细化合成数据
WO2020045236A1 (ja) 拡張装置、拡張方法及び拡張プログラム
KR102605077B1 (ko) 모바일 디바이스에서 사실적인 머리 회전들 및 얼굴 애니메이션 합성을 위한 방법들 및 시스템들
WO2019173108A1 (en) Electronic messaging utilizing animatable 3d models
KR101851356B1 (ko) 3d 디지털액터에 의한 지능형 사용자 인터페이스 제공방법
TW202046158A (zh) 語意融合
CN113287118A (zh) 用于面部再现的系统和方法
US20140114630A1 (en) Generating Artifacts based on Genetic and Breeding Simulation
KR20210040882A (ko) 동영상을 생성하기 위한 방법 및 장치
US11514638B2 (en) 3D asset generation from 2D images
KR102377992B1 (ko) Ai 기반 템플릿 조합을 통한 사용자 맞춤형 광고 컨텐츠 제공 플랫폼을 제공하는 방법, 이를 위한 프로그램 및 시스템
US20140310335A1 (en) Platform for creating context aware interactive experiences over a network
KR101977893B1 (ko) 영상컨텐츠 적용 디지털액터의 운용방법
US20210328954A1 (en) Advanced Electronic Messaging Utilizing Animatable 3D Models
US11934792B1 (en) Identifying prompts used for training of inference models
JP6907331B2 (ja) 顔認識カメラの動的コンテンツを提供する方法およびシステム
US20160171738A1 (en) Heirarchy-based character rigging
US20230222721A1 (en) Avatar generation in a video communications platform
KR20210028401A (ko) 스타일 변환 장치 및 스타일 변환 방법
US20230177583A1 (en) Playstyle analysis for game recommendations
US20160236077A1 (en) Method and system for automatic distribution and solution of tasks
KR20230160105A (ko) 캐릭터ip를 활용한 실시간 화상채팅 랜더링 기술

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220323

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220323

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230411

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230516

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230612

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230919

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230926

R150 Certificate of patent or registration of utility model

Ref document number: 7357706

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150