JP5420056B2 - 画像作成システム、画像作成アプリケーションサーバ、画像作成方法およびプログラム - Google Patents
画像作成システム、画像作成アプリケーションサーバ、画像作成方法およびプログラム Download PDFInfo
- Publication number
- JP5420056B2 JP5420056B2 JP2012285883A JP2012285883A JP5420056B2 JP 5420056 B2 JP5420056 B2 JP 5420056B2 JP 2012285883 A JP2012285883 A JP 2012285883A JP 2012285883 A JP2012285883 A JP 2012285883A JP 5420056 B2 JP5420056 B2 JP 5420056B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- unit
- avatar
- data
- feature point
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T17/00—Three dimensional [3D] modelling, e.g. data description of 3D objects
Landscapes
- Physics & Mathematics (AREA)
- Engineering & Computer Science (AREA)
- Computer Graphics (AREA)
- Geometry (AREA)
- Software Systems (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Processing Or Creating Images (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Description
つまり、この顔画像認識システムは、顔を撮像した顔画像と予めデータベース化されている顔パーツとのマッチングを行い、大きさ・位置・色・傾き等のデータをパーツに付加してコード化する。そして、顔画像認識システムは、コード化されたデータをもとに似顔絵を画面等に自動出力するとうものである。また、この顔画像認識システムは、表示された顔パーツをユーザ操作に応じて変形するように調整することが可能とされている(例えば、特許文献1参照)。
前記ユーザ端末装置に対して行われたユーザの指示に応じて、作成された前記全体画像の内容を編集する全体画像編集ステップと、前記ユーザ端末装置に対するユーザの指示に応じて前記全体画像の内容が確定されるのに応じて、確定されたときの前記全体画像の内容に基づいて前記比較データを更新する更新ステップとを備える。
[アバター作成システムの構成例]
図1は、本実施形態のアバター作成システム(画像作成システム)の構成例を示している。
この図に示すアバター作成システムは、特徴点データベース生成装置100と、アバター作成アプリケーションサーバ200と、ユーザ端末装置300と、アバター利用アプリケーションサーバ400を備える。また、アバター作成アプリケーションサーバ200と、ユーザ端末装置300と、アバター利用アプリケーションサーバ400は、ネットワーク500と接続される。
本実施形態においては、ユーザ端末装置300において、ネイティブ型のアバター作成アプリケーションが動作する。例えば、このアバター作成アプリケーションに対するユーザの操作に応じて、ユーザ端末装置300がアバター作成アプリケーションサーバ200に対して操作情報を送信する。アバター作成アプリケーションサーバ200は、この操作情報に応答した所定の処理を実行する。
アバター作成アプリケーションサーバ200は、ユーザ端末装置300から受信した顔画像データが示す顔に類似したアバターを自動作成する。この際に、アバター作成アプリケーションサーバ200は、受信した顔画像データと、自己が記憶する特徴点データベースとを照合することにより顔画像における部位ごとに類似したパーツ画像を特定し、これらの特定したパーツ画像によりアバターを作成する。
上記のように、ユーザ端末装置300をアバター作成アプリケーションサーバ200と接続することにより、ユーザ端末装置300上でアバター作成アプリケーションが動作する。
また、ユーザ端末装置300を、後述するアバター利用アプリケーションサーバ400と接続することにより、ユーザ端末装置300上でアバター作成アプリケーションが動作する。
アバター利用アプリケーションの一例は、仮想空間コミュニティーアプリケーションである。
図2は、特徴点データベース生成装置100の構成例を示している。本実施形態においては、特徴点データベースを生成するための作業者が、特徴点データベース生成装置100にサンプル顔画像を入力する。そして、作業者は、予め用意された複数のパーツ画像のうちから、サンプル顔画像におけるオブジェクト(アバター作成のためのパーツ画像に対応する目、鼻、口、眉毛などの部位)の各々と最も類似しているものを目視により判断する。そして、作業者は、サンプル画像におけるオブジェクトと、このオブジェクトに最も類似していると判断したパーツ画像とを対応付ける操作を特徴点データベース生成装置100に対して行う。この操作に応じて、特徴点データベース生成装置100は、オブジェクトごとの特徴点に対応するパーツ画像を示す特徴点データベースを生成する。
オブジェクト定義テーブル生成部105Aは、特徴点データベース700に含まれるオブジェクト定義テーブル710を生成する。
特徴点ハッシュテーブル生成部105Bは、特徴点データベース700に含まれる特徴点ハッシュテーブル720を生成する。
なお、記憶部106が対応するハードウェアの一例は、HDD(Hard Disk Drive)やフラッシュメモリなどである。
このように送信された特徴点データベース700は、アバター作成アプリケーションサーバ200において記憶される。
表示部109は、表示制御部103の制御に応じて画像を表示する。
ここで、図3を参照して、記憶部106に記憶されるパーツ画像テーブル600の構造例について説明する。
図3に示すパーツ画像テーブル600は、パーツ画像ごとにパーツIDとパーツ種別IDを対応付けて形成される。
パーツ画像は、アバターを形成するための目、鼻、口、眉毛などにそれぞれ対応するパーツの画像である。なお、このパーツ画像として格納されるデータは、例えば画像データのファイル名など、その画像データの実体を参照する情報である。
パーツIDは、対応のパーツ画像を一意に識別するための識別子である。
パーツ種別IDは、対応のパーツ画像が属するパーツ種別を一意に識別するための識別子である。パーツ種別とは、例えば目、鼻、口、眉毛などのパーツの各部位に対応する。
なお、図3において具体的に示されているパーツ画像のパーツ種別は目で共通である。
これに応じて、これらのパーツ画像に対応付けられているパーツ種別IDは、いずれも目であることを示す「0」である。
なお、特徴点データベース700の構造例については後述する。
次に、上記構成の特徴点データベース生成装置100が実行する特徴点データベース生成のための処理の具体例について説明する。
特徴点データ取得部102は、例えば入力したサンプル顔画像データに対してx方向とy方向の二次元による絶対座標系を対応させる。そして、特徴点データ取得部102は、サンプル顔画像データから求めたオブジェクトの特徴点ごとに、その絶対座標系における座標(絶対座標(x、y))を求める。
このようにオブジェクトOBJが目である場合、特徴点データ取得部102は、例えば図示するように、顔画像データから認識した目の画像部分から、6つの特徴点ER1〜ER6のそれぞれの絶対座標系における絶対座標を求めることで、オブジェクトOBJの特徴点データを取得する。
まず、オブジェクト定義テーブル生成部105Aは、特徴点データ取得部102により取得された複数の特徴点の絶対座標のうちから部位ごとに予め設定されている2つの代表点の絶対座標を示す座標情報を生成する。
図5は、図4の代表点ER1とER4の各絶対座標を示す代表点座標情報810を示している。この図に示す代表点座標情報810は、代表点ER1の絶対座標が(356,421)で、代表点ER2の絶対座標が(53,383)であることを示している。
そこで、オブジェクト定義テーブル生成部105Aは、代表点座標情報810とパーツID取得部104が取得したパーツIDとを利用して、図4の目としてのオブジェクトOBJに対応するオブジェクト定義テーブル710のレコードを生成する。
この図に示すように、オブジェクト定義テーブル710のレコード711は、パーツ種別IDとオブジェクトIDとパーツIDと代表点座標とを含む。
図4のオブジェクトは目であるので、このオブジェクトに対応するパーツ画像の種別も目である。したがって、図6におけるパーツ種別IDには、パーツ画像の種別が目であることを示す値(例えば「0」)を格納する。このことからすれば、レコード711におけるパーツ種別IDは、オブジェクトが対応する顔の部位についての目、鼻、口、眉毛などの種別を示しているといえる。
代表点座標は、2つの代表点の座標を示すもので、この図の場合には、図5の代表点座標情報810の内容が反映されている。この場合、代表点座標(X0,Y0)が代表点ER1の絶対座標(356,421)を示し、代表点座標(X1,Y1)が代表点ER4の絶対座標(53,383)を示している。
図7(a)は、特徴点ハッシュテーブル生成部105Bが用いる正規化座標系の例を示している。この正規化座標系は、X座標とY座標の二次元座標である。ここでは、正規化座標系のX座標をXnzにより表し、Y座標をYnzにより表している。
そして、この正規化座標においては、代表点ER1とER4について予め正規化した基準座標REF1とREF2が設定されている。図7(a)の例では、代表点ER1に対応する基準座標REF1が(8,5)で、代表点ER4に対応する基準座標REF2が(1,5)として設定されている。
そして、上記のように代表点ER1を基準座標REF1に移動させた際の拡大率と回転角度を、代表点ER1、ER4以外の残る特徴点ER2、ER3、ER5、ER6にも適用して移動させる。
ただし、図8(a)の段階では、代表点ER1、ER4以外の残る特徴点ER2、ER3、ER5、ER6の正規化座標系における各座標値は、小数点以下の値を含む。これは、整数値をとるべき正規化座標に対して誤差を有していることを意味する。
そこで、特徴点ハッシュテーブル生成部105Bは、図8(b)に示すように、各特徴点ER2、ER3、ER5、ER6について、正規化座標系において近似する整数値の座標に移動させる。これにより、特徴点ER1〜ER6の各絶対座標が正規化座標に変換される。
このために、特徴点ハッシュテーブル生成部105Bは、例えば、図9に示すように、特徴点ER2、ER3、ER5、ER6の正規化座標を示す正規化座標情報820を生成する。
この図9の正規化座標情報820は、図8(b)に示した正規化の結果により得られた特徴点ER2、ER3、ER5、ER6を示している。つまり、特徴点ER2の正規化座標は(7,6)を示し、特徴点ER3の正規化座標は(3,6)を示し、特徴点ER5の正規化座標は(3,4)を示し、特徴点ER6の正規化座標は(7,4)を示す。
特徴点ハッシュテーブル生成部105Bは、図10に示したシフト演算の結果から、例えば、図11に示すように、例えば特徴点ER2、ER3、ER5、ER6ごとの座標ハッシュを配列した座標ハッシュ情報830を生成する。
この図11に示す座標ハッシュ情報830は、左から右にかけて、順次、特徴点ER2、ER3、ER5、ER6の座標ハッシュが配列されている。
そのうえで、特徴点ハッシュテーブル生成部105Bは、図4のオブジェクトOBJの種別に対応するパーツ種別IDと、上記のように生成したオブジェクトIDと、図11の座標ハッシュ情報830の内容とにより、図12に示すレコード721を生成する。
この図12に示すレコード721は、特徴点ハッシュテーブル720に含まれるべきものであり、図4に示したオブジェクトOBJに対応する特徴点ER2、3、5、6の正規化座標のハッシュ値を示す。
オブジェクト定義テーブル710は、例えばパーツ種別IDが示すパーツ(オブジェクト)の種別ごとのテーブルから成る。そのうえで、パーツ種別IDに対応するテーブルは、オブジェクトごとのオブジェクトIDとパーツIDと代表点座標とを対応付けた複数のレコードにより形成される。
また、特徴点ハッシュテーブル720も、パーツ種別IDが示すパーツの種別(オブジェクトの種別)ごとのテーブルから成る。そのうえで、パーツ種別IDに対応するテーブルは、オブジェクトごとにオブジェクトIDと座標ハッシュとを対応付けた複数のレコードにより形成される。
これにより、特徴点データベース700において1つのオブジェクトOBJに対応するレコードが新規登録される。
これにより、特徴点データベース700は、入力されたサンプル顔画像データの総数sとパーツ種別数pに応じた数(s×p)のレコードを含んで形成される。
次に、図14のフローチャートを参照して、特徴点データベース生成装置100が実行する処理手順例について説明する。
この操作に応じて、パーツID取得部104は、選択されたパーツ画像に対応付けられているパーツIDをパーツ画像テーブル600から取得する(ステップS104)。
このために、オブジェクト定義テーブル生成部105Aは、オブジェクトごとのオブジェクトIDを新規生成する。そして、オブジェクト定義テーブル生成部105Aは、新規生成したオブジェクトIDと、ステップS104により取得したパーツIDと、ステップS105により生成した代表点座標情報810を利用してオブジェクトごとのレコード711を生成する。
つまり、オブジェクト定義テーブル生成部105Aは、ステップS106により生成したオブジェクトごとのレコード711を、特徴点データベース700におけるオブジェクト定義テーブル710に新規登録する。また、特徴点ハッシュテーブル生成部105Bは、ステップS107により生成したレコード721を、特徴点データベース700における特徴点ハッシュテーブル720に新規登録する。
次に、図15を参照して、アバター作成アプリケーションサーバ200の構成例について説明する。
この図に示すアバター作成アプリケーションサーバ200は、顔画像データ入力部201、特徴点データ取得部202、記憶部203、パーツ画像選択部204、特徴点データベース更新部205および通信部206を備える。
つまり、特徴点データ取得部202は、入力した顔画像データを解析することにより、顔画像データから抽出したオブジェクトごとに特徴点データ(解析データ)を取得する。
なお、この特徴点データ取得部202は、例えば、図2の特徴点データ取得部102と同様の構成でよい。
座標ハッシュ情報910は、図16に示すように、パーツ種別IDごとに座標ハッシュ情報を対応付けた構造である。
図16の座標ハッシュ情報910におけるパーツ種別IDは、オブジェクトが対応する顔の部位(すなわち、パーツ画像の種別)を示している。
座標ハッシュは、対応のオブジェクトについて求められた代表点以外の特徴点ごとの座標のハッシュ値を示す。なお、これらの特徴点ごとの座標ハッシュの算出手法については、図9から図11による説明と同様でよい。
この場合、初期段階の特徴点データベース700Aは、特徴点データベース700と同じ内容である。これに応じて、初期段階における特徴点データベース700Aのオブジェクト定義テーブル710Aおよび特徴点ハッシュテーブル720Aは、オブジェクト定義テーブル710および特徴点ハッシュテーブル720とそれぞれ同じ内容を有する。
そして、特徴点データベース更新部205は、初期の特徴点データベース700Aに対して新たにレコード(比較データ)を追加するように更新する。
この際、パーツ画像選択部204は、複数のパーツ種別ごとにパーツ画像を選択する。これにより、パーツ画像選択部204は、例えば目、口、鼻などの部位ごとのパーツ画像を選択することができる。
図18は、上記の認識結果を模式的に示したものである。この図においては、オブジェクトID=0〜29までのオブジェクトごとに、比較結果により座標ハッシュが一致した特徴点の数(座標ハッシュ一致数)が示される。
このために、パーツ画像選択部204は、特徴点ハッシュテーブル720Aにおいて座標ハッシュ一致数が最大値max=4のオブジェクトIDを検索する。次に、パーツ画像選択部204は、検索したオブジェクトIDに対応付けられているパーツIDをオブジェクト定義テーブル710Aから検索する。そして、パーツ画像選択部204は、パーツIDごとの検索数を集計する。
そこで、パーツ画像選択部204は、パーツ種別ID=0に対応するパーツ画像として、パーツID=2のパーツ画像を選択する。
そして、パーツ画像選択部204は、すべてのパーツ種別IDに対応するオブジェクトごとのパーツ画像の選択を終了すると、これまでのパーツ画像の選択結果を反映したアバター情報を生成する。アバター情報は、ユーザ端末装置300においてアバターの画像を作成するのに利用する情報である。
このアバター情報920が格納するパーツ画像により作成されるアバターの画像の顔は、アバター作成元の顔画像データの顔に似たものとなる。
そして、パーツ画像選択部204は、上記のように生成したアバター情報920を、通信部206からユーザ端末装置300に対して送信する。
この確定通知に含められる確定アバター情報は、例えば図20のアバター情報920からアバター画像を省略してパーツ種別IDごとにパーツIDを対応付けた構造である。ただし、その内容については、編集による変更があった場合には、その変更された内容が反映される。
つまり、特徴点データベース更新部205は、アバター作成元の顔画像データから抽出したオブジェクトごとに、新規のオブジェクトIDを生成する。
次に、特徴点データベース更新部205は、新規に生成したオブジェクトIDに対応付けられたオブジェクト定義テーブル710Aのレコード711を新規に生成する。
このために、特徴点データベース更新部205は、新規に生成したオブジェクトIDに受信した確定通知に含まれる確定アバター情報が示すパーツIDを対応付ける。さらに、特徴点データベース更新部205は、新規に生成したオブジェクトIDに対して、特徴点データ取得部102がアバター作成元の顔画像データから取得した代表点座標を対応付ける。特徴点データベース更新部205は、このように、新規に生成したオブジェクトIDに対応するレコード711を、パーツ種別ごとに生成する。
そして、特徴点データベース更新部205は、このように新規に生成したレコード711を、オブジェクト定義テーブル710Aにおける対応のパーツ種別IDごとのテーブルに対して新規に登録する。
ここで、特徴点データ取得部202は、図16に示す構造の座標ハッシュ情報910を、アバター作成に利用するすべてのパーツ種別ごとに生成している。このように生成した座標ハッシュ情報910は、特徴点データ取得部202が保持している。
そこで、特徴点データベース更新部205は、新規に生成したオブジェクトIDに対して、このオブジェクトIDが示すオブジェクトについて生成された座標ハッシュ情報910の座標ハッシュを対応付けることにより、特徴点ハッシュテーブル720Aのレコード721を生成する。このレコード721についても、特徴点データ取得部202は、パーツ種別ごとに生成する。
そして、特徴点データベース更新部205は、このように新規に生成したレコード721を、特徴点ハッシュテーブル720Aにおいて対応のパーツ種別IDごとのテーブルに対して新規に登録する。
このようにして、特徴点データベース更新部205は、オブジェクト定義テーブル710と特徴点ハッシュテーブル720とを更新することにより特徴点データベース700Aを更新する。
次に、ユーザ端末装置300の構成例について、再度、図15を参照して説明する。
ユーザ端末装置300は、制御部301、操作部302、表示部303および通信部304を備える。
つまり、アバター画像作成部312は、アバター作成アプリケーションサーバ200のパーツ画像選択部204により生成されたアバター情報920に基づいてアバターの画像を生成する。アバター情報920には、パーツ画像選択部204が選択したパーツ画像が格納されている。アバター画像作成部312は、このアバター情報920に格納されているパーツ画像を利用してアバター画像を作成するものである。
この編集操作は、例えば前述のように、アバター作成アプリケーションの画面において表示されるパーツ画像のリストのうちから所望のパーツ画像を選択して、これまでにアバターに使用していたパーツ画像から変更するというものになる。
具体的に、アバター編集部314は、アバター作成アプリケーションサーバ200に対して、操作により選択されたパーツ画像のパーツIDを指定してパーツ画像を要求する。
この要求に応答してアバター作成アプリケーションサーバ200は、指定されたパーツ画像をパーツ画像テーブル600Aから読み出してユーザ端末装置300に送信する。アバター編集部314は、これまでに使用していたパーツ画像を受信したパーツ画像に変更する。アバター画像作成部312は、パーツ画像の変更が反映されたアバター画像を作成し、表示制御部313により、このアバター画像が表示される。このように、ユーザが行うアバター編集操作に応じてアバター画像の編集が行われる。
アバター作成アプリケーションサーバ200における特徴点データベース更新部205は、前述のように、確定通知の受信に応答して、確定アバター情報を利用して特徴点データベース700Aを更新する。
そのうえで、自動作成されたアバターは、ユーザ端末装置300上で編集することができる。ユーザ端末装置300は、ユーザの確定操作に応じて、この編集結果(編集を行わない場合も含む)を確定通知としてアバター作成アプリケーションサーバ200に送信する。
そして、アバター作成アプリケーションサーバ200は、受信した編集結果に応じて、今回のアバターの作成元である顔画像データから抽出したオブジェクトについてのレコードを追加するように特徴点データベース700Aを更新する。
表示部303は、ユーザ端末装置300において表示制御部313の制御に応じて画像を表示する。
本実施形態においては、アバターが自動作成される機会ごとに異なる顔画像データの内容に基づいて特徴点データベース700Aのレコードが追加されていく。このことは、上記のようなオブジェクトの多様性に対応して、特徴点データベース700Aにおけるオブジェクトに対応するパーツ画像の類似性についての精度が向上していくことに相当する。
そして、このように精度が向上していく特徴点データベース700Aがアバターの自動作成に利用されることで、作成元の顔画像データの顔に類似したアバターを自動作成する精度も向上していく。
例えば、アバターの自動作成に際して、特徴点のすべてが一致していないオブジェクトに対応するパーツ画像が選択されたような場合であっても、ユーザがよく似ているとの印象を持ったために編集を行うことなく確定操作を行う場合のあることは考えられる。
このような場合、特徴点データベース700Aに新規登録されるレコードは、特徴点データベース700Aにおいて既に格納されているレコードの内容と重複せずに異なる可能性がある。そして、この際に特徴点データベース700Aに新規登録されるレコードは、ユーザの主観により類似していると判断された結果が反映されている。したがって、実質的な編集が行われないアバターにも対応して特徴点データベース700Aの更新が行われることも、特徴点データベース700Aの精度を向上させることに繋がるものである。
つまり、特徴点データベース生成装置100により特徴点データベース700を作成するにあたって、膨大な数のサンプル顔画像データを用意する。そして、これらのサンプル顔画像データを処理して特徴点データベース700を生成するというものである。
しかし、前述のように、特徴点データベース生成装置100により特徴点データベース700を作成するにあたっては作業者が目視により類似性を判断する必要がある。このために、サンプル顔画像データの数が増加するほど作業者の負担も増加してしまう。
これに対して、本実施形態の場合には、ユーザがアバターアプリケーションを利用してアバターを作成するごとに特徴点データベース700Aの精度が向上されていくものであり、作業者の負担が増加することはない。
次に、図21のフローチャートを参照して、特徴点データベース700Aを更新するためにユーザ端末装置300とアバター作成アプリケーションサーバ200が実行する処理手順例について説明する。
そして、パーツ画像選択部204は、ステップS305により生成したアバター情報を、ユーザ端末装置300に対して送信する(ステップS306)。
そして、特徴点データベース更新部205は、特徴点データベース700Aを更新する(ステップS308)。つまり、特徴点データベース更新部205は、ステップS307により生成したレコード711と721を、それぞれ、特徴点データベース700Aにおけるオブジェクト定義テーブル710Aと特徴点ハッシュテーブル720Aに新規登録する。
[概要]
次に、第2の実施形態について説明する。なお、第2の実施形態における特徴点データベース生成装置100、アバター作成アプリケーションサーバ200およびユーザ端末装置300の構成は、例えば図2と図15と同様でよい。
つまり、図19に示したパーツIDの集計結果において、最多の検索数のパーツIDが複数存在するような場合に、パーツ画像選択部204は、これらの複数のパーツIDに対応するパーツ画像を選択する。このように、パーツ画像選択部204は、同じパーツ種別に対応するパーツ画像のうちから複数のパーツ画像を選択する。
そして、このように複数のパーツ画像を選択した場合、パーツ画像選択部204は、これらのパーツ画像のパーツIDをそれぞれ反映させた複数のアバター情報を生成する。そして、パーツ画像選択部204は、これらの複数のアバター情報をユーザ端末装置に対して送信する。
そして、ユーザ端末装置300においては、複数のアバター情報が受信されるのに応じて、以下のように、アバター画像の作成と表示を行う。
図22のフローチャートは、図21のステップS202によるアバター画像作成のための処理として、上記のように複数のアバター情報が送信されてくる可能性のある第2の実施形態に対応する場合の処理手順例を示している。
アバター情報が1つである場合(ステップS401−NO)、アバター画像作成部312は、この受信された1つのアバター情報に対応する1つのアバター画像を作成する(ステップS402)。
一方、アバター情報が複数である場合(ステップS401−YES)、アバター画像作成部312は、受信された複数のアバター情報のそれぞれに対応する複数のアバター画像を作成する(ステップS403)。
作成されたアバター画像が1つである場合(ステップS501−NO)、表示制御部313は、この1つのアバター画像を表示部303に表示させる(ステップS502)。
一方、アバター情報が複数である場合(ステップS501−YES)、表示制御部313は、作成された複数のアバター画像を表示部303に表示させる(ステップS503)。
これにより、第2の実施形態においては、顔画像データに似ているとされるアバター画像として複数の候補をユーザに提供できる。これにより、ユーザは、複数のアバター画像の候補のうちから、最も似ていると自分が判断したものを選択することができる。そして、この結果が特徴点データベース700Aの更新に反映される。これにより、特徴点データベース700Aには、例えばアバターの顔に対するユーザの好みの傾向など反映されることになる。つまり、ユーザの好みの傾向などに適合するように特徴点データベース700Aの精度向上を図ることができる。
[概要]
次に、第3の実施形態について説明する。
先の第2の実施形態において、アバター画像作成部312は、アバター作成アプリケーションサーバ200から複数のアバター情報が受信された場合、これら複数のアバター情報のそれぞれに基づいて複数のアバター画像を作成した。
しかし、例えば、複数のアバター情報において或るパーツ種別IDにおけるパーツIDの一致頻度が高い場合、そのパーツ種別においては、その一致頻度が高いパーツIDのパーツ画像が他のパーツ画像よりも類似していると推定できる。
そこで、第3の実施異形態におけるアバター画像作成部312は、アバター情報ごとにアバター画像を作成するのではなく、一致頻度が高いパーツIDについては、複数のアバター情報に共通に適用する。そして、アバター画像作成部312は、このように一致頻度が高いパーツIDを共通化したアバター情報によりアバター画像を作成する。これにより、作成された複数のアバター画像は、いずれも作成元の顔画像データに対する類似度が高くなる。
つまり、パーツ画像選択部204が特徴点データと特徴点データベース700Aとを比較した結果に基づいて、同一のパーツ種別に対応するパーツ画像のうちから複数のパーツ画像が選択された場合、アバター画像作成部312は、選択された複数のパーツ画像のそれぞれに対応して複数のアバター画像を作成する。また、表示制御部313は、上記のように作成された複数のアバター画像を表示部303に表示させる。
図24のフローチャートは、図21のステップS202によるアバター画像作成のための処理として、第3の実施形態に対応する場合の処理手順例を示している。なお、この図において、図22と同じステップについては、同一符号を付している。
アバター情報が1つである場合(ステップS401−NO)、アバター画像作成部312は、この受信された1つのアバター情報に対応する1つのアバター画像を作成する(ステップS402)。
次に、アバター画像作成部312は、複数のアバター情報においてステップS403Aにより判定したパーツ種別IDに対応するパーツIDについては、一致頻度がもっと高いパーツIDを共通に格納するように複数のアバター情報を再生成する(ステップS403B)。
そして、アバター画像作成部312は、上記のように再生成した複数のアバター情報ごとに対応して複数のアバター画像を作成する(ステップS403C)。
次に、本実施形態の変形例について説明する。
これまでの実施形態において、アバター作成アプリケーションはネイティブ型のアプリケーションプログラムとしてユーザ端末装置300にインストールされている場合を例に挙げてきた。しかし、アバター作成アプリケーションを、ブラウザ型のアプリケーション(ウェブアプリケーションともいう)として構成することもできる。
そこで、本実施形態の変形例として、ブラウザ型のアバター作成アプリケーションに対応するアバター作成システムの構成を挙げる。
ユーザ端末装置300Aのウェブブラウザ部315は、上記のように送信されるファイルを再生する。このようにファイルを再生することにより、ユーザ端末装置300Aの表示部303にアバター作成アプリケーションのアプリケーション画面を表示させる。なお、この変形例の場合、図15における顔画像データ送信部311と表示制御部313の機能は、上記のようにアバター作成アプリケーションのファイルを再生するウェブブラウザ部315により実現される。
ユーザ端末装置300Aのユーザは、上記のようにアバター画像が表示されたアプリケーション画面に対して、アバター編集のための操作を行うことができる。アバター編集のための操作が行われるのに応じて、ウェブブラウザ部315は、その操作に応じたコマンドをアバター作成アプリケーションサーバ200Aから出力に対して送信する。
そして、ユーザが、アプリケーション画面に対してアバター確定のための操作を行うのに応じて、ウェブブラウザ部315は、アバター作成アプリケーションサーバ200Aに対して確定通知を送信する。この確定通知の受信に応答して、特徴点データベース更新部205は、図15の場合と同様に、特徴点データベース700Aを更新するものである。
また、「コンピュータ読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM、CD−ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置のことをいう。さらに「コンピュータ読み取り可能な記録媒体」とは、インターネット等のネットワークや電話回線等の通信回線を介してプログラムが送信された場合のサーバやクライアントとなるコンピュータシステム内部の揮発性メモリ(RAM)のように、一定時間プログラムを保持しているものも含むものとする。また上記プログラムは、前述した機能の一部を実現するためのものであっても良く、さらに前述した機能をコンピュータシステムにすでに記録されているプログラムとの組み合わせで実現できるものであってもよい。
101 サンプル顔画像データ入力部
102 特徴点データ取得部
103 表示制御部
104 取得部
105 特徴点データベース生成部
105A オブジェクト定義テーブル生成部
105B 特徴点ハッシュテーブル生成部
106 記憶部
107 特徴点データベース送信部
108 操作部
109 表示部
200 アバター作成アプリケーションサーバ
201 顔画像データ入力部
202 特徴点データ取得部
203 記憶部
204 パーツ画像選択部
205 特徴点データベース更新部
206 通信部
300 ユーザ端末装置
301 制御部
302 操作部
303 表示部
304 通信部
311 顔画像データ送信部
312 アバター画像作成部
313 表示制御部
314 アバター編集部
400 アバター利用アプリケーションサーバ
500 ネットワーク
600 パーツ画像テーブル
600A パーツ画像テーブル
700 特徴点データベース
700A 特徴点データベース
710 オブジェクト定義テーブル
710A オブジェクト定義テーブル
711 レコード
720 特徴点ハッシュテーブル
720A 特徴点ハッシュテーブル
721 レコード
810 代表点座標情報
820 正規化座標情報
820A シフト演算座標
830 座標ハッシュ情報
910 座標ハッシュ情報
920 アバター情報
Claims (12)
- 画像データを入力する画像入力部と、
入力された前記画像データを解析することにより、その解析結果を示す解析データを取得する解析データ取得部と、
前記解析データと比較データ記憶部が記憶する比較データとを比較した結果に基づいて、要素画像記憶部が記憶する複数の要素画像のうちから要素画像を選択する要素画像選択部と、
選択された要素画像に基づいて全体画像を作成する全体画像作成部と、
作成された前記全体画像をユーザに提供する全体画像提供部と、
提供された前記全体画像の内容を前記ユーザの指示に応じて編集する全体画像編集部と、
前記全体画像の内容が確定されるのに応じて、確定されたときの前記全体画像の内容に基づいて前記比較データを更新する更新部と
を備えることを特徴とする画像作成システム。 - 前記比較データ記憶部は、
予め用意した複数の画像データを利用して作成された初期の比較データを予め記憶しており、
前記更新部は、
前記初期の比較データに対して新たな比較データを追加するように更新する
ことを特徴とする請求項1に記載の画像作成システム。 - 前記要素画像記憶部は、
複数の要素種別のそれぞれに対応する複数の要素画像を記憶し、
前記要素画像選択部は、
前記複数の要素種別ごとに要素画像を選択する
ことを特徴とする請求項1または2に記載の画像作成システム。 - 前記全体画像作成部は、
前記解析データと前記比較データとを比較した結果に基づいて、同一の要素種別に対応する要素画像のうちから複数の要素画像が選択された場合、選択された複数の要素画像のそれぞれに対応して複数の前記全体画像を作成し、
前記全体画像提供部は、
作成された前記複数の全体画像をユーザに提供する
ことを特徴とする請求項3に記載の画像作成システム。 - 前記全体画像作成部は、
同一の要素種別に対応する要素画像のうちから複数の要素画像が選択された場合に、最も一致頻度が高い要素画像に対応する要素種別については、前記最も一致頻度が高い要素画像を共通に使用して前記複数の全体画像を作成する
ことを特徴とする請求項4に記載の画像作成システム。 - ネットワーク経由でユーザ端末装置と通信を行う通信部と、
画像データを入力する画像入力部と、
入力された前記画像データを解析することにより、その解析結果を示す解析データを取得する解析データ取得部と、
前記解析データと比較データ記憶部が記憶する比較データとを比較した結果に基づいて、要素画像記憶部が記憶する複数の要素画像のうちから要素画像を選択する要素画像選択部と、
選択された要素画像に基づいて作成された全体画像の内容が前記ユーザ端末装置に対するユーザの指示に応じて確定されるのに応じて、確定されたときの前記全体画像の内容に基づいて前記比較データを更新する更新部と
を備えることを特徴とする画像作成アプリケーションサーバ。 - ネットワーク経由でユーザ端末装置と通信を行う通信部と、
画像データを入力する画像入力部と、
入力された前記画像データを解析することにより、その解析結果を示す解析データを取得する解析データ取得部と、
前記解析データと比較データ記憶部が記憶する比較データとを比較した結果に基づいて、要素画像記憶部が記憶する複数の要素画像のうちから要素画像を選択する要素画像選択部と、
選択された要素画像に基づいて全体画像を作成する全体画像作成部と、
前記ユーザ端末装置に対して行われたユーザの指示に応じて、作成された前記全体画像の内容を編集する全体画像編集部と、
前記全体画像の内容が前記ユーザ端末装置に対するユーザの指示に応じて確定されるのに応じて、確定されたときの前記全体画像の内容に基づいて前記比較データを更新する更新部と
を備えることを特徴とする画像作成アプリケーションサーバ。 - 画像データを入力する画像入力ステップと、
入力された前記画像データを解析することにより、その解析結果を示す解析データを取得する解析データ取得ステップと、
前記解析データと比較データ記憶部に記憶される比較データとを比較した結果に基づいて、複数の要素画像のうちから要素画像を選択する要素画像選択ステップと、
選択された要素画像に基づいて全体画像を作成する全体画像作成ステップと、
作成された前記全体画像をユーザに提供する全体画像提供ステップと、
提供された前記全体画像の内容を前記ユーザの指示に応じて編集する全体画像編集ステップと、
前記全体画像の内容が確定されるのに応じて、確定されたときの前記全体画像の内容に基づいて前記比較データを更新する更新ステップと
を備えることを特徴とする画像作成方法。 - ネットワーク経由でユーザ端末装置と通信を行う通信ステップと、
画像データを入力する画像入力ステップと、
入力された前記画像データを解析することにより、その解析結果を示す解析データを取得する解析データ取得ステップと、
前記解析データと比較データ記憶部に記憶される比較データとを比較した結果に基づいて、複数の要素画像のうちから要素画像を選択する要素画像選択ステップと、
選択された要素画像に基づいて作成された全体画像の内容が前記ユーザ端末装置に対するユーザの指示に応じて確定されるのに応じて、確定されたときの前記全体画像の内容に基づいて前記比較データを更新する更新ステップと
を備えることを特徴とする画像作成方法。 - ネットワーク経由でユーザ端末装置と通信を行う通信ステップと、
画像データを入力する画像入力ステップと、
入力された前記画像データを解析することにより、その解析結果を示す解析データを取得する解析データ取得ステップと、
前記解析データと比較データ記憶部に記憶される比較データとを比較した結果に基づいて、複数の要素画像のうちから要素画像を選択する要素画像選択ステップと、
選択された要素画像に基づいて全体画像を作成する全体画像作成ステップと、
前記ユーザ端末装置に対して行われたユーザの指示に応じて、作成された前記全体画像の内容を編集する全体画像編集ステップと、
前記ユーザ端末装置に対するユーザの指示に応じて前記全体画像の内容が確定されるのに応じて、確定されたときの前記全体画像の内容に基づいて前記比較データを更新する更新ステップと
を備えることを特徴とする画像作成方法。 - コンピュータに、
ネットワーク経由でユーザ端末装置と通信を行う通信ステップと、
画像データを入力する画像入力ステップと、
入力された前記画像データを解析することにより、その解析結果を示す解析データを取得する解析データ取得ステップと、
前記解析データと比較データ記憶部に記憶される比較データとを比較した結果に基づいて、複数の要素画像のうちから要素画像を選択する要素画像選択ステップと、
選択された要素画像に基づいて作成された全体画像の内容が前記ユーザ端末装置に対するユーザの指示に応じて確定されるのに応じて、確定されたときの前記全体画像の内容に基づいて前記比較データを更新する更新ステップと
を実行させるためのプログラム。 - コンピュータに、
ネットワーク経由でユーザ端末装置と通信を行う通信ステップと、
画像データを入力する画像入力ステップと、
入力された前記画像データを解析することにより、その解析結果を示す解析データを取得する解析データ取得ステップと、
前記解析データと比較データ記憶部に記憶される比較データとを比較した結果に基づいて、複数の要素画像のうちから要素画像を選択する要素画像選択ステップと、
選択された要素画像に基づいて全体画像を作成する全体画像作成ステップと、
前記ユーザ端末装置に対して行われたユーザの指示に応じて、作成された前記全体画像の内容を編集する全体画像編集ステップと、
前記ユーザ端末装置に対するユーザの指示に応じて前記全体画像の内容が確定されるのに応じて、確定されたときの前記全体画像の内容に基づいて前記比較データを更新する更新ステップと
を実行させるためのプログラム。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012285883A JP5420056B2 (ja) | 2012-05-31 | 2012-12-27 | 画像作成システム、画像作成アプリケーションサーバ、画像作成方法およびプログラム |
PCT/JP2013/065187 WO2013180266A1 (ja) | 2012-05-31 | 2013-05-31 | 画像作成システム、画像作成アプリケーションサーバ、画像作成方法およびプログラム |
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012125331 | 2012-05-31 | ||
JP2012125331 | 2012-05-31 | ||
JP2012285883A JP5420056B2 (ja) | 2012-05-31 | 2012-12-27 | 画像作成システム、画像作成アプリケーションサーバ、画像作成方法およびプログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2014006873A JP2014006873A (ja) | 2014-01-16 |
JP5420056B2 true JP5420056B2 (ja) | 2014-02-19 |
Family
ID=49673449
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2012285883A Active JP5420056B2 (ja) | 2012-05-31 | 2012-12-27 | 画像作成システム、画像作成アプリケーションサーバ、画像作成方法およびプログラム |
Country Status (2)
Country | Link |
---|---|
JP (1) | JP5420056B2 (ja) |
WO (1) | WO2013180266A1 (ja) |
Families Citing this family (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6789008B2 (ja) * | 2016-06-15 | 2020-11-25 | ヤフー株式会社 | キャラクタ評価装置、キャラクタ評価方法、及びキャラクタ評価プログラム |
JP7041484B2 (ja) * | 2017-09-26 | 2022-03-24 | 株式会社コロプラ | プログラム、情報処理装置、情報処理システム、および情報処理方法 |
JP7031009B2 (ja) * | 2018-04-13 | 2022-03-07 | ライン プラス コーポレーション | アバター生成装置およびコンピュータプログラム |
CN109712210B (zh) * | 2018-12-17 | 2023-03-28 | 重庆长安汽车股份有限公司 | 基于区块链的图形生成方法 |
CN112036241A (zh) * | 2020-07-27 | 2020-12-04 | 北京达佳互联信息技术有限公司 | 一种图像处理方法、装置、电子设备及存储介质 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011221812A (ja) * | 2010-04-09 | 2011-11-04 | Sony Corp | 情報処理装置及び方法、並びにプログラム |
-
2012
- 2012-12-27 JP JP2012285883A patent/JP5420056B2/ja active Active
-
2013
- 2013-05-31 WO PCT/JP2013/065187 patent/WO2013180266A1/ja active Application Filing
Also Published As
Publication number | Publication date |
---|---|
JP2014006873A (ja) | 2014-01-16 |
WO2013180266A1 (ja) | 2013-12-05 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5833772B2 (ja) | 実世界オブジェクトの3dモデルおよび正しい縮尺のメタデータをキャプチャし移動させるための方法およびシステム | |
US9679416B2 (en) | Content creation tool | |
JP5134664B2 (ja) | アノテーション装置 | |
JP5420056B2 (ja) | 画像作成システム、画像作成アプリケーションサーバ、画像作成方法およびプログラム | |
US20160012612A1 (en) | Display control method and system | |
CN110070556A (zh) | 使用深度传感器的结构建模 | |
TW202009682A (zh) | 基於擴增實境的互動方法及裝置 | |
US9805477B2 (en) | Display management method and associated computer program product and electronic device | |
JP6447689B1 (ja) | 情報処理装置及びプログラム | |
JP2013210731A (ja) | データ処理システム、データ処理システムの制御方法、ユーザ装置、ユーザ装置の制御方法、データ処理装置、データ処理装置の制御方法、プログラム、及び情報記憶媒体 | |
JP6376591B2 (ja) | データ出力装置、データ出力方法及び3次元物体製造システム | |
US20140142900A1 (en) | Information processing apparatus, information processing method, and program | |
JP2019101944A (ja) | 知的財産システム、知的財産支援方法および知的財産支援プログラム | |
CN104102759B (zh) | 建筑模型影像显示系统及其方法 | |
JP6372165B2 (ja) | デザイン管理装置及びプログラム | |
JP2019114308A (ja) | 知的財産システム、知的財産支援方法および知的財産支援プログラム | |
CN110689614A (zh) | 基于电子地图的设备信息收集方法、介质、设备及系统 | |
JP2022022244A (ja) | 情報処理装置、管理データの生成方法及び管理データ | |
WO2022212669A1 (en) | Determining classification recommendations for user content | |
JP6182930B2 (ja) | 奥行き制作支援装置、奥行き制作方法、及びプログラム | |
JP6256545B2 (ja) | 情報処理装置、その制御方法、及びプログラム、並びに、情報処理システム、その制御方法、及びプログラム | |
JP6862331B2 (ja) | 思考・議論支援システムおよび思考・議論支援装置 | |
JP2019102099A (ja) | 知的財産システム、知的財産支援方法および知的財産支援プログラム | |
JP2015035189A5 (ja) | ||
JP7320414B2 (ja) | 3dデータデザイナ検索システム、3dデータデザイナ検索方法、及びプログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20131022 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20131119 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5420056 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
S531 | Written request for registration of change of domicile |
Free format text: JAPANESE INTERMEDIATE CODE: R313531 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |