JP5420056B2 - 画像作成システム、画像作成アプリケーションサーバ、画像作成方法およびプログラム - Google Patents

画像作成システム、画像作成アプリケーションサーバ、画像作成方法およびプログラム Download PDF

Info

Publication number
JP5420056B2
JP5420056B2 JP2012285883A JP2012285883A JP5420056B2 JP 5420056 B2 JP5420056 B2 JP 5420056B2 JP 2012285883 A JP2012285883 A JP 2012285883A JP 2012285883 A JP2012285883 A JP 2012285883A JP 5420056 B2 JP5420056 B2 JP 5420056B2
Authority
JP
Japan
Prior art keywords
image
unit
avatar
data
feature point
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2012285883A
Other languages
English (en)
Other versions
JP2014006873A (ja
Inventor
将也 二階堂
孝 末永
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Konami Digital Entertainment Co Ltd
Original Assignee
Konami Digital Entertainment Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Konami Digital Entertainment Co Ltd filed Critical Konami Digital Entertainment Co Ltd
Priority to JP2012285883A priority Critical patent/JP5420056B2/ja
Priority to PCT/JP2013/065187 priority patent/WO2013180266A1/ja
Publication of JP2014006873A publication Critical patent/JP2014006873A/ja
Application granted granted Critical
Publication of JP5420056B2 publication Critical patent/JP5420056B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Computer Graphics (AREA)
  • Geometry (AREA)
  • Software Systems (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Processing Or Creating Images (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Description

本発明は、画像作成システム、画像作成アプリケーションサーバ、画像作成方法およびプログラムに関する。
SNS(ソーシャルネットワーキングサービス)などのネットワーク上でのコミュニケーションサービスにおいて、自己の分身のキャラクターであるアバターによりユーザを表現することが行われている。このアバターは、一般的に二次元モデルまたは三次元モデルの画像で表される。
このようなアバターの顔はユーザの似顔絵であると捉えることができる。この観点から、自分の似顔絵を簡単に作成してデジタル化するための技術として、以下のような顔画像認識システムが知られている。
つまり、この顔画像認識システムは、顔を撮像した顔画像と予めデータベース化されている顔パーツとのマッチングを行い、大きさ・位置・色・傾き等のデータをパーツに付加してコード化する。そして、顔画像認識システムは、コード化されたデータをもとに似顔絵を画面等に自動出力するとうものである。また、この顔画像認識システムは、表示された顔パーツをユーザ操作に応じて変形するように調整することが可能とされている(例えば、特許文献1参照)。
特開2007−164408号公報
上記のように顔画像を元としてアバターを自動作成するにあたり、アバターが似顔絵であるとの観点のもとでは、アバター作成元の画像に対するアバターの類似度ができるだけ高いほうがアバターの質も向上することとなって好ましい。
しかし、特許文献1においては、アバター作成元の画像に対するアバターの類似度を向上させることについては特に配慮されていない。例えば、特許文献1の構成の場合、上記の類似度は顔パーツのデータベースの充実度に依存する。したがって、例えば特許文献1の構成において、データベースが格納する顔パーツの数が不十分であれば、類似度の低い傾向の顔パーツが継続して作成されてしまうことになる。
本発明は、上記のような事情に鑑みてなされたもので、アバター作成元の画像に対するアバターの類似度が向上されるようにすることを目的とする。
上述した課題を解決するために、本発明の一態様としての画像作成システムは、画像データを入力する画像入力部(201)と、入力された前記画像データを解析することにより、その解析結果を示す解析データを取得する解析データ取得部(202)と、前記解析データと比較データ記憶部が記憶する比較データとを比較した結果に基づいて、要素画像記憶部が記憶する複数の要素画像のうちから要素画像を選択する要素画像選択部(204)と、選択された要素画像に基づいて全体画像を作成する全体画像作成部(312)と、作成された前記全体画像をユーザに提供する全体画像提供部(313)と、提供された前記全体画像の内容を前記ユーザの指示に応じて編集する全体画像編集部(314)と、前記全体画像の内容が確定されるのに応じて、確定されたときの前記全体画像の内容に基づいて前記比較データを更新する更新部(205)とを備える。
また、上記の本発明の一態様としての画像作成システムにおいて、前記比較データ記憶部は、予め用意した複数の画像データを利用して作成された初期の比較データを予め記憶しており、前記更新部は、前記初期の比較データに対して新たな比較データを追加するように更新してもよい。
また、上記の本発明の一態様としての画像作成システムにおいて、前記要素画像記憶部は、複数の要素種別のそれぞれに対応する複数の要素画像を記憶し、前記要素画像選択部は、前記複数の要素種別ごとに要素画像を選択してもよい。
また、上記の本発明の一態様としての画像作成システムにおいて、前記全体画像作成部は、前記解析データと前記比較データとを比較した結果に基づいて、同一の要素種別に対応する要素画像のうちから複数の要素画像が選択された場合、選択された複数の要素画像のそれぞれに対応して複数の前記全体画像を作成し、前記全体画像提供部は、作成された前記複数の全体画像をユーザに提供してもよい。
また、上記の本発明の一態様としての画像作成システムにおいて、前記全体画像作成部は、同一の要素種別に対応する要素画像のうちから複数の要素画像が選択された場合に、最も一致頻度が高い要素画像に対応する要素種別については、前記最も一致頻度が高い要素画像を共通に使用して前記複数の全体画像を作成してもよい。
また、本発明の一態様としての画像作成アプリケーションサーバは、ネットワーク経由でユーザ端末装置と通信を行う通信部と、画像データを入力する画像入力部と、入力された前記画像データを解析することにより、その解析結果を示す解析データを取得する解析データ取得部と、前記解析データと比較データ記憶部が記憶する比較データとを比較した結果に基づいて、要素画像記憶部が記憶する複数の要素画像のうちから要素画像を選択する要素画像選択部と、選択された要素画像に基づいて作成された全体画像の内容が前記ユーザ端末装置に対するユーザの指示に応じて確定されるのに応じて、確定されたときの前記全体画像の内容に基づいて前記比較データを更新する更新部とを備える。
また、本発明の一態様としての画像作成アプリケーションサーバは、ネットワーク経由でユーザ端末装置と通信を行う通信部と、画像データを入力する画像入力部と、入力された前記画像データを解析することにより、その解析結果を示す解析データを取得する解析データ取得部と、前記解析データと比較データ記憶部が記憶する比較データとを比較した結果に基づいて、要素画像記憶部が記憶する複数の要素画像のうちから要素画像を選択する要素画像選択部と、選択された要素画像に基づいて全体画像を作成する全体画像作成部と、前記ユーザ端末装置に対して行われたユーザの指示に応じて、作成された前記全体画像の内容を編集する全体画像編集部と、前記全体画像の内容が前記ユーザ端末装置に対するユーザの指示に応じて確定されるのに応じて、確定されたときの前記全体画像の内容に基づいて前記比較データを更新する更新部とを備える。
また、本発明の一態様としての画像作成方法は、画像データを入力する画像入力ステップと、入力された前記画像データを解析することにより、その解析結果を示す解析データを取得する解析データ取得ステップと、前記解析データと比較データ記憶部に記憶される比較データとを比較した結果に基づいて、複数の要素画像のうちから要素画像を選択する要素画像選択ステップと、選択された要素画像に基づいて全体画像を作成する全体画像作成ステップと、作成された前記全体画像をユーザに提供する全体画像提供ステップと、提供された前記全体画像の内容を前記ユーザの指示に応じて編集する全体画像編集ステップと、前記全体画像の内容が確定されるのに応じて、確定されたときの前記全体画像の内容に基づいて前記比較データを更新する更新ステップとを備える。
また、本発明の一態様としての画像作成方法は、ネットワーク経由でユーザ端末装置と通信を行う通信ステップと、画像データを入力する画像入力ステップと、前記解析データと比較データ記憶部に記憶される比較データとを比較した結果に基づいて、複数の要素画像のうちから要素画像を選択する要素画像選択ステップと、選択された要素画像に基づいて作成された全体画像の内容が前記ユーザ端末装置に対するユーザの指示に応じて確定されるのに応じて、確定されたときの前記全体画像の内容に基づいて前記比較データを更新する更新ステップとを備える。
また、本発明の一態様としての画像作成方法は、ネットワーク経由でユーザ端末装置と通信を行う通信ステップと、画像データを入力する画像入力ステップと、入力された前記画像データを解析することにより、その解析結果を示す解析データを取得する解析データ取得ステップと、前記解析データと比較データ記憶部に記憶される比較データとを比較した結果に基づいて、複数の要素画像のうちから要素画像を選択する要素画像選択ステップと、選択された要素画像に基づいて全体画像を作成する全体画像作成ステップと、
前記ユーザ端末装置に対して行われたユーザの指示に応じて、作成された前記全体画像の内容を編集する全体画像編集ステップと、前記ユーザ端末装置に対するユーザの指示に応じて前記全体画像の内容が確定されるのに応じて、確定されたときの前記全体画像の内容に基づいて前記比較データを更新する更新ステップとを備える。
また、本発明の一態様としてのプログラムは、コンピュータに、ネットワーク経由でユーザ端末装置と通信を行う通信ステップと、画像データを入力する画像入力ステップと、前記解析データと比較データ記憶部に記憶される比較データとを比較した結果に基づいて、複数の要素画像のうちから要素画像を選択する要素画像選択ステップと、選択された要素画像に基づいて作成された全体画像の内容が前記ユーザ端末装置に対するユーザの指示に応じて確定されるのに応じて、確定されたときの前記全体画像の内容に基づいて前記比較データを更新する更新ステップとを実行させるためのものである。
また、本発明の一態様としてのプログラムは、コンピュータに、ネットワーク経由でユーザ端末装置と通信を行う通信ステップと、画像データを入力する画像入力ステップと、入力された前記画像データを解析することにより、その解析結果を示す解析データを取得する解析データ取得ステップと、前記解析データと比較データ記憶部に記憶される比較データとを比較した結果に基づいて、複数の要素画像のうちから要素画像を選択する要素画像選択ステップと、選択された要素画像に基づいて全体画像を作成する全体画像作成ステップと、前記ユーザ端末装置に対して行われたユーザの指示に応じて、作成された前記全体画像の内容を編集する全体画像編集ステップと、前記ユーザ端末装置に対するユーザの指示に応じて前記全体画像の内容が確定されるのに応じて、確定されたときの前記全体画像の内容に基づいて前記比較データを更新する更新ステップとを実行させるためのものである。
以上説明したように、本発明によれば、アバター作成元の画像に対するアバターの類似度が向上するという効果が得られる。
本実施形態のアバター作成システムの構成例を示す図である。 本実施形態における特徴点データベース生成装置の構成例を示す図である。 本実施形態におけるパーツ画像テーブルの構成例を示す図である。 本実施形態における特徴点データ取得部による特徴点データの取得例を示す図である。 本実施形態におけるオブジェクト定義テーブル生成部が生成する代表点座標情報の一例を示す図である。 本実施形態におけるオブジェクト定義テーブル生成部が生成するオブジェクト定義テーブルのレコードの一例を示す図である。 本実施形態における特徴点の正規化座標を求めるための手順例を示す図である。 本実施形態における特徴点の正規化座標を求めるための手順例を示す図である。 特徴点ハッシュテーブル生成部が生成する正規化座標情報の一例を示す図である。 特徴点ハッシュテーブル生成部が正規化座標情報をハッシュ値に変換するためのシフト演算処理の一例を示す図である。 特徴点ハッシュテーブル生成部が生成する座標ハッシュ情報の一例を示す図である。 特徴点ハッシュテーブル生成部が生成する特徴点ハッシュテーブルのレコードの一例を示す図である。 本実施形態の特徴点データベース生成装置が生成する特徴点データベースの構造例を示す図である。 本実施形態の特徴点データベース生成装置が実行する処理手順例を示す図である。 本実施形態におけるアバター作成アプリケーションサーバとユーザ端末装置の構成例を示す図である。 本実施形態におけるアバター作成アプリケーションサーバの特徴点データ取得部が生成する座標ハッシュ情報の一例を示す図である。 本実施形態におけるアバター作成アプリケーションサーバが記憶する特徴点データベースの内容例を示す図である。 本実施形態のパーツ画像選択部による座標ハッシュ情報の座標ハッシュと特徴点データベースの座標ハッシュとの比較結果の一例を示す図である。 本実施形態のパーツ画像選択部によるパーツIDの集計結果を示す図である。 本実施形態のパーツ画像選択部が生成するアバター情報の一例を示す図である。 第1の実施形態におけるユーザ端末装置とアバター作成アプリケーションサーバが実行する処理手順例を示す図である。 第2の実施形態においてユーザ端末装置のアバター画像作成部が実行する処理手順例を示す図である。 第2の実施形態においてユーザ端末装置の表示制御部が実行する処理手順例を示す図である。 第3の実施形態においてユーザ端末装置のアバター画像作成部が実行する処理手順例を示す図である。 変形例におけるアバター作成アプリケーションサーバとユーザ端末装置の構成例を示す図である。
<第1の実施形態>
[アバター作成システムの構成例]
図1は、本実施形態のアバター作成システム(画像作成システム)の構成例を示している。
この図に示すアバター作成システムは、特徴点データベース生成装置100と、アバター作成アプリケーションサーバ200と、ユーザ端末装置300と、アバター利用アプリケーションサーバ400を備える。また、アバター作成アプリケーションサーバ200と、ユーザ端末装置300と、アバター利用アプリケーションサーバ400は、ネットワーク500と接続される。
特徴点データベース生成装置100は、特徴点データベースを生成する装置である。特徴点データベースは、オブジェクトごとの特徴点にパーツ画像を対応付けた構造のデータベースである。オブジェクトとは、例えば複数の顔画像データごとに抽出された目、鼻、口、眉毛などの所定の部位に対応する。このオブジェクトに対応する所定の部位は、アバターを作成するにあたって必要とされている目、鼻、口、眉毛などのパーツ画像の種別(パーツ種別)に対応する。特徴点データベース生成装置100が生成した特徴点データベースは、アバター作成アプリケーションサーバ200が記憶する。
アバター作成アプリケーションサーバ(画像作成アプリケーションサーバ)200は、アバター作成アプリケーションに関連した処理を実行するサーバである。
本実施形態においては、ユーザ端末装置300において、ネイティブ型のアバター作成アプリケーションが動作する。例えば、このアバター作成アプリケーションに対するユーザの操作に応じて、ユーザ端末装置300がアバター作成アプリケーションサーバ200に対して操作情報を送信する。アバター作成アプリケーションサーバ200は、この操作情報に応答した所定の処理を実行する。
そして、本実施形態のアバター作成アプリケーションは、ユーザ端末装置300にて取得した顔画像データを利用して、この顔画像データが示す顔に類似したアバターを自動作成する。ここで、ユーザ端末装置300が取得する顔画像データは、例えば、ユーザなどの顔を撮像することによって生成された撮像画像データである。また、例えば、ユーザなどの似顔絵を描いたイラストのようなものの画像データであってもよい。
ユーザ端末装置300が取得した顔画像データは、ユーザ端末装置300上で動作するアバター作成アプリケーションに対する操作によりアバター作成元の顔画像として指定されるのに応じて、アバター作成アプリケーションサーバ200に対して送信される。
アバター作成アプリケーションサーバ200は、ユーザ端末装置300から受信した顔画像データが示す顔に類似したアバターを自動作成する。この際に、アバター作成アプリケーションサーバ200は、受信した顔画像データと、自己が記憶する特徴点データベースとを照合することにより顔画像における部位ごとに類似したパーツ画像を特定し、これらの特定したパーツ画像によりアバターを作成する。
ユーザ端末装置300は、ユーザが操作するネットワーク端末装置であり、具体的には、例えば携帯電話やスマートフォン、タブレット端末などである。
上記のように、ユーザ端末装置300をアバター作成アプリケーションサーバ200と接続することにより、ユーザ端末装置300上でアバター作成アプリケーションが動作する。
また、ユーザ端末装置300を、後述するアバター利用アプリケーションサーバ400と接続することにより、ユーザ端末装置300上でアバター作成アプリケーションが動作する。
アバター利用アプリケーションサーバ400は、アバター利用アプリケーションをユーザ端末装置300のユーザに提供するサーバである。アバター利用アプリケーションとは、アバター作成アプリケーションサーバにより作成されたアバターを利用するアプリケーションである。
アバター利用アプリケーションの一例は、仮想空間コミュニティーアプリケーションである。
ユーザ端末装置300上で動作する仮想空間コミュニティーアプリケーションの画面においては、そのユーザ端末装置300を操作するユーザ自身のアバターと、他のユーザのアバターが仮想空間において存在している。これらのアバターは、例えば対応のユーザが投稿したつぶやきなどを話しているように表現される。また、例えば仮想空間の画面を操作して他のアバターに触れて例えばなでてあげたりすると、そのアバターが喜ぶ様子なども表示されるようになっている。このように、仮想空間コミュニティーアプリケーションにおいては、アバターを利用して、他のユーザとコミュニケーションを図ることができる。
[特徴点データベース生成装置の構成例]
図2は、特徴点データベース生成装置100の構成例を示している。本実施形態においては、特徴点データベースを生成するための作業者が、特徴点データベース生成装置100にサンプル顔画像を入力する。そして、作業者は、予め用意された複数のパーツ画像のうちから、サンプル顔画像におけるオブジェクト(アバター作成のためのパーツ画像に対応する目、鼻、口、眉毛などの部位)の各々と最も類似しているものを目視により判断する。そして、作業者は、サンプル画像におけるオブジェクトと、このオブジェクトに最も類似していると判断したパーツ画像とを対応付ける操作を特徴点データベース生成装置100に対して行う。この操作に応じて、特徴点データベース生成装置100は、オブジェクトごとの特徴点に対応するパーツ画像を示す特徴点データベースを生成する。
図2に示す特徴点データベース生成装置100は、サンプル顔画像データ入力部101、特徴点データ取得部102、表示制御部103、パーツID取得部104、特徴点データベース生成部105、記憶部106、特徴点データベース送信部107、操作部108および表示部109を備える。
サンプル顔画像データ入力部101は、特徴点データベースの生成のために予めサンプルとして用意された顔画像データであるサンプル顔画像データを外部から入力する。このサンプル顔画像データは、例えば、サンプル対象として集められた現実の人の顔を撮像することにより得られるものである。また、サンプル顔画像データ入力部101は、例えば所定のデータインターフェースまたはネットワークを経由してサンプル顔画像データを入力すればよい。
特徴点データ取得部102は、入力したサンプル顔画像データについて顔認識を含む解析処理を実行することにより、予め定義されたオブジェクト(目、鼻、口、眉毛などのアバター作成のためのパーツに対応する部位)を抽出する。そのうえで、特徴点データ取得部102は、抽出したオブジェクトごとの特徴点データを求める。なお、オブジェクトにおける特徴点は、オブジェクトの種別ごとに予め定義されている。また、特徴点データ取得部102は、例えば特徴点データとして、特徴点ごとの座標を求める。
表示制御部103は、特徴点データベース生成のためのユーザインターフェース画像として、サンプル顔画像データ入力部101が入力した顔画像の画像と、記憶部106に記憶されるパーツ画像テーブル600が格納するパーツ画像のリストを表示部109に表示させる。
作業者は、表示部109に表示されるパーツ画像のリストのうちから、同じ表示部109に表示される顔画像が示す顔におけるオブジェクトに対応する部位ごとに最も類似するものを目視により判断する。そして、作業者は、パーツ画像のリストのうちからオブジェクトごとに最も類似すると判断したパーツ画像を選択するための操作を操作部108に対して行う。
パーツID取得部104は、選択されたパーツ画像に対応付けられているパーツIDを記憶部106に記憶されるパーツ画像テーブル600から取得する。つまり、パーツID取得部104は、オブジェクトに最も類似しているものと判定されたパーツ画像を特定するパーツIDを取得する。
特徴点データベース生成部105は、特徴点データ取得部102により顔画像データから取得されたオブジェクトごとの特徴点と、パーツID取得部104により取得されたオブジェクトごとに対応付けられるパーツIDとに基づいて特徴点データベース700を生成する。
また、特徴点データベース生成部105は、オブジェクト定義テーブル生成部105Aと特徴点ハッシュテーブル生成部105Bを備える。
オブジェクト定義テーブル生成部105Aは、特徴点データベース700に含まれるオブジェクト定義テーブル710を生成する。
特徴点ハッシュテーブル生成部105Bは、特徴点データベース700に含まれる特徴点ハッシュテーブル720を生成する。
記憶部106は、特徴点データベース生成装置100としての動作を実現するのに必要なプログラムや各種の情報を記憶する。この図においては、記憶部106が記憶する情報のうち、パーツ画像テーブル600と特徴点データベース700が示されている。
パーツ画像テーブル600は、アバター作成に使用するものとして予め用意されたアバターの目、鼻、口、眉毛などの所定の部位にそれぞれ対応する複数種類のパーツの画像(パーツ画像)をパーツIDに対応付けて格納したテーブルである。
特徴点データベース700は、特徴点データベース生成部105により生成される情報であり、オブジェクトごとの特徴点にパーツ画像のパーツIDを対応付けた構造のデータベースである。
なお、記憶部106が対応するハードウェアの一例は、HDD(Hard Disk Drive)やフラッシュメモリなどである。
特徴点データベース送信部107は、特徴点データベース生成部105により生成された特徴点データベース700を、所定のデータインターフェースまたはネットワークを経由してアバター作成アプリケーションサーバ200に送信する。この際、特徴点データベース送信部107は、記憶部106に記憶されている特徴点データベース700を読み出して送信する。
このように送信された特徴点データベース700は、アバター作成アプリケーションサーバ200において記憶される。
操作部108は、特徴点データベース生成装置100を操作するための操作デバイスや操作子などを一括して示したものである。操作部108に含まれる操作デバイスの一例は、例えばマウスやキーボードなどである。
表示部109は、表示制御部103の制御に応じて画像を表示する。
なお、特徴点データベース生成装置100におけるサンプル顔画像データ入力部101、特徴点データ取得部102、表示制御部103、パーツID取得部104および特徴点データベース生成部105などの機能部は、コンピュータ装置におけるCPU(Central Processing Unit)にプログラムを実行させることにより実現できる。
[パーツテーブル画像の構造例]
ここで、図3を参照して、記憶部106に記憶されるパーツ画像テーブル600の構造例について説明する。
図3に示すパーツ画像テーブル600は、パーツ画像ごとにパーツIDとパーツ種別IDを対応付けて形成される。
パーツ画像は、アバターを形成するための目、鼻、口、眉毛などにそれぞれ対応するパーツの画像である。なお、このパーツ画像として格納されるデータは、例えば画像データのファイル名など、その画像データの実体を参照する情報である。
パーツIDは、対応のパーツ画像を一意に識別するための識別子である。
パーツ種別IDは、対応のパーツ画像が属するパーツ種別を一意に識別するための識別子である。パーツ種別とは、例えば目、鼻、口、眉毛などのパーツの各部位に対応する。
なお、図3において具体的に示されているパーツ画像のパーツ種別は目で共通である。
これに応じて、これらのパーツ画像に対応付けられているパーツ種別IDは、いずれも目であることを示す「0」である。
また、図3においては、図示を簡略にすることの便宜上、目のみに対応する内容例が示されているが、パーツ画像テーブル600は、例えば鼻、口、眉毛などの他のパーツ種別に対応するパーツ画像のレコードも含む。つまり、パーツ画像テーブル600は、複数のパーツ種別のそれぞれに対応するパーツ画像を格納する。
なお、特徴点データベース700の構造例については後述する。
[特徴点データベース生成例]
次に、上記構成の特徴点データベース生成装置100が実行する特徴点データベース生成のための処理の具体例について説明する。
まず、特徴点データ取得部102は、サンプル顔画像データ入力部101が入力した顔画像データから、オブジェクト(顔の部位)ごとについての特徴点データを以下のように求める。
特徴点データ取得部102は、例えば入力したサンプル顔画像データに対してx方向とy方向の二次元による絶対座標系を対応させる。そして、特徴点データ取得部102は、サンプル顔画像データから求めたオブジェクトの特徴点ごとに、その絶対座標系における座標(絶対座標(x、y))を求める。
図4は、目としてのオブジェクトOBJの場合の特徴点データの取得例を模式的に示している。
このようにオブジェクトOBJが目である場合、特徴点データ取得部102は、例えば図示するように、顔画像データから認識した目の画像部分から、6つの特徴点ER1〜ER6のそれぞれの絶対座標系における絶対座標を求めることで、オブジェクトOBJの特徴点データを取得する。
次に、特徴点データベース生成部105におけるオブジェクト定義テーブル生成部105Aは、以下のようにオブジェクト定義テーブル710を生成する。
まず、オブジェクト定義テーブル生成部105Aは、特徴点データ取得部102により取得された複数の特徴点の絶対座標のうちから部位ごとに予め設定されている2つの代表点の絶対座標を示す座標情報を生成する。
図4に示したオブジェクトOBJは目である。目の部位に対応して予め設定されている代表点は、例えば目尻と目頭である。図4に示す特徴点ER1〜ER6のうちで、目尻と目頭に対応するものは特徴点ER1とER4である。したがって、図4における代表点は、特徴点ER1とER4である。以降の説明において、特徴点ER1とER4については、代表点ER1とER4ともいう場合がある。
そして、オブジェクト定義テーブル生成部105Aは、代表点ER1〜ER6のうちから代表点ER1とER4の絶対座標(x、y)を代表点座標情報として取得する。
図5は、図4の代表点ER1とER4の各絶対座標を示す代表点座標情報810を示している。この図に示す代表点座標情報810は、代表点ER1の絶対座標が(356,421)で、代表点ER2の絶対座標が(53,383)であることを示している。
また、これと並行して、作業者は、表示部109に表示される顔画像における図4の目に最も類似すると目視により判断したパーツ画像を指定する操作を行っている。これに応じて、パーツID取得部104は、図4の目としてのオブジェクトに対応付けられたパーツIDを取得している。
そこで、オブジェクト定義テーブル生成部105Aは、代表点座標情報810とパーツID取得部104が取得したパーツIDとを利用して、図4の目としてのオブジェクトOBJに対応するオブジェクト定義テーブル710のレコードを生成する。
図6は、図4のオブジェクトOBJに対応するオブジェクト定義テーブル710のレコード711の内容例を示している。
この図に示すように、オブジェクト定義テーブル710のレコード711は、パーツ種別IDとオブジェクトIDとパーツIDと代表点座標とを含む。
パーツ種別IDは、対応のオブジェクトに対応するパーツ画像の種別を示す。
図4のオブジェクトは目であるので、このオブジェクトに対応するパーツ画像の種別も目である。したがって、図6におけるパーツ種別IDには、パーツ画像の種別が目であることを示す値(例えば「0」)を格納する。このことからすれば、レコード711におけるパーツ種別IDは、オブジェクトが対応する顔の部位についての目、鼻、口、眉毛などの種別を示しているといえる。
オブジェクトIDは、対応のオブジェクトを一意に識別する識別子である。このオブジェクトIDは、レコード711を生成する際に、オブジェクト定義テーブル生成部105Aが生成したうえで付加する。
パーツIDは、オブジェクトに対応付けられたパーツ画像を示すパーツIDである。このパーツIDが、パーツID取得部104により取得されたものである。
代表点座標は、2つの代表点の座標を示すもので、この図の場合には、図5の代表点座標情報810の内容が反映されている。この場合、代表点座標(X0,Y0)が代表点ER1の絶対座標(356,421)を示し、代表点座標(X1,Y1)が代表点ER4の絶対座標(53,383)を示している。
また、上記のオブジェクト定義テーブル生成部105Aの処理と並行して、特徴点ハッシュテーブル生成部105Bは、特徴点データベース700における特徴点ハッシュテーブル720を以下のように生成する。なお、以降の説明は、図4のオブジェクトOBJに対応する特徴点ハッシュテーブル720のレコード721を生成する処理となる。
このために、まず、特徴点ハッシュテーブル生成部105Bは、特徴点データ取得部102が取得した特徴点ER1〜ER6の各絶対座標を正規化座標系における正規化座標(Xnz,Ynz)に変換する。
この正規化座標への変換にあたり、特徴点ハッシュテーブル生成部105Bは正規化座標系を用いる。
図7(a)は、特徴点ハッシュテーブル生成部105Bが用いる正規化座標系の例を示している。この正規化座標系は、X座標とY座標の二次元座標である。ここでは、正規化座標系のX座標をXnzにより表し、Y座標をYnzにより表している。
そして、この正規化座標においては、代表点ER1とER4について予め正規化した基準座標REF1とREF2が設定されている。図7(a)の例では、代表点ER1に対応する基準座標REF1が(8,5)で、代表点ER4に対応する基準座標REF2が(1,5)として設定されている。
そして、特徴点ハッシュテーブル生成部105Bは、例えば図7(b)に示すように、特徴点ER1〜ER6の各絶対座標を、代表点ER4を基準座標REF2に一致させたうえで特徴点ER1〜ER6の各絶対座標を正規化座標系上に配置する。
次に、特徴点ハッシュテーブル生成部105Bは、図7(c)において矢印A、Bにより示すように、もう1つの代表点ER1を、代表点ER4が配置済みの基準座標REF2を基準として、拡大率の変更と回転を行うことにより基準座標REF1に移動させる。
そして、上記のように代表点ER1を基準座標REF1に移動させた際の拡大率と回転角度を、代表点ER1、ER4以外の残る特徴点ER2、ER3、ER5、ER6にも適用して移動させる。
この結果、図8(a)に示すように、特徴点ER1〜ER6の各絶対座標は、正規化座標に変換される。
ただし、図8(a)の段階では、代表点ER1、ER4以外の残る特徴点ER2、ER3、ER5、ER6の正規化座標系における各座標値は、小数点以下の値を含む。これは、整数値をとるべき正規化座標に対して誤差を有していることを意味する。
そこで、特徴点ハッシュテーブル生成部105Bは、図8(b)に示すように、各特徴点ER2、ER3、ER5、ER6について、正規化座標系において近似する整数値の座標に移動させる。これにより、特徴点ER1〜ER6の各絶対座標が正規化座標に変換される。
次に、特徴点ハッシュテーブル生成部105Bは、図8(b)に示すように求めた正規化座標のうち、代表点ER1、ER4以外の特徴点ER2、ER3、ER5、ER6の正規化座標をハッシュ値(以下、座標ハッシュともいう)に変換する。
このために、特徴点ハッシュテーブル生成部105Bは、例えば、図9に示すように、特徴点ER2、ER3、ER5、ER6の正規化座標を示す正規化座標情報820を生成する。
この図9の正規化座標情報820は、図8(b)に示した正規化の結果により得られた特徴点ER2、ER3、ER5、ER6を示している。つまり、特徴点ER2の正規化座標は(7,6)を示し、特徴点ER3の正規化座標は(3,6)を示し、特徴点ER5の正規化座標は(3,4)を示し、特徴点ER6の正規化座標は(7,4)を示す。
そして、特徴点ハッシュテーブル生成部105Bは、図9に示される正規化座標情報820の特徴点ER2、ER3、ER5、ER6の正規化座標の各々について、図10のシフト演算座標820Aとして示すようにシフト演算を行う。この図10の場合には、正規化座標における座標値Xnz、Ynzをそれぞれ16ビットとしてシフト演算を行った場合を示している。
特徴点ハッシュテーブル生成部105Bは、図10に示したシフト演算の結果から、例えば、図11に示すように、例えば特徴点ER2、ER3、ER5、ER6ごとの座標ハッシュを配列した座標ハッシュ情報830を生成する。
この図11に示す座標ハッシュ情報830は、左から右にかけて、順次、特徴点ER2、ER3、ER5、ER6の座標ハッシュが配列されている。
次に、特徴点ハッシュテーブル生成部105Bは、図4のオブジェクトOBJを一意に識別するためのオブジェクトIDを生成する。
そのうえで、特徴点ハッシュテーブル生成部105Bは、図4のオブジェクトOBJの種別に対応するパーツ種別IDと、上記のように生成したオブジェクトIDと、図11の座標ハッシュ情報830の内容とにより、図12に示すレコード721を生成する。
この図12に示すレコード721は、特徴点ハッシュテーブル720に含まれるべきものであり、図4に示したオブジェクトOBJに対応する特徴点ER2、3、5、6の正規化座標のハッシュ値を示す。
図13は、記憶部106に記憶される特徴点データベース700の構造例を示している。この図に示すように、特徴点データベース700は、オブジェクト定義テーブル710と特徴点ハッシュテーブル720を含む。
オブジェクト定義テーブル710は、例えばパーツ種別IDが示すパーツ(オブジェクト)の種別ごとのテーブルから成る。そのうえで、パーツ種別IDに対応するテーブルは、オブジェクトごとのオブジェクトIDとパーツIDと代表点座標とを対応付けた複数のレコードにより形成される。
また、特徴点ハッシュテーブル720も、パーツ種別IDが示すパーツの種別(オブジェクトの種別)ごとのテーブルから成る。そのうえで、パーツ種別IDに対応するテーブルは、オブジェクトごとにオブジェクトIDと座標ハッシュとを対応付けた複数のレコードにより形成される。
そして、オブジェクト定義テーブル生成部105Aは、図13のオブジェクト定義テーブル710において波線で示すように、パーツ種別ID=0に対応するテーブルに対して自己が生成した図6のレコード711を新規レコードとして登録する。
また、特徴点ハッシュテーブル生成部105Bは、同じ図13の特徴点ハッシュテーブル720において波線で示すように、同じパーツ種別ID=0に対応するテーブルに対して自己が生成した図12のレコード721を新規レコードとして登録する。
これにより、特徴点データベース700において1つのオブジェクトOBJに対応するレコードが新規登録される。
特徴点データベース生成装置100は、オブジェクトOBJに対応するレコードの特徴点データベース700に対する新規登録を、1つのサンプル顔画像データから抽出された異なるパーツ種別ごとに対応するオブジェクトごとに実行する。また、このようなサンプル顔画像データにおける複数のパーツ種別に応じたレコードの新規登録を、サンプル顔画像データが取得されるごとに行う。
これにより、特徴点データベース700は、入力されたサンプル顔画像データの総数sとパーツ種別数pに応じた数(s×p)のレコードを含んで形成される。
[特徴点データベース生成のための処理手順例]
次に、図14のフローチャートを参照して、特徴点データベース生成装置100が実行する処理手順例について説明する。
特徴点データベース生成装置100において、サンプル顔画像データ入力部101は、1つのサンプル顔画像データを入力する(ステップS101)。
次に、特徴点データ取得部102は、先に図4にて説明したように、入力したサンプル顔画像データについて顔認識を行い、サンプル顔画像データから抽出したオブジェクトごとの特徴点データを取得する(ステップS102)。
また、表示制御部103は、入力されたサンプル顔画像データと、記憶部106に記憶されるパーツ画像テーブル600が格納するパーツ画像とを所定の態様により表示部109に表示させる(ステップS103)。
作業者は、ステップS103により表示部109に表示された画像を見ることにより、サンプル顔画像データにおけるオブジェクトに対応する部位ごとに、最も類似しているパーツ画像を判断する。そして、このパーツ画像をオブジェクトに最も類似するものとして選択する操作を行う。
この操作に応じて、パーツID取得部104は、選択されたパーツ画像に対応付けられているパーツIDをパーツ画像テーブル600から取得する(ステップS104)。
また、ステップS104によるパーツID取得の処理と並行するように、オブジェクト定義テーブル生成部105Aは、代表点ER1とER4の絶対座標(x、y)を示す代表点座標情報810をオブジェクトごとに生成する(ステップS105)。
そして、オブジェクト定義テーブル生成部105Aは、オブジェクトごとにオブジェクト定義テーブル710のレコード711を生成する(ステップS106)。
このために、オブジェクト定義テーブル生成部105Aは、オブジェクトごとのオブジェクトIDを新規生成する。そして、オブジェクト定義テーブル生成部105Aは、新規生成したオブジェクトIDと、ステップS104により取得したパーツIDと、ステップS105により生成した代表点座標情報810を利用してオブジェクトごとのレコード711を生成する。
次に、特徴点ハッシュテーブル生成部105Bは、図9〜図12により説明したように、代表点以外の特徴点データを利用して特徴点ハッシュテーブル720のレコード721を生成する(ステップS107)。
そして、オブジェクト定義テーブル生成部105Aと特徴点ハッシュテーブル生成部105Bは、それぞれ、図13にて説明したように、ステップS106とS107により生成した各レコードを特徴点データベース700に対して新規に登録する(ステップS108)。
つまり、オブジェクト定義テーブル生成部105Aは、ステップS106により生成したオブジェクトごとのレコード711を、特徴点データベース700におけるオブジェクト定義テーブル710に新規登録する。また、特徴点ハッシュテーブル生成部105Bは、ステップS107により生成したレコード721を、特徴点データベース700における特徴点ハッシュテーブル720に新規登録する。
次に、特徴点データベース生成部105(オブジェクト定義テーブル生成部105Aまたは特徴点ハッシュテーブル生成部105B)は、用意されたすべてのサンプル顔画像データに対応して特徴点データベース700に新規登録する処理が終了したか否かについて判定する(ステップS109)。
ここで、未だすべてのサンプル顔画像データについての処理が終了していない場合(ステップS109−NO)、サンプル顔画像データ入力部101は、ステップS101に戻ることで、次のサンプル顔画像データを入力する。これにより、次のサンプル顔画像データに対応して特徴点データベース700を生成する処理が開始される。
これに対して、すべてのサンプル顔画像データについての処理を終了した場合には(ステップS109−YES)、すべてのサンプル顔画像データごとのオブジェクトについてのレコードを含む特徴点データベース700が形成されている。そこで、特徴点データベース送信部107は、記憶部106から特徴点データベース700を読み出し、アバター作成アプリケーションサーバ200に対して送信する(ステップS110)。
[アバター作成アプリケーションサーバの構成例]
次に、図15を参照して、アバター作成アプリケーションサーバ200の構成例について説明する。
この図に示すアバター作成アプリケーションサーバ200は、顔画像データ入力部201、特徴点データ取得部202、記憶部203、パーツ画像選択部204、特徴点データベース更新部205および通信部206を備える。
顔画像データ入力部201(画像入力部)は、アバター作成元としての顔画像データ(画像データ)を入力する。このアバター作成元としての顔画像データは、アバター作成アプリケーションサーバ200と接続してアバター作成アプリケーションが動作しているユーザ端末装置300から送信され、通信部206にて受信される。顔画像データ入力部201は、このように通信部206により受信された顔画像データを入力する。
特徴点データ取得部202(解析データ取得部)は、入力された顔画像データを解析することにより、その解析結果を示す解析データを取得する。
つまり、特徴点データ取得部202は、入力した顔画像データを解析することにより、顔画像データから抽出したオブジェクトごとに特徴点データ(解析データ)を取得する。
なお、この特徴点データ取得部202は、例えば、図2の特徴点データ取得部102と同様の構成でよい。
そのうえで、本実施形態の特徴点データ取得部202は、特徴点データの抽出結果として、オブジェクトごとに、例えば図16に示す構造の座標ハッシュ情報910を生成する。
座標ハッシュ情報910は、図16に示すように、パーツ種別IDごとに座標ハッシュ情報を対応付けた構造である。
図16の座標ハッシュ情報910におけるパーツ種別IDは、オブジェクトが対応する顔の部位(すなわち、パーツ画像の種別)を示している。
座標ハッシュは、対応のオブジェクトについて求められた代表点以外の特徴点ごとの座標のハッシュ値を示す。なお、これらの特徴点ごとの座標ハッシュの算出手法については、図9から図11による説明と同様でよい。
記憶部(比較データ記憶部、要素画像記憶部)203は、アバター作成アプリケーションサーバ200がその機能を実現するのに必要な各種の情報を記憶する。図においては、このような情報として、パーツ画像テーブル600Aと、特徴点データベース700Aが示される。
パーツ画像テーブル600Aは、アバター作成に使用するものとして予め用意されたアバターの目、鼻、口、眉毛などの所定の部位にそれぞれ対応する複数種類のパーツの画像(パーツ画像)をパーツIDに対応付けて格納したテーブルである。このパーツ画像テーブル600Aの内容は、例えば特徴点データベース生成装置100が記憶するパーツ画像テーブル600(図3)と同じ内容である。つまり、記憶部203は、複数のパーツ種別のそれぞれに対応するパーツ画像をパーツ画像テーブル600Aとして記憶する。
特徴点データベース700Aは、特徴点データベース生成装置100から受信した特徴点データベース700を記憶部203に記憶させたものである。
ここで、記憶部203は、特徴点データベース生成装置100から受信した特徴点データベース700を初期の特徴点データベース700Aとして、例えばアバター作成アプリケーションを提供する前の段階において予め記憶しておいてもよい。
この場合、初期段階の特徴点データベース700Aは、特徴点データベース700と同じ内容である。これに応じて、初期段階における特徴点データベース700Aのオブジェクト定義テーブル710Aおよび特徴点ハッシュテーブル720Aは、オブジェクト定義テーブル710および特徴点ハッシュテーブル720とそれぞれ同じ内容を有する。
そして、特徴点データベース更新部205は、初期の特徴点データベース700Aに対して新たにレコード(比較データ)を追加するように更新する。
パーツ画像選択部(要素画像選択部)204は、特徴点データと特徴点データベース700A(比較データ)とを比較した結果に基づいて、パーツ画像テーブル600A(複数のパーツ画像)のうちからパーツ画像(要素画像)を選択する。
この際、パーツ画像選択部204は、複数のパーツ種別ごとにパーツ画像を選択する。これにより、パーツ画像選択部204は、例えば目、口、鼻などの部位ごとのパーツ画像を選択することができる。
具体的に、パーツ画像選択部204は、特徴点データとして、特徴点データ取得部202が生成した座標ハッシュ情報910(図16)を入力する。そして、パーツ画像選択部204は、座標ハッシュ情報910における座標ハッシュと、特徴点データベース700Aの特徴点ハッシュテーブル720Aにおける座標ハッシュとを特徴点ごとに比較する。
具体例として、図16の座標ハッシュ情報910の座標ハッシュと、図17に示す特徴点データベース700Aの特徴点ハッシュテーブル720Aの座標ハッシュとを比較した場合について説明する。なお、図17の特徴点データベース700Aにおいては、図示を簡単で分かりやすくすることの便宜上、オブジェクト定義テーブル710Aと特徴点ハッシュテーブル720Aのいずれについても、目のパーツ種別に対応するパーツ種別ID=0に対応したテーブルのみを示している。
図17の特徴点ハッシュテーブル720Aにおいては、図16の座標ハッシュ情報910と座標ハッシュが一致する特徴点に対応するセルを太枠により示している。パーツ画像選択部204は、比較結果として、図17に示す太枠のセルに対応する特徴点の座標ハッシュが一致していることを認識する。
図18は、上記の認識結果を模式的に示したものである。この図においては、オブジェクトID=0〜29までのオブジェクトごとに、比較結果により座標ハッシュが一致した特徴点の数(座標ハッシュ一致数)が示される。
この場合において、図17の特徴点ハッシュテーブル720におけるオブジェクトは、図16の座標ハッシュ情報910の座標ハッシュと一致する特徴点の数が多いものほど、図16の座標ハッシュ情報910が対応するオブジェクトとの類似度が高い。
そこで、パーツ画像選択部204は、図18の比較結果に基づいて、まず、今回の座標ハッシュ一致数の最大値maxを認識する。この場合、図18を参照して分かるように、座標ハッシュ一致数の最大値max=4である。これは、図16の座標ハッシュ情報910の座標ハッシュとすべての特徴点の座標ハッシュが一致するオブジェクトが認識されたことを意味している。
次に、パーツ画像選択部204は、座標ハッシュ一致数が最大値max=4のパーツIDを集計する集計処理を実行する。
このために、パーツ画像選択部204は、特徴点ハッシュテーブル720Aにおいて座標ハッシュ一致数が最大値max=4のオブジェクトIDを検索する。次に、パーツ画像選択部204は、検索したオブジェクトIDに対応付けられているパーツIDをオブジェクト定義テーブル710Aから検索する。そして、パーツ画像選択部204は、パーツIDごとの検索数を集計する。
図19は、図18に示す比較結果と、図17に示すオブジェクト定義テーブル710Aの内容に応じた集計結果を示している。この図に示すように、パーツID=0についての検索数は「1」であり、パーツID=1についての検索数は「0」であり、パーツID=2についての検索数は「2」であり、パーツID=3についての検索数は「0」であり、パーツID=4について検索数は「1」である。
これらのうちで、検索数が最多であるものはパーツID=2である。これは、パーツ画像テーブル600Aに格納されるパーツ画像のうち、パーツID=2のパーツ画像が、顔画像データから抽出したパーツ種別ID=0に対応する部位のオブジェクトに最も類似していることを意味する。
そこで、パーツ画像選択部204は、パーツ種別ID=0に対応するパーツ画像として、パーツID=2のパーツ画像を選択する。
図示による説明は省略するが、パーツ画像選択部204は、上記と同様に比較を行った結果に基づいて、他のパーツ種別IDに対応するオブジェクトごとにパーツ画像を選択する。
そして、パーツ画像選択部204は、すべてのパーツ種別IDに対応するオブジェクトごとのパーツ画像の選択を終了すると、これまでのパーツ画像の選択結果を反映したアバター情報を生成する。アバター情報は、ユーザ端末装置300においてアバターの画像を作成するのに利用する情報である。
図20は、パーツ画像選択部204が生成するアバター情報920の構造例を示している。この図に示すように、アバター情報920は、アバターを作成するのに必要とされるすべてのパーツ種別ごとのパーツ種別IDごとに、パーツIDとパーツ画像データを対応付けた構造である。
このアバター情報920が格納するパーツ画像により作成されるアバターの画像の顔は、アバター作成元の顔画像データの顔に似たものとなる。
そして、パーツ画像選択部204は、上記のように生成したアバター情報920を、通信部206からユーザ端末装置300に対して送信する。
ユーザ端末装置300上のアバター作成アプリケーションは、上記のようにアバター作成アプリケーションサーバ200から受信したアバター情報920を利用してアバター画像を作成し、このアバター画像を表示する。
このように表示されたアバター画像の顔は、例えば先に送信した顔画像データの顔と似ているものであるが、ユーザは、例えばアバター画像の顔をさらに顔画像データの顔に似せるためにアバターを編集するための操作を行うことができる。ここでのアバターを編集するための操作は、アバターの作成に用いるパーツ画像をパーツ画像リストの中から選択して変更するというものである。もちろん、ユーザは、受信されたアバター情報920により作成されたアバターの画像が気に入れば、特に、編集を行う必要はない。
そして、ユーザ端末装置300のユーザは、編集を行って納得のいくアバターの顔が得られたのであれば、アバター確定のための操作をアバター作成アプリケーション上で行う。なお、ユーザが受信されたアバター情報920により作成されたアバターの画像のままで気に入っていれば、ユーザは編集を行うことなく確定操作を行えばよい。
上記の確定操作に応じて、ユーザ端末装置300上のアバター作成アプリケーションは、アバター作成アプリケーションサーバ200に対して、確定通知を送信する。ユーザ端末装置300は、この確定通知に対して、確定操作が行われたときのアバターの内容を示す確定アバター情報を含めて送信する。
この確定通知に含められる確定アバター情報は、例えば図20のアバター情報920からアバター画像を省略してパーツ種別IDごとにパーツIDを対応付けた構造である。ただし、その内容については、編集による変更があった場合には、その変更された内容が反映される。
アバター作成アプリケーションサーバ200において、特徴点データベース更新部(更新部)205は、アバター画像(全体画像)の内容が確定されるのに応じて、確定されたときのアバター画像の内容に基づいて、記憶部203に記憶される特徴点データベース700Aを更新する。
具体的に、特徴点データベース更新部(更新部)205は、特徴点データベース700Aの更新として、まず、以下のようにオブジェクト定義テーブル710Aを更新する。
つまり、特徴点データベース更新部205は、アバター作成元の顔画像データから抽出したオブジェクトごとに、新規のオブジェクトIDを生成する。
次に、特徴点データベース更新部205は、新規に生成したオブジェクトIDに対応付けられたオブジェクト定義テーブル710Aのレコード711を新規に生成する。
このために、特徴点データベース更新部205は、新規に生成したオブジェクトIDに受信した確定通知に含まれる確定アバター情報が示すパーツIDを対応付ける。さらに、特徴点データベース更新部205は、新規に生成したオブジェクトIDに対して、特徴点データ取得部102がアバター作成元の顔画像データから取得した代表点座標を対応付ける。特徴点データベース更新部205は、このように、新規に生成したオブジェクトIDに対応するレコード711を、パーツ種別ごとに生成する。
そして、特徴点データベース更新部205は、このように新規に生成したレコード711を、オブジェクト定義テーブル710Aにおける対応のパーツ種別IDごとのテーブルに対して新規に登録する。
また、特徴点データベース更新部205は、特徴点ハッシュテーブル720Aについても以下のように更新する
ここで、特徴点データ取得部202は、図16に示す構造の座標ハッシュ情報910を、アバター作成に利用するすべてのパーツ種別ごとに生成している。このように生成した座標ハッシュ情報910は、特徴点データ取得部202が保持している。
そこで、特徴点データベース更新部205は、新規に生成したオブジェクトIDに対して、このオブジェクトIDが示すオブジェクトについて生成された座標ハッシュ情報910の座標ハッシュを対応付けることにより、特徴点ハッシュテーブル720Aのレコード721を生成する。このレコード721についても、特徴点データ取得部202は、パーツ種別ごとに生成する。
そして、特徴点データベース更新部205は、このように新規に生成したレコード721を、特徴点ハッシュテーブル720Aにおいて対応のパーツ種別IDごとのテーブルに対して新規に登録する。
このようにして、特徴点データベース更新部205は、オブジェクト定義テーブル710と特徴点ハッシュテーブル720とを更新することにより特徴点データベース700Aを更新する。
また、アバター作成アプリケーションサーバ200において、通信部206は、ネットワーク500経由で、ユーザ端末装置300やアバター利用アプリケーションサーバ400などと通信を実行する。
[ユーザ端末装置の構成例]
次に、ユーザ端末装置300の構成例について、再度、図15を参照して説明する。
ユーザ端末装置300は、制御部301、操作部302、表示部303および通信部304を備える。
制御部301は、ユーザ端末装置300上で動作するアバター作成アプリケーションに対応する処理を実行する。本実施形態において、アバター作成アプリケーションは、例えばネイティブ型のアプリケーションプログラムとして、ユーザ端末装置300にインストールされている。
制御部301は、顔画像データ送信部311、アバター画像作成部312、表示制御部313およびアバター編集部314を備える。これらの機能部は、例えば制御部301を構成するCPUがアバター作成アプリケーションを実行することにより実現されるものである。
顔画像データ送信部311は、アバター作成アプリケーションに対してアバター作成元の顔を含む顔画像データの送信を指示する操作が行われるのに応じて、顔画像データをアバター作成アプリケーションサーバ200に送信する。
なお、前述のように、顔画像データは、例えばユーザ端末装置300が備える撮像部(ここでは図示せず)によりユーザ自身(または他者)の顔を撮像して得られた画像データなどとして取得することができる。また、ネットワークやデータインターフェースなどを経由して、または、ユーザ端末装置300に装填されたリムーバブルメディアからの読み出しなどにより顔画像データを取得してもよい。また、このように取得した画像データについての顔画像データとしての指定も、ユーザ端末装置300上のアバター作成アプリケーションに対する操作によって行うことができる。
前述のように、ユーザは、ユーザ端末装置300上で動作するアバター作成アプリケーションに対する操作に応じて、アバター作成アプリケーションサーバ200により作成されたアバターを編集することができる。
アバター画像作成部(全体画像作成部)312は、パーツ画像選択部204により選択されたパーツ画像に基づいてアバター画像を作成する。
つまり、アバター画像作成部312は、アバター作成アプリケーションサーバ200のパーツ画像選択部204により生成されたアバター情報920に基づいてアバターの画像を生成する。アバター情報920には、パーツ画像選択部204が選択したパーツ画像が格納されている。アバター画像作成部312は、このアバター情報920に格納されているパーツ画像を利用してアバター画像を作成するものである。
表示制御部(全体画像提供部)313は、アバター画像作成部312により作成されたアバター画像をユーザに提供する。具体的に、表示制御部313は、アバター画像を表示部303に表示させることによりアバター画像をユーザに提供する。
表示部303に表示されるアバター画像を見て、例えばユーザがさらにアバターを作成元の顔画像データの顔に似せたいなどと思った場合には、アバターを変更するための編集操作をアバター作成アプリケーションに対して行うことができる。
この編集操作は、例えば前述のように、アバター作成アプリケーションの画面において表示されるパーツ画像のリストのうちから所望のパーツ画像を選択して、これまでにアバターに使用していたパーツ画像から変更するというものになる。
アバター編集部(全体画像編集部)314は、上記のように行われるアバター編集操作に応じてアバターを編集する。つまり、アバター編集部314は、ユーザに提供されたアバター画像の内容をユーザの指示に応じて編集する。
具体的に、アバター編集部314は、アバター作成アプリケーションサーバ200に対して、操作により選択されたパーツ画像のパーツIDを指定してパーツ画像を要求する。
この要求に応答してアバター作成アプリケーションサーバ200は、指定されたパーツ画像をパーツ画像テーブル600Aから読み出してユーザ端末装置300に送信する。アバター編集部314は、これまでに使用していたパーツ画像を受信したパーツ画像に変更する。アバター画像作成部312は、パーツ画像の変更が反映されたアバター画像を作成し、表示制御部313により、このアバター画像が表示される。このように、ユーザが行うアバター編集操作に応じてアバター画像の編集が行われる。
また、ユーザは、前述のように、編集したアバター画像に納得した場合、あるいは、編集をしなくともアバター作成アプリケーションが自動作成したままのアバター画像に納得している場合には、そのアバターの内容を確定させるための確定操作を行う。
この確定操作が行われるのに応じて、アバター編集部314は、例えば、確定操作が行われたときのアバターの内容を示す確定アバター情報を、編集内容が反映されたアバター情報を利用して生成する。そして、この確定アバター情報を含む確定通知をアバター作成アプリケーションサーバ200に対して送信する。
アバター作成アプリケーションサーバ200における特徴点データベース更新部205は、前述のように、確定通知の受信に応答して、確定アバター情報を利用して特徴点データベース700Aを更新する。
このように、本実施形態のアバター作成システムでは、アバター作成アプリケーションサーバ200が顔画像データと特徴点データベース700Aを利用してアバターを自動作成する。
そのうえで、自動作成されたアバターは、ユーザ端末装置300上で編集することができる。ユーザ端末装置300は、ユーザの確定操作に応じて、この編集結果(編集を行わない場合も含む)を確定通知としてアバター作成アプリケーションサーバ200に送信する。
そして、アバター作成アプリケーションサーバ200は、受信した編集結果に応じて、今回のアバターの作成元である顔画像データから抽出したオブジェクトについてのレコードを追加するように特徴点データベース700Aを更新する。
また、ユーザ端末装置300において、操作部302は、ユーザ端末装置300上で動作するアバター作成アプリケーションを操作するのに必要な操作デバイスを一括して示している。例えばユーザ端末装置300が携帯電話またはスマートフォンなどである場合、操作部302は、携帯電話やスマートフォンに備えられる各種のキーやタッチパネルなどとなる。
表示部303は、ユーザ端末装置300において表示制御部313の制御に応じて画像を表示する。
通信部304は,ネットワーク500経由でアバター作成アプリケーションサーバ200やアバター利用アプリケーションサーバ400などと通信を実行する。
このように、本実施形態においては、アバターを自動作成するごとに特徴点データベース700Aが更新される。このことは、アバターが自動作成されるごとに、特徴点データベース700Aにおいて、オブジェクトとこのオブジェクトに類似するパーツ画像との対応を示す情報が増加していくことを意味する。例えば人の顔はそれぞれが異なるものであるから、同じ部位(パーツ種別)であっても、顔画像データごとにおけるオブジェクトの特徴量は多様であるということがいえる。
本実施形態においては、アバターが自動作成される機会ごとに異なる顔画像データの内容に基づいて特徴点データベース700Aのレコードが追加されていく。このことは、上記のようなオブジェクトの多様性に対応して、特徴点データベース700Aにおけるオブジェクトに対応するパーツ画像の類似性についての精度が向上していくことに相当する。
そして、このように精度が向上していく特徴点データベース700Aがアバターの自動作成に利用されることで、作成元の顔画像データの顔に類似したアバターを自動作成する精度も向上していく。
なお、本実施形態においては、ユーザによって実質的な編集が行われないアバターにも対応して特徴点データベース700Aの更新が行われる。
例えば、アバターの自動作成に際して、特徴点のすべてが一致していないオブジェクトに対応するパーツ画像が選択されたような場合であっても、ユーザがよく似ているとの印象を持ったために編集を行うことなく確定操作を行う場合のあることは考えられる。
このような場合、特徴点データベース700Aに新規登録されるレコードは、特徴点データベース700Aにおいて既に格納されているレコードの内容と重複せずに異なる可能性がある。そして、この際に特徴点データベース700Aに新規登録されるレコードは、ユーザの主観により類似していると判断された結果が反映されている。したがって、実質的な編集が行われないアバターにも対応して特徴点データベース700Aの更新が行われることも、特徴点データベース700Aの精度を向上させることに繋がるものである。
ここで、特徴点データベース700Aの精度を向上させるためには、以下のような他の手法をとることもできる。
つまり、特徴点データベース生成装置100により特徴点データベース700を作成するにあたって、膨大な数のサンプル顔画像データを用意する。そして、これらのサンプル顔画像データを処理して特徴点データベース700を生成するというものである。
しかし、前述のように、特徴点データベース生成装置100により特徴点データベース700を作成するにあたっては作業者が目視により類似性を判断する必要がある。このために、サンプル顔画像データの数が増加するほど作業者の負担も増加してしまう。
これに対して、本実施形態の場合には、ユーザがアバターアプリケーションを利用してアバターを作成するごとに特徴点データベース700Aの精度が向上されていくものであり、作業者の負担が増加することはない。
[特徴点データベース更新のための処理手順例]
次に、図21のフローチャートを参照して、特徴点データベース700Aを更新するためにユーザ端末装置300とアバター作成アプリケーションサーバ200が実行する処理手順例について説明する。
ユーザ端末装置300において、顔画像データ送信部311は、顔画像データの送信を指示する操作に応じて、通信部304からアバター作成アプリケーションサーバ200に対して顔画像データを送信させる(ステップS201)。
顔画像データの送信に応じて、アバター作成アプリケーションサーバ200はアバターを自動作成してアバター情報920を送信する。このアバター情報が通信部304にて受信されるのに応じて、アバター画像作成部312は、受信されたアバター情報を利用してアバター画像を作成する(ステップS202)。
表示制御部313は、ステップS202により作成されたアバター画像を表示部303に表示させる(ステップS203)。
また、アバター編集部314は、ユーザが行うアバター編集操作に応じてアバター情報を変更するようにアバター編集処理を実行する(ステップS204)。
ステップS204の処理は、例えばアバターの内容を確定させるための確定操作が行われるまで(ステップS205−NO)、繰り返し実行することができる。
そして、確定操作が行われるのに応じて(ステップS205−YES)、アバター編集部は、確定アバター情報を含めた確定通知をアバター作成アプリケーションサーバ200に対して送信する(ステップS206)。
また、アバター作成アプリケーションサーバ200においては、ステップS201によりユーザ端末装置300から送信された顔画像データが通信部206にて受信される。これに応じて、顔画像データ入力部201は、受信された顔画像データを入力する(ステップS301)。
次に、特徴点データ取得部202は、顔画像データに対する解析処理によってオブジェクトを抽出し、これらのオブジェクトごとの特徴点データを取得する(ステップS302)。そして、特徴点データ取得部202は、特徴点データの抽出結果として、図16にて説明した座標ハッシュ情報910をオブジェクトごとに生成し、これらを保持する(ステップS303)。
次に、パーツ画像選択部204は、特徴点データとしての座標ハッシュ情報910が示す座標ハッシュと、特徴点データベース700Aの特徴点ハッシュテーブル720Aにおける座標ハッシュとを特徴点ごとに比較する。そして、この比較結果に基づいて、パーツ画像選択部204は、オブジェクトごとに類似するパーツ画像をパーツ画像テーブル600Aから選択する(ステップS304)。
そのうえで、パーツ画像選択部204は、ステップS304によるパーツ画像の選択結果に基づいてアバター情報920を生成する(ステップS305)。このように生成されたアバター情報が、すなわち、自動作成されたアバターの内容を示すものである。
そして、パーツ画像選択部204は、ステップS305により生成したアバター情報を、ユーザ端末装置300に対して送信する(ステップS306)。
ステップS306によりアバター情報を送信した後、ユーザ端末装置300からは、ステップS206により確定通知が送信される。この確定通知が通信部206にて受信されるのに応じて、特徴点データベース更新部205は、ステップS302に対応して抽出したオブジェクトごとのオブジェクト定義テーブル710Aのレコード711と特徴点ハッシュテーブル720Aのレコード721を新規に生成する(ステップS307)。
そして、特徴点データベース更新部205は、特徴点データベース700Aを更新する(ステップS308)。つまり、特徴点データベース更新部205は、ステップS307により生成したレコード711と721を、それぞれ、特徴点データベース700Aにおけるオブジェクト定義テーブル710Aと特徴点ハッシュテーブル720Aに新規登録する。
<第2の実施形態>
[概要]
次に、第2の実施形態について説明する。なお、第2の実施形態における特徴点データベース生成装置100、アバター作成アプリケーションサーバ200およびユーザ端末装置300の構成は、例えば図2と図15と同様でよい。
第1の実施形態において、1つの顔画像データを作成元として作成されるアバターは1つであった。これに対して、第2の実施形態は、1つの顔画像データを作成元として複数のアバターを作成してもよい場合に対応するものである。
第2の実施形態において、パーツ画像選択部204は、以下のような場合に複数のアバターに対応する複数のアバター情報を生成する。
つまり、図19に示したパーツIDの集計結果において、最多の検索数のパーツIDが複数存在するような場合に、パーツ画像選択部204は、これらの複数のパーツIDに対応するパーツ画像を選択する。このように、パーツ画像選択部204は、同じパーツ種別に対応するパーツ画像のうちから複数のパーツ画像を選択する。
そして、このように複数のパーツ画像を選択した場合、パーツ画像選択部204は、これらのパーツ画像のパーツIDをそれぞれ反映させた複数のアバター情報を生成する。そして、パーツ画像選択部204は、これらの複数のアバター情報をユーザ端末装置に対して送信する。
そして、ユーザ端末装置300においては、複数のアバター情報が受信されるのに応じて、以下のように、アバター画像の作成と表示を行う。
[第2の実施形態に対応する処理手順例]
図22のフローチャートは、図21のステップS202によるアバター画像作成のための処理として、上記のように複数のアバター情報が送信されてくる可能性のある第2の実施形態に対応する場合の処理手順例を示している。
この場合、ユーザ端末装置300のアバター画像作成部312は、受信されたアバター情報が複数であるか否かについて判定する(ステップS401)。
アバター情報が1つである場合(ステップS401−NO)、アバター画像作成部312は、この受信された1つのアバター情報に対応する1つのアバター画像を作成する(ステップS402)。
一方、アバター情報が複数である場合(ステップS401−YES)、アバター画像作成部312は、受信された複数のアバター情報のそれぞれに対応する複数のアバター画像を作成する(ステップS403)。
また、図23のフローチャートは、図21のステップS203によるアバター画像表示のための処理として第2の実施形態に対応する場合の処理手順例を示している。
この場合、ユーザ端末装置300の表示制御部313は、ステップS202により作成されたアバター画像が複数であるか否かについて判定する(ステップS501)。
作成されたアバター画像が1つである場合(ステップS501−NO)、表示制御部313は、この1つのアバター画像を表示部303に表示させる(ステップS502)。
一方、アバター情報が複数である場合(ステップS501−YES)、表示制御部313は、作成された複数のアバター画像を表示部303に表示させる(ステップS503)。
複数のアバター画像が表示された場合、ユーザは、アバター編集操作として、まず、複数のアバター画像のうちから1つのアバター画像を選択する。そして、必要があれば、この選択したアバター画像のパーツを変更する操作を行ったうえで確定操作を行う。したがって、アバター編集部314は、確定操作に応じて、1つのアバターについてのアバター確定情報を含む確定通知を送信すればよい。
このように、第2の実施形態において、アバター作成アプリケーションサーバ200は、同じパーツ種別における選択対象のパーツ画像の類似度が同等あるいは近い場合に、複数のアバター情報を生成する。そして、ユーザ端末装置300は、複数のアバター情報を受信した場合、これら複数のアバター情報ごとのアバター画像を作成し、表示部303に表示させる。
これにより、第2の実施形態においては、顔画像データに似ているとされるアバター画像として複数の候補をユーザに提供できる。これにより、ユーザは、複数のアバター画像の候補のうちから、最も似ていると自分が判断したものを選択することができる。そして、この結果が特徴点データベース700Aの更新に反映される。これにより、特徴点データベース700Aには、例えばアバターの顔に対するユーザの好みの傾向など反映されることになる。つまり、ユーザの好みの傾向などに適合するように特徴点データベース700Aの精度向上を図ることができる。
<第3の実施形態>
[概要]
次に、第3の実施形態について説明する。
先の第2の実施形態において、アバター画像作成部312は、アバター作成アプリケーションサーバ200から複数のアバター情報が受信された場合、これら複数のアバター情報のそれぞれに基づいて複数のアバター画像を作成した。
しかし、例えば、複数のアバター情報において或るパーツ種別IDにおけるパーツIDの一致頻度が高い場合、そのパーツ種別においては、その一致頻度が高いパーツIDのパーツ画像が他のパーツ画像よりも類似していると推定できる。
そこで、第3の実施異形態におけるアバター画像作成部312は、アバター情報ごとにアバター画像を作成するのではなく、一致頻度が高いパーツIDについては、複数のアバター情報に共通に適用する。そして、アバター画像作成部312は、このように一致頻度が高いパーツIDを共通化したアバター情報によりアバター画像を作成する。これにより、作成された複数のアバター画像は、いずれも作成元の顔画像データに対する類似度が高くなる。
つまり、パーツ画像選択部204が特徴点データと特徴点データベース700Aとを比較した結果に基づいて、同一のパーツ種別に対応するパーツ画像のうちから複数のパーツ画像が選択された場合、アバター画像作成部312は、選択された複数のパーツ画像のそれぞれに対応して複数のアバター画像を作成する。また、表示制御部313は、上記のように作成された複数のアバター画像を表示部303に表示させる。
[第3の実施形態に対応する処理手順例]
図24のフローチャートは、図21のステップS202によるアバター画像作成のための処理として、第3の実施形態に対応する場合の処理手順例を示している。なお、この図において、図22と同じステップについては、同一符号を付している。
この場合、ユーザ端末装置300のアバター画像作成部312は、受信されたアバター情報が複数であるか否かについて判定する(ステップS401)。
アバター情報が1つである場合(ステップS401−NO)、アバター画像作成部312は、この受信された1つのアバター情報に対応する1つのアバター画像を作成する(ステップS402)。
一方、アバター情報が複数である場合(ステップS401−YES)、アバター画像作成部312は、受信された複数のアバター情報において、一致頻度が最も高いパーツIDに対応するパーツ種別IDを判定する(ステップS403A)。
次に、アバター画像作成部312は、複数のアバター情報においてステップS403Aにより判定したパーツ種別IDに対応するパーツIDについては、一致頻度がもっと高いパーツIDを共通に格納するように複数のアバター情報を再生成する(ステップS403B)。
そして、アバター画像作成部312は、上記のように再生成した複数のアバター情報ごとに対応して複数のアバター画像を作成する(ステップS403C)。
また、第3の実施形態における表示制御部313の処理は、図23と同様である。これにより、図24の処理により作成された複数のアバター画像が表示部303に表示される。
<変形例>
次に、本実施形態の変形例について説明する。
これまでの実施形態において、アバター作成アプリケーションはネイティブ型のアプリケーションプログラムとしてユーザ端末装置300にインストールされている場合を例に挙げてきた。しかし、アバター作成アプリケーションを、ブラウザ型のアプリケーション(ウェブアプリケーションともいう)として構成することもできる。
そこで、本実施形態の変形例として、ブラウザ型のアバター作成アプリケーションに対応するアバター作成システムの構成を挙げる。
図25は、上記のようにブラウザ型のアバター作成アプリケーションを採用した変形例としてのアバター作成システムにおけるアバター作成アプリケーションサーバ200Aとユーザ端末装置300Aの構成例を示している。なお、この図において、図15と同一部分には同一符号を付して説明を省略する。
この図に示すユーザ端末装置300Aは、アバター作成に対応する機能としてウェブブラウザ部315を備える。
アバター作成アプリケーションがブラウザ型の場合、アバター作成アプリケーションサーバ200Aは、ネットワーク500経由で接続されているユーザ端末装置300Aに対して、アバター作成アプリケーションのファイルを送信する。このファイルは、例えばXML(Extensible Markup Language)やHTML(HyperText Markup Language)などのマークアップ言語により記述されたものである。
ユーザ端末装置300Aのウェブブラウザ部315は、上記のように送信されるファイルを再生する。このようにファイルを再生することにより、ユーザ端末装置300Aの表示部303にアバター作成アプリケーションのアプリケーション画面を表示させる。なお、この変形例の場合、図15における顔画像データ送信部311と表示制御部313の機能は、上記のようにアバター作成アプリケーションのファイルを再生するウェブブラウザ部315により実現される。
そして、ユーザ端末装置300Aのユーザが上記のように表示されるアプリケーション画面に対して操作部302を用いて操作を行うことで、ウェブブラウザ部315は操作に応じたコマンドをアバター作成アプリケーションサーバ200Aに対して送信する。アバター作成アプリケーションサーバ200Aは、受信したコマンドに応答してアバター作成に関連する所定の処理を実行する。これにより、例えばこれまでに説明した実施形態と同様の動作が実現される。
次に、この図に示すアバター作成アプリケーションサーバ200Aは、図15に示したアバター作成アプリケーションサーバ200の構成に対して、さらに、アバター画像作成部211とアバター編集部212を備える。
アバター画像作成部211は、パーツ画像選択部204により選択されたパーツ画像に基づいてアバター画像を作成する。つまり、アバター画像作成部211は、アバター作成アプリケーションサーバ200Aにおいて、パーツ画像選択部204により生成されたアバター情報920に基づいてアバターの画像を生成する。そして、アバター画像作成部211は、作成したアバター画像を反映させたアバター作成アプリケーションのファイルを生成し、このファイルをユーザ端末装置300Aに送信する。ユーザ端末装置300Aのウェブブラウザ部315がこのファイルを再生することにより、作成されたアバターの画像が存在するアプリケーション画面が表示部303に表示される。
また、アバター編集部212は、ユーザ端末装置300Aに対して行われたユーザの指示(アバター編集操作)に応じて、アバター画像作成部211により作成されたアバター画像を編集する。
ユーザ端末装置300Aのユーザは、上記のようにアバター画像が表示されたアプリケーション画面に対して、アバター編集のための操作を行うことができる。アバター編集のための操作が行われるのに応じて、ウェブブラウザ部315は、その操作に応じたコマンドをアバター作成アプリケーションサーバ200Aから出力に対して送信する。
アバター編集部212は、上記のように送信されたコマンドに応じて、アバター編集を行う。このアバター編集の処理自体については、図15のアバター編集部314と同様でよい。また、アバター画像作成部211は、アバター編集部212の編集結果に応じて変更されたアバター情報に基づいてアバター画像を変更する。そのうえで、アバター画像作成部211は、このように変更したアバター画像の内容を反映させたファイルを生成し、ユーザ端末装置300Aに送信する。
そして、ユーザが、アプリケーション画面に対してアバター確定のための操作を行うのに応じて、ウェブブラウザ部315は、アバター作成アプリケーションサーバ200Aに対して確定通知を送信する。この確定通知の受信に応答して、特徴点データベース更新部205は、図15の場合と同様に、特徴点データベース700Aを更新するものである。
なお、上記各実施形態における特徴点データベース700、700Aの生成手法や、パーツ画像選択のための手法については、これまでに説明した以外の手法が採られてもよい。また、これに伴って、特徴点データベース700、700Aの構造も変更されてよい。
また、これまでの説明において、オブジェクトの特徴量は、その座標に基づく特徴点データとしているが、例えばオブジェクトの色などをさらに特徴量に含めてもよい。
また、図2と図15と図25において示した各機能部を実現するためのプログラムをコンピュータ読み取り可能な記録媒体に記録して、この記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、実行することにより特徴点データベース700、700Aの生成、アバター作成および特徴点データベース700、700Aの更新などを行ってもよい。なお、ここでいう「コンピュータシステム」とは、OSや周辺機器等のハードウェアを含むものとする。
また、「コンピュータシステム」は、WWWシステムを利用している場合であれば、ホームページ提供環境(あるいは表示環境)も含むものとする。
また、「コンピュータ読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM、CD−ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置のことをいう。さらに「コンピュータ読み取り可能な記録媒体」とは、インターネット等のネットワークや電話回線等の通信回線を介してプログラムが送信された場合のサーバやクライアントとなるコンピュータシステム内部の揮発性メモリ(RAM)のように、一定時間プログラムを保持しているものも含むものとする。また上記プログラムは、前述した機能の一部を実現するためのものであっても良く、さらに前述した機能をコンピュータシステムにすでに記録されているプログラムとの組み合わせで実現できるものであってもよい。
以上、この発明の実施形態について図面を参照して詳述してきたが、具体的な構成はこの実施形態に限られるものではなく、この発明の要旨を逸脱しない範囲の設計等も含まれる。
100 特徴点データベース生成装置
101 サンプル顔画像データ入力部
102 特徴点データ取得部
103 表示制御部
104 取得部
105 特徴点データベース生成部
105A オブジェクト定義テーブル生成部
105B 特徴点ハッシュテーブル生成部
106 記憶部
107 特徴点データベース送信部
108 操作部
109 表示部
200 アバター作成アプリケーションサーバ
201 顔画像データ入力部
202 特徴点データ取得部
203 記憶部
204 パーツ画像選択部
205 特徴点データベース更新部
206 通信部
300 ユーザ端末装置
301 制御部
302 操作部
303 表示部
304 通信部
311 顔画像データ送信部
312 アバター画像作成部
313 表示制御部
314 アバター編集部
400 アバター利用アプリケーションサーバ
500 ネットワーク
600 パーツ画像テーブル
600A パーツ画像テーブル
700 特徴点データベース
700A 特徴点データベース
710 オブジェクト定義テーブル
710A オブジェクト定義テーブル
711 レコード
720 特徴点ハッシュテーブル
720A 特徴点ハッシュテーブル
721 レコード
810 代表点座標情報
820 正規化座標情報
820A シフト演算座標
830 座標ハッシュ情報
910 座標ハッシュ情報
920 アバター情報

Claims (12)

  1. 画像データを入力する画像入力部と、
    入力された前記画像データを解析することにより、その解析結果を示す解析データを取得する解析データ取得部と、
    前記解析データと比較データ記憶部が記憶する比較データとを比較した結果に基づいて、要素画像記憶部が記憶する複数の要素画像のうちから要素画像を選択する要素画像選択部と、
    選択された要素画像に基づいて全体画像を作成する全体画像作成部と、
    作成された前記全体画像をユーザに提供する全体画像提供部と、
    提供された前記全体画像の内容を前記ユーザの指示に応じて編集する全体画像編集部と、
    前記全体画像の内容が確定されるのに応じて、確定されたときの前記全体画像の内容に基づいて前記比較データを更新する更新部と
    を備えることを特徴とする画像作成システム。
  2. 前記比較データ記憶部は、
    予め用意した複数の画像データを利用して作成された初期の比較データを予め記憶しており、
    前記更新部は、
    前記初期の比較データに対して新たな比較データを追加するように更新する
    ことを特徴とする請求項1に記載の画像作成システム。
  3. 前記要素画像記憶部は、
    複数の要素種別のそれぞれに対応する複数の要素画像を記憶し、
    前記要素画像選択部は、
    前記複数の要素種別ごとに要素画像を選択する
    ことを特徴とする請求項1または2に記載の画像作成システム。
  4. 前記全体画像作成部は、
    前記解析データと前記比較データとを比較した結果に基づいて、同一の要素種別に対応する要素画像のうちから複数の要素画像が選択された場合、選択された複数の要素画像のそれぞれに対応して複数の前記全体画像を作成し、
    前記全体画像提供部は、
    作成された前記複数の全体画像をユーザに提供する
    ことを特徴とする請求項3に記載の画像作成システム。
  5. 前記全体画像作成部は、
    同一の要素種別に対応する要素画像のうちから複数の要素画像が選択された場合に、最も一致頻度が高い要素画像に対応する要素種別については、前記最も一致頻度が高い要素画像を共通に使用して前記複数の全体画像を作成する
    ことを特徴とする請求項4に記載の画像作成システム。
  6. ネットワーク経由でユーザ端末装置と通信を行う通信部と、
    画像データを入力する画像入力部と、
    入力された前記画像データを解析することにより、その解析結果を示す解析データを取得する解析データ取得部と、
    前記解析データと比較データ記憶部が記憶する比較データとを比較した結果に基づいて、要素画像記憶部が記憶する複数の要素画像のうちから要素画像を選択する要素画像選択部と、
    選択された要素画像に基づいて作成された全体画像の内容が前記ユーザ端末装置に対するユーザの指示に応じて確定されるのに応じて、確定されたときの前記全体画像の内容に基づいて前記比較データを更新する更新部と
    を備えることを特徴とする画像作成アプリケーションサーバ。
  7. ネットワーク経由でユーザ端末装置と通信を行う通信部と、
    画像データを入力する画像入力部と、
    入力された前記画像データを解析することにより、その解析結果を示す解析データを取得する解析データ取得部と、
    前記解析データと比較データ記憶部が記憶する比較データとを比較した結果に基づいて、要素画像記憶部が記憶する複数の要素画像のうちから要素画像を選択する要素画像選択部と、
    選択された要素画像に基づいて全体画像を作成する全体画像作成部と、
    前記ユーザ端末装置に対して行われたユーザの指示に応じて、作成された前記全体画像の内容を編集する全体画像編集部と、
    前記全体画像の内容が前記ユーザ端末装置に対するユーザの指示に応じて確定されるのに応じて、確定されたときの前記全体画像の内容に基づいて前記比較データを更新する更新部と
    を備えることを特徴とする画像作成アプリケーションサーバ。
  8. 画像データを入力する画像入力ステップと、
    入力された前記画像データを解析することにより、その解析結果を示す解析データを取得する解析データ取得ステップと、
    前記解析データと比較データ記憶部に記憶される比較データとを比較した結果に基づいて、複数の要素画像のうちから要素画像を選択する要素画像選択ステップと、
    選択された要素画像に基づいて全体画像を作成する全体画像作成ステップと、
    作成された前記全体画像をユーザに提供する全体画像提供ステップと、
    提供された前記全体画像の内容を前記ユーザの指示に応じて編集する全体画像編集ステップと、
    前記全体画像の内容が確定されるのに応じて、確定されたときの前記全体画像の内容に基づいて前記比較データを更新する更新ステップと
    を備えることを特徴とする画像作成方法。
  9. ネットワーク経由でユーザ端末装置と通信を行う通信ステップと、
    画像データを入力する画像入力ステップと、
    入力された前記画像データを解析することにより、その解析結果を示す解析データを取得する解析データ取得ステップと、
    前記解析データと比較データ記憶部に記憶される比較データとを比較した結果に基づいて、複数の要素画像のうちから要素画像を選択する要素画像選択ステップと、
    選択された要素画像に基づいて作成された全体画像の内容が前記ユーザ端末装置に対するユーザの指示に応じて確定されるのに応じて、確定されたときの前記全体画像の内容に基づいて前記比較データを更新する更新ステップと
    を備えることを特徴とする画像作成方法。
  10. ネットワーク経由でユーザ端末装置と通信を行う通信ステップと、
    画像データを入力する画像入力ステップと、
    入力された前記画像データを解析することにより、その解析結果を示す解析データを取得する解析データ取得ステップと、
    前記解析データと比較データ記憶部に記憶される比較データとを比較した結果に基づいて、複数の要素画像のうちから要素画像を選択する要素画像選択ステップと、
    選択された要素画像に基づいて全体画像を作成する全体画像作成ステップと、
    前記ユーザ端末装置に対して行われたユーザの指示に応じて、作成された前記全体画像の内容を編集する全体画像編集ステップと、
    前記ユーザ端末装置に対するユーザの指示に応じて前記全体画像の内容が確定されるのに応じて、確定されたときの前記全体画像の内容に基づいて前記比較データを更新する更新ステップと
    を備えることを特徴とする画像作成方法。
  11. コンピュータに、
    ネットワーク経由でユーザ端末装置と通信を行う通信ステップと、
    画像データを入力する画像入力ステップと、
    入力された前記画像データを解析することにより、その解析結果を示す解析データを取得する解析データ取得ステップと、
    前記解析データと比較データ記憶部に記憶される比較データとを比較した結果に基づいて、複数の要素画像のうちから要素画像を選択する要素画像選択ステップと、
    選択された要素画像に基づいて作成された全体画像の内容が前記ユーザ端末装置に対するユーザの指示に応じて確定されるのに応じて、確定されたときの前記全体画像の内容に基づいて前記比較データを更新する更新ステップと
    を実行させるためのプログラム。
  12. コンピュータに、
    ネットワーク経由でユーザ端末装置と通信を行う通信ステップと、
    画像データを入力する画像入力ステップと、
    入力された前記画像データを解析することにより、その解析結果を示す解析データを取得する解析データ取得ステップと、
    前記解析データと比較データ記憶部に記憶される比較データとを比較した結果に基づいて、複数の要素画像のうちから要素画像を選択する要素画像選択ステップと、
    選択された要素画像に基づいて全体画像を作成する全体画像作成ステップと、
    前記ユーザ端末装置に対して行われたユーザの指示に応じて、作成された前記全体画像の内容を編集する全体画像編集ステップと、
    前記ユーザ端末装置に対するユーザの指示に応じて前記全体画像の内容が確定されるのに応じて、確定されたときの前記全体画像の内容に基づいて前記比較データを更新する更新ステップと
    を実行させるためのプログラム。
JP2012285883A 2012-05-31 2012-12-27 画像作成システム、画像作成アプリケーションサーバ、画像作成方法およびプログラム Active JP5420056B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2012285883A JP5420056B2 (ja) 2012-05-31 2012-12-27 画像作成システム、画像作成アプリケーションサーバ、画像作成方法およびプログラム
PCT/JP2013/065187 WO2013180266A1 (ja) 2012-05-31 2013-05-31 画像作成システム、画像作成アプリケーションサーバ、画像作成方法およびプログラム

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2012125331 2012-05-31
JP2012125331 2012-05-31
JP2012285883A JP5420056B2 (ja) 2012-05-31 2012-12-27 画像作成システム、画像作成アプリケーションサーバ、画像作成方法およびプログラム

Publications (2)

Publication Number Publication Date
JP2014006873A JP2014006873A (ja) 2014-01-16
JP5420056B2 true JP5420056B2 (ja) 2014-02-19

Family

ID=49673449

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012285883A Active JP5420056B2 (ja) 2012-05-31 2012-12-27 画像作成システム、画像作成アプリケーションサーバ、画像作成方法およびプログラム

Country Status (2)

Country Link
JP (1) JP5420056B2 (ja)
WO (1) WO2013180266A1 (ja)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6789008B2 (ja) * 2016-06-15 2020-11-25 ヤフー株式会社 キャラクタ評価装置、キャラクタ評価方法、及びキャラクタ評価プログラム
JP7041484B2 (ja) * 2017-09-26 2022-03-24 株式会社コロプラ プログラム、情報処理装置、情報処理システム、および情報処理方法
JP7031009B2 (ja) * 2018-04-13 2022-03-07 ライン プラス コーポレーション アバター生成装置およびコンピュータプログラム
CN109712210B (zh) * 2018-12-17 2023-03-28 重庆长安汽车股份有限公司 基于区块链的图形生成方法
CN112036241A (zh) * 2020-07-27 2020-12-04 北京达佳互联信息技术有限公司 一种图像处理方法、装置、电子设备及存储介质

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011221812A (ja) * 2010-04-09 2011-11-04 Sony Corp 情報処理装置及び方法、並びにプログラム

Also Published As

Publication number Publication date
JP2014006873A (ja) 2014-01-16
WO2013180266A1 (ja) 2013-12-05

Similar Documents

Publication Publication Date Title
JP5833772B2 (ja) 実世界オブジェクトの3dモデルおよび正しい縮尺のメタデータをキャプチャし移動させるための方法およびシステム
US9679416B2 (en) Content creation tool
JP5134664B2 (ja) アノテーション装置
JP5420056B2 (ja) 画像作成システム、画像作成アプリケーションサーバ、画像作成方法およびプログラム
US20160012612A1 (en) Display control method and system
CN110070556A (zh) 使用深度传感器的结构建模
TW202009682A (zh) 基於擴增實境的互動方法及裝置
US9805477B2 (en) Display management method and associated computer program product and electronic device
JP6447689B1 (ja) 情報処理装置及びプログラム
JP2013210731A (ja) データ処理システム、データ処理システムの制御方法、ユーザ装置、ユーザ装置の制御方法、データ処理装置、データ処理装置の制御方法、プログラム、及び情報記憶媒体
JP6376591B2 (ja) データ出力装置、データ出力方法及び3次元物体製造システム
US20140142900A1 (en) Information processing apparatus, information processing method, and program
JP2019101944A (ja) 知的財産システム、知的財産支援方法および知的財産支援プログラム
CN104102759B (zh) 建筑模型影像显示系统及其方法
JP6372165B2 (ja) デザイン管理装置及びプログラム
JP2019114308A (ja) 知的財産システム、知的財産支援方法および知的財産支援プログラム
CN110689614A (zh) 基于电子地图的设备信息收集方法、介质、设备及系统
JP2022022244A (ja) 情報処理装置、管理データの生成方法及び管理データ
WO2022212669A1 (en) Determining classification recommendations for user content
JP6182930B2 (ja) 奥行き制作支援装置、奥行き制作方法、及びプログラム
JP6256545B2 (ja) 情報処理装置、その制御方法、及びプログラム、並びに、情報処理システム、その制御方法、及びプログラム
JP6862331B2 (ja) 思考・議論支援システムおよび思考・議論支援装置
JP2019102099A (ja) 知的財産システム、知的財産支援方法および知的財産支援プログラム
JP2015035189A5 (ja)
JP7320414B2 (ja) 3dデータデザイナ検索システム、3dデータデザイナ検索方法、及びプログラム

Legal Events

Date Code Title Description
TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20131022

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20131119

R150 Certificate of patent or registration of utility model

Ref document number: 5420056

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250