JP5632469B2 - キャラクタ生成システム、キャラクタ生成方法及びプログラム - Google Patents

キャラクタ生成システム、キャラクタ生成方法及びプログラム Download PDF

Info

Publication number
JP5632469B2
JP5632469B2 JP2012519194A JP2012519194A JP5632469B2 JP 5632469 B2 JP5632469 B2 JP 5632469B2 JP 2012519194 A JP2012519194 A JP 2012519194A JP 2012519194 A JP2012519194 A JP 2012519194A JP 5632469 B2 JP5632469 B2 JP 5632469B2
Authority
JP
Japan
Prior art keywords
face
similar
information
texture
parts
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2012519194A
Other languages
English (en)
Other versions
JPWO2011155068A1 (ja
Inventor
正夫 桑原
正夫 桑原
奈生人 小湊
奈生人 小湊
和満 盛山
和満 盛山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Altron Corp
Original Assignee
Altron Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Altron Corp filed Critical Altron Corp
Publication of JPWO2011155068A1 publication Critical patent/JPWO2011155068A1/ja
Application granted granted Critical
Publication of JP5632469B2 publication Critical patent/JP5632469B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/55Controlling game characters or game objects based on the game progress
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T13/00Animation
    • G06T13/203D [Three Dimensional] animation
    • G06T13/403D [Three Dimensional] animation of characters, e.g. humans, animals or virtual beings
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/04Texture mapping
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/60Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/60Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor
    • A63F13/65Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor automatically by game devices or servers from real world data, e.g. measurement in live racing competition
    • A63F13/655Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor automatically by game devices or servers from real world data, e.g. measurement in live racing competition by importing photos, e.g. of the player
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/80Special adaptations for executing a specific game genre or game mode
    • A63F13/822Strategy games; Role-playing games
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/10Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals
    • A63F2300/1087Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals comprising photodetecting means, e.g. a camera
    • A63F2300/1093Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals comprising photodetecting means, e.g. a camera using visible light
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/50Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by details of game servers
    • A63F2300/55Details of game data or player data management
    • A63F2300/5546Details of game data or player data management using player registration data, e.g. identification, account, preferences, game history
    • A63F2300/5553Details of game data or player data management using player registration data, e.g. identification, account, preferences, game history user representation in the game field, e.g. avatar
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/60Methods for processing data by generating or executing the game program
    • A63F2300/6009Methods for processing data by generating or executing the game program for importing or creating game content, e.g. authoring tools during game development, adapting content to different platforms, use of a scripting language to create content
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/60Methods for processing data by generating or executing the game program
    • A63F2300/66Methods for processing data by generating or executing the game program for rendering three dimensional images
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/60Methods for processing data by generating or executing the game program
    • A63F2300/66Methods for processing data by generating or executing the game program for rendering three dimensional images
    • A63F2300/6607Methods for processing data by generating or executing the game program for rendering three dimensional images for animating game characters, e.g. skeleton kinematics
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/60Methods for processing data by generating or executing the game program
    • A63F2300/69Involving elements of the real world in the game world, e.g. measurement in live races, real video
    • A63F2300/695Imported photos, e.g. of the player

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Computer Graphics (AREA)
  • Human Computer Interaction (AREA)
  • Processing Or Creating Images (AREA)

Description

本発明は、コンピュータを用いて実現される仮想空間内のキャラクタを生成するキャラクタ生成システム、キャラクタ生成方法及びプログラムに関する。特に、携帯ゲーム装置を用いて実現される仮想空間内のキャラクタの顔を、対象物の顔撮像画像情報に基づいたアニメ調の似顔絵として生成するキャラクタ生成システム、キャラクタ生成方法及びプログラムに関する。
従来、携帯ゲーム装置等のコンピュータを用いて実現されるゲーム等の仮想空間において表示される登場キャラクタは、予め用意された複数のキャラクタの中からユーザが所望のキャラクタを選択し、選択したキャラクタを登場キャラクタとして、仮想空間に表示させていた。
また、仮想空間において表示される登場キャラクタに対して、デジタルカメラ等で撮影されたユーザの思い入れのある撮像画像を貼り付ける画像処理装置や画像処理方法も提案されている。例えば、特許文献1では、2次元画像情報を取り込み、仮想3次元物体の特徴位置に対応して設けられているゲージを備えた切り抜き範囲指定用の枠を使って、該2次元画像情報から、所定範囲の2次元画像情報を切り出し、切り出した2次元画像情報を仮想3次元物体に貼り付ける画像処理装置や画像処理方法が開示されている。
特開2000−235656号公報
しかしながら、特許文献1に開示されているようにデジタルカメラ等で撮影された2次元画像情報から顔部分の2次元画像情報(顔撮像画像情報)を切り出して、仮想3次元物体(頭部形状モデル)に貼り付ける場合、キャラクタを生成するためのデータ量が多くなり、携帯ゲーム装置のように記憶容量の少ない装置においては、キャラクタを生成するのに時間がかかってしまったり、生成したキャラクタを仮想空間内で動かしたりするときに処理速度が遅くなってしまったり、登場させるキャラクタの数が制限されてしまったりするという問題があった。また、被写体の顔そのままの画像をキャラクタの顔として表示させたくない場合、あるいは、個人情報保護のために表示できない場合もある。
本発明は、以上のような問題点を解決するためになされたもので、携帯ゲーム装置等のコンピュータを用いて実現される仮想空間内のキャラクタの顔を、対象物の顔撮像画像情報に基づいたアニメ調の似顔絵として容易に生成することが可能なキャラクタ生成システム、キャラクタ生成方法及びプログラムを提供することを目的とする。
上述した従来の問題点を解決すべく下記の発明を提供する。
本発明の第1の態様にかかるキャラクタ生成システムは、コンピュータを使用して、仮想空間内の存在として表示部に表示されるキャラクタの顔を、対象物の顔撮像画像情報に基づいたアニメ調の似顔絵として生成するキャラクタ生成システムであって、前記コンピュータが、前記対象物の前記顔撮像画像情報を、所定の記憶部に格納されている前記対象物の撮像画像情報から取得する撮像画像取得手段と、前記撮像画像取得手段によって取得された前記対象物の前記顔撮像画像情報から、所定の顔部品の特徴点及び所定画素の色情報を抽出し、抽出した前記所定画素の色情報に基づいて前記キャラクタの頭部テクスチャの肌色となる前記対象物の肌色に類似した類似肌色情報を設定し、更に、抽出した前記特徴点に基づいて前記対象物の前記顔部品に類似した前記顔部品に対応する類似アニメ調パーツを選択し、選択した前記類似アニメ調パーツの配置を設定することにより前記顔部品に対応した顔部品テクスチャを生成する顔部品テクスチャ生成手段と、所定の前記顔部品の前記特徴点に基づいて、前記頭部形状モデルを生成する形状モデル生成手段と、前記キャラクタの頭部形状モデルに貼り付けられ前記顔部品テクスチャ以外の前記頭部テクスチャの色情報を前記顔部品テクスチャ生成手段によって設定された前記類似肌色情報に置き換え、前記顔部品テクスチャ生成手段によって生成された前記顔部品テクスチャを、前記キャラクタの前記頭部形状モデルに貼り付けるテクスチャ貼付手段と、を備えていることを特徴とする。
本発明の第2の態様にかかるキャラクタ生成システムは、本発明の第1の態様にかかるキャラクタ生成システムの前記顔部品テクスチャ生成手段が、前記撮像画像取得手段によって取得された前記対象物の前記顔撮像画像情報から、前記所定の顔部品の前記特徴点の位置情報を取得するとともに、前記所定画素の色情報を取得する特徴点抽出手段と、前記特徴点抽出手段によって取得された前記特徴点の位置情報に基づいて、前記顔部品に対応して予め用意された複数のアニメ調パーツの中から前記対象物の前記顔部品の形状に類似した前記類似アニメ調パーツを選択するパーツ選択手段と、前記特徴点抽出手段によって取得された前記所定画素の色情報に基づいて、予め用意された複数の肌色情報の中から前記対象物の肌色に類似した前記類似肌色情報を選択する肌色設定手段と、前記特徴点抽出手段によって取得された前記特徴点の位置情報に基づいて、前記パーツ選択手段によって選択された前記顔部品に対応する前記類似アニメ調パーツの配置を設定し、設定した前記類似アニメ調パーツの配置に基づいて前記顔部品テクスチャを生成するパーツ配置設定手段と、を備えていることを特徴とする。
本発明の第3の態様にかかるキャラクタ生成システムは、本発明の第2の態様にかかるキャラクタ生成システムの前記パーツ選択手段が、前記顔部品が左右2つの基本顔部品から構成されるとき、左右どちらか一方の前記基本顔部品の前記特徴点の位置情報を顔中心線に対して線対称に移動させた位置情報に変換し、左右2つの前記基本顔部品の前記特徴点の位置情報の平均値から前記基本顔部品の形状を推定し、推定した前記基本顔部品の形状に対応した前記類似アニメ調パーツを前記複数のアニメ調パーツの中から選択し、前記顔部品が1つの前記基本顔部品から構成されるとき、前記顔部品の前記特徴点の位置情報から前記顔部品の形状を推定し、推定した前記顔部品の形状に対応した前記類似アニメ調パーツを前記複数のアニメ調パーツの中から選択することを特徴とする。
本発明の第4の態様にかかるキャラクタ生成システムは、本発明の第2または3の態様にかかるキャラクタ生成システムの前記パーツ配置設定手段が、前記頭部形状モデルに貼り付けられる位置が予め設定されている前記顔部品に対応した前記顔部品テクスチャにおいて、予め設定されている鼻及び口の前記顔部品テクスチャ内の位置に、鼻の前記類似アニメ調パーツ及び口の前記類似アニメ調パーツを配置し、予め設定されている目の前記顔部品テクスチャ内の上下方向の位置に、前記特徴点の位置情報から算出した左右の目の間隔で、顔中心線に対して左右の目の前記類似アニメ調パーツが線対象となるように配置し、予め設定されている眉の前記顔部品テクスチャ内の左右方向の位置に、前記特徴点の位置情報から算出した上下方向の位置で、顔中心線に対して左右の眉の前記類似アニメ調パーツが線対象となるように配置し、鼻、口、目、及び眉に対応した前記類似アニメ調パーツの配置に基づいて、鼻、口、目、及び眉に対応した前記顔部品テクスチャを生成することを特徴とする。
本発明の第5の態様にかかるキャラクタ生成システムは、本発明の第2または3の態様にかかるキャラクタ生成システムの前記パーツ配置設定手段が、前記頭部形状モデルに貼り付けられる位置が予め設定されている前記顔部品に対応した前記顔部品テクスチャにおいて、前記特徴点抽出手段によって取得された前記顔部品の前記特徴点の位置情報に基づいて前記顔部品に対応した前記顔部品テクスチャ内の前記類似アニメ調パーツの位置を算出し、算出した前記類似アニメ調パーツの位置に基づいて前記顔部品テクスチャを生成することを特徴とする。
本発明の第6の態様にかかるキャラクタ生成システムは、本発明の第4または5の態様にかかるキャラクタ生成システムの前記パーツ配置設定手段が、前記顔部品に対応する複数のモデル顔部品テクスチャの中から、前記顔部品に対応する前記類似アニメ調パーツの配置に類似した配置のアニメ調パーツを持つ類似モデル顔部品テクスチャを選択し、選択した類似モデル顔部品テクスチャを前記顔部品テクスチャとして設定することを特徴とする。
本発明の第7の態様にかかるキャラクタ生成システムは、本発明の第1乃至6のいずれか1つの態様にかかるキャラクタ生成システムの前記形状モデル生成手段が、顔輪郭に対応して予め用意された複数の輪郭形状モデルの中から、顔輪郭の前記特徴点に基づいて、顔輪郭に類似した基礎頭部形状モデルを選択し、顔輪郭以外の所定の顔部品に対応して予め用意された複数の部品形状モデルの中から、前記所定の顔部品の前記特徴点に基づいて、前記所定の顔部品に類似した類似部品形状モデルを選択し、選択した前記基礎頭部形状モデルと前記類似部品形状モデルとを組み合わせて前記頭部形状モデルを生成することを特徴とする。
本発明の第8の態様にかかるキャラクタ生成システムは、本発明の第1乃至6のいずれか1つの態様にかかるキャラクタ生成システムの前記形状モデル生成手段が、顔輪郭に対応して予め用意された複数の基準形状モデルの中から、顔輪郭の前記特徴点に基づいて、顔輪郭に類似した前記頭部形状モデルを選択することを特徴とする。
本発明の第9の態様にかかるキャラクタ生成システムは、本発明の第1乃至8のいずれか1つの態様にかかるキャラクタ生成システムにおいて、前記コンピュータが、前記表示部を制御して、所定の前記顔部品の配置を示す顔配置ガイド情報と前記対象物を前記表示部に表示させる表示制御手段と、撮像部を制御して、前記対象物を撮像させ、前記対象物の前記撮像画像情報を前記所定の記憶部に格納させる撮像制御手段と、を更に備え、前記撮像画像取得手段は、前記表示制御手段と前記撮像制御手段とを連動させて、前記顔配置ガイド情報と前記対象物とを前記表示部に表示させながら、前記顔配置ガイド情報に基づいて前記対象物を撮像させた前記対象物の前記顔撮像画像情報を、前記所定の記憶部に格納されている前記対象物の前記撮像画像情報から取得することを特徴する。
本発明の第10の態様にかかるキャラクタ生成システムは、本発明の第1乃至9のいずれか1つの態様にかかるキャラクタ生成システムにおいて、前記コンピュータが、入力部を制御して、前記対象物の前記撮像画像情報を含む各種情報を入力情報として入力させ、前記対象物の前記撮像画像情報を前記所定の記憶部に格納させる入力制御手段を更に備え、前記撮像画像取得手段は、前記表示制御手段と前記入力制御手段とを連動させて、前記顔配置ガイド情報と入力された前記対象物の前記撮像画像情報とを前記表示部に表示させながら、前記顔配置ガイド情報に基づいた前記対象物の前記顔撮像画像情報を、前記所定の記憶部に格納されている前記対象物の前記撮像画像情報から取得することを特徴する。
本発明の第11の態様にかかるキャラクタ生成システムは、本発明の第9または10の態様にかかるキャラクタ生成システムにおいて、前記顔配置ガイド情報によって配置が示される所定の前記顔部品は、顔輪郭を少なくとも含んでいることを特徴とする。
本発明の第1の態様にかかるキャラクタ生成方法は、コンピュータを使用して、仮想空間内の存在として表示部に表示されるキャラクタの顔を、対象物の顔撮像画像情報に基づいたアニメ調の似顔絵として生成するキャラクタ生成方法であって、前記コンピュータが、(a)前記対象物の前記顔撮像画像情報を、所定の記憶部に格納されている前記対象物の撮像画像情報から取得する工程と、(b)前記工程(a)によって取得された前記対象物の前記顔撮像画像情報から、前記所定の顔部品の前記特徴点の位置情報を取得するとともに、前記所定画素の色情報を取得する工程と、(c)前記工程(a)によって取得された所定の前記顔部品の前記特徴点に基づいて、前記キャラクタの頭部形状モデルを生成する工程と、(d)前記工程(a)によって取得された前記所定画素の色情報に基づいて前記キャラクタの頭部テクスチャの肌色となる前記対象物の肌色に類似した類似肌色情報を設定し、更に、前記工程(a)によって取得された前記特徴点に基づいて前記対象物の前記顔部品に類似した前記顔部品に対応する類似アニメ調パーツを選択し、選択した前記類似アニメ調パーツの配置を設定することにより前記顔部品に対応した顔部品テクスチャを生成する工程と、(e)前記工程()によって生成された前記顔部品テクスチャを、前記キャラクタの前記頭部形状モデルに貼り付けるとともに、前記工程(c)によって生成された前記頭部形状モデルに貼り付けられた前記頭部テクスチャの肌の部分の色情報を前記工程(d)によって設定された前記類似肌色情報に置き換える工程と、を備えていることを特徴とする。
本発明の第2の態様にかかるキャラクタ生成方法は、本発明の第1の態様にかかるキャラクタ生成方法の前記工程(d)が、(d1)前記工程(b)によって取得された前記特徴点の位置情報に基づいて、前記顔部品に対応して予め用意された複数のアニメ調パーツの中から前記対象物の前記顔部品の形状に類似した前記類似アニメ調パーツを選択する工程と、(d2)前記工程(b)によって取得された前記所定画素の色情報に基づいて、予め用意された複数の肌色情報の中から前記対象物の肌色に類似した前記類似肌色情報を選択する工程と、(d3)前記工程(b)によって取得された前記特徴点の位置情報に基づいて、前記工程(d1)によって選択された前記顔部品に対応する前記類似アニメ調パーツの配置を設定し、設定した前記類似アニメ調パーツの配置に基づいて前記顔部品テクスチャを生成する工程と、を備えていることを特徴とする。
本発明の第3の態様にかかるキャラクタ生成方法は、本発明の第2の態様にかかるキャラクタ生成方法の前記工程(d)が、前記顔部品が左右2つの基本顔部品から構成されるとき、左右どちらか一方の前記基本顔部品の前記特徴点の位置情報を顔中心線に対して線対称に移動させた位置情報に変換し、左右2つの前記基本顔部品の前記特徴点の位置情報の平均値から前記基本顔部品の形状を推定し、推定した前記基本顔部品の形状に対応した前記類似アニメ調パーツを前記複数のアニメ調パーツの中から選択し、前記顔部品が1つの前記基本顔部品から構成されるとき、前記顔部品の前記特徴点の位置情報から前記顔部品の形状を推定し、推定した前記顔部品の形状に対応した前記類似アニメ調パーツを前記複数のアニメ調パーツの中から選択することを特徴とする。
本発明の第4の態様にかかるキャラクタ生成方法は、本発明の第2または3の態様にかかるキャラクタ生成方法の前記工程(d3)が、前記頭部形状モデルに貼り付けられる位置が予め設定されている前記顔部品に対応した前記顔部品テクスチャにおいて、予め設定されている鼻及び口の前記顔部品テクスチャ内の位置に、鼻の前記類似アニメ調パーツ及び口の前記類似アニメ調パーツを配置し、予め設定されている目の前記顔部品テクスチャ内の上下方向の位置に、前記特徴点の位置情報から算出した左右の目の間隔で、顔中心線に対して左右の目の前記類似アニメ調パーツが線対象となるように配置し、予め設定されている眉の前記顔部品テクスチャ内の左右方向の位置に、前記特徴点の位置情報から算出した上下方向の位置で、顔中心線に対して左右の眉の前記類似アニメ調パーツが線対象となるように配置し、鼻、口、目、及び眉に対応した前記類似アニメ調パーツの配置に基づいて、鼻、口、目、及び眉に対応した前記顔部品テクスチャを生成することを特徴とする。
本発明の第5の態様にかかるキャラクタ生成方法は、本発明の第2または3の態様にかかるキャラクタ生成方法の前記工程(d3)が、前記頭部形状モデルに貼り付けられる位置が予め設定されている前記顔部品に対応した前記顔部品テクスチャにおいて、前記工程(b)によって取得された前記特徴点の位置情報に基づいて前記顔部品に対応した前記顔部品テクスチャ内の前記類似アニメ調パーツの位置を算出し、算出した前記類似アニメ調パーツの位置に基づいて前記顔部品テクスチャを生成することを特徴とする。
本発明の第6の態様にかかるキャラクタ生成方法は、本発明の第4または5の態様にかかるキャラクタ生成方法の前記工程(d3)が、前記顔部品に対応する複数のモデル顔部品テクスチャの中から、前記顔部品に対応する前記類似アニメ調パーツの配置に類似した配置のアニメ調パーツを持つ類似モデル顔部品テクスチャを選択し、選択した類似モデル顔部品テクスチャを前記顔部品テクスチャとして設定することを特徴とすることを特徴とする。
本発明の第7の態様にかかるキャラクタ生成方法は、本発明の第1乃至6のいずれか1つの態様にかかるキャラクタ生成方法の前記工程(c)が、顔輪郭に対応して予め用意された複数の輪郭形状モデルの中から、顔輪郭の前記特徴点に基づいて、顔輪郭に類似した基礎頭部形状モデルを選択し、顔輪郭以外の所定の顔部品に対応して予め用意された複数の部品形状モデルの中から、前記所定の顔部品の前記特徴点に基づいて、前記所定の顔部品に類似した類似部品形状モデルを選択し、選択した前記基礎頭部形状モデルと前記類似部品形状モデルとを組み合わせて前記頭部形状モデルを生成することを特徴とすることを特徴とする。
本発明の第8の態様にかかるキャラクタ生成方法は、本発明の第1乃至6のいずれか1つの態様にかかるキャラクタ生成方法の前記工程(c)が、顔輪郭に対応して予め用意された複数の基準形状モデルの中から、顔輪郭の前記特徴点に基づいて、顔輪郭に類似した前記頭部形状モデルを選択することを特徴とする。
本発明の第9の態様にかかるキャラクタ生成方法は、本発明の第1乃至8のいずれか1つの態様にかかるキャラクタ生成方法において、前記コンピュータが、(f)所定の前記顔部品の配置を示す顔配置ガイド情報と前記対象物とを前記表示部に表示させながら、前記顔配置ガイド情報に基づいて前記対象物を撮像し、前記対象物の前記撮像画像情報を前記所定の記憶部に格納する工程を、前記(a)の前に更に備え、前記工程(a)は、前記顔配置ガイド情報に基づいて、前記対象物の前記顔撮像画像情報を、前記所定の記憶部に格納されている前記対象物の前記撮像画像情報から取得することを特徴する。
本発明の第10の態様にかかるキャラクタ生成方法は、本発明の第1乃至9のいずれか1つの態様にかかるキャラクタ生成方法において、前記コンピュータが、(g)前記対象物の前記撮像画像情報を入力して、前記所定の記憶部に格納する工程を、前記(a)の前に更に備え、前記工程(a)は、所定の前記顔部品の配置を示す前記顔配置ガイド情報と、前記工程(g)によって入力された前記対象物の前記撮像画像情報とを前記表示部に表示させながら、前記顔配置ガイド情報に基づいて、前記対象物の前記顔撮像画像情報を、所定の記憶部に格納されている前記対象物の前記撮像画像情報から取得することを特徴する。
本発明の第11の態様にかかるキャラクタ生成方法は、本発明の第9または10の態様にかかるキャラクタ生成方法において、前記顔配置ガイド情報によって配置が示される所定の前記顔部品は、顔輪郭を少なくとも含んでいることを特徴とする。
本発明の第1の態様にかかるプログラムは、仮想空間内の存在として表示部に表示されるキャラクタの顔を、対象物の顔撮像画像情報に基づいたアニメ調の似顔絵として生成するための処理を、コンピュータに実行させるプログラムであって、本発明の第1乃至第11のいずれか1つの態様にかかるキャラクタ生成システムの各手段を実現させる処理を前記コンピュータに実行させることを特徴とする。
本発明によれば、携帯ゲーム装置等のコンピュータを用いて実現される仮想空間内のキャラクタの顔を、デジタルカメラ等で撮影された対象物の顔撮像画像情報に基づいたアニメ調の似顔絵として容易に生成することができる。また、ゲーム等の仮想空間内に登場するキャラクタの顔を、ユーザの顔撮像画像情報に基づいたアニメ調の似顔絵として生成することにより、該キャラクタに対してユーザがより感情移入をすることができ、より娯楽性の高いゲームソフトウェアを構築することができる。また、写真画像を使用したキャラクタのデータ量に比較してアニメ調の似顔絵を使用したキャラクタのデータ量は少なく、ゲーム等の処理速度を早くしたり、より多くのキャラクタを登場させたりするゲームソフトウェアを構築することができる。
本発明の一実施形態にかかるキャラクタ生成システム10によって生成されたキャラクタ70の一例を示したもので、(a)は女性のキャラクタ70aを、(b)は男性のキャラクタ70bを示した一例である。 本発明の一実施形態に係るにかかるキャラクタ生成システム10を実行させる携帯ゲーム装置20の概略構成を示す図である。 顔配置ガイド情報が表示された表示画面の一例である。 本発明の一実施形態にかかるキャラクタ生成システム10におけるシステム構成の一例を示す図である。 顔部品テクスチャを説明するための頭部形状モデル60の正面から見た平面図である。 (a)は、特徴点を説明するための図であり、(b)は右目領域41の拡大図である (a)乃至(c)は、女性の眉のアニメ調パーツの複数の例を示した図である。 (a)乃至(c)は、女性の目のアニメ調パーツの複数の例を示した図である。 (a)乃至(c)は、女性の口のアニメ調パーツの複数の例を示した図である。 (a)乃至(c)は、男性の眉のアニメ調パーツの複数の例を示した図である。 (a)乃至(c)は、男性の目のアニメ調パーツの複数の例を示した図である。 (a)乃至(c)は、男性の口のアニメ調パーツの複数の例を示した図である。 顔部品テクスチャ51内における類似アニメ調パーツの配置を説明するための頭部形状モデル60の正面から見た平面図である。 鼻の無い状態の基礎頭部形状モデル71と類似部品形状モデル72を説明するための図で、(a)は、顔正面の平面図であり、(b)は、顔側面の平面図である。 頭部形状モデル60を説明するための図で、(a)は、顔正面の平面図であり、(b)は、顔側面の平面図である。 本発明の一実施形態にかかるキャラクタ生成方法の各工程をコンピュータに実行させるプログラムの処理手順を示すフローチャート図の一例である。
本発明の一実施形態を、図面を参照しながら説明する。なお、以下に説明する実施形態は説明のためのものであり、本発明の範囲を制限するものではない。従って、当業者であればこれらの各要素もしくは全要素をこれと均等なもので置換した実施形態を採用することが可能であるが、これらの実施形態も本発明の範囲に含まれる。
本発明の一実施形態にかかるキャラクタ生成システム10は、コンピュータ上で動作するゲーム等のソフトウェアによって実現される仮想空間において、該仮想空間内の存在として表示部に表示されるキャラクタの顔を、対象物(例えば、ユーザ自身)の顔撮像画像情報に基づいたアニメ調の似顔絵として生成するキャラクタ生成システムである。図1は、本発明の一実施形態にかかるキャラクタ生成システム10によって生成された、携帯ゲーム装置上で動作するゲームソフトウェアによって実現される仮想空間内のキャラクタ70の一例を示したもので、(a)は女性のキャラクタ70aを、(b)は男性のキャラクタ70bを示した一例である。
ここで、対象物の顔撮像画像情報とは、デジタルカメラ等を用いて撮像された人物の撮像画像情報における顔部分の撮像画像情報であり、コンピュータに接続された、あるいは内蔵された撮像部を使用して、撮像部から直接取得した撮像画像情報であっても、コンピュータに接続された入力部から入力された、過去に撮像された撮像画像情報であっても良い。また、一枚の撮像画像情報を部分的に修正したり、複数の撮像画像を合成したりして、一枚の顔撮像画像情報にした画像情報であっても良い。また、対象物の顔撮像画像情報に基づいたアニメ調の似顔絵とは、対象物の顔撮像画像情報に類似し、さらに、かわいらしさを強調させた漫画やアニメーションに登場する人物のような顔のことである。
まず、本発明の一実施形態にかかるキャラクタ生成システム10を実行させるコンピュータの概略構成について説明する。尚、本実施形態においては、コンピュータとして、携帯ゲーム装置20を例に挙げて説明する。
図2は、本発明の一実施形態に係るにかかるキャラクタ生成システム10を実行させる携帯ゲーム装置20の概略構成を示す図である。図2に示すように、携帯ゲーム装置20は、CPU(中央処理装置)21、ROM22、RAM23、表示部24、撮像部25、入力部26を備えている。
CPU21は、携帯ゲーム装置20で実行させるキャラクタ生成システム10を実現するためのソフトウェアおよびデータを記憶しているROM22から、必要な情報を読み出し、実行することにより、キャラクタ生成システム10を実現する。また、RAM23は、携帯ゲーム装置20で実行させるキャラクタ生成システム10を実現するために必要なデータの記憶装置及びソフトウェアの実行作業領域として機能する。
また、表示部24は、CPU21からの命令に従って表示情報(例えば、ユーザに作業を促すための情報、顔配置ガイド情報等)を出力する。ここで、顔配置ガイド情報とは、被写体の撮像画像情報において、顔部分となる顔撮像画像情報を取り出すための位置基準及び範囲を設定するため情報で、所定の顔部品の配置を示す表示情報である。また、所定の顔部品とは、顔を構成する目、鼻、口、顔輪郭、眉等の部品であり、少なくとも顔輪郭を含んでいる。図3は、顔配置ガイド情報が表示された表示画面の一例である。図3に示すように、顔配置ガイド情報は、鼻の位置31、顔の輪郭32を示している。また、顔の輪郭32は、キャラクタ70の頭部形状モデルに対応するものである。
また、撮像部25は、CPU21からの命令に従って被写体を撮像し、撮像した被写体の撮像画像情報をRAM23に記憶する。また、入力部26は、例えば、操作ボタン、通信装置、外部記憶装置等であり、CPU21からの命令に従って入力情報(例えば、ユーザによって操作された操作ボタンの情報、撮像画像情報等)を入力して、RAM23に記憶する。
次に、本発明の一実施形態にかかるキャラクタ生成システム10におけるシステム構成について説明する。図4は、本発明の一実施形態にかかるキャラクタ生成システム10におけるシステム構成の一例を示す図である。
図4に示すように、キャラクタ生成システム10は、表示制御部11、撮像制御部12、入力制御部13、撮像画像情報取得部14、顔部品テクスチャ生成部15、形状モデル生成部16、テクスチャ貼付部17、キャラクタ情報記憶部18、及びガイド情報記憶部19を備えている。また、顔部品テクスチャ生成部15は、特徴点抽出部151、パーツ選択部152、肌色設定部153、及びパーツ配置設定部154を備えている。
表示制御部11は、表示部24を制御して、所定の顔部品の配置を示す顔配置ガイド情報、ユーザに作業を促すための情報等の必要な情報をガイド情報記憶部19から取り出させ、取り出させた情報から表示情報を生成させ表示させる。尚、表示制御部11は、上述した制御に限らず、表示部24の全ての処理を制御する。また、撮像制御部12は、撮像部25を制御して被写体を撮像させ、撮像した被写体の撮像画像情報をキャラクタ情報記憶部18に記憶させる。また、入力制御部13は、対応する入力部26を制御して様々な入力情報(例えば、過去に撮像した撮像画像情報等)を入力させ、必要な情報をキャラクタ情報記憶部18に記憶させる。ここで、被写体の撮像画像情報をキャラクタ情報記憶部18に記憶させると記載しているが、一時的な記憶部に記憶させても良い。
撮像画像情報取得部14は、表示制御部11と撮像制御部12とを連動させて、所定の顔部品の配置を示す顔配置ガイド情報と対象物(被写体)とを表示部24に表示させて、顔配置ガイド情報の顔部品の配置に合うように被写体の顔を撮像させる(図3参照)。特に、顔の輪郭32の横幅及び顎輪郭(下側輪郭)と、被写体の顔の横幅及び顎輪郭とを合わせるようにして、被写体の顔を撮像させる。
また、撮像画像情報取得部14は、顔撮像画像情報に基づいたアニメ調の似顔絵を生成するために、撮像した被写体の撮像画像情報から顔撮像画像情を取得する。顔撮像画像情報は、撮像部25によって撮像された被写体の撮像画像情報から取得したものであるが、入力部26から入力された被写体の撮撮像画像情報から取得したものであっても良い。即ち、撮像画像情報取得部14は、表示制御部11と入力制御部13とを連動させて、所定の顔部品の配置を示す顔配置ガイド情報と被写体の撮撮像画像情報とを表示部24に表示させながら、顔配置ガイド情報の顔部品の配置と被写体の撮撮像画像情報の中の顔部品の配置とを相対的に合わせながら、顔配置ガイド情報に合わせた顔撮撮像画像情を取得する。
顔部品テクスチャ生成部15は、対象物の顔撮像画像情報に基づいたアニメ調の似顔絵となるキャラクタ70の頭部形状モデル60(図15(a)及び(b)参照)に貼り付ける、鼻、口、目、眉等の顔部品に対応した部品テクスチャを生成する機能で、特徴点抽出部151、パーツ選択部152、肌色設定部153、及びパーツ配置設定部154から構成される。図5は、顔部品テクスチャを説明するための頭部形状モデル60を正面から見た平面図である。
図5に示すように、顔部品テクスチャ51(例えば、口の顔部品テクスチャ51a、鼻の顔部品テクスチャ51b、目の顔部品テクスチャ51c、眉の顔部品テクスチャ51d)は、頭部形状モデル60に対して貼り付けられる位置が予め設定されている。また、顔部品テクスチャ51は、対象物の顔部品に類似した類似アニメ調パーツ52が配置されたテクスチャである。例えば、図5に示すように、目の顔部品テクスチャ51cの場合、右目及び左目の基本顔部品に基づいて選択された2つの類似アニメ調パーツ52が配置されたテクスチャである。また、図5では、それぞれの顔部品テクスチャ51は重ならないように配置されているが、少なくとも異なる類似アニメ調パーツ52同士が重ならなければ、顔部品テクスチャ51が重なって配置されていても良い。
尚、本明細書では、目のように左右2つある場合、右目及び左目それぞれを基本顔部品と呼び、左右の目をまとめて顔部品と呼ぶ。また、口のように1つしかない場合は、口を基本顔部品及び/または顔部品と呼ぶ。また、頭部形状モデル60に貼り付けられるテクスチャを頭部テクスチャ50と呼び、顔部品テクスチャ51以外の頭部テクスチャ50を余白部54と呼ぶ。即ち、頭部形状モデル60に貼り付けられる頭部テクスチャ50は、顔部品テクスチャ51と余白部54とから構成される。
顔部品テクスチャ生成部15の特徴点抽出部151は、撮像画像情報取得部14によって取得された顔撮像画像情報から、所定の顔部品の特徴点及び所定画素の色情報を抽出する。即ち、撮像画像情報取得部14によって取得された顔撮像画像情報から、所定の顔部品の特徴点の位置情報を取得するとともに、所定画素の色情報を取得する。図6(a)は、特徴点を説明するための図であり、(b)は右目領域41の拡大図である。図6(a)、(b)では、所定の顔部品として、眉、目、鼻、口、顔の輪郭を設定している。また、黒丸で示した点は特徴点を示している。特徴点とは、所定の顔部品の形状を特徴付ける点で、例えば、右目領域41内の7つの黒丸が、右目の特徴点43a〜43gである。また、所定画素の色情報とは、例えば、鼻の頂点42の画素の色情報、両方の目の下の位置43a及び44aの画素の色情報である。尚、右目や左目等の右左は図面に向かって右側、左側とする。また、色情報とは、RGB、YUV等で表される色の情報である。
顔部品テクスチャ生成部15のパーツ選択部152は、特徴点抽出部151によって抽出された所定の顔部品の特徴点の位置情報に基づいて、該顔部品の形状を推定し、推定した該顔部品の形状に類似した類似アニメ調パーツ52を、予め用意された複数のアニメ調パーツの中から選択する。ここで、アニメ調パーツとは、対応する顔部品をデフォルメした絵である。また、アニメ調パーツは、性別、人種、年齢等に基づいて、複数用意されている。図7乃至図12は、顔部品に対応したアニメ調パーツの例を示した図である。図7(a)乃至(c)は、女性の眉のアニメ調パーツの複数の例を示した図である。図8(a)乃至(c)は、女性の目のアニメ調パーツの複数の例を示した図である。図9(a)乃至(c)は、女性の口のアニメ調パーツの複数の例を示した図である。図10(a)乃至(c)は、男性の眉のアニメ調パーツの複数の例を示した図である。図11(a)乃至(c)は、男性の目のアニメ調パーツの複数の例を示した図である。図12(a)乃至(c)は、男性の口のアニメ調パーツの複数の例を示した図である。
図6(a)、(b)に示すように、例えば目の場合、目の幅(点43bと点43fとの間隔)、目高さ(点43aと点43dとの間隔)、たれ目や釣り目等を示す目の傾き(点43gと点43bとを結ぶ線分49と、点43gから水平に左右方向(X方向)へ伸ばした線分48との角度θ)によって、目の形状を推定する。従って、複数の目のアニメ調パーツの中から、推定された目の幅、目高さ、目の傾きに最も近いアニメ調パーツが、目の類似アニメ調パーツ52となる。
また、眉や目の場合は、左右2つの基本顔部品から構成されているため、左右別々に形状を推定すると、左右で異なる形状になってしまう場合がある。しかし、顔全体のバランスを考えたとき、左右が同じ形状(顔中心線に対して線対称な形状)である方が顔全体のバランスを崩さないため、眉や目の場合は、例えば左目の位置情報を顔中心線に対して線対称に移動させた位置情報に変換し、即ち、左右反転させて右目の位置に変換し、2つの右目の特徴点の位置情報の平均から、目の特徴点の位置情報を算出し、目の形状を推定する。眉の場合も目と同様である。尚、鼻、口、顔の輪郭については、抽出した特徴点の位置情報から形状を推定する。また、目の場合、瞳の色情報を、特徴点抽出部151において抽出し、抽出した色情報に基づいて、類似アニメ調パーツ52の瞳の色情報を変更しても良い。
顔部品テクスチャ生成部15の肌色設定部153は、特徴点抽出部151によって抽出された所定画素の色情報に基づいて、対象物の肌色に類似した色情報(以下、類似肌色情報と呼ぶ)を算出し、算出した類似肌色情報をキャラクタ70の頭部テクスチャ50の色情報として設定する。例えば、特徴点抽出部151によって抽出された所定画素の色情報が、鼻の頂点42の画素の色情報、両方の目の下の位置43a及び44aの画素の色情報であるとき、3つの画素の色情報の平均を算出し、算出した色情報を類似肌色情報とする。
顔部品テクスチャ生成部15のパーツ配置設定部154は、特徴点抽出部151によって抽出された所定の顔部品の特徴点の位置情報に基づいて、顔部品テクスチャ51内における、パーツ選択部152によって選択された類似アニメ調パーツ52の配置を設定し、設定した類似アニメ調パーツ52の位置に基づいて顔部品テクスチャ51を生成する。
図13は、顔部品テクスチャ51内における類似アニメ調パーツ52の配置を説明するための頭部形状モデル60の正面から見た平面図である。図13に示すように、頭部形状モデル60に貼り付けられる顔部品テクスチャ51a、51b、51c、51dのそれぞれにおいて、点61は鼻の類似アニメ調パーツ52の配置を、点62は口の類似アニメ調パーツ52の配置を、点63は右目の類似アニメ調パーツ52の配置を、点64は左目の類似アニメ調パーツ52の配置を、点65は右眉の類似アニメ調パーツ52の配置を、点66は左眉の類似アニメ調パーツ52の配置を示す。
顔部品テクスチャ51a、51b、51c、51dが貼り付けられる頭部形状モデル60の位置は、頭部形状モデル60に対応して予め設定されている。
鼻の顔部品テクスチャ51b及び口の顔部品テクスチャ51に対して、鼻の類似アニメ調パーツ52の配置である点61及び口の類似アニメ調パーツ52の配置である点62は、予め設定されている。また、目の顔部品テクスチャ51cに対する目の類似アニメ調パーツ52の配置については、目の類似アニメ調パーツ52の上下方向(高さ方向:Y方向)の位置が予め設定され、左右方向(幅方向:X方向)の位置は両目の特徴点から算出する。即ち、予め設定されている両目の類似アニメ調パーツ52の上下方向(高さ方向:Y方向)の位置で、両目の類似アニメ調パーツ52の間隔67を両目の特徴点から算出し、両目の類似アニメ調パーツ52が、顔中心線69に対して線対象となるように配置する。また、眉の顔部品テクスチャ51dに対する眉の類似アニメ調パーツ52の配置については、眉の類似アニメ調パーツ52の左右方向の位置が予め設定され、上下方向の位置を両眉の特徴点から算出する。両眉の類似アニメ調パーツ52の上下方向の位置は、両眉の特徴点から算出し、両眉の類似アニメ調パーツ52が、顔中心線69に対して線対象となるように配置する。
顔部品テクスチャ51に対する類似アニメ調パーツ52の配置は、上述した配置処理に限定されることはなく、顔部品の特徴点に基づいて全ての顔部品テクスチャ51内の類似アニメ調パーツ52の配置を算出するようにしても良い。また、顔部品テクスチャ51に対する類似アニメ調パーツ52の配置を予め固定するようにしても良い。
また、顔部品テクスチャ51に対する類似アニメ調パーツ52の配置に基づいて顔部品テクスチャ51内に類似アニメ調パーツ52を配置した顔部品テクスチャ51に限らず、顔部品に対応する複数のモデル顔部品テクスチャの中から、顔部品テクスチャ51に対する類似アニメ調パーツ52の配置に類似した配置のアニメ調パーツを持つ類似モデル顔部品テクスチャを選択し、選択した類似モデル顔部品テクスチャを顔部品テクスチャ51として設定するようにしても良い。
以上のようにして、顔部品テクスチャ生成部15は、被写体の顔撮像画像情報に基づいたアニメ調の似顔絵の顔部品に対応した顔部品テクスチャ51を生成する。そして、生成した顔部品テクスチャ51をキャラクタ情報記憶部18に格納する。
形状モデル生成部16は、所定の顔部品の特徴点に基づいて、頭部形状モデル60を生成する機能である。また、生成した頭部形状モデル60には、頭部テクスチャ50の余白部54を貼り付ける。
キャラクタ情報記憶部18に予め格納してある複数の輪郭形状モデルの中から、顔部品テクスチャ生成部15によって取得された顔輪郭の特徴点に基づいて、顔輪郭に類似した頭部輪郭の部品形状モデル(以下、基礎頭部形状モデルと呼ぶ)71を選択し、キャラクタ情報記憶部18に予め格納してある所定の顔部品に対応する複数の部品形状モデルの中から、該顔部品に類似した該顔部品の部品形状モデル(以下、類似部品形状モデルと呼ぶ)72を選択する。そして、選択された基礎頭部形状モデル71と類似部品形状モデル72を組み合わせて(合体させて)頭部形状モデル60を生成する。ここで、基礎頭部形状モデル71は、所定の顔部品に対応する部品形状モデル部分が無い状態の頭部形状モデルである。即ち、例えば、所定の顔部品が鼻である場合は、鼻の無い状態の頭部形状モデルが基礎頭部形状モデル71である。
図14は、鼻の無い状態の基礎頭部形状モデル71と類似部品形状モデル72を説明するための図で、(a)は、顔正面の平面図を示し、(b)は、顔側面の平面図を示す。また、図15は、頭部形状モデル60を説明するための図で、(a)は、顔正面の平面図を示し、(b)は、顔側面の平面図を示す。尚、図14(a)、(b)及び図15(a)、(b)では、類似部品形状モデル72として鼻の類似部品形状モデル72を例に挙げて説明する。図14(a)、(b)に示す、顔輪郭の特徴点に基づいて選択された基礎頭部形状モデル71と、鼻の特徴点に基づいて選択された鼻の類似部品形状モデル72と組み合わせて、図15(a)、(b)に示す頭部形状モデル60を生成する。
上述の頭部形状モデル60の生成は、基礎頭部形状モデル71と類似部品形状モデル72と組み合わせて頭部形状モデル60を生成する場合を説明したが、キャラクタ情報記憶部18に予め格納してある複数の基準形状モデルの中から、顔部品テクスチャ生成部15によって取得された顔輪郭の特徴点に基づいて、顔輪郭に類似した頭部形状モデル60を選択するようにしても良い。また、頭部形状モデル60は、予め設定された1つをキャラクタ情報記憶部18に格納しておき、キャラクタ情報記憶部18から頭部形状モデル60を取り出すようにしても良い。
テクスチャ貼付部17は、形状モデル生成部16によって生成された頭部形状モデル60に、顔部品テクスチャ生成部15によって生成された顔部品テクスチャ51を貼り付けるとともに、頭部テクスチャ50の余白部54の色情報及び顔部品テクスチャ51の肌の部分の色情報を顔部品テクスチャ生成部15の肌色設定部153によって設定された類似肌色情報に置き換える。
尚、髪型、服装、アクセサリ等に対応する部品は、ゲーム等のシチュエーション、性別等に応じて、予めキャラクタ情報記憶部18にそれぞれ複数格納されており、ユーザに所望の部品を選択させたり、既定の部品を設定したりすることもできる。また、上述のテクスチャ貼付部17では、頭部テクスチャ50の余白部54の色情報及び顔部品テクスチャ51の肌の部分の色情報を類似肌色情報に置き換える処理を行っているが、頭部テクスチャ50の余白部54の色情報の類似肌色情報に置き換える処理を形状モデル生成部16で行い、顔部品テクスチャ51の肌の部分の色情報を類似肌色情報に置き換える処理を顔部品テクスチャ生成部15のパーツ配置設定部154で行っても良い。
次に、本発明の一実施形態にかかるキャラクタ生成システム10の起動タイミングについて説明する。本発明の一実施形態にかかるキャラクタ生成システム10の起動タイミングは、例えば、ロールプレイングゲーム(RPG)の場合、該RPGを開始する前に、キャラクタ生成システム10を起動させて、該RPGを開始する前に該RPGの仮想空間内に登場する全てのキャラクタ70の顔を生成するだけでなく、該RPGのゲーム進行途中において、新しく仮想空間内にキャラクタ70が登場したときに、キャラクタ生成システム10を動作させて、登場したキャラクタ70の顔を生成することもできる。即ち、ユーザの所望の起動タイミングで、キャラクタ生成システム10を起動させることができる。
上述した本発明の一実施形態にかかるキャラクタ生成システム10により、携帯ゲーム装置20を用いて実現される仮想空間内のキャラクタ70の顔を、デジタルカメラ等で撮影された対象物の顔撮像画像情報に基づいたアニメ調の似顔絵として容易に生成することができる。また、ゲーム等の仮想空間内に登場するキャラクタ70の顔を、ユーザの顔撮像画像情報に基づいたアニメ調の似顔絵として生成することにより、該キャラクタ70に対してユーザがより感情移入をすることができ、より娯楽性の高いゲームソフトウェアを構築することができる。また、写真画像を使用したキャラクタ70のデータ量に比較してアニメ調の似顔絵を使用したキャラクタ70のデータ量は少なく、ゲーム等の処理速度を早くしたり、より多くのキャラクタ70を登場させたりするゲームソフトウェアを構築することができる。
次に、本発明の一実施形態にかかるキャラクタ生成方法について説明する。
図16は、本発明の一実施形態にかかるキャラクタ生成方法の各工程をコンピュータに実行させるプログラムの処理手順を示すフローチャート図の一例である。
キャラクタの生成は、まず、アニメ調の似顔絵を生成するための対象となる顔撮像画像情報を取得する(ステップ101:S101)。ここでは、所定の顔部品の配置を示す顔配置ガイド情報と被写体とを表示部24に表示させながら、顔配置ガイド情報の顔部品の配置に合うように被写体の顔を撮像部25によって撮像し、撮像した被写体の撮像画像情報を取得する。更に、撮像した被写体の撮像画像情報から顔撮像画像情報を取得する。尚、ここでは、撮像部25によって撮像された被写体の撮像画像情報を用いているが、入力部26から入力した撮像画像情報であっても良い。また、一枚の撮像画像情報を部分的に修正したり、複数の撮像画像を合成したりして、一枚の顔撮像画像情報にした画像情報であっても良い。
次に、顔撮像画像情報から、所定の顔部品の特徴点及び所定画素の色情報を抽出する(ステップ102:S102)。即ち、ステップ101の工程によって取得された顔撮像画像情報から、所定の顔部品の特徴点の位置情報を取得するとともに、所定画素の色情報を取得する。ここで、例えば、所定の顔部品は、眉、目、鼻、口、顔の輪郭である。また、例えば、所定画素の色情報は、図6(a)、(b)における鼻の頂点42の画素の色情報、両方の目の下の位置43a及び44aの画素の色情報である。
次に、ステップ102の工程で抽出された所定の顔部品の特徴点の位置情報に基づいて、頭部形状モデル60を生成する(ステップ103:S103)。上述の形状モデル生成16で説明したように、例えば、キャラクタ情報記憶部18に予め格納してある複数の輪郭形状モデルの中から、顔部品テクスチャ生成部15によって取得された顔輪郭の特徴点に基づいて、顔輪郭に類似した基礎頭部形状モデル71を選択し、キャラクタ情報記憶部18に予め格納してある所定の顔部品に対応する複数の部品形状モデルの中から、該顔部品に類似した類似部品形状モデル72を選択し、選択された基礎頭部形状モデル71と類似部品形状モデル72を組み合わせて頭部形状モデル60を生成する。
また、キャラクタ情報記憶部18に予め格納してある複数の基準形状モデルの中から、顔部品テクスチャ生成部15によって取得された顔輪郭の特徴点に基づいて、顔輪郭に類似した頭部形状モデル60を選択するようにしても良い。また、頭部形状モデル60は予め設定された1つをキャラクタ情報記憶部18に格納しておき、キャラクタ情報記憶部18から頭部形状モデル60を取り出すようにしても良い。
次に、ステップ102の工程で抽出された所定の顔部品の特徴点の位置情報に基づいて、該顔部品の形状を推定する(ステップ104:S104)。図6(a)、(b)を用いて上述したように、例えば目の場合、目の幅(点43bと点43fとの間隔)、目高さ(点43aと点43dとの間隔)、たれ目や釣り目等を示す目の傾き(点43gと点43bとを結ぶ線分と、点43gから水平に左右方向へ伸ばした線分との角度θ)によって、目の形状を推定する。
次に、ステップ104の工程で推定した顔部品の形状に類似した類似アニメ調パーツ52を、予め用意された複数のアニメ調パーツの中から選択する(ステップ105:S105)。次に、ステップ102の工程で抽出された所定画素の色情報に基づいて、対象物の肌色に類似した類似肌色情報を算出する(ステップ106:S106)。図6(a)、(b)を用いて上述したように、例えば、抽出された所定画素の色情報が、鼻の頂点42の画素の色情報、両方の目の下の位置43a及び44aの画素の色情報であるとき、3つの画素の色情報の平均を算出し、算出した色情報を類似肌色情報とする。
次に、ステップ102の工程で抽出された所定の顔部品の特徴点の位置情報に基づいて、部品テクスチャ51内における類似アニメ調パーツ52の配置を設定し、設定した類似アニメ調パーツ52の位置に基づいて顔部品テクスチャ51を生成する(ステップ107:S107)。図13を用いて上述したように、鼻の顔部品テクスチャ51b及び口の顔部品テクスチャ51に対して、鼻の類似アニメ調パーツ52の配置である点61及び口の類似アニメ調パーツ52の配置である点62は、予め設定されている。また、目の顔部品テクスチャ51cに対する目の類似アニメ調パーツ52の配置については、目の類似アニメ調パーツ52の上下方向の位置が予め設定され、左右方向の位置は両目の特徴点から算出する。両目の類似アニメ調パーツ52の間隔67を両目の特徴点から算出し、両目の類似アニメ調パーツ52が、顔中心線69に対して線対象となるように配置する。また、眉の顔部品テクスチャ51dに対する眉の類似アニメ調パーツ52の配置については、眉の類似アニメ調パーツ52の左右方向の位置が予め設定され、上下方向の位置を両眉の特徴点から算出する。両眉の類似アニメ調パーツ52の上下方向の位置は、両眉の特徴点から算出し、両眉の類似アニメ調パーツ52が、顔中心線69に対して線対象となるように配置する。また、上述した配置処理に限定されることはなく、顔部品の特徴点に基づいて全ての顔部品テクスチャ51内の類似アニメ調パーツ52の配置を算出するようにしても良い。また、顔部品テクスチャ51に対する類似アニメ調パーツ52の配置を予め固定するようにしても良い。
また、顔部品テクスチャ51に対する類似アニメ調パーツ52の配置に基づいて、顔部品テクスチャ51内に類似アニメ調パーツ52を配置した顔部品テクスチャ51に限らず、顔部品に対応する複数のモデル顔部品テクスチャの中から、顔部品テクスチャ51に対する類似アニメ調パーツ52の配置に類似した配置のアニメ調パーツを持つ類似モデル顔部品テクスチャを選択し、選択した類似モデル顔部品テクスチャを顔部品テクスチャ51として設定するようにしても良い。
最後に、ステップ103の工程によって生成された頭部形状モデル60に、ステップ107の工程によって生成された顔部品テクスチャ51を貼り付けるとともに、頭部テクスチャ50の余白部54の色情報及び顔部品テクスチャ51の肌の部分の色情報をステップ106の工程によって設定された類似肌色情報に置き換える(ステップ108:S108)。これにより、アニメ調の似顔絵を貼り付けたキャラクタ70が生成される。尚、ステップ108の工程において、頭部テクスチャ50の余白部54の色情報及び顔部品テクスチャ51の肌の部分の色情報を類似肌色情報に置き換える処理を行っているが、頭部テクスチャ50の余白部54の色情報類似肌色情報に置き換える処理をステップ103の工程で行い、顔部品テクスチャ51の肌の部分の色情報を類似肌色情報に置き換える処理をステップ107の工程で行っても良い。
上述した本発明の一実施形態にかかるキャラクタ生成方法により、携帯ゲーム装置20を用いて実現される仮想空間内のキャラクタ70の顔を、デジタルカメラ等で撮影された対象物の顔撮像画像情報に基づいたアニメ調の似顔絵として容易に生成することができる。また、ゲーム等の仮想空間内に登場するキャラクタ70の顔を、ユーザの顔撮像画像情報に基づいたアニメ調の似顔絵として生成することにより、該キャラクタ70に対してユーザがより感情移入をすることができ、より娯楽性の高いゲームソフトウェアを構築することができる。また、写真画像を使用したキャラクタ70のデータ量に比較してアニメ調の似顔絵を使用したキャラクタ70のデータ量は少なく、ゲーム等の処理速度を早くしたり、より多くのキャラクタ70を登場させたりするゲームソフトウェアを構築することができる。
上述した本発明の一実施形態にかかるキャラクタ生成システム10は、携帯ゲーム装置20を使用したシステムであるが、これに限定されるものではなく、業務用ゲーム装置(アーケードゲーム機)、家庭用ゲーム機、携帯電話、スタンドアローン型のコンピュータ、ワークステーション型のコンピュータシステム、ネットワーク型のコンピュータシステム等を用いて実現される仮想空間内の存在として表される2次元又は3次元のキャラクタの生成に適用できる。
10 : キャラクタ生成システム
11 : 表示制御部
12 : 撮像制御部
13 : 入力制御部
14 : 撮像画像情報取得部
15 : 顔部品テクスチャ生成部
16 : 形状モデル生成部
17 : テクスチャ貼付部
18 : キャラクタ情報記憶部
19 : ガイド情報記憶部
50 : 頭部テクスチャ
51 : 顔部品テクスチャ
52 : 類似アニメ調パーツ
54 : 余白部
60 : 頭部形状モデル
70 : キャラクタ
71 : 基礎頭部形状モデル
72 : 類似部品形状モデル
151 : 特徴点抽出部
152 : パーツ選択部
153 : 肌色設定部
154 : パーツ配置設定部

Claims (23)

  1. コンピュータを使用して、仮想空間内の存在として表示部に表示されるキャラクタの顔を、対象物の顔撮像画像情報に基づいたアニメ調の似顔絵として生成するキャラクタ生成システムであって、
    前記コンピュータが、
    前記対象物の前記顔撮像画像情報を、所定の記憶部に格納されている前記対象物の撮像画像情報から取得する撮像画像取得手段と、
    前記撮像画像取得手段によって取得された前記対象物の前記顔撮像画像情報から、所定の顔部品の特徴点及び所定画素の色情報を抽出し、抽出した前記所定画素の色情報に基づいて前記キャラクタの頭部テクスチャの肌色となる前記対象物の肌色に類似した類似肌色情報を設定し、更に、抽出した前記特徴点に基づいて前記対象物の前記顔部品に類似した前記顔部品に対応する類似アニメ調パーツを選択し、選択した前記類似アニメ調パーツの配置を設定することにより前記顔部品に対応した顔部品テクスチャを生成する顔部品テクスチャ生成手段と、
    所定の前記顔部品の前記特徴点に基づいて、前記頭部形状モデルを生成する形状モデル生成手段と、
    前記キャラクタの頭部形状モデルに貼り付けられ前記顔部品テクスチャ以外の前記頭部テクスチャの色情報を前記顔部品テクスチャ生成手段によって設定された前記類似肌色情報に置き換え、前記顔部品テクスチャ生成手段によって生成された前記顔部品テクスチャを、前記キャラクタの前記頭部形状モデルに貼り付けるテクスチャ貼付手段と、
    を備えていることを特徴とするキャラクタ生成システム。
  2. 前記顔部品テクスチャ生成手段は、
    前記撮像画像取得手段によって取得された前記対象物の前記顔撮像画像情報から、前記所定の顔部品の前記特徴点の位置情報を取得するとともに、前記所定画素の色情報を取得する特徴点抽出手段と、
    前記特徴点抽出手段によって取得された前記特徴点の位置情報に基づいて、前記顔部品に対応して予め用意された複数のアニメ調パーツの中から前記対象物の前記顔部品の形状に類似した前記類似アニメ調パーツを選択するパーツ選択手段と、
    前記特徴点抽出手段によって取得された前記所定画素の色情報に基づいて、予め用意された複数の肌色情報の中から前記対象物の肌色に類似した前記類似肌色情報を選択する肌色設定手段と、
    前記特徴点抽出手段によって取得された前記特徴点の位置情報に基づいて、前記パーツ選択手段によって選択された前記顔部品に対応する前記類似アニメ調パーツの配置を設定し、設定した前記類似アニメ調パーツの配置に基づいて前記顔部品テクスチャを生成するパーツ配置設定手段と、
    を備えていることを特徴とする請求項1に記載のキャラクタ生成システム。
  3. 前記パーツ選択手段は、
    前記顔部品が左右2つの基本顔部品から構成されるとき、左右どちらか一方の前記基本顔部品の前記特徴点の位置情報を顔中心線に対して線対称に移動させた位置情報に変換し、左右2つの前記基本顔部品の前記特徴点の位置情報の平均値から前記基本顔部品の形状を推定し、推定した前記基本顔部品の形状に対応した前記類似アニメ調パーツを前記複数のアニメ調パーツの中から選択し、
    前記顔部品が1つの前記基本顔部品から構成されるとき、前記顔部品の前記特徴点の位置情報から前記顔部品の形状を推定し、推定した前記顔部品の形状に対応した前記類似アニメ調パーツを前記複数のアニメ調パーツの中から選択することを特徴とする請求項2に記載のキャラクタ生成システム。
  4. 前記パーツ配置設定手段は、
    前記頭部形状モデルに貼り付けられる位置が予め設定されている前記顔部品に対応した前記顔部品テクスチャにおいて、
    予め設定されている鼻及び口の前記顔部品テクスチャ内の位置に、鼻の前記類似アニメ調パーツ及び口の前記類似アニメ調パーツを配置し、
    予め設定されている目の前記顔部品テクスチャ内の上下方向の位置に、前記特徴点の位置情報から算出した左右の目の間隔で、顔中心線に対して左右の目の前記類似アニメ調パーツが線対象となるように配置し、
    予め設定されている眉の前記顔部品テクスチャ内の左右方向の位置に、前記特徴点の位置情報から算出した上下方向の位置で、顔中心線に対して左右の眉の前記類似アニメ調パーツが線対象となるように配置し、
    鼻、口、目、及び眉に対応した前記類似アニメ調パーツの配置に基づいて、鼻、口、目、及び眉に対応した前記顔部品テクスチャを生成することを特徴とする請求項2または3に記載のキャラクタ生成システム。
  5. 前記パーツ配置設定手段は、
    前記頭部形状モデルに貼り付けられる位置が予め設定されている前記顔部品に対応した前記顔部品テクスチャにおいて、
    前記特徴点抽出手段によって取得された前記顔部品の前記特徴点の位置情報に基づいて前記顔部品に対応した前記顔部品テクスチャ内の前記類似アニメ調パーツの位置を算出し、
    算出した前記類似アニメ調パーツの位置に基づいて前記顔部品テクスチャを生成することを特徴とする請求項2または3に記載のキャラクタ生成システム。
  6. 前記パーツ配置設定手段は、
    前記顔部品に対応する複数のモデル顔部品テクスチャの中から、前記顔部品に対応する前記類似アニメ調パーツの配置に類似した配置のアニメ調パーツを持つ類似モデル顔部品テクスチャを選択し、選択した類似モデル顔部品テクスチャを前記顔部品テクスチャとして設定することを特徴とする請求項4または5に記載のキャラクタ生成システム。
  7. 前記形状モデル生成手段が、
    顔輪郭に対応して予め用意された複数の輪郭形状モデルの中から、顔輪郭の前記特徴点に基づいて、顔輪郭に類似した基礎頭部形状モデルを選択し、
    顔輪郭以外の所定の顔部品に対応して予め用意された複数の部品形状モデルの中から、前記所定の顔部品の前記特徴点に基づいて、前記所定の顔部品に類似した類似部品形状モデルを選択し、
    選択した前記基礎頭部形状モデルと前記類似部品形状モデルとを組み合わせて前記頭部形状モデルを生成することを特徴とする請求項1乃至6のいずれか1項に記載のキャラクタ生成システム。
  8. 前記形状モデル生成手段が、
    顔輪郭に対応して予め用意された複数の基準形状モデルの中から、顔輪郭の前記特徴点に基づいて、顔輪郭に類似した前記頭部形状モデルを選択することを特徴とする請求項1乃至6のいずれか1項に記載のキャラクタ生成システム。
  9. 前記コンピュータが、
    前記表示部を制御して、所定の前記顔部品の配置を示す顔配置ガイド情報と前記対象物を前記表示部に表示させる表示制御手段と、
    撮像部を制御して、前記対象物を撮像させ、前記対象物の前記撮像画像情報を前記所定の記憶部に格納させる撮像制御手段と、
    を更に備え、
    前記撮像画像取得手段は、前記表示制御手段と前記撮像制御手段とを連動させて、前記顔配置ガイド情報と前記対象物とを前記表示部に表示させながら、前記顔配置ガイド情報に基づいて前記対象物を撮像させた前記対象物の前記顔撮像画像情報を、前記所定の記憶部に格納されている前記対象物の前記撮像画像情報から取得することを特徴する請求項1乃至8のいずれか1項に記載のキャラクタ生成システム。
  10. 前記コンピュータが、
    入力部を制御して、前記対象物の前記撮像画像情報を含む各種情報を入力情報として入力させ、前記対象物の前記撮像画像情報を前記所定の記憶部に格納させる入力制御手段を更に備え、
    前記撮像画像取得手段は、前記表示制御手段と前記入力制御手段とを連動させて、前記顔配置ガイド情報と入力された前記対象物の前記撮像画像情報とを前記表示部に表示させながら、前記顔配置ガイド情報に基づいた前記対象物の前記顔撮像画像情報を、前記所定の記憶部に格納されている前記対象物の前記撮像画像情報から取得することを特徴する請求項1乃至9のいずれか1項に記載のキャラクタ生成システム。
  11. 前記顔配置ガイド情報によって配置が示される所定の前記顔部品は、顔輪郭を少なくとも含んでいることを特徴とする請求項9または10に記載のキャラクタ生成システム。
  12. コンピュータを使用して、仮想空間内の存在として表示部に表示されるキャラクタの顔を、対象物の顔撮像画像情報に基づいたアニメ調の似顔絵として生成するキャラクタ生成方法であって、
    前記コンピュータが、
    (a)前記対象物の前記顔撮像画像情報を、所定の記憶部に格納されている前記対象物の撮像画像情報から取得する工程と、
    (b)前記工程(a)によって取得された前記対象物の前記顔撮像画像情報から、前記所定の顔部品の前記特徴点の位置情報を取得するとともに、前記所定画素の色情報を取得する工程と、
    (c)前記工程(a)によって取得された所定の前記顔部品の前記特徴点に基づいて、前記キャラクタの頭部形状モデルを生成する工程と、
    (d)前記工程(a)によって取得された前記所定画素の色情報に基づいて前記キャラクタの頭部テクスチャの肌色となる前記対象物の肌色に類似した類似肌色情報を設定し、更に、前記工程(a)によって取得された前記特徴点に基づいて前記対象物の前記顔部品に類似した前記顔部品に対応する類似アニメ調パーツを選択し、選択した前記類似アニメ調パーツの配置を設定することにより前記顔部品に対応した顔部品テクスチャを生成する工程と、
    (e)前記工程()によって生成された前記顔部品テクスチャを、前記キャラクタの前記頭部形状モデルに貼り付けるとともに、前記工程(c)によって生成された前記頭部形状モデルに貼り付けられた前記頭部テクスチャの肌の部分の色情報を前記工程(d)によって設定された前記類似肌色情報に置き換える工程と、
    を備えていることを特徴とするキャラクタ生成方法。
  13. 前記工程(d)は、
    (d1)前記工程(b)によって取得された前記特徴点の位置情報に基づいて、前記顔部品に対応して予め用意された複数のアニメ調パーツの中から前記対象物の前記顔部品の形状に類似した前記類似アニメ調パーツを選択する工程と、
    (d2)前記工程(b)によって取得された前記所定画素の色情報に基づいて、予め用意された複数の肌色情報の中から前記対象物の肌色に類似した前記類似肌色情報を選択する工程と、
    (d3)前記工程(b)によって取得された前記特徴点の位置情報に基づいて、前記工程(d1)によって選択された前記顔部品に対応する前記類似アニメ調パーツの配置を設定し、設定した前記類似アニメ調パーツの配置に基づいて前記顔部品テクスチャを生成する工程と、
    を備えていることを特徴とする請求項12に記載のキャラクタ生成方法。
  14. 前記工程(d1)は、
    前記顔部品が左右2つの基本顔部品から構成されるとき、左右どちらか一方の前記基本顔部品の前記特徴点の位置情報を顔中心線に対して線対称に移動させた位置情報に変換し、左右2つの前記基本顔部品の前記特徴点の位置情報の平均値から前記基本顔部品の形状を推定し、推定した前記基本顔部品の形状に対応した前記類似アニメ調パーツを前記複数のアニメ調パーツの中から選択し、
    前記顔部品が1つの前記基本顔部品から構成されるとき、前記顔部品の前記特徴点の位置情報から前記顔部品の形状を推定し、推定した前記顔部品の形状に対応した前記類似アニメ調パーツを前記複数のアニメ調パーツの中から選択することを特徴とする請求項13に記載のキャラクタ生成方法。
  15. 前記工程(d3)は、
    前記頭部形状モデルに貼り付けられる位置が予め設定されている前記顔部品に対応した前記顔部品テクスチャにおいて、
    予め設定されている鼻及び口の前記顔部品テクスチャ内の位置に、鼻の前記類似アニメ調パーツ及び口の前記類似アニメ調パーツを配置し、
    予め設定されている目の前記顔部品テクスチャ内の上下方向の位置に、前記特徴点の位置情報から算出した左右の目の間隔で、顔中心線に対して左右の目の前記類似アニメ調パーツが線対象となるように配置し、
    予め設定されている眉の前記顔部品テクスチャ内の左右方向の位置に、前記特徴点の位置情報から算出した上下方向の位置で、顔中心線に対して左右の眉の前記類似アニメ調パーツが線対象となるように配置し、
    鼻、口、目、及び眉に対応した前記類似アニメ調パーツの配置に基づいて、鼻、口、目、及び眉に対応した前記顔部品テクスチャを生成することを特徴とする請求項13または14に記載のキャラクタ生成方法。
  16. 前記工程(d3)は、
    前記頭部形状モデルに貼り付けられる位置が予め設定されている前記顔部品に対応した前記顔部品テクスチャにおいて、
    前記工程(b)によって取得された前記特徴点の位置情報に基づいて前記顔部品に対応した前記顔部品テクスチャ内の前記類似アニメ調パーツの位置を算出し、
    算出した前記類似アニメ調パーツの位置に基づいて前記顔部品テクスチャを生成することを特徴とする請求項13または14に記載のキャラクタ生成方法。
  17. 前記工程(d3)は、
    前記顔部品に対応する複数のモデル顔部品テクスチャの中から、前記顔部品に対応する前記類似アニメ調パーツの配置に類似した配置のアニメ調パーツを持つ類似モデル顔部品テクスチャを選択し、選択した類似モデル顔部品テクスチャを前記顔部品テクスチャとして設定することを特徴とすることを特徴とする請求項15または16に記載のキャラクタ生成方法。
  18. 前記工程(c)は、
    顔輪郭に対応して予め用意された複数の輪郭形状モデルの中から、顔輪郭の前記特徴点に基づいて、顔輪郭に類似した基礎頭部形状モデルを選択し、
    顔輪郭以外の所定の顔部品に対応して予め用意された複数の部品形状モデルの中から、前記所定の顔部品の前記特徴点に基づいて、前記所定の顔部品に類似した類似部品形状モデルを選択し、
    選択した前記基礎頭部形状モデルと前記類似部品形状モデルとを組み合わせて前記頭部形状モデルを生成することを特徴とすることを特徴とする請求項12乃至17のいずれか1項に記載のキャラクタ生成方法。
  19. 前記工程(c)は、
    顔輪郭に対応して予め用意された複数の基準形状モデルの中から、顔輪郭の前記特徴点に基づいて、顔輪郭に類似した前記頭部形状モデルを選択することを特徴とする請求項12乃至17のいずれか1項に記載のキャラクタ生成方法。
  20. 前記コンピュータが、
    (f)所定の前記顔部品の配置を示す顔配置ガイド情報と前記対象物とを前記表示部に表示させながら、前記顔配置ガイド情報に基づいて前記対象物を撮像し、前記対象物の前記撮像画像情報を前記所定の記憶部に格納する工程を、前記(a)の前に更に備え、
    前記工程(a)は、前記顔配置ガイド情報に基づいて、前記対象物の前記顔撮像画像情報を、前記所定の記憶部に格納されている前記対象物の前記撮像画像情報から取得することを特徴する請求項12乃至19のいずれか1項に記載のキャラクタ生成方法。
  21. 前記コンピュータが、
    (g)前記対象物の前記撮像画像情報を入力して、前記所定の記憶部に格納する工程を、前記(a)の前に更に備え、
    前記工程(a)は、所定の前記顔部品の配置を示す前記顔配置ガイド情報と、前記工程(g)によって入力された前記対象物の前記撮像画像情報とを前記表示部に表示させながら、前記顔配置ガイド情報に基づいて、前記対象物の前記顔撮像画像情報を、所定の記憶部に格納されている前記対象物の前記撮像画像情報から取得することを特徴する請求項12乃至20のいずれか1項に記載のキャラクタ生成方法。
  22. 前記顔配置ガイド情報によって配置が示される所定の前記顔部品は、顔輪郭を少なくとも含んでいることを特徴とする請求項20または21に記載のキャラクタ生成方法。
  23. 仮想空間内の存在として表示部に表示されるキャラクタの顔を、対象物の顔撮像画像情報に基づいたアニメ調の似顔絵として生成するための処理を、コンピュータに実行させるプログラムであって、
    請求項1乃至11のいずれか1項に記載のキャラクタ生成システムの各手段を実現させる処理を前記コンピュータに実行させることを特徴とするプログラム。
JP2012519194A 2010-06-11 2010-06-11 キャラクタ生成システム、キャラクタ生成方法及びプログラム Expired - Fee Related JP5632469B2 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2010/059967 WO2011155068A1 (ja) 2010-06-11 2010-06-11 キャラクタ生成システム、キャラクタ生成方法及びプログラム

Publications (2)

Publication Number Publication Date
JPWO2011155068A1 JPWO2011155068A1 (ja) 2013-08-01
JP5632469B2 true JP5632469B2 (ja) 2014-11-26

Family

ID=45097697

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012519194A Expired - Fee Related JP5632469B2 (ja) 2010-06-11 2010-06-11 キャラクタ生成システム、キャラクタ生成方法及びプログラム

Country Status (4)

Country Link
US (1) US8497869B2 (ja)
EP (1) EP2581881A1 (ja)
JP (1) JP5632469B2 (ja)
WO (1) WO2011155068A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20210043021A (ko) * 2016-06-30 2021-04-20 스냅 인코포레이티드 아바타 기반의 표의문자 생성

Families Citing this family (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5279930B1 (ja) * 2012-03-27 2013-09-04 株式会社東芝 サーバ、電子機器、サーバの制御方法、サーバの制御プログラム
JP5466754B2 (ja) * 2012-05-30 2014-04-09 株式会社コナミデジタルエンタテインメント サーバ装置、アバター情報処理方法およびプログラム
JP5603452B1 (ja) 2013-04-11 2014-10-08 株式会社スクウェア・エニックス ビデオゲーム処理装置、及びビデオゲーム処理プログラム
JP6219791B2 (ja) * 2014-08-21 2017-10-25 株式会社スクウェア・エニックス ビデオゲーム処理装置、及びビデオゲーム処理プログラム
JP6152125B2 (ja) * 2015-01-23 2017-06-21 任天堂株式会社 プログラム、情報処理装置、情報処理システム及びアバター画像の生成方法
US20160284122A1 (en) * 2015-03-26 2016-09-29 Intel Corporation 3d model recognition apparatus and method
US9786032B2 (en) * 2015-07-28 2017-10-10 Google Inc. System for parametric generation of custom scalable animated characters on the web
KR102661019B1 (ko) * 2018-02-23 2024-04-26 삼성전자주식회사 얼굴에 대응하는 3차원 아바타를 이용하여 얼굴의 움직임이 반영된 3차원 아바타를 포함하는 이미지를 생성하는 전자 장치 및 그 동작 방법
JP2020149174A (ja) * 2019-03-12 2020-09-17 ソニー株式会社 画像処理装置、および画像処理方法、並びにプログラム
CN110136236B (zh) * 2019-05-17 2022-11-29 腾讯科技(深圳)有限公司 三维角色的个性化脸部显示方法、装置、设备及存储介质
CN110728256A (zh) * 2019-10-22 2020-01-24 上海商汤智能科技有限公司 基于车载数字人的交互方法及装置、存储介质
US11924588B2 (en) * 2022-05-19 2024-03-05 Fleek Inc. System and method for guiding eyebrow shaping with projected light
JP7202045B1 (ja) 2022-09-09 2023-01-11 株式会社PocketRD 3次元アバター生成装置、3次元アバター生成方法及び3次元アバター生成プログラム

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08293037A (ja) * 1995-04-21 1996-11-05 Casio Comput Co Ltd 合成パターン出力装置
JP2000235656A (ja) * 1999-02-15 2000-08-29 Sony Corp 画像処理装置及び方法、並びにプログラム提供媒体
JP2001222725A (ja) * 2000-02-07 2001-08-17 Sharp Corp 画像処理装置
JP2003016431A (ja) * 2001-06-28 2003-01-17 Mitsubishi Electric Corp 似顔絵の作成装置

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6828972B2 (en) * 2002-04-24 2004-12-07 Microsoft Corp. System and method for expression mapping
US6919892B1 (en) * 2002-08-14 2005-07-19 Avaworks, Incorporated Photo realistic talking head creation system and method
EP2030171A1 (en) * 2006-04-10 2009-03-04 Avaworks Incorporated Do-it-yourself photo realistic talking head creation system and method
US8831379B2 (en) * 2008-04-04 2014-09-09 Microsoft Corporation Cartoon personalization
JP2010066853A (ja) * 2008-09-09 2010-03-25 Fujifilm Corp 画像処理装置、方法およびプログラム
JP5659228B2 (ja) * 2010-06-11 2015-01-28 株式会社アルトロン キャラクタ生成システム、キャラクタ生成方法及びプログラム

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08293037A (ja) * 1995-04-21 1996-11-05 Casio Comput Co Ltd 合成パターン出力装置
JP2000235656A (ja) * 1999-02-15 2000-08-29 Sony Corp 画像処理装置及び方法、並びにプログラム提供媒体
JP2001222725A (ja) * 2000-02-07 2001-08-17 Sharp Corp 画像処理装置
JP2003016431A (ja) * 2001-06-28 2003-01-17 Mitsubishi Electric Corp 似顔絵の作成装置

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20210043021A (ko) * 2016-06-30 2021-04-20 스냅 인코포레이티드 아바타 기반의 표의문자 생성
KR102372756B1 (ko) 2016-06-30 2022-03-10 스냅 인코포레이티드 아바타 기반의 표의문자 생성

Also Published As

Publication number Publication date
JPWO2011155068A1 (ja) 2013-08-01
US8497869B2 (en) 2013-07-30
US20130120425A1 (en) 2013-05-16
EP2581881A1 (en) 2013-04-17
WO2011155068A1 (ja) 2011-12-15

Similar Documents

Publication Publication Date Title
JP5632469B2 (ja) キャラクタ生成システム、キャラクタ生成方法及びプログラム
JP4359784B2 (ja) 顔画像合成方法および顔画像合成装置
KR101190686B1 (ko) 화상 처리 장치, 화상 처리 방법 및 컴퓨터 판독가능한 기록 매체
US9563975B2 (en) Makeup support apparatus and method for supporting makeup
US10366533B2 (en) Image processing device and image processing method
KR101514327B1 (ko) 얼굴 아바타 생성 장치 및 방법
CN109410298B (zh) 一种虚拟模型的制作方法及表情变化方法
JP5603452B1 (ja) ビデオゲーム処理装置、及びビデオゲーム処理プログラム
US7653220B2 (en) Face image creation device and method
CN112669447A (zh) 一种模型头像创建方法、装置、电子设备和存储介质
JP2019510297A (ja) ユーザの真実の人体モデルへの仮想的な試着
CN107204033B (zh) 图片的生成方法和装置
JP2011209887A (ja) アバター作成方法、アバター作成プログラム、およびネットワークサービスシステム
JP5659228B2 (ja) キャラクタ生成システム、キャラクタ生成方法及びプログラム
CN107452049A (zh) 一种三维头部建模方法及装置
CN107469355A (zh) 游戏人物形象创建方法及装置、终端设备
JP4702534B2 (ja) 画像処理装置、画像処理方法及び画像処理プログラム
KR100608840B1 (ko) 휴대단말기의 3차원 아바타 합성방법
JP2012120080A (ja) 立体写真撮影装置
JP5857606B2 (ja) 奥行き製作支援装置、奥行き製作支援方法、およびプログラム
JP6685094B2 (ja) 画像処理装置、画像処理方法及びコンピュータプログラム
JP2018113054A (ja) 画像処理装置、画像処理方法及びプログラム
WO2019044333A1 (ja) シミュレーション装置、シミュレーション方法、及びコンピュータプログラム
JP2001216531A (ja) 3次元仮想空間参加者表示方法及び3次元仮想空間表示装置
JP7076861B1 (ja) 3次元アバター生成装置、3次元アバター生成方法及び3次元アバター生成プログラム

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130604

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20130604

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140912

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20141009

R150 Certificate of patent or registration of utility model

Ref document number: 5632469

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees