JP2004046793A - 画像処理システム - Google Patents
画像処理システム Download PDFInfo
- Publication number
- JP2004046793A JP2004046793A JP2003098829A JP2003098829A JP2004046793A JP 2004046793 A JP2004046793 A JP 2004046793A JP 2003098829 A JP2003098829 A JP 2003098829A JP 2003098829 A JP2003098829 A JP 2003098829A JP 2004046793 A JP2004046793 A JP 2004046793A
- Authority
- JP
- Japan
- Prior art keywords
- data
- image
- character
- imaging
- polygon
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Images
Classifications
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/60—Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor
- A63F13/65—Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor automatically by game devices or servers from real world data, e.g. measurement in live racing competition
- A63F13/655—Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor automatically by game devices or servers from real world data, e.g. measurement in live racing competition by importing photos, e.g. of the player
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/20—Input arrangements for video game devices
- A63F13/21—Input arrangements for video game devices characterised by their sensors, purposes or types
- A63F13/213—Input arrangements for video game devices characterised by their sensors, purposes or types comprising photodetecting means, e.g. cameras, photodiodes or infrared cells
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/30—Interconnection arrangements between game servers and game devices; Interconnection arrangements between game devices; Interconnection arrangements between game servers
- A63F13/32—Interconnection arrangements between game servers and game devices; Interconnection arrangements between game devices; Interconnection arrangements between game servers using local area network [LAN] connections
- A63F13/323—Interconnection arrangements between game servers and game devices; Interconnection arrangements between game devices; Interconnection arrangements between game servers using local area network [LAN] connections between game devices with different hardware characteristics, e.g. hand-held game devices connectable to game consoles or arcade machines
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/50—Controlling the output signals based on the game progress
- A63F13/53—Controlling the output signals based on the game progress involving additional visual information provided to the game scene, e.g. by overlay to simulate a head-up display [HUD] or displaying a laser sight in a shooting game
- A63F13/533—Controlling the output signals based on the game progress involving additional visual information provided to the game scene, e.g. by overlay to simulate a head-up display [HUD] or displaying a laser sight in a shooting game for prompting the player, e.g. by displaying a game menu
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/80—Special adaptations for executing a specific game genre or game mode
- A63F13/822—Strategy games; Role-playing games
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/90—Constructional details or arrangements of video game devices not provided for in groups A63F13/20 or A63F13/25, e.g. housing, wiring, connections or cabinets
- A63F13/92—Video game devices specially adapted to be hand-held while playing
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/90—Constructional details or arrangements of video game devices not provided for in groups A63F13/20 or A63F13/25, e.g. housing, wiring, connections or cabinets
- A63F13/95—Storage media specially adapted for storing game information, e.g. video game cartridges
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/90—Constructional details or arrangements of video game devices not provided for in groups A63F13/20 or A63F13/25, e.g. housing, wiring, connections or cabinets
- A63F13/98—Accessories, i.e. detachable arrangements optional for the use of the video game device, e.g. grip supports of game controllers
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T13/00—Animation
- G06T13/20—3D [Three Dimensional] animation
- G06T13/40—3D [Three Dimensional] animation of characters, e.g. humans, animals or virtual beings
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F2300/00—Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
- A63F2300/10—Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals
- A63F2300/1087—Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals comprising photodetecting means, e.g. a camera
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F2300/00—Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
- A63F2300/20—Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterised by details of the game platform
- A63F2300/204—Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterised by details of the game platform the platform being a handheld device
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F2300/00—Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
- A63F2300/20—Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterised by details of the game platform
- A63F2300/206—Game information storage, e.g. cartridges, CD ROM's, DVD's, smart cards
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F2300/00—Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
- A63F2300/30—Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by output arrangements for receiving control signals generated by the game device
- A63F2300/308—Details of the user interface
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F2300/00—Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
- A63F2300/40—Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterised by details of platform network
- A63F2300/403—Connection between platform and handheld device
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F2300/00—Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
- A63F2300/60—Methods for processing data by generating or executing the game program
- A63F2300/69—Involving elements of the real world in the game world, e.g. measurement in live races, real video
- A63F2300/695—Imported photos, e.g. of the player
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F2300/00—Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
- A63F2300/80—Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game specially adapted for executing a specific type of game
- A63F2300/807—Role playing or strategy games
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2200/00—Indexing scheme for image data processing or generation, in general
- G06T2200/24—Indexing scheme for image data processing or generation, in general involving graphical user interfaces [GUIs]
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Computer Graphics (AREA)
- Software Systems (AREA)
- General Engineering & Computer Science (AREA)
- Computer Hardware Design (AREA)
- Optics & Photonics (AREA)
- Processing Or Creating Images (AREA)
- Image Generation (AREA)
Abstract
【構成】画像処理システム10は、据置型ゲーム装置11および携帯型ゲーム装置20を含む。携帯型ゲーム装置20には、撮像カートリッジ22が装着され、したがって、操作者が所望の被写体のたとえば顔画像を撮影すると、それに対応する顔画像データが生成される。また、操作者は携帯型ゲーム装置20の操作スイッチ21aを操作して、当該被写体の特徴を表す特徴データを入力することができる。携帯型ゲーム装置20は、顔画像データおよび特徴データを据置型ゲーム装置11に送信する。据置型ゲーム装置11は、操作者が選択した疑似3次元キャラクタ画像を特徴データに基づいて変形し、変形した疑似3次元キャラクタ画像に顔画像データを貼り付けて、画像を合成する。合成された画像は、特徴データに基づくアニメーションで画像表示装置14に表示される。
【効果】簡単に画像創作を楽しむことができる。
【選択図】 図1
【効果】簡単に画像創作を楽しむことができる。
【選択図】 図1
Description
【0001】
【産業上の利用分野】
この発明は画像処理システムに関し、特に例えば、顔画像データ提供装置と、顔画像データ提供装置とは分離して設けられ、顔画像提供機能を持たない画像合成装置とからなり、顔画像データ提供装置から取得した顔画像データを用いて、画像合成装置でポリゴン画像を生成する、画像処理システムに関する。
【0002】
【従来の技術】
この種の従来技術の一例が特許文献1に開示される。この特許文献1に開示される携帯形ゲーム機では、その本体部の上部にカメラ部が形成される。カメラ部は、本体部に対して回動自在に支持されており、使用者から見て前方と後方との両方の画像を撮影することができる。撮影した画像は、本体部の一方主面に設けられる画像表示器に表示することができる。このような携帯形ゲーム機或いはディジタルカメラなどの撮像装置で撮影した画像は、パソコンに転送して加工する技術がよく知られている。使用者はパソコンに転送された画像を、画像加工用ソフトウェア(フォトレタッチソフトなど)を利用して、編集することができる。
【0003】
また、疑似3次元画像作成ソフトウェアなどでは、非特許文献1に開示されるように、任意の画像データを、この3次元画像作成ソフトウェアで作成したポリゴン図形などにテクスチャマッピングの手法などを用いて貼付し、画像を作成することもよく知られている。
【0004】
【特許文献1】
特開平11−144040号
【非特許文献1】
3D TEXTURE LIBRARY(オーム社,平成12年11月20日)
【0005】
【発明が解決しようとする課題】
しかしながら、従来の技術では撮像装置もパソコンも、それぞれ独立して製品化されているため、両者の連動を考慮した商品とはなっていなかった。また、ディジタルカメラもパソコンも初心者や子供が操作するためには非常に機能が複雑であり、専門知識を要するものであった。さらに、ディジタルカメラやパソコンは両者を連動させて、娯楽的な用途を考慮した製品とはなっていなかったため、使用に際して飽きられやすい欠点があった。
【0006】
それゆえに、この発明の主たる目的は、携帯型ゲーム装置と据置型テレビゲーム装置とを利用して、娯楽性をもった画像創作が可能な画像処理システムを提供することである。
【0007】
この発明の他の目的は、操作に慣れ親しんだ携帯型ゲーム装置に撮影機能を付加したカートリッジを使用して画像を撮影し、同じく操作に慣れ親しんだ据置型のテレビゲームを携帯型ゲーム装置と接続できる環境を使用し、両者の連動を予め視野に入れた画像創作を目的とした画像処理システムを提供することである。
【0008】
この発明のその他の目的は、据置型テレビゲーム装置に予め、例えば人間の姿をした3次元コンピュータグラフィックスのモデルを種々用意しておき、携帯型ゲーム装置のカメラで撮影した、例えば顔の画像をテレビゲーム装置に転送して、3次元コンピュータグラフィックスのモデルに貼付して楽しむような画像処理システムを提供することである。
【0009】
この発明のさらなる目的は、顔の画像を3次元コンピュータグラフィックスのモデルに貼付するときに、簡便に、画像とモデルとの色の差が不自然にならないように色調整できるような画像処理システムを提供することである。
【0010】
【課題を解決するための手段】
請求項1は、顔画像データ提供装置と、顔画像データ提供装置とは分離して設けられ、顔画像提供機能を持たない画像合成装置とからなる画像処理システムである。顔画像データ提供装置は、顔画像データ取得手段、特徴データ取得手段およびデータ送信手段を備える。顔画像データ取得手段は、顔画像データを取得する。特徴データ取得手段は、顔画像データに対応し、顔画像に関連する特徴データを取得する。データ送信手段は、顔画像データと特徴データとを画像合成装置に送信する。画像合成装置は、データ受信記憶手段、キャラクタポリゴンデータ記憶手段、画像合成処理手段および第1表示手段を備える。データ受信記憶手段は、データ送信手段によって送信されたデータを受信して記憶する。キャラクタポリゴンデータ記憶手段は、少なくとも1つの疑似3次元キャラクタ画像を生成するためのポリゴンデータを記憶する。画像合成処理手段は、特徴データとキャラクタポリゴンデータ記憶手段に記憶されたポリゴンデータとに基づいてキャラクタポリゴンデータを生成し、顔画像データをキャラクタポリゴンの顔テクスチャとするキャラクタポリゴン画像を合成する。第1表示手段は、画像合成処理手段によって合成された画像を表示する。
【0011】
請求項2は請求項1に従属し、顔画像データ取得手段は、被写体の顔画像を撮影して顔画像データを生成する撮像手段を含み、特徴データ取得手段は、撮像データに対応した顔画像に関連する特徴データを入力する特徴データ入力手段を含む。
【0012】
請求項3は請求項2に従属し、顔画像データ提供装置は、少なくとも撮影中の顔画像を表示する第2表示手段、および顔画像を撮影するとき第2表示手段に被写体の顔画像を所望の位置に合わせる撮影指標を表示する撮影指標データ表示手段をさらに備える。
【0013】
請求項4は請求項1に従属し、顔画像データ提供装置は、外部記憶媒体に記憶されたデータを読み取り可能なデータ読取手段、およびデータ読取手段によって読み取られたデータに基づいて顔画像データおよび特徴データを生成するデータ生成手段をさらに備え、顔画像データ取得手段は、生成手段によって生成された顔画像データを取得し、特徴データ記憶手段は、生成手段によって生成された特徴データを取得する。
【0014】
請求項5は請求項1ないし4のいずれかに従属し、画像合成装置は、疑似3次元キャラクタ画像を合成した後、特徴データに応じて少なくとも一種類の中から任意のアニメーションデータを自動選択するアニメーション自動選択手段、および選択されたアニメーションデータと合成された疑似3次元キャラクタ画像とを使用してアニメーションを表示するアニメーション表示手段をさらに備える。
【0015】
請求項6は、撮像機能を有する携帯型画像処理装置と、携帯型画像処理装置とは分離して設けられ、撮像機能を持たない画像合成装置とからなる画像処理システムである。携帯型画像処理装置は、撮像手段、被写体特徴データ入力手段およびデータ送信手段を備える。撮像手段は、被写体を撮影して撮像データを生成する。被写体特徴データ入力手段は、撮像データに対応した被写体の特徴を表す被写体特徴データを入力する。データ送信手段は、撮像手段によって生成された撮像データと被写体特徴データ入力手段によって入力された被写体データとを画像合成装置に送信する。画像合成装置は、データ受信記憶手段、キャラクタポリゴンデータ記憶手段、キャラクタ選択手段、画像合成処理手段および第1表示手段を備える。データ受信記憶手段は、データ送信手段から送信されたデータを受信記憶する。キャラクタポリゴンデータ記憶手段は、少なくとも1つの疑似3次元キャラクタ画像を生成するためのポリゴンデータを記憶する。キャラクタ選択手段は、操作者に少なくとも1つの疑似3次元キャラクタ画像を合成するためのポリゴンデータを選択させる。画像合成手段は、被写体特徴データを使用して、キャラクタ選択手段によって選択されたポリゴンデータを加工し、加工されたポリゴンデータと撮像データとを使用して疑似3次元キャラクタ画像を合成する。第1表示手段は、画像合成処理手段によって合成された画像を表示する。
【0016】
請求項7は請求項6に従属し、画像合成処理手段は、ポリゴンデータから生成される疑似3次元キャラクタ画像の一部に顔画像データを貼り付け処理して画像合成する。画像合成装置は、部位ポリゴンデータ選択手段、部位ポリゴン配置手段およびキャラクタ色抽出手段をさらに備える。部位ポリゴンデータ選択手段は、疑似3次元キャラクタ画像を合成するときに、顔画像データが貼り付け処理される範囲において、疑似3次元キャラクタを構成する少なくとも1つの部位の形状を表すポリゴンデータを、少なくとも1つの中から操作者に選択させる。部位ポリゴン配置手段は、部位ポリゴンデータ選択手段によって選択された部位ポリゴンデータを、撮像データが貼り付け処理される範囲において、疑似3次元キャラクタ画像のどの位置に配置して画像を合成するかを操作者に指示させる。キャラクタ色抽出手段は、撮像データが貼り付けられない部分における疑似3次元キャラクタ画像の少なくとも1つの色データを、部位ポリゴンデータが配置される範囲の撮像データから抽出して決める。
【0017】
請求項8は、顔画像データを取得する顔画像データ取得手段、顔画像データに対応し、顔画像に関連する特徴データを取得する特徴データ取得手段、および顔画像データと特徴データとを画像合成装置に送信するデータ送信手段を備える顔画像データ提供装置に接続可能な画像合成装置に実行させる画像合成処理プログラムである。この画像合成装置は、少なくとも、データ受信記憶手段、キャラクタポリゴンデータ記憶手段および合成画像表示手段を備える。データ受信記憶手段は、顔画像データ提供装置から送信されたデータを受信して記憶する。キャラクタポリゴンデータ記憶手段は、少なくとも1つの疑似3次元キャラクタ画像を生成するためのポリゴンデータを記憶する。合成画像表示手段は、合成された画像を表示する。画像処理プログラムは、画像合成装置に、キャラクタ選択ステップ、ポリゴンデータ加工ステップおよび疑似3次元キャラクタ画像合成ステップを実行させる。キャラクタ選択ステップは、少なくとも1つの疑似3次元キャラクタ画像を生成するためのポリゴンデータを操作者に選択させる。ポリゴンデータ加工ステップは、特徴データを使用して、キャラクタ選択ステップによって選択されたポリゴンデータを加工する。疑似3次元キャラクタ画像合成ステップは、ポリゴンデータ加工ステップで加工されたポリゴンデータと顔画像データとを使用して疑似3次元キャラクタ画像を合成する。
【0018】
請求項9は請求項8に従属し、疑似3次元キャラクタ画像を合成した後、特徴データに応じて、少なくとも一種類の中から任意のアニメーションデータを自動選択するアニメーション自動選択ステップ、および選択されたアニメーションデータと合成された疑似3次元キャラクタ画像とを使用してアニメーションを表示するアニメーション表示ステップをさらに実行させる。
【0019】
請求項10は、被写体を撮影して撮像データを生成する撮像手段、撮像データに対応した被写体の特徴を表す被写体特徴データを入力する被写体特徴データ入力手段、および撮像データと被写体特徴データとを送信するための送信手段を備える画像処理装置に接続可能な画像合成装置に実行させる画像処理プログラムでる。この画像合成装置は、少なくとも、データ受信記憶手段、キャラクタポリゴンデータ記憶手段および合成画像表示手段を備える。データ受信記憶手段は、画像処理装置から送信されたデータを受信して記憶する。キャラクタポリゴンデータ記憶手段は、少なくとも1つの疑似3次元キャラクタ画像を生成するためのポリゴンデータを記憶する。合成画像表示手段は、合成された画像を表示する。画像処理プログラムは、画像合成装置に、キャラクタ選択ステップ、ポリゴンデータ加工ステップおよび疑似3次元キャラクタ画像合成ステップを実行させる。キャラクタ選択ステップは、少なくとも1つの疑似3次元キャラクタ画像を生成するためのポリゴンデータを操作者に選択させる。ポリゴンデータ加工ステップは、被写体特徴データを使用して、キャラクタ選択ステップによって選択されたポリゴンデータを加工する。画像合成ステップは、ポリゴンデータ加工ステップで加工されたポリゴンデータと撮像データとを使用して疑似3次元キャラクタ画像を合成する。
【0020】
請求項11は請求項10に従属し、疑似3次元キャラクタ画像を合成した後、被写体特徴データに応じて、少なくとも一種類の中から任意のアニメーションデータを自動選択するアニメーション自動選択ステップ、および選択されたアニメーションデータと合成された疑似3次元キャラクタ画像とを使用してアニメーションを表示するアニメーション表示ステップをさらに実行させる。
【0021】
請求項12は請求項10または11に従属し、画像合成ステップは、撮像データ貼り付けステップ、部位ポリゴンデータ選択ステップ、部位ポリゴン配置ステップおよびキャラクタ色抽出ステップを含む。撮像データ貼り付けステップは、ポリゴンデータから生成される疑似3次元キャラクタ画像の一部に撮像データを貼り付け処理する。部位ポリゴンデータ選択ステップは、撮像データが貼り付け処理される範囲において、疑似3次元キャラクタを構成する少なくとも1つの部位の形状を表すポリゴンデータを、少なくとも1つの中から操作者に選択させる。部位ポリゴン配置ステップは、部位ポリゴンデータ選択ステップによって選択された部位ポリゴンデータを、撮像データが貼り付け処理される範囲において、疑似3次元キャラクタ画像のどの位置に配置して画像を合成するかを操作者に指示させる。キャラクタ色抽出ステップは、撮像データが貼り付けられない部分における疑似3次元キャラクタ画像の少なくとも1つの色データを、部位ポリゴンデータが配置される範囲の撮像データから抽出して決める。
【0022】
請求項13は、少なくとも画像合成装置にデータを送信するデータ送信手段を備える携帯型ゲーム装置に着脱可能に設けられる外部記録装置である。この外部記録装置は、顔画像取得手段、特徴データ取得手段およびデータ記憶手段を備える。顔画像取得手段は、顔画像データを取得する。特徴データ取得手段は、顔画像データに対応し、顔画像に関連する特徴データを取得する。データ記憶手段は、顔画像データと特徴データとを関連づけて記憶する。
【0023】
請求項14は、少なくとも、操作者による撮影指示に応じて撮影処理を実行する撮影処理手段、撮影処理手段による撮影処理の実行中に少なくとも被写体の画像を表示する画像表示手段、および撮影処理手段による撮影処理の結果得られた撮像データに対応する被写体の特徴を表す被写体特徴データを入力する被写体特徴データ入力手段を備える携帯型ゲーム装置に着脱可能に設けられる外部記憶装置である。この外部記憶装置は、撮像手段およびデータ記憶手段を備える。撮像手段は、被写体を撮影して撮像データを生成する。データ記憶手段は、撮像手段によって生成された撮像データと被写体特徴データ入力手段によって入力された被写体特徴データとを関連づけて記憶する。
【0024】
請求項15は請求項14に従属し、撮影処理を実行するための撮影処理実行プログラム、および撮影処理の実行中に所望の位置に被写体の画像を合わせる撮影指標を画像表示に表示するための撮影指標表示プログラムを記憶するプログラム記憶手段をさらに備える。
【0025】
【作用】
請求項1によれば、画像処理システム(10:実施例における参照番号。以下、同様である。)は、顔画像データ提供装置(20)と顔画像提供機能を持たない画像合成装置(11)とを含む。顔画像データ提供装置(20)では、顔画像データ取得手段(21c,22,23)が顔画像データを取得する。また、特徴データ取得手段(21c,22,23)が、顔画像データに対応し、顔画像に関連する特徴データを取得する。データ送信手段(21c,21h,16)は、顔画像データ取得手段(21c,22,23)によって取得された顔画像データと特徴データ取得手段(21c,22,23)によって取得された特徴データとを画像合成装置(11)に送信する。一方、画像合成装置(11)は、顔画像データ提供装置とは分離して設けられ、この画像合成装置(11)では、データ受信記憶手段(11a,11b,11e)が、データ送信手段(21c,21h,16)によって送信されたデータすなわち顔画像データおよび特徴データを受信して記憶する。キャラクタポリゴンデータ記憶手段(11b)は、少なくとも1つの疑似3次元キャラクタ画像を生成するためのポリゴンデータを記憶する。画像合成処理手段(11a)は、特徴データとポリゴンデータとに基づいてキャラクタポリゴンデータを作成し、顔画像データをキャラクタポリゴンの顔テクスチャとするキャラクタポリゴン画像を合成する。第1表示手段(11a,11c,11d,14)は、合成(生成)されたキャラクタポリゴン画像を表示する。
【0026】
この発明によれば、顔画像データ提供装置が提供する顔画像データや特徴データを使用して、キャラクタを生成するので、自由な画像創作を簡単に行うことができる。また、特徴データに従ったキャラクタ画像を生成できるので、趣向性(娯楽性)を向上させることができる。
【0027】
請求項2によれば、顔画像データ取得手段(21c,22)は、被写体の顔画像を撮影する撮像手段(21c,22a,21d)を含み、この撮像手段(21c,22a,21d)は、操作者の撮影指示に従って被写体の顔画像を撮影する。これにより、顔画像データ取得手段(21c,22)は、顔画像データを取得する。つまり、撮影した被写体の顔画像についての顔画像データを取得することができる。また、特徴データ取得手段(21c,22,23)は、撮像手段(21c,22a,21d)によって撮影された顔画像に関連する特徴データを入力する特徴データ入力手段(21a)を含み、この特徴データ入力手段(21a)によって入力された特徴データを取得する。
【0028】
請求項3によれば、顔画像データ提供手段(20)は、撮影中の顔画像を表示する第2表示手段(21b)をさらに備える。撮影指標表示手段(21c,21d)は、撮影するとき、この第2表示手段(21b,21e,21f,21g)に撮影指標(62a〜62d)を表示する。したがって、顔画像を所望の位置に合わせて撮影することができる。
【0029】
請求項4によれば、顔画像データ提供装置(20)は、データ読取手段(23e)を備えている。データ読取手段(23e)は、カードのような外部記憶媒体(23a)に記憶されたデータを読み取ることができる。データ生成手段(21c)は、データ読取手段(23e)が読み取ったデータに基づいて顔画像データおよび特徴データを生成する。したがって、顔画像データ取得手段(21c,23)は、生成された顔画像データを取得し、特徴データ取得手段(21c,23)は、生成された特徴データを取得することができる。このように、顔画像データおよび特徴データを外部記録媒体(23a)から取得することもできる。
【0030】
請求項5によれば、画像合成装置(11)では、疑似3次元キャラクタ画像を合成すると、アニメーション自動選択手段(11a,11b)が、特徴データに応じて少なくとも一種類の中から任意のアニメーションデータを自動選択する。アニメーション表示手段(11a,11c,11d,14)は、選択されたアニメーションデータと合成された疑似3次元キャラクタ画像とを使用してアニメーションを表示する。合成された疑似3次元キャラクタ画像をアニメーション表示するので、単に合成した画像を楽しむだけでなく、合成した画像のアニメーション表示を楽しむこともできる。
【0031】
請求項6によれば、画像処理システム(10)は、撮像機能を有する携帯型ゲーム装置のような携帯型画像処理装置(20)と撮像機能を持たない据置型ゲーム装置のような画像合成装置(11)とによって構成される。携帯型画像処理装置(20)では、撮像手段(21c,22a,21d)が被写体を撮影して撮像データを生成する。生成した撮像データに対応した被写体の特徴を表す被写体特徴データが、被写体特徴データ入力手段(21a)によって入力される。データ送信手段(21c,21h,16)は、撮像手段(21c,22a,21d)によって生成された撮像データと被写体特徴データ入力手段(21a)によって入力された被写体特徴データとを画像合成装置(11)に送信する。一方、画像合成装置(11)は、携帯型画像処理装置(20)とは分離して設けられ、この画像合成装置(11)では、データ受信記憶手段(11a,11b,11e)が、データ送信手段(21c,21h,16)によって送信されたデータ、すなわち撮像データおよび被写体特徴データを受信して記憶する。また、キャラクタポリゴンデータ記憶手段(11b)は、少なくとも1つの疑似3次元キャラクタ画像を生成するためのポリゴンデータを記憶する。キャラクタ選択手段(12)は、操作者に少なくとも1つの疑似3次元キャラクタ画像を合成するためのポリゴンデータを選択させる。したがって、画像合成手段(11a)は、被写体特徴データを使用して、キャラクタ選択手段(12)によって選択されたポリゴンデータを加工し、加工されたポリゴンデータと撮像データとを使用して疑似3次元キャラクタ画像を合成する。合成(生成)された疑似3次元キャラクタ画像は、第1表示手段(11a,11c,11d,14)に表示される。
【0032】
この発明によれば、携帯型画像処理装置で撮影された撮像データや携帯型画像処理装置で入力された特徴データを使用して、キャラクタを生成するので、自由な画像創作を簡単に行うことができる。また、特徴データに従ったキャラクタ画像を生成できるので、娯楽性を向上させることができる。
【0033】
請求項7によれば、画像合成処理手段(11a)は、ポリゴンデータから生成される疑似3次元キャラクタ画像の一部に顔画像データを貼り付け処理して画像合成する。画像合成装置(11)では、部位ポリゴンデータ選択手段(12)が、疑似3次元キャラクタ画像を合成するときに、顔画像データが貼り付け処理される範囲において、疑似3次元キャラクタを構成する少なくとも1つの部位の形状を表すポリゴンデータを、少なくとも1つの中から操作者に選択させる。部位ポリゴン配置手段(12)は、部位ポリゴンデータ選択手段(12)によって選択された部位ポリゴンデータを、撮像データが貼り付け処理される範囲において、疑似3次元キャラクタ画像のどの位置に配置して画像を合成するかを操作者に指示させる。さらに、キャラクタ色抽出手段(11a)は、撮像データが貼り付けられない部分における疑似3次元キャラクタ画像の少なくとも1つの色データを、部位ポリゴンデータが配置される範囲の撮像データから抽出して決める。つまり、生成したキャラクタの顔の一部の部位を貼り替えたり、当該部位の貼り替えによる色の違いを調整したりすることができるのである。
【0034】
請求項8においても請求項1と同様に、自由な画像創作を簡単に行うことができ、娯楽性を向上させることもできる。
【0035】
請求項10においても請求項6と同様に、自由な画像操作を簡単に行うことができ、娯楽性を向上させることもできる。
【0036】
請求項13によれば、少なくとも据置型ゲーム装置のような画像合成装置(11)にデータを送信するデータ送信手段(21c,21h,16)を備える携帯型ゲーム装置(20)に着脱可能に設けられる外部記録装置(22,23)である。この外部記録装置(22,23)では、顔画像取得手段(21c,22a,23e)が顔画像データを取得する。特徴データ取得手段(21a,21c,22a,23e)は、顔画像データに対応し、顔画像に関連する特徴データを取得する。データ記憶手段(22c,23c)は、顔画像データと特徴データとを関連づけて記憶する。
【0037】
この発明によれば、取得した顔画像データと特徴データとを関連づけて外部記録装置内に記憶しておくので、当該外部記憶装置を他の携帯型ゲーム装置に装着して、顔画像データおよび特徴データを利用した画像合成を楽しむことも可能である。
【0038】
請求項14によれば、外部記憶装置(22)は、携帯型ゲーム装置(20)に着脱可能に設けられる。この携帯型ゲーム装置(20)は、少なくとも、操作者による撮影指示に応じて撮影処理を実行する撮影処理手段(21c,22a,21d)、撮影処理手段(21c,22a,21d)による撮影処理の実行中に少なくとも被写体の画像を表示する画像表示手段(21b,21e,21f,21g)、および撮影処理手段(21c,22a,21d)による撮影処理の結果得られた撮像データに対応する被写体の特徴を表す被写体特徴データを入力する被写体特徴データ入力手段を備える。この外部記憶装置(22)では、撮像手段(22a)は、撮影指示に従って被写体を撮影して撮像データを生成する。データ記憶手段(22c)は、撮像手段(22a)によって生成された撮像データと被写体特徴データ入力手段(21a)によって入力された被写体特徴データとを関連づけて記憶する。
【0039】
この発明によれば、取得した撮像データと被写体特徴特徴データとを関連づけて外部記録装置内に記憶しておくので、当該外部記憶装置を他の携帯型ゲーム装置に装着して、撮像データおよび被写体特徴データを利用した画像合成を楽しむことも可能である。
【0040】
請求項15によれば、外部記憶装置(22)は、プログラム記憶手段(22b)をさらに備えている。このプログラム記憶手段(22b)には、撮影処理を実行するための撮影処理実行プログラム、および撮影処理の実行中に所望の位置に被写体の画像を合わせる撮影指標を画像表示に表示するための撮影指標表示プログラムが記憶される。つまり、この外部記憶装置を装着することにより、携帯型ゲーム装置に撮影機能を持たせることができ、撮影時には、撮影指標が表示されるので、被写体の画像を所望の位置に合わせて撮影することができる。
【0041】
【発明の効果】
この発明によれば、携帯型ゲーム装置と据置型テレビゲーム装置を利用して、娯楽性をもった画像創作が可能な画像処理システムを提供できる。
【0042】
また、この発明によれば、携帯型ゲーム装置や据置型テレビゲーム装置など、操作に慣れ親しんだ環境を使用して、画像創作を目的とし、初心者や子供でも簡単に操作可能な画像処理システムを提供できる。
【0043】
さらに、この発明によれば、娯楽性が高く飽きられにくい画像処理システムを提供することができる。
【0044】
さらに、この発明によれば、簡便に、画像とモデルとの色の差を調整できるような画像処理システムを提供できる。
【0045】
この発明の上述の目的,その他の目的,特徴および利点は、図面を参照して行う以下の実施例の詳細な説明から一層明らかとなろう。
【0046】
【実施例】
<第1実施例>
図1はこの発明にかかる画像処理システム10の概要を示した図である。画像処理システム10は画像合成装置として据置型ゲーム装置11を含む。据置型ゲーム装置11にはコントローラ12が接続される。コントローラ12は画像合成を行う操作者が入力操作を行うための、操作スイッチ12aおよびジョイスティック12bを備える。操作スイッチ12aは主にメニュー選択などにおいて、決定などの操作に使用される。ジョイスティック12bは主にメニュー選択などにおいて、方向指示や選択項目変更などの操作に使用される。
【0047】
据置型ゲーム装置11を画像合成装置として機能させるための画像合成プログラムは、外部記憶媒体13から供給される。また、据置型ゲーム装置11には画像表示装置14が接続される。画像表示装置14には画像合成プログラムの処理に応じて生成される画像が表示される。操作者は画像表示装置14に表示される画像を見ながら、コントローラ12を操作して画像合成を行う。
【0048】
更に据置型ゲーム装置11には、外部データ記憶媒体15が接続可能であってもよい。こうすることで、例えば、画像合成処理の途中経過を外部データ記憶媒体15に記憶させ、画像合成の処理を中断し、後で続行するなどの操作が可能となる。
【0049】
画像処理システム10は画像生成装置として撮像機能を持った携帯型ゲーム装置20を含む。携帯型ゲーム装置20は携帯型ゲーム装置本体21と、撮像カートリッジ22を含む。携帯型ゲーム装置本体21には、操作スイッチ21aが備えられている。操作者は操作スイッチ21aを操作して、例えば、被写体の撮影のためのシャッターボタンとして使用する。携帯型ゲーム装置20は液晶表示画面21bを備える。液晶表示画面21bは携帯型ゲーム装置本体21で処理されたゲームプログラムなどの結果を画像として表示する機能を持つ。
【0050】
撮像カートリッジ22には撮像部22aが含まれる。撮像カートリッジ22には、携帯型ゲーム装置本体21を画像生成装置として機能させるための画像生成プログラムが記憶されている。また、データの一時記憶機能を持たせ、撮像部22aで撮影された撮像データを記憶しておき、例えば別の携帯型ゲーム装置で使用する、などの操作が可能となるようにしてもよい。
【0051】
携帯型ゲーム装置20は、図示するように接続ケーブル16を介して据置型ゲーム装置11に接続される。
【0052】
図2はこの発明にかかる画像処理システム10の内部ブロック図である。据置型ゲーム装置11はCPU11aを内蔵している。CPU11aにはRAM11bが接続される。RAM11bにはCPU11aが処理するためのプログラムやデータが一時記憶されている。
【0053】
CPU11aには画像処理ユニット11cが更に接続されている。画像処理ユニット11cはCPU11aからの指示に基づき、RAM11bに記憶された画像データを処理して画像を生成する機能を持つ。生成された画像はビデオエンコーダ11dを介して画像表示装置14に表示される。
【0054】
CPU11aには更に、インターフェース11eが接続される。また、インターフェース11eはRAM11bにも接続される。コントローラ12はインタフェース11eを介してCPU11aに接続される。インターフェース11eには他に、ディスクドライブユニット11fが接続されている。外部記憶媒体13のデータはCPU11aの指示に基づいて、ディスクドライブユニット11fによって読み取られ、RAM11bに転送記憶される。プログラム処理によって得られたデータを保存記憶するときは、RAM11bからインターフェース11eを介して外部データ記憶媒体(たとえば、メモリカード)15に転送記憶される。
【0055】
携帯型ゲーム装置本体21は、CPU21cを内蔵している。CPU21cはRAM21dと接続されている。RAM21dにはCPU21cがプログラムを処理したデータが一時記憶される。CPU21cとRAM21dには画像処理ユニット21eが接続される。画像処理ユニット21eはCPU21cの指示に基づいて、RAM21dに一時記憶された画像データに基づき、画像を生成する。生成された画像はVRAM21fに格納される。VRAM21fに格納された画像はLCDドライバ21gを介して、携帯型ゲーム装置本体21内の液晶表示画面21bに表示される。
【0056】
撮像カートリッジ22は、コネクタを介して携帯型ゲーム装置本体21に着脱可能とされる。また、撮像カートリッジ22は、携帯型ゲーム装置20で使用されるプログラムとデータとを記憶したROM22bを内蔵している。更に、撮像カートリッジ22にはバックアップメモリ(RAM)22cが搭載されている。
【0057】
携帯型ゲーム装置本体21のCPU21cは、インターフェース21hを介して、撮像カートリッジ22にアクセスする。すなわち、CPU21cはROM22bに記憶されたプログラムとデータとを処理して、撮像部22aで撮影された画像から撮像データを生成する。生成された撮像データをバックアップメモリ22cに保存して、撮像カートリッジ22を他の携帯型ゲーム装置に接続して使用することもできる。
【0058】
図3は携帯型ゲーム装置20のROM22bにおけるメモリマップ30である。ROM22bは大きく分けてプログラム記憶領域31とデータ記憶領域32とから成る。プログラム記憶領域31は、撮影指標表示プログラム記憶領域31a,被写体撮影プログラム記憶領域31b,被写体特徴データ取得プログラム記憶領域31c及びデータ送信プログラム記憶領域31dを含む。
【0059】
撮影指標表示プログラム記憶領域31aには、被写体の、例えば顔を撮影するときに、最適な顔の撮像データが取得できるようにするためのプログラムが記憶されている。より具体的には、図5の状態図62に示すとおり、被写体の例えば目と鼻と口の大まかな位置を合わせるための指標、62a乃至62dを液晶表示画面21bに表示するプログラムである。
【0060】
被写体撮影プログラム記憶領域31bには、被写体の画像を撮像部22aで撮影するためのプログラムが記憶されている。より具体的には、図5の状態図62のように、撮影指標62a乃至62dに合わせて、撮影すべき顔の画像を決めた後、操作者が操作スイッチ21aを押すことによって、撮像部22aで得られた撮像データをRAM22cに取り込むプログラムである。
【0061】
被写体特徴データ取得プログラム記憶領域31cには、撮像データを得るため撮影された被写体に関する特徴を表すデータを、操作者に入力させて取得するプログラムが記憶されている。より具体的には、状態図63に示すように、被写体の特徴を示すような性別データ64a,体型データ64b,性格データ64cおよび年齢データ64dなどのデータを含む被写体の特徴データ(被写体特徴データ)を、操作者に入力させるプログラムである。入力された被写体特徴データは、撮像データと関連づけされて、RAM22cに一時記憶される。
【0062】
データ送信プログラム記憶領域31dには、撮像データと被写体特徴データとを、据置型ゲーム装置11に送信するプログラムが記憶されている。
【0063】
データ記憶領域32は、撮影指標画像データ記憶領域32a,カメラプログラム用画像データ記憶領域32b及びカメラプログラム用サウンドデータ記憶領域32cを含む。
【0064】
撮影指標画像データ記憶領域32aには撮影指標表示プログラム記憶領域31aに記憶されたプログラムによって使用されるデータが記憶されている。より具体的には、状態図62に示されるように、被写体の例えば顔を撮影するときには、目と鼻と口の大まかな位置を合わせるための指標62a乃至62dを示すデータを記憶している。
【0065】
そのほか、カメラプログラム用画像データ記憶領域32bとカメラプログラム用サウンドデータ記憶領域32cは、例えば状態図62もしくは状態図63などのように、携帯型ゲーム装置20をカメラのように被写体の撮影を行っている間に使用されるデータを記憶している。たとえばプログラム記憶領域31に記憶された種々のプログラムを実行中に演出効果を高めるために、被写体以外の絵のデータを表示したり、シャッター音を出力するときに使用されるデータを記憶している。
【0066】
図示は省略するが、RAM22cには、撮像データ記憶領域および被写体特徴データ記憶領域が設けられる。
【0067】
撮像データ記憶領域は、被写体撮影プログラム記憶領域31bに記憶されたプログラムによって、撮像部22aで撮影された被写体の画像データを記憶する領域である。
【0068】
また、被写体特徴データ記憶領域には、被写体特徴データ取得プログラム記憶領域31cに記憶されたプログラムによって、状態図63に示されるように、操作者によって入力された被写体の特徴を示すデータ(被写体特徴データ)が記憶されている。被写体特徴データ記憶領域に記憶される被写体特徴データは、対応する撮像データ記憶領域に記憶される被写体の画像データと関連づけて記憶されている。
【0069】
図4は据置型ゲーム装置11のRAM11bにおけるメモリマップ40を示す図である。RAM11bは大きく分けてプログラム記憶領域41とデータ記憶領域51とに分けられる。
【0070】
プログラム記憶領域41は、タレント選択プログラム記憶領域42,タレント編集プログラム記憶領域43及びアニメーションプログラム記憶領域44を含む。
【0071】
本実施例において、タレントとは、操作者が撮像データ32bを利用して画像処理システム10において作成する、疑似3次元のキャラクタ画像を示す。タレント選択プログラム記憶領域42には、例えば図6の表示画面65(画像表示装置14の表示画面)に示すように、操作者が作成したいタレントの原型となる疑似3次元キャラクタ画像(例えばタレント65a)を選択するプログラムが記憶されている。
【0072】
タレント編集プログラム記憶領域43には、タレント表示プログラム記憶領域43a,データ受信プログラム記憶領域43b,撮像データ(顔画像)貼り付けプログラム記憶領域43c,タレント変形プログラム記憶領域43d,タレント着せ替えプログラム記憶領域43e,タレント着色プログラム記憶領域43f及び色調整プログラム記憶領域43gを含む。
【0073】
タレント表示プログラム記憶領域43aにはデータ記憶領域51に記憶されたデータから、例えばタレント65aなどの疑似3次元キャラクタ画像を生成するためのプログラムが記憶されている。
【0074】
データ受信プログラム記憶領域43bには、携帯型ゲーム装置20から接続ケーブル16を介して、例えば撮像データと被写体特徴データを受信し、受信データ記憶領域52に記憶するためのプログラムが記憶されている。
【0075】
撮像データ貼り付けプログラム記憶領域43cには、例えば表示画面67に示すように、携帯型ゲーム装置20の撮像部22aで撮影された、例えば顔画像67a乃至67dから一つを選択して、テクスチャマッピングの手法などを用いてタレントの顔部に貼り付ける処理をするプログラムが記憶されている。
【0076】
タレント変形プログラム記憶領域43dには、受信データ記憶領域52に記憶された被写体特徴データに基づいて、タレント選択プログラム42で選択されたタレントの形状(体型)を変化するプログラムが記憶されている。
【0077】
タレント着せ替えプログラム記憶領域43eには、表示画面66の「控え室」のように、洋服66bなどを操作者に選択させて、選択されたタレントの着せ替えをさせるプログラムが記憶されている。
【0078】
タレント着色プログラム記憶領域43fには、タレント着色データ54を使用して、選択したタレントの着色を行うプログラムが記憶されている。
【0079】
色調整プログラム記憶領域43gには、タレントの色調整を行うためのプログラムが記憶されている。より具体的には、例えば、撮像データを選択したタレントに貼り付け処理した場合、このタレントが本来持っていた色と差が出てしまい、不自然に見えてしまうことがある。色調整プログラム記憶領域43gに記憶されたプログラムは、タレントが本来持っていた色と、撮像データの持つ色との差を調整し、自然なタレントの疑似3次元キャラクタ画像を生成するプログラムである。
【0080】
アニメーションプログラム記憶領域44には、更にアニメーション選択プログラム記憶領域44a及びアニメーション表示プログラム記憶領域44bが含まれる。
【0081】
アニメーション選択プログラム記憶領域44aには、受信データ記憶領域52に記憶された被写体特徴データを参照して、撮像データが貼り付け処理されたタレントに、最も相応しいアニメーションデータをアニメーションデータ記憶領域57から選択するプログラムが記憶されている。
【0082】
アニメーション表示プログラム記憶領域44bには、アニメーション選択プログラム記憶領域44aに記憶されたプログラムによって選択されたアニメーションを表示するためのプログラムが記憶されている。
【0083】
データ記憶領域51には、受信データ記憶領域52,タレントポリゴンデータ記憶領域53,タレント着色パレットデータ54,色調整用データ記憶領域55,タレント着せ替え用データ記憶領域56,アニメーションデータ記憶領域57および画像合成プログラム用データ記憶領域58が含まれる。
【0084】
受信データ記憶領域52には、据置型ゲーム装置11が携帯型ゲーム装置20から受信したデータが記憶される。受信データ記憶領域52において、撮像データと被写体特徴データは関連づけして記憶される。例えば、一つ目の被写体については、図4のように画像データ1(52a),被写体特徴データ1(52b)のように隣接して記憶していくことが考えられる。
【0085】
タレントポリゴンデータ記憶領域53には、図6の状態図65で示すように、操作者が選択したタレントの疑似3次元キャラクタ画像を合成するためのポリゴンデータが記憶されている。例えば、細身の男性のキャラクタ画像を合成するためのポリゴンデータ53aおよび細身の女性のキャラクタ画像を合成するためのポリゴンデータ53bなどが記憶される。
【0086】
タレント着色パレットデータ記憶領域54には、タレント着色プログラム記憶領域43fに記憶されたプログラムによって使用され、操作者が選択したタレントにどのような色を塗るのかを決めるデータが記憶されている。
【0087】
色調整用データ領域55には、更に部位形状データ記憶領域55a及び部位の位置データ記憶領域55bが含まれる。
【0088】
部位形状データ記憶領域55aには、色調整の基本とするための、キャラクタの体の一部を形成する部位の形状を記憶したデータが記憶される。具体的には、図8の状態図71において、71aもしくは71bとして指示された、例えば鼻の形状を描画するためのポリゴンデータが記憶される。
【0089】
部位の位置データ記憶領域55bには、例えば色調整の基本とする体の部位として、鼻が選択されている場合、状態図71において、何処に鼻を配置するのかをカーソル64eで指示したときの、その鼻の配置位置を示すデータが記憶される。
【0090】
タレント着せ替え用データ記憶領域56には、タレント着せ替えプログラム記憶領域43eに記憶されたプログラムで使用するためのデータが記憶されている。例えば、髪型データ56aや服装データ56bなどである。
【0091】
アニメーションデータ記憶領域57には、アニメーション表示プログラム記憶領域44bで使用するためのアニメーションのデータが記憶されている。例えば、激しいダンスのアニメーションデータ57aや社交ダンスのアニメーションデータ57bなどである。
【0092】
画像合成プログラム用データ記憶領域58には、据置型ゲーム装置11において、操作者が画像合成を行う場合に、画像表示装置14に表示されるメニューなどの画像(58a)や音声出力手段(図示せず)から出力される効果音(58b)などのデータを記憶した領域である。
【0093】
図5を参照して、この発明にかかる画像処理システム10において、撮像画像データを得るまでの流れを示す。
【0094】
状態図61は、操作者61aが携帯型ゲーム装置20を使用して自分の顔の写真を撮影している状態を示す図である。このとき撮像部22aは操作者61aに向けられたように図示されているが、自由に撮像する向きを変更できるようにしておけば、色々な撮影状況に対応できるであろう。このとき、撮像部22aで撮影された画像は、リアルタイムに液晶表示画面21b上に表示されている。
【0095】
状態図62は、状態図61における携帯型ゲーム装置20の拡大図であって、撮影時における液晶表示画面21bの状態を示す図である。表示画面21b上には撮影指標として、右目の撮影位置を決めるための撮影指標62a,左目の撮影位置を決めるための撮影指標62b,鼻の撮影位置を決めるための撮影指標62c及び口の撮影位置を決めるための撮影指標62dが表示されている。操作者60はこれら撮影指標62a乃至62dに自分の右目、左目、鼻及び口の各部位がなるべく重なるように、携帯型ゲーム装置20を操作する。撮影位置が決まったら、操作者は操作スイッチ21aを押して、撮影を行う。
【0096】
図5において、状態図63は操作者による撮影操作が終わった後の、液晶表示画面21bの状態図である。画面左側には撮影操作によって、携帯型ゲーム装置20に取り込まれた被写体の撮像データが画像として表示されている。画面右側には、画面左側に表示されている被写体の特徴を入力するためのメニューが表示されている。操作者は、被写体の特徴として、例えば性別データ64a(この場合女),体型データ64b(細身),性格データ64c(明るい)および年齢データ64d(24)を入力する。このとき操作者は、カーソル64eを操作して、表示されるメニューの中からデータを選択できるようにすれば便利である。勿論、操作者が操作スイッチ21aを操作して、直接データを入力する形式であっても構わない。
【0097】
図6は据置型ゲーム装置11が接続された画像表示装置14の表示画面を表す図である。
【0098】
表示画面65は、操作者が撮像データ(例えば顔の画)を利用して、疑似3次元画像を合成するために、基本となる疑似3次元キャラクタ画像としての、タレントを選択している画面である。具体的には、タレント65aや65bなどの中から、カーソル64eを移動させて、例えばタレント65aを選択する。
【0099】
続く表示画面66は、選択したタレントの画像を編集している画面である。画面左側には選択されたタレント65aが表示されている。一方画面右側には、選択したタレントに着せたい上着のデータ66bやパンツのデータ66c及び帽子のデータ66dが表示されている。操作者はカーソル64eを操作して、着せ替えに使用したいデータに重ね合わせることで、タレント65aの着せ替え操作を行うことができる。
【0100】
ここで、操作者がカメラ画像66aを選択すると、据置型ゲーム装置11は携帯型ゲーム装置20から、撮像データと被写体特徴データを受信できるモードになる。このとき、画像表示装置14には表示画面67が表示される。顔画像67a乃至67dは、携帯型ゲーム装置20から受信した撮像データである。図示していないが、顔画像67a乃至67dにそれぞれ関連づけして、それぞれの被写体特徴データも受信して記憶されている。
【0101】
表示画面67において、操作者がカーソル64eを使用して撮像データ67dを選んだとする。すると、撮像データ67dに対応する被写体特徴データ64a乃至64dを使って、据置型ゲーム装置20は操作者が選択したタレント65aを変形する。その結果、表示画面67におけるタレント65a’が合成される。
【0102】
図7は携帯型ゲーム装置20と据置型ゲーム装置11との関係を説明した概略図である。この概略図を使用して、今までの説明をまとめる。
【0103】
操作者は携帯型ゲーム装置20を使用して、撮像部22aで被写体を撮影し、撮像データを生成する。同時に被写体特徴データを入力する。一方、据置型ゲーム装置11では、タレントを選択しておく。このときタレント65aが選ばれたとする。タレント65aが選ばれた後、据置型ゲーム装置11は撮像データと被写体特徴データとを受信する。撮像データは、本実施例の場合では、タレント65aの顔部に貼り付け処理される。その結果、タレント65aの顔部は顔画像69のように変更される。一方タレント画像のその他の部分は、被写体特徴データに基づき、図6に示したタレント65a’のように変形される。
【0104】
そして、例えば図6の表示画面66で、アニメーション表示66eを操作者が選択すると、表示画面70のように被写体特徴データに応じたアニメーション表示(例えば、「性格が明るい」との被写体特徴データが受信されていれば、激しいダンスのアニメーションなど)が行われる。
【0105】
こうして、操作者は、被写体を撮影し、更に被写体の特徴を示したデータを入力するだけで、新しいタレントを合成して楽しむことができる。
【0106】
ここで、例えばタレント65aに本来的に塗られていた肌の色と、その顔部に貼り付けた撮像データの肌の色との間に差があることがある。このとき、操作者は、合成されたタレント65a’の画像の不自然さを調整したいと考えるであろう。
【0107】
図8は、タレント65aを選んで顔部に撮像データを貼り付けて、顔画像69が得られた後、合成されたタレント65a’の色調整を行う場合の概略図である。
【0108】
表示画面71は、色調整を行うときの表示画面である。表示画面71において71aもしくは71bとして示しているのは、操作者に、タレントの顔部の画像69に相応しい鼻の形状を選択させるための、種々の鼻の形状画像である。勿論鼻ではなく、他の顔の部位に関するデータを画像として表示し、操作者に選ばせても構わない。
【0109】
表示画面71において、操作者が鼻形状データ71aを選択したとする。このとき、操作者はカーソル64eを使用して、図中71a’と矢印で図示しているように、選択した鼻形状データ71aを配置すべき位置を探すことが可能である。
【0110】
鼻形状データ71aは、位置を探っている間も繰り返し撮像データの貼り付け処理がなされている。これは、正確な位置決めを行わないと、必ずしも撮像データの鼻の画像と重ならないため、不自然な画像にならないよう配慮しているためである。
【0111】
操作者が選択した鼻形状データ71aを図中で破線四角で囲った箇所に配置すると決定したとする。このとき、鼻形状データ71aと重なった部分の撮像データの画像が部分画像72である場合、この部分画像72から再度タレントの色を決め直すのである。本来的なタレントの着色に使用される色のデータが、例えばタレント着色パレットデータ73であって、色データ73a,73bおよび73cを含むとする。このときにタレントは74で示す図のように着色されているとする。
【0112】
一方、鼻形状とその配置位置を決めると、部分画像72から、タレントの着色に使用されるべき色データが、73a’,73b’および73c’であると決められ、タレント着色データが73’に変更される。そしてタレントは74’のように着色し直される。
【0113】
このようにして、撮像データの部分画像から本来的なタレントの色データを変更して、再着色が行われ、合成したタレントの色の不自然さを解消する。
【0114】
図9および図10は携帯型ゲーム装置20において、被写体を撮影して撮像データを生成し被写体特徴データを入力する処理のフローチャートである。
【0115】
まず、ステップ11において、携帯型ゲーム装置20を起動させて、撮影を行うのか、撮影した画像を見るのかを操作者に選択させるメニュー画面(図示せず)を表示する。続いてステップ12において、操作者が撮影を行うことを選択したかどうかを判断する。撮影を行うと判断した場合は、ステップ13において図5の状態図62のように、撮影指標を液晶表示画面21bに表示し、据置型ゲーム装置11で合成するのに最適な撮像データが取得できるように、操作者が撮影を行うことを促す。
【0116】
続いてステップ14において、シャッターボタン(例えば携帯型ゲーム装置20の操作スイッチ21a)が押されたかどうかを判断する。もし押されていれば、ステップ15において、撮像部22aによって撮影されていた画像を、撮像データとして携帯型ゲーム装置20に記憶する。押されていなければ、ステップ13で撮影指標を表示された状態に保つ。
【0117】
次にステップ16に進んで、ステップ15で記憶した撮像データの被写体に関して、その特徴に関するデータを、例えば状態図63のような形で操作者に入力させ、記憶する。
【0118】
次に、ステップ17において、今撮影された撮像データとその被写体特徴データとを、据置型ゲーム装置11に送信するかどうかを操作者に判断させる。もし撮影された撮像データとその被写体特徴データとを送信する場合、ステップ18に進み、送信処理を行う。送信処理については図14において後述する。このときは今撮影された撮像データを送信するので、送信可能なデータは一つの撮像データとその被写体特徴データだけである。その後、もしくはステップ17においてデータの送信を行わないと判断したとき、ステップ19に進み、撮影を終了するかどうかを判断する。撮影を終了しないのであれば、ステップ13に戻り、他の撮影を行う。一方撮影を終了する場合は、図10に示すステップ20に進み、携帯ゲーム装置20での作業自体を終えるかどうか判断する。このとき、終了するのであればプログラムが終了し、そうでなければ、図9に示したステップ11に戻り、メニュー画面を表示する。
【0119】
ステップ12に戻り、もし撮影を行わない場合は、図10に示すステップ21に進む。ステップ21では今までに撮影された画像を、液晶表示画面21bに表示して楽しむのかどうかを判断する。このとき、撮影した画像を表示しないのであればステップ20へ進む。
【0120】
撮影した画像を表示するのであれば、ステップ22に進み、液晶表示画面21bにおいて、今までに撮影した画像が見られるようにする。このように撮影した画像を見ているときに、気に入った画像を据置型ゲーム装置11に送信したいかどうかをステップ23において判断する。実施例では最大6枚までの撮像データとその被写体特徴データとを送信可能であるが、ソフトウェアプログラムの作り方によって、送信可能枚数は自由に設定できることは明らかであろう。
【0121】
撮像データと被写体特徴データを送信する場合はステップ24に進み、据置型ゲーム装置11にデータを送信する。このときの送信処理については図14において後述する。その後、もしくはデータの送信をしないとステップ23で判断したときには、ステップ25に進み、画像の表示を終了するかどうか判断する。画像の表示を終了するのであればステップ20へ進む。そうでなければステップ22に戻って、画像の表示を続行する。
【0122】
図11および図12は据置型ゲーム装置11において、操作者が撮影した撮像データを使って疑似3次元キャラクタ画像を合成する処理のフローチャートである。
【0123】
まず、据置型ゲーム装置11が起動されたあと、ステップ31において、操作者が行うべき作業を選択するようなメニュー画面(図示せず)を表示する。
【0124】
続いて、操作者が選んだのがオーディションルームであるかどうかをステップ32において判断する。オーディションルームとは、操作者が合成したい疑似3次元キャラクタ画像であるタレントを選ぶための、画面表示65のような仮想的な部屋である。ステップ33において、操作者はタレントを選択し、ステップ34に進む。
【0125】
ステップ34において、画面表示66のように、選択したタレントに対して着せ替えを行ったり、撮像データを合成したりするための仮想的な控え室に選択したタレントを表示する。すなわち、オーディションルームで選んだタレントを、控え室に連れてきたというような設定である。
【0126】
続いてステップ35において、タレントの着せ替えを行うかどうかを判断する。着せ替えを行うと判断されれば、図12に示すステップ36に進む。ステップ36において、控え室で操作者がタレントの顔に撮像データを貼り付けるのかどうかを判断する。もし撮像データの貼り付けを行う場合は、ステップ37に進む。
【0127】
ステップ37において、据置型ゲーム装置11は携帯型ゲーム装置20と通信を行って、携帯型ゲーム装置20から、撮像データと被写体特徴データとを受信して記憶する。このときの送受信の処理は図14において後述する。
【0128】
続くステップ38において、操作者が選択したタレントに、携帯ゲーム装置20から送信されてきた撮像データを貼り付け処理し、一方被写体特徴データに基づいてタレントの変形処理を行う。
【0129】
そしてステップ39において、撮像データの色とタレントに本来的に塗られていた色との差を調整する処理がなされる。
【0130】
色調整が終わった後、ステップ40に進み、その他の着せ替え処理、例えば表示画面66において、帽子66dを被せるなどの処理、を行う。ここでステップ36において、撮像データの貼り付けを行わない場合は直接ステップ40に進む。
【0131】
次に変形処理が終わり、撮像データが貼り付けられ、更に色調整がなされたタレント画像の合成が終わったあと、ステップ41に進み、操作者は、この合成されたタレントを使ったアニメーションを表示するかどうかを選択する。アニメーションの表示を行うと選択したときは、ステップ42に進み、被写体特徴データに基づいて、被写体の特徴に相応しいアニメーションプログラムを選択し、合成されたタレントのアニメーションが表示される。
【0132】
なお、ステップ35において着せ替え処理を行わないと判断した場合は、直接ステップ41のアニメーション表示に進んでもよい。この場合は、撮像データを使用したタレントの合成を行っていないため、本来的に用意されていたタレントの特徴データを使って、アニメーション表示を行うことができる。
【0133】
アニメーション表示が終了したあと、他のタレントを使用して同様の作業を行うかどうかをステップ43において判断する。またステップ41においてアニメーションの表示を選択しなかった場合は、直接ステップ43に進む。
【0134】
ここで他のタレントを選択する場合は、図11に示したステップ33に戻り、新しいタレントを選択して画像合成を楽しむようにできる。そうでなければ、一連の操作を終了するかどうかをステップ44で選択する。ここで終了しないのであれば、図11に示した最も最初のステップ31に戻り、メニューの選択からやり直すことができる。ステップ44において終了を選択した場合、一連の作業は終了する。
【0135】
図13は、図11におけるステップ39の色調整処理のフローチャートである。
【0136】
操作者が選択したタレントの画像に、撮像データが貼り付けられる処理が終わったとする。特に今回は顔の画像を、タレントの顔の部分に貼り付けた場合を考える。
【0137】
ステップ51で、タレントの鼻の形状を選択する。これはもともと選択したタレントの鼻の形状と、貼り付けられた顔の画像における鼻の形状が合っていない場合などを考慮して、画像の貼り付け処理の後で選択できるようにしたのである。
【0138】
続いて、ステップ52において、選択した鼻の形状をタレントの顔のどの部分に配置するかを決める処理を行う。こうして、貼り付けられた顔の画像と釣り合った大きさと位置で鼻の形状を決めることができる。ステップ53で位置の決定をするかどうか選択し、決定できなければステップ52に戻って鼻の位置決めを続行する。
【0139】
鼻の位置決めが終われば、ステップ54に進み、新しく決められた鼻の形状に基づいて、顔の画像を描画し直す。これは、もともと選択したタレントのポリゴン画像が、鼻の形状の変更によって変わってしまったため、再度ポリゴン画像を作成し直す必要があるからである。そして顔画像の貼り付けもやり直される。
【0140】
その後ステップ55に進む。ここでさきほど選択した鼻の形状に重なっている部分とその周辺の顔画像を抽出する。これはすなわち、貼り付け処理される顔画像の中の、鼻の画像の部分が抽出されることになる。
【0141】
鼻の撮像データが抽出されたあと、ステップ56で、この撮像データからタレントの肌の着色に使用されるべき色のパレットを作り直す。これは、鼻の撮像データには陰影がついているので、この撮像データから、被写体自体の肌色の濃い部分の色、薄い部分の色などが推測できることを利用している。ここで本来的に用意されていたタレントの着色を行うためのパレットが撮像データに基づくものに変更される。
【0142】
そしてステップ57でタレントの体の色、具体的には肌の色を再着色する。こうして貼り付けられた画像と、タレントとの色の差が調整され、見た目の色の不自然さが解消される。
【0143】
続くステップ58において、タレントに再着色された色の具合に問題がないかを判断する。もし問題が有ればステップ52に戻り、鼻の位置決め処理に戻る。そうでなければ、タレントの画像合成の処理に戻る。
【0144】
図14は、携帯型ゲーム装置20と据置型ゲーム装置11との間で撮像データおよび被写体特徴データの送受信を行うときの処理に関するフローチャートである。このとき、携帯型ゲーム装置20はそのプログラム処理において、ステップ18またはステップ24の処理を行っている。一方据置型ゲーム装置11はステップ37の処理を行っている。
【0145】
まず、ステップ71において、据置型ゲーム装置20側から、通信が可能であるとの信号が、携帯型ゲーム装置20側に送信される。携帯型ゲーム装置20はステップ61において通信が可能であることを確認すると、ステップ62において、これから据置型ゲーム装置11に送信する画像の数のデータを送信する。ステップ72において、据置型ゲーム装置11はこれから携帯型ゲーム装置20から送信されてくる画像の数のデータを受信する。ここで画像の数とは撮像データと被写体特徴データを一体と考えて、このデータの組がいくつであるかを示す数であるとして説明する。
【0146】
続いて、携帯型ゲーム装置20はステップ63からステップ66の処理、据置型ゲーム装置11はステップ73からステップ76の処理を、それぞれ互いに連動しながら画像の数だけ繰り返し処理を行う。
【0147】
携帯型ゲーム装置20はまず、ステップ64において撮像データを送信する。一方据置型ゲーム装置11はステップ74において送信されてくる撮像データを受信する。続いて、携帯型ゲーム装置20は、ステップ64において送信した撮像データに関する被写体特徴データをステップ65において送信する。送信された被写体特徴データはステップ75において据置型ゲーム装置11で受信される。
【0148】
携帯型ゲーム装置20は画像の数だけデータを送信し終われば、撮像データの生成処理に戻る。一方、据置型ゲーム装置11は、データを全て受信し終わった後、ステップ77に進む。ステップ77において、受信された撮像データを表示画面67などで使用できるように記憶する。そしてステップ78において、対応する撮像データと関連づけして被写体特徴データを記憶する。その後画像合成処理に戻る。
【0149】
第1実施例によれば、携帯型ゲーム装置20と据置型ゲーム装置11を使って、操作者は、画像表示装置14における表示画面を見ながら、所望のタレントを合成することができる。特に撮像データが選択した画像に貼り付けられ、それがアニメーションとして表示され、動く様子を見るのは、非常に興味深いであろう。また、被写体特徴データによって、選択したタレントの画像が変形するとき、思っても見なかったような画像に変化すればさらに興味深いであろう。
【0150】
また、顔画像を選択したタレントに貼り付けて、鼻の形状を選んで配置することにより、色の調整が行われることで、操作者は楽しみながら画像合成を行うことができるであろう。
【0151】
なお、第1実施例では、撮像カートリッジ22を装着した携帯型ゲーム装置20から画像データおよび被写体特徴データを据置型ゲーム装置11に送信(入力)するようにしたが、図15に示すように、撮像カートリッジ22を装着した携帯型ゲーム装置20に変えて、カメラ付携帯電話機20’を用いることもできる。
【0152】
このカメラ付携帯電話機20’は、CCDイメージャのような撮像装置22’を備えており、ケーブル16’を用いて据置型ゲーム装置11に接続される。たとえば、カメラ付携帯電話機20’は、図3に示したプログラムやデータをダウンロードし、内部メモリに記憶する。プログラムやデータは、たとえば、株式会社エヌ・ティ・ティ・ドコモが提供する「iアプリ(登録商標)」のようなウェブコンテンツである。したがって、操作者は、ダイヤルキー(テンキー等)を操作して、撮像装置22’で自身や他の人物等の顔を撮影して、撮影データを取得することができる。このとき、カメラ付携帯電話機20’の液晶表示装置には、図5の状態図62に示したような撮影指標62a〜62dが表示される。また、操作者は、ダイヤルキーを操作して、図5の状態図63に示したような被写体特徴(データ)を入力することができる。ただし、カメラ付携帯電話機20’では、液晶表示装置の表示画面が小さいため、被写体特徴を入力する場合には、図5の状態図63のような顔画像は表示されない。
<第2実施例>
図16はこの発明にかかる画像処理システム10の他の一例についての概要を示した図である。この第2実施例の画像処理システム10は、撮像カートリッジ22に変えてカードリーダ23を携帯型ゲーム装置20に装着し、カード(本件出願人が製造販売する「カードe」(商品名))23aのような記録媒体から画像データ(第1実施例でいう撮影データ)および画像特徴データ(第1実施例でいう被写体特徴データ)を読み取るようにした以外は第1実施例と同じである。このため、異なる部分についてのみ説明することとし、重複する部分についての説明は省略することにする。
【0153】
図16からも分かるように、携帯型ゲーム装置20には、図1実施例の撮像カートリッジ22と同様に、カードリーダ23が装着される。たとえば、カードリーダ23がデータを読取可能な状態にされると、操作者は、カード23aをカードリーダ23に通す。すると、当該カード23aに記憶されたデータがカードリーダ23によって読み取られ、読み取ったデータに基づいて画像データおよび画像特徴データが生成される。
【0154】
図17は第2実施例の画像処理システム10の電気的な構成を示すブロック図である。この図17を参照して、カードリーダ23は、コネクタを介して携帯型ゲーム装置本体21に着脱可能とされる。また、カードリーダ23には、携帯型ゲーム装置20で使用されるプログラムとデータとを記憶したROM23bを内蔵している。更に、カードリーダ23にはバックアップメモリ(RAM)23cが搭載されている。
【0155】
カード23aには、図示は省略するが、有名人(スポーツ選手、タレント、歌手、役者など)、ゲームキャラクタ或いはアニメキャラクタなどのイラスト画像または写真画像が記録(印刷)される。また、カード23aには、印刷された画像を記憶する記憶領域231および当該画像についての特徴(画像特徴)を記憶する記憶領域232が形成される。記録領域231には、当該画像についてのイメージデータ(画像データ)が2次元バーコードで記録(または印刷)され、光学的に読み出し可能にされる。記憶領域232は、当該画像についての画像特徴(たとえば、有名人等の名前、性別、プロフィール、…など)データが画像データと同様に機械的に読取可能な態様で記録される。
【0156】
なお、記録領域231および記録領域232に記録される画像データや画像特徴データは、他の機械的に読取可能な態様で記録するようにすることもできる。ここで、他の機械的に読取可能な態様としては、たとえば、電気的、磁気的等に読取可能な態様が考えられる。
【0157】
図18は、カード23aに記録されるデータの内容を具体的に示した図解図である。この図18を参照して、有名人のカード23aでは、名前(名称)、性別、身長、体重、年齢、誕生日、性格、趣味、コメント、職業、顔写真(顔画像)および体型(頭、手、足、腕の長さと太さ)のデータが記憶される。また、髪(髪型)のモデルIDと色IDと模様ID、鼻のモデルIDと大きさと位置、耳のモデルIDと大きさ、上着のモデルIDと色IDまたは模様ID、およびシャツのモデルIDと色IDと模様IDのデータが記憶される。さらに、ズボンのモデルIDと色IDと模様ID、パンツのモデルIDと色IDと模様ID、靴下のモデルIDと色IDと模様ID、靴のモデルIDと色IDと模様ID、およびアクセサリのモデルIDと色IDと模様IDのデータが記録される。
【0158】
ここで、髪、鼻、耳などの身体部位についてのIDおよび上着やシャツ等の服装やアクセサリについてのIDは、据置型ゲーム装置11のRAM11bに記憶されるタレント着せ替え用データ56を識別するための識別情報である。
【0159】
ゲームキャラクタやアニメキャラクタのカード23aにおいても上述と同様のデータが記憶されるが、動物を模したキャラクタでは、髪や服装(靴下、靴、アクセサリなども含む。)に変えて、体毛のモデルIDと色IDと模様IDなどが記憶される。
【0160】
ただし、ゲームキャラクタやアニメキャラクタのカード23aでは、当該キャラクタを用いたゲームに使用するためのデータがさらに記憶される。たとえば、当該キャラクタのカード23aでは、キャラクタの種族や能力のデータが記憶される。ここで、種族とは、ゲーム(アニメ)キャラクタの創作者等が設定したキャラクタの属性をいう。また、能力には、知力、体力、すばやさ、パワー、人気度などが含まれる。
【0161】
なお、図示は省略するが、カード23aの種類(有名人、ゲームキャラクタ、アニメキャラクタ等の別)を識別するための情報(カード番号)などもカード23aには記録される。
【0162】
また、第2実施例では、カード23aを用いたゲーム等のアプリケーションに汎用性を持たせるために、カード23aに上述したような画像データおよび画像特徴データを記憶するようにしてあるが、この画像データおよび画像特徴データは、据置型ゲーム装置11のROMのような内部メモリ(図示せず)或いは据置型ゲーム装置11にゲームプログラムや画像データ等を供給する外部記憶媒体13に記憶しておき、カード23aの識別情報(カード番号またはカードID)に対応して読み出し可能な構成としてもよい。この場合には、カード23aには、カード番号またはカードIDのみを記録するようにすればよい。
【0163】
さらに、第2実施例では、画像データおよび画像特徴データを分かり易く説明するために、記録領域231および記録領域232の2箇所に分けて記録するようにしてあるが、1箇所にまとめて記録するようにしてもよい。
【0164】
図17に戻って、携帯型ゲーム装置本体21のCPU21cは、インターフェース21hを介して、カードリーダ23にアクセスする。すなわち、CPU21cはROM23bに記憶されたプログラムとデータとを処理して、データ読取機23eで読み取られたデータに基づいて画像データおよび画像特徴データを生成する。具体的には、読み取られたデータはRAM23cに一旦保持され、CPU21cは、RAM23c或いはRAM21dを用いて、RAM23cに保持されたデータを画像データおよび画像特徴データに変換する。その後、変換(生成)した画像データおよび画像特徴データは、RAM23cに保存され、CPU21cの指示に従って読み出される。このように、カード23aから読み取ったデータを変換して、画像データおよび画像特徴データを生成するのは、画像合成装置としての据置型ゲーム装置11で処理可能とするためであり、すなわち、第1実施例に示したような撮像データや被写体特徴データと同じフォーマットにするためである。
【0165】
また、生成した画像データおよび画像特徴データをRAM23cに保存しておくので、カードリーダ23を他の携帯型ゲーム装置に接続して使用することもできる。
【0166】
なお、この第2実施例では、カード23aから読み取ったデータに基づいて画像データおよび画像特徴データを生成するが、以下においては、簡単のため、カード23aから読み取った画像データおよび画像特徴データと言う。
【0167】
また、据置型ゲーム装置11および携帯型ゲーム装置20の電気的な構成は、第1実施例と同じであるため、詳細な説明は省略する。
【0168】
図19はカードリーダ23に設けられるROM23bのメモリマップ80である。ROM23bは大きく分けてプログラム記憶領域81とデータ記憶領域82とから構成される。プログラム記憶領域81は、画像取得プログラム記憶領域81a、画像特徴データ取得プログラム記憶領域81bおよびデータ送信プログラム記憶領域81cを含む。
【0169】
画像取得プログラム記憶領域81aには、カード23aから画像データを読み取るためのプログラムが記憶される。また、画像特徴データ取得プログラム記憶領域81bには、カード23aから画像特徴データを読み取るためのプログラムが記憶される。データ送信プログラム記憶領域81cには、画像データと画像特徴データとを、据置型ゲーム装置11に送信するプログラムが記憶されている。
【0170】
データ記憶領域82は、カードリーダプログラム用画像データ記憶領域82aとカードリーダプログラム用サウンドデータ記憶領域82bとを含む。記憶領域82aは、カードリーダ23によってカード23aのデータを読み取る場合に、ユーザの操作を誘導するためのメッセージ表示画面などの画面(画像)データが記憶される。また、記憶領域82bには、カードリーダ23によってカード23aのデータを読み取る場合に、データの読取中であることを示す効果音、データの読取成功を示す報知音或いは読取失敗を示す警告音などの音のデータが記憶される。
【0171】
図示は省略するが、RAM23cには、画像データ記憶領域および画像特徴データ記憶領域が設けられる。
【0172】
画像データ記憶領域は、顔画像取得プログラム記憶領域81aに記憶されたプログラムによって、カードリーダ23で読み取られた画像データを記憶する領域である。
【0173】
また、画像特徴データ記憶領域は、画像特徴データ取得プログラム記憶領域81bに記憶されたプログラムによって、カードリーダ23で読み取られた画像特徴データを記憶する領域である。画像特徴データ記憶領域に記憶される画像特徴データは、対応する画像データ記憶領域に記憶される画像データと関連づけて記憶されている。
【0174】
図20は、第2実施例の据置型ゲーム装置11のRAM11bにおけるメモリマップ40である。この図20に示すメモリマップ40は、タレント編集プログラム43に特徴データ編集プログラム43hが追加された以外は、第1実施例のメモリマップ40と同じであるため、重複した説明は省略することにする。また、図面の都合上、図20においては、第1実施例で示したメモリマップ40と同じ内容についての詳細は省略してある。
【0175】
特徴データ編集プログラム43hは、カードリーダ23から受信した画像特徴データに基づいて、画像表示装置14に表示される有名人、ゲームキャラクタおよびアニメキャラクタ(以下、これらを「キャラクタ」という。)についての3次元のキャラクタ画像の体型、髪型、鼻、目および服装などを編集するプログラムである。
【0176】
具体的には、図21〜図27に示すフローチャートに従って据置型ゲーム装置11のCPU11aは処理を実行する。ただし、第2実施例では、カード23aから読み取った画像データおよび画像特徴データを取得するようにしてあるため、一部の処理(キャラ作成処理:図22参照)では、携帯型ゲーム装置20のCPU21cにおいても処理が実行される。
【0177】
図21に示すように、据置型ゲーム装置11のCPU11aはアプリケーションの全体処理を開始すると、ステップ81で、モードセレクト画面(図示せず)を画像表示装置14に表示する。図示は省略するが、このモードセレクト画面は、後述するキャラクタ(キャラ)作成処理、エディット(タレント編集)処理およびアニメーション表示処理のいずれか1つを選択するための画面である。
【0178】
続くステップ82で、操作者はモードをセレクトする。そして、ステップ83では、キャラ作成処理が選択されたかどうかを判断する。ここで、キャラ作成処理が選択されている場合には、ステップ84で、後述するカード23aによるキャラ作成処理(図22参照)を実行して、ステップ89に進む。
【0179】
一方、キャラ作成処理が選択されていなければ、ステップ85で、エディット処理が選択されたかどうかを判断する。ここで、エディット処理が選択されている場合には、ステップ86で、エディット処理(図23参照)を実行して、ステップ89に進む。
【0180】
もし、エディット処理が選択されていなければ、ステップ87で、アニメーション表示処理が選択されたかどうかを判断する。ここで、アニメーション表示処理も選択されていなければ、未だモードセレクトされていないと判断して、ステップ82に戻る。しかし、アニメーション表示処理が選択されていれば、ステップ88で、後述するアニメーション表示処理(図24および図25参照)を実行して、ステップ89に進む。
【0181】
ステップ89では、終了かどうかを判断する。つまり、操作者が当該アプリケーションの全体処理の終了を指示したかどうかを判断する。ここで、アプリケーションの全体処理の終了でなければ、そのままステップ81に戻るが、アプリケーションの全体処理の終了であれば、処理を終了する。
【0182】
図22は、カード23aによるキャラ作成処理(S84)のフローチャートである。このキャラ作成処理(S84)では、図22に示すように、据置型ゲーム装置11(CPU11a)と携帯型ゲーム装置20(CPU20c)とにおいて、それぞれ、処理が実行される。
【0183】
据置型ゲーム装置11のCPU11aは、キャラ作成処理を開始すると、ステップ91で、当該モードを抜けるかどうかを判断する。たとえば、操作者がコントローラ12または操作スイッチ21aを操作して、キャラ作成処理の終了を指示したかどうかを判断する。以下、操作者が操作する場合には、コントローラ12または操作スイッチ21aのいずれかを用いて操作することができる。ここで、当該モードを抜ける場合には、図示は省略するが、キャラ作成処理の終了指示を携帯型ゲーム装置20のCPU21cに送信した後に、キャラ作成処理をリターンする。しかし、当該モードを抜けない場合には、ステップ92において、図28に示すようなキャラ作成画面90を画像表示装置14に表示する。
【0184】
図28に示すように、キャラ作成画面90は、そのほぼ中央に、作成されたキャラクタ92が表示される。また、キャラ作成画面90の右上方には、顔画像表示部94が設けられる。この顔画像表示部94には、取り込んだ顔画像の縮小画像が表示される。さらに、キャラ作成画面90の左側には、キャラクタ92の原型となる複数の疑似3次元キャラクタ画像96が表示される。
【0185】
なお、このキャラ作成画面90は、第1実施例の状態図65および状態図66(図6参照)に相当し、キャラクタ92は第1実施例の顔画像を貼り付けたタレント65’に相当し、疑似3次元キャラクタ画像96は第1実施例のタレント65aや65bに相当する。ただし、第2実施例の疑似3次元キャラクタ画像96では、第1実施例のタレント65aや65bとは異なり、いずれも同じ体型(身体的特徴)で、髪、顔の部位(目、鼻、口等)および服等を身に付けていない人型のみが表示される。
【0186】
図22に戻って、続くステップ93では、データの受信指示があるかどうかを判断する。データの受信指示がない場合には、そのままステップ91に戻るが、データの受信指示がある場合には、ステップ93で、データの送信要求を携帯型ゲーム装置20のCPU21cに送信する。
【0187】
そして、ステップ95では、データを受信したかどうかを判断する。データを受信していない場合には、そのまま同じステップ95に戻って、データの受信を待機する。一方、データを受信した場合には、ステップ96で、キャラクタを追加する。つまり、受信データ記憶領域52に画像データおよび画像特徴データを記憶する。このとき、キャラ作成画面90の顔画像表示部94に、受信した画像データに基づく顔画像の縮小画像を表示する。
【0188】
続くステップ97では、操作者は顔画像を選択する。ステップ98では、キャラクタを作成する。つまり、画像データに基づく顔画像を疑似3次元キャラクタ画像96に貼り付ける。また、このとき、画像特徴データが編集され、疑似3次元キャラクタ画像96の形状(体型)、服装や髪型などが変化される。たとえば、画像特徴データに含まれる体型および性別に基づいて、疑似3次元キャラクタ画像96の形状(外形)が変化され、髪のモデルID等、服装(上着、シャツ、ズボン、パンツ、靴下、靴)のモデルID等やアクセサリのモデルID等に基づいて、変形した疑似3次元キャラクタ画像96に、髪、服、靴下、靴およびアクセサリなどのテクスチャを貼り付ける。そして、ステップ99で、操作者が選択した顔画像についてのキャラクタを登場させて、すなわちキャラクタ92をキャラ作成画面90に表示して、ステップ91に戻る。したがって、続けてデータを取り込むことができ、また、当該モードを抜けることもできる。
【0189】
また、図29に示すように、キャラ作成画面90において、顔画像表示部94に表示されるゲームキャラクタの顔画像が選択されると、ステップ98においては、当該顔画像に対応するキャラクタ92がキャラ作成画面90の中央に表示(登場)される。このとき、疑似3次元キャラクタ画像96の形状や服装(動物を模したキャラクタでは、皮膚や体毛の種類、模様等)等は、画像特徴データを編集することにより決定されるのは、上述のとおりである。
【0190】
つまり、キャラ作成処理(S84)においては、カード23aに記録される画像データおよび画像特徴データに基づく、デフォルトのキャラクタ92が作成され、画面表示される。
【0191】
一方、携帯型ゲーム装置20のCPU21cは、キャラ作成処理を開始すると、ステップ101で、データ読取機23eを能動化する。図示は省略するが、データ読取機23eが能動化されると、液晶表示画面21bにデータの読取が可能である旨のメッセージが表示される。続くステップ102で、操作者はカード23aをカードリーダ23(データ読取機23e)に通して、ステップ103で、データを読み取る。そして、ステップ104で、データの読取を成功したかどうかを判断する。ここで、データの読取に失敗した場合には、そのままステップ102に戻って、再度、操作者にカード23aをデータ読取機23eに通させる。ただし、データの読取に失敗した場合には、失敗したことを報知する警告メッセージや警告音或いはその両方を出力するようにしてもよい。
【0192】
一方、データの読取に成功した場合には、ステップ105で、据置型ゲーム装置11のCPU11aからデータの送信要求があるかどうかを判断する。ここで、データの送信要求がなければ、同じステップ105に戻って、データの送信要求があるのを待機する。一方、データの送信要求があれば、ステップ106で、今回読み取ったデータを据置型ゲーム装置11に送信する。
【0193】
なお、ステップ104で、データの読取を成功した場合には、そのままステップ105に進むようにしてあるが、読取成功を報知するためのメッセージまたは報知音或いはその両方を出力してからステップ105に進むようにしてもよい。
【0194】
また、この第2実施例では、画像データおよび画像特徴データは、それぞれ、異なる記録領域231および記録領域232に記憶されるため、ステップ102では、操作者は、記録領域231および記録領域232の両方を読み取るようにカード23aをカードリーダ23に通し、ステップ104においては、画像データおよび画像特徴データの両方の読取に成功したかどうかを判断しているのである。
【0195】
そして、ステップ107では、キャラ作成処理の終了かどうかを判断する。つまり、キャラ作成処理の終了指示が据置型ゲーム装置11のCPU11aから送信されたかどうかを判断する。ここで、キャラ作成処理の終了でなければ、次のカード23aのデータを読み取ると判断して、ステップ102に戻る。一方、キャラ作成処理の終了であれば、ステップ108で、データ読取機23eを不能化して、キャラ作成処理をリターンする。
【0196】
なお、この第2実施例では、1枚ずつカード23aを読み取り、その都度、画像データおよび画像特徴データを送信するようにしてあるが、複数枚のカード23aを読み取った後に、複数枚分の画像データおよび特徴データを一度に送信するようにしてもよい。
【0197】
図23はエディット処理(S86)を示すフローチャートである。このエディット処理(S86)では、作成したキャラクタの顔画像、髪や鼻などの身体部位或いはその位置、服装などを変更することができる。つまり、カード23aから取り込んだデータに基づく、デフォルトのキャラクタ92について編集することができるのである。したがって、たとえば、ゲームキャラクタの顔画像を有名人のキャラクタ92に貼り付けたり、ゲームキャラクタの頭部(頭髪)のような部位を有名人のキャラクタ92の当該部位に貼り付けたりするなどの編集が可能である。これにより、操作者は、独創的なキャラクタ92を作成することができるのである。
【0198】
具体的には、エディット処理(S86)を開始すると、図示は省略するが、作成されたキャラクタ92を選択するためのキャラ選択画面が画像表示装置14に表示される。このキャラ選択画面において、ステップ111で、操作者は所望のキャラクタ92を選択する。続くステップ112では、選択されたキャラクタ92を表示する。そして、ステップ113では、服装などの着せ替えするかどうかを判断する。ただし、ここでは、顔画像以外の身体の一部の部位を変更する場合も着せ替えに含まれる。
【0199】
ここで、着せ替えをする場合には、そのままステップ117に進が、着せ替えをしない場合には、ステップ114で、顔画像の貼り付けかどうかを判断する。顔画像の貼り付けない場合には、そのままステップ117に進む。一方、顔画像を貼り付ける場合には、ステップ115で、キャラクタに選択した顔画像を貼り付ける。つまり、選択したキャラクタ92に別の顔画像を貼り付けることができる。
【0200】
続くステップ116では、キャラクタ色調整処理を実行し、ステップ117では、その他の着せ替え処理を実行する。つまり、帽子を被せたり、服装を変更したり、身体部位を変更したりなどする。そして、ステップ118では、他のキャラクタ92の選択かどうかを判断する。ここで、他のキャラクタ92を選択する場合には、ステップ111に戻って、操作者はキャラクタ92を選択する。しかし、他のキャラクタ92を選択しない場合には、そのままエディット処理をリターンする。
【0201】
なお、第2実施例では、ステップ116で実行されるキャラクタ色調整処理は、第1実施例に示したタレント色調整処理39(図13参照)と同じであるため、詳細な説明は省略することにする。
【0202】
図24および図25は、アニメーション表示処理(S88)を示すフローチャートである。図24に示すように、アニメーション表示処理(S88)を開始すると、CPU11aは、ステップ121で、シチュエーションのセレクト画面(図示せず)を画像表示装置14に表示する。たとえば、この第2実施例では、シチュエーションのセレクト画面において、「学校」、「公園」または「ダンス」のいずれか1つを選択することができる。また、「戻る」を選択して、図21に示したアプリケーションの全体処理に戻ることもできる。
【0203】
続くステップ122では、操作者はシチュエーションをセレクト(選択)する。次のステップ123では、「学校」が選択されたかどうかを判断する。シチュエーションとして「学校」が選択された場合には、そのままステップ127に進む。しかし、「学校」が選択されていない場合には、ステップ124で、「公園」が選択されているかどうかを判断する。
【0204】
ここで、シチュエーションとして「公園」が選択された場合には、そのままステップ127に進む。しかし、「公園」が選択されていない場合には、ステップ125で、「ダンス」が選択されたかどうかを判断する。シチュエーションとして「ダンス」が選択された場合には、そのままステップ127に進む。しかし、「ダンス」が選択されていない場合には、ステップ126で、「戻る」が選択されたかどうかを判断する。つまり、図21に示した処理に戻るかどうかを判断する。
【0205】
ここで、「戻る」が選択されていない場合には、未だ操作者がシチュエーションを選択していないと判断して、そのままステップ122に戻る。しかし、「戻る」が選択されている場合には、そのままアニメーションの実行処理をリターンして、図21に示したアプリケーションの全体処理に戻る。
【0206】
ステップ127では、選択されたシチュエーションに応じたフラグ(シチュエーションフラグ)をオン(設定)する。たとえば、シチュエーションフラグは、シチュエーションの個数と同じ数のビット(第2実施例では、3ビット)を有するレジスタであり、各ビットには対応するシチュエーションが予め決定されている。該当するシチュエーションが選択されていないビットのデータ値は「0」であり、該当するシチュエーションが選択されるとビットのデータ値は「1」にされる。
【0207】
なお、図20においては図示を省略したが、シチュエーションフラグは、RAM11のデータ記憶領域51に記憶される。
【0208】
続くステップ128では、機能のセレクト画面(図示せず)を画像表示装置14に表示する。この機能のセレクト画面では、選択したシチュエーションに参加するキャスト(キャラクタ92)の設定(キャスト設定)を選択したり、アニメーションの実行を選択したりすることができる。次いで、ステップ129では、操作者は機能をセレクト(選択)する。そして、ステップ130で、「キャスト設定」が選択されたかどうかを判断する。ここで、「キャスト設定」が選択されていない場合には、そのまま図25に示すステップ132に進むが、「キャスト設定」が選択されている場合には、図25に示すステップ131で、図30に示すようなキャスト設定画面100を画像表示装置14に表示してから、ステップ132に進む。
【0209】
図30に示すキャスト設定画面100は、シチュエーションとして、「学校」が選択(設定)されている場合の画面である。このキャスト設定画面100は、キャストを設定するための設定画面102およびキャラクタ92を選択するためのキャラ選択画面104によって構成される。また、設定画面102の上部には、「GO」ボタン102aおよび「EXIT」ボタン102bが設けられる。
【0210】
このキャスト設定画面100では、キャラ選択画面104に、作成したキャラクタ92についての縮小した顔画像が表示され、キャストとしての先生役および生徒役をこのキャラ選択画面104から選択して、設定画面102に設定することができる。また、設定画面102の先生および生徒の配列は、アニメーションを実行した際の座席配置を表している。つまり、キャストを設定するとともに、座席配置も選択することができるのである。キャストを設定し、アニメーションを実行する場合には、操作者は、「GO」ボタン102aをオンする。一方、キャストの設定を中止(中断)して、シチュエーションのセレクト画面に戻りたい場合には、「EXIT」ボタン102bをオンする。
【0211】
図25に戻って、ステップ132では、キャスト設定画面100において、「GO」ボタン102aがオンされたかどうかを判断する。つまり、操作者がアニメーションの実行を指示したかどうかを判断する。「GO」ボタン102aがオンされた場合には、ステップ133で、当該シチュエーションに応じたアニメーション実行処理(図26,図27参照)を実行して、アニメーション表示処理をリターンする。
【0212】
しかし、「GO」ボタン102aがオンされていない場合には、ステップ134で、キャスト設定画面100において、「EXIT」ボタン102bがオンされたかどうかを判断する。つまり、操作者が機能のセレクト画面からの退出を指示したかどうかを判断する。ここで、「EXIT」ボタン102bがオンされていない場合には、キャストの設定が終了していないと判断して、ステップ132に戻る。しかし、「EXIT」ボタン102bがオンされた場合には、図24に示したステップ121に戻って、シチュエーションのセレクト画面を画像表示装置14に表示する。
【0213】
図26はシチュエーションとして「学校」が選択された場合のアニメーション実行処理(S133)を示すフローチャートである。図26に示すように、据置型ゲーム装置11のCPU11aが学校のアニメーション実行処理(S133)を開始すると、ステップ141で、当該シチュエーションに介入するかどうかを判断する。ここで、「介入」とは、たとえば、操作者に対応するキャラクタが当該シチュエーションにおける仮想空間の場面にカメラを持って侵入することをいう。また、介入する場合には、当該場面が、所定のルールに従って変更される。つまり、ステップ141では、操作者が介入の指示を入力したかどうかを判断する。ここで、介入しない場合には、そのままステップ149に進む。しかし、介入する場合には、ステップ142で、現在の場面が“授業中”であるかどうかを判断する。
【0214】
なお、場面の判断においては、後述する場面フラグに基づいて簡単に実行される。
【0215】
現在の場面が“授業中”である場合には、ステップ143で、“給食”の場面に変更(移行)して、ステップ147に進む。授業中の場面では、図31に示すような授業中のアニメーション表示画面110が画像表示装置14に表示され、この表示画面110においては、教室内の授業の様子がアニメーションで表示される。図31に示すように、授業中では、キャスト設定画面100で設定したキャストで、キャラクタ92a〜92gが配置される。キャラクタ92aは先生役であり、後述するステップ149の処理により、授業をしているアニメーションが実行される。他のキャラクタ92b〜92gは生徒役であり、キャスト設定画面100で設定された座席に座り、後述するステップ149の処理により、授業を受けているアニメーションが実行される。
【0216】
ここで、操作者が介入すると、図32に示すように、給食の準備をするアニメーション表示画面120が画像表示装置14に表示される。この表示画面120では、生徒役であるキャラクタ92b〜92gは、各自の机や椅子を移動させて、グループ単位で給食を食べるように、机の配置を並べ変えて、給食の準備に取りかかる。このアニメーションがステップ143で実行されるのである。
【0217】
図26に戻って、現在の場面が“授業中”でない場合には、ステップ144で、現在の場面が“給食中”であるかどうかを判断する。現在の場面が“給食中”であれば、ステップ145で、“掃除”の場面に移行して、ステップ147に進む。給食中の場面では、図33に示すような給食中のアニメーション表示画面130が画像表示装置14に表示される。この表示画面130では、教室内で給食を食べる様子のアニメーションが、後述するステップ149の処理により、先生役のキャラクタ92aおよび生徒役のキャラクタ92b〜92gのそれぞれで実行される。
【0218】
ここで、操作者が介入すると、図示は省略するが、給食の片づけをするアニメーションが実行された後、図34に示すような掃除の準備をするアニメーション表示画面140が画像表示装置14に表示される。この表示画面140では、生徒役のキャラクタ92b〜92gは、各自の机や椅子を教室の後部に移動して、掃除の準備に取りかかる。このアニメーションがステップ145で実行されるのである。
【0219】
図26に戻って、現在の場面が“給食中”でない場合には、現在の場面が“掃除中”であると判断して、ステップ146で、“授業”の場面に移行して、ステップ147に進む。掃除中の場面では、図35に示すような掃除中のアニメーション表示画面150が画像表示装置14に表示される。この表示画面150では、生徒役のキャラクタ92b〜92gは、それぞれの役割で掃除し、先生役のキャラクタ92aは、掃除の様子を見ている。このアニメーションが後述するステップ149で実行される。
【0220】
ここで、操作者が介入すると、図示は省略するが、生徒役のキャラクタ92b〜92gでは、掃除道具の片づけて、机を授業の場面の配列に戻すアニメーションが実行され、授業の場面に移行され、図31に示したような授業中のアニメーション表示画面110が画像表示装置14に表示されるのである。このアニメーションがステップ146で実行されるのである。
【0221】
ステップ147では、対応する場面のフラグ(場面フラグ)を設定(オン)する。ここで、場面フラグは、場面(授業中、給食中、掃除中)の個数に応じた数(第2実施例では、3個)のビットを有するレジスタで構成される。各ビットには、対応する場面が予め設定されており、場面が設定されていなければ、対応するビットのデータ値は「0」であり、場面が設定されると、対応するビットのデータ値は「1」にされる。
【0222】
なお、図20においては図示を省略したが、場面フラグは、RAM11のデータ記憶領域51に記憶される。
【0223】
続くステップ148では、カメラ介入処理を実行する。つまり、操作者に対応するキャラクタ(図示せず)が当該場面にカメラを持って侵入(介入)する。図示は省略するが、操作者に対応するキャラクタが場面に介入すると、操作者の操作に従うアングルや倍率で、当該場面内の映像を撮影することができ、その撮影した映像が画像表示装置14に表示される。そして、ステップ149では、全員のアニメーション処理を実行する。つまり、場面フラグに設定された場面において、登場するキャラクタの表情、身振り手振りおよび行動をアニメーションで表現する。
【0224】
たとえば、授業中では、図31に示したように、教室で授業が行われている様子を示すアニメーションが実行され、先生役のキャラクタ92aは、黒板に向かって字を書いたり、生徒役のキャラクタ92b〜92gを指差したりする。生徒役のキャラクタ92b〜92gは、授業を聞いたり、本を読んだりする。つまり、キャラクタ92a〜92gのそれぞれは、配役に予め割り当てられたアニメーションを実行する。ただし、同じ配役であっても、当該キャラクタ92の性格に応じたアニメーションが自動的に選択され、実行される点は、第1実施例の場合と同じである。
【0225】
また、操作者に対応するキャラクタが当該場面に介入している場合に、操作者の指示に従って所望のキャラクタ92a〜92gのいずれかを撮影すると、撮影されているキャラクタ(92a〜92g)は、カメラの方を向いたり、カメラに向かってジェスチャをしたりするアニメーションも実行される。
【0226】
そして、ステップ150では、学校のアニメーション実行処理を終了するかどうかを判断する。つまり、操作者が終了の指示を入力したかどうかを判断する。ここで、終了しない場合には、そのままステップ141に戻るが、終了する場合には、学校のアニメーション実行処理をリターンする。
【0227】
図27はシチュエーションとして「公園」が選択された場合のアニメーション実行処理(S133)を示すフローチャートである。この公園のアニメーション実行処理は、上述した学校のアニメーション実行処理とほぼ同じであるため、重複する内容については、簡単に説明することにする。図27に示すように、据置型ゲーム装置11のCPU11aが公園のアニメーション実行処理(S133)を開始すると、ステップ161で、当該シチュエーションに介入するかどうかを判断する。つまり、操作者が介入の指示を入力したかどうかを判断する。
【0228】
ここで、介入しない場合には、そのままステップ171に進む。しかし、介入する場合には、ステップ162で、当該シチュエーションにおける現在の場面が“春”であるかどうかを判断する。この季節の判断は、後述する季節フラグに基づいて実行される。
【0229】
現在の場面が“春”である場合には、ステップ163で、“夏”の場面に移行して、ステップ169に進む。たとえば、春の場面では、図36に示すような春のアニメーション表示画面160が画像表示装置14に表示され、たとえば、公園で長縄跳びをする様子やその様子を見る様子がアニメーションで表示される。キャラクタ92h、92i、92、92k、92m、92n、92pおよび92qが、それぞれ、配役に従ったアニメーションを実行するのは、シチュエーションが学校の場合と同様である。このアニメーションは後述するステップ171で実行される。図示は省略するが、公園のシチュエーションにおけるキャスト設定画面では、学年、年齢や遊びの集団におけるリーダ等が設定される。また、キャラクタ92h、92i、92、92k、92m、92n、92pおよび92qでは、設定されたキャスト(配役)に応じたアニメーションが実行され、さらに、各キャラクタの性格に応じたアニメーションが自動的に選択され、実行される点も学校のシチュエーションが設定された場合と同じである。
【0230】
ここで、操作者が介入すると、図示は省略するが、夏の場面に移行される。たとえば、背景に入道雲が表示されたり、樹木に留まっているセミが表示されたりする。このような背景等が変化する様子のアニメーションがステップ163で実行されるのである。また、この夏の場面おいては、キャラクタ92h、92i、92j、92k、92m、92n、92pおよび92qでは、セミを網で採ったり、公園に設置される噴水などの水を掛け合って遊んだりするアニメーションが後述するステップ171で実行される。
【0231】
図27に戻って、現在の場面が“春”でない場合には、ステップ164で、現在の場面が“夏”であるかどうかを判断する。ここで、現在の場面が“夏”である場合には、ステップ165で、“秋”の場面に移行して、ステップ169に進む。
【0232】
上述したような夏の場面において、操作者が介入すると、図37に示すような秋のアニメーション表示画面170が画像表示装置14に表示される。図面では表現することはできないが、秋の場面に移行する場合には、たとえば、背景が夕焼けの空で表示され、樹木が紅く色づいているように変更される。このアニメーションがステップ165で実行されるのである。また、図37に示す表示画面170では、たとえば、胴上げをする様子のアニメーションが実行される。たとえば、キャラクタ92jが宙に舞っており、他のキャラクタ92h、92i、92k、92m、92n、92pおよび92qがキャラクタ92jを胴上げしている。
【0233】
図27に戻って、現在の場面が“夏”でない場合には、ステップ166で、現在の場面が“秋”かどうかを判断する。現在の場面が“秋”でなければ、現在の場面が“冬”であると判断して、ステップ168で、“春”の場面に移行して、ステップ169に進む。しかし、現在の場面が“秋”であれば、ステップ167で、“冬”の場面に移行して、ステップ169に進む。
【0234】
つまり、図37に示したような秋の場面が表示されているときに、操作者が介入すると、図示は省略するが、冬の場面に移行され、たとえば、背景の樹木の葉がすべて落ちていて、雪が降る様子が示される。このアニメーションがステップ167で実行されるのである。また、キャラクタ92h、92i、92j、92k、92m、92n、92pおよび92qは、たとえば、雪合戦をする様子のアニメーションが後述するステップ171で実行される。この冬の場面において、操作者が介入すると、図36に示したような春の場面に移行される。
【0235】
図27に戻って、ステップ169では、対応する現在の季節のフラグ(季節フラグ)を設定(オン)する。図示は省略するが、季節フラグは上述の場面フラグと同様であり、四季に応じた個数のビット(4ビット)を有するレジスタで構成される。各ビットには、対応する季節(時期)が予め設定され、現在の場面に設定されていない季節に対応するビットのデータ値は「0」であり、現在の場面に設定された季節に対応するビットのデータ値は「1」である。
【0236】
なお、図20においては図示を省略したが、季節フラグは、RAM11のデータ記憶領域51に記憶される。
【0237】
続くステップ170では、カメラ介入処理を実行し、ステップ171では、全員のアニメーション処理を実行する。つまり、季節フラグに設定された季節において、登場するキャラクタの表情、身振り手振りおよび行動をアニメーションで表現する。たとえば、図36に示したように、季節が春であれば、その季節に対応する公園の風景(景色)が表示されるとともに、公園で複数のキャラクタが長縄跳びするアニメーションやその長縄跳びの様子を見るキャラクタのアニメーションなどが実行される。
【0238】
なお、上述したように、操作者が場面に介入した場合に、操作者が所望のキャラクタを撮影すると、撮影されたキャラクタはカメラの方を向くなどのアニメーションも実行される。
【0239】
そして、ステップ172では、公園のアニメーション実行処理を終了するかどうかを判断する。つまり、操作者が終了指示を入力したかどうかを判断する。ここで、終了しない場合には、そのままステップ161に戻る。一方、終了する場合には、公園のアニメーション実行処理をリターンする。
【0240】
なお、ダンスのアニメーション実行処理についての詳細な説明は省略するが、上述の「公園」或いは「学校」のアニメーションの実行処理と同様である。また、このダンスのアニメーション実行処理については、第1実施例において、簡単に説明してある。
【0241】
第2実施例によれば、カードから得られた画像データおよび画像特徴データに基づいてキャラクタを作成することができ、作成したキャラクタに様々なシチュエーションにおけるアニメーションを実行させることができる。つまり、様々な有名人、ゲームキャラクタおよびアニメキャラクタについてのカードを用意することにより、様々なキャラクタの動く様子を楽しむことができ、画像処理の趣向性を向上させることができる。
【0242】
また、カードから読み取ったデータに基づく、デフォルトのキャラクタを編集して、独創的なキャラクタに編集することができるので、操作者の関心を向けることができる。
【0243】
なお、第2実施例では、3つのシチュエーションを選択できるようにしてあるが、シチュエーションは少なくとも1つ用意されていればよく、また、4つ以上用意されていてもよい。
【0244】
また、第2実施例では、カード23aから読み取ったデータに基づいてキャラクタを作成する場合についてのみ説明したが、第1実施例に示したように、撮像データおよび被写体特徴データに基づいて作成したキャラクタを追加するようにしてもよい。
【図面の簡単な説明】
【図1】本発明にかかる画像処理システムの一例を示す概観図である。
【図2】図1実施例の画像処理システムの内部ブロック図である。
【図3】図1実施例の携帯型ゲーム装置のメモリマップである。
【図4】図1実施例の据置型ゲーム装置のメモリマップである。
【図5】図1実施例の携帯型ゲーム装置を使用して、撮影指標を表示しながら撮影を行う場面と、被写体データの入力を解説する図である。
【図6】図1実施例の据置型ゲーム装置で画像を使用したいタレント画像に顔の画像を貼り付けるまでの処理の概略図である。
【図7】図1実施例の本システムの概念図と、アニメーションの概略図である。
【図8】貼り付けた顔画像とポリゴンの色を調整する処理の概略図である。
【図9】図1実施例の携帯型ゲーム装置の処理の一部を示すフローチャートである。
【図10】図1実施例の携帯型ゲーム装置の処理の他の一部を示すフローチャートである。
【図11】図1実施例の据置型ゲーム装置の処理の一部を示すフローチャートである。
【図12】図1実施例の据置型ゲーム装置の処理の他の一部を示すフローチャートである。
【図13】図1実施例の据置型ゲーム装置における色調整処理のフローチャートである。
【図14】図1実施例の携帯型ゲーム装置と据置型ゲーム装置のデータ送受信に関するフローチャートである。
【図15】図1に示す画像処理システムの変形例を示す概観図である。
【図16】この発明の画像処理システムの他の一例を示す概観図である。
【図17】図16に示す画像処理システムの内部ブロック図である。
【図18】図16実施例に示すカードに記録されるデータの内容を示す図解図である。
【図19】携帯型ゲーム装置のメモリマップである。
【図20】据置型ゲーム装置のメモリマップである。
【図21】図16実施例に示す据置型ゲーム装置のアプリケーションの全体処理を示すフローチャートである。
【図22】図16実施例に示す据置型ゲーム装置および携帯型ゲーム装置のキャラ作成処理を示すフローチャートである。
【図23】図16に示す据置型ゲーム装置のエディット処理を示すフローチャートである。
【図24】図16実施例に示す据置型ゲーム装置のアニメーション処理の一部を示すフローチャートである。
【図25】図16実施例に示す据置型ゲーム装置のアニメーション処理の他の一部を示すフローチャートである。
【図26】図16実施例に示す据置型ゲーム装置の公園のアニメーションの実行処理を示すフローチャートである。
【図27】図16実施例に示す据置型ゲーム装置の学校のアニメーションの実行処理を示すフローチャートである。
【図28】キャラクタ作成画面の一例を示す図解図である。
【図29】キャラクタ作成画面の他の一例を示す図解図である。
【図30】キャスト設定画面の一例を示す図解図である。
【図31】学校における授業中のアニメーション表示画面の一例を示す図解図である。
【図32】学校における給食の準備をするアニメーション表示画面の一例を示す図解図である。
【図33】学校における給食中のアニメーション表示画面の一例を示す図解図である。
【図34】学校における掃除の準備をするアニメーション表示画面の一例を示す図解図である。
【図35】学校における掃除中のアニメーション表示画面の一例を示す図解図である。
【図36】公園における春のアニメーション表示画面の一例を示す図解図である。
【図37】公園における秋のアニメーション表示画面の一例を示す図解図である。
【符号の説明】
10 …画像処理システム
11 …据置型ゲーム装置
12 …コントローラ
13 …据置型ゲーム装置用外部記憶媒体
14 …画面表示装置
20 …携帯型ゲーム装置
20’ …カメラ付携帯電話機
21a …操作スイッチ
21b …液晶表示画面
22a …撮像部
22’ …撮像装置
23 …カードリーダ
23a …カード
62a,62b,62c,62d…撮影指標
【産業上の利用分野】
この発明は画像処理システムに関し、特に例えば、顔画像データ提供装置と、顔画像データ提供装置とは分離して設けられ、顔画像提供機能を持たない画像合成装置とからなり、顔画像データ提供装置から取得した顔画像データを用いて、画像合成装置でポリゴン画像を生成する、画像処理システムに関する。
【0002】
【従来の技術】
この種の従来技術の一例が特許文献1に開示される。この特許文献1に開示される携帯形ゲーム機では、その本体部の上部にカメラ部が形成される。カメラ部は、本体部に対して回動自在に支持されており、使用者から見て前方と後方との両方の画像を撮影することができる。撮影した画像は、本体部の一方主面に設けられる画像表示器に表示することができる。このような携帯形ゲーム機或いはディジタルカメラなどの撮像装置で撮影した画像は、パソコンに転送して加工する技術がよく知られている。使用者はパソコンに転送された画像を、画像加工用ソフトウェア(フォトレタッチソフトなど)を利用して、編集することができる。
【0003】
また、疑似3次元画像作成ソフトウェアなどでは、非特許文献1に開示されるように、任意の画像データを、この3次元画像作成ソフトウェアで作成したポリゴン図形などにテクスチャマッピングの手法などを用いて貼付し、画像を作成することもよく知られている。
【0004】
【特許文献1】
特開平11−144040号
【非特許文献1】
3D TEXTURE LIBRARY(オーム社,平成12年11月20日)
【0005】
【発明が解決しようとする課題】
しかしながら、従来の技術では撮像装置もパソコンも、それぞれ独立して製品化されているため、両者の連動を考慮した商品とはなっていなかった。また、ディジタルカメラもパソコンも初心者や子供が操作するためには非常に機能が複雑であり、専門知識を要するものであった。さらに、ディジタルカメラやパソコンは両者を連動させて、娯楽的な用途を考慮した製品とはなっていなかったため、使用に際して飽きられやすい欠点があった。
【0006】
それゆえに、この発明の主たる目的は、携帯型ゲーム装置と据置型テレビゲーム装置とを利用して、娯楽性をもった画像創作が可能な画像処理システムを提供することである。
【0007】
この発明の他の目的は、操作に慣れ親しんだ携帯型ゲーム装置に撮影機能を付加したカートリッジを使用して画像を撮影し、同じく操作に慣れ親しんだ据置型のテレビゲームを携帯型ゲーム装置と接続できる環境を使用し、両者の連動を予め視野に入れた画像創作を目的とした画像処理システムを提供することである。
【0008】
この発明のその他の目的は、据置型テレビゲーム装置に予め、例えば人間の姿をした3次元コンピュータグラフィックスのモデルを種々用意しておき、携帯型ゲーム装置のカメラで撮影した、例えば顔の画像をテレビゲーム装置に転送して、3次元コンピュータグラフィックスのモデルに貼付して楽しむような画像処理システムを提供することである。
【0009】
この発明のさらなる目的は、顔の画像を3次元コンピュータグラフィックスのモデルに貼付するときに、簡便に、画像とモデルとの色の差が不自然にならないように色調整できるような画像処理システムを提供することである。
【0010】
【課題を解決するための手段】
請求項1は、顔画像データ提供装置と、顔画像データ提供装置とは分離して設けられ、顔画像提供機能を持たない画像合成装置とからなる画像処理システムである。顔画像データ提供装置は、顔画像データ取得手段、特徴データ取得手段およびデータ送信手段を備える。顔画像データ取得手段は、顔画像データを取得する。特徴データ取得手段は、顔画像データに対応し、顔画像に関連する特徴データを取得する。データ送信手段は、顔画像データと特徴データとを画像合成装置に送信する。画像合成装置は、データ受信記憶手段、キャラクタポリゴンデータ記憶手段、画像合成処理手段および第1表示手段を備える。データ受信記憶手段は、データ送信手段によって送信されたデータを受信して記憶する。キャラクタポリゴンデータ記憶手段は、少なくとも1つの疑似3次元キャラクタ画像を生成するためのポリゴンデータを記憶する。画像合成処理手段は、特徴データとキャラクタポリゴンデータ記憶手段に記憶されたポリゴンデータとに基づいてキャラクタポリゴンデータを生成し、顔画像データをキャラクタポリゴンの顔テクスチャとするキャラクタポリゴン画像を合成する。第1表示手段は、画像合成処理手段によって合成された画像を表示する。
【0011】
請求項2は請求項1に従属し、顔画像データ取得手段は、被写体の顔画像を撮影して顔画像データを生成する撮像手段を含み、特徴データ取得手段は、撮像データに対応した顔画像に関連する特徴データを入力する特徴データ入力手段を含む。
【0012】
請求項3は請求項2に従属し、顔画像データ提供装置は、少なくとも撮影中の顔画像を表示する第2表示手段、および顔画像を撮影するとき第2表示手段に被写体の顔画像を所望の位置に合わせる撮影指標を表示する撮影指標データ表示手段をさらに備える。
【0013】
請求項4は請求項1に従属し、顔画像データ提供装置は、外部記憶媒体に記憶されたデータを読み取り可能なデータ読取手段、およびデータ読取手段によって読み取られたデータに基づいて顔画像データおよび特徴データを生成するデータ生成手段をさらに備え、顔画像データ取得手段は、生成手段によって生成された顔画像データを取得し、特徴データ記憶手段は、生成手段によって生成された特徴データを取得する。
【0014】
請求項5は請求項1ないし4のいずれかに従属し、画像合成装置は、疑似3次元キャラクタ画像を合成した後、特徴データに応じて少なくとも一種類の中から任意のアニメーションデータを自動選択するアニメーション自動選択手段、および選択されたアニメーションデータと合成された疑似3次元キャラクタ画像とを使用してアニメーションを表示するアニメーション表示手段をさらに備える。
【0015】
請求項6は、撮像機能を有する携帯型画像処理装置と、携帯型画像処理装置とは分離して設けられ、撮像機能を持たない画像合成装置とからなる画像処理システムである。携帯型画像処理装置は、撮像手段、被写体特徴データ入力手段およびデータ送信手段を備える。撮像手段は、被写体を撮影して撮像データを生成する。被写体特徴データ入力手段は、撮像データに対応した被写体の特徴を表す被写体特徴データを入力する。データ送信手段は、撮像手段によって生成された撮像データと被写体特徴データ入力手段によって入力された被写体データとを画像合成装置に送信する。画像合成装置は、データ受信記憶手段、キャラクタポリゴンデータ記憶手段、キャラクタ選択手段、画像合成処理手段および第1表示手段を備える。データ受信記憶手段は、データ送信手段から送信されたデータを受信記憶する。キャラクタポリゴンデータ記憶手段は、少なくとも1つの疑似3次元キャラクタ画像を生成するためのポリゴンデータを記憶する。キャラクタ選択手段は、操作者に少なくとも1つの疑似3次元キャラクタ画像を合成するためのポリゴンデータを選択させる。画像合成手段は、被写体特徴データを使用して、キャラクタ選択手段によって選択されたポリゴンデータを加工し、加工されたポリゴンデータと撮像データとを使用して疑似3次元キャラクタ画像を合成する。第1表示手段は、画像合成処理手段によって合成された画像を表示する。
【0016】
請求項7は請求項6に従属し、画像合成処理手段は、ポリゴンデータから生成される疑似3次元キャラクタ画像の一部に顔画像データを貼り付け処理して画像合成する。画像合成装置は、部位ポリゴンデータ選択手段、部位ポリゴン配置手段およびキャラクタ色抽出手段をさらに備える。部位ポリゴンデータ選択手段は、疑似3次元キャラクタ画像を合成するときに、顔画像データが貼り付け処理される範囲において、疑似3次元キャラクタを構成する少なくとも1つの部位の形状を表すポリゴンデータを、少なくとも1つの中から操作者に選択させる。部位ポリゴン配置手段は、部位ポリゴンデータ選択手段によって選択された部位ポリゴンデータを、撮像データが貼り付け処理される範囲において、疑似3次元キャラクタ画像のどの位置に配置して画像を合成するかを操作者に指示させる。キャラクタ色抽出手段は、撮像データが貼り付けられない部分における疑似3次元キャラクタ画像の少なくとも1つの色データを、部位ポリゴンデータが配置される範囲の撮像データから抽出して決める。
【0017】
請求項8は、顔画像データを取得する顔画像データ取得手段、顔画像データに対応し、顔画像に関連する特徴データを取得する特徴データ取得手段、および顔画像データと特徴データとを画像合成装置に送信するデータ送信手段を備える顔画像データ提供装置に接続可能な画像合成装置に実行させる画像合成処理プログラムである。この画像合成装置は、少なくとも、データ受信記憶手段、キャラクタポリゴンデータ記憶手段および合成画像表示手段を備える。データ受信記憶手段は、顔画像データ提供装置から送信されたデータを受信して記憶する。キャラクタポリゴンデータ記憶手段は、少なくとも1つの疑似3次元キャラクタ画像を生成するためのポリゴンデータを記憶する。合成画像表示手段は、合成された画像を表示する。画像処理プログラムは、画像合成装置に、キャラクタ選択ステップ、ポリゴンデータ加工ステップおよび疑似3次元キャラクタ画像合成ステップを実行させる。キャラクタ選択ステップは、少なくとも1つの疑似3次元キャラクタ画像を生成するためのポリゴンデータを操作者に選択させる。ポリゴンデータ加工ステップは、特徴データを使用して、キャラクタ選択ステップによって選択されたポリゴンデータを加工する。疑似3次元キャラクタ画像合成ステップは、ポリゴンデータ加工ステップで加工されたポリゴンデータと顔画像データとを使用して疑似3次元キャラクタ画像を合成する。
【0018】
請求項9は請求項8に従属し、疑似3次元キャラクタ画像を合成した後、特徴データに応じて、少なくとも一種類の中から任意のアニメーションデータを自動選択するアニメーション自動選択ステップ、および選択されたアニメーションデータと合成された疑似3次元キャラクタ画像とを使用してアニメーションを表示するアニメーション表示ステップをさらに実行させる。
【0019】
請求項10は、被写体を撮影して撮像データを生成する撮像手段、撮像データに対応した被写体の特徴を表す被写体特徴データを入力する被写体特徴データ入力手段、および撮像データと被写体特徴データとを送信するための送信手段を備える画像処理装置に接続可能な画像合成装置に実行させる画像処理プログラムでる。この画像合成装置は、少なくとも、データ受信記憶手段、キャラクタポリゴンデータ記憶手段および合成画像表示手段を備える。データ受信記憶手段は、画像処理装置から送信されたデータを受信して記憶する。キャラクタポリゴンデータ記憶手段は、少なくとも1つの疑似3次元キャラクタ画像を生成するためのポリゴンデータを記憶する。合成画像表示手段は、合成された画像を表示する。画像処理プログラムは、画像合成装置に、キャラクタ選択ステップ、ポリゴンデータ加工ステップおよび疑似3次元キャラクタ画像合成ステップを実行させる。キャラクタ選択ステップは、少なくとも1つの疑似3次元キャラクタ画像を生成するためのポリゴンデータを操作者に選択させる。ポリゴンデータ加工ステップは、被写体特徴データを使用して、キャラクタ選択ステップによって選択されたポリゴンデータを加工する。画像合成ステップは、ポリゴンデータ加工ステップで加工されたポリゴンデータと撮像データとを使用して疑似3次元キャラクタ画像を合成する。
【0020】
請求項11は請求項10に従属し、疑似3次元キャラクタ画像を合成した後、被写体特徴データに応じて、少なくとも一種類の中から任意のアニメーションデータを自動選択するアニメーション自動選択ステップ、および選択されたアニメーションデータと合成された疑似3次元キャラクタ画像とを使用してアニメーションを表示するアニメーション表示ステップをさらに実行させる。
【0021】
請求項12は請求項10または11に従属し、画像合成ステップは、撮像データ貼り付けステップ、部位ポリゴンデータ選択ステップ、部位ポリゴン配置ステップおよびキャラクタ色抽出ステップを含む。撮像データ貼り付けステップは、ポリゴンデータから生成される疑似3次元キャラクタ画像の一部に撮像データを貼り付け処理する。部位ポリゴンデータ選択ステップは、撮像データが貼り付け処理される範囲において、疑似3次元キャラクタを構成する少なくとも1つの部位の形状を表すポリゴンデータを、少なくとも1つの中から操作者に選択させる。部位ポリゴン配置ステップは、部位ポリゴンデータ選択ステップによって選択された部位ポリゴンデータを、撮像データが貼り付け処理される範囲において、疑似3次元キャラクタ画像のどの位置に配置して画像を合成するかを操作者に指示させる。キャラクタ色抽出ステップは、撮像データが貼り付けられない部分における疑似3次元キャラクタ画像の少なくとも1つの色データを、部位ポリゴンデータが配置される範囲の撮像データから抽出して決める。
【0022】
請求項13は、少なくとも画像合成装置にデータを送信するデータ送信手段を備える携帯型ゲーム装置に着脱可能に設けられる外部記録装置である。この外部記録装置は、顔画像取得手段、特徴データ取得手段およびデータ記憶手段を備える。顔画像取得手段は、顔画像データを取得する。特徴データ取得手段は、顔画像データに対応し、顔画像に関連する特徴データを取得する。データ記憶手段は、顔画像データと特徴データとを関連づけて記憶する。
【0023】
請求項14は、少なくとも、操作者による撮影指示に応じて撮影処理を実行する撮影処理手段、撮影処理手段による撮影処理の実行中に少なくとも被写体の画像を表示する画像表示手段、および撮影処理手段による撮影処理の結果得られた撮像データに対応する被写体の特徴を表す被写体特徴データを入力する被写体特徴データ入力手段を備える携帯型ゲーム装置に着脱可能に設けられる外部記憶装置である。この外部記憶装置は、撮像手段およびデータ記憶手段を備える。撮像手段は、被写体を撮影して撮像データを生成する。データ記憶手段は、撮像手段によって生成された撮像データと被写体特徴データ入力手段によって入力された被写体特徴データとを関連づけて記憶する。
【0024】
請求項15は請求項14に従属し、撮影処理を実行するための撮影処理実行プログラム、および撮影処理の実行中に所望の位置に被写体の画像を合わせる撮影指標を画像表示に表示するための撮影指標表示プログラムを記憶するプログラム記憶手段をさらに備える。
【0025】
【作用】
請求項1によれば、画像処理システム(10:実施例における参照番号。以下、同様である。)は、顔画像データ提供装置(20)と顔画像提供機能を持たない画像合成装置(11)とを含む。顔画像データ提供装置(20)では、顔画像データ取得手段(21c,22,23)が顔画像データを取得する。また、特徴データ取得手段(21c,22,23)が、顔画像データに対応し、顔画像に関連する特徴データを取得する。データ送信手段(21c,21h,16)は、顔画像データ取得手段(21c,22,23)によって取得された顔画像データと特徴データ取得手段(21c,22,23)によって取得された特徴データとを画像合成装置(11)に送信する。一方、画像合成装置(11)は、顔画像データ提供装置とは分離して設けられ、この画像合成装置(11)では、データ受信記憶手段(11a,11b,11e)が、データ送信手段(21c,21h,16)によって送信されたデータすなわち顔画像データおよび特徴データを受信して記憶する。キャラクタポリゴンデータ記憶手段(11b)は、少なくとも1つの疑似3次元キャラクタ画像を生成するためのポリゴンデータを記憶する。画像合成処理手段(11a)は、特徴データとポリゴンデータとに基づいてキャラクタポリゴンデータを作成し、顔画像データをキャラクタポリゴンの顔テクスチャとするキャラクタポリゴン画像を合成する。第1表示手段(11a,11c,11d,14)は、合成(生成)されたキャラクタポリゴン画像を表示する。
【0026】
この発明によれば、顔画像データ提供装置が提供する顔画像データや特徴データを使用して、キャラクタを生成するので、自由な画像創作を簡単に行うことができる。また、特徴データに従ったキャラクタ画像を生成できるので、趣向性(娯楽性)を向上させることができる。
【0027】
請求項2によれば、顔画像データ取得手段(21c,22)は、被写体の顔画像を撮影する撮像手段(21c,22a,21d)を含み、この撮像手段(21c,22a,21d)は、操作者の撮影指示に従って被写体の顔画像を撮影する。これにより、顔画像データ取得手段(21c,22)は、顔画像データを取得する。つまり、撮影した被写体の顔画像についての顔画像データを取得することができる。また、特徴データ取得手段(21c,22,23)は、撮像手段(21c,22a,21d)によって撮影された顔画像に関連する特徴データを入力する特徴データ入力手段(21a)を含み、この特徴データ入力手段(21a)によって入力された特徴データを取得する。
【0028】
請求項3によれば、顔画像データ提供手段(20)は、撮影中の顔画像を表示する第2表示手段(21b)をさらに備える。撮影指標表示手段(21c,21d)は、撮影するとき、この第2表示手段(21b,21e,21f,21g)に撮影指標(62a〜62d)を表示する。したがって、顔画像を所望の位置に合わせて撮影することができる。
【0029】
請求項4によれば、顔画像データ提供装置(20)は、データ読取手段(23e)を備えている。データ読取手段(23e)は、カードのような外部記憶媒体(23a)に記憶されたデータを読み取ることができる。データ生成手段(21c)は、データ読取手段(23e)が読み取ったデータに基づいて顔画像データおよび特徴データを生成する。したがって、顔画像データ取得手段(21c,23)は、生成された顔画像データを取得し、特徴データ取得手段(21c,23)は、生成された特徴データを取得することができる。このように、顔画像データおよび特徴データを外部記録媒体(23a)から取得することもできる。
【0030】
請求項5によれば、画像合成装置(11)では、疑似3次元キャラクタ画像を合成すると、アニメーション自動選択手段(11a,11b)が、特徴データに応じて少なくとも一種類の中から任意のアニメーションデータを自動選択する。アニメーション表示手段(11a,11c,11d,14)は、選択されたアニメーションデータと合成された疑似3次元キャラクタ画像とを使用してアニメーションを表示する。合成された疑似3次元キャラクタ画像をアニメーション表示するので、単に合成した画像を楽しむだけでなく、合成した画像のアニメーション表示を楽しむこともできる。
【0031】
請求項6によれば、画像処理システム(10)は、撮像機能を有する携帯型ゲーム装置のような携帯型画像処理装置(20)と撮像機能を持たない据置型ゲーム装置のような画像合成装置(11)とによって構成される。携帯型画像処理装置(20)では、撮像手段(21c,22a,21d)が被写体を撮影して撮像データを生成する。生成した撮像データに対応した被写体の特徴を表す被写体特徴データが、被写体特徴データ入力手段(21a)によって入力される。データ送信手段(21c,21h,16)は、撮像手段(21c,22a,21d)によって生成された撮像データと被写体特徴データ入力手段(21a)によって入力された被写体特徴データとを画像合成装置(11)に送信する。一方、画像合成装置(11)は、携帯型画像処理装置(20)とは分離して設けられ、この画像合成装置(11)では、データ受信記憶手段(11a,11b,11e)が、データ送信手段(21c,21h,16)によって送信されたデータ、すなわち撮像データおよび被写体特徴データを受信して記憶する。また、キャラクタポリゴンデータ記憶手段(11b)は、少なくとも1つの疑似3次元キャラクタ画像を生成するためのポリゴンデータを記憶する。キャラクタ選択手段(12)は、操作者に少なくとも1つの疑似3次元キャラクタ画像を合成するためのポリゴンデータを選択させる。したがって、画像合成手段(11a)は、被写体特徴データを使用して、キャラクタ選択手段(12)によって選択されたポリゴンデータを加工し、加工されたポリゴンデータと撮像データとを使用して疑似3次元キャラクタ画像を合成する。合成(生成)された疑似3次元キャラクタ画像は、第1表示手段(11a,11c,11d,14)に表示される。
【0032】
この発明によれば、携帯型画像処理装置で撮影された撮像データや携帯型画像処理装置で入力された特徴データを使用して、キャラクタを生成するので、自由な画像創作を簡単に行うことができる。また、特徴データに従ったキャラクタ画像を生成できるので、娯楽性を向上させることができる。
【0033】
請求項7によれば、画像合成処理手段(11a)は、ポリゴンデータから生成される疑似3次元キャラクタ画像の一部に顔画像データを貼り付け処理して画像合成する。画像合成装置(11)では、部位ポリゴンデータ選択手段(12)が、疑似3次元キャラクタ画像を合成するときに、顔画像データが貼り付け処理される範囲において、疑似3次元キャラクタを構成する少なくとも1つの部位の形状を表すポリゴンデータを、少なくとも1つの中から操作者に選択させる。部位ポリゴン配置手段(12)は、部位ポリゴンデータ選択手段(12)によって選択された部位ポリゴンデータを、撮像データが貼り付け処理される範囲において、疑似3次元キャラクタ画像のどの位置に配置して画像を合成するかを操作者に指示させる。さらに、キャラクタ色抽出手段(11a)は、撮像データが貼り付けられない部分における疑似3次元キャラクタ画像の少なくとも1つの色データを、部位ポリゴンデータが配置される範囲の撮像データから抽出して決める。つまり、生成したキャラクタの顔の一部の部位を貼り替えたり、当該部位の貼り替えによる色の違いを調整したりすることができるのである。
【0034】
請求項8においても請求項1と同様に、自由な画像創作を簡単に行うことができ、娯楽性を向上させることもできる。
【0035】
請求項10においても請求項6と同様に、自由な画像操作を簡単に行うことができ、娯楽性を向上させることもできる。
【0036】
請求項13によれば、少なくとも据置型ゲーム装置のような画像合成装置(11)にデータを送信するデータ送信手段(21c,21h,16)を備える携帯型ゲーム装置(20)に着脱可能に設けられる外部記録装置(22,23)である。この外部記録装置(22,23)では、顔画像取得手段(21c,22a,23e)が顔画像データを取得する。特徴データ取得手段(21a,21c,22a,23e)は、顔画像データに対応し、顔画像に関連する特徴データを取得する。データ記憶手段(22c,23c)は、顔画像データと特徴データとを関連づけて記憶する。
【0037】
この発明によれば、取得した顔画像データと特徴データとを関連づけて外部記録装置内に記憶しておくので、当該外部記憶装置を他の携帯型ゲーム装置に装着して、顔画像データおよび特徴データを利用した画像合成を楽しむことも可能である。
【0038】
請求項14によれば、外部記憶装置(22)は、携帯型ゲーム装置(20)に着脱可能に設けられる。この携帯型ゲーム装置(20)は、少なくとも、操作者による撮影指示に応じて撮影処理を実行する撮影処理手段(21c,22a,21d)、撮影処理手段(21c,22a,21d)による撮影処理の実行中に少なくとも被写体の画像を表示する画像表示手段(21b,21e,21f,21g)、および撮影処理手段(21c,22a,21d)による撮影処理の結果得られた撮像データに対応する被写体の特徴を表す被写体特徴データを入力する被写体特徴データ入力手段を備える。この外部記憶装置(22)では、撮像手段(22a)は、撮影指示に従って被写体を撮影して撮像データを生成する。データ記憶手段(22c)は、撮像手段(22a)によって生成された撮像データと被写体特徴データ入力手段(21a)によって入力された被写体特徴データとを関連づけて記憶する。
【0039】
この発明によれば、取得した撮像データと被写体特徴特徴データとを関連づけて外部記録装置内に記憶しておくので、当該外部記憶装置を他の携帯型ゲーム装置に装着して、撮像データおよび被写体特徴データを利用した画像合成を楽しむことも可能である。
【0040】
請求項15によれば、外部記憶装置(22)は、プログラム記憶手段(22b)をさらに備えている。このプログラム記憶手段(22b)には、撮影処理を実行するための撮影処理実行プログラム、および撮影処理の実行中に所望の位置に被写体の画像を合わせる撮影指標を画像表示に表示するための撮影指標表示プログラムが記憶される。つまり、この外部記憶装置を装着することにより、携帯型ゲーム装置に撮影機能を持たせることができ、撮影時には、撮影指標が表示されるので、被写体の画像を所望の位置に合わせて撮影することができる。
【0041】
【発明の効果】
この発明によれば、携帯型ゲーム装置と据置型テレビゲーム装置を利用して、娯楽性をもった画像創作が可能な画像処理システムを提供できる。
【0042】
また、この発明によれば、携帯型ゲーム装置や据置型テレビゲーム装置など、操作に慣れ親しんだ環境を使用して、画像創作を目的とし、初心者や子供でも簡単に操作可能な画像処理システムを提供できる。
【0043】
さらに、この発明によれば、娯楽性が高く飽きられにくい画像処理システムを提供することができる。
【0044】
さらに、この発明によれば、簡便に、画像とモデルとの色の差を調整できるような画像処理システムを提供できる。
【0045】
この発明の上述の目的,その他の目的,特徴および利点は、図面を参照して行う以下の実施例の詳細な説明から一層明らかとなろう。
【0046】
【実施例】
<第1実施例>
図1はこの発明にかかる画像処理システム10の概要を示した図である。画像処理システム10は画像合成装置として据置型ゲーム装置11を含む。据置型ゲーム装置11にはコントローラ12が接続される。コントローラ12は画像合成を行う操作者が入力操作を行うための、操作スイッチ12aおよびジョイスティック12bを備える。操作スイッチ12aは主にメニュー選択などにおいて、決定などの操作に使用される。ジョイスティック12bは主にメニュー選択などにおいて、方向指示や選択項目変更などの操作に使用される。
【0047】
据置型ゲーム装置11を画像合成装置として機能させるための画像合成プログラムは、外部記憶媒体13から供給される。また、据置型ゲーム装置11には画像表示装置14が接続される。画像表示装置14には画像合成プログラムの処理に応じて生成される画像が表示される。操作者は画像表示装置14に表示される画像を見ながら、コントローラ12を操作して画像合成を行う。
【0048】
更に据置型ゲーム装置11には、外部データ記憶媒体15が接続可能であってもよい。こうすることで、例えば、画像合成処理の途中経過を外部データ記憶媒体15に記憶させ、画像合成の処理を中断し、後で続行するなどの操作が可能となる。
【0049】
画像処理システム10は画像生成装置として撮像機能を持った携帯型ゲーム装置20を含む。携帯型ゲーム装置20は携帯型ゲーム装置本体21と、撮像カートリッジ22を含む。携帯型ゲーム装置本体21には、操作スイッチ21aが備えられている。操作者は操作スイッチ21aを操作して、例えば、被写体の撮影のためのシャッターボタンとして使用する。携帯型ゲーム装置20は液晶表示画面21bを備える。液晶表示画面21bは携帯型ゲーム装置本体21で処理されたゲームプログラムなどの結果を画像として表示する機能を持つ。
【0050】
撮像カートリッジ22には撮像部22aが含まれる。撮像カートリッジ22には、携帯型ゲーム装置本体21を画像生成装置として機能させるための画像生成プログラムが記憶されている。また、データの一時記憶機能を持たせ、撮像部22aで撮影された撮像データを記憶しておき、例えば別の携帯型ゲーム装置で使用する、などの操作が可能となるようにしてもよい。
【0051】
携帯型ゲーム装置20は、図示するように接続ケーブル16を介して据置型ゲーム装置11に接続される。
【0052】
図2はこの発明にかかる画像処理システム10の内部ブロック図である。据置型ゲーム装置11はCPU11aを内蔵している。CPU11aにはRAM11bが接続される。RAM11bにはCPU11aが処理するためのプログラムやデータが一時記憶されている。
【0053】
CPU11aには画像処理ユニット11cが更に接続されている。画像処理ユニット11cはCPU11aからの指示に基づき、RAM11bに記憶された画像データを処理して画像を生成する機能を持つ。生成された画像はビデオエンコーダ11dを介して画像表示装置14に表示される。
【0054】
CPU11aには更に、インターフェース11eが接続される。また、インターフェース11eはRAM11bにも接続される。コントローラ12はインタフェース11eを介してCPU11aに接続される。インターフェース11eには他に、ディスクドライブユニット11fが接続されている。外部記憶媒体13のデータはCPU11aの指示に基づいて、ディスクドライブユニット11fによって読み取られ、RAM11bに転送記憶される。プログラム処理によって得られたデータを保存記憶するときは、RAM11bからインターフェース11eを介して外部データ記憶媒体(たとえば、メモリカード)15に転送記憶される。
【0055】
携帯型ゲーム装置本体21は、CPU21cを内蔵している。CPU21cはRAM21dと接続されている。RAM21dにはCPU21cがプログラムを処理したデータが一時記憶される。CPU21cとRAM21dには画像処理ユニット21eが接続される。画像処理ユニット21eはCPU21cの指示に基づいて、RAM21dに一時記憶された画像データに基づき、画像を生成する。生成された画像はVRAM21fに格納される。VRAM21fに格納された画像はLCDドライバ21gを介して、携帯型ゲーム装置本体21内の液晶表示画面21bに表示される。
【0056】
撮像カートリッジ22は、コネクタを介して携帯型ゲーム装置本体21に着脱可能とされる。また、撮像カートリッジ22は、携帯型ゲーム装置20で使用されるプログラムとデータとを記憶したROM22bを内蔵している。更に、撮像カートリッジ22にはバックアップメモリ(RAM)22cが搭載されている。
【0057】
携帯型ゲーム装置本体21のCPU21cは、インターフェース21hを介して、撮像カートリッジ22にアクセスする。すなわち、CPU21cはROM22bに記憶されたプログラムとデータとを処理して、撮像部22aで撮影された画像から撮像データを生成する。生成された撮像データをバックアップメモリ22cに保存して、撮像カートリッジ22を他の携帯型ゲーム装置に接続して使用することもできる。
【0058】
図3は携帯型ゲーム装置20のROM22bにおけるメモリマップ30である。ROM22bは大きく分けてプログラム記憶領域31とデータ記憶領域32とから成る。プログラム記憶領域31は、撮影指標表示プログラム記憶領域31a,被写体撮影プログラム記憶領域31b,被写体特徴データ取得プログラム記憶領域31c及びデータ送信プログラム記憶領域31dを含む。
【0059】
撮影指標表示プログラム記憶領域31aには、被写体の、例えば顔を撮影するときに、最適な顔の撮像データが取得できるようにするためのプログラムが記憶されている。より具体的には、図5の状態図62に示すとおり、被写体の例えば目と鼻と口の大まかな位置を合わせるための指標、62a乃至62dを液晶表示画面21bに表示するプログラムである。
【0060】
被写体撮影プログラム記憶領域31bには、被写体の画像を撮像部22aで撮影するためのプログラムが記憶されている。より具体的には、図5の状態図62のように、撮影指標62a乃至62dに合わせて、撮影すべき顔の画像を決めた後、操作者が操作スイッチ21aを押すことによって、撮像部22aで得られた撮像データをRAM22cに取り込むプログラムである。
【0061】
被写体特徴データ取得プログラム記憶領域31cには、撮像データを得るため撮影された被写体に関する特徴を表すデータを、操作者に入力させて取得するプログラムが記憶されている。より具体的には、状態図63に示すように、被写体の特徴を示すような性別データ64a,体型データ64b,性格データ64cおよび年齢データ64dなどのデータを含む被写体の特徴データ(被写体特徴データ)を、操作者に入力させるプログラムである。入力された被写体特徴データは、撮像データと関連づけされて、RAM22cに一時記憶される。
【0062】
データ送信プログラム記憶領域31dには、撮像データと被写体特徴データとを、据置型ゲーム装置11に送信するプログラムが記憶されている。
【0063】
データ記憶領域32は、撮影指標画像データ記憶領域32a,カメラプログラム用画像データ記憶領域32b及びカメラプログラム用サウンドデータ記憶領域32cを含む。
【0064】
撮影指標画像データ記憶領域32aには撮影指標表示プログラム記憶領域31aに記憶されたプログラムによって使用されるデータが記憶されている。より具体的には、状態図62に示されるように、被写体の例えば顔を撮影するときには、目と鼻と口の大まかな位置を合わせるための指標62a乃至62dを示すデータを記憶している。
【0065】
そのほか、カメラプログラム用画像データ記憶領域32bとカメラプログラム用サウンドデータ記憶領域32cは、例えば状態図62もしくは状態図63などのように、携帯型ゲーム装置20をカメラのように被写体の撮影を行っている間に使用されるデータを記憶している。たとえばプログラム記憶領域31に記憶された種々のプログラムを実行中に演出効果を高めるために、被写体以外の絵のデータを表示したり、シャッター音を出力するときに使用されるデータを記憶している。
【0066】
図示は省略するが、RAM22cには、撮像データ記憶領域および被写体特徴データ記憶領域が設けられる。
【0067】
撮像データ記憶領域は、被写体撮影プログラム記憶領域31bに記憶されたプログラムによって、撮像部22aで撮影された被写体の画像データを記憶する領域である。
【0068】
また、被写体特徴データ記憶領域には、被写体特徴データ取得プログラム記憶領域31cに記憶されたプログラムによって、状態図63に示されるように、操作者によって入力された被写体の特徴を示すデータ(被写体特徴データ)が記憶されている。被写体特徴データ記憶領域に記憶される被写体特徴データは、対応する撮像データ記憶領域に記憶される被写体の画像データと関連づけて記憶されている。
【0069】
図4は据置型ゲーム装置11のRAM11bにおけるメモリマップ40を示す図である。RAM11bは大きく分けてプログラム記憶領域41とデータ記憶領域51とに分けられる。
【0070】
プログラム記憶領域41は、タレント選択プログラム記憶領域42,タレント編集プログラム記憶領域43及びアニメーションプログラム記憶領域44を含む。
【0071】
本実施例において、タレントとは、操作者が撮像データ32bを利用して画像処理システム10において作成する、疑似3次元のキャラクタ画像を示す。タレント選択プログラム記憶領域42には、例えば図6の表示画面65(画像表示装置14の表示画面)に示すように、操作者が作成したいタレントの原型となる疑似3次元キャラクタ画像(例えばタレント65a)を選択するプログラムが記憶されている。
【0072】
タレント編集プログラム記憶領域43には、タレント表示プログラム記憶領域43a,データ受信プログラム記憶領域43b,撮像データ(顔画像)貼り付けプログラム記憶領域43c,タレント変形プログラム記憶領域43d,タレント着せ替えプログラム記憶領域43e,タレント着色プログラム記憶領域43f及び色調整プログラム記憶領域43gを含む。
【0073】
タレント表示プログラム記憶領域43aにはデータ記憶領域51に記憶されたデータから、例えばタレント65aなどの疑似3次元キャラクタ画像を生成するためのプログラムが記憶されている。
【0074】
データ受信プログラム記憶領域43bには、携帯型ゲーム装置20から接続ケーブル16を介して、例えば撮像データと被写体特徴データを受信し、受信データ記憶領域52に記憶するためのプログラムが記憶されている。
【0075】
撮像データ貼り付けプログラム記憶領域43cには、例えば表示画面67に示すように、携帯型ゲーム装置20の撮像部22aで撮影された、例えば顔画像67a乃至67dから一つを選択して、テクスチャマッピングの手法などを用いてタレントの顔部に貼り付ける処理をするプログラムが記憶されている。
【0076】
タレント変形プログラム記憶領域43dには、受信データ記憶領域52に記憶された被写体特徴データに基づいて、タレント選択プログラム42で選択されたタレントの形状(体型)を変化するプログラムが記憶されている。
【0077】
タレント着せ替えプログラム記憶領域43eには、表示画面66の「控え室」のように、洋服66bなどを操作者に選択させて、選択されたタレントの着せ替えをさせるプログラムが記憶されている。
【0078】
タレント着色プログラム記憶領域43fには、タレント着色データ54を使用して、選択したタレントの着色を行うプログラムが記憶されている。
【0079】
色調整プログラム記憶領域43gには、タレントの色調整を行うためのプログラムが記憶されている。より具体的には、例えば、撮像データを選択したタレントに貼り付け処理した場合、このタレントが本来持っていた色と差が出てしまい、不自然に見えてしまうことがある。色調整プログラム記憶領域43gに記憶されたプログラムは、タレントが本来持っていた色と、撮像データの持つ色との差を調整し、自然なタレントの疑似3次元キャラクタ画像を生成するプログラムである。
【0080】
アニメーションプログラム記憶領域44には、更にアニメーション選択プログラム記憶領域44a及びアニメーション表示プログラム記憶領域44bが含まれる。
【0081】
アニメーション選択プログラム記憶領域44aには、受信データ記憶領域52に記憶された被写体特徴データを参照して、撮像データが貼り付け処理されたタレントに、最も相応しいアニメーションデータをアニメーションデータ記憶領域57から選択するプログラムが記憶されている。
【0082】
アニメーション表示プログラム記憶領域44bには、アニメーション選択プログラム記憶領域44aに記憶されたプログラムによって選択されたアニメーションを表示するためのプログラムが記憶されている。
【0083】
データ記憶領域51には、受信データ記憶領域52,タレントポリゴンデータ記憶領域53,タレント着色パレットデータ54,色調整用データ記憶領域55,タレント着せ替え用データ記憶領域56,アニメーションデータ記憶領域57および画像合成プログラム用データ記憶領域58が含まれる。
【0084】
受信データ記憶領域52には、据置型ゲーム装置11が携帯型ゲーム装置20から受信したデータが記憶される。受信データ記憶領域52において、撮像データと被写体特徴データは関連づけして記憶される。例えば、一つ目の被写体については、図4のように画像データ1(52a),被写体特徴データ1(52b)のように隣接して記憶していくことが考えられる。
【0085】
タレントポリゴンデータ記憶領域53には、図6の状態図65で示すように、操作者が選択したタレントの疑似3次元キャラクタ画像を合成するためのポリゴンデータが記憶されている。例えば、細身の男性のキャラクタ画像を合成するためのポリゴンデータ53aおよび細身の女性のキャラクタ画像を合成するためのポリゴンデータ53bなどが記憶される。
【0086】
タレント着色パレットデータ記憶領域54には、タレント着色プログラム記憶領域43fに記憶されたプログラムによって使用され、操作者が選択したタレントにどのような色を塗るのかを決めるデータが記憶されている。
【0087】
色調整用データ領域55には、更に部位形状データ記憶領域55a及び部位の位置データ記憶領域55bが含まれる。
【0088】
部位形状データ記憶領域55aには、色調整の基本とするための、キャラクタの体の一部を形成する部位の形状を記憶したデータが記憶される。具体的には、図8の状態図71において、71aもしくは71bとして指示された、例えば鼻の形状を描画するためのポリゴンデータが記憶される。
【0089】
部位の位置データ記憶領域55bには、例えば色調整の基本とする体の部位として、鼻が選択されている場合、状態図71において、何処に鼻を配置するのかをカーソル64eで指示したときの、その鼻の配置位置を示すデータが記憶される。
【0090】
タレント着せ替え用データ記憶領域56には、タレント着せ替えプログラム記憶領域43eに記憶されたプログラムで使用するためのデータが記憶されている。例えば、髪型データ56aや服装データ56bなどである。
【0091】
アニメーションデータ記憶領域57には、アニメーション表示プログラム記憶領域44bで使用するためのアニメーションのデータが記憶されている。例えば、激しいダンスのアニメーションデータ57aや社交ダンスのアニメーションデータ57bなどである。
【0092】
画像合成プログラム用データ記憶領域58には、据置型ゲーム装置11において、操作者が画像合成を行う場合に、画像表示装置14に表示されるメニューなどの画像(58a)や音声出力手段(図示せず)から出力される効果音(58b)などのデータを記憶した領域である。
【0093】
図5を参照して、この発明にかかる画像処理システム10において、撮像画像データを得るまでの流れを示す。
【0094】
状態図61は、操作者61aが携帯型ゲーム装置20を使用して自分の顔の写真を撮影している状態を示す図である。このとき撮像部22aは操作者61aに向けられたように図示されているが、自由に撮像する向きを変更できるようにしておけば、色々な撮影状況に対応できるであろう。このとき、撮像部22aで撮影された画像は、リアルタイムに液晶表示画面21b上に表示されている。
【0095】
状態図62は、状態図61における携帯型ゲーム装置20の拡大図であって、撮影時における液晶表示画面21bの状態を示す図である。表示画面21b上には撮影指標として、右目の撮影位置を決めるための撮影指標62a,左目の撮影位置を決めるための撮影指標62b,鼻の撮影位置を決めるための撮影指標62c及び口の撮影位置を決めるための撮影指標62dが表示されている。操作者60はこれら撮影指標62a乃至62dに自分の右目、左目、鼻及び口の各部位がなるべく重なるように、携帯型ゲーム装置20を操作する。撮影位置が決まったら、操作者は操作スイッチ21aを押して、撮影を行う。
【0096】
図5において、状態図63は操作者による撮影操作が終わった後の、液晶表示画面21bの状態図である。画面左側には撮影操作によって、携帯型ゲーム装置20に取り込まれた被写体の撮像データが画像として表示されている。画面右側には、画面左側に表示されている被写体の特徴を入力するためのメニューが表示されている。操作者は、被写体の特徴として、例えば性別データ64a(この場合女),体型データ64b(細身),性格データ64c(明るい)および年齢データ64d(24)を入力する。このとき操作者は、カーソル64eを操作して、表示されるメニューの中からデータを選択できるようにすれば便利である。勿論、操作者が操作スイッチ21aを操作して、直接データを入力する形式であっても構わない。
【0097】
図6は据置型ゲーム装置11が接続された画像表示装置14の表示画面を表す図である。
【0098】
表示画面65は、操作者が撮像データ(例えば顔の画)を利用して、疑似3次元画像を合成するために、基本となる疑似3次元キャラクタ画像としての、タレントを選択している画面である。具体的には、タレント65aや65bなどの中から、カーソル64eを移動させて、例えばタレント65aを選択する。
【0099】
続く表示画面66は、選択したタレントの画像を編集している画面である。画面左側には選択されたタレント65aが表示されている。一方画面右側には、選択したタレントに着せたい上着のデータ66bやパンツのデータ66c及び帽子のデータ66dが表示されている。操作者はカーソル64eを操作して、着せ替えに使用したいデータに重ね合わせることで、タレント65aの着せ替え操作を行うことができる。
【0100】
ここで、操作者がカメラ画像66aを選択すると、据置型ゲーム装置11は携帯型ゲーム装置20から、撮像データと被写体特徴データを受信できるモードになる。このとき、画像表示装置14には表示画面67が表示される。顔画像67a乃至67dは、携帯型ゲーム装置20から受信した撮像データである。図示していないが、顔画像67a乃至67dにそれぞれ関連づけして、それぞれの被写体特徴データも受信して記憶されている。
【0101】
表示画面67において、操作者がカーソル64eを使用して撮像データ67dを選んだとする。すると、撮像データ67dに対応する被写体特徴データ64a乃至64dを使って、据置型ゲーム装置20は操作者が選択したタレント65aを変形する。その結果、表示画面67におけるタレント65a’が合成される。
【0102】
図7は携帯型ゲーム装置20と据置型ゲーム装置11との関係を説明した概略図である。この概略図を使用して、今までの説明をまとめる。
【0103】
操作者は携帯型ゲーム装置20を使用して、撮像部22aで被写体を撮影し、撮像データを生成する。同時に被写体特徴データを入力する。一方、据置型ゲーム装置11では、タレントを選択しておく。このときタレント65aが選ばれたとする。タレント65aが選ばれた後、据置型ゲーム装置11は撮像データと被写体特徴データとを受信する。撮像データは、本実施例の場合では、タレント65aの顔部に貼り付け処理される。その結果、タレント65aの顔部は顔画像69のように変更される。一方タレント画像のその他の部分は、被写体特徴データに基づき、図6に示したタレント65a’のように変形される。
【0104】
そして、例えば図6の表示画面66で、アニメーション表示66eを操作者が選択すると、表示画面70のように被写体特徴データに応じたアニメーション表示(例えば、「性格が明るい」との被写体特徴データが受信されていれば、激しいダンスのアニメーションなど)が行われる。
【0105】
こうして、操作者は、被写体を撮影し、更に被写体の特徴を示したデータを入力するだけで、新しいタレントを合成して楽しむことができる。
【0106】
ここで、例えばタレント65aに本来的に塗られていた肌の色と、その顔部に貼り付けた撮像データの肌の色との間に差があることがある。このとき、操作者は、合成されたタレント65a’の画像の不自然さを調整したいと考えるであろう。
【0107】
図8は、タレント65aを選んで顔部に撮像データを貼り付けて、顔画像69が得られた後、合成されたタレント65a’の色調整を行う場合の概略図である。
【0108】
表示画面71は、色調整を行うときの表示画面である。表示画面71において71aもしくは71bとして示しているのは、操作者に、タレントの顔部の画像69に相応しい鼻の形状を選択させるための、種々の鼻の形状画像である。勿論鼻ではなく、他の顔の部位に関するデータを画像として表示し、操作者に選ばせても構わない。
【0109】
表示画面71において、操作者が鼻形状データ71aを選択したとする。このとき、操作者はカーソル64eを使用して、図中71a’と矢印で図示しているように、選択した鼻形状データ71aを配置すべき位置を探すことが可能である。
【0110】
鼻形状データ71aは、位置を探っている間も繰り返し撮像データの貼り付け処理がなされている。これは、正確な位置決めを行わないと、必ずしも撮像データの鼻の画像と重ならないため、不自然な画像にならないよう配慮しているためである。
【0111】
操作者が選択した鼻形状データ71aを図中で破線四角で囲った箇所に配置すると決定したとする。このとき、鼻形状データ71aと重なった部分の撮像データの画像が部分画像72である場合、この部分画像72から再度タレントの色を決め直すのである。本来的なタレントの着色に使用される色のデータが、例えばタレント着色パレットデータ73であって、色データ73a,73bおよび73cを含むとする。このときにタレントは74で示す図のように着色されているとする。
【0112】
一方、鼻形状とその配置位置を決めると、部分画像72から、タレントの着色に使用されるべき色データが、73a’,73b’および73c’であると決められ、タレント着色データが73’に変更される。そしてタレントは74’のように着色し直される。
【0113】
このようにして、撮像データの部分画像から本来的なタレントの色データを変更して、再着色が行われ、合成したタレントの色の不自然さを解消する。
【0114】
図9および図10は携帯型ゲーム装置20において、被写体を撮影して撮像データを生成し被写体特徴データを入力する処理のフローチャートである。
【0115】
まず、ステップ11において、携帯型ゲーム装置20を起動させて、撮影を行うのか、撮影した画像を見るのかを操作者に選択させるメニュー画面(図示せず)を表示する。続いてステップ12において、操作者が撮影を行うことを選択したかどうかを判断する。撮影を行うと判断した場合は、ステップ13において図5の状態図62のように、撮影指標を液晶表示画面21bに表示し、据置型ゲーム装置11で合成するのに最適な撮像データが取得できるように、操作者が撮影を行うことを促す。
【0116】
続いてステップ14において、シャッターボタン(例えば携帯型ゲーム装置20の操作スイッチ21a)が押されたかどうかを判断する。もし押されていれば、ステップ15において、撮像部22aによって撮影されていた画像を、撮像データとして携帯型ゲーム装置20に記憶する。押されていなければ、ステップ13で撮影指標を表示された状態に保つ。
【0117】
次にステップ16に進んで、ステップ15で記憶した撮像データの被写体に関して、その特徴に関するデータを、例えば状態図63のような形で操作者に入力させ、記憶する。
【0118】
次に、ステップ17において、今撮影された撮像データとその被写体特徴データとを、据置型ゲーム装置11に送信するかどうかを操作者に判断させる。もし撮影された撮像データとその被写体特徴データとを送信する場合、ステップ18に進み、送信処理を行う。送信処理については図14において後述する。このときは今撮影された撮像データを送信するので、送信可能なデータは一つの撮像データとその被写体特徴データだけである。その後、もしくはステップ17においてデータの送信を行わないと判断したとき、ステップ19に進み、撮影を終了するかどうかを判断する。撮影を終了しないのであれば、ステップ13に戻り、他の撮影を行う。一方撮影を終了する場合は、図10に示すステップ20に進み、携帯ゲーム装置20での作業自体を終えるかどうか判断する。このとき、終了するのであればプログラムが終了し、そうでなければ、図9に示したステップ11に戻り、メニュー画面を表示する。
【0119】
ステップ12に戻り、もし撮影を行わない場合は、図10に示すステップ21に進む。ステップ21では今までに撮影された画像を、液晶表示画面21bに表示して楽しむのかどうかを判断する。このとき、撮影した画像を表示しないのであればステップ20へ進む。
【0120】
撮影した画像を表示するのであれば、ステップ22に進み、液晶表示画面21bにおいて、今までに撮影した画像が見られるようにする。このように撮影した画像を見ているときに、気に入った画像を据置型ゲーム装置11に送信したいかどうかをステップ23において判断する。実施例では最大6枚までの撮像データとその被写体特徴データとを送信可能であるが、ソフトウェアプログラムの作り方によって、送信可能枚数は自由に設定できることは明らかであろう。
【0121】
撮像データと被写体特徴データを送信する場合はステップ24に進み、据置型ゲーム装置11にデータを送信する。このときの送信処理については図14において後述する。その後、もしくはデータの送信をしないとステップ23で判断したときには、ステップ25に進み、画像の表示を終了するかどうか判断する。画像の表示を終了するのであればステップ20へ進む。そうでなければステップ22に戻って、画像の表示を続行する。
【0122】
図11および図12は据置型ゲーム装置11において、操作者が撮影した撮像データを使って疑似3次元キャラクタ画像を合成する処理のフローチャートである。
【0123】
まず、据置型ゲーム装置11が起動されたあと、ステップ31において、操作者が行うべき作業を選択するようなメニュー画面(図示せず)を表示する。
【0124】
続いて、操作者が選んだのがオーディションルームであるかどうかをステップ32において判断する。オーディションルームとは、操作者が合成したい疑似3次元キャラクタ画像であるタレントを選ぶための、画面表示65のような仮想的な部屋である。ステップ33において、操作者はタレントを選択し、ステップ34に進む。
【0125】
ステップ34において、画面表示66のように、選択したタレントに対して着せ替えを行ったり、撮像データを合成したりするための仮想的な控え室に選択したタレントを表示する。すなわち、オーディションルームで選んだタレントを、控え室に連れてきたというような設定である。
【0126】
続いてステップ35において、タレントの着せ替えを行うかどうかを判断する。着せ替えを行うと判断されれば、図12に示すステップ36に進む。ステップ36において、控え室で操作者がタレントの顔に撮像データを貼り付けるのかどうかを判断する。もし撮像データの貼り付けを行う場合は、ステップ37に進む。
【0127】
ステップ37において、据置型ゲーム装置11は携帯型ゲーム装置20と通信を行って、携帯型ゲーム装置20から、撮像データと被写体特徴データとを受信して記憶する。このときの送受信の処理は図14において後述する。
【0128】
続くステップ38において、操作者が選択したタレントに、携帯ゲーム装置20から送信されてきた撮像データを貼り付け処理し、一方被写体特徴データに基づいてタレントの変形処理を行う。
【0129】
そしてステップ39において、撮像データの色とタレントに本来的に塗られていた色との差を調整する処理がなされる。
【0130】
色調整が終わった後、ステップ40に進み、その他の着せ替え処理、例えば表示画面66において、帽子66dを被せるなどの処理、を行う。ここでステップ36において、撮像データの貼り付けを行わない場合は直接ステップ40に進む。
【0131】
次に変形処理が終わり、撮像データが貼り付けられ、更に色調整がなされたタレント画像の合成が終わったあと、ステップ41に進み、操作者は、この合成されたタレントを使ったアニメーションを表示するかどうかを選択する。アニメーションの表示を行うと選択したときは、ステップ42に進み、被写体特徴データに基づいて、被写体の特徴に相応しいアニメーションプログラムを選択し、合成されたタレントのアニメーションが表示される。
【0132】
なお、ステップ35において着せ替え処理を行わないと判断した場合は、直接ステップ41のアニメーション表示に進んでもよい。この場合は、撮像データを使用したタレントの合成を行っていないため、本来的に用意されていたタレントの特徴データを使って、アニメーション表示を行うことができる。
【0133】
アニメーション表示が終了したあと、他のタレントを使用して同様の作業を行うかどうかをステップ43において判断する。またステップ41においてアニメーションの表示を選択しなかった場合は、直接ステップ43に進む。
【0134】
ここで他のタレントを選択する場合は、図11に示したステップ33に戻り、新しいタレントを選択して画像合成を楽しむようにできる。そうでなければ、一連の操作を終了するかどうかをステップ44で選択する。ここで終了しないのであれば、図11に示した最も最初のステップ31に戻り、メニューの選択からやり直すことができる。ステップ44において終了を選択した場合、一連の作業は終了する。
【0135】
図13は、図11におけるステップ39の色調整処理のフローチャートである。
【0136】
操作者が選択したタレントの画像に、撮像データが貼り付けられる処理が終わったとする。特に今回は顔の画像を、タレントの顔の部分に貼り付けた場合を考える。
【0137】
ステップ51で、タレントの鼻の形状を選択する。これはもともと選択したタレントの鼻の形状と、貼り付けられた顔の画像における鼻の形状が合っていない場合などを考慮して、画像の貼り付け処理の後で選択できるようにしたのである。
【0138】
続いて、ステップ52において、選択した鼻の形状をタレントの顔のどの部分に配置するかを決める処理を行う。こうして、貼り付けられた顔の画像と釣り合った大きさと位置で鼻の形状を決めることができる。ステップ53で位置の決定をするかどうか選択し、決定できなければステップ52に戻って鼻の位置決めを続行する。
【0139】
鼻の位置決めが終われば、ステップ54に進み、新しく決められた鼻の形状に基づいて、顔の画像を描画し直す。これは、もともと選択したタレントのポリゴン画像が、鼻の形状の変更によって変わってしまったため、再度ポリゴン画像を作成し直す必要があるからである。そして顔画像の貼り付けもやり直される。
【0140】
その後ステップ55に進む。ここでさきほど選択した鼻の形状に重なっている部分とその周辺の顔画像を抽出する。これはすなわち、貼り付け処理される顔画像の中の、鼻の画像の部分が抽出されることになる。
【0141】
鼻の撮像データが抽出されたあと、ステップ56で、この撮像データからタレントの肌の着色に使用されるべき色のパレットを作り直す。これは、鼻の撮像データには陰影がついているので、この撮像データから、被写体自体の肌色の濃い部分の色、薄い部分の色などが推測できることを利用している。ここで本来的に用意されていたタレントの着色を行うためのパレットが撮像データに基づくものに変更される。
【0142】
そしてステップ57でタレントの体の色、具体的には肌の色を再着色する。こうして貼り付けられた画像と、タレントとの色の差が調整され、見た目の色の不自然さが解消される。
【0143】
続くステップ58において、タレントに再着色された色の具合に問題がないかを判断する。もし問題が有ればステップ52に戻り、鼻の位置決め処理に戻る。そうでなければ、タレントの画像合成の処理に戻る。
【0144】
図14は、携帯型ゲーム装置20と据置型ゲーム装置11との間で撮像データおよび被写体特徴データの送受信を行うときの処理に関するフローチャートである。このとき、携帯型ゲーム装置20はそのプログラム処理において、ステップ18またはステップ24の処理を行っている。一方据置型ゲーム装置11はステップ37の処理を行っている。
【0145】
まず、ステップ71において、据置型ゲーム装置20側から、通信が可能であるとの信号が、携帯型ゲーム装置20側に送信される。携帯型ゲーム装置20はステップ61において通信が可能であることを確認すると、ステップ62において、これから据置型ゲーム装置11に送信する画像の数のデータを送信する。ステップ72において、据置型ゲーム装置11はこれから携帯型ゲーム装置20から送信されてくる画像の数のデータを受信する。ここで画像の数とは撮像データと被写体特徴データを一体と考えて、このデータの組がいくつであるかを示す数であるとして説明する。
【0146】
続いて、携帯型ゲーム装置20はステップ63からステップ66の処理、据置型ゲーム装置11はステップ73からステップ76の処理を、それぞれ互いに連動しながら画像の数だけ繰り返し処理を行う。
【0147】
携帯型ゲーム装置20はまず、ステップ64において撮像データを送信する。一方据置型ゲーム装置11はステップ74において送信されてくる撮像データを受信する。続いて、携帯型ゲーム装置20は、ステップ64において送信した撮像データに関する被写体特徴データをステップ65において送信する。送信された被写体特徴データはステップ75において据置型ゲーム装置11で受信される。
【0148】
携帯型ゲーム装置20は画像の数だけデータを送信し終われば、撮像データの生成処理に戻る。一方、据置型ゲーム装置11は、データを全て受信し終わった後、ステップ77に進む。ステップ77において、受信された撮像データを表示画面67などで使用できるように記憶する。そしてステップ78において、対応する撮像データと関連づけして被写体特徴データを記憶する。その後画像合成処理に戻る。
【0149】
第1実施例によれば、携帯型ゲーム装置20と据置型ゲーム装置11を使って、操作者は、画像表示装置14における表示画面を見ながら、所望のタレントを合成することができる。特に撮像データが選択した画像に貼り付けられ、それがアニメーションとして表示され、動く様子を見るのは、非常に興味深いであろう。また、被写体特徴データによって、選択したタレントの画像が変形するとき、思っても見なかったような画像に変化すればさらに興味深いであろう。
【0150】
また、顔画像を選択したタレントに貼り付けて、鼻の形状を選んで配置することにより、色の調整が行われることで、操作者は楽しみながら画像合成を行うことができるであろう。
【0151】
なお、第1実施例では、撮像カートリッジ22を装着した携帯型ゲーム装置20から画像データおよび被写体特徴データを据置型ゲーム装置11に送信(入力)するようにしたが、図15に示すように、撮像カートリッジ22を装着した携帯型ゲーム装置20に変えて、カメラ付携帯電話機20’を用いることもできる。
【0152】
このカメラ付携帯電話機20’は、CCDイメージャのような撮像装置22’を備えており、ケーブル16’を用いて据置型ゲーム装置11に接続される。たとえば、カメラ付携帯電話機20’は、図3に示したプログラムやデータをダウンロードし、内部メモリに記憶する。プログラムやデータは、たとえば、株式会社エヌ・ティ・ティ・ドコモが提供する「iアプリ(登録商標)」のようなウェブコンテンツである。したがって、操作者は、ダイヤルキー(テンキー等)を操作して、撮像装置22’で自身や他の人物等の顔を撮影して、撮影データを取得することができる。このとき、カメラ付携帯電話機20’の液晶表示装置には、図5の状態図62に示したような撮影指標62a〜62dが表示される。また、操作者は、ダイヤルキーを操作して、図5の状態図63に示したような被写体特徴(データ)を入力することができる。ただし、カメラ付携帯電話機20’では、液晶表示装置の表示画面が小さいため、被写体特徴を入力する場合には、図5の状態図63のような顔画像は表示されない。
<第2実施例>
図16はこの発明にかかる画像処理システム10の他の一例についての概要を示した図である。この第2実施例の画像処理システム10は、撮像カートリッジ22に変えてカードリーダ23を携帯型ゲーム装置20に装着し、カード(本件出願人が製造販売する「カードe」(商品名))23aのような記録媒体から画像データ(第1実施例でいう撮影データ)および画像特徴データ(第1実施例でいう被写体特徴データ)を読み取るようにした以外は第1実施例と同じである。このため、異なる部分についてのみ説明することとし、重複する部分についての説明は省略することにする。
【0153】
図16からも分かるように、携帯型ゲーム装置20には、図1実施例の撮像カートリッジ22と同様に、カードリーダ23が装着される。たとえば、カードリーダ23がデータを読取可能な状態にされると、操作者は、カード23aをカードリーダ23に通す。すると、当該カード23aに記憶されたデータがカードリーダ23によって読み取られ、読み取ったデータに基づいて画像データおよび画像特徴データが生成される。
【0154】
図17は第2実施例の画像処理システム10の電気的な構成を示すブロック図である。この図17を参照して、カードリーダ23は、コネクタを介して携帯型ゲーム装置本体21に着脱可能とされる。また、カードリーダ23には、携帯型ゲーム装置20で使用されるプログラムとデータとを記憶したROM23bを内蔵している。更に、カードリーダ23にはバックアップメモリ(RAM)23cが搭載されている。
【0155】
カード23aには、図示は省略するが、有名人(スポーツ選手、タレント、歌手、役者など)、ゲームキャラクタ或いはアニメキャラクタなどのイラスト画像または写真画像が記録(印刷)される。また、カード23aには、印刷された画像を記憶する記憶領域231および当該画像についての特徴(画像特徴)を記憶する記憶領域232が形成される。記録領域231には、当該画像についてのイメージデータ(画像データ)が2次元バーコードで記録(または印刷)され、光学的に読み出し可能にされる。記憶領域232は、当該画像についての画像特徴(たとえば、有名人等の名前、性別、プロフィール、…など)データが画像データと同様に機械的に読取可能な態様で記録される。
【0156】
なお、記録領域231および記録領域232に記録される画像データや画像特徴データは、他の機械的に読取可能な態様で記録するようにすることもできる。ここで、他の機械的に読取可能な態様としては、たとえば、電気的、磁気的等に読取可能な態様が考えられる。
【0157】
図18は、カード23aに記録されるデータの内容を具体的に示した図解図である。この図18を参照して、有名人のカード23aでは、名前(名称)、性別、身長、体重、年齢、誕生日、性格、趣味、コメント、職業、顔写真(顔画像)および体型(頭、手、足、腕の長さと太さ)のデータが記憶される。また、髪(髪型)のモデルIDと色IDと模様ID、鼻のモデルIDと大きさと位置、耳のモデルIDと大きさ、上着のモデルIDと色IDまたは模様ID、およびシャツのモデルIDと色IDと模様IDのデータが記憶される。さらに、ズボンのモデルIDと色IDと模様ID、パンツのモデルIDと色IDと模様ID、靴下のモデルIDと色IDと模様ID、靴のモデルIDと色IDと模様ID、およびアクセサリのモデルIDと色IDと模様IDのデータが記録される。
【0158】
ここで、髪、鼻、耳などの身体部位についてのIDおよび上着やシャツ等の服装やアクセサリについてのIDは、据置型ゲーム装置11のRAM11bに記憶されるタレント着せ替え用データ56を識別するための識別情報である。
【0159】
ゲームキャラクタやアニメキャラクタのカード23aにおいても上述と同様のデータが記憶されるが、動物を模したキャラクタでは、髪や服装(靴下、靴、アクセサリなども含む。)に変えて、体毛のモデルIDと色IDと模様IDなどが記憶される。
【0160】
ただし、ゲームキャラクタやアニメキャラクタのカード23aでは、当該キャラクタを用いたゲームに使用するためのデータがさらに記憶される。たとえば、当該キャラクタのカード23aでは、キャラクタの種族や能力のデータが記憶される。ここで、種族とは、ゲーム(アニメ)キャラクタの創作者等が設定したキャラクタの属性をいう。また、能力には、知力、体力、すばやさ、パワー、人気度などが含まれる。
【0161】
なお、図示は省略するが、カード23aの種類(有名人、ゲームキャラクタ、アニメキャラクタ等の別)を識別するための情報(カード番号)などもカード23aには記録される。
【0162】
また、第2実施例では、カード23aを用いたゲーム等のアプリケーションに汎用性を持たせるために、カード23aに上述したような画像データおよび画像特徴データを記憶するようにしてあるが、この画像データおよび画像特徴データは、据置型ゲーム装置11のROMのような内部メモリ(図示せず)或いは据置型ゲーム装置11にゲームプログラムや画像データ等を供給する外部記憶媒体13に記憶しておき、カード23aの識別情報(カード番号またはカードID)に対応して読み出し可能な構成としてもよい。この場合には、カード23aには、カード番号またはカードIDのみを記録するようにすればよい。
【0163】
さらに、第2実施例では、画像データおよび画像特徴データを分かり易く説明するために、記録領域231および記録領域232の2箇所に分けて記録するようにしてあるが、1箇所にまとめて記録するようにしてもよい。
【0164】
図17に戻って、携帯型ゲーム装置本体21のCPU21cは、インターフェース21hを介して、カードリーダ23にアクセスする。すなわち、CPU21cはROM23bに記憶されたプログラムとデータとを処理して、データ読取機23eで読み取られたデータに基づいて画像データおよび画像特徴データを生成する。具体的には、読み取られたデータはRAM23cに一旦保持され、CPU21cは、RAM23c或いはRAM21dを用いて、RAM23cに保持されたデータを画像データおよび画像特徴データに変換する。その後、変換(生成)した画像データおよび画像特徴データは、RAM23cに保存され、CPU21cの指示に従って読み出される。このように、カード23aから読み取ったデータを変換して、画像データおよび画像特徴データを生成するのは、画像合成装置としての据置型ゲーム装置11で処理可能とするためであり、すなわち、第1実施例に示したような撮像データや被写体特徴データと同じフォーマットにするためである。
【0165】
また、生成した画像データおよび画像特徴データをRAM23cに保存しておくので、カードリーダ23を他の携帯型ゲーム装置に接続して使用することもできる。
【0166】
なお、この第2実施例では、カード23aから読み取ったデータに基づいて画像データおよび画像特徴データを生成するが、以下においては、簡単のため、カード23aから読み取った画像データおよび画像特徴データと言う。
【0167】
また、据置型ゲーム装置11および携帯型ゲーム装置20の電気的な構成は、第1実施例と同じであるため、詳細な説明は省略する。
【0168】
図19はカードリーダ23に設けられるROM23bのメモリマップ80である。ROM23bは大きく分けてプログラム記憶領域81とデータ記憶領域82とから構成される。プログラム記憶領域81は、画像取得プログラム記憶領域81a、画像特徴データ取得プログラム記憶領域81bおよびデータ送信プログラム記憶領域81cを含む。
【0169】
画像取得プログラム記憶領域81aには、カード23aから画像データを読み取るためのプログラムが記憶される。また、画像特徴データ取得プログラム記憶領域81bには、カード23aから画像特徴データを読み取るためのプログラムが記憶される。データ送信プログラム記憶領域81cには、画像データと画像特徴データとを、据置型ゲーム装置11に送信するプログラムが記憶されている。
【0170】
データ記憶領域82は、カードリーダプログラム用画像データ記憶領域82aとカードリーダプログラム用サウンドデータ記憶領域82bとを含む。記憶領域82aは、カードリーダ23によってカード23aのデータを読み取る場合に、ユーザの操作を誘導するためのメッセージ表示画面などの画面(画像)データが記憶される。また、記憶領域82bには、カードリーダ23によってカード23aのデータを読み取る場合に、データの読取中であることを示す効果音、データの読取成功を示す報知音或いは読取失敗を示す警告音などの音のデータが記憶される。
【0171】
図示は省略するが、RAM23cには、画像データ記憶領域および画像特徴データ記憶領域が設けられる。
【0172】
画像データ記憶領域は、顔画像取得プログラム記憶領域81aに記憶されたプログラムによって、カードリーダ23で読み取られた画像データを記憶する領域である。
【0173】
また、画像特徴データ記憶領域は、画像特徴データ取得プログラム記憶領域81bに記憶されたプログラムによって、カードリーダ23で読み取られた画像特徴データを記憶する領域である。画像特徴データ記憶領域に記憶される画像特徴データは、対応する画像データ記憶領域に記憶される画像データと関連づけて記憶されている。
【0174】
図20は、第2実施例の据置型ゲーム装置11のRAM11bにおけるメモリマップ40である。この図20に示すメモリマップ40は、タレント編集プログラム43に特徴データ編集プログラム43hが追加された以外は、第1実施例のメモリマップ40と同じであるため、重複した説明は省略することにする。また、図面の都合上、図20においては、第1実施例で示したメモリマップ40と同じ内容についての詳細は省略してある。
【0175】
特徴データ編集プログラム43hは、カードリーダ23から受信した画像特徴データに基づいて、画像表示装置14に表示される有名人、ゲームキャラクタおよびアニメキャラクタ(以下、これらを「キャラクタ」という。)についての3次元のキャラクタ画像の体型、髪型、鼻、目および服装などを編集するプログラムである。
【0176】
具体的には、図21〜図27に示すフローチャートに従って据置型ゲーム装置11のCPU11aは処理を実行する。ただし、第2実施例では、カード23aから読み取った画像データおよび画像特徴データを取得するようにしてあるため、一部の処理(キャラ作成処理:図22参照)では、携帯型ゲーム装置20のCPU21cにおいても処理が実行される。
【0177】
図21に示すように、据置型ゲーム装置11のCPU11aはアプリケーションの全体処理を開始すると、ステップ81で、モードセレクト画面(図示せず)を画像表示装置14に表示する。図示は省略するが、このモードセレクト画面は、後述するキャラクタ(キャラ)作成処理、エディット(タレント編集)処理およびアニメーション表示処理のいずれか1つを選択するための画面である。
【0178】
続くステップ82で、操作者はモードをセレクトする。そして、ステップ83では、キャラ作成処理が選択されたかどうかを判断する。ここで、キャラ作成処理が選択されている場合には、ステップ84で、後述するカード23aによるキャラ作成処理(図22参照)を実行して、ステップ89に進む。
【0179】
一方、キャラ作成処理が選択されていなければ、ステップ85で、エディット処理が選択されたかどうかを判断する。ここで、エディット処理が選択されている場合には、ステップ86で、エディット処理(図23参照)を実行して、ステップ89に進む。
【0180】
もし、エディット処理が選択されていなければ、ステップ87で、アニメーション表示処理が選択されたかどうかを判断する。ここで、アニメーション表示処理も選択されていなければ、未だモードセレクトされていないと判断して、ステップ82に戻る。しかし、アニメーション表示処理が選択されていれば、ステップ88で、後述するアニメーション表示処理(図24および図25参照)を実行して、ステップ89に進む。
【0181】
ステップ89では、終了かどうかを判断する。つまり、操作者が当該アプリケーションの全体処理の終了を指示したかどうかを判断する。ここで、アプリケーションの全体処理の終了でなければ、そのままステップ81に戻るが、アプリケーションの全体処理の終了であれば、処理を終了する。
【0182】
図22は、カード23aによるキャラ作成処理(S84)のフローチャートである。このキャラ作成処理(S84)では、図22に示すように、据置型ゲーム装置11(CPU11a)と携帯型ゲーム装置20(CPU20c)とにおいて、それぞれ、処理が実行される。
【0183】
据置型ゲーム装置11のCPU11aは、キャラ作成処理を開始すると、ステップ91で、当該モードを抜けるかどうかを判断する。たとえば、操作者がコントローラ12または操作スイッチ21aを操作して、キャラ作成処理の終了を指示したかどうかを判断する。以下、操作者が操作する場合には、コントローラ12または操作スイッチ21aのいずれかを用いて操作することができる。ここで、当該モードを抜ける場合には、図示は省略するが、キャラ作成処理の終了指示を携帯型ゲーム装置20のCPU21cに送信した後に、キャラ作成処理をリターンする。しかし、当該モードを抜けない場合には、ステップ92において、図28に示すようなキャラ作成画面90を画像表示装置14に表示する。
【0184】
図28に示すように、キャラ作成画面90は、そのほぼ中央に、作成されたキャラクタ92が表示される。また、キャラ作成画面90の右上方には、顔画像表示部94が設けられる。この顔画像表示部94には、取り込んだ顔画像の縮小画像が表示される。さらに、キャラ作成画面90の左側には、キャラクタ92の原型となる複数の疑似3次元キャラクタ画像96が表示される。
【0185】
なお、このキャラ作成画面90は、第1実施例の状態図65および状態図66(図6参照)に相当し、キャラクタ92は第1実施例の顔画像を貼り付けたタレント65’に相当し、疑似3次元キャラクタ画像96は第1実施例のタレント65aや65bに相当する。ただし、第2実施例の疑似3次元キャラクタ画像96では、第1実施例のタレント65aや65bとは異なり、いずれも同じ体型(身体的特徴)で、髪、顔の部位(目、鼻、口等)および服等を身に付けていない人型のみが表示される。
【0186】
図22に戻って、続くステップ93では、データの受信指示があるかどうかを判断する。データの受信指示がない場合には、そのままステップ91に戻るが、データの受信指示がある場合には、ステップ93で、データの送信要求を携帯型ゲーム装置20のCPU21cに送信する。
【0187】
そして、ステップ95では、データを受信したかどうかを判断する。データを受信していない場合には、そのまま同じステップ95に戻って、データの受信を待機する。一方、データを受信した場合には、ステップ96で、キャラクタを追加する。つまり、受信データ記憶領域52に画像データおよび画像特徴データを記憶する。このとき、キャラ作成画面90の顔画像表示部94に、受信した画像データに基づく顔画像の縮小画像を表示する。
【0188】
続くステップ97では、操作者は顔画像を選択する。ステップ98では、キャラクタを作成する。つまり、画像データに基づく顔画像を疑似3次元キャラクタ画像96に貼り付ける。また、このとき、画像特徴データが編集され、疑似3次元キャラクタ画像96の形状(体型)、服装や髪型などが変化される。たとえば、画像特徴データに含まれる体型および性別に基づいて、疑似3次元キャラクタ画像96の形状(外形)が変化され、髪のモデルID等、服装(上着、シャツ、ズボン、パンツ、靴下、靴)のモデルID等やアクセサリのモデルID等に基づいて、変形した疑似3次元キャラクタ画像96に、髪、服、靴下、靴およびアクセサリなどのテクスチャを貼り付ける。そして、ステップ99で、操作者が選択した顔画像についてのキャラクタを登場させて、すなわちキャラクタ92をキャラ作成画面90に表示して、ステップ91に戻る。したがって、続けてデータを取り込むことができ、また、当該モードを抜けることもできる。
【0189】
また、図29に示すように、キャラ作成画面90において、顔画像表示部94に表示されるゲームキャラクタの顔画像が選択されると、ステップ98においては、当該顔画像に対応するキャラクタ92がキャラ作成画面90の中央に表示(登場)される。このとき、疑似3次元キャラクタ画像96の形状や服装(動物を模したキャラクタでは、皮膚や体毛の種類、模様等)等は、画像特徴データを編集することにより決定されるのは、上述のとおりである。
【0190】
つまり、キャラ作成処理(S84)においては、カード23aに記録される画像データおよび画像特徴データに基づく、デフォルトのキャラクタ92が作成され、画面表示される。
【0191】
一方、携帯型ゲーム装置20のCPU21cは、キャラ作成処理を開始すると、ステップ101で、データ読取機23eを能動化する。図示は省略するが、データ読取機23eが能動化されると、液晶表示画面21bにデータの読取が可能である旨のメッセージが表示される。続くステップ102で、操作者はカード23aをカードリーダ23(データ読取機23e)に通して、ステップ103で、データを読み取る。そして、ステップ104で、データの読取を成功したかどうかを判断する。ここで、データの読取に失敗した場合には、そのままステップ102に戻って、再度、操作者にカード23aをデータ読取機23eに通させる。ただし、データの読取に失敗した場合には、失敗したことを報知する警告メッセージや警告音或いはその両方を出力するようにしてもよい。
【0192】
一方、データの読取に成功した場合には、ステップ105で、据置型ゲーム装置11のCPU11aからデータの送信要求があるかどうかを判断する。ここで、データの送信要求がなければ、同じステップ105に戻って、データの送信要求があるのを待機する。一方、データの送信要求があれば、ステップ106で、今回読み取ったデータを据置型ゲーム装置11に送信する。
【0193】
なお、ステップ104で、データの読取を成功した場合には、そのままステップ105に進むようにしてあるが、読取成功を報知するためのメッセージまたは報知音或いはその両方を出力してからステップ105に進むようにしてもよい。
【0194】
また、この第2実施例では、画像データおよび画像特徴データは、それぞれ、異なる記録領域231および記録領域232に記憶されるため、ステップ102では、操作者は、記録領域231および記録領域232の両方を読み取るようにカード23aをカードリーダ23に通し、ステップ104においては、画像データおよび画像特徴データの両方の読取に成功したかどうかを判断しているのである。
【0195】
そして、ステップ107では、キャラ作成処理の終了かどうかを判断する。つまり、キャラ作成処理の終了指示が据置型ゲーム装置11のCPU11aから送信されたかどうかを判断する。ここで、キャラ作成処理の終了でなければ、次のカード23aのデータを読み取ると判断して、ステップ102に戻る。一方、キャラ作成処理の終了であれば、ステップ108で、データ読取機23eを不能化して、キャラ作成処理をリターンする。
【0196】
なお、この第2実施例では、1枚ずつカード23aを読み取り、その都度、画像データおよび画像特徴データを送信するようにしてあるが、複数枚のカード23aを読み取った後に、複数枚分の画像データおよび特徴データを一度に送信するようにしてもよい。
【0197】
図23はエディット処理(S86)を示すフローチャートである。このエディット処理(S86)では、作成したキャラクタの顔画像、髪や鼻などの身体部位或いはその位置、服装などを変更することができる。つまり、カード23aから取り込んだデータに基づく、デフォルトのキャラクタ92について編集することができるのである。したがって、たとえば、ゲームキャラクタの顔画像を有名人のキャラクタ92に貼り付けたり、ゲームキャラクタの頭部(頭髪)のような部位を有名人のキャラクタ92の当該部位に貼り付けたりするなどの編集が可能である。これにより、操作者は、独創的なキャラクタ92を作成することができるのである。
【0198】
具体的には、エディット処理(S86)を開始すると、図示は省略するが、作成されたキャラクタ92を選択するためのキャラ選択画面が画像表示装置14に表示される。このキャラ選択画面において、ステップ111で、操作者は所望のキャラクタ92を選択する。続くステップ112では、選択されたキャラクタ92を表示する。そして、ステップ113では、服装などの着せ替えするかどうかを判断する。ただし、ここでは、顔画像以外の身体の一部の部位を変更する場合も着せ替えに含まれる。
【0199】
ここで、着せ替えをする場合には、そのままステップ117に進が、着せ替えをしない場合には、ステップ114で、顔画像の貼り付けかどうかを判断する。顔画像の貼り付けない場合には、そのままステップ117に進む。一方、顔画像を貼り付ける場合には、ステップ115で、キャラクタに選択した顔画像を貼り付ける。つまり、選択したキャラクタ92に別の顔画像を貼り付けることができる。
【0200】
続くステップ116では、キャラクタ色調整処理を実行し、ステップ117では、その他の着せ替え処理を実行する。つまり、帽子を被せたり、服装を変更したり、身体部位を変更したりなどする。そして、ステップ118では、他のキャラクタ92の選択かどうかを判断する。ここで、他のキャラクタ92を選択する場合には、ステップ111に戻って、操作者はキャラクタ92を選択する。しかし、他のキャラクタ92を選択しない場合には、そのままエディット処理をリターンする。
【0201】
なお、第2実施例では、ステップ116で実行されるキャラクタ色調整処理は、第1実施例に示したタレント色調整処理39(図13参照)と同じであるため、詳細な説明は省略することにする。
【0202】
図24および図25は、アニメーション表示処理(S88)を示すフローチャートである。図24に示すように、アニメーション表示処理(S88)を開始すると、CPU11aは、ステップ121で、シチュエーションのセレクト画面(図示せず)を画像表示装置14に表示する。たとえば、この第2実施例では、シチュエーションのセレクト画面において、「学校」、「公園」または「ダンス」のいずれか1つを選択することができる。また、「戻る」を選択して、図21に示したアプリケーションの全体処理に戻ることもできる。
【0203】
続くステップ122では、操作者はシチュエーションをセレクト(選択)する。次のステップ123では、「学校」が選択されたかどうかを判断する。シチュエーションとして「学校」が選択された場合には、そのままステップ127に進む。しかし、「学校」が選択されていない場合には、ステップ124で、「公園」が選択されているかどうかを判断する。
【0204】
ここで、シチュエーションとして「公園」が選択された場合には、そのままステップ127に進む。しかし、「公園」が選択されていない場合には、ステップ125で、「ダンス」が選択されたかどうかを判断する。シチュエーションとして「ダンス」が選択された場合には、そのままステップ127に進む。しかし、「ダンス」が選択されていない場合には、ステップ126で、「戻る」が選択されたかどうかを判断する。つまり、図21に示した処理に戻るかどうかを判断する。
【0205】
ここで、「戻る」が選択されていない場合には、未だ操作者がシチュエーションを選択していないと判断して、そのままステップ122に戻る。しかし、「戻る」が選択されている場合には、そのままアニメーションの実行処理をリターンして、図21に示したアプリケーションの全体処理に戻る。
【0206】
ステップ127では、選択されたシチュエーションに応じたフラグ(シチュエーションフラグ)をオン(設定)する。たとえば、シチュエーションフラグは、シチュエーションの個数と同じ数のビット(第2実施例では、3ビット)を有するレジスタであり、各ビットには対応するシチュエーションが予め決定されている。該当するシチュエーションが選択されていないビットのデータ値は「0」であり、該当するシチュエーションが選択されるとビットのデータ値は「1」にされる。
【0207】
なお、図20においては図示を省略したが、シチュエーションフラグは、RAM11のデータ記憶領域51に記憶される。
【0208】
続くステップ128では、機能のセレクト画面(図示せず)を画像表示装置14に表示する。この機能のセレクト画面では、選択したシチュエーションに参加するキャスト(キャラクタ92)の設定(キャスト設定)を選択したり、アニメーションの実行を選択したりすることができる。次いで、ステップ129では、操作者は機能をセレクト(選択)する。そして、ステップ130で、「キャスト設定」が選択されたかどうかを判断する。ここで、「キャスト設定」が選択されていない場合には、そのまま図25に示すステップ132に進むが、「キャスト設定」が選択されている場合には、図25に示すステップ131で、図30に示すようなキャスト設定画面100を画像表示装置14に表示してから、ステップ132に進む。
【0209】
図30に示すキャスト設定画面100は、シチュエーションとして、「学校」が選択(設定)されている場合の画面である。このキャスト設定画面100は、キャストを設定するための設定画面102およびキャラクタ92を選択するためのキャラ選択画面104によって構成される。また、設定画面102の上部には、「GO」ボタン102aおよび「EXIT」ボタン102bが設けられる。
【0210】
このキャスト設定画面100では、キャラ選択画面104に、作成したキャラクタ92についての縮小した顔画像が表示され、キャストとしての先生役および生徒役をこのキャラ選択画面104から選択して、設定画面102に設定することができる。また、設定画面102の先生および生徒の配列は、アニメーションを実行した際の座席配置を表している。つまり、キャストを設定するとともに、座席配置も選択することができるのである。キャストを設定し、アニメーションを実行する場合には、操作者は、「GO」ボタン102aをオンする。一方、キャストの設定を中止(中断)して、シチュエーションのセレクト画面に戻りたい場合には、「EXIT」ボタン102bをオンする。
【0211】
図25に戻って、ステップ132では、キャスト設定画面100において、「GO」ボタン102aがオンされたかどうかを判断する。つまり、操作者がアニメーションの実行を指示したかどうかを判断する。「GO」ボタン102aがオンされた場合には、ステップ133で、当該シチュエーションに応じたアニメーション実行処理(図26,図27参照)を実行して、アニメーション表示処理をリターンする。
【0212】
しかし、「GO」ボタン102aがオンされていない場合には、ステップ134で、キャスト設定画面100において、「EXIT」ボタン102bがオンされたかどうかを判断する。つまり、操作者が機能のセレクト画面からの退出を指示したかどうかを判断する。ここで、「EXIT」ボタン102bがオンされていない場合には、キャストの設定が終了していないと判断して、ステップ132に戻る。しかし、「EXIT」ボタン102bがオンされた場合には、図24に示したステップ121に戻って、シチュエーションのセレクト画面を画像表示装置14に表示する。
【0213】
図26はシチュエーションとして「学校」が選択された場合のアニメーション実行処理(S133)を示すフローチャートである。図26に示すように、据置型ゲーム装置11のCPU11aが学校のアニメーション実行処理(S133)を開始すると、ステップ141で、当該シチュエーションに介入するかどうかを判断する。ここで、「介入」とは、たとえば、操作者に対応するキャラクタが当該シチュエーションにおける仮想空間の場面にカメラを持って侵入することをいう。また、介入する場合には、当該場面が、所定のルールに従って変更される。つまり、ステップ141では、操作者が介入の指示を入力したかどうかを判断する。ここで、介入しない場合には、そのままステップ149に進む。しかし、介入する場合には、ステップ142で、現在の場面が“授業中”であるかどうかを判断する。
【0214】
なお、場面の判断においては、後述する場面フラグに基づいて簡単に実行される。
【0215】
現在の場面が“授業中”である場合には、ステップ143で、“給食”の場面に変更(移行)して、ステップ147に進む。授業中の場面では、図31に示すような授業中のアニメーション表示画面110が画像表示装置14に表示され、この表示画面110においては、教室内の授業の様子がアニメーションで表示される。図31に示すように、授業中では、キャスト設定画面100で設定したキャストで、キャラクタ92a〜92gが配置される。キャラクタ92aは先生役であり、後述するステップ149の処理により、授業をしているアニメーションが実行される。他のキャラクタ92b〜92gは生徒役であり、キャスト設定画面100で設定された座席に座り、後述するステップ149の処理により、授業を受けているアニメーションが実行される。
【0216】
ここで、操作者が介入すると、図32に示すように、給食の準備をするアニメーション表示画面120が画像表示装置14に表示される。この表示画面120では、生徒役であるキャラクタ92b〜92gは、各自の机や椅子を移動させて、グループ単位で給食を食べるように、机の配置を並べ変えて、給食の準備に取りかかる。このアニメーションがステップ143で実行されるのである。
【0217】
図26に戻って、現在の場面が“授業中”でない場合には、ステップ144で、現在の場面が“給食中”であるかどうかを判断する。現在の場面が“給食中”であれば、ステップ145で、“掃除”の場面に移行して、ステップ147に進む。給食中の場面では、図33に示すような給食中のアニメーション表示画面130が画像表示装置14に表示される。この表示画面130では、教室内で給食を食べる様子のアニメーションが、後述するステップ149の処理により、先生役のキャラクタ92aおよび生徒役のキャラクタ92b〜92gのそれぞれで実行される。
【0218】
ここで、操作者が介入すると、図示は省略するが、給食の片づけをするアニメーションが実行された後、図34に示すような掃除の準備をするアニメーション表示画面140が画像表示装置14に表示される。この表示画面140では、生徒役のキャラクタ92b〜92gは、各自の机や椅子を教室の後部に移動して、掃除の準備に取りかかる。このアニメーションがステップ145で実行されるのである。
【0219】
図26に戻って、現在の場面が“給食中”でない場合には、現在の場面が“掃除中”であると判断して、ステップ146で、“授業”の場面に移行して、ステップ147に進む。掃除中の場面では、図35に示すような掃除中のアニメーション表示画面150が画像表示装置14に表示される。この表示画面150では、生徒役のキャラクタ92b〜92gは、それぞれの役割で掃除し、先生役のキャラクタ92aは、掃除の様子を見ている。このアニメーションが後述するステップ149で実行される。
【0220】
ここで、操作者が介入すると、図示は省略するが、生徒役のキャラクタ92b〜92gでは、掃除道具の片づけて、机を授業の場面の配列に戻すアニメーションが実行され、授業の場面に移行され、図31に示したような授業中のアニメーション表示画面110が画像表示装置14に表示されるのである。このアニメーションがステップ146で実行されるのである。
【0221】
ステップ147では、対応する場面のフラグ(場面フラグ)を設定(オン)する。ここで、場面フラグは、場面(授業中、給食中、掃除中)の個数に応じた数(第2実施例では、3個)のビットを有するレジスタで構成される。各ビットには、対応する場面が予め設定されており、場面が設定されていなければ、対応するビットのデータ値は「0」であり、場面が設定されると、対応するビットのデータ値は「1」にされる。
【0222】
なお、図20においては図示を省略したが、場面フラグは、RAM11のデータ記憶領域51に記憶される。
【0223】
続くステップ148では、カメラ介入処理を実行する。つまり、操作者に対応するキャラクタ(図示せず)が当該場面にカメラを持って侵入(介入)する。図示は省略するが、操作者に対応するキャラクタが場面に介入すると、操作者の操作に従うアングルや倍率で、当該場面内の映像を撮影することができ、その撮影した映像が画像表示装置14に表示される。そして、ステップ149では、全員のアニメーション処理を実行する。つまり、場面フラグに設定された場面において、登場するキャラクタの表情、身振り手振りおよび行動をアニメーションで表現する。
【0224】
たとえば、授業中では、図31に示したように、教室で授業が行われている様子を示すアニメーションが実行され、先生役のキャラクタ92aは、黒板に向かって字を書いたり、生徒役のキャラクタ92b〜92gを指差したりする。生徒役のキャラクタ92b〜92gは、授業を聞いたり、本を読んだりする。つまり、キャラクタ92a〜92gのそれぞれは、配役に予め割り当てられたアニメーションを実行する。ただし、同じ配役であっても、当該キャラクタ92の性格に応じたアニメーションが自動的に選択され、実行される点は、第1実施例の場合と同じである。
【0225】
また、操作者に対応するキャラクタが当該場面に介入している場合に、操作者の指示に従って所望のキャラクタ92a〜92gのいずれかを撮影すると、撮影されているキャラクタ(92a〜92g)は、カメラの方を向いたり、カメラに向かってジェスチャをしたりするアニメーションも実行される。
【0226】
そして、ステップ150では、学校のアニメーション実行処理を終了するかどうかを判断する。つまり、操作者が終了の指示を入力したかどうかを判断する。ここで、終了しない場合には、そのままステップ141に戻るが、終了する場合には、学校のアニメーション実行処理をリターンする。
【0227】
図27はシチュエーションとして「公園」が選択された場合のアニメーション実行処理(S133)を示すフローチャートである。この公園のアニメーション実行処理は、上述した学校のアニメーション実行処理とほぼ同じであるため、重複する内容については、簡単に説明することにする。図27に示すように、据置型ゲーム装置11のCPU11aが公園のアニメーション実行処理(S133)を開始すると、ステップ161で、当該シチュエーションに介入するかどうかを判断する。つまり、操作者が介入の指示を入力したかどうかを判断する。
【0228】
ここで、介入しない場合には、そのままステップ171に進む。しかし、介入する場合には、ステップ162で、当該シチュエーションにおける現在の場面が“春”であるかどうかを判断する。この季節の判断は、後述する季節フラグに基づいて実行される。
【0229】
現在の場面が“春”である場合には、ステップ163で、“夏”の場面に移行して、ステップ169に進む。たとえば、春の場面では、図36に示すような春のアニメーション表示画面160が画像表示装置14に表示され、たとえば、公園で長縄跳びをする様子やその様子を見る様子がアニメーションで表示される。キャラクタ92h、92i、92、92k、92m、92n、92pおよび92qが、それぞれ、配役に従ったアニメーションを実行するのは、シチュエーションが学校の場合と同様である。このアニメーションは後述するステップ171で実行される。図示は省略するが、公園のシチュエーションにおけるキャスト設定画面では、学年、年齢や遊びの集団におけるリーダ等が設定される。また、キャラクタ92h、92i、92、92k、92m、92n、92pおよび92qでは、設定されたキャスト(配役)に応じたアニメーションが実行され、さらに、各キャラクタの性格に応じたアニメーションが自動的に選択され、実行される点も学校のシチュエーションが設定された場合と同じである。
【0230】
ここで、操作者が介入すると、図示は省略するが、夏の場面に移行される。たとえば、背景に入道雲が表示されたり、樹木に留まっているセミが表示されたりする。このような背景等が変化する様子のアニメーションがステップ163で実行されるのである。また、この夏の場面おいては、キャラクタ92h、92i、92j、92k、92m、92n、92pおよび92qでは、セミを網で採ったり、公園に設置される噴水などの水を掛け合って遊んだりするアニメーションが後述するステップ171で実行される。
【0231】
図27に戻って、現在の場面が“春”でない場合には、ステップ164で、現在の場面が“夏”であるかどうかを判断する。ここで、現在の場面が“夏”である場合には、ステップ165で、“秋”の場面に移行して、ステップ169に進む。
【0232】
上述したような夏の場面において、操作者が介入すると、図37に示すような秋のアニメーション表示画面170が画像表示装置14に表示される。図面では表現することはできないが、秋の場面に移行する場合には、たとえば、背景が夕焼けの空で表示され、樹木が紅く色づいているように変更される。このアニメーションがステップ165で実行されるのである。また、図37に示す表示画面170では、たとえば、胴上げをする様子のアニメーションが実行される。たとえば、キャラクタ92jが宙に舞っており、他のキャラクタ92h、92i、92k、92m、92n、92pおよび92qがキャラクタ92jを胴上げしている。
【0233】
図27に戻って、現在の場面が“夏”でない場合には、ステップ166で、現在の場面が“秋”かどうかを判断する。現在の場面が“秋”でなければ、現在の場面が“冬”であると判断して、ステップ168で、“春”の場面に移行して、ステップ169に進む。しかし、現在の場面が“秋”であれば、ステップ167で、“冬”の場面に移行して、ステップ169に進む。
【0234】
つまり、図37に示したような秋の場面が表示されているときに、操作者が介入すると、図示は省略するが、冬の場面に移行され、たとえば、背景の樹木の葉がすべて落ちていて、雪が降る様子が示される。このアニメーションがステップ167で実行されるのである。また、キャラクタ92h、92i、92j、92k、92m、92n、92pおよび92qは、たとえば、雪合戦をする様子のアニメーションが後述するステップ171で実行される。この冬の場面において、操作者が介入すると、図36に示したような春の場面に移行される。
【0235】
図27に戻って、ステップ169では、対応する現在の季節のフラグ(季節フラグ)を設定(オン)する。図示は省略するが、季節フラグは上述の場面フラグと同様であり、四季に応じた個数のビット(4ビット)を有するレジスタで構成される。各ビットには、対応する季節(時期)が予め設定され、現在の場面に設定されていない季節に対応するビットのデータ値は「0」であり、現在の場面に設定された季節に対応するビットのデータ値は「1」である。
【0236】
なお、図20においては図示を省略したが、季節フラグは、RAM11のデータ記憶領域51に記憶される。
【0237】
続くステップ170では、カメラ介入処理を実行し、ステップ171では、全員のアニメーション処理を実行する。つまり、季節フラグに設定された季節において、登場するキャラクタの表情、身振り手振りおよび行動をアニメーションで表現する。たとえば、図36に示したように、季節が春であれば、その季節に対応する公園の風景(景色)が表示されるとともに、公園で複数のキャラクタが長縄跳びするアニメーションやその長縄跳びの様子を見るキャラクタのアニメーションなどが実行される。
【0238】
なお、上述したように、操作者が場面に介入した場合に、操作者が所望のキャラクタを撮影すると、撮影されたキャラクタはカメラの方を向くなどのアニメーションも実行される。
【0239】
そして、ステップ172では、公園のアニメーション実行処理を終了するかどうかを判断する。つまり、操作者が終了指示を入力したかどうかを判断する。ここで、終了しない場合には、そのままステップ161に戻る。一方、終了する場合には、公園のアニメーション実行処理をリターンする。
【0240】
なお、ダンスのアニメーション実行処理についての詳細な説明は省略するが、上述の「公園」或いは「学校」のアニメーションの実行処理と同様である。また、このダンスのアニメーション実行処理については、第1実施例において、簡単に説明してある。
【0241】
第2実施例によれば、カードから得られた画像データおよび画像特徴データに基づいてキャラクタを作成することができ、作成したキャラクタに様々なシチュエーションにおけるアニメーションを実行させることができる。つまり、様々な有名人、ゲームキャラクタおよびアニメキャラクタについてのカードを用意することにより、様々なキャラクタの動く様子を楽しむことができ、画像処理の趣向性を向上させることができる。
【0242】
また、カードから読み取ったデータに基づく、デフォルトのキャラクタを編集して、独創的なキャラクタに編集することができるので、操作者の関心を向けることができる。
【0243】
なお、第2実施例では、3つのシチュエーションを選択できるようにしてあるが、シチュエーションは少なくとも1つ用意されていればよく、また、4つ以上用意されていてもよい。
【0244】
また、第2実施例では、カード23aから読み取ったデータに基づいてキャラクタを作成する場合についてのみ説明したが、第1実施例に示したように、撮像データおよび被写体特徴データに基づいて作成したキャラクタを追加するようにしてもよい。
【図面の簡単な説明】
【図1】本発明にかかる画像処理システムの一例を示す概観図である。
【図2】図1実施例の画像処理システムの内部ブロック図である。
【図3】図1実施例の携帯型ゲーム装置のメモリマップである。
【図4】図1実施例の据置型ゲーム装置のメモリマップである。
【図5】図1実施例の携帯型ゲーム装置を使用して、撮影指標を表示しながら撮影を行う場面と、被写体データの入力を解説する図である。
【図6】図1実施例の据置型ゲーム装置で画像を使用したいタレント画像に顔の画像を貼り付けるまでの処理の概略図である。
【図7】図1実施例の本システムの概念図と、アニメーションの概略図である。
【図8】貼り付けた顔画像とポリゴンの色を調整する処理の概略図である。
【図9】図1実施例の携帯型ゲーム装置の処理の一部を示すフローチャートである。
【図10】図1実施例の携帯型ゲーム装置の処理の他の一部を示すフローチャートである。
【図11】図1実施例の据置型ゲーム装置の処理の一部を示すフローチャートである。
【図12】図1実施例の据置型ゲーム装置の処理の他の一部を示すフローチャートである。
【図13】図1実施例の据置型ゲーム装置における色調整処理のフローチャートである。
【図14】図1実施例の携帯型ゲーム装置と据置型ゲーム装置のデータ送受信に関するフローチャートである。
【図15】図1に示す画像処理システムの変形例を示す概観図である。
【図16】この発明の画像処理システムの他の一例を示す概観図である。
【図17】図16に示す画像処理システムの内部ブロック図である。
【図18】図16実施例に示すカードに記録されるデータの内容を示す図解図である。
【図19】携帯型ゲーム装置のメモリマップである。
【図20】据置型ゲーム装置のメモリマップである。
【図21】図16実施例に示す据置型ゲーム装置のアプリケーションの全体処理を示すフローチャートである。
【図22】図16実施例に示す据置型ゲーム装置および携帯型ゲーム装置のキャラ作成処理を示すフローチャートである。
【図23】図16に示す据置型ゲーム装置のエディット処理を示すフローチャートである。
【図24】図16実施例に示す据置型ゲーム装置のアニメーション処理の一部を示すフローチャートである。
【図25】図16実施例に示す据置型ゲーム装置のアニメーション処理の他の一部を示すフローチャートである。
【図26】図16実施例に示す据置型ゲーム装置の公園のアニメーションの実行処理を示すフローチャートである。
【図27】図16実施例に示す据置型ゲーム装置の学校のアニメーションの実行処理を示すフローチャートである。
【図28】キャラクタ作成画面の一例を示す図解図である。
【図29】キャラクタ作成画面の他の一例を示す図解図である。
【図30】キャスト設定画面の一例を示す図解図である。
【図31】学校における授業中のアニメーション表示画面の一例を示す図解図である。
【図32】学校における給食の準備をするアニメーション表示画面の一例を示す図解図である。
【図33】学校における給食中のアニメーション表示画面の一例を示す図解図である。
【図34】学校における掃除の準備をするアニメーション表示画面の一例を示す図解図である。
【図35】学校における掃除中のアニメーション表示画面の一例を示す図解図である。
【図36】公園における春のアニメーション表示画面の一例を示す図解図である。
【図37】公園における秋のアニメーション表示画面の一例を示す図解図である。
【符号の説明】
10 …画像処理システム
11 …据置型ゲーム装置
12 …コントローラ
13 …据置型ゲーム装置用外部記憶媒体
14 …画面表示装置
20 …携帯型ゲーム装置
20’ …カメラ付携帯電話機
21a …操作スイッチ
21b …液晶表示画面
22a …撮像部
22’ …撮像装置
23 …カードリーダ
23a …カード
62a,62b,62c,62d…撮影指標
Claims (15)
- 顔画像データ提供装置と、顔画像データ提供装置とは分離して設けられ、顔画像提供機能を持たない画像合成装置とからなる画像処理システムであって、
前記顔画像データ提供装置は、
顔画像データを取得する顔画像データ取得手段、
前記顔画像データに対応し、顔画像に関連する特徴データを取得する特徴データ取得手段、および
前記顔画像データと前記特徴データとを前記画像合成装置に送信するデータ送信手段を備え、
前記画像合成装置は、
前記データ送信手段によって送信されたデータを受信して記憶するデータ受信記憶手段、
少なくとも1つの疑似3次元キャラクタ画像を生成するためのポリゴンデータを記憶するキャラクタポリゴンデータ記憶手段、
前記特徴データと前記キャラクタポリゴンデータ記憶手段に記憶されたポリゴンデータとに基づいてキャラクタポリゴンデータを生成し、前記顔画像データをキャラクタポリゴンの顔テクスチャとするキャラクタポリゴン画像を合成する画像合成処理手段、および
前記画像合成処理手段によって合成された画像を表示する第1表示手段を備える、画像処理システム。 - 前記顔画像データ取得手段は、被写体の顔画像を撮影して顔画像データを生成する撮像手段を含み、
前記特徴データ取得手段は、前記撮像データに対応した顔画像に関連する特徴データを入力する特徴データ入力手段を含む、請求項1記載の画像処理システム。 - 前記顔画像データ提供装置は、少なくとも撮影中の顔画像を表示する第2表示手段、および顔画像を撮影するとき前記第2表示手段に被写体の顔画像を所望の位置に合わせる撮影指標を表示する撮影指標データ表示手段をさらに備える、請求項2記載の画像処理システム。
- 前記顔画像データ提供装置は、外部記憶媒体に記憶されたデータを読み取り可能なデータ読取手段、および前記データ読取手段によって読み取られたデータに基づいて顔画像データおよび特徴データを生成するデータ生成手段をさらに備え、
前記顔画像データ取得手段は、前記生成手段によって生成された顔画像データを取得し、前記特徴データ記憶手段は、前記生成手段によって生成された特徴データを取得する、請求項1に記載の画像処理システム。 - 前記画像合成装置は、前記疑似3次元キャラクタ画像を合成した後、前記特徴データに応じて少なくとも一種類の中から任意のアニメーションデータを自動選択するアニメーション自動選択手段、および前記選択されたアニメーションデータと合成された前記疑似3次元キャラクタ画像とを使用してアニメーションを表示するアニメーション表示手段をさらに備える、請求項1ないし4のいずれかに記載の画像処理システム。
- 撮像機能を有する携帯型画像処理装置と、携帯型画像処理装置とは分離して設けられ、撮像機能を持たない画像合成装置とからなる画像処理システムであって、
前記携帯型画像処理装置は、
被写体を撮影して撮像データを生成する撮像手段、
前記撮像データに対応した被写体の特徴を表す被写体特徴データを入力する被写体特徴データ入力手段、および
前記撮像手段によって生成された撮像データと前記被写体特徴データ入力手段によって入力された被写体データとを前記画像合成装置に送信するデータ送信手段を備え、
前記画像合成装置は、
前記データ送信手段から送信されたデータを受信記憶するデータ受信記憶手段、
少なくとも1つの疑似3次元キャラクタ画像を生成するためのポリゴンデータを記憶するキャラクタポリゴンデータ記憶手段、
操作者に前記少なくとも1つの疑似3次元キャラクタ画像を合成するためのポリゴンデータを選択させるキャラクタ選択手段、
前記被写体特徴データを使用して、前記キャラクタ選択手段によって選択されたポリゴンデータを加工し、加工されたポリゴンデータと前記撮像データとを使用して疑似3次元キャラクタ画像を合成する画像合成処理手段、および
前記画像合成処理手段によって合成された画像を表示する第1表示手段を備える、画像処理システム。 - 前記画像合成処理手段は、前記ポリゴンデータから生成される疑似3次元キャラクタ画像の一部に前記顔画像データを貼り付け処理して画像合成し、
前記画像合成装置は、
前記疑似3次元キャラクタ画像を合成するときに、前記顔画像データが貼り付け処理される範囲において、前記疑似3次元キャラクタを構成する少なくとも1つの部位の形状を表すポリゴンデータを、少なくとも1つの中から操作者に選択させる部位ポリゴンデータ選択手段、
前記部位ポリゴンデータ選択手段によって選択された部位ポリゴンデータを、前記撮像データが貼り付け処理される範囲において、前記疑似3次元キャラクタ画像のどの位置に配置して画像を合成するかを操作者に指示させる部位ポリゴン配置手段、および
前記撮像データが貼り付けられない部分における前記疑似3次元キャラクタ画像の少なくとも1つの色データを、前記部位ポリゴンデータが配置される範囲の撮像データから抽出して決めるキャラクタ色抽出手段をさらに備える、請求項6記載の画像処理システム。 - 顔画像データを取得する顔画像データ取得手段、前記顔画像データに対応し、顔画像に関連する特徴データを取得する特徴データ取得手段、および前記顔画像データと前記特徴データとを前記画像合成装置に送信するデータ送信手段を備える顔画像データ提供装置に接続可能な画像合成装置に実行させる画像合成処理プログラムであって、
前記画像合成装置は、少なくとも、
前記顔画像データ提供装置から送信されたデータを受信して記憶するデータ受信記憶手段、
少なくとも1つの疑似3次元キャラクタ画像を生成するためのポリゴンデータを記憶するキャラクタポリゴンデータ記憶手段、および
合成された画像を表示する合成画像表示手段を備え、
前記画像処理プログラムは、前記画像合成装置に、
少なくとも1つの疑似3次元キャラクタ画像を生成するためのポリゴンデータを操作者に選択させるキャラクタ選択ステップ、
前記特徴データを使用して、前記キャラクタ選択ステップによって選択されたポリゴンデータを加工するポリゴンデータ加工ステップ、および
前記ポリゴンデータ加工ステップで加工されたポリゴンデータと前記顔画像データとを使用して疑似3次元キャラクタ画像を合成する疑似3次元キャラクタ画像合成ステップを実行させる、画像処理プログラム。 - 前記疑似3次元キャラクタ画像を合成した後、前記特徴データに応じて、少なくとも一種類の中から任意のアニメーションデータを自動選択するアニメーション自動選択ステップ、および
前記選択されたアニメーションデータと前記合成された疑似3次元キャラクタ画像とを使用してアニメーションを表示するアニメーション表示ステップをさらに実行させる、請求項8記載の画像処理プログラム。 - 被写体を撮影して撮像データを生成する撮像手段、撮像データに対応した被写体の特徴を表す被写体特徴データを入力する被写体特徴データ入力手段、および撮像データと被写体特徴データとを送信するための送信手段を備える画像処理装置に接続可能な画像合成装置に実行させる画像処理プログラムであって、
前記画像合成装置は、少なくとも、
前記画像処理装置から送信されたデータを受信して記憶するデータ受信記憶手段、
少なくとも1つの疑似3次元キャラクタ画像を生成するためのポリゴンデータを記憶するキャラクタポリゴンデータ記憶手段、および
合成された画像を表示する合成画像表示手段を備え、
前記画像処理プログラムは、前記画像合成装置に、
少なくとも1つの疑似3次元キャラクタ画像を生成するためのポリゴンデータを操作者に選択させるキャラクタ選択ステップ、
前記被写体特徴データを使用して、前記キャラクタ選択ステップによって選択されたポリゴンデータを加工するポリゴンデータ加工ステップ、および
前記ポリゴンデータ加工ステップで加工されたポリゴンデータと前記撮像データとを使用して疑似3次元キャラクタ画像を合成する疑似3次元キャラクタ画像合成ステップを実行させる、画像処理プログラム。 - 前記疑似3次元キャラクタ画像を合成した後、前記被写体特徴データに応じて、少なくとも一種類の中から任意のアニメーションデータを自動選択するアニメーション自動選択ステップ、および
前記選択されたアニメーションデータと前記合成された疑似3次元キャラクタ画像とを使用してアニメーションを表示するアニメーション表示ステップをさらに実行させる、請求項10記載の画像処理プログラム。 - 前記画像合成ステップは、
前記ポリゴンデータから生成される疑似3次元キャラクタ画像の一部に前記撮像データを貼り付け処理する撮像データ貼り付けステップ、
前記撮像データが貼り付け処理される範囲において、前記疑似3次元キャラクタを構成する少なくとも1つの部位の形状を表すポリゴンデータを、少なくとも1つの中から操作者に選択させる部位ポリゴンデータ選択ステップ、
前記部位ポリゴンデータ選択ステップによって選択された部位ポリゴンデータを、前記撮像データが貼り付け処理される範囲において、前記疑似3次元キャラクタ画像のどの位置に配置して画像を合成するかを操作者に指示させる部位ポリゴン配置ステップ、および
前記撮像データが貼り付けられない部分における前記疑似3次元キャラクタ画像の少なくとも1つの色データを、前記部位ポリゴンデータが配置される範囲の撮像データから抽出して決めるキャラクタ色抽出ステップを含む、請求項10または11記載の画像処理プログラム。 - 少なくとも画像合成装置にデータを送信するデータ送信手段を備える携帯型ゲーム装置に着脱可能に設けられる外部記録装置であって、
顔画像データを取得する顔画像取得手段、
前記顔画像データに対応し、顔画像に関連する特徴データを取得する特徴データ取得手段、および
前記顔画像データと前記特徴データとを関連づけて記憶するデータ記憶手段を備える、外部記録装置。 - 少なくとも、操作者による撮影指示に応じて撮影処理を実行する撮影処理手段、前記撮影処理手段による撮影処理の実行中に少なくとも被写体の画像を表示する画像表示手段、および前記撮影処理手段による撮影処理の結果得られた撮像データに対応する被写体の特徴を表す被写体特徴データを入力する被写体特徴データ入力手段を備える携帯型ゲーム装置に着脱可能に設けられる外部記憶装置であって、
被写体を撮影して撮像データを生成する撮像手段、および
前記撮像手段によって生成された撮像データと前記被写体特徴データ入力手段によって入力された被写体特徴データとを関連づけて記憶するデータ記憶手段を備える、外部記憶装置。 - 前記撮影処理を実行するための撮影処理実行プログラム、および前記撮影処理の実行中に所望の位置に被写体の画像を合わせる撮影指標を前記画像表示に表示するための撮影指標表示プログラムを記憶するプログラム記憶手段をさらに備える、請求項14記載の外部記憶装置。
Priority Applications (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2003098829A JP2004046793A (ja) | 2002-05-17 | 2003-04-02 | 画像処理システム |
EP03253104A EP1365360B1 (en) | 2002-05-17 | 2003-05-19 | Image processing system and method |
DE60302931T DE60302931T2 (de) | 2002-05-17 | 2003-05-19 | Bildverarbeitungssystem und -methode |
US10/440,128 US6970177B2 (en) | 2002-05-17 | 2003-05-19 | Image processing system |
US10/912,047 US7713129B2 (en) | 2002-05-17 | 2004-08-06 | Image processing system |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2002142476 | 2002-05-17 | ||
JP2003098829A JP2004046793A (ja) | 2002-05-17 | 2003-04-02 | 画像処理システム |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2004046793A true JP2004046793A (ja) | 2004-02-12 |
Family
ID=29405339
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2003098829A Withdrawn JP2004046793A (ja) | 2002-05-17 | 2003-04-02 | 画像処理システム |
Country Status (4)
Country | Link |
---|---|
US (2) | US6970177B2 (ja) |
EP (1) | EP1365360B1 (ja) |
JP (1) | JP2004046793A (ja) |
DE (1) | DE60302931T2 (ja) |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2005105238A1 (ja) * | 2004-05-02 | 2005-11-10 | Sega Corporation | ゲームシステム |
JP2007034992A (ja) * | 2005-07-29 | 2007-02-08 | Sharp Corp | 画像生成装置、ゲーム装置、画像生成方法、画像生成プログラムおよび可読記録媒体 |
US7420594B2 (en) | 2004-03-30 | 2008-09-02 | Nintendo Co., Ltd. | Image processing apparatus with image sensing capability and storage medium storing an image processing program |
JP2010267241A (ja) * | 2008-10-17 | 2010-11-25 | Square Enix Co Ltd | 3次元モデル表示システム |
CN101607139B (zh) * | 2004-05-02 | 2012-11-07 | 世嘉股份有限公司 | 游戏系统 |
JP2012252516A (ja) * | 2011-06-02 | 2012-12-20 | Nintendo Co Ltd | ゲームシステム、ゲーム装置、ゲームプログラム、および画像生成方法 |
US8941642B2 (en) | 2008-10-17 | 2015-01-27 | Kabushiki Kaisha Square Enix | System for the creation and editing of three dimensional models |
JP2020021328A (ja) * | 2018-08-01 | 2020-02-06 | 彦坂 陽子 | 塗り絵装置およびプログラム |
Families Citing this family (40)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8817045B2 (en) * | 2000-11-06 | 2014-08-26 | Nant Holdings Ip, Llc | Interactivity via mobile image recognition |
US8037150B2 (en) | 2002-11-21 | 2011-10-11 | Aol Inc. | System and methods for providing multiple personas in a communications environment |
US7636755B2 (en) | 2002-11-21 | 2009-12-22 | Aol Llc | Multiple avatar personalities |
US7908554B1 (en) | 2003-03-03 | 2011-03-15 | Aol Inc. | Modifying avatar behavior based on user action or mood |
US20040179037A1 (en) * | 2003-03-03 | 2004-09-16 | Blattner Patrick D. | Using avatars to communicate context out-of-band |
US8012003B2 (en) * | 2003-04-10 | 2011-09-06 | Nintendo Co., Ltd. | Baseball videogame having pitching meter, hero mode and user customization features |
US7285047B2 (en) * | 2003-10-17 | 2007-10-23 | Hewlett-Packard Development Company, L.P. | Method and system for real-time rendering within a gaming environment |
JP3648535B1 (ja) | 2004-03-31 | 2005-05-18 | コナミ株式会社 | ゲーム装置、コンピュータの制御方法及びプログラム |
US20060187193A1 (en) * | 2005-02-22 | 2006-08-24 | Esquilin Eileen C | System and method for generating a virtual reality presentation |
KR100682455B1 (ko) * | 2005-03-17 | 2007-02-15 | 엔에이치엔(주) | 게임 스크랩 시스템, 게임 스크랩 방법 및 상기 방법을실행시키기 위한 프로그램을 기록한 컴퓨터 판독 가능한기록매체 |
US8963926B2 (en) * | 2006-07-11 | 2015-02-24 | Pandoodle Corporation | User customized animated video and method for making the same |
WO2007016596A2 (en) * | 2005-07-29 | 2007-02-08 | Pamela Barber | Digital imaging method and apparatus |
WO2007027738A2 (en) * | 2005-08-29 | 2007-03-08 | Evryx Technologies, Inc. | Interactivity via mobile image recognition |
CA2622744C (en) * | 2005-09-16 | 2014-09-16 | Flixor, Inc. | Personalizing a video |
US20070171237A1 (en) * | 2006-01-25 | 2007-07-26 | Marco Pinter | System for superimposing a face image on a body image |
US8144266B2 (en) * | 2007-02-27 | 2012-03-27 | Sony Corporation | Module system for permitting storage device interface with TV |
US20090049470A1 (en) * | 2007-08-13 | 2009-02-19 | Gal Peer | Method and device for interactive operation of television |
US9536344B1 (en) | 2007-11-30 | 2017-01-03 | Roblox Corporation | Automatic decoration of a three-dimensional model |
US20090310187A1 (en) * | 2008-06-12 | 2009-12-17 | Harris Scott C | Face Simulation in Networking |
US9901829B2 (en) * | 2008-07-15 | 2018-02-27 | Pamela Barber | Digital imaging method and apparatus |
US8683354B2 (en) | 2008-10-16 | 2014-03-25 | At&T Intellectual Property I, L.P. | System and method for distributing an avatar |
US9412126B2 (en) | 2008-11-06 | 2016-08-09 | At&T Intellectual Property I, Lp | System and method for commercializing avatars |
US8057290B2 (en) * | 2008-12-15 | 2011-11-15 | Disney Enterprises, Inc. | Dance ring video game |
JP2010142592A (ja) * | 2008-12-22 | 2010-07-01 | Nintendo Co Ltd | ゲームプログラムおよびゲーム装置 |
US8176442B2 (en) * | 2009-05-29 | 2012-05-08 | Microsoft Corporation | Living cursor control mechanics |
US20110066003A1 (en) * | 2009-09-16 | 2011-03-17 | Duffy Charles J | Method and system for quantitative assessment of facial emotion nulling |
US20110065076A1 (en) * | 2009-09-16 | 2011-03-17 | Duffy Charles J | Method and system for quantitative assessment of social cues sensitivity |
US8777630B2 (en) * | 2009-09-16 | 2014-07-15 | Cerebral Assessment Systems, Inc. | Method and system for quantitative assessment of facial emotion sensitivity |
US20110065078A1 (en) * | 2009-09-16 | 2011-03-17 | Duffy Charles J | Method and system for quantitative assessment of social interactions nulling testing |
JP5738569B2 (ja) * | 2010-10-15 | 2015-06-24 | 任天堂株式会社 | 画像処理プログラム、装置、システムおよび方法 |
JP5829040B2 (ja) | 2011-04-11 | 2015-12-09 | 任天堂株式会社 | ゲームシステム、ゲーム装置、ゲームプログラム、および画像生成方法 |
JP5808985B2 (ja) * | 2011-09-05 | 2015-11-10 | 任天堂株式会社 | 情報処理プログラム、情報処理装置、情報処理システムおよび情報処理方法 |
JP6534198B2 (ja) * | 2012-05-31 | 2019-06-26 | 任天堂株式会社 | ゲームシステム、ゲーム処理方法、ゲーム装置およびゲームプログラム |
US9277218B2 (en) * | 2013-01-22 | 2016-03-01 | Vixs Systems, Inc. | Video processor with lossy and lossless frame buffer compression and methods for use therewith |
WO2015031886A1 (en) * | 2013-09-02 | 2015-03-05 | Thankavel Suresh T | Ar-book |
USD818497S1 (en) * | 2015-01-06 | 2018-05-22 | King.Com Limited | Display screen with icon |
CN105641934B (zh) * | 2015-12-25 | 2019-05-14 | 北京像素软件科技股份有限公司 | 一种同一账号内玩家角色实时切换的方法及装置 |
CN107613207A (zh) * | 2017-09-29 | 2018-01-19 | 努比亚技术有限公司 | 一种拍照控制方法、设备及计算机可读存储介质 |
US10870056B2 (en) * | 2017-11-01 | 2020-12-22 | Sony Interactive Entertainment Inc. | Emoji-based communications derived from facial features during game play |
US11232617B2 (en) * | 2018-01-11 | 2022-01-25 | Pamela L. Barber | Digital imaging method and apparatus |
Family Cites Families (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5600767A (en) * | 1994-02-25 | 1997-02-04 | Casio Computer Co., Ltd. | Image creation device |
US5649086A (en) * | 1995-03-08 | 1997-07-15 | Nfx Corporation | System and method for parameter-based image synthesis using hierarchical networks |
JPH1133230A (ja) * | 1997-07-16 | 1999-02-09 | Sega Enterp Ltd | 通信ゲームシステム |
JPH11144040A (ja) * | 1997-11-05 | 1999-05-28 | Nintendo Co Ltd | 携帯形ゲーム機および携帯形ゲーム機用カートリッジ |
JPH11154240A (ja) * | 1997-11-20 | 1999-06-08 | Nintendo Co Ltd | 取込み画像を用いて画像を作成するための画像作成装置 |
CA2273188A1 (en) * | 1999-05-28 | 2000-11-28 | Interquest Inc. | Method and apparatus for encoding/decoding image data |
JP2000099738A (ja) | 1998-09-28 | 2000-04-07 | Sony Corp | 情報記録装置および方法、計測装置および方法、画像処理装置および方法、画像処理システム、並びに提供媒体 |
US6459441B1 (en) | 1999-03-03 | 2002-10-01 | Dassault Systemes | Software interface |
JP2001101440A (ja) * | 1999-09-29 | 2001-04-13 | Sega Corp | アニメーションデータを記録した記録媒体、それを利用した画像処理方法及び画像処理プログラムを記録した記録媒体 |
US6811492B1 (en) * | 2000-03-20 | 2004-11-02 | Nintendo Co., Ltd. | Video game machine using digital camera and digital camera accessory for video game machine |
US6894686B2 (en) * | 2000-05-16 | 2005-05-17 | Nintendo Co., Ltd. | System and method for automatically editing captured images for inclusion into 3D video game play |
US6664956B1 (en) * | 2000-10-12 | 2003-12-16 | Momentum Bilgisayar, Yazilim, Danismanlik, Ticaret A. S. | Method for generating a personalized 3-D face model |
JP2002159739A (ja) * | 2000-11-27 | 2002-06-04 | Casio Comput Co Ltd | 電子ゲームシステム、電子ゲーム装置、および記録媒体 |
-
2003
- 2003-04-02 JP JP2003098829A patent/JP2004046793A/ja not_active Withdrawn
- 2003-05-19 DE DE60302931T patent/DE60302931T2/de not_active Expired - Lifetime
- 2003-05-19 US US10/440,128 patent/US6970177B2/en not_active Expired - Lifetime
- 2003-05-19 EP EP03253104A patent/EP1365360B1/en not_active Expired - Lifetime
-
2004
- 2004-08-06 US US10/912,047 patent/US7713129B2/en active Active
Cited By (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7420594B2 (en) | 2004-03-30 | 2008-09-02 | Nintendo Co., Ltd. | Image processing apparatus with image sensing capability and storage medium storing an image processing program |
CN101607139B (zh) * | 2004-05-02 | 2012-11-07 | 世嘉股份有限公司 | 游戏系统 |
KR100760739B1 (ko) * | 2004-05-02 | 2007-09-21 | 가부시키가이샤 세가 | 게임 시스템, 게임 시스템의 제어 방법 및 컴퓨터 판독가능 기록 매체 |
JPWO2005105238A1 (ja) * | 2004-05-02 | 2008-03-13 | 株式会社セガ | ゲームシステム |
KR100841811B1 (ko) * | 2004-05-02 | 2008-06-26 | 가부시키가이샤 세가 | 게임 시스템, 게임 시스템의 제어 방법 및 컴퓨터 판독가능 기록 매체 |
JP4997970B2 (ja) * | 2004-05-02 | 2012-08-15 | 株式会社セガ | ゲームシステム |
WO2005105238A1 (ja) * | 2004-05-02 | 2005-11-10 | Sega Corporation | ゲームシステム |
JP2007034992A (ja) * | 2005-07-29 | 2007-02-08 | Sharp Corp | 画像生成装置、ゲーム装置、画像生成方法、画像生成プログラムおよび可読記録媒体 |
JP4591962B2 (ja) * | 2005-07-29 | 2010-12-01 | シャープ株式会社 | 画像生成装置、ゲーム装置、画像生成方法、画像生成プログラムおよび可読記録媒体 |
JP2010267241A (ja) * | 2008-10-17 | 2010-11-25 | Square Enix Co Ltd | 3次元モデル表示システム |
US8941642B2 (en) | 2008-10-17 | 2015-01-27 | Kabushiki Kaisha Square Enix | System for the creation and editing of three dimensional models |
JP2012252516A (ja) * | 2011-06-02 | 2012-12-20 | Nintendo Co Ltd | ゲームシステム、ゲーム装置、ゲームプログラム、および画像生成方法 |
JP2020021328A (ja) * | 2018-08-01 | 2020-02-06 | 彦坂 陽子 | 塗り絵装置およびプログラム |
Also Published As
Publication number | Publication date |
---|---|
US7713129B2 (en) | 2010-05-11 |
EP1365360A3 (en) | 2003-12-10 |
US20050007384A1 (en) | 2005-01-13 |
EP1365360B1 (en) | 2005-12-28 |
US6970177B2 (en) | 2005-11-29 |
US20030214518A1 (en) | 2003-11-20 |
DE60302931T2 (de) | 2006-07-13 |
DE60302931D1 (de) | 2006-02-02 |
EP1365360A2 (en) | 2003-11-26 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2004046793A (ja) | 画像処理システム | |
US8941642B2 (en) | System for the creation and editing of three dimensional models | |
JP5671349B2 (ja) | 画像処理プログラム、画像処理装置、画像処理システム、および画像処理方法 | |
US8662954B2 (en) | Toy doll for image capture and display | |
US10096144B2 (en) | Customized augmented reality animation generator | |
CN107358656A (zh) | 一种三维游戏的ar处理系统及其处理方法 | |
US20020082082A1 (en) | Portable game machine having image capture, manipulation and incorporation | |
WO2013001902A1 (ja) | 画像処理装置、画像処理装置の制御方法、プログラム、及び情報記憶媒体 | |
CN108062796B (zh) | 基于移动终端的手工制品与虚拟现实体验系统及方法 | |
JP6362634B2 (ja) | 画像生成システム、ゲーム装置及びプログラム | |
US11893301B2 (en) | Colocated shared augmented reality without shared backend | |
US20190138796A1 (en) | Information processing device, information processing system, facial image output method, and program | |
KR20050082559A (ko) | 댄스 학습 시스템, 이를 이용한 인터넷 커뮤니티 서비스시스템과 인터넷 커뮤니티 서비스 방법, 댄스 학습 방법및 상기 방법들을 실행하는 프로그램을 기록한 컴퓨터로읽을 수 있는 기록매체 | |
JP5994098B2 (ja) | i−フィギュア及びi−フィギュアを利用した画像処理システム | |
US7420594B2 (en) | Image processing apparatus with image sensing capability and storage medium storing an image processing program | |
JP2004355567A (ja) | 画像出力装置、画像出力方法、画像出力処理プログラム、および画像配信サーバ、画像配信処理プログラム | |
JP2021192230A (ja) | 拡張現実表示装置及びプログラム | |
JP2019133276A (ja) | 画像処理システム、端末 | |
JP5888453B1 (ja) | 写真シール作成装置および写真シール作成方法 | |
JP2004110383A (ja) | 画像生成システム、プログラムおよび情報記憶媒体 | |
JP7442604B1 (ja) | 画像処理方法、情報処理装置、及び、コンピュータプログラム | |
JPH10320589A (ja) | 3次元グラフィック表示装置 | |
JP2005236888A (ja) | 写真シール自販機および画像編集方法 | |
KR20240080113A (ko) | 화상 처리 방법, 정보 처리 장치 및 컴퓨터 프로그램 | |
CN116850575A (zh) | 一种可实现虚实交互的娱乐系统 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A300 | Application deemed to be withdrawn because no request for examination was validly filed |
Free format text: JAPANESE INTERMEDIATE CODE: A300 Effective date: 20060606 |