JP2010142553A - Game program and game apparatus - Google Patents

Game program and game apparatus Download PDF

Info

Publication number
JP2010142553A
JP2010142553A JP2008325441A JP2008325441A JP2010142553A JP 2010142553 A JP2010142553 A JP 2010142553A JP 2008325441 A JP2008325441 A JP 2008325441A JP 2008325441 A JP2008325441 A JP 2008325441A JP 2010142553 A JP2010142553 A JP 2010142553A
Authority
JP
Japan
Prior art keywords
skin color
user
game
face
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2008325441A
Other languages
Japanese (ja)
Other versions
JP5361368B2 (en
Inventor
Masahiro Oku
雅博 奥
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nintendo Co Ltd
Intelligent Systems Co Ltd
Original Assignee
Nintendo Co Ltd
Intelligent Systems Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nintendo Co Ltd, Intelligent Systems Co Ltd filed Critical Nintendo Co Ltd
Priority to JP2008325441A priority Critical patent/JP5361368B2/en
Priority to US12/549,634 priority patent/US8852003B2/en
Publication of JP2010142553A publication Critical patent/JP2010142553A/en
Application granted granted Critical
Publication of JP5361368B2 publication Critical patent/JP5361368B2/en
Priority to US14/470,127 priority patent/US9421462B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • A63F13/10
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/213Input arrangements for video game devices characterised by their sensors, purposes or types comprising photodetecting means, e.g. cameras, photodiodes or infrared cells
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/45Controlling the progress of the video game
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/60Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor
    • A63F13/65Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor automatically by game devices or servers from real world data, e.g. measurement in live racing competition
    • A63F13/655Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor automatically by game devices or servers from real world data, e.g. measurement in live racing competition by importing photos, e.g. of the player
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • G06V40/165Detection; Localisation; Normalisation using facial parts and geometric relationships
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/10Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals
    • A63F2300/1087Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals comprising photodetecting means, e.g. a camera
    • A63F2300/1093Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals comprising photodetecting means, e.g. a camera using visible light
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/60Methods for processing data by generating or executing the game program
    • A63F2300/6045Methods for processing data by generating or executing the game program for mapping control signals received from the input arrangement into game commands

Abstract

<P>PROBLEM TO BE SOLVED: To provide a novel game program and a game apparatus. <P>SOLUTION: The game apparatus 10 includes an inward camera 32, and a skin color is extracted from an imaged image imaged by the inward camera 32. During execution of the game, it is determined whether or not a skin color region being above a predetermined ratio is detected at a specific region (110, 110'). If the skin color region is above the predetermined ratio, it is determined the face of a user is correctly recognized, and feature points are detected from the imaged image. By detecting whether or not the entire face of the user is recognized, by detecting a part of the face or its movement, on the basis of the feature points, the game is progressed depending on whether or not a predetermined condition is satisfied. However, if the skin color is equal to or less than the predetermined ratio, it is determined that the face of the user is not correctly recognized, and a determination based on the feature points is not performed. An operation with the imaged user's image is reflected on the game processing just as the user intended. <P>COPYRIGHT: (C)2010,JPO&INPIT

Description

この発明はゲームプログラムおよびゲーム装置に関し、特にたとえば、撮像されたユーザの顔の全部または一部を認識して、その認識結果に基づいてゲーム処理を実行する、ゲームプログラムおよびゲーム装置に関する。   The present invention relates to a game program and a game apparatus, and more particularly to a game program and a game apparatus that recognize all or part of a captured user's face and execute a game process based on the recognition result.

背景技術の一例が特許文献1に開示されている。この特許文献1の画像出力装置は、2台のカメラによりユーザの顔を撮像し、撮像して得られた顔画像から眼球と虹彩を検出することにより目の動きを特定し、特定した目の動きに応じて出力画像の表示領域を変更する。
特開2006−202181号公報[G06F 3/033,A63F 13/00,G06T 1/00,G06T 7/60]
An example of background art is disclosed in Patent Document 1. The image output device disclosed in Patent Document 1 captures a user's face with two cameras, identifies eye movements by detecting eyeballs and irises from the captured face image, and identifies the identified eyes. The display area of the output image is changed according to the movement.
JP 2006-202181 A [G06F 3/033, A63F 13/00, G06T 1/00, G06T 7/60]

しかし、特許文献1の画像出力装置では、ユーザの顔が撮影されていることを前提としているため、ユーザの目以外のものを検出することにより目の動きを特定したと判断して、出力画像の表示領域を変更してしまう可能性がある。したがって、この背景技術を、撮像されたユーザの画像によって操作を行うゲームに適用した場合には、撮像されたユーザの画像による操作をユーザの意図した通りにゲーム処理に反映させることができないという問題がある。   However, since the image output device of Patent Document 1 is based on the premise that the user's face has been photographed, it is determined that the movement of the eyes has been identified by detecting something other than the user's eyes, and the output image May change the display area. Therefore, when this background technology is applied to a game in which an operation is performed using a captured user image, the operation based on the captured user image cannot be reflected in the game processing as intended by the user. There is.

それゆえに、この発明の主たる目的は、新規な、ゲームプログラムおよびゲーム装置を提供することである。   Therefore, a main object of the present invention is to provide a novel game program and game apparatus.

また、この発明の他の目的は、撮像したユーザの画像による操作をユーザの意図した通りにゲーム処理に反映させることができる、ゲームプログラムおよびゲーム装置を提供することである。   Another object of the present invention is to provide a game program and a game apparatus capable of reflecting an operation by a captured user image in a game process as intended by the user.

本発明は、上記の課題を解決するために、以下の構成を採用した。なお、括弧内の参照符号および補足説明等は、本発明の理解を助けるために後述する実施の形態との対応関係を示したものであって、本発明を何ら限定するものではない。   The present invention employs the following configuration in order to solve the above problems. The reference numerals in parentheses, supplementary explanations, and the like indicate correspondence relationships with embodiments described later to help understanding of the present invention, and do not limit the present invention in any way.

第1の発明は、ユーザの顔の全体または一部に対応する画像を示す画像データに基づいてゲーム処理を実行する装置のコンピュータに実行させるゲームプログラムであって、ユーザを撮像する撮像ステップ、撮像ステップによって撮像された画像を示す画像データに基づいて、ユーザの顔の全部または一部を認識する顔認識ステップ、撮像ステップによって撮像された画像を示す画像データに基づいて、ユーザの肌色を検出したか否かを判定する肌色検出判定ステップ、および肌色検出判定ステップによってユーザの肌色を検出したと判定されたとき、顔認識ステップによって認識されたユーザの顔の全部または一部を示す情報に基づいてゲーム処理を実行するゲーム処理ステップを実行させる、ゲームプログラムである。   A first invention is a game program to be executed by a computer of a device that executes a game process based on image data indicating an image corresponding to all or part of a user's face, an imaging step for imaging a user, and imaging The face recognition step for recognizing all or part of the user's face based on the image data indicating the image captured in the step, and the user's skin color is detected based on the image data indicating the image captured in the imaging step Based on information indicating all or part of the user's face recognized by the face recognition step when it is determined that the user's skin color is detected by the skin color detection determination step and the skin color detection determination step. A game program for executing a game process step for executing a game process.

第1の発明では、ゲームプログラムは、ユーザの顔の全体または一部に対応する画像を示す画像データに基づいてゲーム処理を実行する装置(10)のコンピュータに次のステップを実行させる。撮像ステップ(50,S3)は、ユーザを撮像する。顔認識ステップ(50,S7)は、撮像ステップによって撮像された画像を示す画像データに基づいて、ユーザの顔の全部または一部を検出する。肌色検出ステップ(50,S3、S5)は、撮像ステップによって撮像された画像を示す画像データに基づいて、ユーザの肌色を検出したか否かを判定する。そして、ゲーム処理ステップ(50,S9,S15,S17,S19)は、肌色検出判定ステップによってユーザの肌色を検出したと判定されたとき(S5で“YES”)、顔認識ステップによって認識されたユーザの顔の全部または一部を示す情報に基づいてゲーム処理を実行する。   In the first invention, the game program causes the computer of the device (10) that executes the game process based on image data indicating an image corresponding to all or part of the user's face to execute the following steps. The imaging step (50, S3) images the user. In the face recognition step (50, S7), all or part of the user's face is detected based on the image data indicating the image captured in the imaging step. In the skin color detection step (50, S3, S5), it is determined whether or not the user's skin color is detected based on the image data indicating the image captured in the imaging step. In the game processing step (50, S9, S15, S17, S19), when it is determined that the user's skin color is detected by the skin color detection determination step ("YES" in S5), the user recognized by the face recognition step The game process is executed based on information indicating all or part of the face.

第1の発明によれば、撮像したユーザの画像からユーザの肌色を検出した場合にのみ、ユーザの顔の全部または一部を示す情報に基づいてゲーム処理を実行するので、撮像したユーザの画像による操作をユーザの意図した通りにゲーム処理に反映させることができる。   According to the first aspect of the invention, the game process is executed based on information indicating all or part of the user's face only when the user's skin color is detected from the captured user image. Can be reflected in the game process as intended by the user.

第2の発明は第1の発明に従属し、撮像ステップによって撮像された画像を示す画像データに基づいて、肌色の領域の大きさを算出する肌色領域算出ステップをさらに実行させ、肌色検出判定ステップは、肌色領域算出ステップによって算出された肌色の領域の大きさが所定値以上であるときに、ユーザの肌色を検出したと判定する。   The second invention is dependent on the first invention, and further executes a skin color area calculating step for calculating the size of the skin color area based on the image data indicating the image captured in the imaging step, and the skin color detection determining step Determines that the user's skin color has been detected when the size of the skin color region calculated in the skin color region calculation step is equal to or greater than a predetermined value.

第2の発明では、ゲームプログラムは、肌色領域算出ステップ(50,S5)をさらに実行させる。肌色検出判定ステップは、肌色領域算出ステップによって算出された肌色の領域の大きさが所定値以上であるときに、ユーザの肌色を検出したと判定する。   In the second invention, the game program further causes the skin color area calculating step (50, S5) to be executed. The skin color detection determination step determines that the user's skin color has been detected when the size of the skin color region calculated by the skin color region calculation step is equal to or greater than a predetermined value.

第2の発明によれば、肌色の領域の大きさが所定値以上である場合にのみ、肌色を検出したと判定するので、たとえば、ゲームプログラマや開発者が意図するプレイ状態における平均的な肌色領域の大きさを所定値に設定しておくことにより、意図通りのプレイ状態でゲームをプレイさせることができる。   According to the second invention, since it is determined that the skin color is detected only when the size of the skin color region is equal to or larger than the predetermined value, for example, the average skin color in the play state intended by the game programmer or developer By setting the size of the area to a predetermined value, the game can be played in the intended play state.

第3の発明は、第2の発明に従属し、肌色領域算出ステップは、撮像ステップによって撮像された画像における肌色の領域の割合を算出し、肌色検出ステップは、肌色領域算出ステップによって算出された割合が所定値以上であるときに、ユーザの肌色を検出したと判定する。   A third invention is according to the second invention, wherein the skin color area calculating step calculates a ratio of the skin color area in the image captured by the imaging step, and the skin color detecting step is calculated by the skin color area calculating step. When the ratio is equal to or greater than the predetermined value, it is determined that the user's skin color has been detected.

第3の発明では、肌色領域算出ステップは、撮像された画像における肌色の領域の割合を算出する。肌色検出ステップは、肌色領域算出ステップによって算出された割合が所定値以上であるときに、ユーザの肌色を検出したと判定する。   In the third invention, the skin color area calculating step calculates the ratio of the skin color area in the captured image. The skin color detection step determines that the user's skin color has been detected when the ratio calculated by the skin color region calculation step is equal to or greater than a predetermined value.

第3の発明においても、第2の発明と同様に、意図通りのプレイ状態でゲームをプレイさせることができる。   In the third invention, similarly to the second invention, the game can be played in the intended play state.

第4の発明は、第2の発明に従属し、撮像ステップによって撮像された画像において、特定の領域を設定する領域設定ステップをさらに実行させ、肌色領域算出ステップは、領域設定ステップによって設定された特定の領域内における肌色の領域の大きさを算出する。   A fourth invention is according to the second invention, and further executes an area setting step for setting a specific area in the image captured by the imaging step, and the skin color area calculating step is set by the area setting step The size of the skin color area in the specific area is calculated.

第4の発明では、領域設定ステップ(50)は、撮影ステップによって撮影された画像において、特定の領域(110,110´)を設定する。したがって、たとえば、肌色領域算出ステップは、領域設定ステップによって設定された特定の領域内における肌色の領域の大きさを算出する。   In the fourth invention, the region setting step (50) sets a specific region (110, 110 ') in the image photographed by the photographing step. Therefore, for example, the skin color area calculating step calculates the size of the skin color area in the specific area set by the area setting step.

第4の発明によれば、特定の領域を設定するので、ユーザの顔や手が存在すると考えられる場所を特定の領域に設定しておけば、比較的簡単な処理で、肌色を検出したかどうかを判断することができる。   According to the fourth invention, since a specific area is set, whether the skin color is detected by a relatively simple process if a place where a user's face or hand is thought to be present is set as the specific area It can be judged.

第5の発明は第1ないし第4の発明に従属し、顔認識ステップは、撮像ステップによって撮像された画像を示す画像データに基づいて、ユーザの顔を認識するとともに、当該ユーザの肌色を検出し、ゲーム処理ステップは、肌色検出判定ステップによってユーザの肌色を検出したと判定されたとき、顔認識ステップによって認識されたユーザの顔の全部または一部を示す顔情報と当該ユーザの肌色を示す肌色情報とに基づいてゲーム処理を実行する。   The fifth invention is dependent on the first to fourth inventions, and the face recognition step recognizes the user's face and detects the skin color of the user based on the image data indicating the image captured by the imaging step. When it is determined that the skin color of the user is detected by the skin color detection determination step, the game processing step indicates face information indicating all or part of the user's face recognized by the face recognition step and the user's skin color. Game processing is executed based on the skin color information.

第5の発明では、顔認識ステップは、撮像ステップによって撮像された画像を示す画像データに基づいて、ユーザの顔を認識するとともに、当該ユーザの肌色を検出する。ゲーム処理ステップは、肌色検出判定ステップによって検出されたユーザの顔の全部または一部を示す情報と、当該ユーザの肌色情報とに基づいてゲーム処理を実行する。   In the fifth invention, the face recognition step recognizes the user's face and detects the skin color of the user based on the image data indicating the image captured by the imaging step. The game processing step executes game processing based on information indicating all or part of the user's face detected by the skin color detection determination step and the user's skin color information.

第5の発明によれば、肌色と顔を示す情報とに基づいてゲーム処理を実行するので、たとえば、肌色のみを検出し、顔を示す情報を検出していないような顔を隠している状態と、肌色を検出するとともに、顔を示す情報を検出しているような顔を見せている状態とに基づいてゲームを進行させることができる。   According to the fifth aspect of the invention, the game process is executed based on the skin color and the information indicating the face. For example, only the skin color is detected and the face that does not detect the face information is hidden. The game can be progressed based on the state of detecting the skin color and showing the face as if the information indicating the face is detected.

第6の発明は、第1の発明に従属し、ユーザを予め撮像して得られた画像を示す画像データに基づいて、当該ユーザの肌色の特徴を示す肌色特徴データを算出する肌色特徴データ算出ステップをさらに実行させ、肌色検出判定ステップは、撮像ステップによって撮像された画像を示す画像データと肌色特徴データ算出ステップによって算出された肌色特徴データとに基づいて、ユーザの肌色を検出したか否かを判定する。   The sixth invention is dependent on the first invention, and the skin color feature data calculation for calculating the skin color feature data indicating the skin color feature of the user based on the image data indicating the image obtained by imaging the user in advance. Whether or not the skin color detection determination step detects the skin color of the user based on the image data indicating the image captured in the imaging step and the skin color feature data calculated in the skin color feature data calculation step. Determine.

第6の発明では、ゲームプログラムは、肌色特徴データ算出ステップ(50)をさらに実行させる。肌色特徴データ算出ステップは、ユーザを予め撮像して得られた画像を示す画像データに基づいて、当該ユーザの肌色の特徴を示す肌色特徴データ(色相、彩度、輝度の閾値)を算出する。肌色検出判定ステップは、撮像ステップによって撮像された画像を示す画像データと肌色特徴データ算出ステップによって算出された肌色特徴データとに基づいて、ユーザの肌色を検出したか否かを判定する。   In the sixth invention, the game program further executes a skin color feature data calculation step (50). The skin color feature data calculation step calculates skin color feature data (hue, saturation, and luminance threshold values) indicating the skin color features of the user based on image data indicating an image obtained by imaging the user in advance. In the skin color detection determination step, it is determined whether or not the user's skin color is detected based on the image data indicating the image captured in the imaging step and the skin color feature data calculated in the skin color feature data calculation step.

第6の発明によれば、予め撮影した画像から得たユーザの肌色の特徴に基づいてユーザの肌色を検出したか否かを判断するので、ゲームの開始に先立って、肌色の特徴を得るようにしておけば、ユーザ毎に異なる肌色の特徴による誤差やゲームをプレイする時間や場所の違いによる誤差を無くすことができる。   According to the sixth aspect, since it is determined whether or not the user's skin color is detected based on the user's skin color feature obtained from the pre-captured image, the skin color feature is obtained prior to the start of the game. By doing so, it is possible to eliminate errors due to skin color characteristics that are different for each user and errors due to differences in time and place for playing the game.

第7の発明は、第1の発明に従属し、撮像ステップによって撮像された画像を示す画像データに基づいて、ユーザの顔の全部または一部の特徴点データを取得する特徴点データ取得ステップ、および特徴点データ取得ステップによって取得された特徴点データが所定の条件を満たすか否かを判定する特徴点データ判定ステップをさらに実行させ、ゲーム処理ステップは、肌色検出判定ステップによってユーザの肌色を検出したと判定され、かつ、特徴点データ判定ステップによって特徴点データが所定の条件を満たすと判定されたときに、顔認識ステップによって認識されたユーザの顔の全部または一部を示す情報に基づいてゲーム処理を実行する。   A seventh invention is dependent on the first invention, and a feature point data acquiring step for acquiring all or a part of feature point data of a user's face based on image data indicating an image captured by the imaging step; And a feature point data determination step for determining whether or not the feature point data acquired by the feature point data acquisition step satisfies a predetermined condition, and the game processing step detects the skin color of the user by the skin color detection determination step. Based on information indicating all or part of the face of the user recognized by the face recognition step when it is determined that the feature point data satisfies the predetermined condition by the feature point data determination step. Execute game processing.

第7の発明では、特徴点データ取得ステップ(50)は、撮像ステップによって撮像された画像を示す画像データに基づいて、ユーザの顔の全部または一部の特徴点データを取得する。また、特徴点データ判定ステップ(50,S9)は、特徴点データ取得ステップによって取得された特徴点データが所定の条件を満たすか否かを判定する。ゲーム処理ステップは、肌色検出判定ステップによってユーザの肌色を検出したと判定され(S5で“YES”)、かつ、特徴点データ判定ステップによって特徴点データが所定の条件を満たすと判定されたときに(S9で“YES”)、顔認識ステップによって認識されたユーザの顔の全部または一部を示す情報に基づいてゲーム処理を実行する。   In the seventh invention, the feature point data acquisition step (50) acquires all or part of the feature point data of the user's face based on the image data indicating the image captured by the imaging step. The feature point data determination step (50, S9) determines whether or not the feature point data acquired by the feature point data acquisition step satisfies a predetermined condition. In the game processing step, it is determined that the user's skin color is detected in the skin color detection determination step (“YES” in S5), and the feature point data determination step determines that the feature point data satisfies a predetermined condition. (“YES” in S9), the game process is executed based on information indicating all or part of the user's face recognized in the face recognition step.

第7の発明によれば、ユーザの肌色を検出し、かつ特徴点データが所定の条件を満たすと判定されたときに、ゲーム処理を実行するので、ユーザの顔の画像に基づいて、より正確にゲーム処理を実行することができる。   According to the seventh aspect, since the game process is executed when the skin color of the user is detected and it is determined that the feature point data satisfies the predetermined condition, the game process is executed more accurately based on the image of the user's face. The game process can be executed.

第8の発明は、ユーザの顔の全体または一部に対応する画像を示す画像データに基づいてゲーム処理を実行するゲーム装置であって、ユーザを撮像する撮像手段、撮像手段によって撮像された画像を示す画像データに基づいて、ユーザの顔の全部または一部を認識する顔認識手段、撮像手段によって撮像された画像を示す画像データに基づいて、ユーザの肌色を検出したか否かを判定する肌色検出判定手段、および肌色検出判定手段によってユーザの肌色を検出したと判定されたとき、顔認識手段によって認識されたユーザの顔の全部または一部を示す情報に基づいてゲーム処理を実行するゲーム処理手段を備える、ゲーム装置である。   An eighth invention is a game device that executes a game process based on image data indicating an image corresponding to the whole or a part of a user's face, and is an image picked up by the image pickup means and the image pickup means. Whether or not the user's skin color has been detected is determined based on image data indicating an image captured by the image recognition unit and a face recognition unit that recognizes all or part of the user's face. A game that executes a game process based on information indicating all or part of the user's face recognized by the face recognition means when the skin color detection determination means and the skin color detection determination means determine that the user's skin color has been detected. It is a game device provided with a processing means.

第8の発明においても、第1の発明と同様に、撮像したユーザの画像による操作をユーザの意図した通りにゲーム処理に反映させることができる。   In the eighth invention as well, similar to the first invention, the operation by the captured user image can be reflected in the game process as intended by the user.

この発明によれば、撮像したユーザの画像からユーザの肌色を検出した場合にのみ、ユーザの顔の全部または一部を示す情報に基づいてゲーム処理を実行するので、撮像したユーザの画像による操作をユーザの意図した通りにゲーム処理に反映させることができる。   According to the present invention, the game process is executed based on information indicating all or part of the user's face only when the user's skin color is detected from the captured user's image. Can be reflected in the game process as intended by the user.

この発明の上述の目的,その他の目的,特徴および利点は、図面を参照して行う以下の実施例の詳細な説明から一層明らかとなろう。   The above object, other objects, features and advantages of the present invention will become more apparent from the following detailed description of embodiments with reference to the drawings.

図1を参照して、この発明の一実施例であるゲーム装置10は、上側ハウジング12および下側ハウジング14を含み、上側ハウジング12と下側ハウジング14とは、開閉可能(折り畳み可能)に連結されている。図1の例では、上側ハウジング12および下側ハウジング14は、それぞれ横長の長方形の板状に形成され、互いの長辺部分で回動可能に連結されている。つまり、この実施例のゲーム装置10は、折り畳み型の携帯ゲーム装置であり、図1には、当該ゲーム装置10を開いた状態(開状態)で示してある。ゲーム装置10は、開いた状態においてもユーザが両手または片手で把持することができるようなサイズで構成される。   Referring to FIG. 1, a game apparatus 10 according to an embodiment of the present invention includes an upper housing 12 and a lower housing 14, and the upper housing 12 and the lower housing 14 are connected to each other so as to be openable and closable (foldable). Has been. In the example of FIG. 1, the upper housing 12 and the lower housing 14 are each formed in a horizontally-long rectangular plate shape, and are connected so as to be rotatable at the long side portions of each other. That is, the game apparatus 10 of this embodiment is a foldable portable game apparatus, and FIG. 1 shows the game apparatus 10 in an opened state (open state). The game apparatus 10 is configured in such a size that the user can hold it with both hands or one hand even in an open state.

通常、ユーザは、開状態でゲーム装置10を使用する。また、ユーザは、ゲーム装置10を使用しない場合には閉状態で保管する。ただし、ゲーム装置10は、上記閉状態および開状態のみでなく、上側ハウジング12と下側ハウジング14とのなす角度が閉状態と開状態との間の任意の角度において、連結部分に発生する摩擦力などによってその開閉角度を維持することができる。つまり、上側ハウジング12を下側ハウジング14に対して任意の角度で静止させることができる。   Normally, the user uses the game apparatus 10 in the open state. Further, the user stores the game apparatus 10 in a closed state when not using the game apparatus 10. However, the game apparatus 10 is not limited to the closed state and the open state, and the friction generated in the connection portion is not limited to the angle formed by the upper housing 12 and the lower housing 14 between the closed state and the open state. The opening / closing angle can be maintained by force or the like. That is, the upper housing 12 can be made stationary with respect to the lower housing 14 at an arbitrary angle.

なお、ゲーム装置10は、後述するカメラ(32,34)を搭載しており、当該カメラ(32,34)によって画像を撮像し、撮像した画像を画面に表示したり、撮像した画像のデータを保存したりする撮像装置としても機能する。   The game apparatus 10 is equipped with cameras (32, 34) to be described later. Images are captured by the cameras (32, 34), the captured images are displayed on the screen, and data of the captured images is displayed. It also functions as an imaging device that stores data.

図1に示すように、上側ハウジング12には第1LCD16が設けられ、下側ハウジング14には第2LCD18が設けられる。第1LCD16および第2LCD18は、横長形状であり、それぞれの長辺方向が上側ハウジング12および下側ハウジング14の長辺方向と一致すうように配置される。たとえば、第1LCD16および第2LCD18の解像度は、256(横)×192(縦)画素(ドット)に設定される。   As shown in FIG. 1, the upper housing 12 is provided with a first LCD 16, and the lower housing 14 is provided with a second LCD 18. The first LCD 16 and the second LCD 18 have a horizontally long shape, and are arranged such that the long side directions thereof coincide with the long side directions of the upper housing 12 and the lower housing 14. For example, the resolution of the first LCD 16 and the second LCD 18 is set to 256 (horizontal) × 192 (vertical) pixels (dots).

なお、この実施例では、表示器としてLCDを用いるようにしてあるが、LCDに代えて、EL(Electronic Luminescence)ディスプレイやプラズマディスプレイを用いるようにしてもよい。また、ゲーム装置10は、任意の解像度の表示装置を利用することができる。詳細は後述するが、第2LCD18は、主に、内側カメラ32または外側カメラ34で撮像されている画像(静止画像や動画像)をリアルタイムに表示したり、ゲーム画面を表示したりするために用いられる。   In this embodiment, an LCD is used as the display, but an EL (Electronic Luminescence) display or a plasma display may be used instead of the LCD. In addition, the game apparatus 10 can use a display device having an arbitrary resolution. Although the details will be described later, the second LCD 18 is mainly used for displaying an image (still image or moving image) captured by the inner camera 32 or the outer camera 34 in real time or displaying a game screen. It is done.

下側ハウジング14には、入力装置として、各操作ボタン20a−20kが設けられる。図1に示されるように、各操作ボタン20a−20kのうち、方向入力ボタン20a、操作ボタン20b、操作ボタン20c、操作ボタン20d、操作ボタン20e、電源ボタン20f、スタートボタン20g、およびセレクトボタン20hは、下側ハウジング14の第2LCD18が設けられる側の面(内側の面)に配置される。具体的には、方向入力ボタン20aおよび電源ボタン20fは、第2LCD18の左側に配置され、操作ボタン20b−20e,20gおよび20hは、第2LCD18の右側に配置される。また、上側ハウジング12と下側ハウジング14とを折り畳んだときには、操作ボタン20a−20hはゲーム装置10の内部に収められる。   The lower housing 14 is provided with operation buttons 20a-20k as input devices. As shown in FIG. 1, among the operation buttons 20a-20k, a direction input button 20a, an operation button 20b, an operation button 20c, an operation button 20d, an operation button 20e, a power button 20f, a start button 20g, and a select button 20h. Are arranged on the surface (inner surface) of the lower housing 14 on the side where the second LCD 18 is provided. Specifically, the direction input button 20a and the power button 20f are arranged on the left side of the second LCD 18, and the operation buttons 20b-20e, 20g, and 20h are arranged on the right side of the second LCD 18. When the upper housing 12 and the lower housing 14 are folded, the operation buttons 20a-20h are housed inside the game apparatus 10.

方向入力ボタン(十字キー)20aは、ディジタルジョイスティックとして機能し、プレイヤオブジェクトの移動方向を指示したり、カーソルを移動させたりするなどに用いられる。各操作ボタン20b−20eは、プッシュボタンであり、たとえば、プレイヤオブジェクトに任意の動作をさせたり、決定やキャンセルを実行したりする等に用いられる。電源ボタン20fは、プッシュボタンであり、ゲーム装置10の主電源をオン/オフするために用いられる。スタートボタン20gは、プッシュボタンであり、ゲームを中断(ポーズ)したり、開始(再開)したりするために用いられる。セレクトボタン20hは、プッシュボタンであり、ゲームモードやメニューの選択等に用いられる。   The direction input button (cross key) 20a functions as a digital joystick, and is used for instructing the moving direction of the player object, moving the cursor, and the like. Each operation button 20b-20e is a push button, and is used, for example, to cause the player object to perform an arbitrary action, execute determination or cancellation, and the like. The power button 20f is a push button and is used to turn on / off the main power of the game apparatus 10. The start button 20g is a push button, and is used to interrupt (pause) or start (resume) the game. The select button 20h is a push button, and is used for selecting a game mode or a menu.

図1においては、操作ボタン20i−20kは省略したが、図2(A)に示すように、操作ボタン(Lボタン)20iは、下側ハウジング14の上側面の左端部に設けられ、操作ボタン(Rボタン)20jは、下側ハウジング14の上側面の右端部に設けられる。また、図2(B)に示すように、音量ボタン20kは、下側ハウジング14の左側面に設けられる。   Although the operation buttons 20i-20k are omitted in FIG. 1, as shown in FIG. 2A, the operation button (L button) 20i is provided at the left end portion of the upper side surface of the lower housing 14, and is operated. The (R button) 20j is provided at the right end of the upper side surface of the lower housing 14. As shown in FIG. 2B, the volume button 20k is provided on the left side surface of the lower housing 14.

なお、図2(A)は、ゲーム装置10を折り畳んだ状態で、上面(上ハウジング12)側から見た図であり、図2(B)は、同じくゲーム装置10を折り畳んだ状態で、左側面から見た図である。   2A is a view as seen from the upper surface (upper housing 12) side in a state where the game apparatus 10 is folded, and FIG. 2B is a left side view when the game apparatus 10 is also folded. It is the figure seen from the surface.

Lボタン20iおよびRボタン20jは、プッシュボタンであり、操作ボタン20b−20eと同様の操作に用いたり、それらの操作ボタン20b−20eの補助的な操作に用いたりすることができる。また、この実施例では、Lボタン20iおよびRボタン20jは、撮影指示の操作(シャッター操作)を行うために用いることもできる。音量ボタン20kは、2つのプッシュボタンを用いて構成され、図示しない2つのスピーカ(右スピーカおよび左スピーカ)から出力される音の大きさを調整するために用いられる。この実施例では、音量ボタン20kには、2つの押圧部を含む操作部が設けられ、各押圧部に対応して上記のプッシュボタンが設けられる。したがって、一方の押圧部を押すと音量が大きくされ、他方の押圧部を押すと音量が小さくされる。たとえば、押圧部を押し続けると、音量が次第に大きくされたり、次第に小さくされたりする。   The L button 20i and the R button 20j are push buttons, and can be used for the same operation as the operation buttons 20b-20e or can be used for an auxiliary operation of the operation buttons 20b-20e. In this embodiment, the L button 20i and the R button 20j can also be used to perform a shooting instruction operation (shutter operation). The volume button 20k is configured by using two push buttons, and is used to adjust the volume of sound output from two speakers (not shown) (right speaker and left speaker). In this embodiment, the volume button 20k is provided with an operation part including two pressing parts, and the push button is provided corresponding to each pressing part. Accordingly, when one of the pressing parts is pressed, the volume is increased, and when the other pressing part is pressed, the volume is decreased. For example, when the pressing unit is continuously pressed, the volume is gradually increased or gradually decreased.

図1に戻って、ゲーム装置10は、操作ボタン20a−20kとは別の入力装置として、さらにタッチパネル22を備えている。タッチパネル22は、第2LCD18の画面上を覆うように装着されている。この実施例では、タッチパネル22は、たとえば抵抗膜方式のタッチパネルが用いられる。ただし、タッチパネル22は、抵抗膜方式に限らず、任意の押圧式のタッチパネルを用いることができる。また、この実施例では、タッチパネル22として、たとえば第2LCD18の解像度と同解像度(検出精度)のものを利用する。ただし、必ずしもタッチパネル22の解像度と第2LCD18の解像度とが一致している必要はない。   Returning to FIG. 1, the game apparatus 10 further includes a touch panel 22 as an input device different from the operation buttons 20 a to 20 k. The touch panel 22 is attached so as to cover the screen of the second LCD 18. In this embodiment, the touch panel 22 is, for example, a resistive film type touch panel. However, the touch panel 22 is not limited to the resistive film type, and any pressing type touch panel can be used. In this embodiment, the touch panel 22 having, for example, the same resolution (detection accuracy) as that of the second LCD 18 is used. However, the resolution of the touch panel 22 and the resolution of the second LCD 18 do not necessarily match.

また、下側ハウジング14の右側面には、挿入口(図1に示す破線)が設けられている。挿入口は、タッチパネル22に対する操作を行うために用いられるタッチペン24を収納することができる。通常、タッチパネル22に対する入力は、タッチペン24を用いて行われるが、タッチペン24に限らずユーザの指でタッチパネル22を操作することも可能である。したがって、たとえば、タッチペン24を用いない場合には、タッチペン24の挿入口および収納部を設ける必要はない。   Further, an insertion port (broken line shown in FIG. 1) is provided on the right side surface of the lower housing 14. The insertion slot can accommodate a touch pen 24 that is used to perform an operation on the touch panel 22. Normally, input to the touch panel 22 is performed using the touch pen 24, but the touch panel 22 is not limited to the touch pen 24 and can be operated with a user's finger. Therefore, for example, when the touch pen 24 is not used, it is not necessary to provide an insertion port and a storage unit for the touch pen 24.

また、下側ハウジング14の右側面には、メモリカード26を収納するための挿入口(図1では、二点鎖線で示している)が設けられている。この挿入口の内側には、ゲーム装置10とメモリカード26とを電気的に接続するためのコネクタ(図示せず)が設けられる。メモリカード26は、たとえばSDカードであり、コネクタに着脱自在に装着される。このメモリカード26は、たとえば、ゲーム装置10によって撮像された画像を記憶(保存)したり、他の装置で生成(撮像)ないし記憶された画像をゲーム装置10に読み込んだりするために用いられる。   Further, an insertion slot (indicated by a two-dot chain line in FIG. 1) for storing the memory card 26 is provided on the right side surface of the lower housing 14. A connector (not shown) for electrically connecting the game apparatus 10 and the memory card 26 is provided inside the insertion slot. The memory card 26 is an SD card, for example, and is detachably attached to the connector. The memory card 26 is used, for example, for storing (saving) an image captured by the game apparatus 10 or reading an image generated (captured) or stored by another apparatus into the game apparatus 10.

さらに、下側ハウジング14の上側面には、メモリカード28を収納するための挿入口(図1では、一点鎖線で示している)が設けられている。この挿入口の内側にも、ゲーム装置10とメモリカード28とを電気的に接続するためのコネクタ(図示せず)が設けられる。メモリカード28は、ゲームプログラムや他のアプリケーションプログラムおよび必要なデータなどを記録した記録媒体であり、下側ハウジング14に設けられた挿入口に着脱自在に装着される。   Further, an insertion port (indicated by a one-dot chain line in FIG. 1) for storing the memory card 28 is provided on the upper side surface of the lower housing 14. A connector (not shown) for electrically connecting the game apparatus 10 and the memory card 28 is also provided inside the insertion slot. The memory card 28 is a recording medium on which a game program, other application programs, and necessary data are recorded, and is detachably attached to an insertion port provided in the lower housing 14.

また、上側ハウジング12と下側ハウジング14との連結部(ヒンジ)の左端部分には、インジケータ30が設けられる。このインジケータ30は、3つのLED30a,30b,30cによって構成される。ここで、ゲーム装置10は、他の機器との間で無線通信を行うことが可能であり、第1LED30aは、無線通信が確立している場合に点灯する。第2LED30bは、ゲーム装置10の充電中に点灯する。第3LED30cは、ゲーム装置10の主電源がオンである場合に点灯する。したがって、インジケータ30(LED30a−30c)によって、ゲーム装置10の通信確立状況、充電状況、および主電源のオン/オフ状況をユーザに通知することができる。   An indicator 30 is provided at the left end portion of the connecting portion (hinge) between the upper housing 12 and the lower housing 14. The indicator 30 includes three LEDs 30a, 30b, and 30c. Here, the game apparatus 10 can perform wireless communication with other devices, and the first LED 30a lights up when wireless communication is established. The second LED 30b lights up while the game apparatus 10 is being charged. The third LED 30c is lit when the main power supply of the game apparatus 10 is on. Therefore, the indicator 30 (LEDs 30a to 30c) can notify the user of the communication establishment status, the charging status, and the main power on / off status of the game apparatus 10.

上述したように、上側ハウジング12には、第1LCD16が設けられる。この実施例では、第2LCD18を覆うように、タッチパネル22を設けているが、第1LCD16を覆うように、タッチパネル22を設けてもよい。または、第1LCD16および第2LCD18のそれぞれを覆うように、2つのタッチパネル22を設けるようにしてもよい。たとえば、第2LCD18には、各操作ボタン20a−20kやタッチパネル22の役割ないし操作方法をユーザに教えるための操作説明画面やゲーム画面が表示される。   As described above, the upper housing 12 is provided with the first LCD 16. In this embodiment, the touch panel 22 is provided so as to cover the second LCD 18, but the touch panel 22 may be provided so as to cover the first LCD 16. Alternatively, two touch panels 22 may be provided so as to cover each of the first LCD 16 and the second LCD 18. For example, the second LCD 18 displays an operation explanation screen or a game screen for teaching the user the role or operation method of the operation buttons 20a-20k and the touch panel 22.

また、上側ハウジング12には、2つのカメラ(内側カメラ32および外側カメラ34)が設けられる。図1に示すように、内側カメラ32は、上側ハウジング12と下側ハウジング14との連結部付近であり、第1LCD16が設けられる側の面に、この第1LCD16の表示面とその撮影面とが平行または面一になるように取り付けられる。一方、外側カメラ34は、図2(A)に示すように、内側カメラ32が取り付けられる面とは反対側の面、すなわち、上側ハウジング12の外側の面(ゲーム装置10が閉状態となった場合に外側となる面であり、図1に示す上側ハウジング12の背面)に取り付けられる。ただし、図1においては、外側カメラ34を破線で示してある。   The upper housing 12 is provided with two cameras (an inner camera 32 and an outer camera 34). As shown in FIG. 1, the inner camera 32 is in the vicinity of the connecting portion between the upper housing 12 and the lower housing 14, and the display surface of the first LCD 16 and its photographing surface are provided on the surface on which the first LCD 16 is provided. Mounted parallel or flush. On the other hand, as shown in FIG. 2A, the outer camera 34 is a surface opposite to the surface to which the inner camera 32 is attached, that is, the outer surface of the upper housing 12 (the game apparatus 10 is in a closed state). In this case, the outer surface is attached to the rear surface of the upper housing 12 shown in FIG. However, in FIG. 1, the outer camera 34 is indicated by a broken line.

したがって、内側カメラ32は、上側ハウジング12の内側の面が向く方向を撮像することが可能であり、外側カメラ34は、内側カメラ32の撮像方向の逆方向、すなわち、上側ハウジング12の外側の面が向く方向を撮像することが可能である。このように、この実施例では、内側カメラ32および外側カメラ34の撮像方向が互いに逆方向となるように、それら2つのカメラ32,34が設けられる。たとえば、ゲーム装置10を把持したユーザは、このゲーム装置10側からユーザの方を見た景色(たとえば、当該ユーザを含む)を内側カメラ32で撮像することができるとともに、ゲーム装置10側からユーザとは反対側の方向を見た景色を外側カメラ34で撮像することができる。   Therefore, the inner camera 32 can take an image in the direction in which the inner surface of the upper housing 12 faces, and the outer camera 34 has a direction opposite to the imaging direction of the inner camera 32, that is, the outer surface of the upper housing 12. It is possible to image the direction in which the Thus, in this embodiment, the two cameras 32 and 34 are provided so that the imaging directions of the inner camera 32 and the outer camera 34 are opposite to each other. For example, a user who holds the game device 10 can take a picture (for example, including the user) of the user looking at the user from the game device 10 side, and can capture images of the user from the game device 10 side. A scene viewed from the opposite direction can be captured by the outer camera 34.

なお、上記連結部付近の内側の面には、音声入力装置としてマイク84(図3参照)が収納されている。そして、上記連結部付近の内側の面には、マイク84がゲーム装置10外部の音を検知できるように、そのマイク84用の孔36が形成される。マイク84を収納する位置およびマイク84用の孔36の位置は必ずしも上記連結部である必要はなく、たとえば下側ハウジング14にマイク84を収納し、マイク84の収納位置に対応させて下側ハウジング14にマイク84用の孔36を設けるようにしてもよい。   A microphone 84 (see FIG. 3) is housed as an audio input device on the inner surface near the connecting portion. A hole 36 for the microphone 84 is formed on the inner surface near the connecting portion so that the microphone 84 can detect the sound outside the game apparatus 10. The position where the microphone 84 is stored and the position of the hole 36 for the microphone 84 do not necessarily have to be the connecting portion. For example, the microphone 84 is stored in the lower housing 14, and the lower housing corresponds to the storage position of the microphone 84. 14 may be provided with a hole 36 for the microphone 84.

また、上側ハウジング12の外側の面には、外側カメラ34の近傍に第4LED38(図1では、破線で示す)が取り付けられる。第4LED38は、内側カメラ32または外側カメラ34によって撮影が行われた(シャッターボタンが押下された)時点で点灯する。また、内側カメラ32または外側カメラ34によって動画が撮影される場合には、第4LED38は、撮影の間点灯し続ける。つまり、第4LED38を点灯することによって、ゲーム装置10による撮影が行われた(行われている)ことを撮影対象者や周囲に通知することができる。   A fourth LED 38 (shown by a broken line in FIG. 1) is attached to the outer surface of the upper housing 12 in the vicinity of the outer camera 34. The fourth LED 38 is lit when a picture is taken by the inner camera 32 or the outer camera 34 (the shutter button is pressed). In addition, when a moving image is shot by the inner camera 32 or the outer camera 34, the fourth LED 38 continues to be lit during shooting. That is, by turning on the fourth LED 38, it is possible to notify the person to be photographed and the surroundings that photographing by the game apparatus 10 has been performed (performed).

また、上側ハウジング12には、第1LCD16の両側に、音抜き孔40が形成される。この音抜き孔40に対応する位置であり、上側ハウジング12の内部には、上述したスピーカが収納されている。音抜き孔40は、スピーカからの音をゲーム装置10の外部に放出するための孔である。   In addition, sound release holes 40 are formed in the upper housing 12 on both sides of the first LCD 16. The speaker described above is accommodated in the upper housing 12 at a position corresponding to the sound release hole 40. The sound release hole 40 is a hole for releasing sound from the speaker to the outside of the game apparatus 10.

以上に説明したように、上側ハウジング12には、画像を撮像するための構成である内側カメラ32および外側カメラ34と、主として、撮影された画像およびゲーム画面を表示するための表示手段である第1LCD16とが設けられる。一方、下側ハウジング14には、ゲーム装置10に対する操作入力を行うための入力装置(操作ボタン20(20a−20k)およびタッチパネル22)と、操作説明画面およびゲーム画面を表示するための表示手段である第2LCD18とが設けられる。したがって、ゲーム装置10は、2つの画面(16,18)および2系統の操作部(20,22)を備えている。   As described above, the upper housing 12 is a display means for displaying the inner camera 32 and the outer camera 34, which are components for capturing images, and mainly the captured images and the game screen. 1LCD16 is provided. On the other hand, the lower housing 14 includes an input device (operation buttons 20 (20a-20k) and a touch panel 22) for performing an operation input to the game apparatus 10, and a display means for displaying an operation explanation screen and a game screen. A second LCD 18 is provided. Therefore, the game apparatus 10 includes two screens (16, 18) and two operation units (20, 22).

図3は、この実施例のゲーム装置10の電気的な構成を示すブロック図である。図3に示すように、ゲーム装置10は、CPU50、メインメモリ52、メモリ制御回路54、保存用データメモリ56、プリセットデータ用メモリ58、メモリカードインターフェース(メモリカードI/F)60、メモリカードI/F62、無線通信モジュール64、ローカル通信モジュール66、リアルタイムクロック(RTC)68、電源回路70、およびインターフェース回路(I/F回路)72、第1GPU(Graphics Processing Unit)74、第2GPU76、第1VRAM(Video RAM)78、第2VRAM80、およびLCDコントローラ82等の電子部品を備えている。これらの電子部品(回路コンポーネント)は、電子回路基板上に実装されて、下側ハウジング14(または上側ハウジング12でもよい)内に収納される。   FIG. 3 is a block diagram showing an electrical configuration of the game apparatus 10 of this embodiment. As shown in FIG. 3, the game apparatus 10 includes a CPU 50, a main memory 52, a memory control circuit 54, a storage data memory 56, a preset data memory 58, a memory card interface (memory card I / F) 60, a memory card I. / F62, wireless communication module 64, local communication module 66, real-time clock (RTC) 68, power supply circuit 70, interface circuit (I / F circuit) 72, first GPU (Graphics Processing Unit) 74, second GPU 76, first VRAM ( (Video RAM) 78, second VRAM 80, and LCD controller 82. These electronic components (circuit components) are mounted on an electronic circuit board and stored in the lower housing 14 (or the upper housing 12).

CPU50は、所定のプログラムを実行するための情報処理手段である。この実施例では、所定のプログラムは、ゲーム装置10内のメモリ(たとえば保存用データメモリ56)やメモリカード26および/または28に記憶されており、CPU50は、当該所定のプログラムを実行することによって、後述するゲーム処理を実行する。   The CPU 50 is information processing means for executing a predetermined program. In this embodiment, the predetermined program is stored in a memory (for example, the storage data memory 56) or the memory card 26 and / or 28 in the game apparatus 10, and the CPU 50 executes the predetermined program by executing the predetermined program. A game process to be described later is executed.

なお、CPU50によって実行されるプログラムは、ゲーム装置10内のメモリに予め記憶していてもよいし、メモリカード26および/または28から取得してもよいし、他の機器と通信することによって当該他の機器から取得してもよい。   The program executed by the CPU 50 may be stored in advance in a memory in the game apparatus 10, may be acquired from the memory card 26 and / or 28, or may be obtained by communicating with other devices. You may acquire from another apparatus.

CPU50には、メインメモリ52、メモリ制御回路54、およびプリセットデータ用メモリ58が接続される。また、メモリ制御回路54には、保存用データメモリ56が接続される。メインメモリ52は、CPU50のワーク領域やバッファ領域として用いられる記憶手段である。すなわち、メインメモリ52は、上記ゲーム処理に用いられる各種データを記憶(一時記憶)したり、外部(メモリカード26および28や他の機器等)から取得されるプログラムを記憶したりする。この実施例では、メインメモリ52として、たとえばPSRAM(Pseudo−SRAM)を用いる。保存用データメモリ56は、CPU50によって実行されるプログラムや内側カメラ32および外側カメラ34によって撮像された画像のデータ等を記憶(保存)するための記憶手段である。この保存用データメモリ56は、不揮発性の記憶媒体によって構成されており、たとえば、NAND型フラッシュメモリを用いることができる。メモリ制御回路54は、CPU50の指示に従って、保存用データメモリ56に対するデータの読み出しおよび書き込みを制御する。プリセットデータ用メモリ58は、ゲーム装置10において予め設定される各種パラメータ等のデータ(プリセットデータ)を記憶するための記憶手段である。プリセットデータ用メモリ58としては、SPI(Serial Peripheral Interface)バスによってCPU50と接続されるフラッシュメモリを用いることができる。   A main memory 52, a memory control circuit 54, and a preset data memory 58 are connected to the CPU 50. In addition, a storage data memory 56 is connected to the memory control circuit 54. The main memory 52 is a storage means used as a work area or buffer area for the CPU 50. That is, the main memory 52 stores (temporarily stores) various data used for the game processing, and stores programs acquired from the outside (such as the memory cards 26 and 28 and other devices). In this embodiment, for example, a PSRAM (Pseudo-SRAM) is used as the main memory 52. The storage data memory 56 is a storage unit for storing (saving) a program executed by the CPU 50, data of images taken by the inner camera 32 and the outer camera 34, and the like. The storage data memory 56 is configured by a nonvolatile storage medium, and for example, a NAND flash memory can be used. The memory control circuit 54 controls reading and writing of data with respect to the storage data memory 56 in accordance with instructions from the CPU 50. The preset data memory 58 is a storage means for storing data (preset data) such as various parameters set in advance in the game apparatus 10. As the preset data memory 58, a flash memory connected to the CPU 50 by an SPI (Serial Peripheral Interface) bus can be used.

メモリカードI/F60および62は、それぞれCPU50に接続される。メモリカードI/F60は、コネクタに装着されたメモリカード26に対するデータの読み出しおよび書き込みを、CPU50の指示に応じて行う。また、メモリカードI/F62は、コネクタに装着されたメモリカード28に対するデータの読み出しおよび書き込みを、CPU50の指示に応じて行う。この実施例では、内側カメラ32および外側カメラ34によって撮像された画像に対応する画像データや他の装置から受信された画像データがメモリカード26に書き込まれたり、メモリカード26に記憶された画像データがメモリカード26から読み出されて保存用データメモリ56に記憶されたり、他の装置へ送信されたりする。また、メモリカード28に記憶された各種プログラムが、CPU50によって読み出されて実行されたりする。   Memory card I / Fs 60 and 62 are each connected to CPU 50. The memory card I / F 60 reads and writes data to and from the memory card 26 attached to the connector according to instructions from the CPU 50. Further, the memory card I / F 62 reads and writes data from and to the memory card 28 attached to the connector according to instructions from the CPU 50. In this embodiment, image data corresponding to images taken by the inner camera 32 and the outer camera 34 and image data received from another device are written to the memory card 26 or image data stored in the memory card 26. Is read from the memory card 26 and stored in the storage data memory 56 or transmitted to another device. Various programs stored in the memory card 28 are read out and executed by the CPU 50.

なお、ゲームプログラムは、メモリカード28等の外部記憶媒体を通じてゲーム装置10に供給されるだけでなく、有線または無線の通信回線を通じてゲーム装置10に供給されてもよい。また、ゲームプログラムは、ゲーム装置10内部の不揮発性記憶装置に予め記録されていてもよい。さらに、ゲームプログラムを記憶する情報記憶媒体としては、上記不揮発性記憶装置に限らず、CD−ROM、DVD、あるいはそれらに類する光学式ディスク状記憶媒体でもよい。   Note that the game program may be supplied not only to the game apparatus 10 through an external storage medium such as the memory card 28 but also to the game apparatus 10 through a wired or wireless communication line. Further, the game program may be recorded in advance in a nonvolatile storage device inside the game apparatus 10. Furthermore, the information storage medium for storing the game program is not limited to the nonvolatile storage device, but may be a CD-ROM, a DVD, or an optical disk storage medium similar to them.

無線通信モジュール64は、たとえばIEEE802.11.b/gの規格に準拠した方式により、無線LANに接続する機能を有する。また、ローカル通信モジュール66は、所定の通信方式により同種のゲーム装置との間で無線通信を行う機能を有する。無線通信モジュール64およびローカル通信モジュール66は、CPU50に接続される。CPU50は、無線通信モジュール64を用いてインターネットを介して他の機器との間でデータを送受信したり、ローカル通信モジュール66を用いて同種の他のゲーム装置との間でデータを送受信したりすることができる。   The wireless communication module 64 is, for example, IEEE802.11. It has a function of connecting to a wireless LAN by a method compliant with the b / g standard. Further, the local communication module 66 has a function of performing wireless communication with the same type of game device by a predetermined communication method. The wireless communication module 64 and the local communication module 66 are connected to the CPU 50. The CPU 50 transmits / receives data to / from other devices via the Internet using the wireless communication module 64, and transmits / receives data to / from other game devices of the same type using the local communication module 66. be able to.

また、CPU50には、RTC68および電源回路70が接続される。RTC68は、時間をカウントしてCPU50に出力する。たとえば、CPU50は、RTC68によって計時された時間に基づいて、現在時刻(日付)等を計算することもできる。電源回路70は、ゲーム装置10が有する電源(典型的には電池であり、下側ハウジング14に収納される)から供給される電力を制御し、ゲーム装置10の各回路コンポーネントに電力を供給する。   Further, the RTC 68 and the power supply circuit 70 are connected to the CPU 50. The RTC 68 counts the time and outputs it to the CPU 50. For example, the CPU 50 can calculate the current time (date) based on the time counted by the RTC 68. The power supply circuit 70 controls power supplied from a power supply (typically a battery and is housed in the lower housing 14) of the game apparatus 10, and supplies power to each circuit component of the game apparatus 10. .

また、ゲーム装置10は、マイク84およびアンプ86を備えている。マイク84およびアンプ86は、それぞれI/F回路72に接続される。マイク84は、ゲーム装置10に向かって発声ないし発生されたユーザの音声ないし音(拍手や手拍子など)を検知して、当該音声ないし音を示す音声信号をI/F回路72に出力する。アンプ86は、I/F回路72から与えられる音声信号を増幅してスピーカ(図示せず)に与える。I/F回路72は、CPU50に接続される。   The game apparatus 10 includes a microphone 84 and an amplifier 86. The microphone 84 and the amplifier 86 are connected to the I / F circuit 72, respectively. The microphone 84 detects the user's voice or sound (applause, hand clapping, etc.) uttered or generated toward the game apparatus 10, and outputs an audio signal indicating the sound or sound to the I / F circuit 72. The amplifier 86 amplifies the audio signal given from the I / F circuit 72 and gives it to a speaker (not shown). The I / F circuit 72 is connected to the CPU 50.

また、タッチパネル22は、I/F回路72に接続される。I/F回路72は、マイク84およびアンプ86(スピーカ)の制御を行う音声制御回路と、タッチパネル22の制御を行うタッチパネル制御回路とを含む。音声制御回路は、音声信号に対するA/D変換およびD/A変換を行ったり、音声信号を所定の形式の音声データに変換したりする。タッチパネル制御回路は、タッチパネル22からの信号に基づいて所定の形式のタッチ位置データを生成してCPU50に出力する。たとえば、タッチ位置データは、タッチパネル22の入力面に対して入力が行われた位置の座標を示すデータである。   The touch panel 22 is connected to the I / F circuit 72. The I / F circuit 72 includes a sound control circuit that controls the microphone 84 and the amplifier 86 (speaker), and a touch panel control circuit that controls the touch panel 22. The voice control circuit performs A / D conversion and D / A conversion on the voice signal, or converts the voice signal into voice data of a predetermined format. The touch panel control circuit generates touch position data in a predetermined format based on a signal from the touch panel 22 and outputs it to the CPU 50. For example, the touch position data is data indicating coordinates of a position where an input is performed on the input surface of the touch panel 22.

なお、タッチパネル制御回路は、タッチパネル22からの信号の読み込み、および、タッチ位置データの生成を所定時間に1回の割合で行う。CPU50は、I/F回路72を介して、タッチ位置データを取得することにより、タッチパネル22に対して入力が行われた位置を知ることができる。   The touch panel control circuit reads signals from the touch panel 22 and generates touch position data at a rate of once per predetermined time. The CPU 50 can know the position where the input is performed on the touch panel 22 by acquiring the touch position data via the I / F circuit 72.

操作ボタン20は、上記の各操作ボタン20a−20kによって構成され、CPU50に接続される。操作ボタン20からCPU50へは、各操作ボタン20a−20kに対する入力状況(押下されたか否か)を示す操作データが出力される。CPU50は、操作ボタン20からの操作データを取得し、取得した操作データに応じた処理を実行する。   The operation button 20 includes the operation buttons 20a-20k described above and is connected to the CPU 50. From the operation button 20 to the CPU 50, operation data indicating an input state (whether or not the button is pressed) for each operation button 20a-20k is output. CPU50 acquires the operation data from the operation button 20, and performs the process according to the acquired operation data.

内側カメラ32および外側カメラ34は、それぞれCPU50に接続される。内側カメラ32および外側カメラ34は、CPU50の指示に応じて画像を撮像し、撮像した画像に対応する画像データをCPU50に出力する。この実施例では、CPU50は、内側カメラ32および外側カメラ34のいずれか一方に対して撮像指示を行い、撮像指示を受けたカメラ(32,34)が画像を撮像して画像データをCPU50に送る。   The inner camera 32 and the outer camera 34 are each connected to the CPU 50. The inner camera 32 and the outer camera 34 capture an image in accordance with an instruction from the CPU 50, and output image data corresponding to the captured image to the CPU 50. In this embodiment, the CPU 50 issues an imaging instruction to one of the inner camera 32 and the outer camera 34, and the camera (32, 34) receiving the imaging instruction captures an image and sends the image data to the CPU 50. .

第1GPU74には、第1VRAM78が接続され、第2GPU76には、第2VRAM80が接続される。第1GPU74は、CPU50からの指示に応じて、メインメモリ52に記憶されている表示画像を生成するためのデータに基づいて第1の表示画像を生成し、第1VRAM78に描画する。第2GPU76は、同様にCPU50からの指示に応じて第2の表示画像を生成し、第2VRAM80に描画する。第1VRAM78および第2VRAM80は、LCDコントローラ82に接続されている。   A first VRAM 78 is connected to the first GPU 74, and a second VRAM 80 is connected to the second GPU 76. The first GPU 74 generates a first display image based on data for generating a display image stored in the main memory 52 in accordance with an instruction from the CPU 50, and draws the first display image in the first VRAM 78. Similarly, the second GPU 76 generates a second display image in accordance with an instruction from the CPU 50 and draws it in the second VRAM 80. The first VRAM 78 and the second VRAM 80 are connected to the LCD controller 82.

LCDコントローラ82は、レジスタ82aを含む。レジスタ82aは、CPU50からの指示に応じて、「0」または「1」の値を記憶する。LCDコントローラ82は、レジスタ82aの値が「0」である場合には、第1VRAM78に描画された第1の表示画像を第2LCD18に出力し、第2VRAM80に描画された第2の表示画像を第1LCD16に出力する。また、レジスタ82aの値が「1」である場合には、第1VRAM78に描画された第1の表示画像を第1LCD16に出力し、第2VRAM80に描画された第2の表示画像を第2LCD18に出力する。この実施例では、CPU50は、内側カメラ32および外側カメラ34で撮影された画像に対応する顔(肌色領域)のシルエットおよびゲーム画面を第1LCD16に表示させ、所定の処理によって生成した操作説明画面やゲーム画面などを第2LCD18に表示させる。   The LCD controller 82 includes a register 82a. The register 82a stores a value “0” or “1” in accordance with an instruction from the CPU 50. When the value of the register 82 a is “0”, the LCD controller 82 outputs the first display image drawn in the first VRAM 78 to the second LCD 18 and the second display image drawn in the second VRAM 80 as the second display image. 1 Outputs to the LCD 16. When the value of the register 82 a is “1”, the first display image drawn in the first VRAM 78 is output to the first LCD 16, and the second display image drawn in the second VRAM 80 is output to the second LCD 18. To do. In this embodiment, the CPU 50 causes the first LCD 16 to display the silhouette of the face (skin color area) and the game screen corresponding to the images taken by the inner camera 32 and the outer camera 34, and displays an operation explanation screen generated by a predetermined process. A game screen or the like is displayed on the second LCD 18.

図示は省略するが、たとえば、第2LCD18には上記操作説明画面として、撮影指示ボタン説明画像、カメラ切替ボタン説明画像、ズーム指示ボタン説明画像、および表示画像選択ボタン説明画像等が表示される。撮影指示ボタン説明画像は、撮影指示を行うための操作ボタン20の位置を示す画像である。カメラ切替ボタン説明画像は、カメラ切替指示を行うための操作ボタン20の位置を示す画像である。ここで、カメラ切替指示とは、内側カメラ32および外側カメラ34のうちで、撮像を行うカメラを切り替える指示である。ズーム指示ボタン説明画像は、ズーム変更指示を行うための操作ボタン20の位置を示す画像である。ここで、ズーム変更指示は、第1LCD16に表示される画像を拡大/縮小する指示である。表示画像選択ボタン説明画像は、表示変更指示を行うための操作ボタン20の位置を示す画像である。ここで、表示画像選択指示とは、ゲーム装置10に保存されている保存画像を、第1LCD16に表示する場合に、この第1LCD16に表示する保存画像を選択する指示である。   Although illustration is omitted, for example, a shooting instruction button explanation image, a camera switching button explanation image, a zoom instruction button explanation image, a display image selection button explanation image, and the like are displayed on the second LCD 18 as the operation explanation screen. The shooting instruction button explanation image is an image showing the position of the operation button 20 for giving a shooting instruction. The camera switching button explanation image is an image indicating the position of the operation button 20 for instructing camera switching. Here, the camera switching instruction is an instruction to switch a camera to be imaged among the inner camera 32 and the outer camera 34. The zoom instruction button explanation image is an image indicating the position of the operation button 20 for performing a zoom change instruction. Here, the zoom change instruction is an instruction to enlarge / reduce the image displayed on the first LCD 16. The display image selection button explanation image is an image indicating the position of the operation button 20 for performing a display change instruction. Here, the display image selection instruction is an instruction to select a stored image to be displayed on the first LCD 16 when the stored image stored in the game apparatus 10 is displayed on the first LCD 16.

図4には、この実施例のゲーム装置10を用いて、仮想ゲーム(アクションゲーム)をプレイする場合に、第1LCD16に表示されるゲーム画面100の例が示される。図4(A)および図4(B)に示すゲーム画面100では、そのほぼ中央に、人間の唇を模したオブジェクト(唇オブジェクト)102が表示される。また、唇オブジェクト102の下方には、パンを模したオブジェクト(パンオブジェクト)104が表示される。   FIG. 4 shows an example of a game screen 100 displayed on the first LCD 16 when playing a virtual game (action game) using the game apparatus 10 of this embodiment. In the game screen 100 shown in FIGS. 4A and 4B, an object (lip object) 102 that imitates a human lip is displayed at the approximate center thereof. In addition, an object (pan object) 104 imitating a pan is displayed below the lip object 102.

この仮想ゲームでは、ユーザないしプレイヤが、パンを食べるように、口を開閉すると、それを内側カメラ32で撮影した画像に基づいて検出し、ゲーム画面100に表示された唇オブジェクト102を開閉させ、パンオブジェクト104を食べる様子が表現される。たとえば、制限時間内に、パンオブジェクト104を食べ切った場合には、ゲームクリアとなるが、制限時間内に、パンオブジェクト104を食べ切れなかった場合には、ゲームオーバになる。   In this virtual game, when the user or player opens and closes his mouth so as to eat bread, it detects it based on the image taken by the inner camera 32, opens and closes the lip object 102 displayed on the game screen 100, A state of eating the bread object 104 is expressed. For example, if the bread object 104 is eaten up within the time limit, the game is cleared, but if the bread object 104 is not eaten up within the time limit, the game is over.

図4(A)および図4(B)に示すように、ユーザの顔すなわち肌色が撮影画像から抽出され、抽出された肌色の領域がシルエット106でゲーム画面100に表示されている。この実施例では、ユーザの顔が認識されているか否か、およびユーザの顔が認識されている場合には、その大きさ(ゲーム画面100(内側カメラ32)とユーザの顔との距離)が適切であるか否かが、シルエット106の形状および大きさによってユーザに報知される。   As shown in FIGS. 4A and 4B, the user's face, that is, the skin color, is extracted from the photographed image, and the extracted skin color region is displayed on the game screen 100 as a silhouette 106. In this embodiment, whether or not the user's face is recognized, and if the user's face is recognized, the size (distance between the game screen 100 (inner camera 32) and the user's face) is determined. Whether or not it is appropriate is notified to the user by the shape and size of the silhouette 106.

なお、図4および図5に示すように、ほぼ楕円形状で、ゲーム画面(100,200)に収まる大きさであれば、認識されているユーザの顔は、開発者ないしプログラマが意図した姿勢ないし状態であると言える。   As shown in FIGS. 4 and 5, the recognized user's face is a posture or an intention intended by the developer or programmer as long as it is substantially elliptical and fits in the game screen (100, 200). It can be said that it is in a state.

ただし、この実施例では、図5に示すように、第1LCD16の表示領域に特定の領域(特定領域)110を設定し、その特定領域110を4画素単位(2×2の格子毎)で肌色か否かを検出し、格子の総数(この実施例では、24×56÷4=338)のうち、肌色と検出された格子の数の割合が所定値(たとえば、35%)以上であるか否かで、ユーザの顔を正しく認識しているかどうかを判定するようにしてある(肌色判定処理)。つまり、ゲーム画面(第1LCD16)ないし内側カメラ32に対するユーザの顔(頭部)の位置(前後方向および左右方向の位置)が、プログラマないし開発者が意図したプレイ状態に適切な位置であるかどうかを判断するのである。   However, in this embodiment, as shown in FIG. 5, a specific area (specific area) 110 is set in the display area of the first LCD 16, and the specific area 110 is flesh colored in units of 4 pixels (2 × 2 grids). In the total number of grids (24 × 56 ÷ 4 = 338 in this embodiment), whether the ratio between the skin color and the number of detected grids is a predetermined value (for example, 35%) or more. No, it is determined whether the user's face is correctly recognized (skin color determination process). That is, whether the position of the user's face (head) with respect to the game screen (first LCD 16) or the inner camera 32 (position in the front-rear direction and the left-right direction) is an appropriate position for the play state intended by the programmer or developer. Is judged.

なお、撮影画像から肌色を抽出する方法(肌色の抽出処理)については後で詳細に説明することにする。同じく、肌色の抽出処理に使用する閾値の調整処理についても後で詳細に説明することにする。   Note that a method for extracting skin color from a captured image (skin color extraction processing) will be described in detail later. Similarly, threshold value adjustment processing used for skin color extraction processing will be described in detail later.

また、図5に示すように、第1LCD16の座標系は、その表示領域の左上の頂点を原点Oとし、図面の右方向がX軸のプラス方向であり、図面の下方向がY軸のプラス方向である。以下、この実施例において同じである。   As shown in FIG. 5, the coordinate system of the first LCD 16 has the upper left vertex of the display area as the origin O, the right direction of the drawing is the positive direction of the X axis, and the downward direction of the drawing is the positive direction of the Y axis. Direction. Hereinafter, this is the same in this embodiment.

つまり、画面中央付近に、ユーザの顔が有るか否かを判定するのである。ここで、ユーザの顔が画面中央付近に存在しない場合には、ユーザの口もパンオブジェクト104の近くに無いと判断して、口の開閉を検出しない。一方、ユーザの顔が画面中央付近に存在する場合には、ユーザの口もパンオブジェクト104の近くに有ると判断して、口の開閉を検出する。   That is, it is determined whether or not the user's face is near the center of the screen. If the user's face does not exist near the center of the screen, it is determined that the user's mouth is not near the pan object 104, and the opening / closing of the mouth is not detected. On the other hand, when the user's face exists near the center of the screen, it is determined that the user's mouth is also near the pan object 104, and the opening / closing of the mouth is detected.

特定領域110は、第1LCD16の画面(表示領域)の中心を基準に、左右に12画素(ドット)の長さを有し、上下に28画素の長さを有する長方形で規定される。ただし、これは一例であり、特定領域110の位置および大きさ(形状)は、ゲームの種類などによって任意に設定可能である。   The specific area 110 is defined by a rectangle having a length of 12 pixels (dots) on the left and right and a length of 28 pixels on the top and bottom with respect to the center of the screen (display area) of the first LCD 16. However, this is only an example, and the position and size (shape) of the specific area 110 can be arbitrarily set depending on the type of game.

また、ゲーム中では、内側カメラ32で撮影した画像から、ユーザの特徴点が検出され、その特徴点に基づいて、ユーザの顔を認識したり、ユーザの特定の表情(顔の動き)を検出したりするようにしてある。ただし、肌色領域のみならず、特徴点に基づいて、ユーザの顔を認識するのは、顔以外の肌色領域を、誤って顔と認識してしまうような誤動作を防止するためである。   Further, during the game, a feature point of the user is detected from the image taken by the inner camera 32, and based on the feature point, the user's face is recognized or a specific facial expression (face movement) of the user is detected. I try to do it. However, the reason why the user's face is recognized not only based on the skin color area but also based on the feature point is to prevent a malfunction that erroneously recognizes the skin color area other than the face as the face.

ここで、具体的な口の開閉についての判定処理について説明することにする。図6は、内側カメラ32によって撮影されたユーザの顔画像およびその特徴点Pi(i=1,2,…,54,55)を示す図解図である。ただし、図7に示すように、メインメモリ52に展開される画像をカメラ座標系で示し、また、画像を展開する領域(展開領域)150は、第1LCD16の表示領域の大きさに相当する大きさで、メインメモリ52に確保される。この展開領域150の左上の頂点がカメラ座標の原点Oである。また、カメラ座標系では、図面の右方向がX軸のプラス方向であり、図面の下方向がY軸のプラス方向である。また、図6および図7に示す顔画像は、内側カメラ32によって撮影されたユーザの顔画像であり、その顔画像の鏡像が展開領域150に展開される。   Here, a specific determination process for opening and closing the mouth will be described. FIG. 6 is an illustrative view showing a user's face image photographed by the inner camera 32 and its feature points Pi (i = 1, 2,..., 54, 55). However, as shown in FIG. 7, the image developed in the main memory 52 is shown in the camera coordinate system, and the image development region (development region) 150 is a size corresponding to the size of the display region of the first LCD 16. Now, it is secured in the main memory 52. The top left vertex of the development area 150 is the origin O of the camera coordinates. In the camera coordinate system, the right direction of the drawing is the positive direction of the X axis, and the downward direction of the drawing is the positive direction of the Y axis. The face images shown in FIGS. 6 and 7 are user face images taken by the inner camera 32, and a mirror image of the face image is developed in the development area 150.

なお、図7では、図面の都合上、図6に示した特徴点Piを省略し、顔画像のみを記載してある。   In FIG. 7, for convenience of drawing, the feature point Pi shown in FIG. 6 is omitted, and only the face image is shown.

まず、特徴点Piのうち、上唇の上端中央の特徴点P31の座標(X1, Y1)と、上唇の下端中央の特徴点P35の座標(X2, Y2)との中点(上唇の中点)LipUの座標(LipU_X, LipU_Y)を算出するとともに、下唇の上端中央に特徴点P38の座標(X3, Y3)と、下唇の下端中央の特徴点P41の座標(X4, Y4)との中点(下唇の中点)LipDの座標(LipD_X, LipD_Y)を算出する。また、これら2つの中点LipU, LipDの各軸方向についての差分(唇の差分)(Lip_dX, Lip_dY)を算出する。ただし、唇の差分(Lip_dX, Lip_dY)は、絶対値であり、数1に従って算出される。   First, among the feature points Pi, the midpoint between the coordinates (X1, Y1) of the feature point P31 at the upper center of the upper lip and the coordinates (X2, Y2) of the feature point P35 at the center of the lower end of the upper lip (middle point of the upper lip) LipU coordinates (LipU_X, LipU_Y) are calculated, and the coordinates of the feature point P38 (X3, Y3) at the center of the upper end of the lower lip and the coordinates (X4, Y4) of the feature point P41 of the lower end center of the lower lip are calculated. The coordinates (LipD_X, LipD_Y) of the point (midpoint of the lower lip) LipD are calculated. Further, a difference (lip difference) (Lip_dX, Lip_dY) in the respective axial directions of these two middle points LipU and LipD is calculated. However, the lip difference (Lip_dX, Lip_dY) is an absolute value and is calculated according to Equation 1.

[数1]
Lip_dX=|LipU_X-LipD_X|
Lip_dY=|LipU_Y-LipD_Y|
また、特徴点Piのうち、左目の中心(瞳中央)の特徴点P17の座標(X5, Y5)と、左目の上端中央(上瞼中央)の特徴点P13の座標(X6, Y6)との中点(左目の中点)EyeLの座標(EyeL_X, EyeL_Y)を算出する。同様に、特徴点Piのうち、右目の中心(瞳中央)の特徴点P24の座標(X7, Y7)と、右目の上端中央(上瞼中央)の特徴点P20の座標(X8, Y8)との中点(右目の中点)EyeRの座標(EyeR_X, EyeR_Y)を算出する。また、これら2つの中点EyeL, EyeRの各軸方向についての差分(目の差分)(Eye_dX, Eye_dY)を算出する。ただし、目の差分(Eye_dX, Eye_dY)は、絶対値であり、数2に従って算出される。
[Equation 1]
Lip_dX = | LipU_X-LipD_X |
Lip_dY = | LipU_Y-LipD_Y |
Of the feature points Pi, the coordinates (X5, Y5) of the feature point P17 at the center of the left eye (center of the pupil) and the coordinates (X6, Y6) of the feature point P13 of the center of the upper end of the left eye (center of the upper eyelid). The coordinates (EyeL_X, EyeL_Y) of the midpoint (midpoint of the left eye) EyeL are calculated. Similarly, among the feature points Pi, the coordinates (X7, Y7) of the feature point P24 at the center of the right eye (pupil center) and the coordinates (X8, Y8) of the feature point P20 at the center of the upper end of the right eye (center of the upper eyelid) Calculate the coordinates (EyeR_X, EyeR_Y) of the middle point (the middle point of the right eye) EyeR. Also, the difference (eye difference) (Eye_dX, Eye_dY) of each of these two midpoints EyeL and EyeR in each axial direction is calculated. However, the eye difference (Eye_dX, Eye_dY) is an absolute value and is calculated according to Equation 2.

[数2]
Eye_dX=|EyeL_X-EyeR_X|
Eye_dY=|EyeL_Y-EyeR_Y|
続いて、数3−数7を満たすか否かを判定する。これは、開発者ないしプログラマが意図するプレイ状態と異なる態様でゲームをプレイしている場合を排除するためである。ただし、“||”はオア(∪)を意味する。
[Equation 2]
Eye_dX = | EyeL_X-EyeR_X |
Eye_dY = | EyeL_Y-EyeR_Y |
Subsequently, it is determined whether or not Expression 3 to Expression 7 is satisfied. This is to eliminate the case where the game is played in a mode different from the play state intended by the developer or programmer. However, “||” means or (∪).

[数3]
(LipU_X<16 || LipU_X>240 || LipU_Y<16 || LipU_Y>176)
(LipD_X<16 || LipD_X>240 || LipD_Y<16 || LipD_Y>176)
(EyeL_X<16 || EyeL_X>240 || EyeL_Y<16 || EyeL_Y>176)
(EyeR_X<16 || EyeR_X>240 || EyeR_Y<16 || EyeR_Y>176)
[数4]
Lip_dX>64
[数5]
Lip_dY>96
[数6]
Eye_dX>96
[数7]
Eye_dY>24
これら数3−数7のいずれか1つでも満たす場合には、誤検出、或いは、開発者等が想定するプレイ状態で無いと判断して、今回の口の開閉判定処理を無効にする。具体的には、数3のいずれかを満たす場合には、特徴点Piが画面の端に寄り過ぎていると判断される。つまり、ユーザの唇や目が画面の端に寄り過ぎているのである。このような場合には、誤検出、或いは開発者等が想定するプレイ状態で無いと判断される。
[Equation 3]
(LipU_X <16 || LipU_X> 240 || LipU_Y <16 || LipU_Y> 176)
(LipD_X <16 || LipD_X> 240 || LipD_Y <16 || LipD_Y> 176)
(EyeL_X <16 || EyeL_X> 240 || EyeL_Y <16 || EyeL_Y> 176)
(EyeR_X <16 || EyeR_X> 240 || EyeR_Y <16 || EyeR_Y> 176)
[Equation 4]
Lip_dX> 64
[Equation 5]
Lip_dY> 96
[Equation 6]
Eye_dX> 96
[Equation 7]
Eye_dY> 24
If any one of these equations 3 to 7 is satisfied, it is determined that the play state assumed by the developer or the developer is not assumed, and the current mouth open / close determination processing is invalidated. Specifically, when any one of Equation 3 is satisfied, it is determined that the feature point Pi is too close to the edge of the screen. That is, the user's lips and eyes are too close to the edge of the screen. In such a case, it is determined that there is no false detection or a play state assumed by a developer or the like.

数4を満たす場合には、上下唇が左右にずれ過ぎていると判断される。このような場合には、誤検出、或いはユーザの顔が画面(第1LCD16)に接近し過ぎているなど、開発者等が想定するプレイ状態では無いと判断される。また、数5を満たす場合には、上下唇が上下に開き過ぎていると判断される。このような場合には、誤検出、或いはユーザの顔が画面(第1LCD16)に接近し過ぎているなど、開発者が想定するプレイ状態では無いと判断される。   When Expression 4 is satisfied, it is determined that the upper and lower lips are shifted too much to the left and right. In such a case, it is determined that the play state is not assumed by the developer or the like, such as erroneous detection or the user's face being too close to the screen (first LCD 16). Further, when Expression 5 is satisfied, it is determined that the upper and lower lips are too open up and down. In such a case, it is determined that the play state is not assumed by the developer, such as erroneous detection or the user's face being too close to the screen (first LCD 16).

数6を満たす場合には、左右の目が離れ過ぎていると判断される。このような場合には、誤検出、或いはユーザの顔が画面(第1LCD16)に接近し過ぎているなど、開発者等が想定するプレイ状態ではないと判断される。また、数7を満たす場合には、左右の目が上下にずれ過ぎていると判断される。このような場合には、誤検出、或いはユーザの顔が画面(第1LCD16)に接近し過ぎているなど、開発者等が想定するプレイ状態では無いと判断される。   When Expression 6 is satisfied, it is determined that the left and right eyes are too far apart. In such a case, it is determined that the play state is not assumed by the developer or the like, such as erroneous detection or the user's face being too close to the screen (first LCD 16). Further, when Expression 7 is satisfied, it is determined that the left and right eyes are shifted too much up and down. In such a case, it is determined that the play state is not assumed by the developer or the like, such as erroneous detection or the user's face being too close to the screen (first LCD 16).

肌色判定処理により、ユーザの顔(肌色領域)を正しく認識し、かつ、上記数3ないし数7のいずれも満たさない場合には、開発者等が意図したプレイ状態であると判断して、口の開閉を判断する。数8を満たす場合には、ユーザが口を閉じていると判断し、一方、数9を満たす場合には、ユーザが口を開いていると判断する。ただし、ユーザが口を開いた後に、口を閉じたと判断されたときに、パンオブジェクト104が唇オブジェクト102によって一回食べられる。   If the user's face (skin color area) is correctly recognized by the skin color determination process and none of the above formulas 3 to 7 is satisfied, it is determined that the play state is intended by the developer and the like. Judge whether to open or close. When Expression 8 is satisfied, it is determined that the user is closing his mouth, while when Expression 9 is satisfied, it is determined that the user is opening his mouth. However, the bread object 104 is eaten once by the lip object 102 when it is determined that the user has closed the mouth after opening the mouth.

[数8]
Lip_dY<16
[数9]
Lip_dY≧16
このようにして、図4(A)および図4(B)に示すゲームでは、肌色判定処理によって、ユーザの顔(肌色領域)のシルエット106がパンオブジェクト104付近に有ると判断されると、特徴点Piに基づいて、開発者等の意図したプレイ状態であるかどうかが判断される。ここで、意図したプレイ状態である場合には、さらに、特徴点Piに基づいて、ユーザが口を開閉したかどうかが判定される。そして、ユーザが口を開閉したと判定されと、これに応じて、パンを食べる様子のゲーム画面100(図示せず)が第1LCD16に表示される。したがって、たとえば、図4(A)に示す状態で、唇オブジェクト102が開閉し、このとき、パンオブジェクト104が唇オブジェクト102によってかじられ、図4(B)に示すように、パンオブジェクト104の一部が無くなった様子のゲーム画面100が表示される。
[Equation 8]
Lip_dY <16
[Equation 9]
Lip_dY ≧ 16
In this way, in the game shown in FIGS. 4A and 4B, if it is determined by the skin color determination process that the silhouette 106 of the user's face (skin color region) is near the pan object 104, Based on the point Pi, it is determined whether or not the play state is intended by the developer or the like. Here, if the play state is intended, it is further determined whether or not the user has opened and closed the mouth based on the feature point Pi. When it is determined that the user has opened and closed his / her mouth, a game screen 100 (not shown) of eating bread is displayed on the first LCD 16 accordingly. Therefore, for example, in the state shown in FIG. 4A, the lip object 102 opens and closes. At this time, the pan object 104 is gnawed by the lip object 102, and as shown in FIG. A game screen 100 is displayed as if the game has been lost.

ただし、図4(B)に示すゲーム画面100では、パンオブジェクト104がかじられた後に、さらに、ユーザの口が開閉したことが検出され、これに応じて、唇オブジェクト102が開いて、パンオブジェクト104をかじろうとしている様子が示される。   However, in the game screen 100 shown in FIG. 4B, after the pan object 104 is gnawed, it is further detected that the user's mouth has been opened and closed. In response, the lip object 102 is opened and the pan object is opened. A state of trying to bite 104 is shown.

この実施例では、パンを複数回(たとえば、2回)に分けて、食べるようにしてあるため、制限時間内に複数回ユーザの口の開閉が検出されると、パンオブジェクト104が全部無くなることにより、すなわち所定の目標を達成することにより、ゲームクリアとなる。ただし、制限時間内に複数回ユーザの口の開閉が検出されない場合には、パンオブジェクト104が無くならず、所定の目標を達成できずに、ゲームオーバとなる。   In this embodiment, the bread is divided into a plurality of times (for example, two times) and eaten, so that if the user's mouth opening / closing is detected a plurality of times within the time limit, all the bread objects 104 are lost. That is, when the predetermined goal is achieved, the game is cleared. However, if the opening / closing of the user's mouth is not detected a plurality of times within the time limit, the pan object 104 is not lost, the predetermined goal cannot be achieved, and the game is over.

図8(A)および図8(B)には、他の仮想ゲーム(アクションゲーム)のゲーム画面200の例が示される。図8(A)に示すように、ゲーム画面200のほぼ中央には、赤ちゃんを模したオブジェクト(赤ちゃんオブジェクト)202が表示され、その左方に兎のぬいぐるみを模したオブジェクト(ぬいぐるみオブジェクト)204が表示される。また、ゲーム画面200の左上部には、ユーザに現在行うべき動作(身振り手振り)を指示するための指示画像表示領域206が設けられる。そして、ゲーム画面200には、ユーザの顔(肌色領域)のシルエット208が表示される。   8A and 8B show examples of game screens 200 of other virtual games (action games). As shown in FIG. 8 (A), an object imitating a baby (baby object) 202 is displayed in the approximate center of the game screen 200, and an object imitating a stuffed toy puppy (stuffed object) 204 is on the left side. Is displayed. In addition, an instruction image display area 206 for instructing the user to perform an action to be performed (gesturing hand gesture) is provided at the upper left portion of the game screen 200. The game screen 200 displays a silhouette 208 of the user's face (skin color area).

この図8(A)および図8(B)に示すゲーム画面200を用いた仮想ゲームでは、ユーザが、制限時間内に、いわゆる「いないいないあばあ」の動作に成功すると、赤ちゃんオブジェクト202をあやすことができ、これによって所定の目的を達成し、ゲームクリアとなる。しかし、ユーザが、「いないいないばあ」の動作に失敗し、制限時間を超えると、すなわち、制限時間内に、赤ちゃんオブジェクト202をあやすことができなければ、ゲームオーバとなる。   In the virtual game using the game screen 200 shown in FIG. 8A and FIG. 8B, if the user succeeds in the so-called “not-a-life” operation within the time limit, the baby object 202 is displayed. The game can be completed by accomplishing a predetermined purpose. However, if the user fails in the “not in case” operation and exceeds the time limit, that is, if the baby object 202 cannot be lifted within the time limit, the game is over.

このような仮想ゲームにおいても、肌色判定処理によって、ユーザの顔を正しく認識しているかどうかを判断し、正しく認識している場合には、さらに、ユーザの顔の特徴点Piに基づいて、ユーザの顔の一部を認識することにより、「いないいないばあ」の動作を検出する。   Even in such a virtual game, whether or not the user's face is correctly recognized is determined by the skin color determination process, and if the user's face is correctly recognized, the user is further determined based on the feature point Pi of the user's face. By recognizing a part of the face of the person, the operation of “I don't know” is detected.

まず、この仮想ゲームでは、上述したように、肌色判定処理を行うが、図5に示した特定領域110とは、大きさ(範囲)が異なる特定領域110´が設定される。具体的には、図9に示すように、第1LCD16の画面(表示了領域)の中心を基準として、左右に28画素を有し、上方向に28画素を有し、下方向に12画素を有するように、特定領域110´が設定される。これは、ユーザが手で自身の顔を覆うとき、目だけを隠す場合と、目、鼻および口を隠す場合とのように、ユーザ毎に動作が異なるためである。   First, in this virtual game, skin color determination processing is performed as described above, but a specific area 110 ′ having a size (range) different from that of the specific area 110 illustrated in FIG. 5 is set. Specifically, as shown in FIG. 9, with the center of the screen (display end area) of the first LCD 16 as a reference, it has 28 pixels on the left and right, 28 pixels on the top, and 12 pixels on the bottom. The specific area 110 ′ is set to have. This is because when a user covers his / her face with a hand, the operation differs for each user, such as when only the eyes are hidden and when the eyes, nose and mouth are hidden.

また、このように、肌色領域を判定するのは、第1LCD16の画面の中央付近では、ユーザの顔が見えている状況においては、肌色が多少なりと分布しているはずであり、また、顔を素手で覆うことを想定しているため、顔を素手で覆った場合にも肌色が分布すると考えられるからである。   In addition, the skin color area is determined in this way because the skin color should be somewhat distributed near the center of the screen of the first LCD 16 when the user's face is visible. This is because the skin color is considered to be distributed even when the face is covered with bare hands.

このように、肌色領域を判定するのは、特徴点Piのみによって顔を認識するようにすると、顔を画面の外(内側カメラ32で撮影できないところ)に移動させて、顔が映らないようにすることにより、顔を手で覆った状況と同じ状況(すなわち特徴点Piが検出されない状況)が作れてしまい、そのようなプレイ状態は開発者等が意図する態様ではないからである。   As described above, the skin color area is determined by recognizing the face only by the feature point Pi so that the face is moved out of the screen (where the inner camera 32 cannot shoot) and the face is not reflected. This is because the same situation as the situation where the face is covered with the hand (that is, the situation where the feature point Pi is not detected) can be created, and such a play state is not an aspect intended by the developer or the like.

肌色判定処理は、図5を用いて説明した場合と同様であり、特定領域110´を2×2画素の格子単位で肌色か否かを検出し、格子の総数(この実施例では、56×40÷4=560)のうち、肌色を検出された格子の数の割合が所定値(たとえば、35%)以上であるか否かで、ユーザの顔を正しく認識しているかどうかを判定するようにしてある。   The skin color determination process is the same as that described with reference to FIG. 5, and it is detected whether the specific area 110 ′ is skin color in units of 2 × 2 pixels, and the total number of grids (in this embodiment, 56 × 40 ÷ 4 = 560), it is determined whether or not the user's face is correctly recognized depending on whether or not the ratio of the number of grids in which the skin color is detected is a predetermined value (for example, 35%) or more. It is.

肌色判定処理により、ユーザが顔を覆っている状態を検出すると、次に、特徴点Piに基づいて、上述したように、左右のそれぞれの目に対して、中点EyeL, EyeRを算出するとともに、差分(Eye_dX, Eye_dY )を算出する。ただし、これらの計算に用いる特徴点Piおよび数式(数1,数2)は上述したとおりであるため、重複した説明は省略する。   When the skin color determination process detects that the user is covering the face, next, based on the feature point Pi, as described above, the middle points EyeL and EyeR are calculated for the left and right eyes, respectively. The difference (Eye_dX, Eye_dY) is calculated. However, since the feature points Pi and the mathematical formulas (Equations 1 and 2) used for these calculations are as described above, a duplicate description is omitted.

次に、数10を満たすか否かが判断される。数10の4つの条件のうち、3つ以上を満たす場合には、ユーザの顔をプログラマ等が意図した大きさおよび位置で検出できたと判断する。ただし、“&&”はアンド(∩)を意味する。   Next, it is determined whether or not Expression 10 is satisfied. When three or more of the four conditions of Formula 10 are satisfied, it is determined that the user's face can be detected with the size and position intended by the programmer or the like. However, “&&” means AND.

[数10]
(EyeL_X>16 && EyeL_X<240)
(EyeL_Y>16 && EyeL_Y<176)
(EyeR_X>16 && EyeR_X<240)
(EyeR_Y>16 && EyeR_Y<176)
ユーザの顔を検出できている状態とユーザの顔を検出できていない状態とに基づいて、ユーザが顔を手で覆っている(隠している)かどうかを判断するようにしてある。この実施例では、評価値(変数EV)を用いて、その判断を行うようにしてある。ただし、変数EVは0から100の間で変化する整数である。また、変数EVが0に近いほど、ユーザの顔が隠されておらず、変数EVが100に近いほど、ユーザの顔が隠されていると評価するように、変数EVを変化させるようにしてある。
[Equation 10]
(EyeL_X> 16 && EyeL_X <240)
(EyeL_Y> 16 && EyeL_Y <176)
(EyeR_X> 16 && EyeR_X <240)
(EyeR_Y> 16 && EyeR_Y <176)
Based on the state in which the user's face can be detected and the state in which the user's face cannot be detected, it is determined whether or not the user is covering (hiding) the face with a hand. In this embodiment, the evaluation value (variable EV) is used to make the determination. However, the variable EV is an integer that varies between 0 and 100. Further, the variable EV is changed so that it is evaluated that the user's face is hidden as the variable EV is closer to 0 and the user's face is hidden as the variable EV is closer to 100. is there.

ユーザが顔を隠しているかどうかの評価の開始時には、変数EVは0に設定される。次に評価の開始からユーザが顔を隠したと判断されるまで、顔を検出できている状態が検出されると、数11に従って変数EVが減算され、顔を検出できていない状態が検出されると、数12に従って変数EVが加算される。ただし、上述したように、変数EVは、下限値0および上限値100を超えないように変化される。また、減算される値および加算される値は経験的に得られた値であり、これに限定される必要はない。   At the start of the evaluation of whether the user is hiding his face, the variable EV is set to zero. Next, when a state in which a face can be detected is detected from the start of evaluation until it is determined that the user has hidden the face, the variable EV is subtracted according to Equation 11 to detect a state in which the face cannot be detected. Then, the variable EV is added according to Equation 12. However, as described above, the variable EV is changed so as not to exceed the lower limit value 0 and the upper limit value 100. Further, the value to be subtracted and the value to be added are empirically obtained values, and need not be limited to these.

[数11]
EV=EV-12
[数12]
EV=EV+16
数11および数12に従って変数EVが変化され、変数EVすなわち評価値が所定値(この実施例では、70)を超えると、ユーザが顔を隠したと判断される。続いて、ユーザが顔を隠してから次に顔を見せるまで、顔を検出できている状態が検出されると、数13に従って変数EVが減算され、顔を検出できてない状態が検出されると、数14に従って変数EVが加算される。ただし、上述したように、変数EVは、下限値0および上限値100を超えないように変化される。また、減算される値および加算される値は経験的に得られた値であり、これに限定される必要はない。
[Equation 11]
EV = EV-12
[Equation 12]
EV = EV + 16
When the variable EV is changed according to Equations 11 and 12, and the variable EV, that is, the evaluation value exceeds a predetermined value (70 in this embodiment), it is determined that the user has hidden his / her face. Subsequently, when a state in which the face can be detected is detected from when the user hides the face until the next time the face is shown, the variable EV is subtracted according to Equation 13, and a state in which the face cannot be detected is detected. Then, the variable EV is added according to Equation 14. However, as described above, the variable EV is changed so as not to exceed the lower limit value 0 and the upper limit value 100. Further, the value to be subtracted and the value to be added are empirically obtained values, and need not be limited to these.

[数13]
EV=EV-16
[数14]
EV=EV+14
数13および数14に従って変数EVが変化され、変数EVすなわち評価値が所定値(この実施例では、30)以下になると、ユーザが顔を見せたと判断される。
[Equation 13]
EV = EV-16
[Equation 14]
EV = EV + 14
When the variable EV is changed according to the equations 13 and 14, and the variable EV, that is, the evaluation value becomes equal to or less than a predetermined value (30 in this embodiment), it is determined that the user has shown his face.

このようにして、ユーザが顔を隠した後に、顔を見せると、「いないいないばあ」の動作に成功したと判断する。上述したように、ユーザが「いないいないばあ」の動作を制限時間内に成功すれば、赤ちゃんオブジェクト202をあやすことができ、ゲームクリアとなる。   In this way, when the user hides his face and then shows his / her face, it is determined that the operation of “I'm not there” has succeeded. As described above, if the user succeeds in the operation of “if not,” the baby object 202 can be relaxed and the game is cleared.

ここで、図4および図8に示した仮想ゲームでは、いずれも肌色判定処理を実行するようにしてある。ただし、肌色は、ユーザ毎に個体差があり、しかも、ゲームをプレイする時間や場所などの環境によっても変化するため、撮影画像から肌色を抽出するための処理に用いられる閾値(色相下限、色相上限、彩度下限、彩度上限、輝度下限、輝度上限)が予め調整される。この調整処理は、ゲームの本編を開始するのに先立って、ユーザを撮影した画像を用いて行われる。ただし、以下に説明する調整処理は、ゲームの本編の開始前のみならず、ゲームの内容(面やシーンなど)が変化するなどの要所において、実行されるようにしてもよい。   Here, in the virtual games shown in FIG. 4 and FIG. 8, the skin color determination process is executed in both cases. However, since the skin color varies depending on each user, and also changes depending on the environment such as the time and place where the game is played, the threshold value used for the process of extracting the skin color from the photographed image (hue lower limit, hue) Upper limit, saturation lower limit, saturation upper limit, luminance lower limit, luminance upper limit) are adjusted in advance. This adjustment process is performed using an image obtained by photographing the user prior to starting the main part of the game. However, the adjustment process described below may be executed not only before the start of the main part of the game but also at a critical point such as when the content of the game (surface, scene, etc.) changes.

たとえば、ゲームの本編の開始に先立って、図10(A)に示すような調整画面300が第1LCD16に表示される。調整画面300には、ユーザの顔を撮影した画像(顔画像)を表示するための位置および大きさを指示するための顔型の指標(顔型指標)302およびユーザの手を撮影した画像(手画像)を表示するための位置および大きさを指示するための手型の指標(手型指標)304が表示される。   For example, prior to the start of the main game, an adjustment screen 300 as shown in FIG. 10A is displayed on the first LCD 16. The adjustment screen 300 includes a face-type index (face-type index) 302 for instructing the position and size for displaying an image (face image) obtained by capturing the user's face, and an image (the image of the user's hand). A hand-shaped index (hand-shaped index) 304 for indicating the position and size for displaying the hand image is displayed.

この実施例の仮想ゲームをプレイする場合には、ユーザは、図11に示すように、ゲーム装置10を机のような台上に置き、水平面(下側ハウジング14)に対して斜めになるように、上側ハウジング12を傾けるようにする。したがって、ユーザは、内側カメラ32によって撮影された自身の顔画像が顔型指標302に収まるように、ユーザの顔(頭部)または体全体とゲーム装置12(内側カメラ32)との距離(前後の位置)や左右方向(水平方向)の位置を調整するともに、顔(頭部)の上下方向の位置や顔(頭部)の傾きも調整する。図示は省略するが、同様に、ユーザは、内側カメラ32によって撮影された自身の右手(手のひら)の画像が手型指標304に収まるように、ユーザの右手とゲーム装置12(内側カメラ32)との距離(前後の位置)や水平方向位置を調整するとともに、右手の上下方向の位置や右手の手のひらの傾きも調整する。   When playing the virtual game of this embodiment, as shown in FIG. 11, the user places the game apparatus 10 on a table such as a desk and is inclined with respect to the horizontal plane (lower housing 14). In addition, the upper housing 12 is inclined. Therefore, the user can set the distance (front and back) between the user's face (head) or the entire body and the game apparatus 12 (inner camera 32) so that his / her face image captured by the inner camera 32 fits in the face type index 302. ) And the horizontal (horizontal) position, and the vertical position of the face (head) and the tilt of the face (head) are also adjusted. Although illustration is omitted, similarly, the user has the right hand of the user and the game device 12 (inner camera 32) so that the image of his / her right hand (palm) captured by the inner camera 32 fits in the hand index 304. The distance (front-rear position) and the horizontal position are adjusted, and the vertical position of the right hand and the tilt of the palm of the right hand are also adjusted.

このような調整画面300を用いて、ゲーム装置10は、ユーザの記念撮影を実行し、複数(この実施例では、3〜4枚)の撮影画像を取得する。この実施例では、ゲーム装置10からの音声ガイドにより、撮影タイミングが指示され、撮影タイミングとその1秒程度前までの数フレーム毎の撮影画像が取得される。具体的には、記念撮影を行う旨のメッセージがゲーム装置10のスピーカから出力され、次いで、「3,2,1,パシャ」という、カウントダウンする音声およびシャッタ音がスピーカから出力される。ただし、この実施例では、複数枚の撮影画像を得るために、「1」をカウントした後シャッタ動作が実行されるまでの間に、たとえば、4フレーム(フレーム:画面更新単位(1/60秒)毎に、内側カメラ32からの撮影画像を保存用データメモリ56に保存するようにしてある。つまり、1秒が約16フレームに相当するため、3〜4枚の撮影画像が取得されるのである。これらの複数枚の撮影画像のデータ(以下、「評価用画像データ」という)を用いて、上述した閾値の調整を実行する。ただし、肌色判定処理のみならず、閾値の調整処理および後述する肌色抽出処理も、CPU50が実行する。   Using such an adjustment screen 300, the game apparatus 10 performs a commemorative photo of the user and acquires a plurality (3 to 4 in this example) of captured images. In this embodiment, the shooting timing is instructed by the voice guide from the game apparatus 10, and the shooting timing and shot images every few frames before about 1 second are acquired. Specifically, a message indicating that a commemorative photo is to be taken is output from the speaker of the game apparatus 10, and then a sound of “3, 2, 1, pasha” that counts down and a shutter sound are output from the speaker. However, in this embodiment, in order to obtain a plurality of photographed images, for example, 4 frames (frame: screen update unit (1/60 seconds) after counting “1” and before the shutter operation is executed. ), The captured image from the inner camera 32 is stored in the storage data memory 56. That is, since 1 second corresponds to about 16 frames, 3 to 4 captured images are acquired. The threshold value adjustment described above is executed using the data of the plurality of photographed images (hereinafter referred to as “evaluation image data”), but not only the skin color determination process but also the threshold value adjustment process and the later-described process. The CPU 50 also executes the skin color extraction process.

閾値の調整処理では、まず、各閾値に初期値(静的)が与えられる。最初の評価用画像データについては、図12に示す肌色判定の閾値の表に従う初期値が与えられるが、次回以降の評価用画像データについては、前回までの調整処理によって収束した閾値(最適値)が初期値として与えられる。また、図12からも分かるように、調整処理により変化し得る閾値の最大値および最小値(いずれも静的)がそれぞれの初期値に対応づけて設定されている。   In the threshold adjustment process, first, an initial value (static) is given to each threshold. For the first evaluation image data, an initial value according to the threshold table for skin color determination shown in FIG. 12 is given, but for the evaluation image data after the next time, the threshold (optimum value) converged by the previous adjustment processing. Is given as the initial value. Further, as can be seen from FIG. 12, the maximum and minimum threshold values (both static) that can be changed by the adjustment process are set in association with the respective initial values.

ただし、色相については、360の角度を256(0以上256未満)段階に変換した値で処理を行う。また、色相は循環するため、0と256とは等価である。よって、図12に示す色相の初期値の場合、色相下限が220であり、色相上限が25であるので、肌色としての抽出範囲は、220,221,222,…,254,255,0,1,…,24,25となる。   However, the hue is processed with a value obtained by converting 360 angles into 256 (0 or more and less than 256) levels. Since hue circulates, 0 and 256 are equivalent. Therefore, in the case of the initial value of the hue shown in FIG. 12, the hue lower limit is 220 and the hue upper limit is 25. Therefore, the extraction ranges as skin colors are 220, 221, 222,..., 254, 255, 0, 1 , ..., 24, 25.

なお、実際には、色相のみならず、彩度および輝度についても条件を満たす必要があるため、色相、彩度および輝度のすべてが抽出範囲に属する場合に、肌色と判定される。   Actually, it is necessary to satisfy not only the hue but also the saturation and luminance. Therefore, when all of the hue, saturation and luminance belong to the extraction range, the skin color is determined.

また、所定のポーズ、この実施例では、図10(A)に示した調整画面300に表示されている顔型指標302と手型指標304とのそれぞれに顔および右手の手のひらが納まる格好に対応したデータ(以下、「判定用データ」という)を静的に持っている。たとえば、判定用データは、ゲーム装置10に装着されたメモリカード28からロードされ、メインメモリ52に記憶される。具体的には、判定用データは、第1LCD16の各画素が属性A,B,Cのいずれであるかを示すデータ(2ドット毎の精度のデータである)である。ここで、属性Aは肌色であるべきことを意味し、属性Bは肌色であるべきでないことを意味し、そして、属性Cはどちらでもよい(評価に関係ない)ことを意味する。   Further, a predetermined pose, in this embodiment, corresponds to the appearance in which the palm of the face and the right hand fits in each of the face type index 302 and the hand type index 304 displayed on the adjustment screen 300 shown in FIG. Static data (hereinafter referred to as “determination data”). For example, the determination data is loaded from the memory card 28 attached to the game apparatus 10 and stored in the main memory 52. Specifically, the data for determination is data indicating whether each pixel of the first LCD 16 has the attribute A, B, or C (data with accuracy of every two dots). Here, the attribute A means that it should be skin color, the attribute B means that it should not be skin color, and the attribute C means that it may be either (regardless of evaluation).

図10(B)に戻って、図10(A)に示した調整画面300において撮影画像が表示される場合の属性A,属性Bおよび属性Cで区別される画素の分布が示される。属性Aで示される画素は、領域310で示される。属性Bで示される画素は、領域312で示される。そして、属性Cで示される画素は、第1LCD16の表示領域のうち、領域310および領域312以外の領域314で示される。   Returning to FIG. 10B, the distribution of pixels distinguished by attribute A, attribute B, and attribute C when the captured image is displayed on the adjustment screen 300 shown in FIG. The pixel indicated by attribute A is indicated by area 310. The pixel indicated by attribute B is indicated by area 312. The pixel indicated by the attribute C is indicated by an area 314 other than the area 310 and the area 312 in the display area of the first LCD 16.

評価用画像データを2×2画素の格子毎に、対応する画素の判定用データを参照しながら、次の2つの値Q,Rを算出し、この値Q,Rから評価値Xcrtを算出する。ただし、値Qは、着目する評価用画像データの画素が肌色であり、対応する画素の判定用データが属性Aを示す場合の格子の数である。言い換えると、値Qは、正しく肌色が抽出されているとの良い評価が得られている格子の数である。一方、値Rは、着目する評価用画像データの画素が肌色であるが、対応する画素の判定用データが属性Bを示す場合の格子の数である。言い換えると、ノイズや誤った抽出であるとの悪い評価が得られている格子の数である。そして、評価値Xcrtは、値Qから値Rを減算した値であり、大きいほど、より正しく肌色を抽出できていると言える。 The following two values Q and R are calculated for each 2 × 2 pixel grid of the evaluation image data while referring to the corresponding pixel determination data, and the evaluation value X crt is calculated from these values Q and R. To do. However, the value Q is the number of grids in the case where the pixel of the target image data for evaluation is skin color and the determination data of the corresponding pixel indicates the attribute A. In other words, the value Q is the number of grids for which a good evaluation that the skin color is correctly extracted is obtained. On the other hand, the value R is the number of grids in the case where the pixel of the target image data for evaluation has a flesh color, but the determination data of the corresponding pixel indicates the attribute B. In other words, it is the number of grids that have been poorly evaluated as noise or incorrect extraction. The evaluation value X crt is a value obtained by subtracting the value R from the value Q. It can be said that the larger the value, the more correctly the skin color can be extracted.

このような評価は、最初の評価用画像データについては、各閾値を基準値に設定して行われる。そして、各閾値に対応する評価値Xcrtが識別可能にメインメモリ52に記憶(一時記憶)される。次に、各閾値を最小値および最大値に設定した場合についての評価が閾値毎に行われる。 Such evaluation is performed by setting each threshold value as a reference value for the first evaluation image data. Then, the evaluation value X crt corresponding to each threshold value is stored (temporarily stored) in the main memory 52 so as to be identifiable. Next, evaluation is performed for each threshold when each threshold is set to a minimum value and a maximum value.

たとえば、色相下限の閾値を図12に示した最小値に設定し、上述のようにして、評価値Xminを算出する。評価値Xminが前回の評価値Xpre(ここでは、評価値Xcrt)を上回っているかどうかを判断する。評価値Xminが前回の評価値Xpreを超えている場合には、調整の方向が正しいと判断して、現在の閾値と現在の最適値(ここでは、基準値)との中間の値を新たな閾値として設定し、再度上述した評価を行い、より評価の高かった方の閾値を最適値として採用する。つまり、閾値は、最小値または最小値と現在の最適値(ここでは、基準値)との中間の値に設定されるのである。 For example, the hue lower limit threshold is set to the minimum value shown in FIG. 12, and the evaluation value X min is calculated as described above. It is determined whether or not the evaluation value X min exceeds the previous evaluation value X pre (here, the evaluation value X crt ). If the evaluation value X min exceeds the previous evaluation value X pre , it is determined that the adjustment direction is correct, and an intermediate value between the current threshold value and the current optimum value (here, the reference value) is set. A new threshold value is set, the above-described evaluation is performed again, and the threshold value with the higher evaluation is adopted as the optimum value. That is, the threshold value is set to a minimum value or an intermediate value between the minimum value and the current optimum value (here, the reference value).

一方、評価値Xminが前回の評価値Xpreを下回る場合には、調整の方向が逆であったと判断して、色相下限の閾値を図12に示した最大値に設定し、上述したようにして、評価値Xmaxを算出する。評価値Xmaxが前回の評価値Xpre(ここでは、評価値Xcrt)を上回っているかどうかを判断する。評価値Xmaxが前回の評価値Xpreを超えている場合には、現在の閾値と現在の最適値との中間の値を新たな閾値として設定し、再度上述した評価を行い、より評価の高かった方の閾値を最適値として採用する。しかし、評価値Xmaxも前回の評価値Xpreを下回る場合には、もともとの閾値が最適値であったと判断して、閾値を変更しない。 On the other hand, if the evaluation value X min is lower than the previous evaluation value X pre , it is determined that the adjustment direction is reversed, the hue lower limit threshold is set to the maximum value shown in FIG. Thus, the evaluation value X max is calculated. It is determined whether or not the evaluation value X max exceeds the previous evaluation value X pre (here, the evaluation value X crt ). When the evaluation value X max exceeds the previous evaluation value X pre , an intermediate value between the current threshold value and the current optimum value is set as a new threshold value, and the above-described evaluation is performed again. The higher threshold is adopted as the optimum value. However, if the evaluation value Xmax is also lower than the previous evaluation value Xpre , it is determined that the original threshold value is the optimum value, and the threshold value is not changed.

他の色相上限、彩度下限、彩度上限、輝度下限、輝度上限についても上記の手順に従って閾値が調整(選択)される。また、次回以降の評価用画像データについては、前回までの調整処理によって選択(収束)された閾値(最適値)が初期値として与えられる。そして、すべての評価用画像データについて、調整処理が実行され、最終的に選択された閾値(最適値)が次に説明する肌色の抽出処理において用いられる。   For other hue upper limit, saturation lower limit, saturation upper limit, luminance lower limit, and luminance upper limit, the threshold values are adjusted (selected) according to the above procedure. For the evaluation image data after the next time, a threshold value (optimum value) selected (converged) by the adjustment processing up to the previous time is given as an initial value. Then, the adjustment process is executed for all the evaluation image data, and the finally selected threshold value (optimum value) is used in the skin color extraction process described below.

このように、この実施例では、ゲーム開始前にプレイヤを撮影した写真画像を用いて、現在の環境(光のあたり具合など)におけるプレイヤの肌色を判定するための閾値を調整する。これにより、ゲーム中の肌色検出を正確に行うことができる。   As described above, in this embodiment, the threshold value for determining the skin color of the player in the current environment (such as the lighting condition) is adjusted using a photographic image obtained by photographing the player before the start of the game. This makes it possible to accurately detect the skin color during the game.

また、この実施例では、複数の写真画像を用いて閾値の調整処理を行う。これにより、閾値を正確に調整することができ、また、n枚目の写真画像により最適化された閾値をもとにn+1枚目の写真画像についての評価処理を行うため効率的である。   In this embodiment, threshold adjustment processing is performed using a plurality of photographic images. Thus, the threshold can be accurately adjusted, and the evaluation process for the (n + 1) th photographic image is efficiently performed based on the threshold optimized by the nth photographic image.

さらに、この実施例では、色相、彩度、輝度のそれぞれについて閾値を調整するため、そのときの環境における閾値を正確に設定することができる。なお、色相と彩度のみを調整してもよいし、色相と輝度のみを調整してもよい。   Furthermore, in this embodiment, since the threshold value is adjusted for each of hue, saturation, and luminance, the threshold value in the environment at that time can be set accurately. Note that only the hue and saturation may be adjusted, or only the hue and luminance may be adjusted.

さらにまた、肌色であるべき領域のみならず、肌色以外であるべき領域を判定するので、正確に閾値を設定することができる。   Furthermore, since not only the area that should be the skin color but also the area that should be other than the skin color is determined, the threshold value can be accurately set.

上述したように、肌色を抽出する場合には、まず、内側カメラ32によって撮影された画像(撮影画像)から、肌色の抽出処理用のデータが構築される。ここで、撮影画像は、RGB(各成分5ビット)の形式でAPIにより取得される。ただし、撮影画像は、第1LCD16の表示領域と同じ256×192ドットで構成される。   As described above, when the skin color is extracted, first, the data for the skin color extraction process is constructed from the image (captured image) captured by the inner camera 32. Here, the captured image is acquired by API in the format of RGB (each component is 5 bits). However, the photographed image is composed of 256 × 192 dots that is the same as the display area of the first LCD 16.

肌色の抽出処理用のデータ(抽出処理用データ)は、8×8画素、4×4の画素、2×2画素の格子状の領域に対応して生成される。この実施例では、第1LCD16の表示領域は256×192ドットであるため、この表示領域を8×8画素の格子状の領域に分割する場合には、32×24個の格子が生成される。8×8画素の格子に分割する場合の例が、図13(A)に示される。図13(A)では(図13(B),図14も同じ)、8×8画素の格子を太線枠で示してある。ただし、図13(A)では(図13(B),図14も同じ)、簡単のため、第1LCD16の表示領域を24×16画素で示してある。また、図13および図14では、最も小さい格子(四角枠)が1画素(ドット)に相当する。同様に、表示領域を4×4画素の格子状の領域に分割する場合には、64×48個の格子が生成される。4×4画素の格子に分割する場合の例が、図13(B)に示される。さらに、表示領域を2×2画素の格子状の領域に分割する場合には、128×96個の格子が生成される。2×2画素の格子に分割する場合の例が、図14に示される。   The data for skin color extraction processing (extraction processing data) is generated corresponding to a grid area of 8 × 8 pixels, 4 × 4 pixels, and 2 × 2 pixels. In this embodiment, since the display area of the first LCD 16 is 256 × 192 dots, 32 × 24 grids are generated when the display area is divided into 8 × 8 pixel grid areas. An example in the case of dividing into 8 × 8 pixel grid is shown in FIG. In FIG. 13A (FIG. 13B and FIG. 14 are also the same), a grid of 8 × 8 pixels is indicated by a thick line frame. However, in FIG. 13A (FIGS. 13B and 14 are the same), the display area of the first LCD 16 is shown by 24 × 16 pixels for the sake of simplicity. In FIGS. 13 and 14, the smallest lattice (square frame) corresponds to one pixel (dot). Similarly, when the display area is divided into a 4 × 4 pixel grid area, 64 × 48 grids are generated. An example in the case of dividing into a 4 × 4 pixel grid is shown in FIG. Further, when the display area is divided into a 2 × 2 pixel grid area, 128 × 96 grids are generated. An example in the case of dividing into a 2 × 2 pixel grid is shown in FIG.

抽出処理用データは、評価値(上述した評価値とは異なる)、状態値および色値の各情報を示す。評価値は、肌色らしさを示す値であり、8ビットのデータで示される。この実施例では、評価値は、0〜64の値および255の値となる。ただし、0〜64で肌色らしさが示され、255は無効であることを意味する。また、評価値が大きいほど、肌色らしいことを意味するようにしてある。   The data for extraction processing shows information on evaluation values (different from the above-described evaluation values), state values, and color values. The evaluation value is a value indicating the likelihood of skin color, and is indicated by 8-bit data. In this embodiment, the evaluation values are 0 to 64 and 255. However, skin-likeness is indicated by 0 to 64, and 255 means invalid. In addition, the larger the evaluation value, the more likely it is that it looks like a skin color.

状態値は、後述する各処理によって判定した内容(状態)を保持するためのデータであり、16ビットのデータで示される。具体的には、肌色かどうかを示す1ビットの情報、周囲8つの格子のそれぞれについて肌色かどうかを示す8ビットの情報、強制的に自身を肌色とみなすための1ビットのフラグ、強制的に自身を肌色でないとみなすための1ビットのフラグで示され、余分な5ビットが付加される。   The state value is data for holding the content (state) determined by each processing described later, and is represented by 16-bit data. Specifically, 1-bit information indicating whether it is skin color, 8-bit information indicating whether it is skin color for each of the eight surrounding grids, a 1-bit flag for forcibly considering itself as skin color, It is indicated by a 1-bit flag for regarding itself as not having skin color, and an extra 5 bits are added.

色値は、RGB555形式で示した16ビットのデータであり、RGBがそれぞれ5ビットの階調で表現され、余分な1ビットが付されたデータである。ただし、撮影画像を格子単位で肌色か否かを評価する際には、色値(RGB555形式)は、輝度、色相および彩度に変換して利用される。   The color value is 16-bit data represented in the RGB555 format, and RGB is data in which each of the RGB is expressed with a gradation of 5 bits and an extra 1 bit is added. However, when evaluating whether a captured image is a skin color in units of grids, color values (RGB555 format) are converted into luminance, hue, and saturation and used.

次に抽出処理用データの生成について説明する。まず、2×2画素の格子に対して、処理1によって色値を準備する。この実施例では、処理1は、格子(大)に含まれる4つの格子(小)の色値の平均値を算出する。ここでは、2×2画素の格子であるため、2×2画素の格子(大)に含まれる4つの格子(小)のそれぞれは1画素に相当する。   Next, generation of data for extraction processing will be described. First, color values are prepared by processing 1 for a 2 × 2 pixel grid. In this embodiment, the process 1 calculates an average value of the color values of four grids (small) included in the grid (large). Here, since the grid is a 2 × 2 pixel, each of the four grids (small) included in the 2 × 2 pixel grid (large) corresponds to one pixel.

なお、この実施例では、処理1では、格子(大)に含まれる4つの格子(小)の色値の平均値を算出するようにしてあるが、4つの格子(小)のうちの左上の格子の色値を採用するようにしてもよい。   In this embodiment, in process 1, the average value of the color values of the four grids (small) included in the grid (large) is calculated, but the upper left of the four grids (small). You may make it employ | adopt the color value of a grating | lattice.

次に、4×4画素の格子に対して、処理1によって色値を準備する。さらに、8×8画素の格子に対して、処理1によって色値を準備する。ただし、4×4画素の格子に分割した場合には、4×4の格子(大)に含まれる4つの格子(小)のそれぞれは2×2画素の格子を意味する。また、8×8画素の格子に分割した場合には、8×8画素の格子(大)に含まれる4つの格子(小)のそれぞれは4×4画素の格子を意味する。   Next, color values are prepared by processing 1 for a 4 × 4 pixel grid. Further, color values are prepared by processing 1 for an 8 × 8 pixel grid. However, when divided into 4 × 4 pixel grids, each of the four grids (small) included in the 4 × 4 grid (large) means a 2 × 2 pixel grid. Further, when divided into 8 × 8 pixel grids, each of the four grids (small) included in the 8 × 8 pixel grid (large) means a 4 × 4 pixel grid.

続いて、8×8画素の格子に対して、処理2によって色値を補正する。この実施例では、処理2は、自身の格子を中心とする周囲8つの格子を含む9つの格子に対し、色値に基づく輝度値の中央値を算出し、中央値を有する格子の色値を、自身の格子の色値に変更する。   Subsequently, the color value is corrected by processing 2 for the 8 × 8 pixel grid. In this embodiment, the process 2 calculates the median luminance value based on the color value for 9 grids including 8 surrounding grids centered on its own grid, and calculates the color value of the grid having the median value. Change to the color value of your own grid.

ただし、最外周の格子については、色値の補正は無効化される。また、この実施例では、処理2は、自身の格子と、自身を含む周囲8つの格子との合計9つの格子について、色値に基づく輝度の中央値を求めて、中央値を有する格子の色値を自身の格子の色値に変更(補正)するようにしてあるが、色値は補正しなくてもよい。   However, color value correction is invalidated for the outermost grid. Further, in this embodiment, the process 2 obtains the median luminance based on the color value for a total of nine grids including its own grid and eight surrounding grids including itself, and the color of the grid having the median value. Although the value is changed (corrected) to the color value of its own grid, the color value may not be corrected.

次に、8×8画素の格子に対して、処理3によって状態値を初期化する。この実施例では、処理3は、上述の閾値の調整処理によって調整された閾値に基づいて各格子が肌色かどうかを判断し、状態値に反映する。具体的には、上述のようにして準備および補正した色値を基に、輝度、色相および彩度のそれぞれが、閾値の範囲内であるか範囲外であるかを選別(判定)する。   Next, the state value is initialized by processing 3 for the 8 × 8 pixel grid. In this embodiment, the process 3 determines whether or not each grid is a skin color based on the threshold value adjusted by the threshold value adjustment process described above, and reflects it in the state value. Specifically, based on the color values prepared and corrected as described above, it is selected (determined) whether each of luminance, hue, and saturation is within or outside the threshold range.

続いて、8×8画素の格子に対して、処理4によって評価値を初期化する。この実施例では、処理4は、周辺の格子の状態値から、重み付けして評価値に反映する。具体的には、中央の格子の評価値は、対応する位置関係の格子に対して、閾値による判定結果が閾値内である格子を「1」とし、閾値による判定結果が閾値外である格子を「0」として、重み付けの値に掛け合わしたものの総和で算出される。各格子の重み付けの値をWi(iは格子に付した番号:1−9)とし、各格子の閾値による判定結果の値をHiとすると、中央の格子の評価値Yは、数15に従って得られる。   Subsequently, the evaluation value is initialized by processing 4 for the 8 × 8 pixel grid. In this embodiment, the process 4 is weighted from the state values of the surrounding grids and reflected in the evaluation value. Specifically, the evaluation value of the central lattice is “1” for a lattice whose determination result by the threshold is within the threshold, and a lattice whose determination result by the threshold is outside the threshold with respect to the corresponding positional relationship lattice. “0” is calculated as the sum of weighted values. When the weight value of each grid is Wi (i is the number assigned to the grid: 1-9) and the value of the determination result based on the threshold value of each grid is Hi, the evaluation value Y of the center grid is obtained according to Equation 15. It is done.

[数15]
Y=W1*H1+W2*H2+W3*H3+W4*H4+W5*H5+W6*H6+W7*H7+W8*H8+W9*H9
この実施例では、図15(A)に示すように、自身の格子を中心として、この自身の格子と周囲8つの格子とに対して、重み付けがなされている。ただし、重み付けの値の合計は、「64」である。具体的には、(1),(3),(7)および(9)の格子に対して重み「0」が設定され、(2),(4),(6),(8)の格子に対して重み「10」が設定され、そして、(5)の格子すなわち自身の格子に対して重み「24」が設定される。
[Equation 15]
Y = W1 * H1 + W2 * H2 + W3 * H3 + W4 * H4 + W5 * H5 + W6 * H6 + W7 * H7 + W8 * H8 + W9 * H9
In this embodiment, as shown in FIG. 15A, weighting is performed on the own lattice and the surrounding eight lattices with the own lattice as the center. However, the sum of the weight values is “64”. Specifically, the weight “0” is set for the grids (1), (3), (7), and (9), and the grids (2), (4), (6), and (8) are set. A weight “10” is set for, and a weight “24” is set for the grid of (5), that is, its own grid.

また、図15(B)には、各格子の閾値による判定結果(処理3の結果)の例が示される。この図15(B)では、閾値の範囲内である格子(3),(5),(6),(8)には、「○」を付してあり、閾値の範囲外である格子(1),(2),(4),(7),(9)には「×」を付してある。   FIG. 15B shows an example of a determination result (result of process 3) based on the threshold value of each lattice. In FIG. 15B, the lattices (3), (5), (6), and (8) that are within the threshold range are marked with “◯”, and the lattices that are outside the threshold range ( 1), (2), (4), (7), (9) are marked with “x”.

したがって、図15(A)および図15(B)に示す例では、中央の格子の評価値Yは、数15に従って、数16に示すように算出される。   Accordingly, in the example shown in FIGS. 15A and 15B, the evaluation value Y of the central lattice is calculated as shown in Equation 16 according to Equation 15.

[数16]
Y=0*0+10*0+0*1+10*0+24*1+10*1+0*0+10*1+0*0=44
このようにして、評価値Yが初期化される。評価値Yが初期化されると、8×8画素の格子に対して、処理5によって評価値を補正する。この実施例では、処理5は、隣接する格子の評価値Yに基づいて、中心の格子の状態値を補正し、評価値に反映させる。
[Equation 16]
Y = 0 * 0 + 10 * 0 + 0 * 1 + 10 * 0 + 24 * 1 + 10 * 1 + 0 * 0 + 10 * 1 + 0 * 0 = 44
In this way, the evaluation value Y is initialized. When the evaluation value Y is initialized, the evaluation value is corrected by processing 5 for the 8 × 8 pixel grid. In this embodiment, the process 5 corrects the state value of the central lattice based on the evaluation value Y of the adjacent lattice and reflects it in the evaluation value.

具体的には、周囲の8つの格子のそれぞれの評価値Yが20以上であれば、周囲の格子(周辺)は肌色で満たされているとみなし、自身の格子について初期化された評価値Yに拘わらず、自身の格子の評価値Yも肌色とする。つまり、状態値において、強制的に自身の格子を肌色とみなすためのフラグをオンする。   Specifically, if the evaluation value Y of each of the eight surrounding grids is 20 or more, the surrounding grid (periphery) is considered to be filled with skin color, and the evaluation value Y initialized with respect to its own grid Regardless of this, the evaluation value Y of its own grid is also set to the skin color. That is, in the state value, a flag for forcibly considering its own grid as a skin color is turned on.

一方、周囲の8つの格子のそれぞれの評価値Yが20未満であれば、周囲の格子(周辺)は肌色でないとみなし、自身の格子について初期化された評価値Yに拘わらず、自身の格子の評価値Yも肌色でないとする。つまり、状態値において、強制的に自身の格子を肌色でないとみなすためのフラグをオンする。   On the other hand, if the evaluation value Y of each of the eight surrounding grids is less than 20, the surrounding grid (periphery) is considered not to be a skin color, and regardless of the evaluation value Y initialized for the own grid, its own grid Assume that the evaluation value Y is not skin color. In other words, in the state value, a flag for forcibly considering that the grid is not a skin color is turned on.

なお、後述するように、処理5は、4×4画素の格子や2×2画素の格子に対しても実行されるが、より上層(大きい格子)において、強制的に肌色とみなしたり、強制的に肌色でないとみなしたりしている場合には、その上層における結果が優先されることになる。   As will be described later, the process 5 is also performed on a 4 × 4 pixel grid or a 2 × 2 pixel grid. However, in a higher layer (larger grid), the process 5 is forcibly regarded as a skin color or forced. If it is considered that the skin color is not, the result in the upper layer is given priority.

8×8画素の格子に対して、処理5を実行し、状態値が補正されると、処理6を実行することよって、4×4画素の格子の状態値が初期化される。つまり、8×8画素の格子の状態値がそれに含まれる4×4画素の格子のそれぞれの状態値の初期値として設定される。   When the process 5 is executed for the 8 × 8 pixel grid and the state value is corrected, the process 6 is executed to initialize the state value of the 4 × 4 pixel grid. That is, the state value of the 8 × 8 pixel grid is set as the initial value of each state value of the 4 × 4 pixel grid included therein.

次に4×4画素の格子に対して、処理4によって評価値を初期化する。処理4は上述したとおりであるため、重複した説明は省略する。以下、同様である。さらに、4×4画素の格子に対して、処理5によって状態値が補正され、評価値Yに反映され、そして、処理6によって、2×2画素の格子の状態値が初期化される。つまり、4×4画素の格子の状態値がそれに含まれる2×2画素の格子のそれぞれの状態値の初期値として設定される。   Next, an evaluation value is initialized by processing 4 for a 4 × 4 pixel grid. Since the process 4 is as described above, a duplicate description is omitted. The same applies hereinafter. Further, the state value of the 4 × 4 pixel grid is corrected by the process 5 and reflected in the evaluation value Y, and the process 6 initializes the state value of the 2 × 2 pixel grid. That is, the state value of the 4 × 4 pixel grid is set as the initial value of each state value of the 2 × 2 pixel grid included therein.

続いて、2×2画素の格子に対して、処理4によって評価値を初期化する。そして、2×2画素の格子に対して、処理5によって状態値が補正され、評価値Yに反映される。したがって、2×2画素の格子単位で、その状態値を参照することにより、肌色であるか否かを検出することができる。   Subsequently, an evaluation value is initialized by processing 4 for a 2 × 2 pixel grid. Then, the state value is corrected by processing 5 for the 2 × 2 pixel grid and reflected in the evaluation value Y. Therefore, it is possible to detect whether or not the skin color is obtained by referring to the state value in units of 2 × 2 pixels.

このように、この実施例では、撮像により取得した画像に対して、まずは、比較的大きいサイズA(上述の例では、8×8)の各分割画像(各格子)に対して、肌色か否かの判定処理、具体的には、色値の輝度、色相および彩度が一定範囲内であることを判定する処理(以下、同じ)を行い、サイズAの各格子について判定結果(上述の例では、「状態値」)を生成する。そして、その後、比較的小さいサイズB(上述の例では、4×4)の各格子について処理を行う。具体的には、まず、サイズAの各格子の判定結果を用いてサイズBの各格子の判定結果を設定する(上述の処理6)。このため、小さいサイズの格子については肌色か否かの判定処理を行う必要が無い。そして、サイズBの各格子の判定結果は周囲の格子の判定結果を用いて補正される(上述の処理4,処理5)。これにより、判定結果はより小さいサイズBの単位で変動することとなって、解像度の高い判定結果が生成される。   As described above, in this embodiment, first, with respect to an image obtained by imaging, whether or not each divided image (each grid) having a relatively large size A (8 × 8 in the above example) is flesh-colored. Determination processing, specifically, processing for determining that the luminance, hue, and saturation of the color value are within a certain range (hereinafter the same), and the determination result for each grid of size A (the above example) Then, “state value”) is generated. Thereafter, processing is performed for each lattice having a relatively small size B (4 × 4 in the above example). Specifically, first, the determination result of each grid of size B is set using the determination result of each grid of size A (process 6 described above). For this reason, it is not necessary to perform a process for determining whether or not the lattice has a small size. Then, the determination result of each grid of size B is corrected using the determination result of the surrounding grid (the above-described processing 4 and processing 5). As a result, the determination result varies in units of smaller size B, and a determination result with high resolution is generated.

また、この実施例では、比較的大きいサイズAの格子において、肌色の可能性が高いと設定された格子、上述の例では、「強制的に自身を肌色とみなすための1ビットのフラグ」が設定(オン)された格子については、当該サイズAの格子に含まれる比較的小さいサイズBの格子において肌色でないと判定された場合であっても、サイズAの格子全域について肌色であると判定される。これにより、ノイズを減らすことができる。また、同様に、比較的大きいサイズAの格子において、肌色の可能性が低いと設定された格子、上述の例では、「強制的に自身を肌色でないとみなすための1ビットのフラグ」が設定(オン)については、当該格子内の比較的小さいサイズBの格子において肌色であると判定された場合であっても、サイズAの格子全域について肌色でないと判定される。これにより、ノイズを減らすことができる。   In this embodiment, in a relatively large size A grid, a grid set with a high possibility of skin color, in the above-mentioned example, “a 1-bit flag for forcibly considering itself as a skin color” is set. The set (on) grid is determined to be flesh-colored for the entire area of the size A grid even if it is determined that it is not flesh-colored in a relatively small size B grid included in the size A grid. The Thereby, noise can be reduced. Similarly, in a relatively large size A grid, a grid set with a low possibility of skin color, in the above example, “1 bit flag to force itself to be non-skin color” is set. Regarding (ON), even if it is determined that the skin color is relatively small in the relatively small size B lattice in the lattice, it is determined that the entire region of the size A lattice is not skin color. Thereby, noise can be reduced.

図16はメインメモリ52のメモリマップの一例を示す図解図である。図16に示すように、メインメモリ52は、ゲームプログラム記憶領域90およびデータ記憶領域92を含む。ゲームプログラム記憶領域90は、ゲームプログラムを記憶し、ゲームプログラムは、メイン処理プログラム90a、画像生成プログラム90b、画像表示プログラム90c、画像更新プログラム90d、撮影プログラム90e、閾値調整プログラム90f、肌色抽出プログラム90g、第1顔認識プログラム90h、特徴点取得プログラム90iおよび第2顔認識プログラム90jなどによって構成される。   FIG. 16 is an illustrative view showing one example of a memory map of the main memory 52. As shown in FIG. 16, the main memory 52 includes a game program storage area 90 and a data storage area 92. The game program storage area 90 stores a game program. The game program includes a main processing program 90a, an image generation program 90b, an image display program 90c, an image update program 90d, a shooting program 90e, a threshold adjustment program 90f, and a skin color extraction program 90g. , A first face recognition program 90h, a feature point acquisition program 90i, a second face recognition program 90j, and the like.

メイン処理プログラム90aは、この実施例の仮想ゲームのメイン処理を実行するためのプログラムである。画像生成プログラム90bは、後述する画像データ92aを用いて、第1LCD16または第2LCD18にゲーム画面(100,200など)や操作画面などのゲームに必要な画面を表示するためのゲーム画像を生成するためのプログラムである。画像表示プログラム90cは、画像生成プログラム90bに従って生成されたゲーム画像を第1LCD16または第2LCD18に表示するためのプログラムである。画像更新プログラム90dは、第1LCD16または第2LCD18に表示されたゲーム画面(ゲーム画像)を更新するためのプログラムである。撮影プログラム90eは、ユーザの指示やゲームのイベントなどに従って、内側カメラ32または外側カメラ34で、被写体を撮影するためのプログラムである。通常のデジタルカメラと同様であるため、詳細な説明は省略するが、カメラ(撮影)モードが設定されると、リアルタイム動画像(スルー画像)が取得され、ビューファインダなどとして使用される第1LCD16または第2LCD18にそのスルー画像が表示される。また、ユーザのシャッタ操作またはゲームのイベントなどによって、静止画像の撮影画像が取得され、対応する撮影画像データが保存用データメモリ56に記憶される。   The main process program 90a is a program for executing the main process of the virtual game of this embodiment. The image generation program 90b uses the image data 92a described later to generate a game image for displaying a screen necessary for a game such as a game screen (100, 200, etc.) or an operation screen on the first LCD 16 or the second LCD 18. It is a program. The image display program 90c is a program for displaying the game image generated according to the image generation program 90b on the first LCD 16 or the second LCD 18. The image update program 90d is a program for updating the game screen (game image) displayed on the first LCD 16 or the second LCD 18. The shooting program 90e is a program for shooting a subject with the inner camera 32 or the outer camera 34 in accordance with a user instruction, a game event, or the like. Since it is the same as a normal digital camera, detailed description is omitted. However, when the camera (shooting) mode is set, a real-time moving image (through image) is acquired and used as a viewfinder or the like. The through image is displayed on the second LCD 18. Also, a captured image of a still image is acquired by a user's shutter operation or a game event, and the corresponding captured image data is stored in the storage data memory 56.

閾値調整プログラム90fは、仮想ゲームの本編の開始に先立って、撮影画像に基づいて、肌色抽出処理における肌色判定のための色相、彩度、輝度の閾値を最適値に調整するためのプログラムである。肌色抽出プログラム90gは、撮影画像から2×2画素の格子単位で肌色を抽出するためのプログラムである。第1顔認識プログラム90hは、肌色抽出プログラム90gに従って抽出された肌色の情報に基づいて、予め設定されている特定領域(110,110´)における肌色領域の割合が所定値(35%)を超えているか否かを判断し、所定値を超えている場合には、ユーザの顔を正しく認識していると判定するためのプログラムである。   Prior to the start of the main part of the virtual game, the threshold adjustment program 90f is a program for adjusting the hue, saturation, and luminance thresholds for skin color determination in the skin color extraction process to optimum values based on the photographed image. . The skin color extraction program 90g is a program for extracting the skin color from the captured image in units of 2 × 2 pixels. In the first face recognition program 90h, the ratio of the skin color area in the specific area (110, 110 ') set in advance exceeds a predetermined value (35%) based on the skin color information extracted according to the skin color extraction program 90g. This is a program for determining whether or not the user's face is correctly recognized when the predetermined value is exceeded.

特徴点取得プログラム90iは、一定時間(たとえば、10フレーム)毎に、内側カメラ32によって撮影された撮影画像に対して、エッジ検出等の画像処理を施すことによって、ユーザの顔画像における55個の特徴点Piを取得するためのプログラムである。第2顔認識プログラム90jは、特徴点検出プログラム90iに従って取得された特徴点Piに基づいて、ユーザの顔全体を認識したり、ユーザの顔の一部(この実施例では、口や目)ないしその動き(この実施例では、口の開閉)を認識したりするためのプログラムである。   The feature point acquisition program 90i performs image processing such as edge detection on the captured image captured by the inner camera 32 at regular time intervals (for example, 10 frames), so that 55 pieces of the facial image of the user are recorded. This is a program for acquiring feature points Pi. The second face recognition program 90j recognizes the entire face of the user based on the feature points Pi acquired according to the feature point detection program 90i, or a part of the user's face (in this embodiment, mouth and eyes) or It is a program for recognizing the movement (in this embodiment, opening and closing of the mouth).

なお、図示は省略するが、ゲームプログラム記憶領域90には、音出力プログラムやバックアッププログラムなども記憶される。音出力プログラムは、ゲームキャラクタの音声や擬声音、効果音、BGMのようなゲームに必要な音を生成および出力するためのプログラムである。バックアッププログラムは、メインメモリ52に記憶されるゲームデータ(途中データ、結果データ)をメモリカード26に記憶(セーブ)するためのプログラムである。   Although illustration is omitted, the game program storage area 90 also stores a sound output program, a backup program, and the like. The sound output program is a program for generating and outputting a game character's voice, onomatopoeic sound, sound effect, and sounds necessary for the game such as BGM. The backup program is a program for storing (saving) game data (intermediate data, result data) stored in the main memory 52 in the memory card 26.

図17は、図16に示したデータ記憶領域92の詳細な内容を示す図解図である。この図17に示すように、データ記憶領域92には、画像データ92a、撮影データ92b、特徴点データ92c、上唇抽出座標データ92d、下唇抽出座標データ92e、左目抽出座標データ92f、右目抽出座標データ92g、唇の差分データ92h、目の差分データ92i、設定閾値データ92j、判定用データ92k、色相閾値データ92m、彩度閾値データ92nおよび輝度閾値データ92pなどが記憶される。   FIG. 17 is an illustrative view showing detailed contents of the data storage area 92 shown in FIG. As shown in FIG. 17, the data storage area 92 includes image data 92a, shooting data 92b, feature point data 92c, upper lip extraction coordinate data 92d, lower lip extraction coordinate data 92e, left eye extraction coordinate data 92f, and right eye extraction coordinates. Data 92g, lip difference data 92h, eye difference data 92i, setting threshold data 92j, determination data 92k, hue threshold data 92m, saturation threshold data 92n, luminance threshold data 92p, and the like are stored.

画像データ92aは、ゲーム画像を生成するためのポリゴンデータやテクスチャデータなどである。撮影データ92bは、内側カメラ32または外側カメラ34で撮影された撮影画像のデータ(撮影画像データ)であり、保存用データメモリ56が読み出して、メインメモリ52に記憶(一時記憶)される。この実施例では、複数枚(たとえば、4枚)分の撮影画像データを記憶することができる。特徴点データ92cは、上述したように、特徴点検出プログラム90iに従って取得された特徴点Piの各々に対応する座標データであり、一定時間(10フレーム)毎に更新される。   The image data 92a is polygon data or texture data for generating a game image. The photographic data 92b is data of a photographic image (photographed image data) taken by the inner camera 32 or the outer camera 34, and is read out from the storage data memory 56 and stored (temporarily stored) in the main memory 52. In this embodiment, a plurality of (for example, four) photographed image data can be stored. As described above, the feature point data 92c is coordinate data corresponding to each of the feature points Pi acquired according to the feature point detection program 90i, and is updated every predetermined time (10 frames).

上唇抽出座標データ92dは、上述したように、特徴点Piに基づいて算出された上唇の中点LipUの座標データである。下唇抽出座標データ92eは、上述したように、特徴点Piに基づいて算出された下唇の中点LipDの座標データである。左目抽出座標データ92fは、上述したように、特徴点Piに基づいて算出された左目の中点EyeLの座標データである。右目抽出座標データ92gは、上述したように、特徴点Piに基づいて算出された右目の中点EyeRの座標データである。   The upper lip extraction coordinate data 92d is the coordinate data of the middle point LipU of the upper lip calculated based on the feature point Pi as described above. The lower lip extraction coordinate data 92e is the coordinate data of the lower lip midpoint LipD calculated based on the feature point Pi as described above. As described above, the left-eye extraction coordinate data 92f is the coordinate data of the middle point EyeL of the left eye calculated based on the feature point Pi. As described above, the right-eye extraction coordinate data 92g is the coordinate data of the middle point EyeR of the right eye calculated based on the feature point Pi.

唇の差分データ92hは、上述したように、上唇の中点LipUと下唇の中点LipDとの各軸方向における唇の差分(Lip_dX, Lip_dY)についてのデータである。目の差分データ92iは、上述したように、左目の中点EyeLと右目の中点EyeRとの各軸方向における目の差分(Eye_dX, Eye_dY)についてのデータである。   The lip difference data 92h is data on the lip difference (Lip_dX, Lip_dY) in each axial direction between the middle point LipU of the upper lip and the middle point LipD of the lower lip, as described above. As described above, the eye difference data 92i is data regarding eye differences (Eye_dX, Eye_dY) in the respective axial directions between the middle point EyeL of the left eye and the middle point EyeR of the right eye.

設定閾値データ92jは、図12に示した肌色判定の閾値の表についてのデータであり、予めプログラマ等によって生成されたデータである。判定用データ92kは、図10(B)を用いて説明した属性A,B,Cのそれぞれに対応する領域310,312,314を既定するためのデータである。   The setting threshold data 92j is data regarding the skin color determination threshold table shown in FIG. 12, and is data generated in advance by a programmer or the like. The determination data 92k is data for defining areas 310, 312, and 314 corresponding to the attributes A, B, and C described with reference to FIG.

色相閾値データ92mは、上述した閾値調整プログラム90fに従って調整された色相の閾値についての最適値の数値データである。同様に、彩度閾値データ92nは、上述した閾値調整プログラム90fに従って調整された彩度の閾値についての最適値の数値データである。同様に、輝度閾値データ92pは、上述した閾値調整プログラム90fに従って調整された輝度の閾値についての最適値の数値データである。   The hue threshold data 92m is numerical data of an optimum value for the hue threshold adjusted according to the above-described threshold adjustment program 90f. Similarly, the saturation threshold data 92n is numerical data of an optimum value for the saturation threshold adjusted according to the above-described threshold adjustment program 90f. Similarly, the brightness threshold data 92p is numerical data of an optimum value for the brightness threshold adjusted according to the above-described threshold adjustment program 90f.

なお、図示は省略するが、データ記憶領域92には、音データのような他のデータが記憶されたり、ゲーム処理に必要なカウンタ(タイマ)やフラグなども設けられたりする。   Although not shown, the data storage area 92 stores other data such as sound data, and is provided with counters (timers) and flags necessary for game processing.

具体的には、図3に示したCPU50が図18に示すゲーム処理を実行する。図示は省略するが、図18に示すゲーム処理(本編)の開始に先立って、上述した閾値の調整処理が実行される。また、図示は省略するが、調整処理の開始と同時或いはほぼ同時に、内側カメラ32による撮影処理が開始される。さらに、図示は省略するが、ゲーム処理が開始されると、特徴点Piの取得処理が一定時間(10フレーム)毎に実行される。これらの処理は、マルチタスクによって実行される。   Specifically, the CPU 50 shown in FIG. 3 executes the game process shown in FIG. Although illustration is omitted, the threshold value adjustment process described above is executed prior to the start of the game process (main part) shown in FIG. Although illustration is omitted, photographing processing by the inner camera 32 is started at the same time or almost simultaneously with the start of the adjustment processing. Furthermore, although illustration is omitted, when the game process is started, the feature point Pi acquisition process is executed at regular time intervals (10 frames). These processes are executed by multitasking.

図18に示すように、CPU50は、ゲーム処理を開始すると、ステップS1で、ゲーム初期画面を表示する。たとえば、図4(A)に示したゲーム画面100や図8(A)に示したゲーム画面300が第1LCD16に表示される。これらは、プレイするゲームに応じて異なる。続くステップS3では、撮影画像から肌色を抽出する。ここでは、上述したように、撮影データ92bに含まれる最新の撮影画像データに対応する撮影画像から、肌色が抽出される。   As shown in FIG. 18, when starting the game process, the CPU 50 displays a game initial screen in step S1. For example, the game screen 100 shown in FIG. 4A and the game screen 300 shown in FIG. 8A are displayed on the first LCD 16. These differ depending on the game to be played. In the subsequent step S3, the skin color is extracted from the photographed image. Here, as described above, the skin color is extracted from the captured image corresponding to the latest captured image data included in the captured data 92b.

次のステップS5では、ユーザの顔を正しく認識しているかどうかを判断する。具体的には、ステップS3で抽出した結果を用いて、特定領域(110,110´)における肌色領域が所定の割合(35%)を超えているかどうかを判断する。ステップS5で“NO”であれば、つまり特定領域(110,110´)における肌色領域が所定の割合以下であれば、ユーザの顔を正しく認識していないと判断して、そのままステップS13に進む。   In the next step S5, it is determined whether or not the user's face is correctly recognized. Specifically, it is determined whether the skin color area in the specific area (110, 110 ′) exceeds a predetermined ratio (35%) using the result extracted in step S3. If “NO” in the step S5, that is, if the skin color area in the specific area (110, 110 ′) is equal to or less than a predetermined ratio, it is determined that the user's face is not correctly recognized, and the process directly proceeds to the step S13. .

一方、ステップS5で“YES”であれば、つまり特定領域(110,110´)における肌色領域が所定の割合を超えていれば、ユーザの顔を正しく認識していると判断して、ステップS7で、特徴点Piを検出する。ここでは、CPU50は、データ領域92に記憶される特徴点データ92cを検出するのである。続いて、ステップS9では、所定の条件を満たすかどうかを判断する。ここでは、CPU50は、特徴点Piに基づいてユーザの口が開閉したかどうかを判断したり、ユーザの顔(目)を認識していない状態から顔(目)を認識している状態に変化したかどうかを判断したりする。これらの判断は、ゲームの種類によって異なる。また、上述した仮想ゲームの例では、顔全体を認識するような仮想ゲームについては説明していないが、すべての特徴点Pi(顔全体)に基づいて所定の条件を満たすか否かを判定するようなゲーム処理を実行させることも可能である。つまり、CPU50は、ユーザの顔全体が認識されたり、ユーザの顔の一部またはその動きが認識されたりして、所定の条件を満たすかどうかを判断するのである。   On the other hand, if “YES” in the step S5, that is, if the skin color area in the specific area (110, 110 ′) exceeds a predetermined ratio, it is determined that the user's face is correctly recognized, and the step S7 is performed. Thus, the feature point Pi is detected. Here, the CPU 50 detects the feature point data 92 c stored in the data area 92. Subsequently, in step S9, it is determined whether or not a predetermined condition is satisfied. Here, the CPU 50 determines whether the user's mouth has been opened or closed based on the feature point Pi, or changes from a state in which the user's face (eyes) is not recognized to a state in which the face (eyes) is recognized. To determine whether or not These judgments differ depending on the type of game. Moreover, in the example of the virtual game described above, a virtual game that recognizes the entire face is not described, but whether or not a predetermined condition is satisfied is determined based on all feature points Pi (entire face). It is also possible to execute such game processing. That is, the CPU 50 determines whether or not a predetermined condition is satisfied by recognizing the entire user's face or by recognizing a part of the user's face or its movement.

ステップS9で“NO”であれば、つまり所定の条件を満たしていない場合には、そのままステップS13に進む。一方、ステップS9で“YES”であれば、つまり所定の条件を満たしている場合には、ステップS11で、ゲームクリアかどうかを判断する。ここでは、CPU50は、ゲームクリアの条件を満たしたかどうかを判断するのである。たとえば、上述した仮想ゲームでは、制限時間内に、パンを全部食べたことや「いないいないばあ」に成功したことがゲームクリアの条件に該当する。   If “NO” in the step S9, that is, if the predetermined condition is not satisfied, the process proceeds to a step S13 as it is. On the other hand, if “YES” in the step S9, that is, if a predetermined condition is satisfied, it is determined whether or not the game is cleared in a step S11. Here, the CPU 50 determines whether or not a game clear condition is satisfied. For example, in the virtual game described above, the game clear condition corresponds to the fact that all bread has been eaten or “I have no money” within the time limit.

ステップS11で“YES”であれば、つまりゲームクリアであれば、ステップS17で、ゲームクリア処理を実行して、ゲーム処理を終了する。たとえば、ステップS17では、ゲームをクリアしたことを表現するゲーム画面が表示されたり、効果音が出力されたり、得点が加算されたり、レベルが上昇されたりするなどの様々な演出が実行される。   If “YES” in the step S11, that is, if the game is cleared, a game clear process is executed in a step S17, and the game process is ended. For example, in step S17, various effects such as a game screen representing that the game is cleared, a sound effect is output, a score is added, and a level is raised are executed.

一方、ステップS11で“NO”であれば、つまりゲームクリアでなければ、ステップS13で、ゲームオーバであるかどうかを判断する。ここでは、CPU50は、ゲームオーバの条件を満たしたかどうかを判断するのである。たとえば、上述した仮想ゲームでは、制限時間内に、パンを食べ切れなかったことや「いないいないばあ」に成功しなかったことがゲームオーバ条件に該当する。   On the other hand, if “NO” in the step S11, that is, if the game is not cleared, it is determined whether or not the game is over in a step S13. Here, the CPU 50 determines whether or not the game over condition is satisfied. For example, in the above-described virtual game, the game over condition corresponds to the fact that the bread was not eaten within the time limit and the “not good” was not successful.

ステップS13で“NO”であれば、つまりゲームオーバでなければ、ゲームを続行するべく、ステップS15で、ゲーム画面(100,200)を更新してから、ステップS3に戻る。詳細な説明は省略するが、ステップS9で、所定の条件を満たすと判断された場合には、たとえば、唇オブジェクト102がパンオブジェクト104をかじる様子のゲーム画面100が表示されたり、ユーザが顔を手で覆ったことが検出された場合には、指示画像表示領域206において次にユーザが実行するべき動作(ここでは、顔を覆った手を外す)を表示したりして、ゲームの進行状況が分かるように、ゲーム画面が更新される。一方、ステップS13で“YES”であれば、つまりゲームオーバであれば、ステップS19で、ゲームオーバ処理を実行して、ゲーム処理を終了する。たとえば、ステップS19では、ゲームオーバを表現するゲーム画面が表示されたり、効果音が出力されたり、プレイヤないしプレイヤキャラクタのライフが減少されたりなどの演出が実行される。   If “NO” in the step S13, that is, if the game is not over, the game screen (100, 200) is updated in a step S15 so as to continue the game, and then the process returns to the step S3. Although a detailed description is omitted, if it is determined in step S9 that the predetermined condition is satisfied, for example, a game screen 100 in which the lip object 102 bites the pan object 104 is displayed, or the user moves his / her face. When it is detected that the cover is covered with a hand, in the instruction image display area 206, an operation to be performed next by the user (here, removing the hand covering the face) is displayed, and the progress of the game As you can see, the game screen is updated. On the other hand, if “YES” in the step S13, that is, if the game is over, a game over process is executed in a step S19, and the game process is ended. For example, in step S19, effects such as displaying a game screen representing game over, outputting sound effects, reducing the life of the player or player character, and the like are executed.

この実施例によれば、撮影画像から肌色を抽出し、抽出した肌色に基づいてユーザの顔を認識しているかどうかを判定し、ユーザの顔を認識している場合に限り、ユーザの顔の特徴点に基づいて所定の条件を満たすかどうかを判断するので、プログラマや開発者が意図したプレイ状態でゲームをプレイさせることができ、また、プレイヤが意図した操作を実行することができ、しかも、所定の条件を満たすか否かについて正しく判断することができる。   According to this embodiment, the skin color is extracted from the captured image, it is determined whether the user's face is recognized based on the extracted skin color, and only when the user's face is recognized, Since it is determined whether or not a predetermined condition is satisfied based on the feature point, the game can be played in the play state intended by the programmer or developer, and the operation intended by the player can be executed. It is possible to correctly determine whether or not a predetermined condition is satisfied.

なお、この実施例では、顔の特徴点に基づいて、ユーザの顔を認識しているかどうか、およびユーザが口を開閉したかどうかを判断して、所定の条件を満たすか否かを判定する仮想ゲームについて説明したが、これらに限定される必要はない。たとえば、眉毛の特徴点や目の特徴点に基づいて、笑顔や怒り顔のような所定の顔の表情を検出したか否かを判断して、所定の条件を満たすか否かを判定する仮想ゲームを実行することも可能である。   In this embodiment, it is determined whether or not a predetermined condition is satisfied by determining whether or not the user's face is recognized based on the facial feature points and whether or not the user has opened and closed the mouth. Although virtual games have been described, it is not necessary to be limited to these. For example, based on the eyebrow feature points and eye feature points, it is determined whether or not a predetermined facial expression such as a smile or an angry face has been detected, and whether or not a predetermined condition is satisfied is determined. It is also possible to run a game.

また、この実施例では、より高い精度を要求するため、ユーザの顔が存在するであると予測される特定領域を設定して、特定領域における肌色領域の割合が所定値を超える場合に、ユーザの顔を認識するようにしたが、LCDの表示領域全体における肌色領域の割合に基づいて、ユーザの顔を認識するようにしてもよい。   Also, in this embodiment, in order to request higher accuracy, when a specific area where the user's face is predicted to be set is set and the ratio of the skin color area in the specific area exceeds a predetermined value, the user However, the user's face may be recognized based on the ratio of the skin color area in the entire display area of the LCD.

さらに、この実施例では、ゲーム画面にシルエットを表示することにより、ゲーム装置が認識している肌色領域をユーザに知らせるようにしてあるが、これに限定される必要はない。顔(肌色領域)を認識しているか否か、および顔を認識している場合には、その大きさ(顔とゲーム画面(内部カメラ)との距離)の適切さを示す指標をゲーム画面にバーグラフなどで表示してユーザに知らせるようにしてもよい。   Further, in this embodiment, the silhouette is displayed on the game screen to inform the user of the skin color area recognized by the game apparatus, but the present invention is not limited to this. In the game screen, an index indicating whether or not the face (skin color area) is recognized and the appropriateness of the size (distance between the face and the game screen (internal camera)) is displayed on the game screen. A bar graph or the like may be displayed to inform the user.

さらにまた、ゲーム装置の構成は実施例のものに限定される必要はない。たとえば、表示装置(LCD)およびカメラは、それぞれ1つでもよい。また、タッチパネルは無くてもよい。さらに、タッチパネルを2つのLCD上に設けてもよい。   Furthermore, the configuration of the game device need not be limited to that of the embodiment. For example, there may be one display device (LCD) and one camera. Further, the touch panel may not be provided. Furthermore, a touch panel may be provided on two LCDs.

図1はこの発明のゲーム装置の外観構成の一実施例を示す図解図である。FIG. 1 is an illustrative view showing one embodiment of an external configuration of a game apparatus according to the present invention. 図2は図1に示すゲーム装置を折り畳んだ状態の上面図および左側面図を示す図解図である。FIG. 2 is an illustrative view showing a top view and a left side view of the state in which the game apparatus shown in FIG. 1 is folded. 図3は図1および図2に示すゲーム装置の電気的な構成を示すブロック図である。FIG. 3 is a block diagram showing an electrical configuration of the game apparatus shown in FIGS. 図4は図1に示す第1LCDに表示されるゲーム画面の一例を示す図解図である。FIG. 4 is an illustrative view showing one example of a game screen displayed on the first LCD shown in FIG. 図5は図4に示すゲーム画面を用いた仮想ゲームをプレイする場合に、表示領域に対して設定される肌色判定領域を示す図解図である。FIG. 5 is an illustrative view showing a skin color determination area set for a display area when a virtual game using the game screen shown in FIG. 4 is played. 図6はユーザの顔画像から検出される特徴点を示す図解図である。FIG. 6 is an illustrative view showing feature points detected from a user's face image. 図7は図1に示すカメラで撮影された撮影画像の展開領域を示す図解図である。FIG. 7 is an illustrative view showing a developed area of a photographed image photographed by the camera shown in FIG. 図8は図1の第1LCDに表示されるゲーム画面の他の例を示す図解図である。FIG. 8 is an illustrative view showing another example of a game screen displayed on the first LCD of FIG. 図9は図8に示すゲーム画面を用いた仮想ゲームをプレイする場合に表示領域に設定される肌色判定領域を示す図解図である。FIG. 9 is an illustrative view showing a skin color determination area set in the display area when the virtual game using the game screen shown in FIG. 8 is played. 図10は第1LCDに表示される調整画面の一例およびこの調整画面を用いる場合の判定用データの例を示す図解図である。FIG. 10 is an illustrative view showing an example of an adjustment screen displayed on the first LCD and an example of determination data when this adjustment screen is used. 図11はこの実施例の仮想ゲームをプレイする場合のユーザの頭部(顔)とゲーム装置との位置関係を示す図解図である。FIG. 11 is an illustrative view showing the positional relationship between the user's head (face) and the game device when playing the virtual game of this embodiment. 図12は肌色判定の閾値を示す図表である。FIG. 12 is a chart showing threshold values for skin color determination. 図13は第1LCDの表示領域を8×8画素および4×4画素に分割した格子を示す図解図である。FIG. 13 is an illustrative view showing a grid obtained by dividing the display area of the first LCD into 8 × 8 pixels and 4 × 4 pixels. 図14は第1LCDの表示領域を2×2画素に分割した格子を示す図解図である。FIG. 14 is an illustrative view showing a grid obtained by dividing the display area of the first LCD into 2 × 2 pixels. 図15は肌色を抽出する場合の或る格子の評価値を算出するための重み付け値を示す図解図および閾値による判定結果の例を示す図解図である。FIG. 15 is an illustrative view showing a weighting value for calculating an evaluation value of a certain grid when skin color is extracted, and an illustrative view showing an example of a determination result by a threshold value. 図16は図3に示すメインメモリのメモリマップを示す図解図である。FIG. 16 is an illustrative view showing a memory map of the main memory shown in FIG. 図17は図16に示すデータ記憶領域の具体的な内容を示す図解図である。FIG. 17 is an illustrative view showing specific contents of the data storage area shown in FIG. 図18は図3に示すCPUのゲーム処理を示すフロー図である。FIG. 18 is a flowchart showing the game processing of the CPU shown in FIG.

符号の説明Explanation of symbols

10 …ゲーム装置
12,14 …ハウジング
16,18 …LCD
20 …操作ボタン
22 …タッチパネル
24 …タッチペン
26,28 …メモリカード
32,34 …カメラ
50 …CPU
52 …メインメモリ
54 …メモリ制御回路
56 …保存用データメモリ
58 …プリセットデータ用メモリ
60,62 …メモリカードI/F
64 …無線通信モジュール
66 …ローカル通信モジュール
68 …RTC
70 …電源回路
72 …I/F回路
74,76 …GPU
78,80 …VRAM
82 …LCDコントローラ
84 …マイク
10 ... Game device 12, 14 ... Housing 16, 18 ... LCD
20 ... Operation buttons 22 ... Touch panel 24 ... Touch pen 26, 28 ... Memory card 32, 34 ... Camera 50 ... CPU
52 ... Main memory 54 ... Memory control circuit 56 ... Storage data memory 58 ... Preset data memory 60, 62 ... Memory card I / F
64 ... Wireless communication module 66 ... Local communication module 68 ... RTC
70 ... Power supply circuit 72 ... I / F circuit 74, 76 ... GPU
78, 80 ... VRAM
82 ... LCD controller 84 ... Microphone

Claims (8)

ユーザの顔の全体または一部に対応する画像を示す画像データに基づいてゲーム処理を実行する装置のコンピュータに実行させるゲームプログラムであって、
前記ユーザを撮像する撮像ステップ、
前記撮像ステップによって撮像された画像を示す画像データに基づいて、前記ユーザの顔の全部または一部を認識する顔認識ステップ、
前記撮像ステップによって撮像された画像を示す画像データに基づいて、ユーザの肌色を検出したか否かを判定する肌色検出判定ステップ、および
前記肌色検出判定ステップによって前記ユーザの肌色を検出したと判定されたとき、前記顔認識ステップによって認識された前記ユーザの顔の全部または一部を示す情報に基づいてゲーム処理を実行するゲーム処理ステップを実行させる、ゲームプログラム。
A game program to be executed by a computer of an apparatus that executes game processing based on image data indicating an image corresponding to all or part of a user's face,
An imaging step of imaging the user;
A face recognition step for recognizing all or a part of the user's face based on image data indicating the image captured by the imaging step;
It is determined that the skin color of the user is detected by the skin color detection determination step for determining whether or not the user's skin color is detected based on the image data indicating the image captured by the imaging step, and the skin color detection determination step. A game program for executing a game process step for executing a game process based on information indicating all or part of the face of the user recognized by the face recognition step.
前記撮像ステップによって撮像された画像を示す画像データに基づいて、肌色の領域の大きさを算出する肌色領域算出ステップをさらに実行させ、
前記肌色検出判定ステップは、前記肌色領域算出ステップによって算出された肌色の領域の大きさが所定値以上であるときに、前記ユーザの肌色を検出したと判定する、請求項1記載のゲームプログラム。
Based on the image data indicating the image captured by the imaging step, the skin color region calculating step for calculating the size of the skin color region is further executed,
The game program according to claim 1, wherein the skin color detection determination step determines that the user's skin color has been detected when the size of the skin color region calculated by the skin color region calculation step is equal to or greater than a predetermined value.
前記肌色領域算出ステップは、前記撮像ステップによって撮像された画像における肌色の領域の割合を算出し、
前記肌色検出ステップは、前記肌色領域算出ステップによって算出された割合が所定値以上であるときに、前記ユーザの肌色を検出したと判定する、請求項2記載のゲームプログラム。
The skin color region calculating step calculates a ratio of a skin color region in the image captured by the imaging step,
The game program according to claim 2, wherein the skin color detecting step determines that the user's skin color is detected when the ratio calculated by the skin color region calculating step is equal to or greater than a predetermined value.
前記撮像ステップによって撮像された画像において、特定の領域を設定する領域設定ステップをさらに実行させ、
前記肌色領域算出ステップは、前記領域設定ステップによって設定された特定の領域内における肌色の領域の大きさを算出する、請求項2記載のゲームプログラム。
In the image captured by the imaging step, further execute an area setting step for setting a specific area,
The game program according to claim 2, wherein the skin color area calculating step calculates a size of a skin color area within the specific area set by the area setting step.
前記顔認識ステップは、前記撮像ステップによって撮像された画像を示す画像データに基づいて、前記ユーザの顔を認識するとともに、当該ユーザの肌色を検出し、
前記ゲーム処理ステップは、前記肌色検出判定ステップによって前記ユーザの肌色を検出したと判定されたとき、前記顔認識ステップによって認識された前記ユーザの顔の全部または一部を示す顔情報と当該ユーザの肌色を示す肌色情報とに基づいてゲーム処理を実行する、請求項1ないし4のいずれかに記載のゲームプログラム。
The face recognition step recognizes the user's face based on the image data indicating the image captured by the imaging step, and detects the user's skin color;
When it is determined that the skin color of the user is detected by the skin color detection determination step, the game processing step includes face information indicating all or a part of the user's face recognized by the face recognition step, and the user's skin color The game program according to claim 1, wherein the game process is executed based on skin color information indicating a skin color.
前記ユーザを予め撮像して得られた画像を示す画像データに基づいて、当該ユーザの肌色の特徴を示す肌色特徴データを算出する肌色特徴データ算出ステップをさらに実行させ、
前記肌色検出判定ステップは、前記撮像ステップによって撮像された画像を示す画像データと前記肌色特徴データ算出ステップによって算出された肌色特徴データとに基づいて、前記ユーザの肌色を検出したか否かを判定する、請求項1記載のゲームプログラム。
Based on image data indicating an image obtained by imaging the user in advance, a skin color feature data calculating step for calculating skin color feature data indicating a skin color feature of the user is further executed.
In the skin color detection determination step, it is determined whether or not the user's skin color is detected based on the image data indicating the image captured in the imaging step and the skin color feature data calculated in the skin color feature data calculation step. The game program according to claim 1.
前記撮像ステップによって撮像された画像を示す画像データに基づいて、ユーザの顔の全部または一部の特徴点データを取得する特徴点データ取得ステップ、および
前記特徴点データ取得ステップによって取得された特徴点データが所定の条件を満たすか否かを判定する特徴点データ判定ステップをさらに実行させ、
前記ゲーム処理ステップは、前記肌色検出判定ステップによって前記ユーザの肌色を検出したと判定され、かつ、前記特徴点データ判定ステップによって前記特徴点データが所定の条件を満たすと判定されたときに、前記顔認識ステップによって認識された前記ユーザの顔の全部または一部を示す情報に基づいてゲーム処理を実行する、請求項1に記載のゲームプログラム。
A feature point data acquisition step that acquires all or part of feature point data of a user's face based on image data indicating an image captured by the imaging step, and a feature point acquired by the feature point data acquisition step Further executing a feature point data determination step for determining whether the data satisfies a predetermined condition,
In the game processing step, when it is determined that the skin color of the user is detected by the skin color detection determination step, and when the feature point data is determined to satisfy a predetermined condition by the feature point data determination step, The game program according to claim 1, wherein game processing is executed based on information indicating all or part of the face of the user recognized by the face recognition step.
ユーザの顔の全体または一部に対応する画像を示す画像データに基づいてゲーム処理を実行するゲーム装置であって、
前記ユーザを撮像する撮像手段、
前記撮像手段によって撮像された画像を示す画像データに基づいて、前記ユーザの顔の全部または一部を認識する顔認識手段、
前記撮像手段によって撮像された画像を示す画像データに基づいて、ユーザの肌色を検出したか否かを判定する肌色検出判定手段、および
前記肌色検出判定手段によって前記ユーザの肌色を検出したと判定されたとき、前記顔認識手段によって認識された前記ユーザの顔の全部または一部を示す情報に基づいてゲーム処理を実行するゲーム処理手段を備える、ゲーム装置。
A game device that executes game processing based on image data indicating an image corresponding to all or part of a user's face,
Imaging means for imaging the user;
Face recognition means for recognizing all or part of the user's face based on image data indicating an image picked up by the image pickup means;
Based on the image data indicating the image captured by the imaging unit, it is determined that the user's skin color is detected by the skin color detection determination unit that determines whether the user's skin color is detected, and the skin color detection determination unit. A game apparatus comprising game processing means for executing game processing based on information indicating all or part of the face of the user recognized by the face recognition means.
JP2008325441A 2008-12-22 2008-12-22 GAME PROGRAM, GAME DEVICE, AND GAME CONTROL METHOD Active JP5361368B2 (en)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2008325441A JP5361368B2 (en) 2008-12-22 2008-12-22 GAME PROGRAM, GAME DEVICE, AND GAME CONTROL METHOD
US12/549,634 US8852003B2 (en) 2008-12-22 2009-08-28 Storage medium storing a game program, game apparatus and game controlling method
US14/470,127 US9421462B2 (en) 2008-12-22 2014-08-27 Storage medium storing a game program, game apparatus and game controlling method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008325441A JP5361368B2 (en) 2008-12-22 2008-12-22 GAME PROGRAM, GAME DEVICE, AND GAME CONTROL METHOD

Publications (2)

Publication Number Publication Date
JP2010142553A true JP2010142553A (en) 2010-07-01
JP5361368B2 JP5361368B2 (en) 2013-12-04

Family

ID=42266935

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008325441A Active JP5361368B2 (en) 2008-12-22 2008-12-22 GAME PROGRAM, GAME DEVICE, AND GAME CONTROL METHOD

Country Status (2)

Country Link
US (2) US8852003B2 (en)
JP (1) JP5361368B2 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101250610B1 (en) * 2011-02-25 2013-04-03 성균관대학교산학협력단 User recognition system for controlling audio using stereo camera
US8687012B2 (en) 2011-08-29 2014-04-01 Nintendo Co., Ltd. Information processing apparatus, storage medium, information processing method and information processing system for adjusting a position of an object to be imaged on a display
JP2018032295A (en) * 2016-08-26 2018-03-01 任天堂株式会社 Information processing system, information processing program, information processing device, and information processing method

Families Citing this family (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010142592A (en) * 2008-12-22 2010-07-01 Nintendo Co Ltd Game program and game device
US9456111B2 (en) 2010-06-15 2016-09-27 Mediatek Inc. System and method for content adaptive clipping
US20120311503A1 (en) * 2011-06-06 2012-12-06 Microsoft Corporation Gesture to trigger application-pertinent information
US10558848B2 (en) 2017-10-05 2020-02-11 Duelight Llc System, method, and computer program for capturing an image with correct skin tone exposure
JP2015184906A (en) * 2014-03-24 2015-10-22 富士通株式会社 Skin color detection condition determination device, skin color detection condition determination method and skin color detection condition determination computer program
CN104376828B (en) * 2014-11-27 2016-09-14 深圳市华星光电技术有限公司 The ameliorative way of the colour of skin colour cast of a kind of display panels and improvement system
WO2016126863A1 (en) * 2015-02-04 2016-08-11 Invensense, Inc Estimating heading misalignment between a device and a person using optical sensor
USD781309S1 (en) * 2016-03-30 2017-03-14 Microsoft Corporation Display screen with animated graphical user interface
US9789403B1 (en) * 2016-06-14 2017-10-17 Odile Aimee Furment System for interactive image based game
US10870056B2 (en) 2017-11-01 2020-12-22 Sony Interactive Entertainment Inc. Emoji-based communications derived from facial features during game play
CN108615014B (en) * 2018-04-27 2022-06-21 京东方科技集团股份有限公司 Eye state detection method, device, equipment and medium
CN109045688B (en) * 2018-07-23 2022-04-26 广州方硅信息技术有限公司 Game interaction method and device, electronic equipment and storage medium
USD968441S1 (en) 2020-04-30 2022-11-01 The Procter & Gamble Company Display screen with graphical user interface
USD962256S1 (en) 2020-05-14 2022-08-30 The Procter & Gamble Company Display screen with graphical user interface

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06168314A (en) * 1992-11-30 1994-06-14 Matsushita Electric Ind Co Ltd Amusement device
JPH07155467A (en) * 1993-12-02 1995-06-20 Sega Enterp Ltd Video game device having image input of game player
JPH09131464A (en) * 1995-11-07 1997-05-20 Taito Corp Game device with function for sensing object and method for sensing object
JP2003248837A (en) * 2001-11-12 2003-09-05 Mega Chips Corp Device and system for image generation, device and system for sound generation, server for image generation, program, and recording medium
JP2004361989A (en) * 2003-05-30 2004-12-24 Seiko Epson Corp Image selection system, image selection program, and image selection method
JP2005318523A (en) * 2004-03-30 2005-11-10 Seiko Epson Corp Image processing device, its method and its program
JP2006215947A (en) * 2005-02-07 2006-08-17 Konica Minolta Photo Imaging Inc Face image photographing method and device
JP2008242597A (en) * 2007-03-26 2008-10-09 Yuhshin Co Ltd Monitoring device for vehicle

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4710873A (en) * 1982-07-06 1987-12-01 Marvin Glass & Associates Video game incorporating digitized images of being into game graphics
JPH0981309A (en) * 1995-09-13 1997-03-28 Toshiba Corp Input device
JP3222091B2 (en) * 1997-05-27 2001-10-22 シャープ株式会社 Image processing apparatus and medium storing image processing apparatus control program
US6188777B1 (en) * 1997-08-01 2001-02-13 Interval Research Corporation Method and apparatus for personnel detection and tracking
US6460848B1 (en) * 1999-04-21 2002-10-08 Mindplay Llc Method and apparatus for monitoring casinos and gaming
JP4020567B2 (en) * 2000-05-15 2007-12-12 株式会社コナミデジタルエンタテインメント Game machine and game environment setting network system thereof
US20050138617A1 (en) * 2003-12-19 2005-06-23 Friedman Lee G. Adaptive discovery and configuration of a user-selected input/output device
JP2006202181A (en) 2005-01-24 2006-08-03 Sony Corp Image output method and device
JP2006333882A (en) * 2005-05-31 2006-12-14 Aruze Corp Player authentication apparatus, player management server, game machine and sandwiched dispenser
JP2008178595A (en) * 2007-01-25 2008-08-07 Aruze Corp Game apparatus with common monitor to be made visible by multiple players
US20080215974A1 (en) * 2007-03-01 2008-09-04 Phil Harrison Interactive user controlled avatar animations

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06168314A (en) * 1992-11-30 1994-06-14 Matsushita Electric Ind Co Ltd Amusement device
JPH07155467A (en) * 1993-12-02 1995-06-20 Sega Enterp Ltd Video game device having image input of game player
JPH09131464A (en) * 1995-11-07 1997-05-20 Taito Corp Game device with function for sensing object and method for sensing object
JP2003248837A (en) * 2001-11-12 2003-09-05 Mega Chips Corp Device and system for image generation, device and system for sound generation, server for image generation, program, and recording medium
JP2004361989A (en) * 2003-05-30 2004-12-24 Seiko Epson Corp Image selection system, image selection program, and image selection method
JP2005318523A (en) * 2004-03-30 2005-11-10 Seiko Epson Corp Image processing device, its method and its program
JP2006215947A (en) * 2005-02-07 2006-08-17 Konica Minolta Photo Imaging Inc Face image photographing method and device
JP2008242597A (en) * 2007-03-26 2008-10-09 Yuhshin Co Ltd Monitoring device for vehicle

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101250610B1 (en) * 2011-02-25 2013-04-03 성균관대학교산학협력단 User recognition system for controlling audio using stereo camera
US8687012B2 (en) 2011-08-29 2014-04-01 Nintendo Co., Ltd. Information processing apparatus, storage medium, information processing method and information processing system for adjusting a position of an object to be imaged on a display
JP2018032295A (en) * 2016-08-26 2018-03-01 任天堂株式会社 Information processing system, information processing program, information processing device, and information processing method

Also Published As

Publication number Publication date
US20140364241A1 (en) 2014-12-11
US8852003B2 (en) 2014-10-07
US9421462B2 (en) 2016-08-23
US20100160049A1 (en) 2010-06-24
JP5361368B2 (en) 2013-12-04

Similar Documents

Publication Publication Date Title
JP5361368B2 (en) GAME PROGRAM, GAME DEVICE, AND GAME CONTROL METHOD
US10445917B2 (en) Method for communication via virtual space, non-transitory computer readable medium for storing instructions for executing the method on a computer, and information processing system for executing the method
CN108833818B (en) Video recording method, device, terminal and storage medium
US8882591B2 (en) Storage medium having image display program stored therein, image display apparatus, image display system, and image display method
US9495800B2 (en) Storage medium having stored thereon image processing program, image processing apparatus, image processing system, and image processing method
US8731332B2 (en) Storage medium having image recognition program stored therein, image recognition apparatus, image recognition system, and image recognition method
US9071808B2 (en) Storage medium having stored information processing program therein, information processing apparatus, information processing method, and information processing system
US8601379B2 (en) Methods for interactive communications with real time effects and avatar environment interaction
JP5643549B2 (en) Image processing system, image processing program, image processing apparatus, and image processing method
US8764563B2 (en) Video game superimposing virtual characters on user supplied photo used as game screen background
US9220976B2 (en) Storage medium storing game program, and game device
US8947365B2 (en) Storage medium storing image processing program for implementing image processing according to input coordinate, and information processing device
US9412190B2 (en) Image display system, image display apparatus, image display method, and non-transitory storage medium encoded with computer readable program
US9196078B2 (en) System and methods for displaying virtual space including a silhouette image
JP2012068977A (en) Game processing program, device, system and method
JP2009288951A (en) Unit, method and program for image processing
JP5226038B2 (en) GAME PROGRAM, GAME DEVICE, AND GAME CONTROL METHOD
JP2011258159A (en) Program, information storage medium and image generation system
JP5478205B2 (en) GAME DEVICE, GAME PROGRAM, GAME SYSTEM, AND GAME CONTROL METHOD
CN114470750B (en) Display method of image frame stream, electronic device and storage medium
JP4945617B2 (en) Image processing apparatus, image processing method, and image processing program
JP5363797B2 (en) GAME PROGRAM AND GAME DEVICE
JP5689103B2 (en) GAME PROGRAM, GAME SYSTEM, GAME DEVICE, AND GAME CONTROL METHOD
US9230293B2 (en) Display controlling program and display controlling apparatus
JP2013111201A (en) Game program, game device, and recording medium for recording the game program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20111201

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130611

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130613

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130723

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130813

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130903

R150 Certificate of patent or registration of utility model

Ref document number: 5361368

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250