JP2006271657A - Program, information storage medium, and image pickup and display device - Google Patents

Program, information storage medium, and image pickup and display device Download PDF

Info

Publication number
JP2006271657A
JP2006271657A JP2005094600A JP2005094600A JP2006271657A JP 2006271657 A JP2006271657 A JP 2006271657A JP 2005094600 A JP2005094600 A JP 2005094600A JP 2005094600 A JP2005094600 A JP 2005094600A JP 2006271657 A JP2006271657 A JP 2006271657A
Authority
JP
Japan
Prior art keywords
image
character
unit
computer
captured
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2005094600A
Other languages
Japanese (ja)
Inventor
Koutarou Satou
皇太郎 佐藤
Yuji Nakazato
裕司 中里
Tetsuya Shinoda
徹也 篠田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Bandai Namco Entertainment Inc
Original Assignee
Namco Bandai Games Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Namco Bandai Games Inc filed Critical Namco Bandai Games Inc
Priority to JP2005094600A priority Critical patent/JP2006271657A/en
Publication of JP2006271657A publication Critical patent/JP2006271657A/en
Pending legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide new interest in image pickup by utilizing image recognition processing without especially limiting a recognition object. <P>SOLUTION: When the camera unit 7 of a portable game device 1000 is activated, a picked-up image by the camera unit 7 is displayed in real time on a display 1. Then, when a shutter is turned ON, a ghost is combined with the picked-up image and displayed. At this time, even when the image of the same object is picked up, the ghost to be displayed is made different depending on a virtual lens to be mounted on the camera unit 7. That is, when the image of the object O1 is picked up by using a virtual lens, a ghost G1 is displayed (a). In addition, when the image of the same object O1 is picked up by using a different virtual lens, a ghost G2 is displayed (b). <P>COPYRIGHT: (C)2007,JPO&INPIT

Description

本発明は、撮像手段による撮像画像を表示装置に表示制御させるためのプログラム等に関する。   The present invention relates to a program for causing a display device to control display of an image captured by an imaging unit.

撮像画像に対する画像認識を行ってこの撮像画像の内容等を認識する画像認識技術が様々な分野で利用されている。例えば、この画像認識技術の適用例として、特許文献1には、トランプゲームを行うゲーム装置や、タロット占いを行う占い装置が開示されている。かかる装置では、カメラを用いてトランプやタロットカード等の各種のカード類やサイコロといった認識対象物を撮像し、撮像画像に対する画像認識を行うパターン認識処理により、その配置等を認識している。
特開2002−49909号公報
An image recognition technique for recognizing the content of a captured image by performing image recognition on the captured image is used in various fields. For example, as an application example of this image recognition technology, Patent Document 1 discloses a game device that performs a card game and a fortune-telling device that performs tarot fortune-telling. In such an apparatus, various kinds of cards such as playing cards and tarot cards and recognition objects such as dice are imaged using a camera, and the arrangement and the like are recognized by pattern recognition processing for performing image recognition on the captured image.
JP 2002-49909 A

上述した特許文献1の技術は、認識対象物の形状や内容を予め定められたものとしているが、認識対象物を特に限定せず、画像認識処理を利用することで撮像における新たな興趣を実現し得ないだろうか。本発明は、上記事情に鑑みて為されたものである。   The technology of Patent Document 1 described above assumes that the shape and content of the recognition object are predetermined, but the recognition object is not particularly limited, and a new interest in imaging is realized by using image recognition processing. Isn't it possible? The present invention has been made in view of the above circumstances.

上記課題を解決するための第1の発明は、
コンピュータに、撮像手段(例えば、図1のカメラユニット7、図6の撮像部200)による撮像画像を表示装置(例えば、図1のディスプレイ1、図6の画像表示部430)に表示制御させるためのプログラム(例えば、図6のゲームプログラム510)であって、
ユーザ操作に基づいて、予め設定された複数種類の合成画像条件群(例えば、実施形態のライブラリ)の中から合成画像条件群を選択する条件群選択手段(例えば、図6の仮想レンズ管理部312;図14のステップS3)、
前記条件群選択手段により選択された合成画像条件群に含まれる何れかの合成画像条件に、前記撮像画像が合致するか否かを判定する合成判定手段(例えば、図6の画像認識部314、類似度算出部316及び出現判断部318;図14のステップS7〜S11)、
前記合成判定手段により合致すると判定された合成画像条件に基づいて、予め設定された複数のキャラクタ画像の中から前記撮像画像に合成するキャラクタ画像を選択するキャラクタ画像選択手段(例えば、図6の出現判断部318;図14のステップS13〜S15)、
前記キャラクタ画像選択手段により選択されたキャラクタ画像を前記撮像画像に合成して前記表示装置に表示制御する合成画像表示制御手段(例えば、図6の表示制御部322;図14のステップS17)、
として前記コンピュータを機能させるためのプログラムである。
The first invention for solving the above-described problems is
To cause a computer to control display of an image captured by an imaging unit (for example, the camera unit 7 in FIG. 1 and the imaging unit 200 in FIG. 6) on a display device (for example, the display 1 in FIG. 1 and the image display unit 430 in FIG. 6). (For example, the game program 510 of FIG. 6),
Condition group selection means (for example, the virtual lens management unit 312 in FIG. 6) that selects a composite image condition group from a plurality of types of composite image condition groups (for example, the library of the embodiment) set in advance based on a user operation. Step S3) of FIG.
Synthesis determination means (for example, the image recognition unit 314 in FIG. 6) that determines whether or not the captured image matches any composite image condition included in the composite image condition group selected by the condition group selection means. Similarity calculation unit 316 and appearance determination unit 318; steps S7 to S11 in FIG.
Character image selection means for selecting a character image to be combined with the captured image from a plurality of preset character images based on the composite image condition determined to be matched by the combination determination means (for example, the appearance of FIG. 6 Determination unit 318; steps S13 to S15 in FIG.
Synthetic image display control means (for example, display control unit 322 in FIG. 6; step S17 in FIG. 14) for combining the character image selected by the character image selection means with the captured image and controlling display on the display device;
As a program for causing the computer to function.

また、第14の発明は、
撮像手段(例えば、図1のカメラユニット7、図6の撮像部200)と、
前記撮像手段による撮像画像を表示する表示部(例えば、図1のディスプレイ1、図6の画像表示部430)と、
ユーザ操作に基づいて、予め設定された複数種類の合成画像条件群の中から合成画像条件群を選択する条件群選択手段と、
前記条件群選択手段により選択された合成画像条件群に含まれる何れかの合成画像条件に、前記撮像画像が合致するか否かを判定する合成判定手段と、
前記合成判定手段により合致すると判定された合成画像条件に基づいて、予め設定された複数のキャラクタ画像の中から前記撮像画像に合成するキャラクタ画像を選択するキャラクタ画像選択手段と、
前記キャラクタ画像選択手段により選択されたキャラクタ画像を前記撮像画像に合成して前記表示装置に表示制御する合成画像表示制御手段と、
を備えた画像撮像表示装置(例えば、図1,図6の携帯型ゲーム装置1000)である。
In addition, the fourteenth invention
Imaging means (for example, the camera unit 7 in FIG. 1 and the imaging unit 200 in FIG. 6);
A display unit (for example, the display 1 in FIG. 1 and the image display unit 430 in FIG. 6) that displays an image captured by the imaging unit;
Condition group selection means for selecting a composite image condition group from a plurality of preset composite image condition groups based on a user operation;
Synthesis determination means for determining whether or not the captured image matches any composite image condition included in the composite image condition group selected by the condition group selection means;
A character image selection unit that selects a character image to be combined with the captured image from a plurality of preset character images based on the combined image condition determined to be matched by the combination determination unit;
Combined image display control means for combining the character image selected by the character image selection means with the captured image and controlling display on the display device;
(For example, the portable game apparatus 1000 in FIGS. 1 and 6).

この第1又は第14の発明によれば、撮像手段による撮像画像を表示制御する際に、撮像画像が、ユーザ操作に基づいて選択された合成画像条件群に含まれる何れかの合成画像条件に合致するか否かが判定され、合致すると判定された合成画像条件に基づくキャラクタ画像が、撮像画像に合成されて表示制御される。   According to the first or fourteenth aspect, when display control of a captured image by the imaging unit is performed, the captured image is set to any composite image condition included in the composite image condition group selected based on the user operation. It is determined whether or not they match, and a character image based on the combined image condition determined to match is combined with the captured image and displayed.

即ち、撮像画像が異なると、これに合致する合成画像条件が異なるため、撮像画像に合成されるキャラクタ画像が異なる。また、選択される合成画像条件群が異なると、これに含まれる合成画像条件が異なるため、同一の撮像画像であっても、これに合致する合成画像条件が異なり、撮像画像に合成されるキャラクタ画像が異なる。従って、撮像画像にあるキャラクタ画像が合成表示されるとともに、撮像する物体によって異なるキャラクタ画像が合成表示されるといったことや、同一の物体を撮像する場合であっても、選択される合成画像条件群によって異なるキャラクタ画像が合成表示されるといった、撮像における新たな興趣を実現できる。   That is, when the captured image is different, the combined image condition that matches the captured image is different, so that the character image combined with the captured image is different. Also, since different composite image condition groups are selected, the composite image conditions included therein are different. Therefore, even for the same captured image, the composite image conditions that match this differ, and the character combined with the captured image The image is different. Accordingly, a combined image condition group to be selected even when a character image in a captured image is combined and displayed, and a different character image is combined and displayed depending on the object to be captured, or even when capturing the same object. It is possible to realize a new interest in imaging such that different character images are combined and displayed depending on the image.

また、第2の発明として、第1の発明のプログラムを、
前記合成画像条件群は、予め異なるキャラクタ画像と対応付けられた複数の合成画像条件から成り、
前記キャラクタ画像選択手段が、前記合成判定手段により合致すると判定された合成画像条件に対応するキャラクタ画像を選択する、
ように前記コンピュータを機能させるためのプログラムとしても良い。
As a second invention, the program of the first invention is
The composite image condition group includes a plurality of composite image conditions associated with different character images in advance.
The character image selection means selects a character image corresponding to a composite image condition determined to be matched by the composition determination means;
Thus, a program for causing the computer to function may be used.

この第2の発明によれば、合成画像条件群は、予め異なるキャラクタ画像と対応付けられた複数の合成画像条件から成り、撮像画像に合致すると判定された合成画像条件に対応するキャラクタ画像が、撮像画像に合成される。即ち、選択される合成画像条件群が同一の場合には、同一の物体を撮像すると、常に同一のキャラクタ画像が撮像画像に合成表示されるといったことが実現される。   According to the second invention, the composite image condition group includes a plurality of composite image conditions that are associated with different character images in advance, and the character image corresponding to the composite image condition determined to match the captured image is It is combined with the captured image. That is, when the same composite image condition group is selected, when the same object is imaged, the same character image is always synthesized and displayed on the captured image.

また、第3の発明として、第1又は第2の発明のプログラムを、
前記撮像手段に仮想的に装着可能な所定の光学系パーツである仮想光学パーツ(例えば、実施形態の仮想レンズ)が、予め前記複数種類の合成画像条件群のうち何れかの合成画像条件群と対応付けられて複数種類用意されており、
前記条件群選択手段が、ユーザ操作に従って、前記複数種類の仮想光学パーツの中から仮想的に装着するとする仮想光学パーツを選択するパーツ選択手段(例えば、図6の仮想レンズ管理部312、図14のステップS1:YES〜S3)を有し、前記複数種類の合成画像条件群の中から前記パーツ選択手段により選択された仮想光学パーツに対応する合成画像条件群を選択する、
ように前記コンピュータを機能させるためのプログラムとしても良い。
As a third invention, the program of the first or second invention is
A virtual optical part (for example, a virtual lens of the embodiment) that is a predetermined optical system part that can be virtually mounted on the imaging unit is preliminarily set to any one of the plurality of types of composite image condition groups. There are multiple types associated with each other,
The condition group selection means selects a virtual optical part to be virtually mounted from among the plurality of types of virtual optical parts according to a user operation (for example, the virtual lens management unit 312 in FIG. 6, FIG. 14). Steps S1: YES to S3), and a composite image condition group corresponding to the virtual optical part selected by the parts selection unit is selected from the plurality of types of composite image condition groups.
Thus, a program for causing the computer to function may be used.

この第3の発明によれば、予め用意されている複数種類の仮想光学パーツの中から、ユーザ操作に従って撮像手段に装着するとする仮想光学パーツが選択され、この選択された仮想光学パーツに対応付けられている合成画像条件群が選択される。即ち、選択される仮想光学パーツが異なると、これに対応する合成画像条件群が異なるため、撮像画像に合成されるキャラクタ画像が異なる。従って、ユーザにとっては、例えば仮想的な撮影レンズやこれに装着するフィルタといった仮想光学パーツを“交換”することで、同一の物体を撮像した場合であっても、異なるキャラクタ画像が撮像画像に合成表示されるといったことを実現できる。   According to the third aspect of the present invention, a virtual optical part to be mounted on the imaging means is selected according to a user operation from a plurality of types of virtual optical parts prepared in advance, and is associated with the selected virtual optical part. The composite image condition group being selected is selected. That is, if the selected virtual optical part is different, the corresponding composite image condition group is different, and therefore the character image combined with the captured image is different. Therefore, for a user, even when the same object is imaged by “replacement” of virtual optical parts such as a virtual photographic lens and a filter attached to the virtual photographic lens, different character images are combined with the captured image. It can be displayed.

また、第4の発明として、第1〜第3の何れかの発明のプログラムを、
前記合成判定手段が、
前記撮像手段による撮像画像の特徴部分を抽出する特徴抽出処理を行う特徴抽出手段(例えば、図6の画像認識部314;図14のステップS7)と、
前記特徴抽出手段により抽出された特徴部分の画像が、前記条件群選択手段により選択された合成画像条件群に含まれる何れかの合成画像条件に合致するか否かを判定する特徴部分判定手段(例えば、図6の類似度算出部316及び出現判断部318;図14のステップS9〜S15)と、
を有するように前記コンピュータを機能させるためのプログラムとしても良い。
As a fourth invention, the program of any one of the first to third inventions is provided.
The synthesis determination means is
A feature extraction unit (for example, the image recognition unit 314 in FIG. 6; step S7 in FIG. 14) that performs a feature extraction process for extracting a feature portion of a captured image by the imaging unit;
Feature portion determination means for determining whether or not the feature part image extracted by the feature extraction means matches any composite image condition included in the composite image condition group selected by the condition group selection means ( For example, the similarity calculation unit 316 and the appearance determination unit 318 in FIG. 6; steps S9 to S15 in FIG.
It is good also as a program for making the said computer function so that it may have.

この第4の発明によれば、撮像画像の特徴部分が抽出され、この抽出された特徴部分の画像が、選択された合成画像条件群に含まれる何れかの合成画像条件に合致するか否かが判定される。即ち、撮像画像の特徴部分を基に、撮像画像に合成されるキャラクタ画像が決定される。   According to the fourth aspect, the feature portion of the captured image is extracted, and whether or not the extracted image of the feature portion matches any composite image condition included in the selected composite image condition group. Is determined. That is, the character image to be combined with the captured image is determined based on the characteristic part of the captured image.

また、第5の発明として、第4の発明のプログラムを、
前記合成画像条件には少なくとも物体の形状条件が含まれており、
前記特徴抽出手段が、撮像画像に写っている物体の形状を特徴部分として抽出するように前記コンピュータを機能させ、
前記特徴部分判定手段が、前記特徴抽出手段により抽出された物体形状が合成画像条件に含まれる物体の形状条件に合致するか否かを判定するように前記コンピュータを機能させる、
ためのプログラムとしても良い。
As a fifth invention, the program of the fourth invention is
The composite image condition includes at least an object shape condition,
The feature extraction means causes the computer to function as a feature portion to extract the shape of an object shown in a captured image;
The feature portion determination means causes the computer to function to determine whether or not the object shape extracted by the feature extraction means matches an object shape condition included in a composite image condition;
It may be a program for

この第5の発明によれば、合成画像条件には少なくとも物体の形状条件が含まれており、撮像画像に写っている物体の形状が特徴部分として抽出され、抽出された物体形状が合成画像条件に含まれる物体の形状条件に合致するか否かが判定される。即ち、少なくとも撮像した物体の形状を基に、撮像画像に合成されるキャラクタ画像が決定される。   According to the fifth invention, the composite image condition includes at least the object shape condition, the shape of the object shown in the captured image is extracted as the feature portion, and the extracted object shape is the composite image condition. It is determined whether or not the shape condition of the object included in is met. That is, the character image to be combined with the captured image is determined based on at least the shape of the captured object.

第6の発明は、
コンピュータに、撮像手段(例えば、図1のカメラユニット7、図6の撮像部200)による撮像画像を表示装置(例えば、図1のディスプレイ1、図6の画像表示部430)に表示制御させるためのプログラム(例えば、図6のゲームプログラム510)であって、
撮像画像の特徴データを抽出する際の抽出判断基準が異なる3以上の特徴抽出処理の中からユーザ操作に基づいて選択された少なくとも2つの特徴抽出処理によって、前記撮像画像から複数種類の特徴データを抽出する特徴抽出手段(例えば、図6の画像認識部314;図14のステップS7)、
予め複数の特徴データと対応付けられたキャラクタ画像が複数設定されており、前記複数のキャラクタ画像それぞれについて、当該キャラクタ画像に対応付けられている複数の特徴データと、前記特徴抽出手段により抽出された複数種類の特徴データとを比較して、前記撮像画像に合成するキャラクタ画像を選択するキャラクタ画像選択手段(例えば、図6の類似度算出部316及び出現判断部318;図14のステップS9〜S15)、
前記キャラクタ画像選択手段により選択されたキャラクタ画像を、前記撮像画像に合成して前記表示装置に表示制御する合成画像表示制御手段(例えば、図6の表示制御部322;図14のステップS17)、
として前記コンピュータを機能させるためのプログラムである。
The sixth invention is:
To cause a computer to control display of an image captured by an imaging unit (for example, the camera unit 7 in FIG. 1 and the imaging unit 200 in FIG. 6) on a display device (for example, the display 1 in FIG. 1 and the image display unit 430 in FIG. 6). (For example, the game program 510 of FIG. 6),
A plurality of types of feature data are extracted from the captured image by at least two feature extraction processes selected based on a user operation from among three or more feature extraction processes having different extraction criteria when extracting feature data of the captured image. Feature extraction means to extract (for example, the image recognition unit 314 in FIG. 6; step S7 in FIG. 14),
A plurality of character images associated with a plurality of feature data are set in advance, and each of the plurality of character images is extracted by a plurality of feature data associated with the character image and the feature extraction unit. Character image selection means (for example, similarity calculation unit 316 and appearance determination unit 318 in FIG. 6; steps S9 to S15 in FIG. 14) that compares a plurality of types of feature data and selects a character image to be combined with the captured image. ),
A synthesized image display control unit (for example, the display control unit 322 in FIG. 6; step S17 in FIG. 14) that synthesizes the character image selected by the character image selection unit with the captured image and controls display on the display device;
As a program for causing the computer to function.

また、第15の発明は、
撮像手段(例えば、図1のカメラユニット7、図6の撮像部200)と、
前記撮像手段による撮像画像を表示する表示部(例えば、図1のディスプレイ1、図6の画像表示部430)と、
撮像画像の特徴データを抽出する際の抽出判断基準が異なる3以上の特徴抽出処理の中からユーザ操作に基づいて選択された少なくとも2つの特徴抽出処理によって、前記撮像画像から複数種類の特徴データを抽出する特徴抽出手段と、
予め複数の特徴データと対応付けられたキャラクタ画像が複数設定されており、前記複数のキャラクタ画像それぞれについて、当該キャラクタ画像に対応付けられている複数の特徴データと、前記特徴抽出手段により抽出された複数種類の特徴データとを比較して、前記撮像画像に合成するキャラクタ画像を選択するキャラクタ画像選択手段と、
前記キャラクタ画像選択手段により選択されたキャラクタ画像を、前記撮像画像に合成して前記表示装置に表示制御する合成画像表示制御手段と、
を備えた画像撮像表示装置(例えば、図1,図6の携帯型ゲーム装置1000)である。
The fifteenth invention
Imaging means (for example, the camera unit 7 in FIG. 1 and the imaging unit 200 in FIG. 6);
A display unit (for example, the display 1 in FIG. 1 and the image display unit 430 in FIG. 6) that displays an image captured by the imaging unit;
A plurality of types of feature data are extracted from the captured image by at least two feature extraction processes selected based on a user operation from among three or more feature extraction processes having different extraction criteria when extracting feature data of the captured image. Feature extracting means for extracting;
A plurality of character images associated with a plurality of feature data are set in advance, and each of the plurality of character images is extracted by a plurality of feature data associated with the character image and the feature extraction unit. Character image selection means for comparing a plurality of types of feature data and selecting a character image to be combined with the captured image;
Combined image display control means for combining the character image selected by the character image selection means with the captured image and controlling the display on the display device;
(For example, the portable game apparatus 1000 in FIGS. 1 and 6).

この第6又は第15の発明によれば、撮像手段による撮像画像を表示制御する際に、3以上の特徴抽出処理の中から、ユーザ操作を基に選択された少なくとも2つの特徴抽出処理によって、撮像画像から複数種類の特徴データが抽出される。そして、複数のキャラクタ画像それぞれについて、該キャラクタ画像に予め対応付けられている複数の特徴データと、抽出された複数種類の特徴データとを比較して選択されたキャラクタ画像が、撮像画像に合成されて表示制御される。   According to the sixth or fifteenth invention, when display control of the captured image by the imaging means is performed, at least two feature extraction processes selected based on the user operation from among the three or more feature extraction processes, A plurality of types of feature data are extracted from the captured image. Then, for each of the plurality of character images, a character image selected by comparing a plurality of feature data previously associated with the character image and a plurality of types of extracted feature data is combined with the captured image. Display control.

即ち、撮像画像が異なると、抽出される複数種類の特徴データが異なるので、各キャラクタ画像の特徴データとの比較結果が異なり、撮像画像に合成されるキャラクタ画像が異なる。従って、撮像画像にあるキャラクタ画像が合成表示されるとともに、撮像する物体によって異なるキャラクタ画像が合成表示されるといった、撮像における新たな興趣を実現できる。   That is, since different types of extracted feature data are different for different captured images, the result of comparison with the feature data of each character image is different, and the character image combined with the captured image is different. Accordingly, it is possible to realize a new interest in imaging such that a character image in a captured image is combined and displayed, and a different character image is combined and displayed depending on an object to be captured.

また、第7の発明として、第6の発明のプログラムを、
前記キャラクタ画像に予め対応付けられている複数の特徴データには、少なくとも物体の形状に関するデータが含まれており、
前記特徴抽出手段により選択される少なくとも2つの特徴抽出処理には、撮像画像に写っている物体の形状を特徴データとして抽出する形状抽出処理が含まれている、
ように前記コンピュータを機能させるためのプログラムとしても良い。
As a seventh invention, the program of the sixth invention is
The plurality of feature data previously associated with the character image includes at least data relating to the shape of the object,
The at least two feature extraction processes selected by the feature extraction means include a shape extraction process for extracting the shape of an object shown in a captured image as feature data.
Thus, a program for causing the computer to function may be used.

この第7の発明によれば、キャラクタ画像に対応付けられている複数の特徴データには、少なくとも物体の形状に関するデータが含まれ、選択される少なくとも2つの特徴抽出処理には、撮像画像に写っている物体の形状を特徴データとして抽出する形状抽出処理が含まれている。即ち、少なくとも撮像した物体の形状を基に、撮像画像に合成されるキャラクタ画像が決定される。   According to the seventh aspect, the plurality of feature data associated with the character image includes at least data relating to the shape of the object, and at least two feature extraction processes to be selected are reflected in the captured image. A shape extraction process for extracting the shape of a moving object as feature data is included. That is, the character image to be combined with the captured image is determined based on at least the shape of the captured object.

また、第8の発明として、第6又は第7の発明のプログラムを、
前記撮像手段に仮想的に装着可能な所定の光学系パーツである仮想光学パーツ(例えば、実施形態の仮想レンズ)が、予め前記3以上の特徴抽出処理のうち少なくとも2つの特徴抽出処理と対応付けられて複数種類用意されており、
前記特徴抽出手段が、ユーザ操作に従って、前記複数種類の仮想光学パーツの中から仮想的に装着するとする仮想光学パーツを選択するパーツ選択手段(例えば、図6の仮想レンズ管理部312;図14のステップS1:YES〜S3)を有し、前記パーツ選択手段により選択された仮想光学パーツに対応する特徴抽出処理によって、前記撮像画像から複数種類の特徴データを抽出する、
ように前記コンピュータを機能させるためのプログラムとしても良い。
As an eighth invention, the program of the sixth or seventh invention is
A virtual optical part (for example, a virtual lens of the embodiment) that is a predetermined optical system part that can be virtually mounted on the imaging unit is associated with at least two feature extraction processes among the three or more feature extraction processes in advance. Multiple types are prepared,
The feature extraction unit selects a virtual optical part to be virtually mounted from the plurality of types of virtual optical parts according to a user operation (for example, the virtual lens management unit 312 in FIG. 6; FIG. 14). Steps S1: YES to S3), and a plurality of types of feature data are extracted from the captured image by a feature extraction process corresponding to the virtual optical part selected by the parts selection unit.
Thus, a program for causing the computer to function may be used.

この第8の発明によれば、
予め用意されている複数種類の仮想光学パーツの中から、ユーザ操作に従って撮像手段に装着するとする仮想光学パーツが選択され、この選択された仮想光学パーツに対応付けられている少なくとも2つの特徴抽出処理によって、撮像から複数種類の特徴データが抽出される。即ち、選択される仮想光学パーツが異なると、これに対応する特徴抽出処理が異なるため、撮像画像に合成されるキャラクタ画像が異なる、従って、ユーザにとっては、例えば仮想的な撮影レンズやこれに装着するフィルタといった仮想光学パーツを“交換”することで、同一の物体を撮像した場合であっても、異なるキャラクタ画像が撮像画像に合成表示されるといったことを実現できる。
According to the eighth invention,
A virtual optical part to be mounted on the imaging means is selected according to a user operation from a plurality of types of virtual optical parts prepared in advance, and at least two feature extraction processes associated with the selected virtual optical part Thus, a plurality of types of feature data are extracted from the imaging. That is, if the selected virtual optical part is different, the corresponding feature extraction process is different, so the character image combined with the captured image is different. Therefore, for the user, for example, a virtual photographic lens or attached to this By “changing” virtual optical parts such as filters, it is possible to realize that different character images are combined and displayed on the captured image even when the same object is imaged.

また、第9の発明として、第3又は第8の発明のプログラムを、
前記合成画像表示制御手段により撮像画像に合成されたキャラクタ画像のキャラクタを取得キャラクタとして記憶する合成済キャラ記憶手段(例えば、図6の記憶部500;図14のステップS19)として前記コンピュータを機能させ、
前記合成済キャラ記憶手段により記憶された取得キャラクタに基づいて、ユーザの撮影レベルを変更する撮影レベル可変手段(例えば、図6のプレーヤレベル管理部324;図14のステップS25)として前記コンピュータを機能させ、
仮想的に装着することのできる仮想光学パーツを現在の撮影レベルに応じて可変する使用可能パーツ可変手段(例えば、図6の仮想レンズ管理部312;図14のステップS27)として前記コンピュータを機能させ、
前記パーツ選択手段が、現在の撮影レベルに応じて前記使用可能パーツ可変手段により使用可能とされた仮想光学パーツのうち、仮想的に装着するとする仮想光学パーツをユーザ操作に従って選択するように前記コンピュータを機能させる、
ためのプログラムとしても良い。
As a ninth invention, the program of the third or eighth invention is
The computer is caused to function as synthesized character storage means (for example, the storage unit 500 in FIG. 6; step S19 in FIG. 14) that stores the character of the character image synthesized with the captured image by the synthesized image display control means as an acquired character. ,
The computer functions as shooting level changing means (for example, the player level management unit 324 in FIG. 6; step S25 in FIG. 14) for changing the shooting level of the user based on the acquired character stored in the synthesized character storage means. Let
The computer is caused to function as usable part changing means (for example, virtual lens management unit 312 in FIG. 6; step S27 in FIG. 14) that changes virtual optical parts that can be virtually mounted according to the current shooting level. ,
The computer selects the virtual optical part to be virtually mounted out of the virtual optical parts usable by the usable part variable means according to the current photographing level according to a user operation. Make it work,
It may be a program for

この第9の発明によれば、撮像画像に合成されたキャラクタ画像のキャラクタが取得キャラクタとして記憶されるとともに、この記憶された取得キャラクタに基づいて、ユーザの撮影レベルが変更される。そして、仮想的に装着することのできる仮想光学パーツが現在の撮影レベルに応じて可変され、現在の撮影レベルに応じて使用可能とされた仮想光学パーツのうち、仮想的に装着するとする仮想光学パーツがユーザ操作に従って選択される。   According to the ninth aspect, the character of the character image combined with the captured image is stored as an acquired character, and the user's shooting level is changed based on the stored acquired character. The virtual optical parts that can be virtually mounted are varied according to the current shooting level, and among the virtual optical parts that can be used according to the current shooting level, virtual optics to be virtually mounted A part is selected according to a user operation.

従って、例えば、取得キャラクタが多い程、ユーザの撮影レベルを高くするとともに、撮影レベルが高い程、使用可能な仮想光学パーツを多くすることで、数多くの撮像を行って取得キャラクタが増加する程、使用可能な仮想光学パーツが増加して撮像画像に合成表示され得るキャラクタ画像が増加するといった興趣性を付加することができる。また、使用可能な仮想光学パーツのうちからユーザ操作に従って選択されるので、ユーザにとっては、同一の物体を撮像する場合であっても、仮想光学パーツを交換することで、様々な異なるキャラクタ画像が表示されることを楽しむことができる。   Therefore, for example, the more acquired characters, the higher the shooting level of the user, and the higher the shooting level, the more virtual optical parts that can be used, and the more acquired characters the more acquired characters, It is possible to add interest such that the number of usable virtual optical parts increases and the number of character images that can be combined and displayed on the captured image increases. In addition, since it is selected according to the user operation from the available virtual optical parts, even when the same object is imaged, various different character images can be obtained by exchanging the virtual optical parts. You can enjoy being displayed.

また、第10の発明として、第9の発明のプログラムを、
仮想的に装着することのできる仮想光学パーツの数を現在の撮影レベルに応じて可変する使用可能パーツ数可変手段(例えば、図6の仮想レンズ管理部312;図14のステップS27)として前記コンピュータを機能させ、
前記パーツ選択手段が、現在の撮影レベルに応じて前記使用可能パーツ数可変手段により使用可能とされた仮想光学パーツの数の範囲内で、仮想的に装着するとする仮想光学パーツをユーザ操作に従って選択するように前記コンピュータを機能させる、
ためのプログラムとしても良い。
As a tenth invention, the program of the ninth invention is
The computer as a usable part number variable means (for example, virtual lens management unit 312 in FIG. 6; step S27 in FIG. 14) for varying the number of virtual optical parts that can be virtually mounted according to the current photographing level. Function
The part selection means selects a virtual optical part to be virtually mounted according to a user operation within the range of the number of virtual optical parts that can be used by the usable part number variable means according to the current shooting level. To make the computer function,
It may be a program for

この第10の発明によれば、仮想的に装着することのできる仮想光学パーツの数が現在の撮影レベルに応じて可変され、現在の撮影レベルに応じて使用可能とされた仮想光学パーツの数の範囲内で、仮想光学パーツがユーザ操作によって選択される。   According to the tenth aspect, the number of virtual optical parts that can be virtually mounted is varied according to the current shooting level, and the number of virtual optical parts that can be used according to the current shooting level. Within this range, the virtual optical part is selected by the user operation.

また、第11の発明として、第9又は第10の発明のプログラムを、
前記撮影レベル可変手段が、前記合成済キャラ記憶手段により記憶された取得キャラクタの数に基づいて撮影レベルを変更するように前記コンピュータを機能させる、
ためのプログラムとしても良い。
As an eleventh invention, the program of the ninth or tenth invention is
The shooting level varying means causes the computer to function to change the shooting level based on the number of acquired characters stored by the synthesized character storage means;
It may be a program for

この第11の発明によれば、記憶された取得キャラクタの数に基づいて撮影レベルが変更される。   According to the eleventh aspect, the shooting level is changed based on the stored number of acquired characters.

また、第12の発明として、第9〜第11の何れかの発明のプログラムを、
前記キャラクタ画像選択手段により選択されたキャラクタ画像を撮像画像に合成するか否かを、現在の撮影レベルに応じた所与の確度で判定する出現判定手段として前記コンピュータを機能させ、
前記合成画像表示制御手段が、前記出現判定手段により合成すると判定された場合に、当該キャラクタ画像を前記撮像手段による撮像画像に合成して前記表示装置に表示制御するように前記コンピュータを機能させる、
ためのプログラムとしても良い。
As a twelfth invention, the program according to any of the ninth to eleventh inventions,
Whether or not to synthesize the character image selected by the character image selection unit with the captured image, and to cause the computer to function as an appearance determination unit that determines with given accuracy according to the current shooting level;
Causing the computer to function so as to synthesize the character image with a captured image by the imaging unit and control display on the display device when the combined image display control unit determines to combine the appearance determination unit;
It may be a program for

この第12の発明によれば、選択されたキャラクタ画像を撮像画像に合成するか否かが、現在の撮影レベルに応じた所与の確度で判定され、合成すると判定された場合に、このキャラクタ画像が撮像画像に合成して表示制御される。   According to the twelfth aspect, whether or not to synthesize the selected character image with the captured image is determined with a given accuracy according to the current shooting level. Display control is performed by combining the image with the captured image.

また、第13の発明は、
第1〜第12の何れかの発明のプログラムを記憶したコンピュータ読み取り可能な情報記憶媒体(例えば、図6の記憶部500)である
The thirteenth invention
A computer-readable information storage medium (for example, the storage unit 500 in FIG. 6) storing the program of any one of the first to twelfth inventions.

ここでいう「情報記憶媒体」とは、記憶されている情報をコンピュータが読み取り可能な、例えばハードディスクやMO、CD−ROM、DVD、メモリカード、ICメモリ等の記憶媒体である。従って、この第13の発明によれば、該情報記憶媒体に記憶されている情報をコンピュータに読み取らせて演算処理を実行させることで、第1〜第12の何れかの発明と同様の効果を奏することができる。   Here, the “information storage medium” is a storage medium such as a hard disk, MO, CD-ROM, DVD, memory card, or IC memory that can be read by a computer. Therefore, according to the thirteenth aspect, by causing the computer to read the information stored in the information storage medium and executing the arithmetic processing, the same effects as in any of the first to twelfth aspects are achieved. Can play.

本発明によれば、撮像画像にあるキャラクタ画像が合成表示されるとともに、撮像する物体によって異なるキャラクタ画像が合成表示されるといったことや、同一の物体を撮像した場合であっても、選択する仮想光学パーツによって異なるキャラクタ画像が合成表示されるといった、撮像における新たな興趣を実現できる。   According to the present invention, a character image in a captured image is combined and displayed, and a different character image is combined and displayed depending on the object to be captured. Even when the same object is captured, a virtual image to be selected is selected. It is possible to realize a new interest in imaging, such as combining and displaying different character images depending on optical parts.

以下、図面を参照して本発明に好適な実施形態を説明する。尚、以下では、本発明を携帯型ゲーム装置に適用した場合を説明するが、本発明を適用可能な実施形態がこれに限定されるものではない。   Hereinafter, preferred embodiments of the present invention will be described with reference to the drawings. In the following, a case where the present invention is applied to a portable game device will be described, but embodiments to which the present invention can be applied are not limited thereto.

[ゲーム装置の外観]
図1は、本実施形態における携帯型ゲーム装置1000の一例を示す外観図である。同図(a)は、携帯型ゲーム装置1000の正面図を示し、同図(b)は背面図を示している。同図によれば、携帯型ゲーム装置1000は、略長方形状の筐体の正面に、ディスプレイ1と、スピーカ3と、操作キー5と備えている。また、筐体の上側面にカメラユニット7を備えているとともに、下側面には、ゲームカートリッジ10を挿入するための挿入口が設けられている。
[Appearance of game device]
FIG. 1 is an external view showing an example of a portable game apparatus 1000 in the present embodiment. FIG. 4A shows a front view of the portable game apparatus 1000, and FIG. 4B shows a rear view. As shown in the figure, the portable game apparatus 1000 includes a display 1, a speaker 3, and operation keys 5 on the front surface of a substantially rectangular casing. In addition, the camera unit 7 is provided on the upper side of the housing, and an insertion port for inserting the game cartridge 10 is provided on the lower side.

ディスプレイ1は、TFTディスプレイ等のバックライト付きのカラー液晶ディスプレイであり、各種情報や画像等を表示する。また、このディスプレイ1は、カメラユニット7の起動時には電子ファインダとして機能し、カメラユニット7による撮像画像をモニタ表示する。   The display 1 is a color liquid crystal display with a backlight such as a TFT display, and displays various information, images, and the like. The display 1 functions as an electronic viewfinder when the camera unit 7 is activated, and displays a captured image by the camera unit 7 on a monitor.

操作キー5は、プレーヤ(ユーザ)がゲーム操作を入力するためのものであり、各キーには、撮像指示を入力するためのシャッタキーや、仮想レンズの交換指示を入力するためのレンズ交換キーが割り当てられる。   The operation keys 5 are for a player (user) to input a game operation, and each key includes a shutter key for inputting an imaging instruction and a lens replacement key for inputting a virtual lens replacement instruction. Is assigned.

カメラユニット7は、その背面側に設けられたガラス等で形成される撮影レンズ8と、CMOSやCCD等の撮像素子とを有し、撮影レンズ8を通して撮像素子で結像された画像データをデジタルデータに変換して出力する。尚、このカメラユニット7は筐体に一体的に構成されているが、着脱自在に構成されていることとしても良い。   The camera unit 7 has a photographic lens 8 formed of glass or the like provided on the back side thereof, and an imaging element such as a CMOS or a CCD, and digitally converts image data imaged by the imaging element through the photographic lens 8. Convert to data and output. In addition, although this camera unit 7 is comprised integrally with the housing | casing, it is good also as being comprised so that attachment or detachment is possible.

また、携帯型ゲーム装置1000は、挿入口に挿入されたゲームカートリッジ10に格納されているゲーム情報(ゲームプログラムやゲームデータ)を読み出す読出装置や、他の携帯型ゲーム装置1000等の外部装置と接続して無線/有線通信を行うための通信装置や、CPUやICメモリ等を搭載した制御装置を内部に具備している。制御装置に搭載されるCPUは、ICメモリやゲームカートリッジ10から読み出されたプログラムやデータ、操作キー5の操作信号、カメラユニット7から入力される画像データ等に基づいて種々の処理を実行し、ゲーム画面等の画像信号及びゲーム音の音信号を生成する。そして、生成した画像信号をディスプレイ1に出力してゲーム画面を表示させるとともに、音信号をスピーカ3に出力してゲーム音を出力させる。   In addition, the portable game apparatus 1000 includes a reading device that reads game information (game program and game data) stored in the game cartridge 10 inserted into the insertion slot, and other external devices such as other portable game apparatuses 1000. It includes a communication device for connecting and performing wireless / wired communication, and a control device equipped with a CPU, IC memory, and the like. The CPU mounted on the control device executes various processes based on programs and data read from the IC memory and the game cartridge 10, operation signals of the operation keys 5, image data input from the camera unit 7, and the like. Then, an image signal such as a game screen and a sound signal of game sound are generated. Then, the generated image signal is output to the display 1 to display the game screen, and the sound signal is output to the speaker 3 to output the game sound.

携帯型ゲーム装置1000がゲームを実行するために必要な情報(システムプログラムやゲームプログラム、ゲームデータ等)は、制御装置に搭載されているICメモリやゲームカートリッジ10等に格納されている。より具体的には、システムプログラムは制御装置のICメモリに格納され、ゲームプログラム及びゲームデータはゲームカートリッジ10に格納されている。従って、プレーヤは、ゲームカートリッジ10を交換することで、異なるゲームを携帯型ゲーム装置1000に実行させることができる。   Information (system program, game program, game data, etc.) necessary for the portable game apparatus 1000 to execute a game is stored in an IC memory, a game cartridge 10 or the like mounted on the control apparatus. More specifically, the system program is stored in the IC memory of the control device, and the game program and game data are stored in the game cartridge 10. Therefore, the player can cause the portable game apparatus 1000 to execute a different game by exchanging the game cartridge 10.

[概要]
本実施形態のゲームでは、あたかも、実空間であるプレーヤの周囲空間に、本ゲームのキャラクタである「ゴースト」が存在するかのような演出が行われる。
[Overview]
In the game of the present embodiment, an effect is performed as if the “ghost” that is the character of the game exists in the surrounding space of the player that is the real space.

図2〜図4は、本実施形態のゲームの概要を示す図である。
図2(a)に示すように、携帯型ゲーム装置1000のカメラユニット7を起動すると、撮影レンズ8が捉えている画像(撮像画像)が、リアルタイムでディスプレイ1にモニタ表示される。この状態で、操作キー5を操作して撮像指示を入力(シャッタON)すると、撮像指示の入力時点(シャッタONの時点)での撮像画像に重ねてゴーストG1が表示される。即ち、ゴーストG1が“出現”する。そして、この出現したゴーストG1に対する所定の捕獲処理を行うことで、該ゴーストG1を捕獲(取得)することができる。尚、撮像指示の入力によってゴーストが必ず出現するのではなく、出現しない場合もある。
2-4 is a figure which shows the outline | summary of the game of this embodiment.
As shown in FIG. 2A, when the camera unit 7 of the portable game apparatus 1000 is activated, an image (captured image) captured by the photographing lens 8 is displayed on the display 1 in real time. In this state, when the operation key 5 is operated to input an imaging instruction (shutter ON), the ghost G1 is displayed over the captured image at the time when the imaging instruction is input (when the shutter is ON). That is, the ghost G1 “appears”. The ghost G1 can be captured (acquired) by performing a predetermined capture process for the ghost G1 that has appeared. Note that the ghost does not always appear due to the input of the imaging instruction, and may not appear.

このとき、携帯型ゲーム装置1000では、撮影指示の入力時点(シャッタONの時点)での撮像画像に対する所定の画像認識処理を行い、その結果得られた該撮像画像の特徴データを基に、予め用意している複数のゴーストの中から何れかを選択し、ディスプレイ1に表示させている。   At this time, the portable game apparatus 1000 performs a predetermined image recognition process on the captured image at the time when the shooting instruction is input (when the shutter is turned on), and based on the feature data of the captured image obtained as a result in advance. One of a plurality of prepared ghosts is selected and displayed on the display 1.

複数のゴーストの内、何れのゴーストが出現するかは、被写体によって決まる。即ち、同図(b)に示すように、同一の被写体O1を同図(a)とは異なる場所で撮像した場合であっても、同一のゴーストG1が出現する。また、図3に示すように、異なる被写体O2を撮影すると、異なるゴーストG2が出現する。   Which ghost appears among a plurality of ghosts depends on the subject. That is, as shown in FIG. 5B, the same ghost G1 appears even when the same subject O1 is imaged at a location different from that shown in FIG. Further, as shown in FIG. 3, when a different subject O2 is photographed, a different ghost G2 appears.

また、本実施形態では、カメラユニット7に仮想的に装着可能な仮想光学パーツであるレンズ(仮想レンズ)を“交換”することができる。仮想レンズは複数種類が用意されており、種類毎に出現し得るゴーストの種類や出現確率(出現確度)が異なる。即ち、同一の被写体を撮像した場合であっても、装着するとする仮想レンズの種類によって表示されるゴーストが異なる。プレーヤは、これら複数種類の仮想レンズの内から、捕獲したいゴーストの種類等に応じた適当な一の仮想レンズを選択することができる。   In this embodiment, a lens (virtual lens) that is a virtual optical part that can be virtually mounted on the camera unit 7 can be “replaced”. A plurality of types of virtual lenses are prepared, and the types and appearance probabilities (appearance probabilities) of ghosts that can appear for each type differ. That is, even when the same subject is imaged, the displayed ghost differs depending on the type of virtual lens to be attached. The player can select an appropriate virtual lens according to the type of ghost to be captured from the plurality of types of virtual lenses.

例えば図4(a)に示すように、ある仮想レンズを使用(装着)して被写体O1を撮像すると、ゴーストG1が出現するが、同図(b)に示すように、異なる仮想レンズを使用して同一の被写体O1を撮像すると、異なるゴーストG3が出現する。   For example, as shown in FIG. 4A, when a subject O1 is imaged using (wearing) a certain virtual lens, a ghost G1 appears, but a different virtual lens is used as shown in FIG. 4B. When the same subject O1 is imaged, a different ghost G3 appears.

仮想レンズの種類としては、(1)撮像する被写体の特徴に応じた仮想レンズと、(2)出現するゴーストの種類に応じた仮想レンズとがある。(1)被写体の特徴に応じた仮想レンズには、例えば、赤色系や青色系、緑色系、黄色系といったある特定色の被写体を撮像した場合にゴーストが出現する「色系」の仮想レンズや、円形状や三角形状、四角形状といったある特定形状の被写体を撮像した場合にゴーストが出現する「形状系」の仮想レンズ、縞模様や格子模様、無地といったある特定模様の被写体を撮像した場合にゴーストが出現する「模様系」の仮想レンズがある。また、(2)ゴーストの種類に応じた仮想レンズには、例えば、移動スピードが速いとされるゴーストが出現する「スピードレンズ」や、種類は少ないが希少価値が高いゴーストが出現する「レアレンズ」といった仮想レンズがある。   The types of virtual lenses include (1) a virtual lens according to the characteristics of the subject to be imaged and (2) a virtual lens according to the type of ghost that appears. (1) The virtual lens corresponding to the characteristics of the subject includes, for example, a “color-based” virtual lens in which a ghost appears when a subject of a specific color such as red, blue, green, and yellow is imaged. When imaging a subject with a specific pattern, such as a “shape-based” virtual lens, striped pattern, grid pattern, or solid color, where a ghost appears when imaging a subject with a specific shape such as a circle, triangle, or quadrilateral There is a “patterned” virtual lens where ghosts appear. In addition, (2) virtual lenses according to the type of ghost include, for example, a “speed lens” in which a ghost that has a high moving speed appears, and a “rare lens” in which a ghost with a small number but high value appears. There is a virtual lens.

また、複数種類の仮想レンズが用意されているが、現在のプレーヤレベル(撮影レベル)によって使用可能な仮想レンズの種類が異なる。尚、プレーヤレベルは、例えばこれまでに捕獲したゴーストの種類やその数に応じて決まる。即ち、より多種類のゴーストを捕獲する程、プレーヤレベルが高くなる。   A plurality of types of virtual lenses are prepared, but the types of virtual lenses that can be used differ depending on the current player level (shooting level). Note that the player level is determined according to, for example, the type and number of ghosts captured so far. That is, the player level increases as more types of ghosts are captured.

図5は、仮想レンズの種類とプレーヤレベルとの関係の一例を示す図である。同図に示すように、各仮想レンズにはそれが使用可能となるプレーヤレベルが対応付けられており、対応するプレーヤレベルに達すると使用可能となる。同図では、プレーヤレベルが「初級」の場合には、どのような被写体を撮像した場合にも比較的にゴーストが出現し易い「入門レンズ」が使用可能であるが、プレーヤレベルが「中級」になると、これに加えて、「赤色レンズ」や「縞模様レンズ」、「三角形レンズ」等の仮想レンズが使用可能となる。そして、プレーヤレベルが「上級」になると、更に、「スピードレンズ」や「レアレンズ」、「青色レンズ」等の仮想レンズが使用可能となる。即ち、全ての仮想レンズが使用可能となる。また、各仮想レンズは、対応するプレーヤレベルが高い程、ゴーストの出現確率が低く(小さく)なっている。   FIG. 5 is a diagram illustrating an example of the relationship between the type of virtual lens and the player level. As shown in the figure, each virtual lens is associated with a player level at which it can be used, and becomes usable when the corresponding player level is reached. In the figure, when the player level is “beginning”, an “introductory lens” in which a ghost can appear relatively easily when any subject is imaged, but the player level is “intermediate”. Then, in addition to this, virtual lenses such as “red lens”, “striped lens”, and “triangular lens” can be used. When the player level becomes “advanced”, virtual lenses such as “speed lens”, “rare lens”, and “blue lens” can be used. That is, all virtual lenses can be used. Each virtual lens has a lower (smaller) appearance probability of a ghost as the corresponding player level is higher.

[機能構成]
図6は、携帯型ゲーム装置1000の機能構成の一例を示すブロック図である、同図によれば、携帯型ゲーム装置1000は、機能的には、操作入力部100と、撮像部200と、処理部300と、画像表示部430と、音出力部440と、記憶部500と、通信部600とを備えて構成されている。
[Function configuration]
FIG. 6 is a block diagram illustrating an example of a functional configuration of the portable game apparatus 1000. According to the figure, the portable game apparatus 1000 is functionally configured to have an operation input unit 100, an imaging unit 200, The processing unit 300, the image display unit 430, the sound output unit 440, the storage unit 500, and the communication unit 600 are configured.

操作入力部100は、プレーヤによる操作指示を受け付け、操作に応じた操作信号を処理部300に出力する。特に、本実施形態では、撮像の実行指示や仮想レンズの交換指示を検出して処理部300に出力する。図1では、操作キー5がこれに該当する。   The operation input unit 100 receives an operation instruction from the player, and outputs an operation signal corresponding to the operation to the processing unit 300. In particular, in the present embodiment, an imaging execution instruction and a virtual lens replacement instruction are detected and output to the processing unit 300. In FIG. 1, the operation key 5 corresponds to this.

撮像部200は、CMOSやCCD等の撮像素子や、被写体の光束を撮像素子に結像させる撮影レンズ、撮像素子から出力される電気信号(アナログ画像信号)をデジタル信号に変換するA/D変換回路を含み、被写体の撮像画像データを処理部300に出力する。図1では、カメラユニット7がこれに該当する。   The imaging unit 200 includes an imaging element such as a CMOS or CCD, a photographing lens that forms an image of a light beam of a subject on the imaging element, and an A / D conversion that converts an electrical signal (analog image signal) output from the imaging element into a digital signal. A captured image data of the subject is output to the processing unit 300 including a circuit. In FIG. 1, the camera unit 7 corresponds to this.

処理部300は、携帯型ゲーム装置1000の全体制御やゲームの進行制御、画像生成等の各種演算処理を行う。この機能は、例えばCPU(CISC型、RISC型)、ASIC(ゲートアレイ等)等の演算装置やその制御プログラムにより実現される。図1では、内蔵する制御装置に実装されているCPU等がこれに該当する。   The processing unit 300 performs various arithmetic processes such as overall control of the portable game apparatus 1000, game progress control, and image generation. This function is realized by, for example, an arithmetic device such as a CPU (CISC type, RISC type), ASIC (gate array, etc.) or a control program thereof. In FIG. 1, a CPU or the like mounted on a built-in control device corresponds to this.

また、処理部300は、主にゲームの実行に係る演算処理を行うゲーム演算部310と、ゲーム演算部310の処理によって求められた各種のデータに基づき、ゲーム画像を生成する画像生成部330と、効果音やBGM等のゲーム音を生成する音生成部340とを含んでいる。   In addition, the processing unit 300 includes a game calculation unit 310 that mainly performs calculation processing related to game execution, and an image generation unit 330 that generates a game image based on various data obtained by the processing of the game calculation unit 310. And a sound generator 340 for generating game sounds such as sound effects and BGM.

ゲーム演算部310は、記憶部500から読み出したゲーム情報(プログラム及びデータ)や、操作入力部100から入力される操作信号、撮像部200から入力される撮像画像データ等に基づいて種々のゲーム処理を実行する。また、本実施形態では、ゲーム演算部310は、仮想レンズ管理部312と、画像認識部314と、類似度算出部316と、出現判断部318と、表示制御部322と、プレーヤレベル管理部324とを含んでいる。   The game calculation unit 310 performs various game processes based on game information (program and data) read from the storage unit 500, operation signals input from the operation input unit 100, captured image data input from the imaging unit 200, and the like. Execute. In the present embodiment, the game calculation unit 310 includes a virtual lens management unit 312, an image recognition unit 314, a similarity calculation unit 316, an appearance determination unit 318, a display control unit 322, and a player level management unit 324. Including.

仮想レンズ管理部312は、仮想レンズ情報522を基に仮想レンズの管理を行う。具体的には、操作入力部100から入力される仮想レンズの交換指示に従って、使用する仮想レンズ(使用レンズ)を交換する。即ち、仮想レンズ情報522を参照し、使用レンズを、現在使用可能となっている仮想レンズの内から選択された仮想レンズに変更(交換)する。また、現在のプレーヤレベルに応じて、予め用意されている複数の仮想レンズそれぞれの使用可能/不可能を変更する。即ち、プレーヤレベルが上昇した場合には、上昇後のプレーヤレベルに対応する仮想レンズを新たに使用可能とする。   The virtual lens management unit 312 manages virtual lenses based on the virtual lens information 522. Specifically, in accordance with a virtual lens replacement instruction input from the operation input unit 100, a virtual lens to be used (used lens) is replaced. That is, referring to the virtual lens information 522, the used lens is changed (exchanged) to a virtual lens selected from the currently available virtual lenses. Further, according to the current player level, the availability / impossibility of each of the plurality of virtual lenses prepared in advance is changed. That is, when the player level increases, a virtual lens corresponding to the increased player level can be newly used.

仮想レンズ情報522とは、予め用意されている複数の仮想レンズに関する情報である。図7に、仮想レンズ情報522のデータ構成の一例を示す。同図によれば、仮想レンズ情報522は、仮想レンズ毎に、その名称(仮想レンズ名)522aと、ライブラリ522bと、使用可レベル522cと、使用可フラグ522dと、使用フラグ522eとを対応付けて記憶している。   The virtual lens information 522 is information regarding a plurality of virtual lenses prepared in advance. FIG. 7 shows an example of the data configuration of the virtual lens information 522. According to the figure, the virtual lens information 522 associates, for each virtual lens, a name (virtual lens name) 522a, a library 522b, a usable level 522c, a usable flag 522d, and a usable flag 522e. I remember.

ライブラリ522bは、対応する仮想レンズを使用した場合に、撮像画像に対する画像認識の際に使用するライブラリ(使用ライブラリ)の名称を格納する。ライブラリとは、撮像画像に対する画像認識方法や出現し得るゴースト、その出現条件等の情報であり、この情報はライブラリ情報524に格納されている。本実施形態では、仮想レンズとライブラリとは1対1で対応付けられており、各仮想レンズには、これが使用可能となるプレーヤレベルに応じた内容のライブラリが対応付けられている。即ち、使用可能となるプレーヤレベルが高い程、ゴーストの出現確率が低いライブラリが対応付けられている。   The library 522b stores the name of the library (used library) used when recognizing the captured image when the corresponding virtual lens is used. The library is information such as an image recognition method for a captured image, a ghost that may appear, an appearance condition thereof, and the like, and this information is stored in the library information 524. In this embodiment, a virtual lens and a library are associated with each other on a one-to-one basis, and each virtual lens is associated with a library having contents corresponding to the player level at which the virtual lens can be used. That is, the higher the player level that can be used, the lower the ghost appearance probability.

使用可レベル522cは、対応する仮想レンズが使用可能となるプレーヤレベルの値を格納する。本実施形態では、プレーヤレベルは「初級者」、「中級者」及び「上級者」の3段階であり、それぞれに合わせて「初級」、「中級」及び「上級」の何れかが設定されている。   The usable level 522c stores a player level value at which the corresponding virtual lens can be used. In this embodiment, the player level has three levels of “beginner”, “intermediate”, and “advanced”, and any one of “beginner”, “intermediate”, and “advanced” is set according to each. Yes.

使用可フラグ522dは、対応する仮想レンズが使用可能であるか否かを示すフラグである。使用可能であるか否かは、現在のプレーヤレベルと使用可レベル522cとに応じて決定される。即ち、現在のプレーヤレベルが使用可レベル522cに達していれば使用可能(「1」)とされ、使用可レベル522cに達していなければ使用不可能(「0」)とされる。   The availability flag 522d is a flag indicating whether or not the corresponding virtual lens is usable. Whether it is usable or not is determined according to the current player level and the usable level 522c. That is, if the current player level has reached the usable level 522c, it is usable ("1"), and if it has not reached the usable level 522c, it is unusable ("0").

使用フラグ522eは、対応する仮想レンズが使用されているか(使用レンズであるか)否かを示すフラグであり、使用可能となっている、即ち使用可フラグ522dが「1」に設定されている仮想レンズの内、一の仮想レンズが使用レンズ(「1」)とされる。   The use flag 522e is a flag indicating whether or not the corresponding virtual lens is used (whether it is a used lens). The use flag 522e is usable, that is, the usable flag 522d is set to “1”. Among the virtual lenses, one virtual lens is used lens (“1”).

ライブラリ情報524とは、予め用意される複数のライブラリに関する情報であり、ライブラリ毎の複数のライブラリデータ525から成る。図8〜図10に、ライブラリデータ525のデータ構成の一例を示す。図8〜図10によれば、ライブラリデータ525は、対応するライブラリの名称(ライブラリ名)525aと、認識方法情報525bと、ゴースト情報525cと、閾値情報525dとを含んでいる。   The library information 524 is information regarding a plurality of libraries prepared in advance, and includes a plurality of library data 525 for each library. 8 to 10 show examples of the data structure of the library data 525. FIG. 8 to 10, the library data 525 includes a corresponding library name (library name) 525a, recognition method information 525b, ghost information 525c, and threshold information 525d.

認識方法情報525bは、撮像画像に対する画像認識方法を指定する情報であり、1又は複数の画像認識方法と、重みとを対応付けて記憶している。重みは、対応する画像認識方法に対する重要度を示す値であり、ここでは、各画像認識方法の重みの合計が「1.0」になるように設定されている。この重みの値を基に、撮像画像の特徴データとゴースト情報525cの各ゴーストの特徴データとの総合的な類似度が算出される。   The recognition method information 525b is information for designating an image recognition method for a captured image, and stores one or a plurality of image recognition methods and weights in association with each other. The weight is a value indicating the degree of importance with respect to the corresponding image recognition method, and is set so that the total weight of each image recognition method is “1.0”. Based on this weight value, the overall similarity between the feature data of the captured image and the feature data of each ghost in the ghost information 525c is calculated.

例えば図8に示す「ライブラリ1」では、認識方法情報525bに、画像認識方法として「形状認識」及び「色認識」が指定されている。また、図9に示す「ライブラリ2」では、画像認識方法として「模様認識」及び「色認識」が指定されている。また、図10に示す「ライブラリ3」では、図8に示す「ライブラリ1」と同様に、画像認識方法として「形状認識」及び「色認識」が指定されているが、それぞれの重みが異なっている。   For example, in “Library 1” shown in FIG. 8, “shape recognition” and “color recognition” are designated as the image recognition methods in the recognition method information 525b. In the “library 2” shown in FIG. 9, “pattern recognition” and “color recognition” are designated as image recognition methods. Further, in “library 3” shown in FIG. 10, “shape recognition” and “color recognition” are designated as image recognition methods, as in “library 1” shown in FIG. Yes.

ゴースト情報525cは、該ライブラリを使用した場合に出現し得るゴーストの情報であり、複数のゴースト毎に、その名称(ゴースト名)と、特徴データとを対応付けて格納している。   The ghost information 525c is information on a ghost that can appear when the library is used, and stores the name (ghost name) and feature data in association with each other for each ghost.

特徴データは、認識方法情報525bで指定される画像認識方法毎に、これに応じた特徴の値を格納している。例えば図8に示す「ライブラリ1」では、画像認識方法として「形状認識」及び「色認識」が指定されており、これらの画像認識方法に対応して、各ゴーストには「形状」及び「色」についての値が設定されている。また、図9に示す「ライブラリ2」では、画像認識方法として「模様認識」及び「色認識」が指定されており、これらの画像認識方法に対応して、各ゴーストには「模様」及び「色」についての値が設定されている。また、図10に示す「ライブラリ3」では、画像認識方法として「形状認識」及び「色認識」が指定されており、これらの画像認識方法に対応して、各ゴーストには「形状」及び「色」についての値が設定されている。   The feature data stores a feature value corresponding to each image recognition method specified by the recognition method information 525b. For example, in “Library 1” shown in FIG. 8, “shape recognition” and “color recognition” are designated as image recognition methods, and “shape” and “color” are assigned to each ghost corresponding to these image recognition methods. "Is set. In the “library 2” shown in FIG. 9, “pattern recognition” and “color recognition” are designated as image recognition methods, and “ghost” and “pattern” are assigned to each ghost corresponding to these image recognition methods. A value for "Color" is set. In the “library 3” shown in FIG. 10, “shape recognition” and “color recognition” are designated as image recognition methods. Corresponding to these image recognition methods, “shape” and “ A value for "Color" is set.

このゴースト情報525cの各ゴーストについて、画像認識方法毎に、対応付けられている特徴データと撮像画像の特徴データとが比較されて、両データの類似度が算出される。そして、この算出された画像認識方法毎の類似度に、認識方法情報525bで指定される各画像認識方法の重みを乗じて加算することで、類似度の総合値が算出される。   For each ghost in the ghost information 525c, for each image recognition method, the associated feature data and the feature data of the captured image are compared, and the similarity between the two data is calculated. Then, the total similarity value is calculated by multiplying the calculated similarity for each image recognition method by the weight of each image recognition method specified by the recognition method information 525b.

閾値情報525dは、ゴースト情報525cの各ゴーストを出現(表示)させるか否かの判断基準となる情報であり、具体的には、ゴースト情報525cの各ゴーストの算出された類似度の総合値の閾値を格納している。つまり、この閾値が大きい程、ゴーストの出現確率が小さくなる。本実施形態では、ゴースト情報525cのゴーストの内、類似度の総合値が、この閾値情報525dの値より大きく、且つ最も大きいゴーストが、出現対象のゴーストと判定される。   The threshold information 525d is information serving as a criterion for determining whether or not each ghost of the ghost information 525c appears (displayed). Specifically, the threshold information 525d is a total value of the calculated similarity of each ghost of the ghost information 525c. Stores the threshold. That is, the larger the threshold, the smaller the ghost appearance probability. In the present embodiment, the ghost having the largest similarity in the ghost information 525c with a total value greater than the threshold value 525d is determined as the ghost to appear.

図6において、画像認識部314は、操作入力部100から撮像指示が入力されると、撮像部200から入力された撮像画像データに対する画像認識処理を行い、該撮像画像の特徴データを抽出する。具体的には、ライブラリ情報524を参照し、使用レンズに対応するライブラリ(使用ライブラリ)で指定される画像認識方法で画像認識処理を行う。尚、撮像画像データは、撮像画像情報526に格納されている。   In FIG. 6, when an imaging instruction is input from the operation input unit 100, the image recognition unit 314 performs image recognition processing on the captured image data input from the imaging unit 200 and extracts feature data of the captured image. Specifically, with reference to the library information 524, image recognition processing is performed by an image recognition method specified by a library (used library) corresponding to the used lens. The captured image data is stored in the captured image information 526.

ここで、各ライブラリで指定される画像認識方法としては、形状認識や色認識、模様認識がある。形状認識では、例えば撮像画像データに対するハフ変換を行って直線成分及びその強さを検出し、検出した直線の組み合わせによって被写体の形状を認識して、その認識形状に基づく特徴部分を抽出する。また、色認識では、撮像画像全体、或いは、形状認識によって認識された特徴部分の色を認識する。また、模様認識では、例えば撮像画像データに対するフーリエ変換を行って周波数成分を抽出し、撮像画像全体、或いは、形状認識によって認識された特徴部分の模様を認識する。本実施形態では、これらの一又は複数の画像認識方法によって撮像画像データに対する画像認識を行い、該撮像画像の特徴データを画像認識方法毎に抽出する。   Here, image recognition methods specified by each library include shape recognition, color recognition, and pattern recognition. In shape recognition, for example, a Hough transform is performed on captured image data to detect a straight line component and its strength, a shape of a subject is recognized by a combination of the detected straight lines, and a feature portion based on the recognized shape is extracted. In the color recognition, the color of the entire captured image or the feature portion recognized by the shape recognition is recognized. In the pattern recognition, for example, a Fourier transform is performed on the captured image data to extract a frequency component, and the entire captured image or the pattern of the feature portion recognized by the shape recognition is recognized. In the present embodiment, image recognition is performed on captured image data by using one or a plurality of image recognition methods, and feature data of the captured image is extracted for each image recognition method.

画像認識部314による画像認識結果は、画像認識結果情報528に格納される。図11に、画像認識結果情報528のデータ構成の一例を示す。同図によれば、画像認識結果情報528は、画像認識方法528aと、抽出された特徴データ528bを対応付けて格納している。   The image recognition result by the image recognition unit 314 is stored in the image recognition result information 528. FIG. 11 shows an example of the data configuration of the image recognition result information 528. According to the figure, the image recognition result information 528 stores the image recognition method 528a and the extracted feature data 528b in association with each other.

同図は、使用ライブラリが、図8に示した「ライブラリ1」である場合を示している。「ライブラリ1」で指定される画像認識方法は「形状認識」及び「色認識」であるので、ここでは、「形状」及び「色」それぞれについての抽出された特徴データが格納されている。また、図9に示した「ライブラリ2」が使用ライブラリである場合には、「模様」及び「色」についての抽出された特徴データが格納され、図10に示した「ライブラリ3」が使用ライブラリである場合には、「ライブラリ1」の場合と同様に「形状」及び「色」についての特徴データが格納される。   This figure shows a case where the library used is “library 1” shown in FIG. Since the image recognition methods designated by “Library 1” are “shape recognition” and “color recognition”, extracted feature data for “shape” and “color” are stored here. Further, when “library 2” shown in FIG. 9 is a use library, extracted feature data for “pattern” and “color” is stored, and “library 3” shown in FIG. 10 is used library. In the case of, feature data for “shape” and “color” is stored as in “library 1”.

類似度算出部316は、画像認識部314による画像認識結果に基づいて、使用ライブラリで指定される各ゴーストについての類似度を算出する。具体的には、使用ライブラリのライブラリデータ525及び画像認識結果情報528を参照し、ゴースト情報525cの各ゴーストについて、認識方法情報525bで指定される画像認識方法毎に、その特徴データと撮像画像の特徴データとの類似度を所定の算出式に従って算出する。そして、算出した各画像認識方法についての類似度に、認識方法情報525bで指定される重みを乗じて、類似度の総合値を算出する。   The similarity calculation unit 316 calculates the similarity for each ghost specified in the use library based on the image recognition result by the image recognition unit 314. Specifically, with reference to the library data 525 and image recognition result information 528 of the used library, for each ghost of the ghost information 525c, for each image recognition method designated by the recognition method information 525b, the feature data and the captured image The similarity with the feature data is calculated according to a predetermined calculation formula. Then, the similarity for each image recognition method calculated is multiplied by the weight specified by the recognition method information 525b to calculate a total value of similarity.

類似度算出部316によって算出された類似度は、類似度算出情報532に格納される。図12に、類似度算出情報532のデータ構成の一例を示す。同図によれば、類似度算出情報532は、使用ライブラリで指定されるゴースト毎に、その名称(ゴースト名)532aと、算出された類似度532bとを対応付けて格納している。類似度532bは、使用ライブラリで指定される画像認識方法毎の類似度と、類似度の総合値とを含んでいる。   The similarity calculated by the similarity calculation unit 316 is stored in the similarity calculation information 532. FIG. 12 shows an example of the data configuration of the similarity calculation information 532. According to the figure, the similarity calculation information 532 stores the name (ghost name) 532a and the calculated similarity 532b in association with each ghost specified by the library used. The similarity 532b includes the similarity for each image recognition method specified in the library used and the total value of the similarity.

同図は、使用ライブラリが、図8に示した「ライブラリ1」である場合を示している。「ライブラリ1」で指定される画像認識方法は「形状認識」及び「色認識」であるので、ここでは、「形状」及び「色」それぞれについての算出された類似度と、これらの類似度の総合値とが格納されている。   This figure shows a case where the library used is “library 1” shown in FIG. Since the image recognition methods specified in “Library 1” are “shape recognition” and “color recognition”, here, the calculated similarity for each of “shape” and “color”, and the similarity of these similarities The total value is stored.

出現判断部318は、類似度算出部316によって算出された類似度に基づいて、出現させるゴーストを判断する。具体的には、類似度算出情報532を参照して、類似度の総合値が最も大きいゴーストを選択し、この選択したゴーストの類似度の総合値が、使用ライブラリの閾値情報525dで指定される閾値以上であるか否かを判断する。閾値以上であれば、そのゴーストを出現させると判断する。   The appearance determination unit 318 determines a ghost to appear based on the similarity calculated by the similarity calculation unit 316. Specifically, referring to the similarity calculation information 532, the ghost having the largest similarity value is selected, and the overall value of the similarity level of the selected ghost is specified by the threshold information 525d of the library used. It is determined whether or not the threshold value is exceeded. If it is equal to or greater than the threshold, it is determined that the ghost appears.

表示制御部322は、画像生成部330を制御して、画像表示部430への画像表示を制御する。具体的には、撮像部200から入力される撮像画像データに基づく撮像画像を画像表示部430に動画表示させるとともに、出現判断部318により出現させると判断されたゴーストの画像を、撮像画像に重ねて表示させる。   The display control unit 322 controls the image generation unit 330 to control image display on the image display unit 430. Specifically, a captured image based on the captured image data input from the imaging unit 200 is displayed as a moving image on the image display unit 430, and a ghost image determined to appear by the appearance determination unit 318 is superimposed on the captured image. To display.

プレーヤレベル管理部324は、ゴースト捕獲情報534を参照して、これまでに捕獲されたゴーストの種類を基にプレーヤレベルを変更する。尚、現在のプレーヤレベルは、プレーヤレベル情報536に格納されている。   The player level management unit 324 refers to the ghost capture information 534 and changes the player level based on the types of ghosts captured so far. The current player level is stored in the player level information 536.

ゴースト捕獲情報534とは、これまでに捕獲されたゴーストを示す情報である。図13に、ゴースト捕獲情報534のデータ構成の一例を示す。同図によれば、ゴースト捕獲情報534は、ライブラリ毎の複数のゴースト捕獲データ535から成る。ゴースト捕獲データ535は、該当するライブラリの名称(ライブラリ名)535aと、リスト情報535bと、捕獲数535cとを含んでいる。   The ghost capture information 534 is information indicating a ghost captured so far. FIG. 13 shows an example of the data configuration of the ghost capture information 534. According to the figure, the ghost capture information 534 includes a plurality of ghost capture data 535 for each library. The ghost capture data 535 includes the name of the corresponding library (library name) 535a, list information 535b, and the number of captures 535c.

リスト情報535bは、該当するライブラリのゴースト毎に、その名称(ゴースト名)と、捕獲済みか否かを示す捕獲フラグとを対応付けて格納している。捕獲フラグは、対応するゴーストを捕獲済みであれば「1」に設定され、捕獲済みでなければ「0」に設定されている。   The list information 535b stores, for each ghost of the corresponding library, the name (ghost name) and a capture flag indicating whether or not it has been captured. The capture flag is set to “1” if the corresponding ghost has been captured, and is set to “0” if it has not been captured.

捕獲数535cは、該当するライブラリの全ゴースト数Nに対する捕獲済みのゴースト数Mである。同図は、「ライブラリ1」、「ライブラリ2」についてのゴースト捕獲データ535を示している。同図によれば、「ライブラリ1」については、全N匹のゴーストの内、M匹が捕獲済みであり、「ライブラリ2」については、全N匹のゴーストの内、M匹が捕獲済みである。 The number of captures 535c is the number of captured ghosts M with respect to the total number of ghosts N of the corresponding library. This figure shows ghost capture data 535 for “library 1” and “library 2”. According to the figure, the "Library 1", of the total N A pet ghost, M A fish is caught already, the "Library 2", of the total N B animals ghost, M B mice Has been captured.

プレーヤレベル管理部324は、この捕獲数535cに基づいてプレーヤレベルを変更する。即ち、使用可能な各仮想レンズに対応するライブラリそれぞれについて、全ゴースト数Nを現在の捕獲数Mで除した捕獲率を算出する。そして、算出した捕獲率が、使用可能な各仮想レンズに対応するライブラリ全てにおいて所定値(例えば、0.8)以上であるならば、プレーヤレベルを1段階上昇させる。   The player level management unit 324 changes the player level based on the capture number 535c. That is, for each library corresponding to each usable virtual lens, a capture rate is calculated by dividing the total ghost number N by the current capture number M. If the calculated capture rate is equal to or greater than a predetermined value (for example, 0.8) in all the libraries corresponding to each usable virtual lens, the player level is increased by one step.

画像表示部430は、処理部300からの画像信号に基づくゲーム画像を表示する。特に、本実施形態では、表示制御部322の制御に従って撮像部200による撮像画像をリアルタイムでモニタ表示するとともに、出現させると判断されたゴーストの画像を撮像画像に重ねて表示させる。この機能は、例えばCRT、LCD、ELD等のハードウェアによって実現される。図1では、ディスプレイ1がこれに該当する。   The image display unit 430 displays a game image based on the image signal from the processing unit 300. In particular, in the present embodiment, a captured image obtained by the imaging unit 200 is displayed on the monitor in real time according to the control of the display control unit 322, and a ghost image determined to appear is superimposed on the captured image. This function is realized by hardware such as CRT, LCD, ELD, for example. In FIG. 1, the display 1 corresponds to this.

音生成部340は、ゲーム中に使用される効果音やBGM等のゲーム音声を生成し、生成したゲーム音声の音信号を音出力部440に出力する。
音出力部440は、音生成部340からの音信号に基づいて、BGMや効果音等のゲーム音声を出力する。この機能は、例えばスピーカ等によって実現される。図1では、スピーカ3がこれに該当する。
The sound generation unit 340 generates game sounds such as sound effects and BGM used during the game, and outputs the generated game sound signal to the sound output unit 440.
The sound output unit 440 outputs game sounds such as BGM and sound effects based on the sound signal from the sound generation unit 340. This function is realized by, for example, a speaker. In FIG. 1, the speaker 3 corresponds to this.

記憶部500は、処理部300に携帯型ゲーム装置1000を統合的に制御させるための諸機能を実現するためのシステムプログラムや、ゲームを実行させるために必要なプログラムやデータ等を記憶するとともに、処理部300の作業領域として用いられ、処理部300が各種プログラムに従って実行した演算結果や操作入力部100から入力される入力データ等を一時的に記憶する。この機能は、例えば各種ICメモリやハードディスク、CD−ROM、DVD、MO、RAM、VRAM等によって実現される。図1では、制御装置に実装されているROMやRAM、ゲームカートリッジ10がこれに該当する。   The storage unit 500 stores a system program for realizing various functions for causing the processing unit 300 to control the portable game apparatus 1000 in an integrated manner, a program and data necessary for executing the game, and the like. Used as a work area of the processing unit 300, temporarily stores calculation results executed by the processing unit 300 according to various programs, input data input from the operation input unit 100, and the like. This function is realized by, for example, various IC memories, hard disks, CD-ROMs, DVDs, MOs, RAMs, VRAMs, and the like. In FIG. 1, ROM, RAM, and game cartridge 10 mounted on the control device correspond to this.

また、記憶部500は、処理部300をゲーム演算部310として機能させるためのゲームプログラム510及びゲームデータを記憶する。ゲームデータには、仮想レンズ情報522と、ライブラリ情報524と、撮像画像情報526と、画像認識結果情報528と、類似度算出情報532と、ゴースト捕獲情報534と、プレーヤレベル情報536とが含まれている。   Further, the storage unit 500 stores a game program 510 and game data for causing the processing unit 300 to function as the game calculation unit 310. The game data includes virtual lens information 522, library information 524, captured image information 526, image recognition result information 528, similarity calculation information 532, ghost capture information 534, and player level information 536. ing.

通信部600は、所定の通信回線に接続して他の携帯型ゲーム装置1000等の外部装置とのデータ通信を行う。この機能は、Bluetooth(登録商標)やIrDA等の無線通信モジュール、モデム、TA、有線用の通信ケーブルのジャックや制御回路などによって実現される。図1では、内蔵されている通信装置がこれに該当する。   The communication unit 600 connects to a predetermined communication line and performs data communication with an external device such as another portable game device 1000. This function is realized by a wireless communication module such as Bluetooth (registered trademark) or IrDA, a modem, TA, a jack of a wired communication cable, a control circuit, and the like. In FIG. 1, the built-in communication device corresponds to this.

[処理の流れ]
図14は、本実施形態におけるゲーム処理の流れを説明するためのフローチャートである。この処理は、処理部300が、ゲームプログラム510に従った処理を実行することで実現される。
[Process flow]
FIG. 14 is a flowchart for explaining the flow of the game process in the present embodiment. This process is realized by the processing unit 300 executing a process according to the game program 510.

同図によれば、先ず、仮想レンズ管理部312が、操作入力部100からレンズ交換指示が入力されたか否かを判断し、入力されたならば(ステップS1:YES)、使用レンズを指示された仮想レンズに変更する(レンズ交換)(ステップS3)。次いで、画像認識部314が、操作入力部100から撮影指示が入力された(シャッタON)か否かを判断し、入力されていないならば(ステップS5:NO)、ステップS1に戻る。   According to the figure, first, the virtual lens management unit 312 determines whether or not a lens replacement instruction is input from the operation input unit 100, and if it is input (step S1: YES), the lens to be used is instructed. Change to a virtual lens (lens exchange) (step S3). Next, the image recognizing unit 314 determines whether or not a shooting instruction is input from the operation input unit 100 (shutter ON). If not input (step S5: NO), the process returns to step S1.

撮影指示が入力されたならば(ステップS5:YES)、画像認識部314は、ライブラリ情報524を参照して、使用レンズに対応するライブラリ(使用ライブラリ)で指定される画像認識方法で撮像画像に対する画像認識処理を行い、この撮像画像の特徴データを抽出する(ステップS7)。   If a shooting instruction has been input (step S5: YES), the image recognition unit 314 refers to the library information 524 and performs an image recognition method on the captured image by an image recognition method specified by a library (used library) corresponding to the used lens. Image recognition processing is performed, and feature data of the captured image is extracted (step S7).

次いで、類似度算出部316が、ライブラリ情報524を参照して、使用ライブラリで指定される全ゴーストを順に対象としてループAの処理を行う。即ち、ループAでは、類似度算出部316は、画像認識結果情報528を参照して、使用ライブラリで指定される画像認識方法毎に、対象となっているゴーストの特徴データと、抽出された撮像画像の特徴データとを基に、所定の算出式に従って両データの類似度を算出する(ステップS9)。そして、算出した各画像認識方法の類似度に、各画像認識方法に設定されている重みを乗じて加算し、類似度の総合値を算出する(ステップS11)。   Next, the similarity calculation unit 316 refers to the library information 524 and performs a loop A process on all ghosts specified in the library in use in order. That is, in the loop A, the similarity calculation unit 316 refers to the image recognition result information 528, and for each image recognition method specified by the library used, the target ghost feature data and the extracted imaging Based on the image feature data, the similarity between the two data is calculated according to a predetermined calculation formula (step S9). Then, the calculated similarity of each image recognition method is multiplied by the weight set for each image recognition method, and the total value of the similarity is calculated (step S11).

全ゴーストを対象としたループAの処理を終了すると、続いて、出現判断部318が、類似度算出情報532を参照して、類似度の総合値が最も高いゴーストを選択する(ステップS13)。そして、この選択したゴーストの類似度の総合値が、使用ライブラリで指定される閾値以上であるか否かを判断し、閾値以上であるならば(ステップS15:YES)、この選択したゴーストを出現させると判断する。そして、表示制御部322が、該ゴーストの画像を撮像画像に重ねて画像表示部430に表示させる(ステップS17)。その後、ゲーム演算部310が、操作入力部100からの操作信号等に基づいて所定の捕獲処理を行い(ステップS19)、捕獲に成功したならば(ステップS21:YES)、該ゴーストを捕獲してゴースト捕獲情報534を更新する。   When the processing of loop A for all ghosts is completed, the appearance determination unit 318 then refers to the similarity calculation information 532 and selects the ghost having the highest similarity value (step S13). Then, it is determined whether or not the total value of the similarity of the selected ghost is equal to or greater than a threshold value specified by the library used. If it is equal to or greater than the threshold value (step S15: YES), the selected ghost appears. Judge that you want to. Then, the display control unit 322 causes the image display unit 430 to display the ghost image on the captured image (step S17). Thereafter, the game calculation unit 310 performs a predetermined capture process based on an operation signal from the operation input unit 100 (step S19), and if the capture is successful (step S21: YES), captures the ghost. The ghost capture information 534 is updated.

続いて、プレーヤレベル管理部324が、ゴースト捕獲情報534を参照して、使用ライブラリの各ゴーストについての捕獲率を算出し、算出した全ての捕獲率が所定値以上であるか否かを判断する。その結果、全て所定値以上であるならば(ステップS23:YES)、プレーヤレベルを1段階上昇させる(ステップS25)。そして、仮想レンズ管理部312が、プレーヤレベルに対応する仮想レンズを使用可能として、仮想レンズ情報522を更新する(ステップS27)。   Subsequently, the player level management unit 324 refers to the ghost capture information 534, calculates a capture rate for each ghost in the library in use, and determines whether or not all the calculated capture rates are equal to or greater than a predetermined value. . As a result, if all the values are equal to or greater than the predetermined value (step S23: YES), the player level is increased by one step (step S25). Then, the virtual lens management unit 312 updates the virtual lens information 522 so that the virtual lens corresponding to the player level can be used (step S27).

その後、ゲーム演算部310は、ゲームを終了するか否かを判断し、終了しないならば(ステップS29:NO)、ステップS1に戻り、ゲームを終了するならば(ステップS29:YES)、本処理を終了する。   Thereafter, the game calculation unit 310 determines whether or not to end the game. If the game is not ended (step S29: NO), the process returns to step S1, and if the game is ended (step S29: YES), the process is performed. Exit.

[作用・効果]
以上のように、本実施形態によれば、携帯型ゲーム装置1000のカメラユニット7を起動して被写体を撮像すると、被写体に応じたゴーストが撮像画像に重ねてディスプレイ1に表示される。また、カメラユニット7に仮想的に装着するとする仮想レンズ(使用レンズ)が異なると、同一の被写体を撮像した場合であっても異なるゴーストが表示される。
[Action / Effect]
As described above, according to the present embodiment, when the camera unit 7 of the portable game apparatus 1000 is activated and a subject is imaged, a ghost corresponding to the subject is displayed on the display 1 so as to overlap the captured image. Also, if the virtual lens (used lens) virtually attached to the camera unit 7 is different, a different ghost is displayed even when the same subject is imaged.

このとき、携帯型ゲーム装置1000では、プレーヤによる撮像指示が入力されると、使用レンズに対応するライブラリ(使用ライブラリ)を基に表示させるゴーストを決定する。即ち、使用ライブラリで指定される画像認識方法で撮像データに対する画像認識を行って該撮像画像の特徴データを抽出し、使用ライブラリで指定される各ゴーストについて、その特徴データと、抽出された撮像画像の特徴データとを基に類似度を算出する。そして、類似度の総合値が最も高く、且つ使用ライブラリで指定される閾値以上であるゴーストの画像を、撮像画像に合成して表示させる。   At this time, in the portable game apparatus 1000, when an imaging instruction is input by the player, a ghost to be displayed is determined based on a library (used library) corresponding to the used lens. That is, image recognition is performed on the captured data by the image recognition method specified by the library used to extract the feature data of the captured image, and the feature data and the extracted captured image for each ghost specified by the library used The similarity is calculated based on the feature data. Then, a ghost image having the highest total similarity value and equal to or higher than the threshold value specified by the use library is combined with the captured image and displayed.

即ち、使用レンズが異なると、これに対応するライブラリが異なるため、表示されるゴーストが異なる。従って、シャッタONすると、撮像画像にゴーストの画像が合成表示されるとともに、使用レンズを交換することで、同一の被写体を撮像した場合であっても表示されるゴーストが異なるといった、新たな興趣を実現できる。   That is, if the lens used is different, the corresponding ghost is different because the corresponding library is different. Therefore, when the shutter is turned on, a ghost image is synthesized and displayed on the captured image, and the ghost displayed is different even when the same subject is imaged by exchanging the lens used. realizable.

更に、使用可能な仮想レンズはプレーヤレベルに応じて異なり、プレーヤレベルの上昇に従って、使用可能な仮想レンズが増加する。また、プレーヤレベルは、捕獲したゴーストの数を基に決定され、所定種類以上のゴーストの捕獲によって上昇する。従って、より多くの撮像を行って多くのゴーストを捕獲する程、プレーヤレベルが上昇し、使用可能な仮想レンズの数が増加する、即ち捕獲し得るゴーストが増加するので、「次はどのようなゴーストを捕獲できるのだろうか」といった、飽きのこないゲームを実現することができる。   Furthermore, the usable virtual lenses differ depending on the player level, and the usable virtual lenses increase as the player level increases. The player level is determined based on the number of captured ghosts, and increases as a result of capturing more than a predetermined type of ghosts. Therefore, the more imaging and capturing more ghosts, the higher the player level and the more virtual lenses available, i.e. the more ghosts that can be captured. Can you capture a game that never gets tired?

[変形例]
尚、本発明の適用は、上述した実施形態に限定されることなく、本発明の趣旨を逸脱しない範囲で適宜変更可能である。
[Modification]
The application of the present invention is not limited to the above-described embodiments, and can be appropriately changed without departing from the spirit of the present invention.

(A)出現するゴーストの数
例えば上述した実施形態では、撮像指示が入力された際に、類似度の総合値が最も高く(大きく)、且つ所定の閾値以上である一のゴーストを出現させることとしたが、これを、類似度の総合値が閾値以上のゴースト全て出現させることとしても良い。
(A) Number of appearing ghosts For example, in the embodiment described above, when an imaging instruction is input, one ghost having the highest (larger) similarity value and not less than a predetermined threshold value appears. However, this may be caused to cause all ghosts whose total value of similarity is equal to or greater than the threshold to appear.

(B)出現確率(確度)
また、上述した実施形態では、ライブラリデータ525の閾値情報525dで指定する閾値によってゴーストの出現確率を決定していたが、プレーヤレベルに応じて出現確率を決定することとしても良い。具体的には、使用ライブラリで指定される各ゴーストの内、類似度の総合値が最も大きく、且つ所定値以上のゴーストを出現候補のゴーストとし、この出現候補のゴーストを、プレーヤレベルに応じた出現確率に従って出現させるか否かを決定する。このとき、プレーヤレベルが高い程、出現確率を低く設定することで、結果的に、ゴーストの捕獲難易度を高く(難しく)することができる。
(B) Appearance probability (accuracy)
In the above-described embodiment, the ghost appearance probability is determined based on the threshold value specified by the threshold information 525d of the library data 525. However, the appearance probability may be determined according to the player level. Specifically, among the ghosts specified in the library to be used, the ghost having the largest total similarity and having a predetermined value or more is set as an appearance candidate ghost, and the appearance candidate ghost is set according to the player level. It is determined whether or not to appear according to the appearance probability. At this time, as the player level is higher, the appearance probability is set lower, and as a result, the ghost capture difficulty can be made higher (harder).

(C)仮想レンズとライブラリの対応関係
また、上述した実施形態では、仮想レンズとライブラリとは1対1で対応することとしたが、一の仮想レンズに複数のライブラリを対応付けることとしても良い。また、一のライブラリが複数の仮想レンズに共通して対応付けることとしても良い。
(C) Correspondence Relationship between Virtual Lens and Library In the above-described embodiment, the virtual lens and the library correspond one-to-one, but a plurality of libraries may be associated with one virtual lens. One library may be associated with a plurality of virtual lenses in common.

(D)仮想光学パーツ
また、上述した実施形態では、仮想光学パーツとして、仮想的に装着するとする仮想レンズを例として説明したが、これを、撮影レンズに仮想的に装着する仮想フィルタとしても良い。この場合、上述した実施形態と同様に、各仮想フィルタにライブラリを対応付けておき、仮想的に装着するとする仮想フィルタに対応するライブラリを用いて、撮像画像データに対する画像認識や出現させるゴーストの判定を行う。ここで、仮想フィルタとライブラリとは1対1で対応することとしてもよいし、1対他で対応することとしても良い。
(D) Virtual Optical Part In the above-described embodiment, the virtual lens that is virtually mounted as the virtual optical part has been described as an example. However, this may be a virtual filter that is virtually mounted on the photographing lens. . In this case, as in the above-described embodiment, a library is associated with each virtual filter, and image recognition for captured image data and determination of a ghost to appear using a library corresponding to a virtual filter to be virtually mounted. I do. Here, the virtual filter and the library may correspond one-to-one or may correspond one-to-one.

更に、仮想レンズと仮想フィルタとの双方を仮想的に装着することとしても良い。この場合、仮想的に装着するとする仮想レンズ及び仮想フィルタそれぞれに対応するライブラリを用いて、撮像画像データに対する画像認識や、出現させるゴーストの判定を行う。   Furthermore, both the virtual lens and the virtual filter may be virtually mounted. In this case, image recognition for captured image data and determination of a ghost to appear are performed using libraries corresponding to virtual lenses and virtual filters to be virtually mounted.

(E)出現させるゴースト
また、上述した実施形態では、同一の仮想レンズを使用して同一の被写体を撮像すると同一のゴーストが出現する(表示される)こととしたが、同一の仮想レンズを使用して同一の被写体を撮像しても、異なるゴーストが出現することとしても良い。
(E) Ghost to appear In the above-described embodiment, the same ghost appears (displayed) when the same subject is imaged using the same virtual lens, but the same virtual lens is used. Even if the same subject is imaged, different ghosts may appear.

この場合、ライブラリ情報524を構成する各ライブラリデータ525を、図15〜図17に示すライブラリデータ525Aのように構成する。即ち、ライブラリデータ525Aは、ライブラリ名525aと、認識方法情報525bと、特徴情報525eと、閾値情報525dとを含む。   In this case, each library data 525 constituting the library information 524 is configured as library data 525A shown in FIGS. That is, the library data 525A includes a library name 525a, recognition method information 525b, feature information 525e, and threshold information 525d.

特徴情報525eは、該ライブラリを使用した場合にゴーストが出現し得る撮像画像の特徴を指定する情報であり、特徴データと、出現ゴーストIDとを対応付けて格納している。特徴データは、認識方法情報525bで指定される画像認識方法毎に、これに応じた特徴の値を格納している。出現ゴーストIDは、出現するゴーストを指定するID(番号)であり、特徴データ毎に異なる値を格納している。   The feature information 525e is information that specifies the feature of the captured image in which a ghost may appear when the library is used, and stores feature data and an appearance ghost ID in association with each other. The feature data stores a feature value corresponding to each image recognition method specified by the recognition method information 525b. The appearance ghost ID is an ID (number) for designating an appearing ghost, and stores a different value for each feature data.

類似度算出部316は、使用ライブラリの特徴情報525eで指定される各特徴データについて、画像認識方法毎に、撮像画像の特徴データとの類似度を算出する。そして、算出した各画像認識方法についての類似度に、認識方法情報525bで指定される該画像認識方法の重みを乗じ、加算して類似度の総合値を算出する。   The similarity calculation unit 316 calculates the similarity between the feature data designated by the feature information 525e in the used library and the feature data of the captured image for each image recognition method. Then, the similarity for each calculated image recognition method is multiplied by the weight of the image recognition method specified by the recognition method information 525b and added to calculate a total value of similarity.

また、出現判断部318は、使用ライブラリの特徴情報525eを参照して、類似度算出部316によって算出された類似度の総合値が最も大きく、且つ閾値情報525dで指定される閾値以上である特徴データに対応する出現ゴーストIDを選択する。そして、ゴースト情報538を参照して、選択した出現ゴーストIDに対応するゴーストを出現させると判断する。   In addition, the appearance determination unit 318 refers to the feature information 525e of the used library, and has a feature that the total value of the similarity calculated by the similarity calculation unit 316 is the largest and is equal to or larger than the threshold specified by the threshold information 525d. An appearance ghost ID corresponding to the data is selected. Then, with reference to the ghost information 538, it is determined that a ghost corresponding to the selected appearance ghost ID appears.

ゴースト情報538とは、出現ゴーストIDを基に出現させるゴーストを指定する情報であり、図18に示すように、複数のゴーストデータ539から成る。各ゴーストデータ539は、出現ゴーストID539aと、ゴースト名539bとを対応付けて格納している。出現ゴーストID539aは、各ライブラリデータ525Aの特徴情報525eで指定される出現ゴーストIDの値を格納しており、各ゴーストデータ539について同一である。そして、各出現ゴーストID539aに対応付けられているゴースト名539bが、ゴーストデータ539毎に異なる。   The ghost information 538 is information for designating a ghost to appear based on the appearance ghost ID, and includes a plurality of ghost data 539 as shown in FIG. Each ghost data 539 stores an appearance ghost ID 539a and a ghost name 539b in association with each other. The appearance ghost ID 539a stores the value of the appearance ghost ID specified by the feature information 525e of each library data 525A, and is the same for each ghost data 539. And the ghost name 539b matched with each appearance ghost ID 539a differs for every ghost data 539. FIG.

出現判断部318は、これらのゴーストデータ539の内、何れかのゴーストデータ539において選択した出現ゴーストIDと対応付けられているゴーストを、出現させると判定する。従って、同一の仮想レンズを使用して同一の被写体を撮像すると、予め用意されている複数のゴーストの中から選択された何れかのゴーストが出現することとなる。   The appearance determination unit 318 determines that a ghost associated with the appearance ghost ID selected in any of the ghost data 539 from among the ghost data 539 appears. Therefore, when the same subject is imaged using the same virtual lens, any ghost selected from a plurality of ghosts prepared in advance appears.

この場合、出現させると判定するゴーストを決定するために用いるゴーストデータ539は、例えばランダムに決定しても良いし、所定のゲーム条件を満足するか否かによって決定しても良い。また、各ゴーストデータ539を、上述した他の仮想光学パーツである仮想フィルタと対応付けておき、装着するとする仮想フィルタに対応するゴーストデータ539を用いることとしても良い。具体的には、ある仮想レンズのみを装着する場合、同一の仮想レンズに加えて仮想フィルタのみを装着する場合、同一の仮想レンズに加えて他の仮想フィルタを装着する場合といったときに、異なるゴーストデータ539を用いることとしても良い。   In this case, the ghost data 539 used for determining the ghost to be determined to appear may be determined randomly, for example, or may be determined based on whether or not a predetermined game condition is satisfied. Further, each ghost data 539 may be associated with a virtual filter that is another virtual optical part described above, and the ghost data 539 corresponding to the virtual filter to be mounted may be used. Specifically, when only a certain virtual lens is mounted, when only a virtual filter is mounted in addition to the same virtual lens, or when another virtual filter is mounted in addition to the same virtual lens, different ghosts are used. Data 539 may be used.

(F)適用する装置
また、上述した実施形態では、本発明を携帯型ゲーム装置に適用した場合を説明したが、例えばカメラ付き携帯電話機といった、撮像手段を備えた他の装置に適用することとしても良い。
(F) Apparatus to be applied In addition, in the above-described embodiment, the case where the present invention is applied to a portable game apparatus has been described. Also good.

実施形態における携帯型ゲーム装置の外観例。An example of the appearance of a portable game device in an embodiment. 実施形態における「捕獲モード」時の概要図。The schematic diagram at the time of "capture mode" in an embodiment. 実施形態における「捕獲モード」時の概要図。The schematic diagram at the time of "capture mode" in an embodiment. 実施形態における「捕獲モード」時の概要図。The schematic diagram at the time of "capture mode" in an embodiment. 仮想レンズの一例。An example of a virtual lens. 携帯型ゲーム装置の機能構成例。2 is a functional configuration example of a portable game device. 仮想レンズ情報のデータ構成例。The data structural example of virtual lens information. ライブラリデータのデータ構成例。Data structure example of library data. ライブラリデータのデータ構成例。Data structure example of library data. ライブラリデータのデータ構成例。Data structure example of library data. 画像認識結果情報のデータ構成例。The data structural example of image recognition result information. 類似度算出情報のデータ構成例。The data structural example of similarity calculation information. ゴースト捕獲情報のデータ構成例。Data configuration example of ghost capture information. 本実施形態における「捕獲モード」時の処理の流れ図。The flowchart of the process at the time of "capture mode" in this embodiment. 変形例におけるライブラリデータの構成例。The structural example of the library data in a modification. 変形例におけるライブラリデータの構成例。The structural example of the library data in a modification. 変形例におけるライブラリデータの構成例。The structural example of the library data in a modification. 変形例におけるゴースト情報のデータ構成例。The data structural example of the ghost information in a modification.

符号の説明Explanation of symbols

1000 携帯型ゲーム装置
100 操作入力部
200 撮像部
300 処理部
310 ゲーム演算部
312 仮想レンズ管理部
314 画像認識部
316 類似度算出部
318 出現判断部
322 表示制御部
324 プレーヤレベル管理部
330 画像生成部
340 音生成部
430 画像表示部
440 音出力部
500 記憶部
510 ゲームプログラム
522 仮想レンズ情報
524 ライブラリ情報
525 ライブラリデータ
526 撮像画像情報
528 画像認識結果情報
532 類似度算出情報
534 ゴースト捕獲情報
535 ゴースト捕獲データ
536 プレーヤレベル情報
600 通信部
DESCRIPTION OF SYMBOLS 1000 Portable game device 100 Operation input part 200 Imaging part 300 Processing part 310 Game operation part 312 Virtual lens management part 314 Image recognition part 316 Similarity calculation part 318 Appearance judgment part 322 Display control part 324 Player level management part 330 Image generation part 340 Sound generation unit 430 Image display unit 440 Sound output unit 500 Storage unit 510 Game program 522 Virtual lens information 524 Library information 525 Library data 526 Captured image information 528 Image recognition result information 532 Similarity calculation information 534 Ghost capture information 535 Ghost capture data 536 Player level information 600 Communication unit

Claims (15)

コンピュータに、撮像手段による撮像画像を表示装置に表示制御させるためのプログラムであって、
ユーザ操作に基づいて、予め設定された複数種類の合成画像条件群の中から合成画像条件群を選択する条件群選択手段、
前記条件群選択手段により選択された合成画像条件群に含まれる何れかの合成画像条件に、前記撮像画像が合致するか否かを判定する合成判定手段、
前記合成判定手段により合致すると判定された合成画像条件に基づいて、予め設定された複数のキャラクタ画像の中から前記撮像画像に合成するキャラクタ画像を選択するキャラクタ画像選択手段、
前記キャラクタ画像選択手段により選択されたキャラクタ画像を前記撮像画像に合成して前記表示装置に表示制御する合成画像表示制御手段、
として前記コンピュータを機能させるためのプログラム。
A program for causing a display device to control display of an image captured by an imaging unit on a computer,
Condition group selection means for selecting a composite image condition group from a plurality of preset composite image condition groups based on a user operation,
A synthesis determination unit that determines whether or not the captured image matches any composite image condition included in the composite image condition group selected by the condition group selection unit;
A character image selection unit that selects a character image to be combined with the captured image from a plurality of preset character images based on the combined image condition determined to be matched by the combination determination unit;
Combined image display control means for combining the character image selected by the character image selecting means with the captured image and controlling display on the display device;
A program for causing the computer to function as
前記合成画像条件群は、予め異なるキャラクタ画像と対応付けられた複数の合成画像条件から成り、
前記キャラクタ画像選択手段が、前記合成判定手段により合致すると判定された合成画像条件に対応するキャラクタ画像を選択する、
ように前記コンピュータを機能させるための請求項1に記載のプログラム。
The composite image condition group includes a plurality of composite image conditions associated with different character images in advance.
The character image selection means selects a character image corresponding to a composite image condition determined to be matched by the composition determination means;
The program according to claim 1 for causing the computer to function.
前記撮像手段に仮想的に装着可能な所定の光学系パーツである仮想光学パーツが、予め前記複数種類の合成画像条件群のうち何れかの合成画像条件群と対応付けられて複数種類用意されており、
前記条件群選択手段が、ユーザ操作に従って、前記複数種類の仮想光学パーツの中から仮想的に装着するとする仮想光学パーツを選択するパーツ選択手段を有し、前記複数種類の合成画像条件群の中から前記パーツ選択手段により選択された仮想光学パーツに対応する合成画像条件群を選択する、
ように前記コンピュータを機能させるための請求項1又は2に記載のプログラム。
A plurality of types of virtual optical parts, which are predetermined optical system parts that can be virtually mounted on the imaging means, are prepared in advance in association with any one of the plurality of types of composite image condition groups. And
The condition group selection means includes part selection means for selecting a virtual optical part to be virtually mounted from the plurality of types of virtual optical parts according to a user operation, Selecting a composite image condition group corresponding to the virtual optical part selected by the parts selection means from
The program according to claim 1 or 2 for causing the computer to function as described above.
前記合成判定手段が、
前記撮像手段による撮像画像の特徴部分を抽出する特徴抽出処理を行う特徴抽出手段と、
前記特徴抽出手段により抽出された特徴部分の画像が、前記条件群選択手段により選択された合成画像条件群に含まれる何れかの合成画像条件に合致するか否かを判定する特徴部分判定手段と、
を有するように前記コンピュータを機能させるための請求項1〜3の何れか一項に記載のプログラム。
The synthesis determination means is
Feature extraction means for performing a feature extraction process for extracting a feature portion of an image captured by the imaging means;
A feature part determination unit that determines whether an image of the feature part extracted by the feature extraction unit matches any composite image condition included in the composite image condition group selected by the condition group selection unit; ,
The program according to any one of claims 1 to 3, for causing the computer to function so as to include a computer program.
前記合成画像条件には少なくとも物体の形状条件が含まれており、
前記特徴抽出手段が、撮像画像に写っている物体の形状を特徴部分として抽出するように前記コンピュータを機能させ、
前記特徴部分判定手段が、前記特徴抽出手段により抽出された物体形状が合成画像条件に含まれる物体の形状条件に合致するか否かを判定するように前記コンピュータを機能させる、
ための請求項4に記載のプログラム。
The composite image condition includes at least an object shape condition,
The feature extraction means causes the computer to function as a feature portion to extract the shape of an object shown in a captured image;
The feature portion determination means causes the computer to function to determine whether or not the object shape extracted by the feature extraction means matches an object shape condition included in a composite image condition;
A program according to claim 4 for.
コンピュータに、撮像手段による撮像画像を表示装置に表示制御させるためのプログラムであって、
撮像画像の特徴データを抽出する際の抽出判断基準が異なる3以上の特徴抽出処理の中からユーザ操作に基づいて選択された少なくとも2つの特徴抽出処理によって、前記撮像画像から複数種類の特徴データを抽出する特徴抽出手段、
予め複数の特徴データと対応付けられたキャラクタ画像が複数設定されており、前記複数のキャラクタ画像それぞれについて、当該キャラクタ画像に対応付けられている複数の特徴データと、前記特徴抽出手段により抽出された複数種類の特徴データとを比較して、前記撮像画像に合成するキャラクタ画像を選択するキャラクタ画像選択手段、
前記キャラクタ画像選択手段により選択されたキャラクタ画像を、前記撮像画像に合成して前記表示装置に表示制御する合成画像表示制御手段、
として前記コンピュータを機能させるためのプログラム。
A program for causing a display device to control display of an image captured by an imaging unit on a computer,
A plurality of types of feature data are extracted from the captured image by at least two feature extraction processes selected based on a user operation from among three or more feature extraction processes having different extraction criteria when extracting feature data of the captured image. Feature extraction means for extracting;
A plurality of character images associated with a plurality of feature data are set in advance, and each of the plurality of character images is extracted by a plurality of feature data associated with the character image and the feature extraction unit. Character image selection means for comparing a plurality of types of feature data and selecting a character image to be combined with the captured image;
A combined image display control unit configured to combine the character image selected by the character image selection unit with the captured image and control display on the display device;
A program for causing the computer to function as
前記キャラクタ画像に予め対応付けられている複数の特徴データには、少なくとも物体の形状に関するデータが含まれており、
前記特徴抽出手段により選択される少なくとも2つの特徴抽出処理には、撮像画像に写っている物体の形状を特徴データとして抽出する形状抽出処理が含まれている、
ように前記コンピュータを機能させるための請求項6に記載のプログラム。
The plurality of feature data previously associated with the character image includes at least data relating to the shape of the object,
The at least two feature extraction processes selected by the feature extraction means include a shape extraction process for extracting the shape of an object shown in a captured image as feature data.
The program according to claim 6 for causing the computer to function as described above.
前記撮像手段に仮想的に装着可能な所定の光学系パーツである仮想光学パーツが、予め前記3以上の特徴抽出処理のうち少なくとも2つの特徴抽出処理と対応付けられて複数種類用意されており、
前記特徴抽出手段が、ユーザ操作に従って、前記複数種類の仮想光学パーツの中から仮想的に装着するとする仮想光学パーツを選択するパーツ選択手段を有し、前記パーツ選択手段により選択された仮想光学パーツに対応する特徴抽出処理によって、前記撮像画像から複数種類の特徴データを抽出する、
ように前記コンピュータを機能させるための請求項6又は7に記載のプログラム。
A plurality of types of virtual optical parts, which are predetermined optical system parts that can be virtually mounted on the imaging means, are prepared in advance in association with at least two of the three or more feature extraction processes,
The feature extraction unit includes a part selection unit that selects a virtual optical part to be virtually mounted from the plurality of types of virtual optical parts according to a user operation, and the virtual optical part selected by the part selection unit A plurality of types of feature data are extracted from the captured image by feature extraction processing corresponding to
The program according to claim 6 or 7 for causing the computer to function as described above.
前記合成画像表示制御手段により撮像画像に合成されたキャラクタ画像のキャラクタを取得キャラクタとして記憶する合成済キャラ記憶手段として前記コンピュータを機能させ、
前記合成済キャラ記憶手段により記憶された取得キャラクタに基づいて、ユーザの撮影レベルを変更する撮影レベル可変手段として前記コンピュータを機能させ、
仮想的に装着することのできる仮想光学パーツを現在の撮影レベルに応じて可変する使用可能パーツ可変手段として前記コンピュータを機能させ、
前記パーツ選択手段が、現在の撮影レベルに応じて前記使用可能パーツ可変手段により使用可能とされた仮想光学パーツのうち、仮想的に装着するとする仮想光学パーツをユーザ操作に従って選択するように前記コンピュータを機能させる、
ための請求項3又は8に記載のプログラム。
Causing the computer to function as a combined character storage unit that stores the character of the character image combined with the captured image by the combined image display control unit as an acquired character;
Based on the acquired character stored by the synthesized character storage means, the computer functions as a shooting level variable means for changing the shooting level of the user,
Causing the computer to function as usable parts variable means for changing virtual optical parts that can be virtually mounted according to the current shooting level;
The computer selects the virtual optical part to be virtually mounted out of the virtual optical parts usable by the usable part variable means according to the current photographing level according to a user operation. Make it work,
A program according to claim 3 or 8 for use.
仮想的に装着することのできる仮想光学パーツの数を現在の撮影レベルに応じて可変する使用可能パーツ数可変手段として前記コンピュータを機能させ、
前記パーツ選択手段が、現在の撮影レベルに応じて前記使用可能パーツ数可変手段により使用可能とされた仮想光学パーツの数の範囲内で、仮想的に装着するとする仮想光学パーツをユーザ操作に従って選択するように前記コンピュータを機能させる、
ための請求項9に記載のプログラム。
Causing the computer to function as a usable part number variable means for varying the number of virtual optical parts that can be virtually mounted according to the current shooting level;
The part selection means selects a virtual optical part to be virtually mounted according to a user operation within the range of the number of virtual optical parts that can be used by the usable part number variable means according to the current shooting level. To make the computer function,
The program according to claim 9.
前記撮影レベル可変手段が、前記合成済キャラ記憶手段により記憶された取得キャラクタの数に基づいて撮影レベルを変更するように前記コンピュータを機能させる、
ための請求項9又は10に記載のプログラム。
The shooting level varying means causes the computer to function to change the shooting level based on the number of acquired characters stored by the synthesized character storage means;
The program of Claim 9 or 10 for.
前記キャラクタ画像選択手段により選択されたキャラクタ画像を撮像画像に合成するか否かを、現在の撮影レベルに応じた所与の確度で判定する出現判定手段として前記コンピュータを機能させ、
前記合成画像表示制御手段が、前記出現判定手段により合成すると判定された場合に、当該キャラクタ画像を前記撮像手段による撮像画像に合成して前記表示装置に表示制御するように前記コンピュータを機能させる、
ための請求項9〜11の何れか一項に記載のプログラム。
Whether or not to synthesize the character image selected by the character image selection unit with the captured image, and to cause the computer to function as an appearance determination unit that determines with given accuracy according to the current shooting level;
Causing the computer to function so as to synthesize the character image with a captured image by the imaging unit and control display on the display device when the combined image display control unit determines to combine the appearance determination unit;
The program as described in any one of Claims 9-11 for.
請求項1〜12の何れか一項に記載のプログラムを記憶したコンピュータ読み取り可能な情報記憶媒体。   The computer-readable information storage medium which memorize | stored the program as described in any one of Claims 1-12. 撮像手段と、
前記撮像手段による撮像画像を表示する表示部と、
ユーザ操作に基づいて、予め設定された複数種類の合成画像条件群の中から合成画像条件群を選択する条件群選択手段と、
前記条件群選択手段により選択された合成画像条件群に含まれる何れかの合成画像条件に、前記撮像画像が合致するか否かを判定する合成判定手段と、
前記合成判定手段により合致すると判定された合成画像条件に基づいて、予め設定された複数のキャラクタ画像の中から前記撮像画像に合成するキャラクタ画像を選択するキャラクタ画像選択手段と、
前記キャラクタ画像選択手段により選択されたキャラクタ画像を前記撮像画像に合成して前記表示装置に表示制御する合成画像表示制御手段と、
を備えた画像撮像表示装置。
Imaging means;
A display unit for displaying an image captured by the imaging unit;
Condition group selection means for selecting a composite image condition group from a plurality of preset composite image condition groups based on a user operation;
Synthesis determination means for determining whether or not the captured image matches any composite image condition included in the composite image condition group selected by the condition group selection means;
A character image selection unit that selects a character image to be combined with the captured image from a plurality of preset character images based on the combined image condition determined to be matched by the combination determination unit;
Combined image display control means for combining the character image selected by the character image selection means with the captured image and controlling display on the display device;
An image pick-up display device.
撮像手段と、
前記撮像手段による撮像画像を表示する表示部と、
撮像画像の特徴データを抽出する際の抽出判断基準が異なる3以上の特徴抽出処理の中からユーザ操作に基づいて選択された少なくとも2つの特徴抽出処理によって、前記撮像画像から複数種類の特徴データを抽出する特徴抽出手段と、
予め複数の特徴データと対応付けられたキャラクタ画像が複数設定されており、前記複数のキャラクタ画像それぞれについて、当該キャラクタ画像に対応付けられている複数の特徴データと、前記特徴抽出手段により抽出された複数種類の特徴データとを比較して、前記撮像画像に合成するキャラクタ画像を選択するキャラクタ画像選択手段と、
前記キャラクタ画像選択手段により選択されたキャラクタ画像を、前記撮像画像に合成して前記表示装置に表示制御する合成画像表示制御手段と、
を備えた画像撮像表示装置。
Imaging means;
A display unit for displaying an image captured by the imaging unit;
A plurality of types of feature data are extracted from the captured image by at least two feature extraction processes selected based on a user operation from among three or more feature extraction processes having different extraction criteria when extracting feature data of the captured image. Feature extracting means for extracting;
A plurality of character images associated with a plurality of feature data are set in advance, and each of the plurality of character images is extracted by a plurality of feature data associated with the character image and the feature extraction unit. Character image selection means for comparing a plurality of types of feature data and selecting a character image to be combined with the captured image;
Combined image display control means for combining the character image selected by the character image selection means with the captured image and controlling the display on the display device;
An image pick-up display device.
JP2005094600A 2005-03-29 2005-03-29 Program, information storage medium, and image pickup and display device Pending JP2006271657A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005094600A JP2006271657A (en) 2005-03-29 2005-03-29 Program, information storage medium, and image pickup and display device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005094600A JP2006271657A (en) 2005-03-29 2005-03-29 Program, information storage medium, and image pickup and display device

Publications (1)

Publication Number Publication Date
JP2006271657A true JP2006271657A (en) 2006-10-12

Family

ID=37206974

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005094600A Pending JP2006271657A (en) 2005-03-29 2005-03-29 Program, information storage medium, and image pickup and display device

Country Status (1)

Country Link
JP (1) JP2006271657A (en)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2009096208A1 (en) * 2008-01-31 2009-08-06 Nec Corporation Object recognition system, object recognition method, and object recognition program
JP2010279068A (en) * 2010-08-09 2010-12-09 Nintendo Co Ltd Imaging apparatus, imaging system and game machine
JP2012065760A (en) * 2010-09-22 2012-04-05 Nintendo Co Ltd Display control program, display controller, display control system and display control method
JP2012085783A (en) * 2010-10-19 2012-05-10 Hyogo Prefecture Game terminal device, server device, and program
WO2013141348A1 (en) * 2012-03-23 2013-09-26 株式会社コナミデジタルエンタテインメント Game device, method for controlling game device, program, and non-temporary recording medium
JP6241775B1 (en) * 2017-04-25 2017-12-06 株式会社セガゲームス Game system and program
JP2019103592A (en) * 2017-12-12 2019-06-27 株式会社カプコン Game program and game system

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2009096208A1 (en) * 2008-01-31 2009-08-06 Nec Corporation Object recognition system, object recognition method, and object recognition program
JP2010279068A (en) * 2010-08-09 2010-12-09 Nintendo Co Ltd Imaging apparatus, imaging system and game machine
JP2012065760A (en) * 2010-09-22 2012-04-05 Nintendo Co Ltd Display control program, display controller, display control system and display control method
US8884987B2 (en) 2010-09-22 2014-11-11 Nintendo Co., Ltd. Storage medium having stored thereon display control program, display control apparatus, display control system, and display control method for setting and controlling display of a virtual object using a real world image
JP2012085783A (en) * 2010-10-19 2012-05-10 Hyogo Prefecture Game terminal device, server device, and program
WO2013141348A1 (en) * 2012-03-23 2013-09-26 株式会社コナミデジタルエンタテインメント Game device, method for controlling game device, program, and non-temporary recording medium
JP2013198520A (en) * 2012-03-23 2013-10-03 Konami Digital Entertainment Co Ltd Game device, method for controlling game device, and program
JP6241775B1 (en) * 2017-04-25 2017-12-06 株式会社セガゲームス Game system and program
JP2018183360A (en) * 2017-04-25 2018-11-22 株式会社セガゲームス Game system and program
JP2019103592A (en) * 2017-12-12 2019-06-27 株式会社カプコン Game program and game system

Similar Documents

Publication Publication Date Title
US8764563B2 (en) Video game superimposing virtual characters on user supplied photo used as game screen background
KR100991030B1 (en) Image recording method, image recording device, and storage medium
CN105450911B (en) Image processing apparatus, image processing method
JP2006271663A (en) Program, information storage medium, and image pickup and display device
US7819731B2 (en) Method for generating game element from photographed image
JP2006271657A (en) Program, information storage medium, and image pickup and display device
JP6673221B2 (en) Information processing apparatus, information processing method, and program
JP2010183317A (en) Imaging device, image composition and display device, image composition and display method, and program
JP6720587B2 (en) Video processing device, video processing method, and video processing program
JP2011139282A (en) Image processing apparatus, imaging apparatus, image processing method, and program
CN103327235A (en) Image processing device and image processing method
US20050078125A1 (en) Image processing apparatus and storage medium storing image processing program
JP2016127377A (en) Image processing apparatus and image processing method, image reproducer and image reproducing method and program
JP2010137097A (en) Game machine and information storage medium
JP2006271658A (en) Program, information storage medium, and image pickup and display device
JP2928829B2 (en) Electronic game device
JP2010068190A (en) Digital camera, image processing apparatus and digital camera system
JP2004329629A (en) Game apparatus designed to acquire item based on image data and game program therefor
JP2015217122A (en) Image notification device, imaging device, image notification method, and image notification program
JP5043151B2 (en) Imaging device
JP2007093432A (en) Photographing device and travel time measuring device
JP2010141911A (en) Image recording method, image recording apparatus, and program
JP4878396B2 (en) Image recognition program, image recognition apparatus, image recognition system, and image recognition method
JP3301369B2 (en) Imaging device and imaging system
CN108965859A (en) Projection pattern recognition methods, video broadcasting method, device and electronic equipment