JP2004329629A - Game apparatus designed to acquire item based on image data and game program therefor - Google Patents

Game apparatus designed to acquire item based on image data and game program therefor Download PDF

Info

Publication number
JP2004329629A
JP2004329629A JP2003130930A JP2003130930A JP2004329629A JP 2004329629 A JP2004329629 A JP 2004329629A JP 2003130930 A JP2003130930 A JP 2003130930A JP 2003130930 A JP2003130930 A JP 2003130930A JP 2004329629 A JP2004329629 A JP 2004329629A
Authority
JP
Japan
Prior art keywords
data
item
image
feature
game
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2003130930A
Other languages
Japanese (ja)
Inventor
Yoichi Yamada
洋一 山田
Tomoaki Yoshinobu
智章 吉信
Tsutomu Araki
勉 荒木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nintendo Co Ltd
Original Assignee
Nintendo Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nintendo Co Ltd filed Critical Nintendo Co Ltd
Priority to JP2003130930A priority Critical patent/JP2004329629A/en
Publication of JP2004329629A publication Critical patent/JP2004329629A/en
Pending legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide a game apparatus which enables the acquiring of items depending on the features of image data captured by an image pickup unit. <P>SOLUTION: A player shoots an object (51) watching the image shown on a display means (12) using the image pickup unit (22). The feature data are extracted from the image data (43) loaded from the image pickup unit (22). The feature data are compared with item acquisition conditions (45), and when both coincide, the image of the item designated by item input conditions is shown on the display means (12). The shooting actions are linked to the acquisition of the items, thereby providing the game apparatus including an item acquisition method with a higher attractiveness. <P>COPYRIGHT: (C)2005,JPO&NCIPI

Description

【0001】
【発明の属する技術分野】
この発明は撮像データに基づいてアイテムを入手するゲーム装置およびゲームプログラムに関し、特に例えば、プレイヤがデジタルカメラを備えた携帯型ゲーム装置を使って色々な画像をリアルタイムで撮像することにより、撮像された画像のデータが所定の特徴を含むとき、その特徴に応じたアイテムを入手するような、撮像データに基づいてアイテムを入手するゲーム装置およびゲームプログラムに関する。
【0002】
【従来の技術】
プレイヤがゲームを進行していくときに、例えばロールプレイングゲームやアドベンチャーゲームなどの、アイテムと呼ばれる所定の特典を入手する形態のゲームが知られている。このとき、プレイヤはアイテムを入手することによりゲームを有利に進めることができるようになったり、または特定のアイテムを収集することによって、ゲームシナリオを先に進めることが可能となる。
一方、特許文献1(特許第2928829号)は、画像データに基づいてプレイするゲーム装置について開示している。すなわち、二つの画像データをそれぞれ撮影したのち、その撮像データを比較し、画像に優劣を付けることによって、どちらの画像が強いか、その勝敗を決めるためにプレイするゲーム装置を開示している。
【特許文献1】
特許第2928829号
【0003】
【発明が解決しようとする課題】
しかしながら、一般的なロールプレイングゲームやアドベンチャーゲームなどでは、プレイヤがアイテムを入手するためには、例えば、プレイ中の仮想ゲーム空間中で、ノンプレイヤキャラクタなどから情報を入手し、仮想ゲーム空間中で探し出すことが一般的であった。このため、どのロールプレイングゲームやアドベンチャーゲームをプレイしても、所定の予め定められた条件を満たすという条件は同じであって、ロールプレイングゲームやアドベンチャーゲームのプレイそのものに対して飽きてしまい、新しいゲームを提案する必要があった。
一方、特許文献1に記載のゲーム装置では、画像データを入手して、その勝敗を決めるだけであるため、折角苦労して入手したような画像データであっても、勝敗を決める条件によっては負けてしまう場合もあるので、ゲームプレイのための画像データ入手に対する興味が薄れやすい欠点があった。
【0004】
それ故に、この発明の主たる目的は、ゲームプレイにおいて新しいアイテム入手方法を取り入れたゲーム装置を提供することである。
この発明のその他の目的は、プレイヤによる被写体の撮影が、アイテム入手に反映されることによって、アイテム入手に対するプレイヤの興趣性を高めたゲーム装置を提供することである。
この発明のその他の目的は、プレイヤの撮像作業の結果、予想外のアイテムが入手可能になる可能性を提供することにより、より興趣性を高めたアイテム入手方法を含むゲーム装置を提供することである。
【0005】
【課題を解決するための手段】
上記目的を達成するために、第1の発明(請求項との対応関係を示せば、請求項1に記載の発明)によれば、本願発明にかかるゲーム装置は、少なくとも、被写体の画像を電子的に撮影可能な撮像手段(22)と、撮像手段が撮影した画像を一時記憶する撮像データ記憶手段(43)と、撮像データ記憶手段が一時記憶している画像を表示する表示手段(12)と、リアルタイム画像表示制御手段(31,32,33)と、アイテムデータ記憶手段(44)と、アイテム入手条件記憶手段(45)と、特徴抽出手段(31,32,41b)と、特徴データ記憶手段(46)と、比較手段(31,32,41c)とを備える。
【0006】
リアルタイム画像表示制御手段は、撮像手段が撮像した画像をリアルタイムに前記表示手段に表示する。アイテムデータ記憶手段は、ゲームプレイ中にプレイヤに収集させる少なくとも一つのアイテムに関するデータであって、少なくともアイテムの画像を指定するデータを含むアイテムデータを記憶する。アイテム入手条件記憶手段は、アイテムについて、個々のアイテムごとに設定されたアイテム入手条件を記憶する。特徴抽出手段は、撮像データ記憶手段に一時記憶された画像データから、所定の特徴データを抽出する。特徴データ記憶手段は、特徴抽出手段が抽出したデータを一時記憶する。比較手段は、アイテム入手条件記憶手段に記憶されたアイテム入手条件と、特徴データ記憶手段に記憶された特徴データとを比較する。そして、リアルタイム画像表示制御手段は、比較手段によって、アイテム入手条件と一致することが検出されたことに応じて、アイテム入手条件によって指定されたアイテムデータによって特定されるアイテム画像を画像データ表示手段に表示させる。
【0007】
この発明の他の実施形態(請求項2に記載の発明)によれば、リアルタイム画像表示制御手段は、画像データ表示手段に、特徴データを抽出する画像の範囲を示す、特徴抽出範囲表示手段(31,32,41f)
【0008】
この発明の更なる実施形態(請求項3に記載の発明)によれば、特徴抽出手段は、撮像データ記憶手段に記憶された画像に含まれる、少なくとも一つの色データを抽出する。
【0009】
この発明のその他の実施形態(請求項4に記載の発明)によれば、特徴抽出手段は、撮像手段によってリアルタイムに撮影された複数の画像各々について、時間経過に対応して抽出された、複数の特徴データを一時記憶する特徴データバッファ(46)と、特徴データバッファに記憶された複数の特徴データのうち、少なくとも最も最近抽出された特徴データと、その前に抽出された特徴データとの間の変化量を求める手段(31,32,41b)を含む。そして、比較手段は、アイテム入手条件記憶手段に記憶されたアイテム入手条件と、変化量とを比較する。
【0010】
この発明のその他の実施形態(請求項5に記載の発明)によれば、ゲーム装置は、複数のサウンドデータを記憶したサウンドデータ記憶手段と、サウンド出力手段(35,15)と、プレイヤによる操作入力を行わせるための操作手段(13)とを更に備える。一方、特徴抽出手段は、所定の間隔でサウンドデータ記憶手段から第1のサウンドを読み出して、サウンド出力手段から出力し、所定の関係を満たすアイテムデータ入手条件を抽出したときに第2のサウンドをサウンドデータ記憶手段から読み出して、前記サウンド出力手段から出力する。そして、特徴抽出手段は、第2のサウンドを読み出したあと、所定の時間内に、操作手段から所定の操作入力がなされたことに応じて、アイテムデータによって指定されたアイテムの画像を画像データ表示手段に表示する。
【0011】
【発明の効果】
請求項1に記載の発明によれば、表示画面に撮影中の画像がリアルタイムに表示されている最中に、その画像の特徴がアイテムの入手条件と一致して、対応するアイテムが表示されるので、新しいアイテム入手方法を提供できる上、プレイヤは楽しみながらアイテムの入手が可能になる。
請求項2に記載の発明によれば、表示画面上に画面のどこを特徴抽出に使用するのかをガイドする表示がなされることにより、プレイヤは被写体にガイドを重ねてみるなど、アイテムの入手に際して、より興趣性の高い方法を提供可能にする。
請求項3に記載の発明によれば、色データを特徴抽出に使用するので、ゲームプログラムの作り方によっては、色データと入手アイテムに所定の関係を作ることができるので、より興趣性を高めたアイテム入手方法を用いたゲーム装置を提供することができる。
【0012】
請求項4に記載の発明によれば、画像の変化を特徴抽出に使用しており、たとえば色変化を特徴抽出に用いることによって、プレイヤに対して色々な画像を撮影することを促すことができ、これによって、プレイヤはより興味深いアイテム入手方法を用いてゲームをプレイすることができるようになる。
請求項5に記載の発明によれば、リアルタイムの画像撮影において、例えばソナーのようなサウンドを出力しながらプレイヤに色々な被写体の撮影を促し、アイテム入手条件に合致する特徴が画像から抽出されたときに、ソナーの反射音を出力する。その際、所定の操作、例えば操作スイッチを押すなどが行われたときに対応するアイテムを表示画面に表示することによって、あたかも撮影中の被写体からアイテムを捕捉したような演出が可能となり、より興味深いアイテム入手方法を備えたゲーム装置を提供できる。
【0013】
【実施例】
(第1の実施形態)
図1はこの発明の一実施例であるゲーム装置の外観図である。ゲーム装置は、ゲーム装置本体10とカメラカートリッジ20とから構成される。ゲーム装置本体10は、両手で把持可能な大きさの携帯型ゲーム機であり、着脱可能な外部記憶媒体等のカートリッジ(この発明では撮像機能を具備したカメラカートリッジ20)を差し替えることにより、種々のゲームを楽しむことができる。ゲーム装置10は、横長形状のハウジング11を含む。ハウジング11の一方主面(表面)には、その略中央に表示手段の一例の液晶表示器12が設けられるとともに、液晶表示器12を挟む左右に操作手段として操作スイッチ13が設けられる。
カメラカートリッジ20は、ゲーム装置本体10に、ハウジング11の背面に設けられたコネクタ14を介して着脱可能なハウジング21と、撮像ユニット22とを含む。そしてカメラカートリッジ20がゲーム装置本体10に挿入され、コネクタ14を介して接続されることにより、撮像機能を備えたゲーム装置として、ゲーム装置本体10を機能させる。
【0014】
ゲーム装置本体10の操作スイッチ13aは、例えば方向スイッチ13aと、動作スイッチ13bと、スタート/セレクトボタン13cと、ハウジング左角に設けられたLボタン13dと、ハウジング右角に設けられたRボタン13eを含む。方向スイッチ13aは、例えばゲームの中でキャラクタ(図示せず)を操作するとき、キャラクタの移動方向を指示するために使用される。動作スイッチ13bは、例えばキャラクタの動作を指示(例えば、ジャンプする、など)するために使用される。Lボタン13dはカメラのシャッターボタンとして使用される。Rボタン13eはその他の撮影操作(撮影キャンセルなど)に使用される。スタート/セレクトボタン13cは、ゲームプレイを開始したり、ゲーム操作を中断するために使用される。そして、ゲーム装置10によって処理されるゲーム内容やカメラで撮影した画像データは、液晶画面12に映し出され、プレイヤは上述したような種々の操作スイッチ13を操作することにより、液晶画面12に表示されるゲーム画像やカメラで撮影した撮像画像を楽しむことができる。
また、ゲーム装置本体10には、必要に応じて、その上側面にコネクタ16が設けられるとともに、音抜き孔の内部にスピーカ15が内蔵される。コネクタ16は、他のゲーム装置本体10’と接続して通信ゲームを楽しんだり、ゲーム装置本体10で処理されたゲームの内容を記憶したデータやカメラで撮影したデータを他のゲーム装置本体10’と送受信するために使用される。
【0015】
図2はゲーム装置本体10及びカメラカートリッジ20が接続された状態における、ゲーム装置のブロック図である。ゲーム装置本体10には、CPU31が内蔵される。CPU31は、カメラカートリッジ20に内蔵されたプログラムROM23のプログラムに従ってゲーム処理および撮影処理を行う。CPU31には、ワーキングRAM(以下「WRAMと略称する」)32,画像処理ユニット33,サウンドユニット35,入出力インターフェース(以下「I/O」と略称する)36が接続される。
【0016】
WRAM32は、CPU31がゲーム処理に際して必要とするデータをロードしておき、ゲーム処理中に発生したデータを更新的に記憶する。画像処理ユニット33には表示用RAM(以下「VRAM」と略称する)34が接続される。VRAM34は、表示に使用される画像データを一時記憶する。VRAM34に格納されたデータは、LCDドライバ37を介し、液晶表示ユニット(以下「LCD」と略称する)12に表示される。サウンドユニット35は、CPU31のゲーム処理に関連して発生されたサウンドデータをアナログ信号に変換して、スピーカー15からゲーム音楽又は効果音として出力する。
【0017】
I/O36は、操作スイッチ13,カメラカートリッジ20,他のゲーム装置10‘とCPU31を接続する。CPU31は、I/O36を介して操作スイッチ13からのデータを受信してプログラム処理に使用する。また、CPU31はI/O36を介して、カメラカートリッジ20を制御する。さらに、CPU31はI/O36に接続されたコネクタ16を介して、他のゲーム装置10’とデータの送受信を行う。
【0018】
カメラカートリッジ20は、ハウジング21の内部に、撮像ユニット22,プログラムROM23,バックアップメモリ24を具備する。撮像ユニット22は、撮像素子としてCMOSセンサもしくはCCDなどの、電子感光素子を含み、その感光した光情報(色情報もしくは輝度情報など)をデジタルデータとして出力する。プログラムROM23は、撮像機能を使用してアイテムを入手するような、ゲーム装置として、ゲーム装置本体10を機能させるためのプログラムを固定的に記憶している。バックアップメモリ24は、ゲームの途中経過や、撮像ユニット22で撮影した画像データを保存するための書込み読出し可能なメモリであり、RAMまたはフラッシュメモリなどが用いられる。
【0019】
カートリッジ入出力インターフェース(以下「カートリッジI/O」と略称する)25は、コネクタ14およびI/O36を介してCPU31と接続される。これによって、CPU31は、カートリッジI/O25を介して撮像ユニット22,プログラムROM23およびバックアップメモリ24にアクセスして、カメラカートリッジ20の制御もしくは、カメラカートリッジ20とのデータの送受信を行うことができる。なお、撮像ユニット22,プログラムROM23およびバックアップメモリ24は、ゲーム装置10に内蔵してもよい。
【0020】
このように、LCD12を一体的に構成した、携帯型のゲーム装置本体10にカメラカートリッジ20を装着することによって、撮影した画像を、即表示画面(LCD12)に表示することができ、プレイヤが実際に行動をしながらゲームをすることができるので、非常に興味深いゲームプレイ環境を提供できる。また、ゲーム装置本体10は、LCD12を一体的に形成した場合を説明したが、家庭用テレビ受像機(CRT)に接続する据置型ビデオゲーム機で同等の機能を持たせてもよい。その場合、操作スイッチ13,ゲーム装置10が据置型のビデオゲーム機の場合であれば、ハウジング11に一体的に形成することに代えて、ビデオゲーム機と分離したゲーム機用コントローラに設けてもよい。
【0021】
図3はゲーム装置本体10がこの発明にかかる撮像機能を備えたゲーム装置として機能しているときの、WRAM34のメモリマップ40である。メモリマップ40は大きく分けて、プログラム記憶領域41とデータ記憶領域42に分かれる。プログラム記憶領域41はCPU31によって実行され、ゲーム装置本体10をこの発明にかかるゲーム装置として機能させる種々のプログラムが記憶されている。データ記憶領域42は、プログラム記憶領域41に記憶されたプログラムによって使用される種々のデータを記憶している。また、データ記憶領域42は、プログラム処理された結果生成されたデータを一時記憶するための領域でもある。
【0022】
なお、メモリマップ40はWRAM34のメモリマップであるとしたが、例えば、この発明にかかるゲーム装置のように、固定的にプログラムを記憶しているROM23をCPU31に直接接続可能な場合は、WRAM32にプログラムやデータを転送して保持する必要が無い。この場合は、プログラム記憶領域41やデータ記憶領域42の一部をこのROM23に固定的に形成可能であるため、CPU31が直接ROM23にアクセスできるからである。但し、このような形態を採用するときには、ROM23には書込が不能であるため、読み出し専用のデータを形成記憶しておく。
【0023】
プログラム記憶領域41は、メインプログラム記憶領域41a,特徴抽出プログラム記憶領域41b,アイテム入手条件比較プログラム記憶領域41c,アイテムデータ更新プログラム記憶領域41d,画像合成プログラム記憶領域41e,ガイド表示プログラム記憶領域41f,サウンド出力プログラム記憶領域41gを含む。
【0024】
メインプログラム記憶領域41aは、CPU31によって実行され、この発明にかかる撮像機能を備えたゲーム装置として機能させるためのプログラムであって、プレイヤによる操作スイッチ13の操作や、ゲームキャラクタの表示など、ゲームの一般的な処理を行うプログラムである。
【0025】
特徴抽出プログラム記憶領域41bは、カメラカートリッジ20にもうけられた撮像ユニット22によって入力された画像データから、この発明にかかるゲームアイテムの入手を行うために、画像データの特徴(色、輝度、または所定の色の含有率、画像データの変化の程度など)を抽出する、特徴抽出プログラムを記憶したメモリ領域である。
ここで、アイテムとは、ゲームを進行する上で、プレイヤがゲームプレイの中で取得する武器,道具,もしくは特別なモンスターなどのキャラクタを総称したものである。
【0026】
アイテム入手条件比較プログラム記憶領域41cは、特徴抽出プログラムから抽出された画像データの特徴が、所定のアイテムの入手条件に合致しているか否かを比較して評価する、アイテム入手条件比較プログラムを記憶したメモリ領域である。
アイテムデータ更新プログラム記憶領域41dは、アイテム入手条件比較プログラムにおいて、所定のアイテムの入手条件に合致していることが判明したときに、そのアイテムデータを更新して、例えば、当該アイテムが入手済みであるとか、あと何個の当該アイテムが入手可能であるかを示すデータを更新する、アイテムデータ更新プログラムを記憶したメモリ領域である。
アイテム画像表示プログラム記憶領域41eは、アイテム入手条件比較プログラムによって、特徴抽出プログラムから抽出された特徴と合致するアイテムがあると判断されたとき、該アイテムを表示画面(LCD12)に表示するためのアイテム画像表示プログラムを記憶したメモリ領域である。
【0027】
ガイド表示プログラム記憶領域41fは、プレイヤが撮像ユニット22を使用して被写体を撮影するときに、特徴抽出に使用する画像の範囲をプレイヤに表示するための、ガイド表示プログラムを記憶している。例えば、図4のガイド表示53は、その円形表示の内部に特徴を抽出してみたい被写体が収まるように、プレイヤに促す。
サウンド出力プログラム記憶領域41gは、プレイヤが被写体を撮影しているときに、あたかも何かを捜索しているような雰囲気を醸し出すために、ソナー音を出力し、アイテムの入手条件に合致する画像が撮影されたときには、反射音を出力する。こうして、ガイド表示と同じく、プレイヤが画像の撮影を効果的に行えるように促す。その他、操作音やゲームの最中に使用される効果音などを出力する。
【0028】
データ記憶領域42は、撮像データバッファ領域43,アイテムデータ記憶領域44,アイテム入手条件データ45,抽出データバッファ領域46,画像データ記憶領域47,ゲーム用サウンドデータ記憶領域48を含む。
【0029】
撮像データバッファ記憶領域43は、撮像ユニット22から電子的に撮像された画像データを一時記憶する領域である。CPU31は画像データが取り込まれるたびに、画像処理ユニット33を介して、LCD12に一時記憶された画像を表示することが可能である。こうすることで、撮像ユニット22によって撮影される画像をリアルタイムにLCD12に表示することができる。
アイテムデータ記憶領域44は、撮像ユニット22を使用して取得されるアイテムに関する種々のデータをアイテム個々に記憶した領域である。例えばアイテムAについてのデータ記憶領域44a,アイテムBについてのデータ記憶領域44bを含む。更に、アイテム個々についての記憶領域は、複数のデータ記憶領域を含む。
例えば、アイテムAについてのデータ記憶領域44aは,アイテムAの画像指定データ記憶領域44a1,入手済み確認フラグ記憶領域44a2,属性データ44a3記憶領域を含む。画像指定データ記憶領域44a1はアイテムAの画像を記憶した記憶領域を指定するデータを記憶している。CPU31と画像処理ユニット33は指定されたデータによって、アイテムAの画像をLCD12上に表示する。
【0030】
入手済み確認フラグ記憶領域44a2は、アイテムAが入手済みであるか否かを確認するためのフラグデータが記憶されている。例えば、アイテムAが一度しか手に入らないものであれば、このフラグデータを確認することにより、入手済みのときに、二度と手に入らないようにする。また、限定個数入手可能なアイテムの場合は、このフラグデータを確認することにより、残り入手可能な個数を確認するデータ(図示せず)を更新して、入手個数を管理することができる。
【0031】
属性データ記憶領域44a3は、アイテムAの属性を示すデータを記憶している。例えば、光を好むなどの属性を示すデータを記憶している。こうすることで、ゲームを進行中にアイテムを入手するとき、光を好むモンスターがいるらしいとの情報を得たとしたら、プレイヤは光を発する色々な被写体を撮像ユニット22を使用して撮影するであろう。一方、アイテムAを入手後は、ゲームの進行中、光を好む属性を活かして、光を嫌う敵キャラクタなどに対して、アイテムAを使用したときに、この敵キャラクタを容易に倒すことができるなどの仕掛けをゲーム中に盛り込むことが可能になる。
【0032】
アイテム入手条件データ記憶領域45は、個々のアイテムそれぞれについての入手条件データを記憶した領域である。例えば、アイテムAの入手条件データ記憶領域45a,アイテムBの入手条件データ記憶領域45bを含む。前述のようにアイテムAが光を好むモンスターであるとすると、アイテムAの入手条件データ記憶領域45aには撮像ユニット22によって撮影される画像の輝度が所定の値以上であること、などを指定する条件を表すデータが記憶されている。
【0033】
抽出データバッファ領域46は、撮像ユニット22から取り込まれた画像データについて、特徴抽出プログラムが画像の特徴を抽出し、抽出されたデータを一時記憶する領域である。先に述べたとおり、リアルタイムに撮影が可能である場合は、複数の特徴データを一時記憶可能なように、複数段のバッファ構造を持たせても良い。
【0034】
画像データ記憶領域47は、プレイヤがゲーム中で入手するアイテムの画像や、ゲームで使用されるキャラクタの画像などの画像データを記憶している領域である。アイテムAの画像データ記憶領域47a,アイテムBの画像データ記憶領域47b,及びガイド表示プログラム記憶領域41fに記憶されたプログラムが使用する、ガイドの画像データ47zを含む。
【0035】
ゲーム用サウンドデータ記憶領域48は、プレイヤが撮像ユニット22を使用してリアルタイムにLCD12上に表示される映像を確認しながら、ゲーム装置10を操作しているときに発生されるサウンドや、その他のゲーム中で使用されるサウンドデータを記憶している。そして、プレイヤが撮影をおこなっている最中に常に発生される、探査音データの記憶領域48a,特徴抽出プログラムによって、何らかのアイテム入手条件と合致したときに発生される、反射音データの記憶領域48bなどを含む。
【0036】
図4はプレイヤ52が被写体51を撮影して、アイテムを取得しようとしているときの概略図である。プレイヤ52は、カメラカートリッジ20を接続したゲーム装置本体10を、木51aとベンチ51bを含む被写体に向けて、撮影をおこなっている。このとき、プレイヤ52は被写体として木51aを選んで撮影しようとしている。図4下部にて示すとおり、表示画面上には、ガイド表示53が表示されており、プレイヤは、その内部に被写体である木51aが写るように、ゲーム装置本体10を操作する。またスピーカ15からは、探査音のデータ記憶領域48aに記憶されたサウンドが再生されて、出力されているので、プレイヤはカメラを通して被写体の捜索を行っているかのような体験が可能である。そして、スピーカ15から再生されるサウンドが反射音に変化したとき、撮影中の画像が何らかのアイテム入手条件に合致したこととなるので、プレイヤは例えば13dを押すことによってシャッターを切る操作をする。
【0037】
図5は、第1の実施形態において、被写体51を撮影してアイテム54を取得するまでの、処理の概略を示す図である。撮像データバッファ43は例えば、撮影画像の赤成分データ記憶領域43a,緑成分データ記憶領域43b,青成分43cデータ記憶領域43c,及び輝度成分データ記憶領域43dを含むとする。このとき、プレイヤがガイド表示53に収まるように被写体51aを撮影したとすると、赤成分データ記憶領域43aには撮影画像の赤成分データとしてR1,緑成分データ記憶領域43bには緑成分データとしてG1,青成分43cデータ記憶領域43cには青成分データとしてB1,そして輝度成分データ記憶領域43dには輝度成分データとしてY1が一時記憶される。
【0038】
一方、アイテム入手条件記憶領域45には、アイテムAの入手条件として(R1,G1,B1,Y1)、アイテムBの入手条件として(R2,G2,B2,Y2)が記憶されているとする。このとき、アイテム入手条件の比較が行われ、前述の撮像データバッファ43に一時記憶された画像データ(R1,G1,B1,Y1)と合致していることが判断される。
【0039】
アイテムAの入手条件と合致したあと、アイテムデータ記憶領域44のアイテムAについてのデータ記憶領域44aが参照される。そして、画像指定データ44a1が読み出され、対応する画像データ記憶領域47からアイテムAの画像データを指定する。その結果LCD12上にアイテムAとしてモンスタ54が表示される。
【0040】
以上が第1の実施形態の概要であるが、次にそのプログラム処理について詳述する。図6はこの発明にかかるゲームのメイン処理のフローチャート60である。
プレイヤがステップ11において、ゲームをスタートすると、ステップ12のゲームプレイ処理が行われる。ゲームプレイ処理とは例えば、プレイヤによる操作手段13の操作入力や、キャラクタのLCD12上への表示を含む、ゲームにおいて一般的な処理の総称である。
【0041】
ステップ13において、撮像ユニット22を使用したアイテムの入手を行うかどうかを判断する。プレイヤがカメラからのアイテム入手を行うと判断したときは、続くステップ14に進み、アイテム入手処理が行われる。なお、アイテム入手処理については、後段の図7の説明において詳述する。
【0042】
アイテム入手処理が行われた後、ステップ15に進み、更にアイテム入手処理を行うかどうかを判断する。もし更にアイテム入手処理を行うと判断したのであればステップ14に戻り、アイテム入手処理を続行する。そうでない場合、およびステップ13において、カメラからアイテムを入手しないと判断した場合は、ステップ16に進み、ゲームを終了するのかどうかを判断する。ゲームを終了しないと判断したのであれば、ステップ12に戻り、ゲーム処理を続行し、アイテム入手処理を繰り返す。そうでなければステップ17に進み、一連のゲーム処理を終了する。
【0043】
図7は、第1の実施形態における、アイテム入手処理を示すフローチャート61である。フローチャート60のステップ14においてアイテム入手処理を行うと判断された場合、ステップ21よりアイテム入手処理を開始する。まず、ステップ22において、撮像ユニット22から画像をWRAM32に取り込む。そのあと、ステップ23において、探査音をサウンドデータ記憶領域48から読み出して鳴らす。続いて、ステップ24においてWRAMに取り込んだ画像をLCD12に表示する。探査音を鳴らすタイミングについてはステップ23に限られることはなく、画像をWRAMに取り込む処理を行っているときは、どのタイミングで鳴らされても問題は無いであろう。
【0044】
LCD12に画像を表示したあと、ステップ25において、WRAM32に取り込んだ画像データから特徴データを抽出する。先に説明した内容に沿えば、撮影画像の赤成分データと、緑成分データと、青成分データと、輝度成分データとを抽出し、抽出データバッファ領域46に格納する。次にステップ26に進み、抽出された特徴データをアイテム入手条件データ記憶領域46に記憶されたデータと比較する。続くステップ27において、抽出した特徴データがアイテム入手条件に合致していなければ、ステップ22に戻り再度カメラから画像を取り込み、LCD12に表示する。このステップ22からステップ27までの処理は比較的短いため、プレイヤはあたかもLCD12上に撮像ユニット22から取り込まれた画像がリアルタイムに表示されているように感じるであろう。またこの効果によって、特別なファインダを設けなくとも、LCD12上に画像を見ながらプレイヤは被写体を特定して撮影することが可能になる。
【0045】
ステップ27において、抽出した特徴データがアイテム入手条件に合致しているときには、ステップ28において、一致したことをサウンドで通知する。すなわち、サウンドデータ記憶領域48から反射音データ48bを読み出してスピーカ15から出力する。その後、ステップ29に進み、プレイヤがサウンドを聴いて、所定の時間内に操作入力、例えばシャッターボタンに見立てた操作スイッチ13dが押されたかどうかを判断する。もし所定の時間内に操作入力がなされなければ、ステップ22に戻り、新たにカメラからの画像取り込みを行う。もし操作入力があった場合は、一致するアイテム入手条件から対応するアイテムデータを参照し、指定されるアイテムの画像をLCD12上に表示する。
【0046】
その後、ステップ31において、画像が表示されたアイテムの入手済み確認フラグ領域(前述のアイテムAであれば、44a2)を更新して、例えば、取得可能回数を減らす、もしくは二度と入手不可能などの設定を行っておく。そしてステップ32に進み、アイテム入手処理を続行するかどうかを判断する。もし続行するのであれば、ステップ22に戻り、再度カメラから画像を取り込む。そうでなければ、図6のフローチャート60に戻り、ゲーム処理を続行する。
【0047】
(第2の実施形態)
以上が、第1の実施形態に係る詳細な説明であるが、続いて第2の実施形態について説明する。但し、第2の実施形態については、そのハードウェアの概観として図1,その内部ブロック図として図2,メモリマップとして図3,アイテムの入手にかかる概略図として図4,ゲームのメイン処理のフローチャートとして図6を適用可能であるので、これらの部分は第1の実施形態と同様であり、説明を省略する。
【0048】
図8は、第2の実施形態において、被写体51を撮影してアイテム54を取得するまでの、処理の概略を示す図である。撮像データバッファ43は例えば、第1の撮影画像の赤成分データ記憶領域43a,緑成分データ記憶領域43b,青成分43cデータ記憶領域43c,及び輝度成分データ記憶領域43dと、第2の撮影画像の赤成分データ記憶領域43a’,緑成分データ記憶領域43b’,青成分データ記憶領域43c’,及び輝度成分データ記憶領域43d’とを含むとする。このとき、プレイヤがガイド表示53に収まるように、まず被写体51aを撮影したとすると、赤成分データ記憶領域43aには撮影画像の赤成分データとしてR1,緑成分データ記憶領域43bには緑成分データとしてG1,青成分43cデータ記憶領域43cには青成分データとしてB1,そして輝度成分データ記憶領域43dには輝度成分データとしてY1が一時記憶される。次に被写体51bを撮影したとすると、赤成分データ記憶領域43a’には撮影画像の赤成分データとしてR2,緑成分データ記憶領域43b’には緑成分データとしてG2,青成分データ記憶領域43c’には青成分データとしてB2,そして輝度成分データ記憶領域43d’には輝度成分データとしてY2が一時記憶される。
【0049】
ここで、第1の撮像画像と第2の撮像画像の画像データそれぞれについて、その差(Ra,Ga,Ba,Ya)を求める。(Ra,Ga,Ba,Ya)は例えば、
(Ra,Ga,Ba,Ya)=|(R1,G1,B1,Y1)−(R2,G2,B2,Y2)|…(1)
のように、式(1)によって求められる。式(1)は第1の撮像画像と第2の撮像画像の画像データの差の絶対値を求める式である。
【0050】
一方、アイテム入手条件記憶領域45には、アイテムAの入手条件として(Ra,Ga,Ba,Ya)が記憶されているとする。このとき、アイテム入手条件の比較が行われ、前述の撮像データバッファ43に一時記憶された第1の画像データと第2の画像データとの差(Ra,Ga,Ba,Ya)と合致していることが判断される。
【0051】
アイテムAの入手条件と合致したあと、アイテムデータ記憶領域44のアイテムAについてのデータ記憶領域44aが参照される。そして、画像指定データ44a1が読み出され、対応する画像データ記憶領域47からアイテムAの画像データを指定する。その結果LCD12上にアイテムAとしてモンスタ54が表示される。
【0052】
フローチャート60において、ステップ14のアイテム入手処理に進むと、第2の実施形態では、図9のフローチャート62に進む。ステップ21のアイテム入手処理に進むと、まず、ステップ41において何枚の画像を取り込むかを決めるカウンタ(図示せず)をセット(N=1)する。ステップ22からステップ24の処理は、フローチャート61と同様であるから説明を省略する。
【0053】
ステップ42において、WRAM32に取り込んだ画像データであって、カウンタ値が示す画像データから特徴データを抽出する。先に説明した内容に沿えば、撮影画像の赤成分データと、緑成分データと、青成分データと、輝度成分データとを抽出し、抽出データバッファ領域46に格納する。続いて、ステップ43において、特徴データ抽出に使用する画像が揃ったかどうかを確認するために、カウンタが必要枚数(N=Nmax)に達したかどうかを確認する。もし、未だ揃っていなければ、ステップ44に進み、カウンタをインクリメントする。そしてステップ22にもどり、新しく画像を取り込む。このステップ22からステップ44までの処理は比較的短いため、プレイヤはあたかもLCD12上に撮像ユニット22から取り込まれた画像がリアルタイムに表示されているように感じるであろう。またこの効果によって、特別なファインダを設けなくとも、LCD12上に画像を見ながらプレイヤは被写体を特定して撮影することが可能になる。
【0054】
必要枚数の画像が揃ったら、ステップ45に進み、特徴データを算出する。先の説明ではNmax=2であり、2枚の画像データからその差を求め特徴データを算出した。次にステップ26に進み、抽出された特徴データをアイテム入手条件データ記憶領域46に記憶されたデータと比較する。続くステップ46において、抽出した特徴データがアイテム入手条件に合致していなければ、ステップ41に戻りカウンタをセットし直して、再度カメラから画像を取り込み、LCD12に表示する。このステップ41からステップ46までの処理は比較的短いため、プレイヤはあたかもLCD12上に撮像ユニット22から取り込まれた画像がリアルタイムに表示されているように感じるであろう。またこの効果によって、特別なファインダを設けなくとも、LCD12上に画像を見ながらプレイヤは被写体を特定して撮影することが可能になる。
【0055】
ステップ46において、抽出した特徴データがアイテム入手条件に合致しているときには、ステップ28において、一致したことをサウンドで通知する。すなわち、サウンドデータ記憶領域48から反射音データ48bを読み出してスピーカ15から出力する。その後、ステップ47に進み、プレイヤがサウンドを聴いて、所定の時間内に操作入力、例えばシャッターボタンに見立てた操作スイッチ13dが押されたかどうかを判断する。もし所定の時間内に操作入力がなされなければ、ステップ41に戻り、新たにカウンタをセットし直して、カメラからの画像取り込みを行う。もし操作入力があった場合は、一致するアイテム入手条件から対応するアイテムデータを参照し、指定されるアイテムの画像をLCD12上に表示する。
【0056】
その後、ステップ31において、画像が表示されたアイテムの入手済み確認フラグ領域(前述のアイテムAであれば、44a2)を更新して、例えば、取得可能回数を減らす、もしくは二度と入手不可能などの設定を行っておく。そしてステップ48に進み、アイテム入手処理を続行するかどうかを判断する。もし続行するのであれば、ステップ41に戻り、カウンタをセットし直して再度カメラから画像を取り込む。そうでなければ、図6のフローチャート60に戻り、ゲーム処理を続行する。
【0057】
以上二つの実施形態について説明を行ったが、他の実施形態も考えられることは言うまでもない。例えば特徴抽出において、輝度データは二つの画像の差を利用し、赤成分、緑成分、青成分のデータについては一つの画像のデータを利用することにより、第1の実施形態と第2の実施形態を組み合わせることが考えられる。
【0058】
更に、実施形態ではカメラカートリッジ20とゲーム装置本体10との組み合わせを例としているが、勿論、デジタルカメラにおいて、被写体を撮影することからアイテムを入手するゲームプログラムを固定的に内蔵しておくか、又はフラッシュメモリーカードなどの外部記憶媒体からこのようなプログラムを提供することによって、本発明を実施することが可能である。
【0059】
その他、NTTDoCoMo(登録商標)などが提供する、携帯電話向けIアプリサービスなどを利用することによって、携帯電話に本発明にかかるゲームプログラムを内蔵させ、カメラ内蔵型携帯電話を利用して、本発明を実施しても良い。勿論、最初から固定的にゲームプログラムを内蔵して、本発明を機能の一つとして持たせておくことも考えられる。更に、パーソナルコンピュータにインタフェースを介してデジタルカメラを含む撮像装置を接続し、パーソナルコンピュータ上で本発明にかかるゲームプログラムを実行することにより、同様の機能を持たせる事も可能であろう。
【図面の簡単な説明】
【図1】この発明にかかるゲーム装置の概観図である。
【図2】この発明にかかるゲーム装置の内部ブロック図である。
【図3】ゲーム装置本体10のWRAMのメモリマップである。
【図4】この発明にかかるゲーム装置においてアイテムを入手するときの概略図である。
【図5】第1の実施形態により、撮像データからアイテムを入手するときの概略図である。
【図6】第2の実施形態により、撮像データからアイテムを入手するときの概略図である。
【図7】撮像データからアイテムを入手するゲームのメイン処理のフローチャートである。
【図8】第1の実施形態に係るアイテム入手処理のフローチャートである。
【図9】第2の実施形態に係るアイテム入手処理のフローチャートである。
【符号の説明】
10…ゲーム装置本体
13…操作スイッチ
15…スピーカ
20…カメラカートリッジ
22…撮像ユニット
32…WRAM
11…VRAM
[0001]
BACKGROUND OF THE INVENTION
The present invention relates to a game device and a game program for obtaining an item based on imaging data, and in particular, for example, when a player takes a variety of images in real time using a portable game device equipped with a digital camera. The present invention relates to a game device and a game program for obtaining an item based on imaging data so that an item corresponding to the feature is obtained when the image data includes a predetermined feature.
[0002]
[Prior art]
As the player progresses through the game, there is known a game that obtains a predetermined privilege called an item, such as a role playing game or an adventure game. At this time, the player can advantageously advance the game by obtaining items, or can advance the game scenario by collecting specific items.
On the other hand, Patent Document 1 (Japanese Patent No. 2928829) discloses a game device that plays based on image data. That is, a game device is disclosed in which after shooting two image data, the image data is compared, and the images are compared to give a superiority or inferiority to determine which image is stronger, in order to decide the victory or defeat.
[Patent Document 1]
Japanese Patent No. 2928829
[0003]
[Problems to be solved by the invention]
However, in general role-playing games, adventure games, and the like, in order for a player to obtain an item, for example, information is obtained from a non-player character or the like in a virtual game space being played, and in a virtual game space. It was common to find out. For this reason, no matter which role-playing game or adventure game is played, the conditions for satisfying a predetermined condition are the same, and the player is bored with the role-playing game or the adventure game itself. There was a need to propose a game.
On the other hand, since the game device described in Patent Document 1 only obtains image data and decides the winning or losing of the image data, even if it is image data that has been obtained with difficulty, it loses depending on the conditions for deciding the winning or losing. In some cases, the interest in obtaining image data for game play tends to fade.
[0004]
Therefore, a main object of the present invention is to provide a game apparatus incorporating a new item acquisition method in game play.
Another object of the present invention is to provide a game device that enhances the interest of the player for item acquisition by reflecting the shooting of the subject by the player in the item acquisition.
Another object of the present invention is to provide a game device including a method for obtaining an item that is more interesting by providing a possibility that an unexpected item can be obtained as a result of the imaging operation of the player. is there.
[0005]
[Means for Solving the Problems]
In order to achieve the above object, according to the first invention (the invention according to claim 1 if the correspondence with the claims is shown), the game device according to the present invention at least captures the image of the subject as an electronic device. Imaging means (22) capable of taking an image, imaging data storage means (43) for temporarily storing an image taken by the imaging means, and display means (12) for displaying an image temporarily stored in the imaging data storage means Real-time image display control means (31, 32, 33), item data storage means (44), item acquisition condition storage means (45), feature extraction means (31, 32, 41b), and feature data storage Means (46) and comparison means (31, 32, 41c) are provided.
[0006]
The real-time image display control means displays the image picked up by the image pickup means on the display means in real time. The item data storage means stores item data including at least one item to be collected by the player during the game play and including data specifying at least an image of the item. The item acquisition condition storage means stores an item acquisition condition set for each item. The feature extraction unit extracts predetermined feature data from the image data temporarily stored in the imaging data storage unit. The feature data storage means temporarily stores the data extracted by the feature extraction means. The comparison unit compares the item acquisition condition stored in the item acquisition condition storage unit with the feature data stored in the feature data storage unit. The real-time image display control means uses the item image specified by the item data specified by the item acquisition condition as the image data display means when the comparison means detects that the item acquisition condition matches. Display.
[0007]
According to another embodiment of the present invention (the invention described in claim 2), the real-time image display control means displays a feature extraction range display means (showing a range of images from which feature data is extracted) on the image data display means. 31, 32, 41f)
[0008]
According to a further embodiment of the present invention (the invention described in claim 3), the feature extraction means extracts at least one color data included in the image stored in the imaging data storage means.
[0009]
According to another embodiment of the present invention (the invention according to claim 4), the feature extraction means extracts a plurality of images extracted corresponding to the passage of time for each of a plurality of images taken in real time by the imaging means. Between the feature data buffer (46) for temporarily storing the feature data and at least the most recently extracted feature data among the plurality of feature data stored in the feature data buffer and the feature data extracted before that Includes means (31, 32, 41b) for determining the amount of change in. Then, the comparison means compares the item acquisition conditions stored in the item acquisition condition storage means with the amount of change.
[0010]
According to another embodiment of the present invention (the invention described in claim 5), the game apparatus includes a sound data storage means storing a plurality of sound data, a sound output means (35, 15), and an operation by a player. And an operation means (13) for performing input. On the other hand, the feature extraction unit reads the first sound from the sound data storage unit at a predetermined interval, outputs the first sound from the sound output unit, and extracts the second sound when the item data acquisition condition satisfying the predetermined relationship is extracted. Read from the sound data storage means and output from the sound output means. Then, the feature extraction means displays the image of the item specified by the item data in response to a predetermined operation input from the operation means within a predetermined time after reading the second sound. Display on means.
[0011]
【The invention's effect】
According to the first aspect of the present invention, while the image being photographed is displayed on the display screen in real time, the feature of the image matches the item acquisition condition, and the corresponding item is displayed. Therefore, a new item acquisition method can be provided, and the player can acquire items while having fun.
According to the second aspect of the present invention, when a display is made on the display screen for guiding which part of the screen is used for feature extraction, the player can try to obtain the item by, for example, placing the guide on the subject. , Making it possible to provide more interesting methods.
According to the third aspect of the present invention, since color data is used for feature extraction, a predetermined relationship can be created between the color data and the obtained item depending on how to create a game program, which further enhances interest. A game device using the item obtaining method can be provided.
[0012]
According to the fourth aspect of the present invention, the image change is used for feature extraction. For example, by using the color change for feature extraction, it is possible to prompt the player to shoot various images. This allows the player to play the game using a more interesting item acquisition method.
According to the fifth aspect of the present invention, in real-time image shooting, for example, the player is prompted to shoot various subjects while outputting a sound such as sonar, and features matching the item acquisition conditions are extracted from the image. Sometimes it outputs a sonar reflection. At that time, by displaying the corresponding item on the display screen when a predetermined operation, such as pressing an operation switch, is performed, it is possible to produce an effect as if the item was captured from the subject being shot. A game device having an item obtaining method can be provided.
[0013]
【Example】
(First embodiment)
FIG. 1 is an external view of a game apparatus according to an embodiment of the present invention. The game device includes a game device body 10 and a camera cartridge 20. The game apparatus body 10 is a portable game machine of a size that can be grasped by both hands, and various types can be obtained by replacing a cartridge such as a removable external storage medium (the camera cartridge 20 having an imaging function in the present invention). You can enjoy the game. The game apparatus 10 includes a horizontally long housing 11. On one main surface (front surface) of the housing 11, a liquid crystal display 12 as an example of a display unit is provided at substantially the center thereof, and operation switches 13 are provided as operation units on the left and right sides of the liquid crystal display 12.
The camera cartridge 20 includes a housing 21 that can be attached to and detached from the game apparatus main body 10 via a connector 14 provided on the back surface of the housing 11, and an imaging unit 22. Then, the camera cartridge 20 is inserted into the game apparatus main body 10 and connected via the connector 14, thereby causing the game apparatus main body 10 to function as a game apparatus having an imaging function.
[0014]
The operation switch 13a of the game apparatus body 10 includes, for example, a direction switch 13a, an operation switch 13b, a start / select button 13c, an L button 13d provided at the left corner of the housing, and an R button 13e provided at the right corner of the housing. Including. The direction switch 13a is used for instructing the moving direction of the character, for example, when operating a character (not shown) in the game. The action switch 13b is used, for example, for instructing the action of the character (for example, jumping, etc.). The L button 13d is used as a shutter button of the camera. The R button 13e is used for other shooting operations (shooting cancellation, etc.). The start / select button 13c is used to start a game play or interrupt a game operation. The game content processed by the game apparatus 10 and the image data taken by the camera are displayed on the liquid crystal screen 12, and the player operates the various operation switches 13 as described above to display them on the liquid crystal screen 12. You can enjoy game images and captured images taken with a camera.
Further, the game apparatus main body 10 is provided with a connector 16 on the upper side as necessary, and a speaker 15 is built in the sound release hole. The connector 16 is connected to another game apparatus main body 10 ′ to enjoy a communication game, or data stored in the game apparatus main body 10 processed by the game apparatus 10 or data photographed by a camera is stored in the other game apparatus main body 10 ′. Used to send and receive.
[0015]
FIG. 2 is a block diagram of the game apparatus in a state where the game apparatus main body 10 and the camera cartridge 20 are connected. The game apparatus body 10 incorporates a CPU 31. The CPU 31 performs game processing and shooting processing according to the program stored in the program ROM 23 built in the camera cartridge 20. A working RAM (hereinafter abbreviated as “WRAM”) 32, an image processing unit 33, a sound unit 35, and an input / output interface (hereinafter abbreviated as “I / O”) 36 are connected to the CPU 31.
[0016]
The WRAM 32 loads data required by the CPU 31 for game processing, and stores data generated during the game processing in an update manner. A display RAM (hereinafter abbreviated as “VRAM”) 34 is connected to the image processing unit 33. The VRAM 34 temporarily stores image data used for display. Data stored in the VRAM 34 is displayed on a liquid crystal display unit (hereinafter abbreviated as “LCD”) 12 via an LCD driver 37. The sound unit 35 converts sound data generated in connection with the game processing of the CPU 31 into an analog signal and outputs it from the speaker 15 as game music or sound effects.
[0017]
The I / O 36 connects the operation switch 13, the camera cartridge 20, another game apparatus 10 ′ and the CPU 31. The CPU 31 receives data from the operation switch 13 via the I / O 36 and uses it for program processing. Further, the CPU 31 controls the camera cartridge 20 via the I / O 36. Further, the CPU 31 transmits / receives data to / from another game apparatus 10 ′ via the connector 16 connected to the I / O 36.
[0018]
The camera cartridge 20 includes an imaging unit 22, a program ROM 23, and a backup memory 24 inside a housing 21. The imaging unit 22 includes an electronic photosensitive element such as a CMOS sensor or a CCD as an imaging element, and outputs the light information (color information, luminance information, etc.) that has been exposed as digital data. The program ROM 23 permanently stores a program for causing the game apparatus body 10 to function as a game apparatus that obtains an item using an imaging function. The backup memory 24 is a readable / writable memory for storing the progress of the game or image data taken by the imaging unit 22, and a RAM or a flash memory is used.
[0019]
A cartridge input / output interface (hereinafter abbreviated as “cartridge I / O”) 25 is connected to the CPU 31 via the connector 14 and the I / O 36. Thereby, the CPU 31 can access the imaging unit 22, the program ROM 23 and the backup memory 24 via the cartridge I / O 25 to control the camera cartridge 20 or transmit / receive data to / from the camera cartridge 20. Note that the imaging unit 22, the program ROM 23, and the backup memory 24 may be built in the game apparatus 10.
[0020]
In this way, by mounting the camera cartridge 20 on the portable game apparatus main body 10 in which the LCD 12 is integrally formed, the photographed image can be displayed on the immediate display screen (LCD 12), and the player actually It is possible to provide a very interesting game play environment because it is possible to play a game while acting. In addition, the game apparatus body 10 has been described with the LCD 12 integrally formed, but a stationary video game machine connected to a home television receiver (CRT) may have an equivalent function. In that case, if the operation switch 13 and the game apparatus 10 are stationary video game machines, they may be provided in a game machine controller separated from the video game machine instead of being integrally formed in the housing 11. Good.
[0021]
FIG. 3 is a memory map 40 of the WRAM 34 when the game apparatus main body 10 functions as a game apparatus having an imaging function according to the present invention. The memory map 40 is roughly divided into a program storage area 41 and a data storage area 42. The program storage area 41 is executed by the CPU 31 and stores various programs that cause the game apparatus body 10 to function as the game apparatus according to the present invention. The data storage area 42 stores various data used by the program stored in the program storage area 41. The data storage area 42 is also an area for temporarily storing data generated as a result of the program processing.
[0022]
The memory map 40 is a memory map of the WRAM 34. For example, when the ROM 23 storing the fixed program can be directly connected to the CPU 31 as in the game device according to the present invention, the memory map 40 is stored in the WRAM 32. There is no need to transfer and hold programs and data. In this case, part of the program storage area 41 and the data storage area 42 can be fixedly formed in the ROM 23, so that the CPU 31 can directly access the ROM 23. However, when such a form is adopted, since writing to the ROM 23 is impossible, read-only data is formed and stored.
[0023]
The program storage area 41 includes a main program storage area 41a, a feature extraction program storage area 41b, an item acquisition condition comparison program storage area 41c, an item data update program storage area 41d, an image composition program storage area 41e, a guide display program storage area 41f, A sound output program storage area 41g is included.
[0024]
The main program storage area 41a is a program that is executed by the CPU 31 and causes it to function as a game device having an imaging function according to the present invention. The main program storage area 41a is a game program such as an operation of the operation switch 13 by a player or a display of a game character. It is a program that performs general processing.
[0025]
The feature extraction program storage area 41b stores the feature (color, luminance, or predetermined) of the image data in order to obtain the game item according to the present invention from the image data input by the imaging unit 22 provided in the camera cartridge 20. This is a memory area that stores a feature extraction program for extracting the color content ratio, the degree of change in image data, and the like.
Here, the item is a collective term for characters such as weapons, tools, or special monsters that the player acquires during game play when the game proceeds.
[0026]
The item acquisition condition comparison program storage area 41c stores an item acquisition condition comparison program that compares and evaluates whether or not the features of the image data extracted from the feature extraction program match a predetermined item acquisition condition. Memory area.
The item data update program storage area 41d updates the item data when the item acquisition condition comparison program finds that the predetermined item acquisition conditions are met, for example, the item has already been acquired. This is a memory area that stores an item data update program for updating data indicating whether there is any item available.
The item image display program storage area 41e is an item for displaying an item on the display screen (LCD 12) when the item obtaining condition comparison program determines that there is an item that matches the feature extracted from the feature extraction program. This is a memory area that stores an image display program.
[0027]
The guide display program storage area 41f stores a guide display program for displaying a range of images used for feature extraction to the player when the player uses the imaging unit 22 to photograph the subject. For example, the guide display 53 in FIG. 4 prompts the player to fit the subject whose feature is to be extracted within the circular display.
The sound output program storage area 41g outputs a sonar sound to create an atmosphere as if the player is looking for something when the subject is shooting a subject, and an image that matches the item acquisition conditions is displayed. When the image is taken, a reflected sound is output. Thus, as with the guide display, the player is encouraged to effectively take an image. In addition, operation sounds and sound effects used during the game are output.
[0028]
The data storage area 42 includes an imaging data buffer area 43, an item data storage area 44, item acquisition condition data 45, an extracted data buffer area 46, an image data storage area 47, and a game sound data storage area 48.
[0029]
The imaging data buffer storage area 43 is an area for temporarily storing image data electronically captured from the imaging unit 22. The CPU 31 can display an image temporarily stored on the LCD 12 via the image processing unit 33 every time image data is captured. By doing so, an image photographed by the imaging unit 22 can be displayed on the LCD 12 in real time.
The item data storage area 44 is an area in which various items relating to items acquired using the imaging unit 22 are stored individually for each item. For example, a data storage area 44a for item A and a data storage area 44b for item B are included. Furthermore, the storage area for each item includes a plurality of data storage areas.
For example, the data storage area 44a for the item A includes an image designation data storage area 44a1, an acquired confirmation flag storage area 44a2, and an attribute data 44a3 storage area for the item A. The image designation data storage area 44a1 stores data for designating a storage area in which the image of the item A is stored. The CPU 31 and the image processing unit 33 display the image of the item A on the LCD 12 according to the designated data.
[0030]
The obtained confirmation flag storage area 44a2 stores flag data for confirming whether or not the item A has been obtained. For example, if the item A can be obtained only once, the flag data is checked so that the item A is never obtained when it is already obtained. In the case of an item that can be obtained in a limited number, by checking the flag data, data (not shown) for checking the remaining available number can be updated to manage the obtained number.
[0031]
The attribute data storage area 44a3 stores data indicating the attribute of the item A. For example, data indicating attributes such as preference for light is stored. In this way, when obtaining an item while the game is in progress, if the player obtains information that there seems to be a monster who likes light, the player can shoot various subjects that emit light using the imaging unit 22. I will. On the other hand, after the item A is obtained, the enemy character can be easily defeated when the item A is used against an enemy character that dislikes light while making use of the attribute that prefers light during the game. It is possible to incorporate such devices as in the game.
[0032]
The item acquisition condition data storage area 45 is an area in which acquisition condition data for each individual item is stored. For example, an acquisition condition data storage area 45a for item A and an acquisition condition data storage area 45b for item B are included. As described above, if the item A is a monster who likes light, the acquisition condition data storage area 45a of the item A specifies that the luminance of the image photographed by the imaging unit 22 is equal to or higher than a predetermined value. Data representing conditions is stored.
[0033]
The extracted data buffer area 46 is an area in which the feature extraction program extracts image features from the image data captured from the imaging unit 22 and temporarily stores the extracted data. As described above, when shooting is possible in real time, a buffer structure having a plurality of stages may be provided so that a plurality of feature data can be temporarily stored.
[0034]
The image data storage area 47 is an area for storing image data such as an item image obtained by the player during the game and a character image used in the game. The image data storage area 47a of item A, the image data storage area 47b of item B, and the guide image data 47z used by the programs stored in the guide display program storage area 41f are included.
[0035]
The game sound data storage area 48 uses the imaging unit 22 to check the video displayed on the LCD 12 in real time while using the imaging unit 22, and the sound generated when the game apparatus 10 is operated, Stores sound data used in the game. Then, a search sound data storage area 48a that is always generated while the player is shooting, and a reflected sound data storage area 48b that is generated when the item extraction condition is met by the feature extraction program. Etc.
[0036]
FIG. 4 is a schematic diagram when the player 52 tries to acquire an item by photographing the subject 51. The player 52 shoots the game apparatus body 10 connected to the camera cartridge 20 toward a subject including the tree 51a and the bench 51b. At this time, the player 52 is going to select and photograph the tree 51a as a subject. As shown in the lower part of FIG. 4, a guide display 53 is displayed on the display screen, and the player operates the game apparatus main body 10 so that the tree 51a that is the subject is captured inside. Further, since the sound stored in the search sound data storage area 48a is reproduced and output from the speaker 15, the player can experience as if searching for the subject through the camera. Then, when the sound reproduced from the speaker 15 changes to reflected sound, the image being photographed matches some item acquisition conditions, so the player performs an operation to release the shutter, for example, by pressing 13d.
[0037]
FIG. 5 is a diagram showing an outline of the processing until the subject 51 is captured and the item 54 is acquired in the first embodiment. The imaging data buffer 43 includes, for example, a red component data storage area 43a, a green component data storage area 43b, a blue component 43c data storage area 43c, and a luminance component data storage area 43d of a captured image. At this time, if the player has photographed the subject 51a so as to fit within the guide display 53, the red component data storage area 43a contains R1 as red component data of the photographed image, and the green component data storage area 43b contains G1 as green component data. The blue component 43c data storage area 43c temporarily stores B1 as blue component data, and the luminance component data storage area 43d temporarily stores Y1 as luminance component data.
[0038]
On the other hand, it is assumed that the item acquisition condition storage area 45 stores (R1, G1, B1, Y1) as the item A acquisition conditions and (R2, G2, B2, Y2) as the item B acquisition conditions. At this time, the item acquisition conditions are compared, and it is determined that they match the image data (R1, G1, B1, Y1) temporarily stored in the imaging data buffer 43 described above.
[0039]
After the item A acquisition condition is met, the data storage area 44a for the item A in the item data storage area 44 is referred to. Then, the image designation data 44 a 1 is read, and the image data of the item A is designated from the corresponding image data storage area 47. As a result, the monster 54 is displayed as the item A on the LCD 12.
[0040]
The above is the outline of the first embodiment. Next, the program processing will be described in detail. FIG. 6 is a flowchart 60 of the main process of the game according to the present invention.
When the player starts the game in step 11, the game play process in step 12 is performed. The game play process is a general term for general processes in a game including an operation input of the operation means 13 by a player and a display of characters on the LCD 12.
[0041]
In step 13, it is determined whether or not an item using the imaging unit 22 is to be obtained. When it is determined that the player obtains an item from the camera, the process proceeds to the next step 14 where an item obtaining process is performed. The item acquisition process will be described in detail in the description of FIG.
[0042]
After the item acquisition process is performed, the process proceeds to step 15 to determine whether or not the item acquisition process is further performed. If it is determined that further item acquisition processing is to be performed, the process returns to step 14 to continue the item acquisition processing. If not, and if it is determined in step 13 that no item is obtained from the camera, the process proceeds to step 16 to determine whether or not to end the game. If it is determined not to end the game, the process returns to step 12, the game process is continued, and the item acquisition process is repeated. Otherwise, the process proceeds to step 17 to end a series of game processes.
[0043]
FIG. 7 is a flowchart 61 showing the item acquisition process in the first embodiment. If it is determined in step 14 of the flowchart 60 that the item acquisition process is to be performed, the item acquisition process is started from step 21. First, in step 22, an image is captured from the imaging unit 22 into the WRAM 32. Thereafter, in step 23, the search sound is read from the sound data storage area 48 and played. Subsequently, in step 24, the image taken into the WRAM is displayed on the LCD 12. The timing for sounding the search sound is not limited to step 23, and there is no problem regardless of the timing at which the sound is sounded when the process of fetching the image into the WRAM is being performed.
[0044]
After the image is displayed on the LCD 12, feature data is extracted from the image data captured in the WRAM 32 in step 25. In accordance with the contents described above, the red component data, green component data, blue component data, and luminance component data of the captured image are extracted and stored in the extracted data buffer area 46. Next, the process proceeds to step 26 where the extracted feature data is compared with the data stored in the item acquisition condition data storage area 46. In the following step 27, if the extracted feature data does not match the item acquisition conditions, the process returns to step 22 to capture the image from the camera again and display it on the LCD 12. Since the processing from step 22 to step 27 is relatively short, the player will feel as if the image captured from the imaging unit 22 is displayed on the LCD 12 in real time. This effect also allows the player to identify and shoot the subject while viewing the image on the LCD 12 without providing a special finder.
[0045]
In step 27, when the extracted feature data matches the item acquisition conditions, in step 28, the fact that they match is notified by sound. That is, the reflected sound data 48 b is read from the sound data storage area 48 and output from the speaker 15. Thereafter, the process proceeds to step 29, in which the player listens to the sound and determines whether or not an operation input, for example, the operation switch 13d that looks like a shutter button is pressed within a predetermined time. If no operation input is made within a predetermined time, the process returns to step 22 to newly capture an image from the camera. If there is an operation input, the corresponding item data is referenced from the matching item acquisition conditions, and an image of the designated item is displayed on the LCD 12.
[0046]
Thereafter, in step 31, the acquired confirmation flag area (44a2 in the case of item A described above) of the item on which the image is displayed is updated, for example, the number of acquisitions is reduced or the setting is made such that it cannot be obtained again. Keep going. Then, the process proceeds to step 32 to determine whether or not to continue the item acquisition process. If it is continued, the process returns to step 22 to capture an image from the camera again. Otherwise, the process returns to the flowchart 60 of FIG. 6 to continue the game process.
[0047]
(Second Embodiment)
The above is the detailed description of the first embodiment, and then the second embodiment will be described. However, as for the second embodiment, FIG. 1 as an overview of its hardware, FIG. 2 as its internal block diagram, FIG. 3 as a memory map, FIG. 4 as a schematic diagram for obtaining items, and a flowchart of the main process of the game Since FIG. 6 is applicable, these portions are the same as those in the first embodiment, and the description thereof is omitted.
[0048]
FIG. 8 is a diagram illustrating an outline of processing until the subject 51 is captured and the item 54 is acquired in the second embodiment. The imaging data buffer 43 includes, for example, a red component data storage area 43a, a green component data storage area 43b, a blue component 43c data storage area 43c, a luminance component data storage area 43d of the first captured image, and a second captured image. It is assumed that a red component data storage area 43a ′, a green component data storage area 43b ′, a blue component data storage area 43c ′, and a luminance component data storage area 43d ′ are included. At this time, if the player first shoots the subject 51a so that the player fits in the guide display 53, the red component data storage area 43a stores red component data of the captured image R1, and the green component data storage area 43b stores green component data. G1, blue component 43c data storage area 43c temporarily stores B1 as blue component data, and luminance component data storage area 43d temporarily stores Y1 as luminance component data. Next, assuming that the subject 51b is photographed, the red component data storage area 43a ′ has R2 as the red component data of the photographed image, the green component data storage area 43b ′ has the green component data G2, and the blue component data storage area 43c ′. B2 as blue component data, and Y2 as luminance component data is temporarily stored in the luminance component data storage area 43d ′.
[0049]
Here, the difference (Ra, Ga, Ba, Ya) is determined for each of the image data of the first captured image and the second captured image. (Ra, Ga, Ba, Ya) is, for example,
(Ra, Ga, Ba, Ya) = | (R1, G1, B1, Y1) − (R2, G2, B2, Y2) | (1)
As shown in FIG. Expression (1) is an expression for obtaining the absolute value of the difference between the image data of the first captured image and the second captured image.
[0050]
On the other hand, it is assumed that (Ra, Ga, Ba, Ya) is stored in the item acquisition condition storage area 45 as the acquisition condition of the item A. At this time, the item acquisition conditions are compared, and matches the difference (Ra, Ga, Ba, Ya) between the first image data and the second image data temporarily stored in the imaging data buffer 43 described above. It is judged that
[0051]
After the item A acquisition condition is met, the data storage area 44a for the item A in the item data storage area 44 is referred to. Then, the image designation data 44 a 1 is read, and the image data of the item A is designated from the corresponding image data storage area 47. As a result, the monster 54 is displayed as the item A on the LCD 12.
[0052]
In the flowchart 60, when the process proceeds to the item acquisition process in step 14, the process proceeds to the flowchart 62 in FIG. 9 in the second embodiment. When proceeding to the item obtaining process in step 21, first, in step 41, a counter (not shown) for determining how many images are to be captured is set (N = 1). Since the processing from step 22 to step 24 is the same as that in the flowchart 61, description thereof is omitted.
[0053]
In step 42, feature data is extracted from the image data captured by the WRAM 32 and indicated by the counter value. In accordance with the contents described above, the red component data, green component data, blue component data, and luminance component data of the captured image are extracted and stored in the extracted data buffer area 46. Subsequently, in step 43, it is confirmed whether or not the counter has reached the required number (N = Nmax) in order to confirm whether or not the images used for feature data extraction have been prepared. If not, the process proceeds to step 44 and increments the counter. Then, the process returns to step 22 to capture a new image. Since the processing from step 22 to step 44 is relatively short, the player will feel as if the image captured from the imaging unit 22 is displayed on the LCD 12 in real time. This effect also allows the player to identify and shoot the subject while viewing the image on the LCD 12 without providing a special finder.
[0054]
When the necessary number of images are prepared, the process proceeds to step 45 to calculate feature data. In the above description, Nmax = 2, and the feature data is calculated by obtaining the difference between the two pieces of image data. Next, the process proceeds to step 26 where the extracted feature data is compared with the data stored in the item acquisition condition data storage area 46. In the subsequent step 46, if the extracted feature data does not match the item acquisition conditions, the process returns to step 41, the counter is reset, the image is again taken from the camera, and displayed on the LCD 12. Since the processing from step 41 to step 46 is relatively short, the player will feel as if the image captured from the imaging unit 22 is displayed on the LCD 12 in real time. This effect also allows the player to identify and shoot the subject while viewing the image on the LCD 12 without providing a special finder.
[0055]
In step 46, when the extracted feature data matches the item acquisition condition, it is notified in step 28 by sound. That is, the reflected sound data 48 b is read from the sound data storage area 48 and output from the speaker 15. Thereafter, the process proceeds to step 47, where the player listens to the sound and determines whether or not an operation input, for example, the operation switch 13d that looks like a shutter button is pressed within a predetermined time. If no operation input is made within a predetermined time, the process returns to step 41, and a new counter is reset to capture an image from the camera. If there is an operation input, the corresponding item data is referenced from the matching item acquisition conditions, and an image of the designated item is displayed on the LCD 12.
[0056]
Thereafter, in step 31, the acquired confirmation flag area (44a2 in the case of item A described above) of the item on which the image is displayed is updated, for example, the number of acquisitions is reduced or the setting is made such that it cannot be obtained again. Keep going. Then, the process proceeds to step 48 to determine whether or not to continue the item acquisition process. If so, the process returns to step 41, the counter is reset, and an image is captured again from the camera. Otherwise, the process returns to the flowchart 60 of FIG. 6 to continue the game process.
[0057]
Although the two embodiments have been described above, it goes without saying that other embodiments are also conceivable. For example, in feature extraction, the luminance data uses the difference between two images, and the red component, green component, and blue component data use the data of one image, so that the first and second embodiments are used. It is possible to combine forms.
[0058]
Furthermore, in the embodiment, a combination of the camera cartridge 20 and the game apparatus main body 10 is taken as an example. Of course, in the digital camera, a game program for obtaining an item from photographing a subject is fixedly incorporated, Alternatively, the present invention can be implemented by providing such a program from an external storage medium such as a flash memory card.
[0059]
In addition, by using the I-αppli service for mobile phones provided by NTT DoCoMo (registered trademark), the game program according to the present invention is built in the mobile phone, and the mobile phone with a built-in camera is used. May be implemented. Of course, it is also conceivable that a game program is built in from the beginning and the present invention is provided as one of the functions. Furthermore, by connecting an imaging device including a digital camera to a personal computer via an interface and executing the game program according to the present invention on the personal computer, it may be possible to have the same function.
[Brief description of the drawings]
FIG. 1 is an overview of a game device according to the present invention.
FIG. 2 is an internal block diagram of the game device according to the present invention.
FIG. 3 is a memory map of the WRAM of the game apparatus main body 10;
FIG. 4 is a schematic view when an item is obtained in the game device according to the present invention.
FIG. 5 is a schematic view when an item is obtained from imaging data according to the first embodiment.
FIG. 6 is a schematic view when an item is obtained from imaging data according to the second embodiment.
FIG. 7 is a flowchart of a main process of a game for obtaining items from imaging data.
FIG. 8 is a flowchart of an item acquisition process according to the first embodiment.
FIG. 9 is a flowchart of an item acquisition process according to the second embodiment.
[Explanation of symbols]
10 ... Game device body
13 ... Operation switch
15 ... Speaker
20 ... Camera cartridge
22: Imaging unit
32 ... WRAM
11 ... VRAM

Claims (10)

少なくとも、被写体の画像を電子的に撮影可能な撮像手段、
前記撮像手段が撮影した画像を一時記憶する撮像データ記憶手段、
前記撮像データ記憶手段が一時記憶している画像を表示する表示手段、
前記撮像手段が撮像した画像をリアルタイムに前記表示手段に表示させる、リアルタイム画像表示制御手段、
ゲームプレイ中にプレイヤに収集させる少なくとも一つのアイテムに関するデータであって、少なくともアイテムの画像を指定するデータを含むアイテムデータを記憶した、アイテムデータ記憶手段、
前記アイテムについて、個々のアイテムごとに設定されたアイテム入手条件を記憶した、アイテム入手条件記憶手段、
前記撮像データ記憶手段に一時記憶された画像データから、所定の特徴データを抽出する、特徴抽出手段、および
前記特徴抽出手段が抽出したデータを一時記憶する、特徴データ記憶手段、
前記アイテム入手条件記憶手段に記憶されているアイテム入手条件と、前記特徴データ記憶手段に記憶されている特徴データとを比較する、比較手段を備え、
前記画像データ表示制御手段が、前記比較手段によって、前記アイテム入手条件と一致することが検出されたことに応じて、アイテム入手条件によって指定されたアイテムデータによって特定されるアイテム画像を前記表示手段に表示させることを特徴とするゲーム装置。
At least imaging means capable of electronically capturing an image of a subject,
Imaging data storage means for temporarily storing images taken by the imaging means;
Display means for displaying an image temporarily stored in the imaging data storage means;
Real-time image display control means for causing the display means to display an image captured by the imaging means in real time;
Item data storage means for storing item data including data specifying at least an item image, which is data related to at least one item to be collected by the player during game play;
Item acquisition condition storage means for storing item acquisition conditions set for each item for the item,
Feature extraction means for extracting predetermined feature data from image data temporarily stored in the imaging data storage means; and feature data storage means for temporarily storing data extracted by the feature extraction means;
Comparing means for comparing the item acquisition conditions stored in the item acquisition condition storage means with the feature data stored in the feature data storage means,
In response to detecting that the image data display control means matches the item acquisition condition by the comparison means, an item image specified by the item data specified by the item acquisition condition is displayed on the display means. A game device characterized by being displayed.
前記画像データ表示制御手段は、特徴データを抽出する画像の範囲を示す特徴抽出範囲表示手段を含む、請求項1に記載のゲーム装置The game apparatus according to claim 1, wherein the image data display control unit includes a feature extraction range display unit that indicates a range of an image from which feature data is extracted. 前記特徴抽出手段は、特徴データとして、前記撮像データ記憶手段に記憶された画像に含まれる少なくとも一つの色データを抽出する、請求項1に記載のゲーム装置The game device according to claim 1, wherein the feature extraction unit extracts at least one color data included in an image stored in the imaging data storage unit as feature data. 前記特徴抽出手段は、
前記撮像手段によってリアルタイムに撮影された複数の画像各々について、時間経過に対応して抽出された、複数の特徴データを一時記憶する特徴データバッファと、
前記特徴データバッファに記憶された複数の特徴データのうち、少なくとも最も最近抽出された特徴データと、その前に抽出された特徴データとの間の変化量を求める手段とを含み、
前記比較手段は、前記アイテム入手条件記憶手段に記憶されているアイテム入手条件と、前記変化量とを比較する、請求項1に記載のゲーム装置。
The feature extraction means includes
A feature data buffer for temporarily storing a plurality of feature data extracted corresponding to the passage of time for each of a plurality of images photographed in real time by the imaging means;
Means for obtaining a change amount between at least the most recently extracted feature data and the previously extracted feature data among the plurality of feature data stored in the feature data buffer;
The game device according to claim 1, wherein the comparison unit compares an item acquisition condition stored in the item acquisition condition storage unit with the change amount.
前記ゲーム装置は、複数のサウンドデータを記憶したサウンドデータ記憶手段と、サウンド出力手段と、プレイヤによる操作入力を行わせるための操作手段とを更に備え、
前記特徴抽出手段は、
所定の間隔で前記サウンドデータ記憶手段から第1のサウンドを読み出して、前記サウンド出力手段から出力し、
所定の関係を満たすアイテムデータ入手条件を抽出したときに第2のサウンドを前記サウンドデータ記憶手段から読み出して、前記サウンド出力手段から出力し、
前記特徴抽出手段が、前記第2のサウンドを読み出したあと、所定の時間内に、操作手段から所定の操作入力がなされたことに応じて、前記画像データ表示制御手段は前記アイテムデータによって指定されたアイテムの画像を前記表示手段に表示させることを特徴とするゲーム装置。
The game apparatus further includes sound data storage means for storing a plurality of sound data, sound output means, and operation means for performing operation input by a player,
The feature extraction means includes
Read the first sound from the sound data storage means at a predetermined interval, output from the sound output means,
When the item data acquisition conditions satisfying a predetermined relationship are extracted, the second sound is read from the sound data storage means and output from the sound output means,
The image data display control means is designated by the item data in response to a predetermined operation input from the operation means within a predetermined time after the feature extraction means reads the second sound. An image of an item displayed on the display means.
少なくとも、被写体の画像を電子的に撮影可能な撮像手段と、撮像手段が撮影した画像を一時記憶する撮像データ記憶手段と、撮像データ記憶手段が一時記憶している画像を表示する表示手段とを備えたゲーム装置において、実行されるゲームプログラムであって、
前記ゲーム装置は、
ゲームプレイ中にプレイヤに収集させる少なくとも一つのアイテムに関するデータであって、少なくともアイテムの画像を指定するデータを含むアイテムデータを記憶した、アイテムデータ記憶手段、
前記アイテムについて、個々のアイテムごとに設定されたアイテム入手条件を記憶した、アイテム入手条件記憶手段、を更に備え、
前記ゲームプログラムは、ゲーム装置のコンピュータに、
撮像手段が撮像した画像をリアルタイムに前記表示手段に表示する、リアルタイム画像表示制御ステップと、
撮像データ記憶手段に一時記憶された画像データから、所定の特徴データを抽出する、特徴抽出ステップと、
前記特徴抽出ステップが抽出したデータを一時記憶する、特徴データ記憶ステップと、
アイテム入手条件記憶手段に記憶されたアイテム入手条件と、前記特徴データ記憶手段に記憶された特徴データとを比較する、比較ステップを含み、
前記リアルタイム画像表示制御ステップが、前記アイテム入手条件と一致することが、前記比較ステップによって検出されたことに応じて、アイテム入手条件によって指定されたアイテムデータによって特定されるアイテム画像を前記画像データ表示手段に表示させる、ゲームプログラム。
At least imaging means capable of electronically taking an image of a subject, imaging data storage means for temporarily storing an image taken by the imaging means, and display means for displaying an image temporarily stored in the imaging data storage means A game program to be executed in the game device provided,
The game device includes:
Item data storage means for storing item data including data specifying at least an item image, which is data related to at least one item to be collected by the player during game play;
The item acquisition condition storage means for storing the item acquisition condition set for each item for the item,
The game program is stored in a computer of a game device.
A real-time image display control step for displaying an image picked up by the image pickup means on the display means in real time;
A feature extraction step of extracting predetermined feature data from the image data temporarily stored in the imaging data storage means;
A feature data storage step for temporarily storing the data extracted by the feature extraction step;
A comparison step of comparing the item acquisition conditions stored in the item acquisition condition storage means with the feature data stored in the feature data storage means;
In response to the fact that the comparison step detects that the real-time image display control step matches the item acquisition condition, an item image specified by the item data specified by the item acquisition condition is displayed in the image data display. A game program to be displayed on the means.
前記リアルタイム画像表示制御ステップは、前記画像データ表示手段に、特徴データを抽出する画像の範囲を示す、特徴抽出範囲表示ステップを含む、請求項6に記載のゲームプログラム。The game program according to claim 6, wherein the real-time image display control step includes a feature extraction range display step that indicates a range of an image from which feature data is extracted to the image data display means. 前記特徴データは、前記撮像データ記憶手段に記憶された画像に含まれる、少なくとも一つの色データである、請求項6に記載のゲームプログラム。The game program according to claim 6, wherein the feature data is at least one color data included in an image stored in the imaging data storage unit. 前記ゲーム装置は、複数の特徴データを一時記憶する特徴データバッファを備え、
前記特徴抽出ステップは、
前記撮像手段によってリアルタイムに撮影された複数の画像各々について、時間経過に対応して抽出された、複数の特徴データを前記特徴データバッファに記憶するステップと、
前記特徴データバッファに記憶された複数の特徴データのうち、少なくとも最も最近抽出された特徴データと、その前に抽出された特徴データとの間の変化量を求めるステップとを含み、
前記比較ステップは、アイテム入手条件記憶手段に記憶されたアイテム入手条件と、前記変化量とを比較する請求項6に記載のゲーム装置。
The game device includes a feature data buffer for temporarily storing a plurality of feature data,
The feature extraction step includes
For each of a plurality of images photographed in real time by the imaging means, a plurality of feature data extracted corresponding to the passage of time is stored in the feature data buffer;
Obtaining a change amount between at least the most recently extracted feature data and the previously extracted feature data among the plurality of feature data stored in the feature data buffer;
The game device according to claim 6, wherein the comparison step compares an item acquisition condition stored in an item acquisition condition storage unit with the change amount.
前記ゲーム装置は、複数のサウンドデータを記憶したサウンドデータ記憶手段と、サウンド出力手段と、プレイヤによる操作入力を行わせるための操作手段とを更に備え、
前記特徴抽出ステップは、
所定の間隔で前記サウンドデータ記憶手段から第1のサウンドを読み出して、前記サウンド出力手段から出力するステップと、
所定の関係を満たすアイテムデータ入手条件を抽出したときに第2のサウンドを前記サウンドデータ記憶手段から読み出して、前記サウンド出力手段から出力するステップとを含み、
前記特徴抽出ステップが、前記第2のサウンドを読み出したあと、所定の時間内に、操作手段から所定の操作入力がなされたことに応じて、前記リアルタイム画像表示制御ステップが、前記アイテムデータによって指定されたアイテムの画像を前記画像データ表示手段に表示することを特徴とするゲームプログラム。
The game apparatus further includes sound data storage means for storing a plurality of sound data, sound output means, and operation means for performing operation input by a player,
The feature extraction step includes
Reading out the first sound from the sound data storage means at a predetermined interval and outputting from the sound output means;
Reading out the second sound from the sound data storage means when the item data acquisition conditions satisfying a predetermined relationship are extracted, and outputting from the sound output means,
The feature extraction step designates the real-time image display control step by the item data in response to a predetermined operation input from the operation means within a predetermined time after reading the second sound. An image of the item displayed is displayed on the image data display means.
JP2003130930A 2003-05-09 2003-05-09 Game apparatus designed to acquire item based on image data and game program therefor Pending JP2004329629A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2003130930A JP2004329629A (en) 2003-05-09 2003-05-09 Game apparatus designed to acquire item based on image data and game program therefor

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2003130930A JP2004329629A (en) 2003-05-09 2003-05-09 Game apparatus designed to acquire item based on image data and game program therefor

Publications (1)

Publication Number Publication Date
JP2004329629A true JP2004329629A (en) 2004-11-25

Family

ID=33506238

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003130930A Pending JP2004329629A (en) 2003-05-09 2003-05-09 Game apparatus designed to acquire item based on image data and game program therefor

Country Status (1)

Country Link
JP (1) JP2004329629A (en)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005034318A (en) * 2003-07-18 2005-02-10 Uizu:Kk Game using image information
JP2006314446A (en) * 2005-05-11 2006-11-24 Xing Inc Portable game device
JP2012065760A (en) * 2010-09-22 2012-04-05 Nintendo Co Ltd Display control program, display controller, display control system and display control method
JP2012145981A (en) * 2011-01-06 2012-08-02 Nintendo Co Ltd Image processing program, image processing apparatus, image processing system, and image processing method
JP2016087349A (en) * 2014-11-11 2016-05-23 株式会社コロプラ Game device, program, and method
JP2017121552A (en) * 2017-04-12 2017-07-13 株式会社スクウェア・エニックス Video game processing apparatus and video game processing program
JP6241775B1 (en) * 2017-04-25 2017-12-06 株式会社セガゲームス Game system and program
KR102027358B1 (en) * 2019-03-26 2019-11-04 넷마블엔투 주식회사 Method and apparatus for providing game service related to generating item
JP2020114278A (en) * 2019-01-17 2020-07-30 株式会社カプコン Game program and game system

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005034318A (en) * 2003-07-18 2005-02-10 Uizu:Kk Game using image information
JP2006314446A (en) * 2005-05-11 2006-11-24 Xing Inc Portable game device
JP2012065760A (en) * 2010-09-22 2012-04-05 Nintendo Co Ltd Display control program, display controller, display control system and display control method
US8884987B2 (en) 2010-09-22 2014-11-11 Nintendo Co., Ltd. Storage medium having stored thereon display control program, display control apparatus, display control system, and display control method for setting and controlling display of a virtual object using a real world image
JP2012145981A (en) * 2011-01-06 2012-08-02 Nintendo Co Ltd Image processing program, image processing apparatus, image processing system, and image processing method
JP2016087349A (en) * 2014-11-11 2016-05-23 株式会社コロプラ Game device, program, and method
JP2017121552A (en) * 2017-04-12 2017-07-13 株式会社スクウェア・エニックス Video game processing apparatus and video game processing program
JP6241775B1 (en) * 2017-04-25 2017-12-06 株式会社セガゲームス Game system and program
JP2018183360A (en) * 2017-04-25 2018-11-22 株式会社セガゲームス Game system and program
JP2020114278A (en) * 2019-01-17 2020-07-30 株式会社カプコン Game program and game system
KR102027358B1 (en) * 2019-03-26 2019-11-04 넷마블엔투 주식회사 Method and apparatus for providing game service related to generating item

Similar Documents

Publication Publication Date Title
TWI262812B (en) Control method for game device or computer and information storage medium
US6540606B1 (en) Portable information terminal, recording medium and program
US6585599B1 (en) Game system and computer readable storage medium with reduced waiting period between selection and start of action of player character
JP5622446B2 (en) GAME PROGRAM, GAME DEVICE, GAME CONTROL METHOD, AND GAME SYSTEM
US20060046803A1 (en) Method for generating game element from photographed image
US20070254739A1 (en) Game Device, Control Method of Computer, and Information Storage Medium
JP5457071B2 (en) GAME PROGRAM, GAME DEVICE, GAME SYSTEM, AND GAME CONTROL METHOD
JP6173666B2 (en) Program and game device
EP1985338A1 (en) Game device, game device control method, and information storage medium
JP2006326021A (en) Fighting video game apparatus, fighting management server, program, and recording medium
JP2007054171A (en) Game program, and game device
TWI302845B (en)
JP2004329629A (en) Game apparatus designed to acquire item based on image data and game program therefor
US8529348B2 (en) Game apparatus and storage medium storing game program
JP2006271657A (en) Program, information storage medium, and image pickup and display device
JP2005230056A (en) Game device and program
JP3256528B2 (en) GAME DEVICE AND INPUT DEVICE, GAME DEVICE CONTROL METHOD, AND RECORDING MEDIUM
JP5197074B2 (en) Multi-person gun game machine
JPH06165881A (en) Electronic game device and image processor
JPH0975545A (en) Game device
US9433864B2 (en) Computer device, control method of computer device, and storage medium
US20050219377A1 (en) Image processing apparatus with image sensing capability and storage medium storing an image processing program
JP3561632B2 (en) Video game console
JP3519281B2 (en) Image capturing device and information storage medium
JP3313226B2 (en) Punching game machine