JP4006949B2 - Image processing system, image processing apparatus, and imaging apparatus - Google Patents

Image processing system, image processing apparatus, and imaging apparatus Download PDF

Info

Publication number
JP4006949B2
JP4006949B2 JP2001039272A JP2001039272A JP4006949B2 JP 4006949 B2 JP4006949 B2 JP 4006949B2 JP 2001039272 A JP2001039272 A JP 2001039272A JP 2001039272 A JP2001039272 A JP 2001039272A JP 4006949 B2 JP4006949 B2 JP 4006949B2
Authority
JP
Japan
Prior art keywords
player
movement
hand
image
difference
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
JP2001039272A
Other languages
Japanese (ja)
Other versions
JP2001307124A5 (en
JP2001307124A (en
Inventor
卓也 松本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sega Corp
Original Assignee
Sega Corp
Sega Games Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sega Corp, Sega Games Co Ltd filed Critical Sega Corp
Priority to JP2001039272A priority Critical patent/JP4006949B2/en
Publication of JP2001307124A publication Critical patent/JP2001307124A/en
Publication of JP2001307124A5 publication Critical patent/JP2001307124A5/ja
Application granted granted Critical
Publication of JP4006949B2 publication Critical patent/JP4006949B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/10Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals
    • A63F2300/1087Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals comprising photodetecting means, e.g. a camera
    • A63F2300/1093Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals comprising photodetecting means, e.g. a camera using visible light
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/60Methods for processing data by generating or executing the game program
    • A63F2300/66Methods for processing data by generating or executing the game program for rendering three dimensional images
    • A63F2300/6692Methods for processing data by generating or executing the game program for rendering three dimensional images using special effects, generally involving post-processing, e.g. blooming

Landscapes

  • User Interface Of Digital Computer (AREA)
  • Image Analysis (AREA)
  • Processing Or Creating Images (AREA)
  • Image Processing (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Studio Devices (AREA)

Description

【0001】
【発明の属する技術分野】
本発明は、遊戯者の画像を撮像して、その撮像画像を利用する画像処理システムに関する。
【0002】
【従来の技術】
ゲームセンタ等に設置されるアーケードゲーム装置や家庭用のビデオゲーム装置には、近年多種多様な興趣溢れるゲームが開発され、娯楽として人気が非常に高いものがある。
【0003】
従来のゲーム装置に、遊戯者を撮像してその撮像画像を利用したものが知られている。例えば、プリントクラブのように、遊戯者の像を取り込んで背景と組み合わせて印刷して遊戯者に提供するものや、遊戯者の顔画像を取り込んで、それをゲームキャラクタの顔に貼り付けて独自なキャラクタを創出したりするものがある。
【0004】
また、従来のゲーム装置には、コントローラのような位置指示手段により表示画面上の位置を指示して、その指示位置に表示された色情報に基づいて、ゲームを制御したり、特定の移動体を発生したりするものがある。
【0005】
【発明が解決しようとする課題】
しかしながら、従来のゲーム装置では、遊戯者を撮像しても、その撮像画像の全部又は一部を画像として利用するにとどまっており、その撮像画像から特定の情報を得るものではなかった。
【0006】
本発明の目的は、遊戯者等の撮像画像から特定の情報を得て、その情報に基づいて画像表示を制御する画像処理システムを提供することにある。
【0007】
本発明の他の目的は、遊戯者の指示に関連して移動体をスムーズかつユニークに動かすことができる画像処理システムを提供することにある。
【0008】
本発明の更に他の目的は、遊戯者から操作入力をスムーズに行うことができる画像処理システムを提供することにある。
【0009】
【課題を解決するための手段】
本発明による画像処理システムは、遊戯者の画像を撮像する撮像手段と、前記撮像手段により撮像した画像データを複数フレーム分記憶する記憶手段と、前記記憶手段に記憶された画像データを表示画面上に順次表示する画像表示手段と、現在表示されている画像データと過去に表示された画像データとを比較して差分を得る差分算出手段とを有し、前記差分算出手段により算出された差分に基づいて、前記表示画面上に表示する移動体の挙動を決定することを特徴とする。
【0010】
また、本発明による画像処理システムは、遊戯者の画像を撮像する撮像手段と、前記撮像手段により撮像した画像データを複数フレーム分記憶する記憶手段と、前記記憶手段に記憶された画像データを表示画面上に順次表示する画像表示手段と、前記表示画面内の予め定められた領域における、現在表示されている画像データと過去に表示された画像データとを比較して所定の色成分の差分を得る差分算出手段とを有し、前記差分算出手段により算出された所定の色成分の差分が所定値以上であった場合に、前記遊戯者からの所定の操作入力があったと判断することを特徴とする。
【0011】
【発明の実施の形態】
[第1実施形態]
本発明の第1実施形態によるビデオゲーム装置について図1乃至図4を用いて説明する。図1は本実施形態のビデオゲーム装置の機能を示すブロック図であり、図2は本実施形態のビデオゲーム装置の遊戯方法の第1の具体例を示す説明図であり、図3は本実施形態のビデオゲーム装置の遊戯方法の第2の具体例を示す説明図であり、図4は本実施形態のビデオゲーム装置の遊戯方法の第3の具体例を示す説明図である。
【0012】
ゲーム装置200には、図1に示すように、ゲームプログラムの実行やシステム全体を制御するCPU202と、CPU202が処理を行うのに必要なプログラムやデータを格納するバッファメモリとして利用されるシステムメモリ(RAM)204とがバスラインにより共通接続され、バスアービタ210に接続されている。
【0013】
更に、ゲームプログラムやデータが格納されたプログラムデータ記憶装置又は記憶媒体206として、ゲーム用記録媒体であるCD−ROMを駆動するCD−ROMドライブと、ゲーム装置200を起動するためのプログラムやデータが格納されているBOOTROM208とがバスラインを介してバスアービタ210に接続されている。
【0014】
また、バスアービタ210を介して、描画ライブラリによって生成された描画コマンドに従ってレンダリングを行うレンダリングプロセッサ212と、そのレンダリングプロセッサ212により描画された画像信号が記録されるグラフィックメモリ214とが接続されている。グラフィックメモリ214に記録された画像データは、ビデオDAC(図示せず)によりデジタル信号からアナログ信号に変換され、ディスプレイモニタ216に表示される。
【0015】
また、バスアービタ210を介して、音声データを生成するオーディオプロセッサ218と、その生成した音声データを記録するオーディオメモリ220とが接続されている。オーディオメモリ220に記録された音声データは、オーディオDAC(図示せず)によりデジタル信号からアナログ信号に変換され、スピーカ222から音声出力される。
【0016】
また、バスアービタ210はインターフェースとしての機能も有し、モデム224を介して外部の通信回線と接続される。ゲーム装置200はモデム224を介して他のゲーム装置等との通信が可能となる。
【0017】
また、バスアービタ210にはゲーム装置200を操作するためのコントローラ226が接続される。コントローラ226には、例えば、メモリカード等により構成されたバックアップメモリ228が装着されている。
【0018】
また、遊戯者の画像や音声を入力するために、バスアービタ210には画像を撮影するための電子カメラ232が接続され、コントローラ226には音声を入力するためのマイク230が接続されている。
【0019】
本実施形態のビデオゲーム装置を用いた遊戯方法の第1の具体例を図2を用いて説明する。
【0020】
本具体例では、ゲーム装置200に接続された電子カメラ232をディスプレイモニタ216上に置き、遊戯者300は電子カメラ232の前に立って後述する様々な指示を行う。電子カメラ232により撮像された画像はディスプレイモニタ216に表示される。遊戯者300は自分の撮像画像を見ながら様々な動作を行う。
【0021】
本具体例では、電子カメラ232によりYUV方式で撮像する。YUV方式は、家庭用テレビ等であつかうデータフォーマットであって、輝度(Y)と、赤との色差(U)と、青との色差(V)との3つの情報で色を表現する方式である。例えば、Y成分だけで、画像を表示すると白黒画像となる。YUV方式で撮像された画像は圧縮されてシステムメモリ204に格納される。なお、ディスプレイの種類によってはRGB信号へ変換が必要である。
【0022】
遊戯者300は、ディスプレイ216に表示される画像を見ながら電子カメラ232に向かって様々な動作を行うので、違和感なく操作できるように、撮像された画像300′を反転して表示する。すなわち、図2に示すように、遊戯者300が左手を上げた場合には、ディスプレイ216に表示される遊戯者の像300′では右手が上がるように表示する。
【0023】
本具体例では、電子カメラ232により撮像された画像データは圧縮されてシステムメモリ204に順次記憶される。システムメモリ204に、現在表示されている画像データに加えて過去に表示された画像データとが記憶される。過去に表示された画像データとしては、例えば、現在表示されている画像データの1フレーム前の画像データであってもよいし、現在表示されている画像データの所定フレーム前の画像データであってもよい。また、過去の画像データは1フレーム分の画像データであってもよいし、2以上のフレーム分の画像データであってもよい。
【0024】
本具体例では、システムメモリ204に記憶された現在の画像データと過去の画像データとの差分を算出し、その差分データに基づいて様々な処理を行う。現在の画像データと過去の画像データについて、ピクセル毎にYUV方式における各色成分(輝度、赤、青)の差分を算出する。
【0025】
本具体例では、各色成分の差分データに基づいて移動体の制御を行う。これにより背景等の動かない画像データに影響しないようにする。例えば、人間の手には赤み成分が多いので、遊戯者300が手を動かすと、その動かした領域のみに大きな赤み成分の差分値が現れ、他の領域での赤み成分の差分値はほぼゼロとなる。
【0026】
そこで、本実施形態では、赤み成分の差分値が所定値以上になると、例えば、蛙を模した移動体302を自動的に発生する。赤み成分の差分値が所定値以上の領域に無数の泡303を表示し、発生した移動体302は赤み成分の差分値が最大値の部分に追随して移動する。これにより遊戯者が手を動かすと、その領域全体に泡303が現れ、移動体303の蛙が泡303の中を泳ぐように追随して表示される。なお、赤み成分の差分値が所定値以上の領域に泡以外のもの、例えば、ハートマークや炎等を表示して特殊な効果を出すようにしてもよい。
【0027】
移動体302の発生、追随、消滅のアルゴリズムは、後述する本発明の第2実施形態における虫移動描画処理(図14乃至図24)のアルゴリズムと基本的に同じである。第2実施形態の虫移動描画処理では画像の色データそのものを用いて虫等の移動体の描画制御を行ったが、本実施形態では色成分の差分データを用いている点が異なる。
【0028】
移動体302を、赤み成分の差分データにより発生し、差分データの最大値のピクセルに追随するように描画すると、人間の手には赤み成分が多いので、遊戯者300が手を振るとそれに自然に移動体302が追随するように表示され、あたかも移動体302が遊戯者300の手を追いかけているように表示される。
【0029】
本具体例では、図2に示すように、撮像画像の青み成分の差分データにより発生、追随、消滅する他の移動体304を表示するようにしている。その他に、差分データにより挙動が決定される他の移動体を表示するようにしてもよい。例えば、現在の画像データと過去の画像データとの各色成分(輝度、赤、青)の差分データの合計値や、最大値、平均値、分布等の状態に基づいて移動体を発生、追随、消滅等の処理を行うようにしてもよい。
【0030】
また、移動体302に対する処理のアルゴリズムに、後述する本発明の第2実施形態における動物移動描画処理(図27乃至図36)のアルゴリズムを利用してもよい。画像データの色成分の差分データに対して、このアルゴリズムを適用し、ディスプレイモニタ216に移動体等を発生させ、移動体の周囲の差分データに基づいて移動体の絵を切り換えたり、ときどき停止したりしてもよい。
【0031】
このように本具体例によれば、人間の手の赤み成分を利用しているので、特別な装置を衣服や手に装着する必要がなく、より簡便なキャラクタ入力手段として用いることができ、遊戯者の指示に関連して移動体をスムーズかつユニークに動かすことができる。
【0032】
また、人間の手の赤み成分を利用する代わりに、特殊な道具を装着してもよい。例えば、手の代わりに先端が赤色の指揮棒を手に持って操作して、本具体例のような効果的な表示をしてもよい。また、右手に赤色の手袋、左手に青色の手袋をつけ、赤み成分により発生する移動体302と青み成分により発生する移動体304を右手の動きと左手の動きにより自在に操るようにしてもよい。更に、人間の手そのものを用いる方法と、特殊な道具を用いる方法とを適宜組み合わせるようにしてもよい。
【0033】
本実施形態のビデオゲーム装置を用いた遊戯方法の第2の具体例を図3を用いて説明する。
【0034】
本具体例も、第1の具体例と同様に、電子カメラ232により撮像された画像データは圧縮されてシステムメモリ204に順次記憶される。システムメモリ204に記憶された現在の画像データと過去の画像データとの差分を算出し、その差分データに基づいて処理を行う。
【0035】
本具体例では、ディスプレイモニタ216上に特定の検出領域312を設定し、その特定の検出領域312における差分データの値により遊戯者310の操作情報を検出する。例えば、遊戯者310に赤色の指示棒314を持たせ、その指示棒314の像314′が検出領域312内を移動したか否かにより操作情報を検出する。指示棒314の像314′が検出領域312内を移動すると、検出領域312内における赤み成分の差分値が所定値以上になる。これにより遊戯者310の操作を検出する。
【0036】
遊戯者310は、ディスプレイモニタ216に表示された像310′、314′を見ながら、ゲーム装置200に所定の操作指示を行いたい場合には、指示棒314の像314′が検出領域312内を横切るように操作すればよい。遊戯者310は自由なスタイルで自由に操作を行うことができる。
【0037】
なお、遊戯者310に位置がわかるように検出領域312に予め特定の色をつけて他の領域と区別してもよい。遊戯者310が検出領域312を知って確実に操作することができる。逆に、検出領域312に特別な色をつけないようにしてもよい。遊戯者310に検出領域312の位置を捜すことをゲームに取り入れることができる。
【0038】
このように本具体例によれば、単に指示棒等の操作手段を移動するだけでよいので、より簡便な操作入力手段として用いることができ、遊戯者から操作入力をスムーズに行うことができる。
【0039】
本実施形態のビデオゲーム装置を用いた遊戯方法の第3の具体例を図4を用いて説明する。
【0040】
本具体例も、第1の具体例と同様に、電子カメラ232により撮像された画像データは圧縮されてシステムメモリ204に順次記憶される。システムメモリ204に記憶された現在の画像データと過去の画像データとの差分を算出し、その差分データに基づいて処理を行う。
【0041】
本具体例では、遊戯者の意図的な操作を検出してゲーム開始に対して起動するものである。遊戯者が電子カメラ232の前で手を振ったときに、その手の動きの移動距離を累積して、その累積距離が所定の設定値を超えた場合に入力されたと判断する。この操作入力により、ゲームを開始したり、特定のキャラクタを出現したり、画面を切り換えたり等の様々な制御を行う。
【0042】
初期画面においては、図4(a)に示すように、黒い画面の中に円い窓320が表示されている。この窓320が手の動きを検出する窓となる。遊戯者が電子カメラ232の前に手をかざして動かすと、赤み成分の差分データから手が動いた位置を検出し、その動いた位置に窓320を移動する。その結果、図4(b)に示すように、丸い窓320内に遊戯者の手322が写った状態が表示される。
【0043】
遊戯者が手322を動かすと、図4(c)、(d)に示すように、遊戯者の手322の動きに追随して丸い窓320が移動する。ゲーム装置200は円い窓320の移動距離を演算して、その移動距離を累積していく。遊戯者による操作の開始時からの累積距離が所定値に達した場合にゲーム開始操作が入力されたと判断し、図26(e)に示すように、ゲームを開始する。
【0044】
遊戯者による意図しない動きによりゲーム開始と判断されることを防止するために様々な工夫をしている。例えば、手の動きの速度を考慮して移動距離を累積する。手の動きの速さが所定値以上の場合には移動距離をそのまま累積するが、手の動きが所定値以下の場合には実際の移動距離から所定距離を減算したものを累積する。また、手の動きが検出されてから所定時間が経過しても累積距離がゲーム開始のための所定値に達しない場合には累積距離をリセットする。
【0045】
上記実施形態では丸い窓320の中に遊戯者の手の像322を組み込んで表示したが、実際の手の画像を用いることなく模式的なマークにより表示してもよい。すなわち、遊戯者の手の動きが検出されたら、単なる円い窓のマークから円い窓内に手が描かれたマークに移動体の画像を変更するようにしてもよい。なお、遊戯者の手を振る操作をゲーム開始以外の他の操作情報としてもよい。
【0046】
このように本具体例によれば、遊戯者が電子カメラの前で手を振ることによりゲームを開始する等の操作指示を行うことができ、遊戯者から操作入力をスムーズに行うことができる。
【0047】
[第2実施形態]
本発明の第2実施形態によるビデオゲーム装置について図5乃至図8を用いて説明する。図5は本実施形態のビデオゲーム装置の外観を示す斜視図であり、図6は本実施形態のビデオゲーム装置のソフトウエアカートリッジであり、図7は本実施形態のビデオゲーム装置のハードウエアを示すブロック図であり、図8は本実施形態のビデオゲーム装置の機能を示すブロック図である。
【0048】
(ゲーム装置本体)
本実施形態のビデオゲーム装置は、折り畳み式のゲーム装置本体10に絵本タイプのソフトウエアカートリッジ12を装着するものである。図5に示すように、ゲーム装置本体10の底蓋14から上蓋16を外して開き、その内側のカートリッジスロット18にソフトウエアカートリッジ12を差し込む。
【0049】
後述するように、本実施形態では、第1実施形態と同様に電子カメラ55を設けることも可能である。電子カメラ55は、例えば、図3に示すようにモニタ90の上に置かれ、ソフトウエアカートリッジ12のコネクタ(図示せず)に接続される。
【0050】
ゲーム装置本体10の底蓋14内側には、左側に方向ボタン20と実行ボタン22が設けられ、中央にお絵描きタブレット24が設けられ、右側にタッチペンホルダ26が設けられている。
【0051】
方向ボタン20及び実行ボタン22は、遊戯者が操作するものであって、方向ボタン20により上下左右の4方向を指示し、実行ボタン22により実行指示を与える。タッチペンホルダ26は、タッチペン28を保持する。タッチペン28は、お絵描きタブレット24に触って、絵本ソフトを操作するために用いられる。タッチペン28の先端にはペンボタン28aが設けられている。遊戯者はペンボタン28aを押すことにより指示を与える。
【0052】
お絵描きタブレット24は、電磁誘導方式によりタッチペン28が近接している位置を検出する。お絵描きタブレット24から発せられる電磁信号をタッチペン28により受信することにより位置を検出する。遊戯者はペンボタン28aを押すことにより、その位置に基づいた指示を与える。
【0053】
ゲーム装置本体10の上蓋16内側には、中央に絵本タイプのソフトウエアカートリッジ12が装着される絵本タブレット32が設けられている。この絵本タブレット32は、お絵描きタブレット24と同様の電磁誘導方式により、タッチペン28が近接した位置を検出する。
【0054】
絵本タブレット32の左側下部には電源をオンオフするためのパワースイッチ34が設けられている。絵本タブレット32の右側下部にはソフトウエアカートリッジ12が差し込まれるカートリッジスロット18が設けられている。装着されたソフトウエアカートリッジ12は、リジェクトボタン36を押すことによりカートリッジスロット18から取り外すことができる。
【0055】
絵本タブレット32内の上部右側にはページセンサ38が設けられている。ソフトウエアカートリッジ12の絵本のどのページ42が開かれているかをページセンサ38により検出する。絵本の各ページ42の右上部には切り込みが形成され、ページ順に切り込み幅を広くしている。このようにすることにより、開かれているページに応じて遮蔽するセンサ数が異なり、現在開かれているページを検出することができる。
【0056】
ソフトウエアカートリッジ12は、図5に示すように、左縁部の綴じリング40により複数ページ42を綴じた絵本のような基本形態をしている。各ページ42にはゲームプログラムに対応した絵が描かれている。
【0057】
(ソフトウエアカートリッジ)
ソフトウエアカートリッジ12を図6を用いて説明する。図6は絵本の各ページ42が閉じられている状態のソフトウエアカートリッジ12の平面図である。
【0058】
ソフトウエアカートリッジ12は、上部が、絵本を載置する絵本載置部46となっており、下部が、回路基板48を内部に収納する基板収納部50となっている。
【0059】
絵本載置部46の左縁部には綴じリング40が設けられ、絵本の各ページ42が閉じられている。本実施形態では5頁のページ42が閉じられており、各ページ42の右縁部にはインデックスがずらして形成されている。絵本載置部46の右上部には、絵本タブレット32のページセンサ38の位置に対応した6個のセンサ用穴52が開けられている。
【0060】
基板収納部50には内部に回路基板48が収納されている。回路基板48には、ゲーム装置本体10に接続するためのコネクタ49が形成され、ゲームプログラムを格納したプログラムROM54が搭載されている。
【0061】
(ハードウエア)
次に、本実施形態のビデオゲーム装置のハードウエアの構成を図7を用いて説明する。
【0062】
ゲーム装置本体10について説明する。MPU60はビデオゲーム装置全体を制御する。RAM62はMPU60のワーク用メモリである。ビデオディスプレイプロセッサ(VDP)64は背景やキャラクタ等の描画処理を制御する。映像情報はビデオRAM66に書き込まれる。ビデオディスプレイプロセッサ64からの映像信号は映像端子70からモニタ90に出力される。
【0063】
なお、電子カメラ55を利用する場合には、ビデオプロセッサ(VDP)64は電子カメラ55で撮像した映像情報を、背景やキャラクタ等のゲーム画像と合成して描画情報を制御する。その映像情報をビデオRAM66に書き込み、ビデオプロセッサ(VDP)64により、映像端子70からモニタ90に出力する。電子カメラ55で撮像した映像情報を画像認識することにより操作入力することもできる。
【0064】
音声合成LSI(ADPCM)72はキャラクタがしゃべる言葉等のあらゆる音声を合成する。ゲームに応じた音声を合成して発音する。ビデオディスプレイプロセッサ64からの音声信号と音声合成LSI72からの音声信号を混合して、音声端子76を介してモニタ90に出力する。
【0065】
コントローラ78は、方向ボタン20、実行ボタン22、タッチペン28、ペンボタン28a、ページセンサ38の状態を監視して、遊戯者の操作による入力情報をMPU60に出力する。
【0066】
コントローラ78は、アナログスイッチ80を介して、絵本タブレット32、お絵描きタブレット24の状態を監視して、遊戯者の操作による入力情報をMPU60に出力する。
【0067】
なお、電子カメラ55を利用する場合は、電子カメラ55で撮像した操作者の画像情報又は操作者の操作による入力情報をMPU60に出力する。
【0068】
これらMPU60、RAM62、ビデオディスプレイプロセッサ64、音声合成LSI72、コントローラ78は、アドレスバス84、データバス86、コントロールバス88により接続されている。
【0069】
ソフトウエアカートリッジ12では、ゲームプログラムを格納したプログラムROM54が回路基板48に搭載されている。ソフトウエアカートリッジ12は、コネクタ49、82を介してゲーム装置本体10と接続され、アドレスバス84、データデータバス86、コントロールバス88がそれぞれ接続される。なお、電源ライン(図示せず)もコネクタ49、82を介してソフトウエアカートリッジ12に接続される。
【0070】
(機能ブロック図)
次に、本実施形態のビデオゲーム装置の機能を図8のブロック図を用いて説明する。図8は、ゲーム装置本体10にソフトウエアカートリッジ12が装着され、全体がビデオゲーム装置として動作している際の機能ブロック図である。
【0071】
制御部100はビデオゲーム装置における描画処理及び発音処理を制御する。描画制御部102は、タッチペン28による絵本タブレット32への近接位置に基づいて、所定の絵を描画するように描画処理部104を制御する。描画処理部104はバッファメモリ入出力部110を介してバッファメモリ120に線図を描画する。描画処理部104の制御によりバッファメモリ120に所定の絵を描画したり、タッチペン28によるお絵描きタブレット24への近接位置に応じてバッファメモリ120に線図を描画したり、移動体描画部106の制御によりバッファメモリ120に虫や動物等の移動体の絵を描画したりする。移動体描画部106は進路決定部107により決定された虫や動物等の移動体の進路方向に従って移動体の絵を描画する。発音処理部108は、タッチペン28によるお絵描きタブレット24への近接位置と、バッファメモリ120の色情報に基づいて、発音処理を行なう。
【0072】
なお、電子カメラ55を利用する場合は、描画処理部104は、電子カメラ55による画像データが記憶されているメモリ(図示せず)から画像データに基づいた制御を行う。
【0073】
バッファメモリ入出力部110は、制御部100からの描画制御に応じて色情報をバッファメモリ120に書き込んだり、バッファメモリ120から色情報を読み取って制御部100に出力したりする。
【0074】
色情報を書き込む場合には、制御部100からの書込み位置を座標変換部112でバッファメモリ120のアドレスに変換し、その変換したアドレスに、色情報書込部114により制御部100から指示された色情報を書込む。
【0075】
色情報を読み取る場合には、制御部100からの読取り位置を座標変換部116でバッファメモリ120のアドレスに変換し、その変換したアドレスのバッファメモリ120の色情報を色情報読出部118により読取り、制御部100の発音処理部108に出力する。
【0076】
映像情報は、バッファメモリ120に格納されている色情報に基づいた画像を、フレーム毎にビデオRAM66に書込み、映像端子70を介してモニタ90に出力する。
【0077】
音声情報は、発音処理部108から出力された音声信号を、音声端子76を介してモニタ90に出力する。
【0078】
(ビデオゲームの第1具体例)
次に、本実施形態のビデオゲーム装置のビデオゲームの第1の具体例について図9乃至図24を用いて説明する。
【0079】
(基本的描画処理)
本具体例の描画処理について図9乃至図12を用いて説明する。
【0080】
図9は本具体例の描画処理において用いられるソフトウエアカートリッジ12の絵の具体例である。図9の絵の各部分にタッチペン28を近接させると、絵本タブレット32によりタッチペン28の近接位置を検出し、更にペンボタン28aを押すことにより、近接位置に応じた描画指示を入力する。
【0081】
なお、電子カメラ55を利用する場合には、図9と同様な選択画面、例えば、鉛筆領域211、消しゴム領域212、あみ領域213、指揮棒領域214、色指定領域215等のアイコンを含む選択画面をモニタ90に表示し、例えば遊戯者の手の移動によってカーソルを動かして上記アイコンを選択する。
【0082】
図9の左側のページ200には、キャンパス領域201、サンプル絵領域202、203、204が配置されている。タッチペン28でキャンパス領域201に接触すると、自由に絵を描画できるキャンパスがモニタ90に表示される。タッチペン28でサンプル絵領域202、203、204に接触すると、予め定められたサンプルの絵がモニタ90に表示される。
【0083】
図8の右側のページ210には、鉛筆領域211、消しゴム領域212、あみ領域213、指揮棒領域214、色指定領域215が配置されている。タッチペン28で鉛筆領域211に接触すると、タッチペン28が鉛筆として機能する。更にタッチペン28で色指定領域215の所望の色領域に接触することにより、その鉛筆の色を指定できる。タッチペン28で消しゴム領域212に接触すると、タッチペン28が消しゴムとして機能する。タッチペン28であみ領域213に接触すると、タッチペン28が捕虫あみとして機能する。タッチペン28で指揮棒領域214に接触すると、タッチペン28が指揮棒として機能する。
【0084】
図10のフローチャートを用いて描画処理について説明する。
【0085】
まず、タッチペン28によりサンプル絵が選択されたかどうか判断する(ステップS10)。遊戯者がタッチペン28をいずれかのサンプル絵領域202、203、204に接触すると、描画制御部102により描画処理部104を制御して、選択されたサンプル絵をモニタ90に描画する(ステップS11)。図11にサンプル絵の具体例を示す。グランドピアノの絵が描画されている。
【0086】
なお、電子カメラ55を利用する場合には、例えば、赤み成分に反応してカーソルが移動するように設定しておけば、人間の手には赤み成分が多いので、プレイヤが電子カメラ55に向かって手を移動させることにより、そのプレイヤの思い通りに操作することができる。
【0087】
また、タッチペン28で、サンプル領域、鉛筆領域、消しゴム領域、色指定領域に接触して希望の機能を選択し、その選択状態のときに、電子カメラ55の前で手を移動すると、タブレット24を使ったペン入力と異なり非接触で操作することができる。
【0088】
サンプル絵が選択されていない場合には、タッチペン28によりキャンパスが選択されたかどうか判断する(ステップS12)。遊戯者がタッチペン28をキャンパス領域201に接触すると、描画制御部102により描画処理部104を制御して、キャンパスをモニタ90に描画する(ステップS13)。図11にキャンパス絵の具体例を示す。最初は絵が全く描かれていないキャンパスが描画される。
【0089】
次に、鉛筆を用いてモニタ90上に線図を描画する。図12に示すキャンパス上に線図を描画する場合として説明するが、図11に示すサンプル絵上にも線図を描画することができる。
【0090】
なお、電子カメラ55を利用する場合には、人間の手に多い赤み成分に反応するようにすれば、プレイヤが手を移動することにより線図を描画することもできる。
【0091】
まず、タッチペン28により鉛筆と色が選択されたかどうか判断する(ステップS14)。タッチペン28を鉛筆領域211に接触し、色指定領域215のいずれかに接触すると、モニタ90上に指定した色の絵筆200が表示される。
【0092】
次に、タッチペン28がお絵描きタブレット24上にあるかどうか判断し(ステップS15)、更にペンボタン(図示せず)が押されているかどうか判断する(ステップS16)。遊戯者がタッチペン28をお絵描きタブレット24に接触すると、描画処理部104から位置信号が座標変換部112に出力され、色信号が色情報書込部114に出力される。座標変換部112は位置信号をバッファメモリ120のアドレス信号に変換し、その変換したアドレスに、色情報書込部114により色信号で指示された色情報を書込む(ステップS17)。遊戯者がタッチペン28をお絵描きタブレット24に接触しながら動かすと、図12に示すように、モニタ90上では絵筆500がタッチペン28の動きに同期して動いてキャンパス上に選択された色の線図が描画される。
【0093】
なお、電子カメラ55を利用する場合には、電子カメラ55に向かって手を移動することにより、モニタ90上に表示された指定した色の絵筆を移動させ、モニタ90上に線図を描画することができる。
【0094】
タッチペン28を色指定領域215を接触すれば、絵筆500の色が変更されモニタ90のキャンパス上に複数の色の線図が描画される。また、タッチペン28を消しゴム領域212に接触して、モニタ90に消しゴムを表示し、その後、タッチペン28をお絵描きタブレット24に接触しながら動かすことにより、モニタ90のキャンパス上に描画された線図を消すことができる。このようにして、実際のキャンパスに絵を描くように、モニタ90のキャンパスに絵を自由に描くことができる。
【0095】
なお、電子カメラ55を利用する場合には、タッチペン28で希望領域に接触しての各機能を選択すると、キャンパスに絵を書くように、モニタ90に絵を自由に描くことができる。ここで、「消しゴム領域」や「色指定領域」などの画面データを予め用意してモニタ90上に表示し、電子カメラ55に向かって手を移動してモニタ90上のカーソルをその領域に移動すれば、希望の機能を選択できる。
【0096】
さらに、プレイヤが手を電子カメラ55に向けて移動させれば、その手の移動に沿った軌跡をモニタ90上に表示でき、モニタ90のキャンパスに絵を自由に描くことができる。
【0097】
なお、電子カメラ55を利用する場合は、タッチペン28とタブレット24を使う場合と異なり、非接触で操作入力できるので、不思議な感覚で描画を楽しむことができる。
【0098】
(発音処理1)
本具体例の発音処理について図13のフローチャートを用いて説明する。図11に示すグランドピアノのサンプル絵を用いて発音処理する場合として説明するが、図12に示すキャンパス上の線図を用いても発音処理することができる。
【0099】
まず、タッチペン28により指揮棒が選択されたかどうか判断する(ステップS20)。遊戯者がタッチペン28を指揮棒領域214に接触すると、モニタ90上に指揮棒502が表示される。
【0100】
次に、タッチペン28がお絵描きタブレット24上にあるかどうか判断し(ステップS21)、更にペンボタン28aが押されているかどうか判断する(ステップS22)。遊戯者がタッチペン28をお絵描きタブレット24に接触すると、発音処理部108から位置信号が座標変換部116に出力され、バッファメモリ120のアドレスに変換される。続いて、色情報読出部118により、その変換したアドレスにおけるバッファメモリ120の色信号が読み出され、発音処理部108に出力される(ステップS23)。
【0101】
なお、電子カメラ55を利用する場合には、赤み成分に反応するようにすれば、制御部100が電子カメラ55によって赤み成分(例えば遊戯者の手)を認識させることにより位置信号の入力ができる。電子カメラ55により位置信号を入力すると、発音処理部108から位置信号が座標変換部116に出力され、バッファメモリ120のアドレスに変換され、色情報読出部により、その変換したアドレスにおけるバッファメモリ120の色信号が読み出され、発音処理部108に出力されることになる。
【0102】
次に、色情報の変化があったか否か判断する(ステップS24)。色情報の変化がなかった場合にはペンボタン28aが押された直後か否か判断する(ステップS25)。ペンボタン28aが押された直後でなければステップS20に戻る。
【0103】
ペンボタン28aが押された直後であれば、発音処理部108は読み出された色情報が透明又は黒であるか否か判断する(ステップS26)。透明又は黒の場合は音を発生させないためである。なお、黒の場合は光る粉を出して(ステップS27)、ステップS20に戻る。
【0104】
なお、電子カメラ55を利用する場合には、MPU60が電子カメラ55を介して赤み成分を認識した直後に色情報が透明又は黒であるか否か判断する。
【0105】
読み出された色情報が透明又は黒でなければ、発音処理部108は、その色情報に応じて発音する音を決定する(ステップS28)。各色情報に応じた音の周波数の倍率を定めた発声周波数表を定めておき、この発声周波数表に基づいて周波数倍率を定める。続いて、発音処理部108は、決定された音信号を出力し、音声端子76を介してモニタ90に出力し、音を発生する(ステップS29)。
【0106】
図11では指揮棒502が黄色の音符504上に位置しているので、黄色に対して予め定められている音、例えば、ピアノの音で高さがレの音が発生する。
【0107】
このようにして、タッチペン28をお絵描きタブレット24上で移動してペンボタン28aを押すことにより、指示した色に応じた様々な音を発生することができる。
【0108】
また、電子カメラ55を利用する場合には、遊戯者の例えば手の移動によって指示した色に応じた様々な音を発生することができる。
【0109】
更に、図11に示すように、ピアノの鍵盤を音程にあうような色で描画しておけば、指揮棒502によりピアノの鍵盤を指示することにより、簡単な音楽を自在に演奏することも可能である。
【0110】
なお、電子カメラ55を利用する場合には、遊戯者の手の移動に応じて指揮棒502が画面上で移動するので、その指揮棒502によりピアノの鍵盤を指示することにより、簡単な音楽を自在に演奏することも可能である。また、この場合は、非接触で操作することができるのでより実際の指揮者感覚で演奏することができる。
【0111】
(移動体描画処理1)
本具体例における虫を移動する虫移動描画処理について図14乃至図24を用いて説明する。
【0112】
この虫移動描画処理は、キャンパスの線図に用いられた色に応じて、その色が好きな虫を移動体描画部106により自動的に発生させ、その虫を色の線に沿って動かすものである。遊戯者はその虫を捕虫あみにより捕獲する等のゲームを行なうことができる。
【0113】
(基本フロー)
図14は虫移動描画処理の基本フローを示している。
【0114】
虫移動描画処理の基本フローは、各種パラメータを初期化する初期化処理(ステップS30)、虫の発生が求められるまで待機する待機処理(ステップS31)、発生した虫が画面内に飛来する飛来処理(ステップS32)、画面内で虫を移動する移動処理(ステップS33)、虫が画面から飛び去る飛去処理(ステップS34)の順となっている。発生する虫の数だけ独立に描画処理される。
【0115】
各処理の詳細について順次説明する。
【0116】
(初期化処理)
図15は初期化処理のフローチャートである。
【0117】
まず、表示部用の各種パラメータを初期化する(ステップS40)。
【0118】
次に、虫が発生する際の画面外の初期位置を乱数により設定する(ステップS41)。この初期位置から虫が飛来する。
【0119】
次に、発生した虫が着陸する着陸位置を乱数により設定する(ステップS42)。飛来した虫は最初この位置に着陸する。
【0120】
次に、滞在時間タイマを初期化する(ステップS43)。飛来してきた虫は一定時間が経過すると飛び去る。滞在時間タイマは虫が画面内で滞在する時間を計測する。
【0121】
次に、移動方向設定タイマを初期化する(ステップS44)。虫は動きながら移動方向を周囲の色情報に基づいて一定の頻度で再設定する。移動方向設定タイマは移動方向を再設定する時間を計測する。
【0122】
次に、進行方向揺らぎタイマを初期化する(ステップS45)。虫が自然に動いているように見せるために、一定の頻度で移動方向を少しずつずらす。進行方向揺らぎタイマは移動方向に揺らぎを発生する時間を計測する。
【0123】
初期化処理が終了すると、次の待機処理に進む。
【0124】
(待機処理)
図16は待機処理のフローチャートである。
【0125】
待機処理では、キャンパスに虫を発生する特定の色が描画されるまで待機し、特定の色が描画されれば、その色にしたがって発生する虫の種類を決定する。例えば、図24に示すように、赤色の線506が描画されていれば、赤色が好きな赤いてんとう虫508を発生し、青色の線510が描画されていれば青色が好きな虫512を発生する。
【0126】
まず、キャンパスに色が描画されてから一定時間が経過したか否か判断する(ステップS50)。キャンパスに色が描画されていなかったり、色が描画されても一定時間が経過していなければ、再びステップS50に戻る。
【0127】
キャンパスに色が描画されて一定時間が経過すると、続いて、虫が好きな色か否か、すなわち、虫を発生させる色か否か判断する(ステップS51)。虫が好きな色でなければ、再びステップS50に戻る。
【0128】
虫が好きな色のひとつであれば、その色に応じた虫の種類を決定する(ステップS52)。例えば、赤であればてんとう虫を選択し、青であれば青色が好きな虫を選択する。
【0129】
続いて、決定した虫の種類に基づいて、その虫が嫌いな色を設定する(ステップS53)。例えば、てんとう虫であれば緑を選択し、青色が好きな虫であれば茶色を選択する。
【0130】
待機処理が終了すると、次の飛来処理に進む。
【0131】
(飛来処理)
図17は飛来処理のフローチャートである。
【0132】
まず、図15の初期化処理のステップS41で定めた画面外の初期位置から、図16の待機処理のステップS52で定めた種類の虫を飛ばし(ステップS60)、図15の初期化処理のステップS42で定めた画面内の着陸位置に向かって飛ばす(ステップS61)。
【0133】
続いて、虫が着陸位置に到達したか否か判断する(ステップS62)。着陸位置に到達していなければ、再びステップS61に戻る。着陸位置に到達していれば飛来処理を終了し、次の移動処理に進む。
【0134】
(移動処理)
図18は移動処理のフローチャートであり、図19は移動処理中の進路決定処理のフローチャートであり、図20は移動処理中の移動境界チェック処理のフローチャートである。
【0135】
まず、図18に示すように、周囲の色情報にしたがって虫の進路を決定する進路決定処理を行う(ステップS71)。進路決定処理の詳細を図19を用いて説明する。
【0136】
進路決定処理においては、まず、移動方向設定タイマを減じ(ステップS90)、この移動方向設定タイマがゼロになったか否か判断する(ステップS91)。移動方向設定タイマがゼロになっていなければ、現在の進行方向を変更することなく維持して、移動処理を終了する。
【0137】
移動方向設定タイマがゼロになっていると、色情報ワークメモリを作成する(ステップS93)。色情報ワークメモリとは、進路決定の際に参照するために、虫の現在位置の周囲の色情報を検出して記憶するものである。虫の現在位置の周囲に、図22に示すように、16個の特定方向領域を設定する。これら16個の特定方向領域は、現在位置を中心として全周囲16方向の所定距離離れた位置に配置されている。各特定方向領域は、一定ドット数、例えば6ドットの面積である。
【0138】
進路決定部107は特定方向領域の色情報を読み込む。進路決定部107は特定方向領域の各ドットの読取り位置を座標変換部56に出力し、座標変換部116はバッファメモリ120のアドレスに変換し、その変換したアドレスのバッファメモリ120の色情報を色情報読出部118により読取り、進路決定部107に出力する。その色情報が、虫が好きな色か否か、嫌いな色か否かを判定し、それぞれカウントする。全ての16個の特定方向領域について色情報を読み取り、各特定方向領域についての好きな色の数と嫌いな色の数をカウントして、色情報ワークメモリに格納する。
【0139】
次に、色情報ワークメモリを参照して、虫の次の進行方向(以下「転回方向」という)を決定する(ステップS94)。現在の進行方向を中心として好きな色が多い方向を転回方向として決定するようにする。例えば、図23に示すように、現在の進行方向が右上方の方向(1)であるとすると、最初は、進行方向である右上方の方向(1)の特定方向領域を調査し、続いて、進行方向の左隣りの方向(2)の特定方向領域の色情報を調査し、続いて、進行方向の右隣りの方向(3)の特定方向領域の色情報を調査し、続いて、進行方向のさらに左隣りの方向(4)の特定方向領域の色情報を調査し、...順次、図23に丸数字で示した順番に進行方向を中心とする9個の特定方向領域の色情報を調査する。好きな色のドット数と嫌いな色の有無を調査する。
【0140】
調査の結果、最も好きな色のドット数が多い方向を転回方向とする。好きな色のドット数が同じであれば、図23に示した丸数字の少ない方向を転回方向として、現在の進行方向に近い方向を優先する。
【0141】
次に、ステップS94で調査した嫌いな色の有無から、調査した特定方向領域中で嫌いな色を含む特定方向領域の数をカウントする(ステップS95)。嫌いな色を含む特定方向領域が1個もなければ、ステップS94で決定した転回方向を維持してステップS97に進む。嫌いな色を含む特定方向領域が1個又は2個であれば、周囲に嫌いな色があると判断し、ステップS94で決定した転回方向を180度変更して(ステップS96)ステップS97に進む。嫌いな色を含む特定方向領域が3個以上であれば、周囲に嫌いな色がたくさんあると判断し、虫が飛び去る処理(ステップS34)に進む。
【0142】
次に、進行方向揺らぎタイマを減じ(ステップS97)、この進行方向揺らぎタイマがゼロになったか否か判断する(ステップS98)。進行方向揺らぎタイマがゼロになっていなければ、現在の進行方向を変更することなく維持して、進路決定処理を終了する。
【0143】
進行方向揺らぎタイマがゼロになっていれば、決定した転回方向に揺らぎを与える(ステップS99)。決定した転回方向と、転回方向から反時計回りに隣りの方向と、転回方向から時計回りに隣の方向という3つの方向から乱数に基づいていずれかの方向を選択し、新たな転回方向とする。
【0144】
ステップS71の進路決定処理により、周囲の色情報にしたがって虫の進路を決定すると、続いて、画面の縁で虫の移動を反転させるために移動境界チェック処理を行う(ステップS72)。移動境界チェック処理の詳細を図20を用いて説明する。
【0145】
移動境界チェック処理においては、まず、進路決定処理により決定された転回方向で進んだ場合、左右方向に関して画面からはみ出すか否か判断する(ステップS100)。はみ出すと判断された場合には、進行方向を左右逆にする(ステップS101)。
【0146】
次に、進路決定処理により決定された転回方向で進んだ場合、上下方向に関して画面からはみ出すか否か判断する(ステップS102)。はみ出すと判断された場合には、進行方向を上下逆にする(ステップS103)。
【0147】
このようにして決定された最終的な転回方向に現在の速度分を加えて、次の新しい座標を決定する(ステップS104)。このようにして決定された座標位置に虫が移動するように描画処理部104が虫を描画する。
【0148】
ステップS72の移動境界処理により最終的に次の新しい座標を決定すると、続いて、図18のステップS73以降の虫取りゲームの処理に進む。
【0149】
虫取りゲームの概要について説明する。遊戯者が虫取りゲームを行いたい場合には、タッチペン28をあみ領域213に接触して、図24に示すように、モニタ90に虫取り網のカーソル514を表示しておく。タッチペン28をお絵描きタブレット24に接触してペンボタン28aを押しながら動かすことにより、モニタ90上の虫508、512を捕まえて虫取り網514と一緒に動かすことができる。
【0150】
なお、電子カメラを利用する場合には、赤みに反応して網のカーソル514が移動するように設定すれば、例えば、遊戯者の手の移動に応じて網のカーソル514が画面上で移動するので、モニタ90上の虫508、512を捕まえて虫取り網514と一緒に動かすことができる。
【0151】
これとは別に、画面上に選択ボタン(図示せず)を表示させ、電子カメラ55に向けて手の移動させることによって、画面上のカーソルを移動させて、そのカーソルをその選択ボタンに重ねると、網のカーソル514に変化して表示するように制御してもよい。
【0152】
まず、タッチペン28による画面上のカーソルが虫に触っていて、かつ、ペンボタン28aが押されているか否か判断する(ステップS73)。画面上のカーソルが虫に触っていてペンボタン28aが押されていると判断されると、そのカーソルが虫取り網か否か判断する(ステップS74)。カーソルが虫取り網ではないと判断されると、次の飛び去り処理(ステップS34)に進む。
【0153】
なお、電子カメラを利用する場合には、画面上のカーソルが虫に触っていて、かつカーソルの移動スピードが所定のスピード以上であるときに飛び去り処理に進むようにしてもよい。現在のフレームと過去のフレームとの差から、カーソルの移動に要したフレーム数を求め、そのフレーム数に1/60秒(1フレームの時間)を乗算してスピードを計算する。
【0154】
カーソルが虫取り網であると判断されると、虫取り網から離されたか否か判断する(ステップS75)。離されていると判断されるとステップS77に戻り、上述した処理を繰り返す。虫取り網から離されていない場合には、虫が虫取り網に捕まえられていると判断し、虫取り網の中央の方向に虫が移動するように虫の新たな座標値を決定する(ステップS76)。続いて、再びステップS75に戻り、ステップS75、S76の処理を繰り返す。このようにすることにより、虫取り網514で虫508、510を捕まえて一緒に動かすことができる。
【0155】
ステップS73で、タッチペン28による画面上のカーソルが虫に触っていないと判断されると、続いて、画面が全消去されたか否か判断する(ステップS77)。画面が全消去されている場合には、次の飛び去り処理(ステップS34)に進む。
【0156】
画面が全消去されていない場合には、色情報ワークメモリを参照して、周囲にその虫が好きな色があるか否か判断する(ステップS78)。周囲に好きな色がある場合には、滞在時間タイマを初期化して(ステップS81)、ステップS77に戻り、上述した処理を繰り返す。
【0157】
周囲に好きな色がない場合には、滞在時間タイマを減じ(ステップS79)、この滞在時間タイマがゼロになったか否か判断する(ステップS80)。滞在時間タイマがゼロになっていなければ、ステップS77に戻り、上述した処理を繰り返す。滞在時間タイマがゼロになっていれば、次の飛び去り処理(ステップS34)に進む。
【0158】
(飛去処理)
図21は飛去処理のフローチャートである。
【0159】
まず、現在位置から虫を飛ばし(ステップS110)、画面外の所定の位置にに向かって飛ばす(ステップS111)。続いて、虫が画面外に出たか否か判断する(ステップS112)。画面外に出ていなければ、再びステップS111に戻る。画面外に出ていれば飛去処理を終了し、再び初期化処理(ステップS30)に戻り、上述した処理を繰り返す。
【0160】
このように、これら虫の発生及び移動は自動的に行われ、遊戯者による特別の操作を必要としないが、遊戯者はその虫を捕虫あみにより捕獲する等のゲームを行なうことができる。
【0161】
上述したような発音処理や移動体描画処理によれば、モニタに単に絵を描画するだけでなく、その絵を利用して音を発生したり、音楽を演奏したり、虫を捕獲したりする等の様々なゲームを行うことができる。
【0162】
(ビデオゲームの第2具体例)
次に、本実施形態のビデオゲーム装置のビデオゲームの第2の具体例について図25乃至図36を用いて説明する。第1の具体例とは発音処理及び移動体描画処理が異なっている。
【0163】
(発音処理2)
本具体例の発音処理について図25のフローチャートを用いて説明する。図26に示すグランドピアノのサンプル絵を用いて発音処理する場合として説明する。
【0164】
まず、タッチペン28によりどの種類の指揮棒が選択されたかどうか判断する(ステップS120)。本具体例では指揮棒として通常のオルガン音を奏でる指揮棒の他に他の動物の音色を発する指揮棒を選択することができる。指揮棒の種類は、図26に示すように、画面上にツールボックス520として表示することができ、遊戯者がタッチペン28を操作して、ツールボックス520内の動物の絵にカーソルを合わせペンボタン28aを押して好みの動物を選択する。例えば、ツールボックス520内の猫の絵522を選択すると、図26に示すように、先端が猫の絵の指揮棒524が表示される。
【0165】
なお、電子カメラ55を利用して選択する場合には、選択可能な複数種類の指揮棒ボタンを画面上に表示し、その中から希望の指揮ボタンに画面上のカーソルを重ねることで選択する。カーソルの移動は、例えば赤みに反応するように画像処理する設定にすれば、電子カメラ55に向かって遊戯者が手を移動すると、それに応じてカーソルを移動させることで実現できる。
【0166】
次に、タッチペン28がお絵描きタブレット24上にあるかどうか判断し(ステップS121)、更にペンボタン28aが押されているかどうか判断する(ステップS122)。遊戯者がタッチペン28をお絵描きタブレット24に接触すると、発音処理部108から位置信号が座標変換部116に出力され、バッファメモリ120のアドレスに変換される。続いて、色情報読出部118により、その変換したアドレスにおけるバッファメモリ120の色信号が読み出され、発音処理部108に出力される(ステップS123)。
【0167】
次に、色情報の変化があったか否か判断する(ステップS124)。色情報の変化がなかった場合にはペンボタン28aが押された直後か否か判断する(ステップS125)。ペンボタン28aが押された直後でなければステップS120に戻る。
【0168】
ペンボタン28aが押された直後であれば、発音処理部108は読み出された色情報が透明又は水又は黒であるか否か判断する(ステップS126)。透明又は水又は黒の場合は音を発生することなく、ステップS120に戻る。
【0169】
読み出された色情報が透明又は水又は黒でなければ、発音処理部108は、その色情報と指揮棒の種類に応じて発音する音を決定する(ステップS127)。指揮棒の種類に応じた音色(オルガン音、犬の声、猫の声、猿の声、豚の声、象の声)を定めると共に、各色情報に応じた音の周波数の倍率を定めた発声周波数表を定めておき、この音色と発声周波数表に基づいて発生音を定める。例えば、猫を選択した場合には、猫の声で音階を奏でることができる。
【0170】
続いて、発音処理部108は、決定された音信号を出力し、音声端子76を介してモニタ90に出力し、音を発生する(ステップS128)。
【0171】
図26では猫の指揮棒524が黄色の音符504上に位置しているので、猫の指揮棒と黄色に対して予め定められている音、例えば、猫の声で高さがレの音が発生する。
【0172】
このようにして、タッチペン28をお絵描きタブレット24上で移動してペンボタン28aを押すことにより、指示した色に応じた様々な音を発生することができる。
【0173】
(移動体描画処理1)
本具体例における動物を移動する動物移動描画処理について図27乃至図36用いて説明する。
【0174】
この動物移動描画処理は、絵本の動物の絵をクリックすることによりキャンパス内に動物を登場させ、その動物を色の線に沿って動かすものである。周囲の色情報により動物の絵が切り替わったり、ときどき休憩したりする。本具体例では、図34に示すように、かば221、ゴリラ222、ライオン232、鳥231、象234が絵本に描かれており、これら5種類の動物を登場させることができる。
【0175】
(基本フロー)
図27は動物移動描画処理の基本フローを示している。
【0176】
動物移動描画処理の基本フローは、各種パラメータを初期化する初期化処理(ステップS130)、動物の発生が求められるまで待機する待機処理(ステップS131)、選択された動物を画面内に登場させる登場処理(ステップS132)、画面内で動物を移動したり休憩したりする移動処理(ステップS133)、動物が画面から退場する退場処理(ステップS134)の順となっている。発生する動物の数だけ独立に描画処理される。
【0177】
各処理の詳細について順次説明する。
【0178】
(初期化処理)
図28は初期化処理のフローチャートである。
【0179】
まず、表示部用の各種パラメータを初期化する(ステップS140)。
【0180】
次に、動物が登場する際の画面外の初期位置を乱数により設定する(ステップS141)。この初期位置から動物が登場する。
【0181】
次に、登場する動物の種類に応じた好きな色を設定する(ステップS142)。例えば、カバであれば水色、象であれば草色が好きな色となる。
【0182】
次に、移動方向設定タイマを初期化する(ステップS143)。動物は動きながら移動方向を周囲の色情報に基づいて一定の頻度で再設定する。移動方向設定タイマは移動方向を再設定する時間を計測する。
【0183】
次に、進行方向揺らぎタイマを初期化する(ステップS144)。動物が自然に動いているように見せるために、一定の頻度で移動方向を少しずつずらす。進行方向揺らぎタイマは移動方向に揺らぎを発生する時間を計測する。
【0184】
次に、反転抑制タイマを初期化する(ステップS145)。動物の移動方向が反転した場合、その向きに応じて動物の画像を切り換えるが、動物が自然に動いているように見せるために、移動方向が反転しても直ちに動物の画像を切り換えることなく一定時間画像を反転するのを抑制する。反転抑制タイマは画像の反転を抑制する時間を計測する。
【0185】
初期化処理が終了すると、次の待機処理に進む。
【0186】
(待機処理)
図29は待機処理のフローチャートである。
【0187】
待機処理では、タッチペン28により絵本の動物の絵が触れられるまで待機し、触れられた動物を登場させるための準備を行う。
【0188】
まず、絵本の動物の絵がタッチペン28で触れられたか否か判断する(ステップS150)。タッチペン28でどこにも触れられていなかったり、触れられても動物の絵の位置でなければ、再びステップS150に戻る。
【0189】
タッチペン28により動物の絵が触れられていると、絵本タブレット32の出力から動物の種類を決定する(ステップS151)。
【0190】
なお、電子カメラ55を利用して選択する場合には、選択可能な動物の絵を画面上に表示し、その中から希望の動物の絵に画面上のカーソルを重ねることで選択する。
【0191】
続いて、動物が登場した際のキャンパス内の移動の終了位置を乱数で設定する(ステップS152)。
【0192】
待機処理が終了すると、次の登場処理に進む。
【0193】
(登場処理)
図30は登場処理のフローチャートである。
【0194】
まず、図28の初期化処理のステップS141で定めた画面外の初期位置から、図29の待機処理のステップS151で定めた種類の動物を登場させ(ステップS160)、図29の待機処理のステップS152で定めた画面内の終了位置に向かって移動する(ステップS161)。
【0195】
続いて、動物が終了位置に到達したか否か判断する(ステップS162)。終了位置に到達していなければ、再びステップS161に戻る。終了位置に到達していれば登場処理を終了し、次の移動処理に進む。
【0196】
(移動処理)
図31は移動処理のフローチャートであり、図32は移動処理中の速度設定・動物反転処理のフローチャートである。なお、移動処理中の進路決定処理と移動境界チェック処理の詳細については、第1の具体例と同様であるので説明を省略する。
【0197】
まず、図31に示すように、周囲の色情報にしたがって動物の進路を決定する進路決定処理を行う(ステップS170)。進路決定処理の詳細は第1の具体例の図19と同様であるが、第1の具体例と異なるのは、嫌いな色に関する処理を行っていない点である。
【0198】
ステップS170の進路決定処理により、周囲の色情報にしたがって動物の進路を決定すると、続いて、速度設定・動物反転処理を行う(ステップS171)。速度設定・動物反転処理の詳細について図32を用いて説明する。
【0199】
速度設定・動物判定処理においては、まず、進路決定処理により決定された転回方向から速度を決定し、水平方向及び垂直方向の速度成分を得る(ステップS181)。動物により移動速度が異なるので、速度変換テーブルから移動速度を読み取り、その移動速度と転回方向から、水平方向及び垂直方向の速度成分を得る。
【0200】
次に、現在の進行方向は、現在の動物の画像の左右の向きと一致しているか否か判断する(ステップS182)。各動物の画像として予め左向きの画像と右向きの画像が用意されている。速度の水平成分が左向きであれば動物の左向きの画像を表示し、右向きであれば右向きの画像を表示するようにしている。ステップS182では、動物の画像の向きが進行方向にあっているか否か判断する。
【0201】
現在の進行方向と動物の画像の向きが一致していないと判断されると、反転抑制タイマを減じ(ステップS183)、この反転抑制タイマがゼロになったか否か判断する(ステップS184)。反転抑制タイマがゼロになっていれば動物の画像を一致している向きの画像に切り換える(ステップS185)。
【0202】
ステップS182で現在の進行方向と動物の画像の左右の向きが一致していると判断された場合には、反転抑制タイマを初期化して(ステップS186)、次の移動境界チェック処理に進む。
【0203】
ステップS184で反転抑制タイマがゼロになっていないと判断された場合には、次の移動境界チェック処理に進む。
【0204】
続いて、画面の縁で動物を反転させるために移動境界チェック処理を行う(ステップS72)。移動境界チェック処理の詳細は第1の具体例の図20と同様であるので、説明を省略する。
【0205】
ステップS72の移動境界処理により最終的に次の新しい座標を決定すると、続いて、図31のステップS173以降の処理に進む。
【0206】
最初に周囲の色情報に基づいて動物の画像を切り換える処理を行う。
【0207】
まず、ステップS170の進路決定処理において作成した色情報ワークメモリを参照し、登場している動物の好きな色が周囲に何ドットあるかカウントし、例えば、46個以上あるか否か判断する(ステップS173)。46個以上であれば動物の画像を切り換える(ステップS174)。
【0208】
例えば、カバの場合、好きな水色530に囲まれた場合には水中にあるものと判断し、カバの画像を、図35に示す歩いているカバの画像532から図36の足が水中に没した泳いでいるカバの画像534に切り換える。図36に示すように、あたかもカバ534が水中530を泳いでいるかのように見える。他の動物についても好きな色に囲まれた場合に画像を切り換えることにより、リアリティのある画像表示を行うことができる。
【0209】
次に、動物が一定時間毎に休憩する処理を行う。一定時間毎に移動を一時休止し、休憩状態の動物の画像を表示する。休憩時間が終了すれば再び移動を開始する。各動物に対して休憩時間タイマを設定しておく。動物により休憩時間タイマの時間が異なる。
【0210】
まず、休憩のタイミングか否か判断する(ステップS175)。休憩のタイミングであれば、休憩状態の動物の画像を表示する(ステップS176)。休憩のタイミングでなければ、ステップS178に進む。
【0211】
続いて、休憩時間を計測する休憩時間タイマがゼロになった否か判断する(ステップS177)。休憩時間タイマがゼロであれば、休憩終了の動物の画像を表示する(ステップS180)。
【0212】
次に、動物の画像をクリックすることにより鳴き声を発生させる処理を行う。タッチペン28を操作して、画面上の動物にカーソルを合わせ、クリックすると、その動物が画像を変化して鳴き声を発生する。
【0213】
まず、動物上にカーソルがあってタッチペン28がクリックされたか否か判断する(ステップS178)。クリックされた場合には、鳴き声を発生する動物の画像を表示すると共に、鳴き声を発生する(ステップS179)。
【0214】
なお、電子カメラ55を利用して選択する場合には、選択可能な動物の絵を画面上に表示し、その中から希望の動物の絵に画面上のカーソルを重ね、カーソルを左右に振ることで選択する。
【0215】
(退場処理)
図33は退場処理のフローチャートである。
【0216】
まず、絵本の動物の絵がタッチペン28で触れられたか否か判断する(ステップS190)。タッチペン28でどこにも触れられていなかったり、触れられても動物の絵の位置でなければ、再び初期化処理(ステップS130)に戻り、上述した処理を繰り返す。
【0217】
タッチペン28により動物の絵が触れられていれば、表示されている動物を画面外に退場させる退場処理を行う。その動物の画像を画面外の所定の位置に向かって移動する(ステップS191)。続いて、動物が画面外に出たか否か判断する(ステップS192)。画面外に出ていなければ、再びステップS191に戻る。画面外に出ていれば退場処理を終了し、再び初期化処理(ステップS130)に戻り、上述した処理を繰り返す。
【0218】
このように、遊戯者の指示にしたがって動物を発生させ、描いた絵の色情報にしたがって移動させ、画像を切り換えたり、休憩させたり、鳴き声を鳴かせたりといって種々のゲームを行うことができる。
【0219】
なお、電子カメラ55を利用する場合には、入力手段としてタッチペン28を用いるか電子カメラ55を用いるかを選択できるような選択手段又は切換手段を設けるようにする。この選択手段又は切換手段は切換スイッチ等のハードウエアとして設けてもよいし、画面上で選択できるようにするプログラム等のソフトウエアとして設けてもよい
また、電子カメラ55による操作入力とタッチペン28による操作入力を共に可能なようにして、双方の入力手段を同時に用いられるようにしてもよい。例えば、子供はタッチペン28により操作入力し、親は電子カメラ55を利用して操作入力できるようにする。表示画面上にはそれぞれ独立に操作できるカーソルを表示し、それぞれの操作入力に応じた操作表示、例えば、カーソルで線図を書く入力操作を同じ画面上に表示するようにしてもよい。
【0220】
[変形実施形態]
本発明は上記実施形態に限らず種々の変形が可能である。
【0221】
例えば、上記実施形態では幼児用ビデオゲーム装置を用いたが、基本的な構成は上記実施形態と同様に構成し、他のゲーム装置に本発明を適用してもよい。
【0222】
また、ゲーム装置に限らず、基本的な構成は上記実施形態と同様に構成し、電子的に絵を書く電子タブレットのような電子タブレットに本発明を適用してもよい。
【0223】
また、基本的な構成は上記実施形態と同様に構成し、パーソナルコンピュータ等の汎用のコンピュータにおけるゲームプログラムや画像プログラム等の画像処理に本発明を適用してもよい。
【0224】
また、基本的な構成は上記実施形態と同様に構成し、音楽に合わせて操作を行う音楽ゲーム等の他のゲームに本発明を適用してもよい。
【0225】
【発明の効果】
以上の通り、本発明によれば、画像を撮像する撮像手段と、撮像手段により撮像した画像データを複数フレーム分記憶する記憶手段と、記憶手段に記憶された画像データを表示画面上に順次表示する画像表示手段と、一のフレームの画像データと他のフレームの画像データとを比較して得られる差分データを算出する差分算出手段とを有し、差分算出手段により算出された差分データに基づいて表示画面上に表示する移動体の挙動を決定するようにしたので、遊戯者等の撮像画像から特定の情報を得て、その情報に基づいて画像表示を制御することができる。
【図面の簡単な説明】
【図1】本発明の第1実施形態によるビデオゲーム装置の機能を示すブロック図である。
【図2】本発明の第1実施形態によるビデオゲーム装置の遊戯方法の第1の具体例を示す説明図である。
【図3】本発明の第1実施形態によるビデオゲーム装置の遊戯方法の第2の具体例を示す説明図である。
【図4】本発明の第1実施形態によるビデオゲーム装置の遊戯方法の第3の具体例を示す説明図である。
【図5】本発明の第2実施形態によるビデオゲーム装置の外観を示す斜視図である。
【図6】本発明の第2実施形態によるビデオゲーム装置のソフトウエアカートリッジを示す図である。
【図7】本発明の第2実施形態によるビデオゲーム装置のハードウエアの構成を示すブロック図である。
【図8】本発明の第2実施形態によるビデオゲーム装置の機能ブロック図である。
【図9】本発明の第2実施形態におけるビデオゲームの第1の具体例におけるソフトウエアカートリッジの絵本の絵の一例を示す図である。
【図10】本発明の第2実施形態におけるビデオゲームの第1の具体例における描画処理のフローチャートである。
【図11】本発明の第2実施形態におけるビデオゲームの第1の具体例におけるサンプル絵の一例を示す図である。
【図12】本発明の第2実施形態におけるビデオゲームの第1の具体例におけるキャンパスの絵の一例を示す図である。
【図13】本発明の第2実施形態におけるビデオゲームの第1の具体例における発音処理のフローチャートである。
【図14】本発明の第2実施形態におけるビデオゲームの第1の具体例における虫移動描画処理のフローチャートである。
【図15】本発明の第2実施形態におけるビデオゲームの第1の具体例における初期化処理のフローチャートである。
【図16】本発明の第2実施形態におけるビデオゲームの第1の具体例における待機処理のフローチャートである。
【図17】本発明の第2実施形態におけるビデオゲームの第1の具体例における飛来処理のフローチャートである。
【図18】本発明の第2実施形態におけるビデオゲームの第1の具体例における移動処理のフローチャートである。
【図19】本発明の第2実施形態におけるビデオゲームの第1の具体例における進路決定処理のフローチャートである。
【図20】本発明の第2実施形態におけるビデオゲームの第1の具体例における移動境界チェック処理のフローチャートである。
【図21】本発明の第2実施形態におけるビデオゲームの第1の具体例における飛去処理のフローチャートである。
【図22】本発明の第2実施形態におけるビデオゲームの第1の具体例における進路決定処理の説明図である。
【図23】本発明の第2実施形態におけるビデオゲームの第1の具体例における進路決定処理の説明図である。
【図24】本発明の第2実施形態におけるビデオゲームの第1の具体例におけるキャンパスの絵の一例を示す図である。
【図25】本発明の第2実施形態におけるビデオゲームの第2の具体例における発音処理のフローチャートである。
【図26】本発明の第2実施形態におけるビデオゲームの第2の具体例におけるサンプル絵の具体例を示す図である。
【図27】本発明の第2実施形態におけるビデオゲームの第2の具体例における動物移動描画処理のフローチャートである。
【図28】本発明の第2実施形態におけるビデオゲームの第2の具体例における初期化処理のフローチャートである。
【図29】本発明の第2実施形態におけるビデオゲームの第2の具体例における待機処理のフローチャートである。
【図30】本発明の第2実施形態におけるビデオゲームの第2の具体例における登場処理のフローチャートである。
【図31】本発明の第2実施形態におけるビデオゲームの第2の具体例における移動処理のフローチャートである。
【図32】本発明の第2実施形態におけるビデオゲームの第2の具体例における速度設定・動物反転処理のフローチャートである。
【図33】本発明の第2実施形態におけるビデオゲームの第2の具体例における退場処理のフローチャートである。
【図34】本発明の第2実施形態におけるビデオゲームの第2の具体例におけるソフトウエアカートリッジの絵本の絵の一例を示す図である。
【図35】本発明の第2実施形態におけるビデオゲームの第2の具体例におけるキャンパスの絵の一例を示す図である。
【図36】本発明の第2実施形態におけるビデオゲームの第2の具体例におけるキャンパスの絵の一例を示す図である。
【符号の説明】
10…ゲーム装置本体
12…ソフトウエアカートリッジ
14…底蓋
16…上蓋
18…カートリッジスロット
20…方向ボタン
22…実行ボタン
24…お絵描きタブレット
26…タッチペンホルダ
28…タッチペン
28a…ペンボタン
32…絵本タブレット
34…パワースイッチ
36…リジェクトボタン
38…ページセンサ
40…綴じリング
42…ページ
46…絵本載置部
48…回路基板
50…基板収納部
52…センサ用穴
54…プログラムROM
55…電子カメラ
60…MPU
62…RAM
64…ビデオディスプレイプロセッサ(VDP)
66…ビデオRAM
70…映像端子
72…音声合成LSI
76…音声端子
78…コントローラ
80…アナログスイッチ
84…アドレスバス
86…データバス
88…コントロールバス
90…モニタ
100…制御部
102…描画制御部
103…描画処理部
106…移動体描画部
107…進路決定部
110…バッファメモリ入出力部
112…座標変換部
114…色情報書込部
116…座標変換部
118…色情報読取部
120…バッファメモリ
200…ゲーム装置
202…CPU
204…システムメモリ
206…プログラムデータ記憶装置又は記憶媒体
208…BOOTROM
210…バスアービタ
212…レンダリングプロセッサ
214…グラフィックメモリ
216…ディスプレイモニタ
218…オーディオプロセッサ
220…オーディオメモリ
222…スピーカ
224…モデム
226…コントローラ
228…バックアップメモリ
230…マイク
232…電子カメラ
300、310…遊戯者
302、304…移動体
314…指示棒
[0001]
BACKGROUND OF THE INVENTION
The present invention relates to an image processing system that captures an image of a player and uses the captured image.
[0002]
[Prior art]
Arcade game devices and home video game devices installed in game centers and the like have recently developed a wide variety of interesting games, and are very popular as entertainment.
[0003]
A conventional game device is known in which a player is imaged and the captured image is used. For example, like a print club, you can capture a player's image, print it in combination with the background, and provide it to the player, or capture the player's face image and paste it on the game character's face. There are things that create new characters.
[0004]
Further, in a conventional game device, a position on the display screen is instructed by a position instructing unit such as a controller, and the game is controlled based on the color information displayed at the instructed position, or a specific moving body There are things that generate.
[0005]
[Problems to be solved by the invention]
However, in the conventional game device, even if a player is imaged, all or part of the captured image is used as an image, and specific information is not obtained from the captured image.
[0006]
An object of the present invention is to provide an image processing system that obtains specific information from a captured image of a player or the like and controls image display based on the information.
[0007]
Another object of the present invention is to provide an image processing system capable of moving a moving body smoothly and uniquely in relation to a player's instruction.
[0008]
Still another object of the present invention is to provide an image processing system capable of smoothly performing operation input from a player.
[0009]
[Means for Solving the Problems]
An image processing system according to the present invention includes an imaging unit that captures an image of a player, a storage unit that stores a plurality of frames of image data captured by the imaging unit, and image data stored in the storage unit on a display screen. Image display means for sequentially displaying the difference, and difference calculation means for obtaining a difference by comparing the currently displayed image data with the image data displayed in the past, and the difference calculated by the difference calculation means Based on this, the behavior of the moving body displayed on the display screen is determined.
[0010]
In addition, an image processing system according to the present invention includes an imaging unit that captures an image of a player, a storage unit that stores a plurality of frames of image data captured by the imaging unit, and displays image data stored in the storage unit. The image display means for sequentially displaying on the screen, and the presently displayed image data and the previously displayed image data in a predetermined area in the display screen are compared with each other to obtain a difference between predetermined color components. And a difference calculating means for obtaining, when the difference between the predetermined color components calculated by the difference calculating means is greater than or equal to a predetermined value, it is determined that there has been a predetermined operation input from the player. And
[0011]
DETAILED DESCRIPTION OF THE INVENTION
[First Embodiment]
A video game apparatus according to a first embodiment of the present invention will be described with reference to FIGS. FIG. 1 is a block diagram showing functions of the video game apparatus according to the present embodiment, FIG. 2 is an explanatory diagram showing a first specific example of the playing method of the video game apparatus according to the present embodiment, and FIG. FIG. 4 is an explanatory view showing a second specific example of the playing method of the video game apparatus of the embodiment, and FIG. 4 is an explanatory view showing a third specific example of the playing method of the video game apparatus of the present embodiment.
[0012]
As shown in FIG. 1, the game device 200 includes a CPU 202 that controls execution of a game program and the entire system, and a system memory (used as a buffer memory that stores programs and data necessary for the CPU 202 to perform processing). RAM) 204 is commonly connected to the bus arbiter 210 through a bus line.
[0013]
Further, as a program data storage device or storage medium 206 in which game programs and data are stored, a CD-ROM drive for driving a CD-ROM that is a game recording medium, and a program and data for starting the game device 200 are provided. A stored boot ROM 208 is connected to the bus arbiter 210 via a bus line.
[0014]
Further, a rendering processor 212 that performs rendering according to a drawing command generated by the drawing library and a graphic memory 214 that records an image signal drawn by the rendering processor 212 are connected via the bus arbiter 210. Image data recorded in the graphic memory 214 is converted from a digital signal to an analog signal by a video DAC (not shown) and displayed on the display monitor 216.
[0015]
Also, an audio processor 218 that generates audio data and an audio memory 220 that records the generated audio data are connected via the bus arbiter 210. The audio data recorded in the audio memory 220 is converted from a digital signal to an analog signal by an audio DAC (not shown) and output from the speaker 222 as audio.
[0016]
The bus arbiter 210 also has a function as an interface and is connected to an external communication line via the modem 224. Game device 200 can communicate with other game devices and the like via modem 224.
[0017]
In addition, a controller 226 for operating the game device 200 is connected to the bus arbiter 210. For example, a backup memory 228 composed of a memory card or the like is attached to the controller 226.
[0018]
Further, in order to input a player's image and sound, the bus arbiter 210 is connected to an electronic camera 232 for capturing an image, and the controller 226 is connected to a microphone 230 for inputting sound.
[0019]
A first specific example of the playing method using the video game apparatus of this embodiment will be described with reference to FIG.
[0020]
In this specific example, the electronic camera 232 connected to the game apparatus 200 is placed on the display monitor 216, and the player 300 stands in front of the electronic camera 232 and gives various instructions to be described later. An image captured by the electronic camera 232 is displayed on the display monitor 216. The player 300 performs various operations while viewing his / her captured image.
[0021]
In this specific example, an image is captured by the electronic camera 232 using the YUV method. The YUV method is a data format used in home televisions and the like, and is a method of expressing colors with three information of luminance (Y), color difference (U) from red, and color difference (V) from blue. is there. For example, when an image is displayed with only the Y component, it becomes a black and white image. An image captured by the YUV method is compressed and stored in the system memory 204. Note that conversion to RGB signals is necessary depending on the type of display.
[0022]
Since the player 300 performs various operations toward the electronic camera 232 while viewing the image displayed on the display 216, the captured image 300 ′ is displayed in an inverted manner so that the player 300 can operate without feeling uncomfortable. That is, as shown in FIG. 2, when the player 300 raises his left hand, the player's image 300 ′ displayed on the display 216 displays the right hand up.
[0023]
In this specific example, image data captured by the electronic camera 232 is compressed and sequentially stored in the system memory 204. The system memory 204 stores image data displayed in the past in addition to the image data currently displayed. The image data displayed in the past may be, for example, image data one frame before the currently displayed image data, or image data before a predetermined frame of the currently displayed image data. Also good. The past image data may be image data for one frame, or may be image data for two or more frames.
[0024]
In this specific example, a difference between current image data and past image data stored in the system memory 204 is calculated, and various processes are performed based on the difference data. For the current image data and the past image data, the difference of each color component (luminance, red, blue) in the YUV method is calculated for each pixel.
[0025]
In this specific example, the moving body is controlled based on the difference data of each color component. This prevents the moving image data such as the background from being affected. For example, since a human hand has many redness components, when the player 300 moves his / her hand, a large redness component difference value appears only in the moved region, and the redness component difference value in other regions is almost zero. It becomes.
[0026]
Therefore, in the present embodiment, when the difference value of the redness component becomes equal to or larger than a predetermined value, for example, the moving body 302 that imitates wrinkles is automatically generated. An infinite number of bubbles 303 are displayed in a region where the difference value of the redness component is equal to or larger than a predetermined value, and the generated moving body 302 moves following the portion where the difference value of the redness component is the maximum value. As a result, when the player moves his / her hand, the bubble 303 appears in the entire area, and the kite of the moving body 303 follows the bubble 303 so as to swim. It should be noted that a special effect may be obtained by displaying other than bubbles, for example, a heart mark or a flame in a region where the difference value of the redness component is a predetermined value or more.
[0027]
The algorithm for generating, following, and disappearing the moving body 302 is basically the same as the algorithm for the insect movement drawing process (FIGS. 14 to 24) in the second embodiment of the present invention to be described later. In the insect movement drawing process of the second embodiment, drawing control of a moving body such as an insect is performed using the color data of the image itself, but the difference is that the difference data of the color components is used in this embodiment.
[0028]
When the moving body 302 is generated by the difference data of the redness component and is drawn so as to follow the pixel of the maximum value of the difference data, there are many redness components in the human hand. Is displayed as if the moving body 302 is following, and as if the moving body 302 is chasing the hand of the player 300.
[0029]
In this specific example, as shown in FIG. 2, another moving body 304 that is generated, follows, and disappears based on the difference data of the blue component of the captured image is displayed. In addition, other mobile objects whose behavior is determined by the difference data may be displayed. For example, the moving object is generated based on the total value of the difference data of each color component (brightness, red, blue) between the current image data and the past image data, the maximum value, the average value, the distribution, etc. Processing such as extinction may be performed.
[0030]
Further, the algorithm of the animal movement drawing process (FIGS. 27 to 36) in the second embodiment of the present invention to be described later may be used as the algorithm of the process for the moving object 302. This algorithm is applied to the difference data of the color components of the image data to generate a moving body or the like on the display monitor 216, and the picture of the moving body is switched based on the difference data around the moving body, or sometimes stops. Or you may.
[0031]
As described above, according to this specific example, since the redness component of the human hand is used, it is not necessary to attach a special device to clothes or hands, and it can be used as a simpler character input means. The moving body can be moved smoothly and uniquely in relation to the user's instructions.
[0032]
Further, instead of using the redness component of the human hand, a special tool may be attached. For example, an effective display as in this specific example may be performed by operating a command stick with a red tip instead of a hand. Further, a red glove may be attached to the right hand and a blue glove may be attached to the left hand, and the moving body 302 generated by the red component and the moving body 304 generated by the blue component may be freely manipulated by the movement of the right hand and the movement of the left hand. . Furthermore, a method using a human hand itself and a method using a special tool may be appropriately combined.
[0033]
A second specific example of the playing method using the video game apparatus of this embodiment will be described with reference to FIG.
[0034]
In this specific example, as in the first specific example, the image data captured by the electronic camera 232 is compressed and sequentially stored in the system memory 204. The difference between the current image data stored in the system memory 204 and the past image data is calculated, and processing is performed based on the difference data.
[0035]
In this specific example, a specific detection area 312 is set on the display monitor 216, and the operation information of the player 310 is detected based on the difference data value in the specific detection area 312. For example, the player 310 is provided with a red pointer 314, and the operation information is detected based on whether or not the image 314 ′ of the pointer 314 has moved within the detection area 312. When the image 314 ′ of the pointing bar 314 moves in the detection area 312, the redness component difference value in the detection area 312 becomes a predetermined value or more. Thereby, the operation of the player 310 is detected.
[0036]
When the player 310 wants to give a predetermined operation instruction to the game apparatus 200 while looking at the images 310 ′ and 314 ′ displayed on the display monitor 216, the image 314 ′ of the pointing bar 314 moves in the detection area 312. You only need to operate it across. The player 310 can freely operate in a free style.
[0037]
It should be noted that the detection area 312 may be preliminarily colored with a specific color so that the player 310 can recognize the position. The player 310 can know the detection area 312 and operate it reliably. Conversely, the detection area 312 may not be given a special color. Searching the player 310 for the position of the detection area 312 can be incorporated into the game.
[0038]
As described above, according to the present specific example, it is only necessary to move the operation means such as the pointing rod, so that it can be used as a simpler operation input means, and the operation input from the player can be performed smoothly.
[0039]
A third specific example of the playing method using the video game apparatus of the present embodiment will be described with reference to FIG.
[0040]
In this specific example, as in the first specific example, the image data captured by the electronic camera 232 is compressed and sequentially stored in the system memory 204. The difference between the current image data stored in the system memory 204 and the past image data is calculated, and processing is performed based on the difference data.
[0041]
In this specific example, a player's intentional operation is detected and activated in response to the start of the game. When the player shakes his / her hand in front of the electronic camera 232, the movement distance of the movement of the hand is accumulated, and it is determined that the input is made when the accumulated distance exceeds a predetermined set value. By this operation input, various controls such as starting a game, appearing a specific character, and switching screens are performed.
[0042]
On the initial screen, as shown in FIG. 4A, a round window 320 is displayed in a black screen. This window 320 serves as a window for detecting hand movement. When the player holds his / her hand in front of the electronic camera 232 and moves it, the position where the hand moves is detected from the difference data of the redness component, and the window 320 is moved to the moved position. As a result, as shown in FIG. 4B, a state in which the player's hand 322 is shown in the round window 320 is displayed.
[0043]
When the player moves the hand 322, as shown in FIGS. 4C and 4D, the round window 320 moves following the movement of the player's hand 322. The game apparatus 200 calculates the moving distance of the round window 320 and accumulates the moving distance. When the accumulated distance from the start of the operation by the player reaches a predetermined value, it is determined that the game start operation has been input, and the game is started as shown in FIG.
[0044]
Various measures are taken to prevent the game from being determined to be started by an unintended movement by the player. For example, the movement distance is accumulated in consideration of the speed of hand movement. When the speed of the hand movement is equal to or greater than a predetermined value, the movement distance is accumulated as it is. However, when the movement of the hand is equal to or smaller than the predetermined value, a value obtained by subtracting the predetermined distance from the actual movement distance is accumulated. If the accumulated distance does not reach the predetermined value for starting the game even after a predetermined time has elapsed since the hand movement was detected, the accumulated distance is reset.
[0045]
In the above embodiment, the player's hand image 322 is displayed in the round window 320, but may be displayed with a schematic mark without using an actual hand image. That is, when the movement of the player's hand is detected, the image of the moving body may be changed from a simple round window mark to a mark in which a hand is drawn in the round window. Note that the operation of shaking the player's hand may be operation information other than the start of the game.
[0046]
Thus, according to this specific example, the player can give an operation instruction such as starting a game by waving his hand in front of the electronic camera, and the player can smoothly input the operation.
[0047]
[Second Embodiment]
A video game apparatus according to a second embodiment of the present invention will be described with reference to FIGS. FIG. 5 is a perspective view showing the appearance of the video game apparatus of the present embodiment, FIG. 6 is a software cartridge of the video game apparatus of the present embodiment, and FIG. 7 shows the hardware of the video game apparatus of the present embodiment. FIG. 8 is a block diagram showing functions of the video game apparatus according to the present embodiment.
[0048]
(Game device itself)
The video game apparatus of the present embodiment is one in which a picture book type software cartridge 12 is mounted on a foldable game apparatus body 10. As shown in FIG. 5, the upper lid 16 is removed from the bottom lid 14 of the game apparatus body 10 and opened, and the software cartridge 12 is inserted into the cartridge slot 18 on the inside.
[0049]
As will be described later, in the present embodiment, it is also possible to provide an electronic camera 55 as in the first embodiment. For example, the electronic camera 55 is placed on a monitor 90 as shown in FIG. 3 and connected to a connector (not shown) of the software cartridge 12.
[0050]
Inside the bottom cover 14 of the game apparatus body 10, a direction button 20 and an execution button 22 are provided on the left side, a drawing tablet 24 is provided in the center, and a touch pen holder 26 is provided on the right side.
[0051]
The direction button 20 and the execution button 22 are operated by the player. The direction button 20 is used to instruct four directions (up, down, left and right), and the execution button 22 is used to give an execution instruction. The touch pen holder 26 holds the touch pen 28. The touch pen 28 is used to operate the picture book software by touching the drawing tablet 24. A pen button 28 a is provided at the tip of the touch pen 28. The player gives an instruction by pressing the pen button 28a.
[0052]
The drawing tablet 24 detects the position where the touch pen 28 is close by the electromagnetic induction method. The position is detected by receiving an electromagnetic signal emitted from the drawing tablet 24 by the touch pen 28. The player gives an instruction based on the position by pressing the pen button 28a.
[0053]
A picture book tablet 32 to which a picture book type software cartridge 12 is attached is provided in the center of the upper cover 16 of the game apparatus body 10. The picture book tablet 32 detects a position where the touch pen 28 is close by an electromagnetic induction method similar to that of the drawing tablet 24.
[0054]
A power switch 34 for turning the power on and off is provided at the lower left part of the picture book tablet 32. A cartridge slot 18 into which the software cartridge 12 is inserted is provided at the lower right side of the picture book tablet 32. The installed software cartridge 12 can be removed from the cartridge slot 18 by pressing the reject button 36.
[0055]
A page sensor 38 is provided on the upper right side in the picture book tablet 32. The page sensor 38 detects which page 42 of the picture book of the software cartridge 12 is open. A cut is formed in the upper right part of each page 42 of the picture book, and the cut width is increased in the page order. By doing so, the number of sensors to be shielded differs according to the opened page, and the currently opened page can be detected.
[0056]
As shown in FIG. 5, the software cartridge 12 has a basic form like a picture book in which a plurality of pages 42 are bound by a binding ring 40 at the left edge. Each page 42 has a picture corresponding to the game program.
[0057]
(Software cartridge)
The software cartridge 12 will be described with reference to FIG. FIG. 6 is a plan view of the software cartridge 12 in a state in which each page 42 of the picture book is closed.
[0058]
The upper part of the software cartridge 12 is a picture book placement part 46 for placing a picture book, and the lower part is a board storage part 50 for storing a circuit board 48 therein.
[0059]
A binding ring 40 is provided at the left edge of the picture book placement unit 46, and each page 42 of the picture book is closed. In this embodiment, the page 42 of 5 pages is closed, and the index is shifted and formed on the right edge of each page 42. Six sensor holes 52 corresponding to the position of the page sensor 38 of the picture book tablet 32 are formed in the upper right part of the picture book placement unit 46.
[0060]
A circuit board 48 is housed in the board housing portion 50. The circuit board 48 is formed with a connector 49 for connection to the game apparatus main body 10 and is mounted with a program ROM 54 storing a game program.
[0061]
(Hardware)
Next, the hardware configuration of the video game apparatus of this embodiment will be described with reference to FIG.
[0062]
The game apparatus body 10 will be described. The MPU 60 controls the entire video game device. The RAM 62 is a work memory for the MPU 60. A video display processor (VDP) 64 controls drawing processing of a background, a character, and the like. Video information is written into the video RAM 66. The video signal from the video display processor 64 is output from the video terminal 70 to the monitor 90.
[0063]
When the electronic camera 55 is used, the video processor (VDP) 64 controls the drawing information by synthesizing video information captured by the electronic camera 55 with a game image such as a background or a character. The video information is written into the video RAM 66 and is output from the video terminal 70 to the monitor 90 by the video processor (VDP) 64. Operation input can also be performed by recognizing video information captured by the electronic camera 55.
[0064]
A voice synthesis LSI (ADPCM) 72 synthesizes all voices such as words spoken by the character. Synthesize and pronounce the sound according to the game. The audio signal from the video display processor 64 and the audio signal from the audio synthesis LSI 72 are mixed and output to the monitor 90 via the audio terminal 76.
[0065]
The controller 78 monitors the state of the direction button 20, the execution button 22, the touch pen 28, the pen button 28 a, and the page sensor 38, and outputs information input by the player's operation to the MPU 60.
[0066]
The controller 78 monitors the states of the picture book tablet 32 and the drawing tablet 24 via the analog switch 80 and outputs input information by the player's operation to the MPU 60.
[0067]
When the electronic camera 55 is used, the image information of the operator imaged by the electronic camera 55 or the input information by the operation of the operator is output to the MPU 60.
[0068]
The MPU 60, RAM 62, video display processor 64, speech synthesis LSI 72, and controller 78 are connected by an address bus 84, a data bus 86, and a control bus 88.
[0069]
In the software cartridge 12, a program ROM 54 storing a game program is mounted on the circuit board 48. The software cartridge 12 is connected to the game apparatus body 10 via connectors 49 and 82, and an address bus 84, a data data bus 86, and a control bus 88 are connected thereto. A power supply line (not shown) is also connected to the software cartridge 12 via connectors 49 and 82.
[0070]
(Function block diagram)
Next, functions of the video game apparatus according to the present embodiment will be described with reference to the block diagram of FIG. FIG. 8 is a functional block diagram when the software cartridge 12 is attached to the game apparatus body 10 and the whole is operating as a video game apparatus.
[0071]
The control unit 100 controls drawing processing and sound generation processing in the video game apparatus. The drawing control unit 102 controls the drawing processing unit 104 to draw a predetermined picture based on the proximity position of the touch pen 28 to the picture book tablet 32. The drawing processing unit 104 draws a diagram in the buffer memory 120 via the buffer memory input / output unit 110. Under the control of the drawing processing unit 104, a predetermined picture is drawn in the buffer memory 120, a diagram is drawn in the buffer memory 120 according to the proximity position of the touch pen 28 to the drawing tablet 24, and the moving object drawing unit 106 Under the control, a picture of a moving body such as an insect or an animal is drawn in the buffer memory 120. The moving object drawing unit 106 draws a picture of the moving object according to the direction of the moving object such as an insect or an animal determined by the route determining unit 107. The sound generation processing unit 108 performs sound generation processing based on the proximity position of the touch pen 28 to the drawing tablet 24 and the color information in the buffer memory 120.
[0072]
When the electronic camera 55 is used, the drawing processing unit 104 performs control based on image data from a memory (not shown) in which image data from the electronic camera 55 is stored.
[0073]
The buffer memory input / output unit 110 writes color information into the buffer memory 120 in accordance with drawing control from the control unit 100, reads color information from the buffer memory 120, and outputs it to the control unit 100.
[0074]
When writing color information, the coordinate conversion unit 112 converts the writing position from the control unit 100 into the address of the buffer memory 120, and the color information writing unit 114 instructs the converted address to the converted address. Write color information.
[0075]
When reading the color information, the reading position from the control unit 100 is converted into the address of the buffer memory 120 by the coordinate conversion unit 116, and the color information of the buffer memory 120 at the converted address is read by the color information reading unit 118. The sound is output to the sound generation processing unit 108 of the control unit 100.
[0076]
As the video information, an image based on the color information stored in the buffer memory 120 is written into the video RAM 66 for each frame and output to the monitor 90 via the video terminal 70.
[0077]
As the audio information, the audio signal output from the sound generation processing unit 108 is output to the monitor 90 via the audio terminal 76.
[0078]
(First example of video game)
Next, a first specific example of the video game of the video game apparatus according to the present embodiment will be described with reference to FIGS.
[0079]
(Basic drawing process)
The drawing process of this example will be described with reference to FIGS.
[0080]
FIG. 9 is a specific example of a picture of the software cartridge 12 used in the drawing process of this specific example. When the touch pen 28 is brought close to each part of the picture in FIG. 9, the proximity position of the touch pen 28 is detected by the picture book tablet 32, and a drawing instruction corresponding to the proximity position is input by pressing the pen button 28 a.
[0081]
When the electronic camera 55 is used, a selection screen similar to that shown in FIG. 9, for example, a selection screen including icons such as a pencil area 211, an eraser area 212, a net area 213, a baton area 214, and a color designation area 215. Is displayed on the monitor 90, for example, the cursor is moved by moving the player's hand to select the icon.
[0082]
In the page 200 on the left side of FIG. 9, a campus area 201 and sample picture areas 202, 203, and 204 are arranged. When the touch pen 28 touches the campus area 201, a campus on which a picture can be freely drawn is displayed on the monitor 90. When the sample picture area 202, 203, 204 is touched with the touch pen 28, a predetermined sample picture is displayed on the monitor 90.
[0083]
In the page 210 on the right side of FIG. 8, a pencil area 211, an eraser area 212, a net area 213, a baton area 214, and a color designation area 215 are arranged. When touching the pencil area 211 with the touch pen 28, the touch pen 28 functions as a pencil. Further, by touching the desired color area of the color designation area 215 with the touch pen 28, the color of the pencil can be designated. When the touch pen 28 contacts the eraser region 212, the touch pen 28 functions as an eraser. When the touch pen 28 touches the net region 213, the touch pen 28 functions as a catching net. When the touch pen 28 contacts the baton area 214, the touch pen 28 functions as a baton.
[0084]
The drawing process will be described with reference to the flowchart of FIG.
[0085]
First, it is determined whether a sample picture is selected with the touch pen 28 (step S10). When the player touches the touch pen 28 with any of the sample picture areas 202, 203, and 204, the drawing control unit 102 controls the drawing processing unit 104 to draw the selected sample picture on the monitor 90 (step S11). . FIG. 11 shows a specific example of the sample picture. A picture of a grand piano is drawn.
[0086]
When using the electronic camera 55, for example, if the cursor is set to move in response to a red component, the human hand has a lot of red component, so the player faces the electronic camera 55. By moving the hand, the player can operate as desired.
[0087]
Further, when a desired function is selected by touching the sample area, pencil area, eraser area, and color designation area with the touch pen 28 and the hand is moved in front of the electronic camera 55 in the selected state, the tablet 24 is moved. Unlike the pen input used, it can be operated without contact.
[0088]
If no sample picture has been selected, it is determined whether or not the campus has been selected with the touch pen 28 (step S12). When the player touches the touch pen 28 with the campus area 201, the drawing control unit 102 controls the drawing processing unit 104 to draw the campus on the monitor 90 (step S13). FIG. 11 shows a specific example of a campus picture. At first, a campus where no picture is drawn is drawn.
[0089]
Next, a diagram is drawn on the monitor 90 using a pencil. Although a case where a diagram is drawn on the campus shown in FIG. 12 will be described, a diagram can also be drawn on the sample picture shown in FIG.
[0090]
In the case of using the electronic camera 55, it is possible to draw a diagram by moving the player's hand by reacting to the redness component that is often present in human hands.
[0091]
First, it is determined whether a pencil and a color are selected by the touch pen 28 (step S14). When the touch pen 28 is brought into contact with the pencil area 211 and any one of the color designation areas 215 is touched, the designated color paint brush 200 is displayed on the monitor 90.
[0092]
Next, it is determined whether or not the touch pen 28 is on the drawing tablet 24 (step S15), and further it is determined whether or not a pen button (not shown) is pressed (step S16). When the player touches the drawing pen 24 with the touch pen 28, a position signal is output from the drawing processing unit 104 to the coordinate conversion unit 112, and a color signal is output to the color information writing unit 114. The coordinate conversion unit 112 converts the position signal into an address signal of the buffer memory 120, and writes the color information indicated by the color signal by the color information writing unit 114 at the converted address (step S17). When the player moves the touch pen 28 while touching the drawing tablet 24, the paint brush 500 moves in synchronization with the movement of the touch pen 28 on the monitor 90 as shown in FIG. The figure is drawn.
[0093]
When using the electronic camera 55, the hand is moved toward the electronic camera 55 to move the designated color paintbrush displayed on the monitor 90 and draw a diagram on the monitor 90. be able to.
[0094]
When the touch pen 28 is brought into contact with the color designation area 215, the color of the paint brush 500 is changed and a plurality of color diagrams are drawn on the campus of the monitor 90. Further, the touch pen 28 is brought into contact with the eraser area 212 to display the eraser on the monitor 90, and then the touch pen 28 is moved while being in contact with the drawing tablet 24, whereby a diagram drawn on the campus of the monitor 90 is displayed. Can be erased. In this way, it is possible to freely draw a picture on the campus of the monitor 90 as if drawing a picture on an actual campus.
[0095]
In the case of using the electronic camera 55, when each function of touching a desired area with the touch pen 28 is selected, a picture can be freely drawn on the monitor 90 as if a picture is drawn on the campus. Here, screen data such as “eraser area” and “color designation area” are prepared in advance and displayed on the monitor 90, and the cursor on the monitor 90 is moved to that area by moving the hand toward the electronic camera 55. Then you can select the desired function.
[0096]
Furthermore, if the player moves his / her hand toward the electronic camera 55, the locus along the movement of the hand can be displayed on the monitor 90, and a picture can be freely drawn on the campus of the monitor 90.
[0097]
When using the electronic camera 55, unlike the case of using the touch pen 28 and the tablet 24, the operation input can be performed in a non-contact manner, so that the user can enjoy drawing with a mysterious feeling.
[0098]
(Sounding process 1)
The sound generation process of this example will be described with reference to the flowchart of FIG. The case where sound generation processing is performed using the sample picture of the grand piano shown in FIG. 11 will be described, but sound generation processing can also be performed using the diagram on the campus shown in FIG.
[0099]
First, it is determined whether or not a baton has been selected with the touch pen 28 (step S20). When the player touches the touch pen 28 with the baton area 214, the baton 502 is displayed on the monitor 90.
[0100]
Next, it is determined whether or not the touch pen 28 is on the drawing tablet 24 (step S21), and further it is determined whether or not the pen button 28a is pressed (step S22). When the player touches the drawing pen 24 with the touch pen 28, the position signal is output from the sound generation processing unit 108 to the coordinate conversion unit 116 and converted into the address of the buffer memory 120. Subsequently, the color information reading unit 118 reads the color signal in the buffer memory 120 at the converted address and outputs it to the sound generation processing unit 108 (step S23).
[0101]
When the electronic camera 55 is used, if it reacts to the red component, the control unit 100 can input the position signal by causing the electronic camera 55 to recognize the red component (for example, a player's hand). . When the position signal is input by the electronic camera 55, the position signal is output from the sound generation processing unit 108 to the coordinate conversion unit 116 and converted into the address of the buffer memory 120. The color information reading unit stores the position signal in the buffer memory 120 at the converted address. Color signals are read out and output to the sound generation processing unit 108.
[0102]
Next, it is determined whether or not the color information has changed (step S24). If there is no change in the color information, it is determined whether or not it is immediately after the pen button 28a is pressed (step S25). If not immediately after the pen button 28a is pressed, the process returns to step S20.
[0103]
If it is immediately after the pen button 28a is pressed, the sound generation processing unit 108 determines whether or not the read color information is transparent or black (step S26). This is because no sound is generated when the color is transparent or black. In addition, in the case of black, the glowing powder is taken out (step S27), and the process returns to step S20.
[0104]
When the electronic camera 55 is used, it is determined whether the color information is transparent or black immediately after the MPU 60 recognizes the redness component via the electronic camera 55.
[0105]
If the read color information is not transparent or black, the sound generation processing unit 108 determines a sound to be generated according to the color information (step S28). An utterance frequency table in which the magnification of the frequency of the sound corresponding to each color information is determined, and the frequency magnification is determined based on the utterance frequency table. Subsequently, the sound generation processing unit 108 outputs the determined sound signal and outputs it to the monitor 90 via the audio terminal 76 to generate a sound (step S29).
[0106]
In FIG. 11, since the baton 502 is positioned on the yellow note 504, a predetermined sound for yellow, for example, a piano sound is generated.
[0107]
In this way, by moving the touch pen 28 on the drawing tablet 24 and pressing the pen button 28a, various sounds corresponding to the instructed color can be generated.
[0108]
Further, when the electronic camera 55 is used, various sounds can be generated according to the color instructed by the player's movement of the hand, for example.
[0109]
Furthermore, as shown in FIG. 11, if the piano keyboard is drawn in a color that matches the pitch, simple music can be freely played by instructing the piano keyboard with the baton 502. It is.
[0110]
When the electronic camera 55 is used, the baton 502 moves on the screen in accordance with the movement of the player's hand, so simple music can be played by instructing the piano keyboard with the baton 502. It is also possible to play freely. Also, in this case, since it can be operated without contact, it can be played more like a real conductor.
[0111]
(Moving object drawing process 1)
Insect movement drawing processing for moving insects in this specific example will be described with reference to FIGS.
[0112]
In this insect movement drawing process, the moving object drawing unit 106 automatically generates an insect that likes the color according to the color used in the campus diagram, and moves the insect along the color line. It is. The player can play a game such as catching the insect by catching insects.
[0113]
(Basic flow)
FIG. 14 shows a basic flow of the insect movement drawing process.
[0114]
The basic flow of the insect movement drawing process includes an initialization process for initializing various parameters (step S30), a standby process for waiting for the occurrence of insects (step S31), and a flying process for causing the insects to fly into the screen. (Step S32), the movement process (Step S33) for moving the insect within the screen, and the flying process (Step S34) for the insect to fly off the screen. The drawing process is performed independently for the number of insects that occur.
[0115]
Details of each process will be sequentially described.
[0116]
(Initialization process)
FIG. 15 is a flowchart of the initialization process.
[0117]
First, various parameters for the display unit are initialized (step S40).
[0118]
Next, an initial position outside the screen when the insect is generated is set by a random number (step S41). Insects fly from this initial position.
[0119]
Next, a landing position where the generated insects land is set by a random number (step S42). The flying insect will land at this position first.
[0120]
Next, the dwell time timer is initialized (step S43). The flying insects fly away after a certain time. The stay time timer measures the time that the insect stays on the screen.
[0121]
Next, the moving direction setting timer is initialized (step S44). The insect resets the moving direction at a certain frequency based on the surrounding color information while moving. The movement direction setting timer measures the time for resetting the movement direction.
[0122]
Next, the traveling direction fluctuation timer is initialized (step S45). In order to make the insects appear to move naturally, the direction of movement is shifted little by little at a certain frequency. The traveling direction fluctuation timer measures the time for generating fluctuation in the moving direction.
[0123]
When the initialization process ends, the process proceeds to the next standby process.
[0124]
(Standby processing)
FIG. 16 is a flowchart of standby processing.
[0125]
In the standby process, the process waits until a specific color that generates an insect is drawn on the campus. If the specific color is drawn, the type of the insect to be generated is determined according to the color. For example, as shown in FIG. 24, if a red line 506 is drawn, a red ladybug 508 which likes red is generated, and if a blue line 510 is drawn, a blue favorite insect 512 is generated. To do.
[0126]
First, it is determined whether or not a predetermined time has elapsed since the color was drawn on the campus (step S50). If no color is drawn on the campus or if a certain time has not passed even if the color is drawn, the process returns to step S50 again.
[0127]
When a certain period of time has elapsed since the color was drawn on the campus, it is then determined whether or not the insect is a favorite color, that is, whether or not it is a color that generates the insect (step S51). If the insect does not like the color, the process returns to step S50 again.
[0128]
If the insect is one of the favorite colors, the insect type corresponding to that color is determined (step S52). For example, a ladybug is selected if it is red, and an insect that likes blue is selected if it is blue.
[0129]
Subsequently, based on the determined insect type, a color that the insect does not like is set (step S53). For example, green is selected for ladybugs, and brown is selected for insects that like blue.
[0130]
When the standby process ends, the process proceeds to the next incoming process.
[0131]
(Flying process)
FIG. 17 is a flowchart of the incoming process.
[0132]
First, from the initial position outside the screen determined in step S41 of the initialization process of FIG. 15, the type of insects determined in step S52 of the standby process of FIG. 16 are skipped (step S60), and the initialization process steps of FIG. Fly toward the landing position in the screen determined in S42 (step S61).
[0133]
Subsequently, it is determined whether or not the insect has reached the landing position (step S62). If the landing position has not been reached, the process returns to step S61 again. If the landing position has been reached, the flying process is terminated and the process proceeds to the next movement process.
[0134]
(Move process)
FIG. 18 is a flowchart of the movement process, FIG. 19 is a flowchart of the course determination process during the movement process, and FIG. 20 is a flowchart of the movement boundary check process during the movement process.
[0135]
First, as shown in FIG. 18, a course determination process for determining the path of insects according to surrounding color information is performed (step S71). Details of the course determination process will be described with reference to FIG.
[0136]
In the course determination process, first, the moving direction setting timer is decremented (step S90), and it is determined whether or not the moving direction setting timer has become zero (step S91). If the movement direction setting timer is not zero, the current traveling direction is maintained without being changed, and the movement process is terminated.
[0137]
If the moving direction setting timer is zero, a color information work memory is created (step S93). The color information work memory detects and stores color information around the current position of the insect for reference when determining the course. Sixteen specific direction areas are set around the current position of the insect as shown in FIG. These 16 specific direction areas are arranged at a predetermined distance apart in 16 directions around the current position. Each specific direction region has a certain number of dots, for example, an area of 6 dots.
[0138]
The course decision unit 107 reads the color information of the specific direction area. The course determination unit 107 outputs the reading position of each dot in the specific direction area to the coordinate conversion unit 56, and the coordinate conversion unit 116 converts the address into the buffer memory 120, and the color information in the buffer memory 120 at the converted address is color. The information is read by the information reading unit 118 and output to the route determination unit 107. It is determined whether or not the color information is a color that the insect likes or dislikes, and each is counted. The color information is read for all 16 specific direction areas, the number of favorite colors and the number of disliked colors for each specific direction area are counted and stored in the color information work memory.
[0139]
Next, referring to the color information work memory, the next traveling direction of the insect (hereinafter referred to as “turning direction”) is determined (step S94). The direction with many favorite colors around the current traveling direction is determined as the turning direction. For example, as shown in FIG. 23, assuming that the current traveling direction is the upper right direction (1), first, the specific direction area in the upper right direction (1), which is the traveling direction, is investigated, and then The color information of the specific direction area in the direction (2) to the left of the traveling direction is checked, and the color information of the specific direction area in the direction (3) to the right of the travel direction is checked. Investigate the color information of the specific direction area in the direction (4) that is further to the left of the direction. . . Sequentially, the color information of nine specific direction areas centering on the traveling direction is examined in the order indicated by the circled numbers in FIG. Investigate the number of dots of your favorite color and the presence of disliked colors.
[0140]
As a result of the investigation, the direction in which the number of dots of the most favorite color is large is set as the turning direction. If the number of dots of the favorite color is the same, priority is given to the direction closer to the current traveling direction, with the direction with a small number of circles shown in FIG.
[0141]
Next, from the presence / absence of the disliked color investigated in step S94, the number of specific direction areas including the disliked color in the investigated specific direction area is counted (step S95). If there is no specific direction area including the disliked color, the turning direction determined in step S94 is maintained and the process proceeds to step S97. If there are one or two specific direction areas including disliked colors, it is determined that there are disliked colors in the surroundings, the turning direction determined in step S94 is changed by 180 degrees (step S96), and the process proceeds to step S97. . If there are three or more specific direction areas including disliked colors, it is determined that there are a lot of disliked colors in the surroundings, and the process proceeds to the process of flying away insects (step S34).
[0142]
Next, the traveling direction fluctuation timer is decremented (step S97), and it is determined whether or not the traveling direction fluctuation timer has become zero (step S98). If the traveling direction fluctuation timer is not zero, the current traveling direction is maintained without being changed, and the course determination process is terminated.
[0143]
If the traveling direction fluctuation timer is zero, fluctuation is given to the determined turning direction (step S99). Based on the random number, select one direction based on the random number from the determined direction of rotation, the next direction counterclockwise from the direction of rotation, and the next direction clockwise from the direction of rotation. .
[0144]
When the path of the insect is determined according to the surrounding color information by the path determination process in step S71, a movement boundary check process is subsequently performed to reverse the movement of the insect at the edge of the screen (step S72). Details of the moving boundary check process will be described with reference to FIG.
[0145]
In the movement boundary check process, first, when the vehicle travels in the turning direction determined by the course determination process, it is determined whether or not the screen will protrude from the screen in the left-right direction (step S100). If it is determined that it will protrude, the direction of travel is reversed left and right (step S101).
[0146]
Next, when the vehicle travels in the turning direction determined by the course determination process, it is determined whether or not the screen protrudes from the screen in the vertical direction (step S102). If it is determined that it will protrude, the traveling direction is turned upside down (step S103).
[0147]
The current speed is added to the final turning direction determined in this way to determine the next new coordinate (step S104). The drawing processing unit 104 draws the insect so that the insect moves to the coordinate position thus determined.
[0148]
When the next new coordinates are finally determined by the moving boundary process in step S72, the process proceeds to the bug removing game process in step S73 and subsequent steps in FIG.
[0149]
An outline of the bug trapping game will be described. When the player wants to play a bug catching game, the touch pen 28 is brought into contact with the net area 213 and a cursor 514 of a bug catching net is displayed on the monitor 90 as shown in FIG. By moving the touch pen 28 while touching the drawing tablet 24 and pressing the pen button 28a, the insects 508 and 512 on the monitor 90 can be captured and moved together with the insect catching net 514.
[0150]
Note that when using an electronic camera, if the net cursor 514 is set to move in response to redness, for example, the net cursor 514 moves on the screen in accordance with the movement of the player's hand. Therefore, the insects 508 and 512 on the monitor 90 can be captured and moved together with the insect catching net 514.
[0151]
Separately, when a selection button (not shown) is displayed on the screen and the hand is moved toward the electronic camera 55 to move the cursor on the screen, the cursor is superimposed on the selection button. The display may be changed to a net cursor 514 for display.
[0152]
First, it is determined whether or not the cursor on the screen by the touch pen 28 is touching an insect and the pen button 28a is pressed (step S73). If it is determined that the cursor on the screen is touching an insect and the pen button 28a is pressed, it is determined whether or not the cursor is an insect net (step S74). If it is determined that the cursor is not a bug net, the process proceeds to the next fly-off process (step S34).
[0153]
When using the electronic camera, the cursor may be touched by a bug on the screen, and the process may be skipped when the moving speed of the cursor is equal to or higher than a predetermined speed. The number of frames required to move the cursor is obtained from the difference between the current frame and the past frame, and the speed is calculated by multiplying the number of frames by 1/60 seconds (one frame time).
[0154]
If it is determined that the cursor is a insect net, it is determined whether or not the cursor is separated from the insect net (step S75). If it is determined that they are separated, the process returns to step S77 and the above-described processing is repeated. If it is not separated from the insect trapping net, it is determined that the insect is caught by the insect trapping net, and a new coordinate value of the insect is determined so that the insect moves toward the center of the insect trapping net ( Step S76). Subsequently, the process returns to step S75 again, and the processes of steps S75 and S76 are repeated. In this way, the insects 508 and 510 can be caught by the insect catching net 514 and moved together.
[0155]
If it is determined in step S73 that the cursor on the screen by the touch pen 28 is not touching an insect, it is then determined whether or not the screen has been completely erased (step S77). If the entire screen has been erased, the process proceeds to the next skipping process (step S34).
[0156]
If the entire screen has not been erased, it is determined by referring to the color information work memory whether there is a color that the insect likes in the surroundings (step S78). If there is a favorite color in the surroundings, the dwell time timer is initialized (step S81), the process returns to step S77, and the above-described processing is repeated.
[0157]
If there is no favorite color in the surroundings, the stay time timer is decreased (step S79), and it is determined whether or not this stay time timer has become zero (step S80). If the stay time timer is not zero, the process returns to step S77 and the above-described processing is repeated. If the stay time timer has become zero, the process proceeds to the next fly-off process (step S34).
[0158]
(Flying process)
FIG. 21 is a flowchart of the flying process.
[0159]
First, the insect is blown from the current position (step S110), and is blown toward a predetermined position outside the screen (step S111). Subsequently, it is determined whether or not the insect has gone out of the screen (step S112). If it is not out of the screen, the process returns to step S111 again. If it is outside the screen, the flying process is terminated, the process returns to the initialization process (step S30) again, and the above-described process is repeated.
[0160]
In this way, the generation and movement of these insects are performed automatically, and no special operation by the player is required, but the player can play a game such as capturing the insect by catching insects.
[0161]
According to the sound generation process and the moving object drawing process as described above, the picture is not simply drawn on the monitor, but the picture is used to generate a sound, play music, or catch an insect. Various games such as can be performed.
[0162]
(Second specific example of video game)
Next, a second specific example of the video game of the video game apparatus according to the present embodiment will be described with reference to FIGS. The sound generation process and the moving object drawing process are different from the first specific example.
[0163]
(Sound production process 2)
The sound generation process of this example will be described with reference to the flowchart of FIG. A case where sound generation processing is performed using the sample picture of the grand piano shown in FIG. 26 will be described.
[0164]
First, it is determined which type of command stick has been selected by the touch pen 28 (step S120). In this specific example, a command bar that emits the tone of another animal can be selected in addition to a command bar that plays a normal organ sound. As shown in FIG. 26, the type of baton can be displayed on the screen as a tool box 520. The player operates the touch pen 28 to place the cursor on the animal picture in the tool box 520 and press the pen button. Press 28a to select the desired animal. For example, when a cat picture 522 in the tool box 520 is selected, as shown in FIG. 26, a command stick 524 having a cat picture at the tip is displayed.
[0165]
When the electronic camera 55 is used for selection, a plurality of selectable command bar buttons are displayed on the screen, and a selection is made by placing the cursor on the screen on the desired command button. For example, if the image is processed so as to react to redness, the movement of the cursor can be realized by moving the cursor accordingly when the player moves his / her hand toward the electronic camera 55.
[0166]
Next, it is determined whether or not the touch pen 28 is on the drawing tablet 24 (step S121), and further it is determined whether or not the pen button 28a is pressed (step S122). When the player touches the drawing pen 24 with the touch pen 28, the position signal is output from the sound generation processing unit 108 to the coordinate conversion unit 116 and converted into the address of the buffer memory 120. Subsequently, the color information reading unit 118 reads the color signal in the buffer memory 120 at the converted address and outputs it to the sound generation processing unit 108 (step S123).
[0167]
Next, it is determined whether or not the color information has changed (step S124). If there is no change in color information, it is determined whether or not it is immediately after the pen button 28a is pressed (step S125). If not immediately after the pen button 28a is pressed, the process returns to step S120.
[0168]
If it is immediately after the pen button 28a is pressed, the sound generation processing unit 108 determines whether the read color information is transparent, water, or black (step S126). If it is transparent or water or black, the process returns to step S120 without generating a sound.
[0169]
If the read color information is not transparent or water or black, the sound generation processing unit 108 determines a sound to be generated according to the color information and the type of the baton (step S127). A voice that defines the tone color (organ sound, dog voice, cat voice, monkey voice, pig voice, elephant voice) according to the type of conductor, and the sound frequency magnification corresponding to each color information A frequency table is defined, and a generated sound is determined based on the tone color and the utterance frequency table. For example, when a cat is selected, the scale can be played with the voice of the cat.
[0170]
Subsequently, the sound generation processing unit 108 outputs the determined sound signal and outputs it to the monitor 90 via the audio terminal 76 to generate a sound (step S128).
[0171]
In FIG. 26, since the cat baton 524 is positioned on the yellow note 504, a predetermined sound for the cat baton and yellow, for example, a sound of a cat's voice with a height is recorded. appear.
[0172]
In this way, by moving the touch pen 28 on the drawing tablet 24 and pressing the pen button 28a, various sounds corresponding to the instructed color can be generated.
[0173]
(Moving object drawing process 1)
An animal movement drawing process for moving an animal in this example will be described with reference to FIGS.
[0174]
In this animal movement drawing process, an animal appears on the campus by clicking on the picture of the animal in the picture book, and the animal is moved along the color line. Depending on the color information of the surroundings, the picture of the animal changes and sometimes takes a break. In this specific example, as shown in FIG. 34, a hip 221, a gorilla 222, a lion 232, a bird 231, and an elephant 234 are drawn in a picture book, and these five kinds of animals can appear.
[0175]
(Basic flow)
FIG. 27 shows a basic flow of the animal movement drawing process.
[0176]
The basic flow of the animal movement drawing process includes an initialization process for initializing various parameters (step S130), a standby process for waiting until an animal is requested (step S131), and an appearance for causing the selected animal to appear on the screen. Processing (step S132), movement processing for moving or resting animals on the screen (step S133), and exit processing for leaving animals from the screen (step S134) are performed in this order. The drawing process is independently performed for the number of animals generated.
[0177]
Details of each process will be sequentially described.
[0178]
(Initialization process)
FIG. 28 is a flowchart of the initialization process.
[0179]
First, various parameters for the display unit are initialized (step S140).
[0180]
Next, an initial position outside the screen when the animal appears is set by a random number (step S141). Animals appear from this initial position.
[0181]
Next, the favorite color according to the kind of animal which appears is set (step S142). For example, if you are a hippopotamus, if you are an elephant, you like a grass color.
[0182]
Next, the moving direction setting timer is initialized (step S143). The animal resets the moving direction at a certain frequency based on the surrounding color information while moving. The movement direction setting timer measures the time for resetting the movement direction.
[0183]
Next, the traveling direction fluctuation timer is initialized (step S144). In order to make the animal appear to move naturally, the movement direction is gradually shifted at a certain frequency. The traveling direction fluctuation timer measures the time for generating fluctuation in the moving direction.
[0184]
Next, the inversion suppression timer is initialized (step S145). When the moving direction of the animal is reversed, the image of the animal is switched according to the direction. However, in order to make the animal appear to move naturally, the animal image is not changed immediately even if the moving direction is reversed. Suppresses the inversion of the time image. The inversion suppression timer measures the time for suppressing the inversion of the image.
[0185]
When the initialization process ends, the process proceeds to the next standby process.
[0186]
(Standby processing)
FIG. 29 is a flowchart of standby processing.
[0187]
In the waiting process, the process waits until the animal picture in the picture book is touched with the touch pen 28, and prepares to make the touched animal appear.
[0188]
First, it is determined whether or not an animal picture in the picture book has been touched with the touch pen 28 (step S150). If it is not touched anywhere with the touch pen 28 or if it is not touched by the position of the animal picture, the process returns to step S150 again.
[0189]
If an animal picture is touched by the touch pen 28, the type of animal is determined from the output of the picture book tablet 32 (step S151).
[0190]
When the electronic camera 55 is used for selection, a picture of a selectable animal is displayed on the screen, and the selection is made by superimposing a cursor on the screen on the picture of the desired animal.
[0191]
Subsequently, the end position of the movement within the campus when the animal appears is set with a random number (step S152).
[0192]
When the standby process ends, the process proceeds to the next appearance process.
[0193]
(Appearance process)
FIG. 30 is a flowchart of the appearance process.
[0194]
First, from the initial position outside the screen defined in step S141 of the initialization process of FIG. 28, the type of animal defined in step S151 of the standby process of FIG. 29 is caused to appear (step S160), and the standby process step of FIG. 29 is performed. It moves toward the end position in the screen determined in S152 (step S161).
[0195]
Subsequently, it is determined whether or not the animal has reached the end position (step S162). If the end position has not been reached, the process returns to step S161 again. If the end position has been reached, the appearance process is terminated and the process proceeds to the next movement process.
[0196]
(Move process)
FIG. 31 is a flowchart of the movement process, and FIG. 32 is a flowchart of the speed setting / animal inversion process during the movement process. Note that the details of the course determination process and the movement boundary check process during the movement process are the same as those in the first specific example, and thus description thereof is omitted.
[0197]
First, as shown in FIG. 31, a course determination process for determining the course of an animal according to surrounding color information is performed (step S170). The details of the course determination process are the same as those in FIG. 19 of the first specific example, but the difference from the first specific example is that the process regarding the disliked color is not performed.
[0198]
When the course of the animal is determined according to the surrounding color information by the course determination process in step S170, the speed setting / animal inversion process is subsequently performed (step S171). Details of the speed setting / animal inversion processing will be described with reference to FIG.
[0199]
In the speed setting / animal determination process, first, the speed is determined from the turning direction determined by the course determination process, and the horizontal and vertical speed components are obtained (step S181). Since the moving speed differs depending on the animal, the moving speed is read from the speed conversion table, and the horizontal and vertical speed components are obtained from the moving speed and the turning direction.
[0200]
Next, it is determined whether or not the current traveling direction matches the left and right orientations of the current animal image (step S182). A left-facing image and a right-facing image are prepared in advance as images of each animal. If the horizontal component of the speed is to the left, the left-facing image of the animal is displayed, and if it is to the right, a right-facing image is displayed. In step S182, it is determined whether the orientation of the animal image is in the traveling direction.
[0201]
If it is determined that the current traveling direction does not match the orientation of the animal image, the inversion suppression timer is decremented (step S183), and it is determined whether the inversion suppression timer has become zero (step S184). If the inversion suppression timer is zero, the image of the animal is switched to an image in the matching direction (step S185).
[0202]
If it is determined in step S182 that the current traveling direction matches the left and right orientation of the animal image, the inversion suppression timer is initialized (step S186), and the process proceeds to the next moving boundary check process.
[0203]
If it is determined in step S184 that the inversion suppression timer is not zero, the process proceeds to the next moving boundary check process.
[0204]
Subsequently, a moving boundary check process is performed to invert the animal at the edge of the screen (step S72). The details of the moving boundary check process are the same as those in FIG.
[0205]
When the next new coordinate is finally determined by the moving boundary process in step S72, the process proceeds to the process after step S173 in FIG.
[0206]
First, a process of switching an animal image based on surrounding color information is performed.
[0207]
First, the color information work memory created in the course determination process in step S170 is referred to count how many dots around the favorite color of the appearing animal, for example, determine whether there are 46 or more (see FIG. Step S173). If the number is 46 or more, the image of the animal is switched (step S174).
[0208]
For example, in the case of a hippopotamus, if it is surrounded by a light blue color 530, it is determined that the hippo is underwater, and the hippo image is submerged from the walking hippo image 532 shown in FIG. Switch to the image 534 of the hippopotamus swimming. As shown in FIG. 36, it looks as if the hippopotamus 534 is swimming in the water 530. Realistic image display can be performed by switching images when other animals are surrounded by favorite colors.
[0209]
Next, a process is performed in which the animal takes a break at regular intervals. The movement is paused at regular intervals, and an image of a resting animal is displayed. When the break time ends, the movement starts again. Set a break timer for each animal. The time of the break timer varies depending on the animal.
[0210]
First, it is determined whether or not it is a break timing (step S175). If it is time for a break, an image of a resting animal is displayed (step S176). If it is not a break timing, the process proceeds to step S178.
[0211]
Subsequently, it is determined whether or not the break time timer for measuring the break time has become zero (step S177). If the break time timer is zero, an image of the animal at the end of the break is displayed (step S180).
[0212]
Next, a process of generating a cry by clicking an animal image is performed. When the touch pen 28 is operated to move the cursor to an animal on the screen and click, the animal changes its image and generates a cry.
[0213]
First, it is determined whether or not the cursor is on the animal and the touch pen 28 is clicked (step S178). When clicked, an image of an animal that generates a cry is displayed and a cry is generated (step S179).
[0214]
When selecting using the electronic camera 55, a picture of a selectable animal is displayed on the screen, and the cursor on the screen is overlaid on the picture of the desired animal, and the cursor is moved to the left and right. Select with.
[0215]
(Exit processing)
FIG. 33 is a flowchart of exit processing.
[0216]
First, it is determined whether or not an animal picture in the picture book has been touched with the touch pen 28 (step S190). If it is not touched anywhere with the touch pen 28 or if it is not touched by the position of the animal picture, the process returns to the initialization process (step S130) again, and the above-described process is repeated.
[0217]
If an animal picture is touched with the touch pen 28, an exit process for leaving the displayed animal out of the screen is performed. The animal image is moved toward a predetermined position outside the screen (step S191). Subsequently, it is determined whether or not the animal has moved out of the screen (step S192). If not, the process returns to step S191 again. If it is outside the screen, the exit process is terminated, the process returns to the initialization process (step S130) again, and the above-described process is repeated.
[0218]
In this way, various games can be played by generating animals according to the player's instructions, moving them according to the color information of the picture drawn, switching images, taking a break, or making a cry. .
[0219]
When the electronic camera 55 is used, selection means or switching means that can select whether the touch pen 28 or the electronic camera 55 is used as input means is provided. This selection means or switching means may be provided as hardware such as a changeover switch, or may be provided as software such as a program that allows selection on the screen.
Further, both the operation input by the electronic camera 55 and the operation input by the touch pen 28 may be made possible so that both input means can be used simultaneously. For example, a child can perform an operation input using the touch pen 28, and a parent can perform an operation input using the electronic camera 55. A cursor that can be independently operated may be displayed on the display screen, and an operation display corresponding to each operation input, for example, an input operation for drawing a diagram with the cursor may be displayed on the same screen.
[0220]
[Modified Embodiment]
The present invention is not limited to the above embodiment, and various modifications can be made.
[0221]
For example, although the video game device for infants is used in the above embodiment, the basic configuration may be the same as that in the above embodiment, and the present invention may be applied to other game devices.
[0222]
In addition to the game device, the basic configuration may be the same as that of the above-described embodiment, and the present invention may be applied to an electronic tablet such as an electronic tablet that electronically writes pictures.
[0223]
The basic configuration may be the same as that of the above embodiment, and the present invention may be applied to image processing such as a game program and an image program in a general-purpose computer such as a personal computer.
[0224]
The basic configuration may be the same as in the above embodiment, and the present invention may be applied to other games such as a music game that is operated in accordance with music.
[0225]
【The invention's effect】
As described above, according to the present invention, the image pickup means for picking up an image, the storage means for storing image data picked up by the image pickup means for a plurality of frames, and the image data stored in the storage means are sequentially displayed on the display screen. Based on the difference data calculated by the difference calculation means, and the difference calculation means for calculating difference data obtained by comparing the image data of one frame with the image data of another frame. Since the behavior of the moving body displayed on the display screen is determined, specific information can be obtained from the captured image of a player or the like, and the image display can be controlled based on the information.
[Brief description of the drawings]
FIG. 1 is a block diagram showing functions of a video game apparatus according to a first embodiment of the present invention.
FIG. 2 is an explanatory diagram showing a first specific example of the playing method of the video game apparatus according to the first embodiment of the present invention.
FIG. 3 is an explanatory diagram showing a second specific example of the playing method of the video game apparatus according to the first embodiment of the present invention.
FIG. 4 is an explanatory diagram showing a third specific example of the playing method of the video game apparatus according to the first embodiment of the present invention.
FIG. 5 is a perspective view showing an appearance of a video game apparatus according to a second embodiment of the present invention.
FIG. 6 is a diagram showing a software cartridge of a video game apparatus according to a second embodiment of the present invention.
FIG. 7 is a block diagram showing a hardware configuration of a video game apparatus according to a second embodiment of the present invention.
FIG. 8 is a functional block diagram of a video game apparatus according to a second embodiment of the present invention.
FIG. 9 is a diagram showing an example of a picture book of a software cartridge in a first specific example of a video game according to the second embodiment of the present invention.
FIG. 10 is a flowchart of a drawing process in the first specific example of the video game according to the second embodiment of the present invention.
FIG. 11 is a diagram showing an example of a sample picture in the first specific example of the video game according to the second embodiment of the present invention.
FIG. 12 is a diagram showing an example of a picture of a campus in the first specific example of the video game according to the second embodiment of the present invention.
FIG. 13 is a flowchart of a sound generation process in the first specific example of the video game according to the second embodiment of the present invention.
FIG. 14 is a flowchart of an insect movement drawing process in the first specific example of the video game according to the second embodiment of the present invention.
FIG. 15 is a flowchart of initialization processing in the first specific example of the video game according to the second embodiment of the present invention;
FIG. 16 is a flowchart of standby processing in the first specific example of the video game according to the second embodiment of the present invention;
FIG. 17 is a flowchart of the flying process in the first specific example of the video game according to the second embodiment of the present invention.
FIG. 18 is a flowchart of movement processing in a first specific example of a video game according to the second embodiment of the present invention;
FIG. 19 is a flowchart of a course determination process in the first specific example of the video game according to the second embodiment of the present invention.
FIG. 20 is a flowchart of a moving boundary check process in the first specific example of the video game according to the second embodiment of the present invention.
FIG. 21 is a flowchart of a flying process in the first specific example of the video game according to the second embodiment of the present invention.
FIG. 22 is an explanatory diagram of a course decision process in the first specific example of the video game according to the second embodiment of the present invention.
FIG. 23 is an explanatory diagram of a course decision process in the first specific example of the video game according to the second embodiment of the present invention.
FIG. 24 is a diagram showing an example of a picture of a campus in the first specific example of the video game according to the second embodiment of the present invention.
FIG. 25 is a flowchart of sound generation processing in the second specific example of the video game according to the second embodiment of the present invention.
FIG. 26 is a diagram showing a specific example of a sample picture in the second specific example of the video game according to the second embodiment of the present invention.
FIG. 27 is a flowchart of an animal movement drawing process in the second specific example of the video game according to the second embodiment of the present invention.
FIG. 28 is a flowchart of initialization processing in the second specific example of the video game according to the second embodiment of the present invention.
FIG. 29 is a flowchart of standby processing in a second specific example of the video game according to the second embodiment of the present invention.
FIG. 30 is a flowchart of an appearance process in a second specific example of the video game according to the second embodiment of the present invention.
FIG. 31 is a flowchart of movement processing in a second specific example of the video game in the second embodiment of the present invention;
FIG. 32 is a flowchart of speed setting / animal inversion processing in the second specific example of the video game according to the second embodiment of the present invention;
FIG. 33 is a flowchart of exit processing in a second specific example of the video game according to the second embodiment of the present invention.
FIG. 34 is a diagram illustrating an example of a picture book of a software cartridge in a second specific example of the video game according to the second embodiment of the present invention.
FIG. 35 is a diagram showing an example of a picture of a campus in the second specific example of the video game according to the second embodiment of the present invention.
FIG. 36 is a diagram showing an example of a picture of a campus in the second specific example of the video game according to the second embodiment of the present invention.
[Explanation of symbols]
10 ... Game device body
12 ... Software cartridge
14 ... Bottom lid
16 ... Upper lid
18 ... Cartridge slot
20 ... Direction buttons
22 ... execute button
24 ... Drawing tablet
26 ... Touch pen holder
28 ... Touch pen
28a ... Pen button
32 ... Picture book tablet
34 ... Power switch
36 ... Reject button
38 ... Page sensor
40 ... Binding ring
42 ... Page
46. Picture book placement part
48 ... Circuit board
50. Substrate storage part
52 ... Sensor hole
54 ... Program ROM
55 ... Electronic camera
60 ... MPU
62 ... RAM
64 ... Video display processor (VDP)
66 ... Video RAM
70 ... Video terminal
72. Speech synthesis LSI
76 ... Audio terminal
78 ... Controller
80 ... Analog switch
84 ... Address bus
86: Data bus
88 ... Control bus
90 ... Monitor
100: Control unit
102: Drawing control unit
103: Drawing processing unit
106: Moving object drawing unit
107 ... Course determining unit
110: Buffer memory input / output unit
112 ... coordinate conversion unit
114 ... color information writing unit
116: Coordinate conversion unit
118 ... Color information reading unit
120: Buffer memory
200: Game device
202 ... CPU
204 ... System memory
206: Program data storage device or storage medium
208 ... BOOTROM
210 ... Bus Arbiter
212 ... Rendering processor
214 ... Graphic memory
216 ... Display monitor
218 ... Audio processor
220: Audio memory
222 ... Speaker
224 Modem
226 ... Controller
228 ... Backup memory
230 ... Microphone
232 ... Electronic camera
300, 310 ... Player
302, 304 ... moving body
314 ... Indicator bar

Claims (4)

遊戯者を撮像する撮像手段と、
前記撮像手段によりフレーム毎に前記遊戯者を撮像した複数の画像データを記憶する記憶手段と、
前記記憶手段に記憶された画像データを表示画面上に順次表示する画像表示手段と、
前記複数の画像データのうち、一のフレームの画像データと他のフレームの画像データとを比較して得られる差分データを算出する差分算出手段と、
前記差分算出手段により算出された前記差分データに基づいて前記遊戯者の手の動きを検出し、前記遊戯者の手の移動距離を累積した累積距離が所定の設定値を超えたときに、前記遊戯者による操作入力と判断してゲームプログラムを起動し、前記画像表示手段により前記表示画面上に前記ゲームの画面を表示させる制御手段とを有し、
前記制御手段は、前記差分算出手段により算出された前記差分データに基づいて前記遊戯者の手の動きの速さを算出し、前記手の動きの速さが所定値以上の場合には前記移動距離をそのまま累積し、前記手の動きの速さが所定値以下の場合には前記移動距離から所定距離を減算したものを累積することを特徴とする画像処理システム。
Imaging means for imaging a player;
Storage means for storing a plurality of image data obtained by imaging the player for each frame by the imaging means;
Image display means for sequentially displaying the image data stored in the storage means on a display screen;
A difference calculating means for calculating difference data obtained by comparing the image data of one frame and the image data of another frame among the plurality of image data;
The movement of the player's hand is detected based on the difference data calculated by the difference calculating means, and when the accumulated distance obtained by accumulating the movement distance of the player's hand exceeds a predetermined set value, A control means for starting a game program on the basis of an operation input by a player and displaying the game screen on the display screen by the image display means;
The control means calculates the speed of movement of the player's hand based on the difference data calculated by the difference calculation means, and if the speed of movement of the hand is a predetermined value or more, the movement An image processing system characterized by accumulating distances as they are and accumulating a value obtained by subtracting a predetermined distance from the moving distance when the speed of movement of the hand is a predetermined value or less.
前記制御手段は、前記遊戯者の手の動きが検出されてから所定時間が経過しても前記累積距離が前記所定の設定値を超えない場合には、前記累積距離をリセットすることを特徴とする請求項1記載の画像処理システム。  The control means resets the cumulative distance when the cumulative distance does not exceed the predetermined set value even after a predetermined time has elapsed since the movement of the player's hand was detected. The image processing system according to claim 1. 前記表示画面上に特定の検出領域を設定し、前記差分算出手段は、前記特定の検出領域における差分データを算出し、前記制御手段は、前記差分算出手段により算出された前記特定の検出領域の差分データに基づいて前記遊戯者による操作入力を判断することを特徴とする請求項1又は2に記載の画像処理システム。  A specific detection area is set on the display screen, the difference calculation means calculates difference data in the specific detection area, and the control means calculates the difference between the specific detection areas calculated by the difference calculation means. The image processing system according to claim 1, wherein an operation input by the player is determined based on difference data. 遊戯者を撮像する撮像手段と、
前記撮像手段によりフレーム毎に前記遊戯者を撮像した複数の画像データを記憶する記憶手段と、
前記記憶手段に記憶された画像データを表示画面上に順次表示する画像表示手段と、
前記複数の画像データのうち、一のフレームの画像データと他のフレームの画像データとを比較して得られる差分データを算出する差分算出手段と、
前記差分算出手段により算出された前記差分データのうち、赤み成分の差分データに基づいて前記遊戯者の手の動きを検出すると共に、前記遊戯者の手の動きの速さを算出し、前記手の動きの速さが所定値以上の場合には前記遊戯者の手の移動距離をそのまま累積し、前記手の動きの速さが所定値以下の場合には前記移動距離から所定距離を減算したものを累積し、前記遊戯者の手の移動距離を累積した累積距離が所定の設定値を超えたときに、前記遊戯者による操作入力と判断してゲームプログラムを起動し、前記画像表示手段により前記表示画面上に前記ゲームの画面を表示させる制御手段と
を有することを特徴とする画像処理システム。
Imaging means for imaging a player;
Storage means for storing a plurality of image data obtained by imaging the player for each frame by the imaging means;
Image display means for sequentially displaying the image data stored in the storage means on a display screen;
A difference calculating means for calculating difference data obtained by comparing the image data of one frame and the image data of another frame among the plurality of image data;
Of the difference data calculated by the difference calculation means, the movement of the player's hand is detected based on the difference data of the redness component, the speed of the player's hand movement is calculated, and the hand When the movement speed of the player is equal to or greater than a predetermined value, the movement distance of the player's hand is accumulated as it is, and when the movement speed of the hand is equal to or less than the predetermined value, the predetermined distance is subtracted from the movement distance. When the cumulative distance obtained by accumulating the movement distance of the player's hand exceeds a predetermined set value, the game program is started by determining that the operation input is made by the player, and the image display means An image processing system comprising: control means for displaying the game screen on the display screen.
JP2001039272A 2000-02-15 2001-02-15 Image processing system, image processing apparatus, and imaging apparatus Expired - Lifetime JP4006949B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2001039272A JP4006949B2 (en) 2000-02-15 2001-02-15 Image processing system, image processing apparatus, and imaging apparatus

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2000-37282 2000-02-15
JP2000037282 2000-02-15
JP2001039272A JP4006949B2 (en) 2000-02-15 2001-02-15 Image processing system, image processing apparatus, and imaging apparatus

Publications (3)

Publication Number Publication Date
JP2001307124A JP2001307124A (en) 2001-11-02
JP2001307124A5 JP2001307124A5 (en) 2005-04-14
JP4006949B2 true JP4006949B2 (en) 2007-11-14

Family

ID=26585415

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2001039272A Expired - Lifetime JP4006949B2 (en) 2000-02-15 2001-02-15 Image processing system, image processing apparatus, and imaging apparatus

Country Status (1)

Country Link
JP (1) JP4006949B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102270276A (en) * 2010-06-11 2011-12-07 微软公司 Caloric burn determination from body movement

Families Citing this family (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4615252B2 (en) * 2000-10-06 2011-01-19 株式会社ソニー・コンピュータエンタテインメント Image processing apparatus, image processing method, recording medium, computer program, semiconductor device
JP4701411B2 (en) * 2003-09-18 2011-06-15 新世代株式会社 Music game device, music game system, operation article, music game program, and music game method
JP4735802B2 (en) * 2003-10-23 2011-07-27 新世代株式会社 GAME DEVICE, GAME PROGRAM, AND GAME DEVICE CONTROL METHOD
JP3904562B2 (en) 2004-02-18 2007-04-11 株式会社ソニー・コンピュータエンタテインメント Image display system, recording medium, and program
JP3851907B2 (en) 2004-02-18 2006-11-29 株式会社ソニー・コンピュータエンタテインメント Image display system and video game system
JP4005061B2 (en) 2004-06-30 2007-11-07 株式会社ソニー・コンピュータエンタテインメント Information processing apparatus, program, and object control method in information processing apparatus
JP4005060B2 (en) 2004-06-30 2007-11-07 株式会社ソニー・コンピュータエンタテインメント Information processing system, program, and game character movement control method
WO2006059743A1 (en) * 2004-12-03 2006-06-08 Ssd Company Limited Boxing game processing method, display control method, position detection method, cursor control method, energy consumption calculating method and exercise system
WO2006098255A1 (en) * 2005-03-15 2006-09-21 Shunsuke Nakamura Image display method and device thereof
GB2438449C (en) * 2006-05-24 2018-05-30 Sony Computer Entertainment Europe Ltd Control of data processing
JP2010142592A (en) * 2008-12-22 2010-07-01 Nintendo Co Ltd Game program and game device
JP5446572B2 (en) * 2009-08-12 2014-03-19 学校法人近畿大学 Image generation system, control program, and recording medium
JP5551675B2 (en) * 2011-11-30 2014-07-16 株式会社ソニー・コンピュータエンタテインメント Game apparatus and virtual object control method
CN107320949B (en) 2012-02-06 2021-02-02 索尼互动娱乐欧洲有限公司 Book object for augmented reality
JP5689103B2 (en) * 2012-11-07 2015-03-25 任天堂株式会社 GAME PROGRAM, GAME SYSTEM, GAME DEVICE, AND GAME CONTROL METHOD
JP5979450B2 (en) * 2014-07-28 2016-08-24 株式会社クラス・マイスター Game device control program
WO2019123509A1 (en) * 2017-12-18 2019-06-27 ガンホー・オンライン・エンターテイメント株式会社 Terminal device, system, program and method
CN115500740B (en) * 2022-11-18 2023-04-18 科大讯飞股份有限公司 Cleaning robot and cleaning robot control method

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102270276A (en) * 2010-06-11 2011-12-07 微软公司 Caloric burn determination from body movement
US9384329B2 (en) 2010-06-11 2016-07-05 Microsoft Technology Licensing, Llc Caloric burn determination from body movement

Also Published As

Publication number Publication date
JP2001307124A (en) 2001-11-02

Similar Documents

Publication Publication Date Title
KR100395719B1 (en) Image processing method and electronic device
JP4006949B2 (en) Image processing system, image processing apparatus, and imaging apparatus
JP5436912B2 (en) PROGRAM, INFORMATION STORAGE MEDIUM, AND GAME DEVICE
JP4754005B2 (en) GAME PROGRAM AND GAME DEVICE
US8016671B2 (en) Game apparatus and storage medium storing game program
JP5635850B2 (en) Information processing apparatus, information processing program, information processing system, and information processing method
JP5274187B2 (en) Image processing program, information processing apparatus, image processing method, and image processing system
US20130072298A1 (en) Hand-held game apparatus and game program
JP5889355B2 (en) Information playback device
WO2015025442A1 (en) Information processing device and information processing method
US20090174656A1 (en) Electronic image identification and animation system
US8142285B2 (en) Game system and game program medium
US20100185981A1 (en) Display controlling program and display controlling apparatus
JP4127561B2 (en) GAME DEVICE, OPERATION EVALUATION METHOD, AND PROGRAM
JP2010142592A (en) Game program and game device
JP2005319191A (en) Game system, program, information storage medium, and image generating method
JP4371182B2 (en) GAME DEVICE, INPUT UNIT USED FOR THE SAME, AND STORAGE MEDIUM
JP2972346B2 (en) Image processing method and electronic device
EP1395897B1 (en) System for presenting interactive content
JPH11339057A (en) Method for processing image and electronic device
CN109040721B (en) Customized dynamic audio-visual scene generation system
US9230293B2 (en) Display controlling program and display controlling apparatus
JP2002210233A (en) Entertainment device, recording medium and program
JP5689103B2 (en) GAME PROGRAM, GAME SYSTEM, GAME DEVICE, AND GAME CONTROL METHOD

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20040604

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20040604

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20061214

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20070109

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070307

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20070508

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070530

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20070711

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20070807

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20070820

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100907

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 4006949

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110907

Year of fee payment: 4

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120907

Year of fee payment: 5

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120907

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120907

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120907

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130907

Year of fee payment: 6

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130907

Year of fee payment: 6

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

EXPY Cancellation because of completion of term