JP2004337502A - Input device, and game system - Google Patents

Input device, and game system Download PDF

Info

Publication number
JP2004337502A
JP2004337502A JP2003140220A JP2003140220A JP2004337502A JP 2004337502 A JP2004337502 A JP 2004337502A JP 2003140220 A JP2003140220 A JP 2003140220A JP 2003140220 A JP2003140220 A JP 2003140220A JP 2004337502 A JP2004337502 A JP 2004337502A
Authority
JP
Japan
Prior art keywords
image
identification information
input
information
character
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2003140220A
Other languages
Japanese (ja)
Inventor
Takanobu Umigami
貴信 海上
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Namco Ltd
Original Assignee
Namco Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Namco Ltd filed Critical Namco Ltd
Priority to JP2003140220A priority Critical patent/JP2004337502A/en
Publication of JP2004337502A publication Critical patent/JP2004337502A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Studio Devices (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide an input device to be applied to a home game machine by lowering the cost and miniaturizing a device compared with a conventional manner concerning the non-contact input device arranged in the game machine. <P>SOLUTION: An input pad 40 to be connected to the game machine is internally provided with a mirror 44, an image sensor 43 and a control IC 46. The control IC 46 properly inclines the mirror 44, so as to allow the image sensor 43 to image squares 52 at every square 52 obtained by equally dividing a detection area 50. The picked-up image of each square 52 by the image sensor 43 is analyzed. The square 52 with a toy 20 placed thereon, the identification ID of the toy 20, and the direction of the placement are determined, so that a determination result is outputted to the game machine. <P>COPYRIGHT: (C)2005,JPO&NCIPI

Description

【0001】
【発明の属する技術分野】
本発明は、画像生成装置に接続される入力装置及びゲームシステムに関する。
【0002】
【従来の技術】
従来から、所定の配置領域に配置されたカードや玩具等の被検出物の配置状態(種類や位置、向き等)を検出する入力装置を備え、この載置状態を入力情報としてゲームを実行するゲーム装置が知られている。入力装置は、被検出物の検出方法の観点から見ると、電磁誘導を利用する接触型、撮像画像を解析する非接触型、の2種類に分類される。
【0003】
例えば非接触型の入力装置を備えたゲーム装置としては、特許文献1に開示されているように、選手の写真を印刷した選手カードを被検出物として使用してサッカーゲームを実行するカードゲーム装置等がある。具体的には、このカードゲーム装置は、メイン制御部に接続されたディスプレイ及び複数の端末装置を備えて構成される。そして、プレーヤが、端末装置のカード配置パネルに選手カードを並べると、端末装置内部のイメージセンサによって選手カードの裏面に記録されているカードデータが読み取られ、読み取ったデータに基づいてチームを構成する選手のデータが作成されてサッカーゲームが実行される。プレーヤは、選手カードの配置を換えることで、選手のポジションやフォーメーションの変更を指示することができる。
【0004】
【特許文献1】
特開2002−301264号公報
【0005】
【発明が解決しようとする課題】
特許文献1に記載のカードゲーム装置等では、イメージセンサは、カード配置パネルの全面に亘る撮像を行う。つまり、サッカーゲームを実行するゲーム装置であれば、1チームに相当する少なくとも11枚分の選手カードを配置可能な程度の広さを有するカード配置パネルの全面に亘る撮影を行う。このため、高画素/高精度のイメージセンサが必要となる。このことは、イメージセンサの高価格化、即ち入力装置の高価格化につながるため、業務用のゲーム装置に比べて価格が重要視される家庭用ゲーム装置への適用は困難であった。
【0006】
また、カード配置パネル全体に亘る撮像を行うため、端末装置の筐体内部空間が大きくなり、端末装置の大型化が避けられない。この点でも、上記カードゲーム装置の家庭用のゲーム装置への適用は非常に困難であった。
【0007】
上記事情に鑑み、本発明は、ゲーム装置が備える非接触型の入力装置において、従来と比較して低コスト化及び小型化を図り、家庭用のゲーム装置に適用可能な入力装置の実現を目的としている。
【0008】
【課題を解決するための手段】
上記課題を解決するために、請求項1記載の発明は、
識別情報及び位置情報を入力する入力手段と、形象物の識別情報と当該形象物の形態を模したキャラクタの画像情報を含むキャラクタ情報とが対応付けられた複数のキャラクタ情報の中から、前記入力手段により入力された識別情報に対応するキャラクタ情報を選択する選択手段と、前記入力手段により入力された位置情報に基づいて仮想空間中の位置を決定する位置決定手段と、前記仮想空間中の前記決定された位置に、前記選択手段により選択されたキャラクタ情報に基づくキャラクタを配置した前記仮想空間の画像を生成する画像生成手段と、を備えた画像生成装置に接続される入力装置であって、
撮像手段(例えば、図5のイメージセンサ43)と、
上面が複数の個別載置領域(例えば、図5の桝52)に区分され、各個別載置領域に識別情報(例えば、図2の二次元バーコード22)が底面に記された形象物(例えば、図5の玩具20)を載置可能な光透過性を有する載置板(例えば、図5の検出エリア50)と、
前記載置板の下方に所定軸(例えば、実施の形態におけるX傾斜軸及びY傾斜軸)で軸支された光反射部(例えば、図5のミラー44)と、
前記所定軸による前記光反射部の支持角度を可変する支持角度可変手段(例えば、図5の制御IC46;図8のX軸モータ45a及びY軸モータ45b)と、
前記個別載置領域毎に撮像するために、前記支持角度可変手段による支持角度の可変及び前記撮像手段による撮像を断続的に行うように制御する制御手段(例えば、図5の制御IC46、図8のモータ駆動制御部110及び撮像制御部120)と、
前記制御手段による制御によって撮像された各個別載置領域の撮像画像に、▲1▼識別情報が含まれているか否か、▲2▼含まれていた場合の当該識別情報を認識する識別情報認識手段(例えば、図5の制御IC46;図8の載置有無判断部130及び識別ID判断部140)と、
前記識別情報認識手段により認識された識別情報、及び、当該識別情報が含まれていた撮像画像に対応する個別載置領域の前記載置板に対する位置の情報を前記画像生成装置に出力する出力手段(例えば、図5の制御IC46;図8の入力制御部100)と、
を備えることを特徴としている。
【0009】
この請求項1に記載の発明によれば、複数の個別載置領域に区分された載置板の上面に載置された形象物の識別情報及び位置情報を、接続されている画像生成装置に出力する入力装置を実現できる。詳細には、この入力装置では、個別載置領域毎に、支持角度可変手段による反射部の支持角度の可変、及び撮像手段による撮像を断続的に行うように制御することで、各個別載置領域の撮像を行う。そして、各個別載置領域の撮像画像に含まれていた識別情報を認識して、認識した識別情報、及びこの識別情報が含まれていた個別載置領域の載置板に対する位置の情報を、上記画像生成装置に出力する。
【0010】
従って、載置板を区分した個別載置領域毎に撮像を行う、即ち部分的に撮像するため、載置板全体を撮像する従来の方法と比較して撮像手段の画素数が少なくて済み、撮像手段の低コスト化、即ち入力装置の低コスト化を実現するとともに、小型化を実現することができる。
【0011】
ここで、撮像手段は、光電変換機能を持つ撮像素子(例えば、CCDやCMOSイメージセンサ)によって実現できる。
【0012】
また、請求項2に記載の発明のように、請求項1に記載の入力装置において、
前記画像生成装置の入力手段は、更に、向き情報を入力し、
前記画像生成装置の画像生成手段は、更に、前記入力手段により入力された向き情報に基づく向きでキャラクタを前記仮想空間に配置し、
前記識別情報認識手段は、更に、▲3▼撮像画像中の識別情報の表記向きを認識し、
前記出力手段は、更に、前記識別情報認識手段により認識された表記向きに関する向き情報を前記画像生成装置に出力する、
こととしても良い。
【0013】
この請求項2に記載の発明によれば、請求項1に記載の発明と同様の効果を奏するとともに、更に、撮像画像中の識別情報の表記向きを認識し、認識した表記向きに関する向き情報を画像生成装置に出力する入力装置を実現できる。
【0014】
また、請求項3に記載の発明のように、請求項1に記載の入力装置において、
前記画像生成装置の入力手段は、更に、向き情報を入力し、
前記画像生成装置の画像生成手段は、更に、前記入力手段により入力された向き情報に基づく向きでキャラクタを前記仮想空間に配置し、
前記形象物の底面には、底面中心から外れた位置に識別子(例えば、図2のマーカ24)が記されており、
前記識別情報認識手段は、更に、▲3▼撮像画像中の識別子の位置に基づいて形象物の載置向きを認識し、
前記出力手段は、更に、前記識別情報認識手段により認識された載置向きに関する向き情報を前記画像生成装置に出力する、
こととしても良い。
【0015】
この請求項3に記載の発明によれば、請求項1に記載の発明と同様の効果を奏するとともに、更に、撮像画像中の識別子の位置に基づいて形象物の載置向きを認識し、認識した載置向きに関する向き情報を画像生成装置に出力する入力装置を実現できる。
【0016】
更に、請求項4に記載の発明のように、請求項1に記載の入力装置において、
前記画像生成装置の入力手段は、更に、向き情報を入力し、
前記画像生成装置の画像生成手段は、更に、前記入力手段により入力された向き情報に基づく向きでキャラクタを前記仮想空間に配置し、
前記形象物の底面は、指向性を有する形状に形成されており、
前記識別情報認識手段は、更に、▲3▼撮像画像に含まれている形象物の底面の形状に基づいて当該形象物の載置向きを認識し、
前記出力手段は、更に、前記識別情報認識手段により認識された載置向きに関する向き情報を前記画像生成装置に出力する、
こととしても良い。
【0017】
この請求項4に記載の発明のよれば、請求項1に記載の発明と同様の効果を奏するとともに、更に、撮像画像に含まれている形象物の底面の形状からこの形象物の載置向きを認識し、認識した載置向きに関する向き情報を画像生成装置に出力する入力装置を実現できる。
【0018】
また、請求項5に記載の発明は、
撮像画像及び撮像画像の撮像位置識別情報を入力する入力手段と、前記入力手段により入力された撮像画像に、▲1▼識別情報が含まれているか否か、▲2▼含まれていた場合の当該識別情報を認識する識別情報認識手段と、形象物の識別情報と当該形象物の形態を模したキャラクタの画像情報を含むキャラクタ情報とが対応付けられた複数のキャラクタ情報の中から、前記識別情報認識手段により認識された識別情報に対応するキャラクタ情報を選択する選択手段と、前記入力手段により入力された撮像位置識別情報に基づいて仮想空間中の位置を決定する位置決定手段と、前記仮想空間中の前記決定された位置に、前記選択手段により選択されたキャラクタ情報に基づくキャラクタを配置した前記仮想空間の画像を生成する画像生成手段と、を備えた画像生成装置に接続される入力装置であって、
撮像手段(例えば、図5のイメージセンサ43)と、
上面が複数の個別載置領域(例えば、図5の桝52)に区分され、各個別載置領域に識別情報が底面に記された形象物(例えば、図5の玩具20)を載置可能な光透過性を有する載置板(例えば、図5の検出エリア50)と、
前記載置板の下方に所定軸(例えば、実施の形態におけるX傾斜軸及びY傾斜軸)で軸支された光反射部(例えば、図5のミラー44)と、
前記所定軸による前記光反射部の支持角度を可変する支持角度可変手段(例えば、図8のX軸モータ54a及びY軸モータ54b)と、
前記個別載置領域毎に撮像するために、前記支持角度可変手段による支持角度の可変及び前記撮像手段による撮像を断続的に行うように制御する制御手段(例えば、図5の制御IC46;図8の入力制御部100)と、
前記制御手段による制御によって撮像された各個別載置領域の撮像画像及び当該各個別載置領域の前記載置板に対する位置の識別情報を前記画像生成装置に出力する出力手段(例えば、図5の制御IC54;図8の入力制御部100)と、
を備えることを特徴としている。
【0019】
この請求項5に記載の発明によれば、形象物を載置する載置板を区分した複数の個別載置領域毎の撮像画像及びこの撮像画像の撮像位置情報を、接続されている画像生成装置に出力する入力装置を実現できる。詳細には、この入力装置では、個別載置領域毎に、支持角度可変手段による反射部の支持角度の可変、及び撮像手段による撮像を断続的に繰り返し行うように制御することで、各個別載置領域の撮像を行う。そして、各個別載置領域の撮像画像、及びこの各個別載置領域の載置板に対する位置の識別情報を、上記画像生成装置に出力する。
【0020】
従って、載置板を区分した個別載置領域毎に撮像を行う、即ち部分的に撮像するため、載置板全体を撮像する従来の方法と比較して撮像手段の画素数が少なくて済み、撮像手段の低コスト化、即ち入力装置の低コスト化を実現するとともに、小型化を実現することができる。
【0021】
請求項6に記載の発明は、
識別情報及び位置情報を入力する入力手段と、キャラクタの図柄が印刷された所定の印刷物の識別情報と当該印刷物に印刷されたキャラクタの画像情報を含むキャラクタ情報とが対応付けられた複数のキャラクタ情報の中から、前記入力手段により入力された識別情報に対応するキャラクタ情報を選択する選択手段と、前記入力手段により入力された位置情報に基づいて仮想空間中の位置を決定する位置決定手段と、前記仮想空間中の前記決定された位置に、前記選択手段により選択されたキャラクタ情報に基づくキャラクタを配置した前記仮想空間の画像を生成する画像生成手段と、を備えた画像生成装置に接続される入力装置であって、
撮像手段と、
上面が複数の個別載置領域に区分され、各個別載置領域に識別情報が裏面に印刷された印刷物を載置可能な光透過性を有する載置板と、
前記載置板の下方に所定軸で軸支された光反射部と、
前記所定軸による前記光反射部の支持角度を可変する支持角度可変手段と、
前記個別載置領域毎に撮像するために、前記支持角度可変手段による支持角度の可変、及び前記撮像手段による撮像を断続的に行うように制御する制御手段と、
前記制御手段による制御によって撮像された各個別載置領域の撮像画像に、▲1▼識別情報が含まれているか否か、▲2▼含まれていた場合の当該識別情報を認識する識別情報認識手段と、
前記識別情報認識手段により認識された識別情報、及び、当該識別情報が含まれていた撮像画像に対応する個別載置領域の前記載置板に対する位置の情報を前記画像生成装置に出力する出力手段と、
を備えることを特徴としている。
【0022】
この請求項6に記載の発明によれば、複数の個別載置領域に区分された載置板の上面に載置された印刷物の識別情報及び位置情報を、接続されている画像生成装置に出力する入力装置を実現できる。詳細には、この入力装置では、個別載置領域毎に、支持角度可変手段による反射部の支持角度の可変、及び撮像手段による撮像を断続的に行うように制御することで、各個別載置領域の撮像を行う。そして、各個別載置領域の撮像画像に含まれていた識別情報を認識して、認識した識別情報、及びこの識別情報が含まれていた個別載置領域の載置板に対する位置の情報を、上記画像生成装置に出力する。
【0023】
従って、載置板を区分した個別載置領域毎に撮像を行う、即ち部分的に撮像するため、載置板全体を撮像する従来の方法と比較して撮像手段の画素数が少なくて済み、撮像手段の低コスト化、即ち入力装置の低コスト化を実現するとともに、小型化を実現することができる。
【0024】
また、請求項7に記載の発明は、
撮像画像及び撮像画像の撮像位置識別情報を入力する入力手段と、前記入力手段により入力された撮像画像に、▲1▼識別情報が含まれているか否か、▲2▼含まれていた場合の当該識別情報を認識する識別情報認識手段と、キャラクタの図柄が印刷された印刷物の識別情報と当該印刷物に印刷されたキャラクタの画像情報を含むキャラクタ情報とが対応付けられた複数のキャラクタ情報の中から、前記識別情報認識手段により認識された識別情報に対応するキャラクタ情報を選択する選択手段と、前記入力手段により入力された撮像位置識別情報に基づいて仮想空間中の位置を決定する位置決定手段と、前記仮想空間中の前記決定された位置に、前記選択手段により選択されたキャラクタ情報に基づくキャラクタを配置した前記仮想空間の画像を生成する画像生成手段と、を備えた画像生成装置に接続される入力装置であって、
撮像手段と、
上面が複数の個別載置領域に区分され、各個別載置領域に識別情報が裏面に記された印刷物を載置可能な光透過性を有する載置板と、
前記載置板の下方に所定軸で軸支された光反射部と、
前記所定軸による前記光反射部の支持角度を可変する支持角度可変手段と、
前記個別載置領域毎に撮像するために、前記支持角度可変手段による支持角度の可変及び前記撮像手段による撮像を断続的に行うように制御する制御手段と、
前記制御手段による制御によって撮像された各個別載置領域の撮像画像及び当該各個別載置領域の前記載置板に対する位置の識別情報を前記画像生成装置に出力する出力手段と、
を備えることを特徴としている。
【0025】
この請求項7に記載の発明によれば、印刷物を載置する載置板を区分した複数の個別載置領域毎の撮像画像及びこの撮像画像の撮像位置情報を、接続されている画像生成装置に出力する入力装置を実現できる。詳細には、この入力装置では、個別載置領域毎に、支持角度可変手段による反射部の支持角度の可変、及び撮像手段による撮像を断続的に繰り返し行うように制御することで、各個別載置領域の撮像を行う。そして、各個別載置領域の撮像画像、及びこの各個別載置領域の載置板に対する位置の識別情報を、上記画像生成装置に出力する。
【0026】
従って、載置板を区分した個別載置領域毎に撮像を行う、即ち部分的に撮像するため、載置板全体を撮像する従来の方法と比較して撮像手段の画素数が少なくて済み、撮像手段の低コスト化、即ち入力装置の低コスト化を実現するとともに、小型化を実現することができる。
【0027】
また、請求項8に記載の発明は、
請求項1〜4の何れか一項に記載の入力装置と、
前記入力装置から識別情報及び位置情報を入力する入力手段と、形象物の識別情報と当該形象物の形態を模したキャラクタの画像情報を含むキャラクタ情報とが対応付けられた複数のキャラクタ情報の中から、前記入力手段により入力された識別情報に対応するキャラクタ情報を選択する選択手段と、前記入力手段により入力された位置情報に基づいて仮想空間中の位置を決定する位置決定手段と、前記ゲーム空間中の前記決定された位置に、前記選択手段により選択されたキャラクタ情報に基づくキャラクタを配置した前記ゲーム空間の画像を生成する画像生成手段とを備えた画像生成装置(例えば、図1のゲーム装置本体1;図8のゲーム装置400)と、
を具備したゲームシステムである。
【0028】
この請求項8に記載の発明によれば、請求項1〜4の何れか一項に記載の発明と同様の効果を奏する入力装置と、この入力装置から入力された、複数の個別載置領域に区分された載置板の上面に載置された形象物の識別情報及び位置情報に基づいてキャラクタを配置したゲーム空間の画像を生成する画像生成装置と、を具備したゲームシステムを実現できる。
【0029】
また、請求項9に記載の発明は、
請求項5に記載の入力装置と、
前記入力装置から撮像画像及び撮像画像の撮像位置識別情報を入力する入力手段と、前記入力手段により入力された撮像画像に、▲1▼識別情報が含まれているか否か、▲2▼含まれていた場合の当該識別情報を認識する識別情報認識手段と、形象物の識別情報と当該形象物の形態を模したキャラクタの画像情報を含むキャラクタ情報とが対応付けられた複数のキャラクタ情報の中から、前記識別情報認識手段により認識された識別情報に対応するキャラクタ情報を選択する選択手段と、前記入力手段により入力された撮像位置識別情報に基づいてゲーム空間中の位置を決定する位置決定手段と、前記ゲーム空間中の前記決定された位置に、前記選択手段により選択されたキャラクタ情報に基づくキャラクタを配置した前記ゲーム空間の画像を生成する画像生成手段とを備えた画像生成装置(例えば、図1のゲーム装置本体1;図8のゲーム装置400)と、
を具備したゲームシステムである。
【0030】
この請求項9に記載の発明によれば、請求項5に記載の発明と同様の効果を奏する入力装置と、この入力装置から入力された、形象物を載置する載置板を区分した複数の個別載置領域毎の撮像画像及びこの撮像画像の撮像位置情報に基づいてキャラクタを配置したゲーム空間の画像を生成する画像生成装置と、を具備したゲームシステムを実現できる。
【0031】
また、請求項10に記載の発明は、
請求項6に記載の入力装置と、
前記入力装置から識別情報及び位置情報を入力する入力手段と、キャラクタの図柄が印刷された印刷物の識別情報と当該印刷物に印刷されたキャラクタの画像情報を含むキャラクタ情報とが対応付けられた複数のキャラクタ情報の中から、前記入力手段により入力された識別情報に対応するキャラクタ情報を選択する選択手段と、前記入力手段により入力された位置情報に基づいて仮想空間中の位置を決定する位置決定手段と、前記ゲーム空間中の前記決定された位置に、前記選択手段により選択されたキャラクタ情報に基づくキャラクタを配置した前記ゲーム空間の画像を生成する画像生成手段とを備えた画像生成装置と、
を具備したゲームシステムである。
【0032】
この請求項10に記載の発明によれば、請求項6に記載の発明と同様の効果を奏する入力装置と、この入力装置から入力された、複数の個別載置領域に区分された載置板の上面に載置された印刷物の識別情報及び位置情報に基づいてキャラクタを配置したゲーム空間の画像を生成する画像生成装置と、を具備したゲームシステムを実現できる。
【0033】
また、請求項11に記載の発明は、
請求項7に記載の入力装置と、
前記入力装置から撮像画像及び撮像画像の撮像位置識別情報を入力する入力手段と、前記入力手段により入力された撮像画像に、▲1▼識別情報が含まれているか否か、▲2▼含まれていた場合の当該識別情報を認識する識別情報認識手段と、キャラクタの図柄が印刷された印刷物の識別情報と当該印刷物に印刷されたキャラクタの画像情報を含むキャラクタ情報とが対応付けられた複数のキャラクタ情報の中から、前記識別情報認識手段により認識された識別情報に対応するキャラクタ情報を選択する選択手段と、前記入力手段により入力された撮像位置識別情報に基づいてゲーム空間中の位置を決定する位置決定手段と、前記ゲーム空間中の前記決定された位置に、前記選択手段により選択されたキャラクタ情報に基づくキャラクタを配置した前記ゲーム空間の画像を生成する画像生成手段とを備えた画像生成装置と、
を具備したゲームシステムである。
【0034】
この請求項11に記載の発明によれば、請求項7に記載の発明と同様の効果を奏する入力装置と、この入力装置から入力された、印刷物を載置する載置板を区分した複数の個別載置領域毎の撮像画像及びこの撮像画像の撮像位置情報に基づいてキャラクタを配置したゲーム空間の画像を生成する画像生成装置と、を具備したゲームシステムを実現できる。
【0035】
【発明の実施の形態】
以下、図面を参照して、本発明の実施の形態を詳細に説明する。尚、以下の説明においては、本発明を、プレーヤの判断によりストーリが展開するRPG(ロールプレイングゲーム)における戦闘シーンに適用した場合について説明するが、本発明の適用がこれに限定されるものではない。
【0036】
[ゲーム装置の概要]
図1は、本発明を家庭用ゲーム装置に適用した場合の一例を示す図である。同図によれば、ゲーム装置本体1には、ディスプレイ2と、ゲームコントローラ3と、入力パッド40と、が接続されている。
【0037】
ゲームを実行するために必要な情報であるゲーム情報は、ゲーム装置本体1に着脱自在な情報記憶媒体5,6等に格納される。具体的には、ゲームプログラムや初期データ等は、CD−ROMやDVD等の情報記憶媒体5に格納されており、ゲーム中の所定のタイミングやプレーヤによるセーブ操作に応じて保持されるプレイデータは、メモリカードやICメモリ等の情報記憶媒体6に格納される。
【0038】
或いは、ゲーム情報は、ゲーム装置本体1に具備された通信装置7を介して通信回線Nに接続し、外部装置から取得しても良い。通信回線Nは、データ授受が可能な通信路を意味する。即ち、通信回線Nとは、直接接続のための専用線(専用ケーブル)やイーサネット(登録商標)等によるLANの他、電話通信網やケーブル網、インターネット等の通信網を含む意味であり、また、通信方法については有線/無線を問わない。
【0039】
ゲーム装置本体1は、例えばCPU等の演算処理装置、情報記憶媒体5、6に格納されているデータ等を読み出すための読取装置を有する。そして、情報記憶媒体5,6から読み出したゲーム情報や、ゲームコントローラ3や入力パッド40から入力される操作信号等に基づいて種々のゲーム処理を実行し、ディスプレイ2にゲーム画面を表示させる。
【0040】
入力パッド40は、検出エリア50内の位置等を指定する玩具20と組み合わせて使用される入力装置である。玩具20は、入力パッド40上に安定して載置可能なよう、底面が略平板状に形成された台座20aと、例えば“ヒト”や“ネコ”、“キョウリュウ“等の形象物の形象を模した模型部20bと、からなる。
【0041】
玩具20を構成する台座20aは、何れの玩具20にあっても同一の形状/大きさに形成されている。そして、この台座20aの底面(入力パッド40上に接触して載置される面)には、図2の前下方斜視図に示すように、玩具20を識別する識別IDがコード化された二次元バーコード22と、玩具20の正面方向を示す識別子であるマーカ24と、が記されている。
【0042】
ここで、台座20aの底面に記される二次元バーコード22及びマーカ24は、該底面に印刷(印字)されることとしても良いし、二次元バーコード22及びマーカ24を印刷したシールを該底面に貼付することとしても良い。また、識別IDには、製造番号等の玩具20を特定するための情報の他、該玩具20の形象対象物の種類(例えば、“ヒト”や“ネコ”、“キョウリュウ”等)を示す情報等が含まれる。
【0043】
以下では、入力パッド40の方向を、次のように定義する。即ち、図1において、ゲーム装置本体1と接続されるケーブルが設けられている側を正面(前)とし、操作ボタン41,42が設けられている側を手前(後)とし、また、右を右、左を左、上を上、下を下として説明する。
【0044】
また、入力パッド40の上面に形成されている検出エリア50は、図1に示すように、3×2の桝目状に等分割(区分)され、合計6つの桝52a〜52f(以下、包括的に「桝52」と称し、各桝52の識別番号を「♯1〜♯6」とする。)を備えている。桝52は、玩具20の台座20aがほぼ収まる大きさ(例えば、桝52の長辺の長さが、台座20aの直径の約1.0〜1.5倍)に形成されており、各桝52内には、それぞれ1体の玩具20を載置することができる。
【0045】
そして、入力パッド40は、所与のタイミングで、検出エリア50内に載置された玩具20の底面に記されている二次元バーコード22及びマーカ24を検出することで、該玩具20の識別IDや載置された位置(以下、「載置位置」と称する。)、載置された向き(以下、「載置向き」と称する。)を検出し、ゲーム装置本体1に出力する。
【0046】
玩具20の載置位置は、検出エリア50を構成する桝52を単位として検出される。例えば図1では、玩具20の載置位置は桝52d(識別番号は「♯4」)であると検出される。尚、1つの玩具20が複数の桝52に跨って配置された場合には、検出不能と判断される。
【0047】
また、玩具20の載置向きは、入力パッド40の正面方向に対して、玩具20の正面のが何れの方向を向いているかで表され、前/後/左/右の4方向で検出される。具体的には、図3に示すように、桝52をその2本の対角線によって分割した4つの領域54a〜54dの内、何れにマーカ24が位置するかによって判断される。
【0048】
即ち、マーカ24が、正面側の領域54aに位置する場合には、載置向きが“前”と判断され、右側の領域54bに位置する場合には、載置向きが“右”と判断され、左側の領域54cに位置する場合には、載置向きが“左”と判断され、手前側の領域54dに位置する場合には、載置向きが“後”と判断される。従って、例えば図1では、玩具20−1の載置向きは、“前”であると検出される。
【0049】
プレーヤは、ディスプレイ2に表示されるゲーム画面を見ながら、ゲームコントローラ3や入力パッド40を操作してゲームを楽しむ。具体的には、プレーヤは、ゲームのストーリ展開に従ってゲームコントローラ3を操作することによりゲームを進行させるとともに、ゲーム中に敵キャラクタに遭遇して戦闘モードが開始された場合には、玩具20を入力パッド40上に載置する。
【0050】
より具体的には、戦闘モードにおいて、入力パッド40上に玩具20を載置すると、この載置された玩具20の形態を模したキャラクタを、プレーヤの操作対象のキャラクタ(以下、「操作対象キャラクタ」と称する。)としてゲーム空間内に配置したゲーム画面が表示される。
【0051】
図4(a)は、戦闘モードにおける入力パッド40上の玩具20の載置状態の一例を示す図である。同図によれば、検出エリア50の桝52bには、玩具20−2が“左”を向いて載置されており、また、桝52fには、玩具20−3が“前”を向いて載置されている。
【0052】
また、図4(b)は、戦闘モードにおけるゲーム画面の一例を示す図であり、同図(a)に示した載置状態に該当するゲーム画面を示している。同図によれば、ゲーム画面GWには、操作対象キャラクタが配置される自戦闘エリア60と、敵キャラクタが配置される敵戦闘エリア70と、が表示されている。
【0053】
自戦闘エリア60は、入力パッド40上の検出エリア50と同様に、3×2の桝目状に分割されており、自戦闘エリア60を構成する各桝62a〜62f(以下、包括的に「桝62」と称する。)は、それぞれが、検出エリア50の桝52a〜52fと一対一で対応付けられている。
【0054】
そして、自戦闘エリア60の各桝62には、検出エリア50の対応する桝52に載置された玩具20に該当する操作対象キャラクタが、その載置向きに合わせて配置される。例えば同図では、自戦闘エリア60の桝62bには、玩具20−2に該当する操作対象キャラクタ64−2が“左”を向いて配置されており、桝62fには、玩具20−3に該当する操作対象キャラクタ64−3が“前”を向いて配置されている。
【0055】
このように、プレーヤは、戦闘モードにおいて、入力パッド40の検出エリア50の桝52に手持ちの玩具20を載置することで、ゲーム空間内に設定された自戦闘エリア60の所望の位置に、所望の向きで、操作対象キャラクタを配置させることができる。
【0056】
[入力パッドの内部構造]
図5(a)は、入力パッド40の内部の概略構造を示す斜透視図である。同図によれば、入力パッド40の内部には、イメージセンサ43と、ミラー44と、制御IC46と、イメージセンサ43や制御IC46、後述するモータ等に動作用の電源を供給するための電源回路(不図示)と、が設けられている。また、入力パッド40の上面部分、詳細には検出エリア50が形成されている部分は、光透過性を有する平板(例えば透明なアクリル板やガラス板等)によって構成されている。
【0057】
イメージセンサ43は、例えばCCDやCMOSイメージセンサ等の光電変換機能を有する固体撮像素子であり、撮像対象の二次元画像を生成する。また、イメージセンサ43は、制御IC46に接続されており、制御IC46からの撮像指示に従って撮像動作を行うとともに、撮像画像を制御IC46に出力する。
【0058】
ミラー44は、入射光を反射する反射板(反射部)であり、その反射光(出射光)を、イメージセンサ43の受光部である撮像面に導くように配設されている。詳細には、ミラー44は、検出エリア50の所与の桝52からの入射光を反射してイメージセンサ43の撮像面に導くよう、傾斜を付けて配置されている。
【0059】
即ち、入力パッド40内では、桝52から、ミラー44を介してイメージセンサ43の撮像面に至る(以下、単に「イメージセンサ43に至る」と称する。)光路Lが形成される。即ち、イメージセンサ43は、入力パッド40内部から見た桝52を撮像する。
【0060】
例えば同図では、玩具20が載置されている桝52bから、ミラー44を介してイメージセンサ43に至る光路Lが形成されている。従って、イメージセンサ43は桝52bを撮像し、この撮像画像には、玩具20の台座20aの底面の画像が含まれる。
【0061】
また、ミラー44は、所定の二軸で傾斜自在に軸支して配置されており、この傾斜度合によって、異なる光路Lが形成される。即ち、形成される光路Lが異なることで、イメージセンサ43によって撮像される桝52が異なる。
【0062】
具体的には、同図において、入力パッド40の前後方向をX軸、上下方向をY軸、左右方向をZ軸とするXYZ直交座標系を定義すると、ミラー44は、X軸及びY軸に平行な軸(それぞれを、「X傾斜軸」及び「Y傾斜軸」と称する。)を傾斜軸として傾斜される。そして、図5(b)に示すように、X傾斜軸で傾斜された場合のX−Y平面に対するミラー44の傾斜角度θと、図5(c)に示すように、Y傾斜軸で傾斜された場合のX−Y平面に対するミラー44の傾斜角度φと、によって、イメージセンサ43によって撮像される桝52が決定される。
【0063】
但し、傾斜角度θは、ミラー44を、X軸の正方向から見て反時計回りに傾斜させた場合を正とし、傾斜角度φは、ミラー44を、Y軸正方向から見て反時計回りに傾斜させた場合を正とする。また、説明の簡明のため、イメージセンサ43及びミラー44は、X傾斜軸及びY傾斜軸の交点とイメージセンサ43の撮像面の中心位置とを結ぶ直線が、Z軸と平行となるように配設されているものとする。
【0064】
図6(a)は、X傾斜軸でのミラー44の傾斜を説明するための図であり、入力パッド40の縦断面を、X軸の正方向から見た概略図である。同図によれば、ミラー44を傾斜角度θ1(>0)で傾斜させると、桝52a或いは52dから、ミラー44を介してイメージセンサ43に至る光路L1が形成される。従って、イメージセンサ43は、桝52a或いは52dを撮像する。尚、ここで桝52a、52dの何れが撮像されるかは、後述するように、傾斜角度φによって決まる。
【0065】
また、ミラー44を傾斜角度θ2(>θ1)で傾斜させると、桝52b或いは52eから、ミラー44を介してイメージセンサ43に至る光路L2が形成される。従って、イメージセンサ43は、桝52b或いは52eを撮像する。尚、ここで桝52b、52eの何れが撮像されるかは、後述するように、傾斜角度φによって決まる。
【0066】
また、ミラー44を傾斜角度θ3(>θ2)で傾斜させると、桝52c或いは52fから、ミラー44を介してイメージセンサ43に至る光路L3が形成される。従って、イメージセンサ43は、桝52c或いは52fを撮像する。尚、ここで桝52c、52fの何れが検出されるかは、後述するように、傾斜角度φによって決まる。
【0067】
図6(b)は、Y傾斜軸でのミラー44の傾斜を説明するための図であり、入力パッド40の平面図を、Y軸の正方向から見た概略図を示している。但し、同図では、ミラー44は、X傾斜軸によって傾斜角度θ1だけ傾斜されている(即ち、イメージセンサ43は、桝52a或いは52dを撮像可能である。)とする。
【0068】
同図によれば、ミラー44を傾斜角度φ1(>0)で傾斜させると、桝52aから、ミラー44を介してイメージセンサ43に到達する光路L4が形成される。従って、イメージセンサ43は、桝52aを撮像する。
【0069】
また、ミラー44を傾斜角度φ4(<0)で傾斜させると、桝52dから、ミラー44を介してイメージセンサ43に到達する光L5eが形成される。従って、イメージセンサ43は、桝52dを撮像する。
【0070】
更に、図示されていないが、これ以外の桝52b、52c、52e、52fについても同様である。具体的には、ミラー44がX傾斜軸によって傾斜角度θ2だけ傾斜されている場合には、ミラー44を傾斜角度φ2(>0)で傾斜させると、イメージセンサ43は、桝52bを撮像し、傾斜角度φ5(<0)で傾斜させると、桝52eを撮像する。また、ミラー44がX傾斜軸によって傾斜角度θ3だけ傾斜されている場合には、ミラー44を傾斜角度φ3(>0)で傾斜させると、イメージセンサ43は、桝52cを撮像し、傾斜角度φ6(<0)で傾斜させると、桝52fを撮像する。
【0071】
このように、X−Y平面に対するミラー44の傾斜角度θ、φの値の組み合わせによって、イメージセンサ43は、異なる桝52を撮像する。
【0072】
ところで、撮像画像は、ミラー44の反射に起因する反転を生じる。
図7は、玩具20の載置向きと、イメージセンサ43による撮像画像と、の関係を示す図である。イメージセンサ43は、図5(a)において、正面側を右、手前側を左、上側を上、下側を下の向きに配設されている。ここでは、説明の簡明のため、玩具20の台座20aの底面には、同図(a)に示すように、文字「B」及びマーカ44が記されているものとする。
【0073】
そして、同図(b)は、該玩具20の載置向きが“前”であった場合の撮像画像を示し、同図(c)は、玩具20の載置向きが“後”であった場合の撮像画像を示し、同図(d)は、玩具20の載置向きが“右”であった場合の撮像画像を示し、同図(e)は、玩具20の載置向きが“左”であった場合の撮像画像を示している。
【0074】
このように、イメージセンサ43による撮像画像は、反転が生じた画像となっている。このため、識別IDや載置向きの判断は、この反転を考慮して行う必要がある。
【0075】
また、X傾斜軸及びY傾斜軸によるミラー44の傾斜は、制御IC46からの駆動制御信号によってそれぞれ別個に駆動される不図示の2つのモータによって実現される。該モータが、例えばステッピングモータによって実現される場合、回転角度量を決定する入力パルスを制御することで、ミラー44を所望の角度だけ傾斜させることができる。また、DCモータ等で実現される場合には、入力パッド40は、更に、ミラー44の傾斜角度を検出するための角度センサを備え、角度センサによって検出される傾斜角度θ、φが所望の角度となるように該DCモータを制御することで、ミラー44を適切に傾斜させることができる。
【0076】
図5において、制御IC46は、画像解析機能を有するCPUや、記憶部であるROMやRAM等を備えており、制御IC46に接続されたイメージセンサ43や上記モータ等を制御する。具体的には、制御IC46は、各桝52毎に、当該桝52をイメージセンサ43が撮像できる傾斜角度θ、φでミラー44を傾斜させるように上記モータを駆動させるとともに、イメージセンサ43による撮像を行わせる。また、イメージセンサ43から入力される撮像画像を解析して、該桝52における玩具20の載置有無や識別ID、載置向きを判断する。
【0077】
[機能構成]
図8は、本実施の形態のゲーム装置400及びゲーム装置400に接続される入力パッド40の内部構成を示すブロック図である。同図によれば、入力パッド40は、ミラー44と、ミラー44をX傾斜軸で傾斜させるX軸モータ45aと、ミラー44をY傾斜軸で傾斜させるY軸モータ45bと、イメージセンサ43と、入力制御部100と、入力記憶部200と、を備えて構成される。
【0078】
入力制御部100は、制御IC46が有するCPUに該当し、入力パッド40における玩具20の載置状態の検出処理に係る制御を行う。また、入力制御部100には、機能部として、モータ駆動制御部110と、撮像制御部120と、載置有無判断部130と、識別ID判断部140と、載置向き判断部150と、が含まれる。
【0079】
モータ駆動制御部110は、X軸モータ45a及びY軸モータ45bの駆動動作を制御する。具体的には、傾斜角度テーブル220に従って、該当する桝52に対応する傾斜角度θだけミラー44を傾斜させるよう、X軸モータ45aに対する駆動制御信号を出力するとともに、ミラー44を傾斜角度φだけ傾斜させるよう、Y軸モータ45bに対する駆動制御信号を出力する。
【0080】
撮像制御部120は、イメージセンサ43の撮像動作を制御する。具体的には、所定のタイミングで、イメージセンサ43に対して撮像を指示する撮像指示信号を出力して撮像動作を行わせる。
【0081】
載置有無判断部130は、イメージセンサ43による撮像画像を解析して、該当する桝52に玩具20が載置されているか否か(載置有無)を判断する。具体的には、撮像画像に、二次元バーコード22及びマーカ24を含む玩具20の台座20aの底面全体が含まれていれば“載置有り”と判断し、含まれていなければ“載置無し”と判断する。
【0082】
尚ここで、載置有無判断部130は、撮像画像に台座20aの底面全体が含まれていない、即ち、底面の一部が欠けていても、二次元バーコード22及びマーカ24の双方が解析可能な程度に含まれていれば“載置有り”と判断することとしても良い。
【0083】
識別ID判断部140は、載置有無判断部130により玩具20が載置されている(載置有り)と判断された場合に、撮像画像に含まれる二次元バーコード22から、該当する桝52内に載置されている玩具20の識別IDを判断する。
【0084】
載置向き判断部150は、載置有無判断部130により玩具20が載置されている(載置有り)と判断された場合に、撮像画像中のマーカ24の位置から、該当する桝52内に載置されている玩具20の向き(載置向き)を判断する。具体的には、図3に示したように、該桝52中のどの領域54にマーカ24が位置するかによって判断する。
【0085】
入力記憶部200は、制御IC46が有するROM及びRAMに該当し、入力制御部100が後述する載置状態の検出処理を実現するための載置状態検出プログラム210と、傾斜角度テーブル220と、検出入力情報230と、を記憶する。
【0086】
傾斜角度テーブル220は、検出エリア50の各桝52をイメージセンサ43が撮像できるミラー44の傾斜角度を示すテーブルであり、図9にそのデータ構成の一例を示す。同図によれば、傾斜角度テーブル220には、検出エリア50を構成する桝52(221)毎に、X傾斜軸によるミラー44の傾斜角度θ(222)と、Y傾斜軸によるミラー44の傾斜角度φ(223)と、が対応付けて記憶されている。モータ駆動制御部110は、この傾斜角度テーブル220に従って、イメージセンサ43が該当する桝52を撮像できるよう、X軸モータ45a及びY軸モータ45bを駆動して、ミラー44を傾斜させる。
【0087】
検出入力情報230は、入力パッド40による玩具20の載置状態の検出結果の情報であり、図10にそのデータ構成の一例を示す。同図によれば、検出入力情報230は、検出エリア50を構成する桝52(231)毎に、イメージセンサ43による撮像画像(232)と、玩具20が載置されているか否かを示す載置有無(233)と、載置されている玩具20の識別ID(234)及び載置向き(235)と、を対応付けて記憶する。この検出入力情報230は、入力制御部100によって後述する載置状態の検出処理が行われる度に、最新のデータに更新される。
【0088】
また、図8によれば、ゲーム装置400は、操作入力部500と、画像表示部600と、通信部700と、本体制御部800と、本体記憶部900と、を備えて構成される。
【0089】
操作入力部500は、例えばボタンスイッチ、レバー、ダイヤル、マウス、キーボード、各種センサ等によって構成され、プレーヤによる操作入力に応じた操作入力信号を本体制御部800に出力する。図1では、ゲームコントローラ3がこれに該当する。
【0090】
画像表示部600は、画像生成部820からの画像信号に基づいて、例えば1/60秒毎に1フレームの画像を再描画しながらゲーム画面を表示する。その機能は、例えばCRT、ELD、PDP、HMD等のハードウェアによって実現される。図1では、ディスプレイ2がこれに該当する。
【0091】
通信部700は、通信回線に接続して外部装置とのデータの送受信を行う。この機能は、例えばBluetooth(登録商標)やIrDA等のモジュール、モデム、TA、有線用の通信ケーブルのジャックや制御回路等によって実現される。図1では、通信装置7がこれに該当する。
【0092】
本体制御部800は、ゲーム装置400全体の制御、ゲーム演算等の各種演算処理を行う。本体制御部800は、例えばCPU(CISC型、RISC型)、ASIC(ゲートアレイ等)等のハードウェア及び関連する制御プログラム等によって実現される。図1では、ゲーム装置本体1が有するCPU等の演算処理装置がこれに該当する。
【0093】
また、本体制御部800には、主にゲームに係る演算処理を行うゲーム演算部810と、ゲーム演算部810の処理によって求められた各種データからゲーム画面を表示させるための画像信号を生成する画像生成部820と、が含まれる。
【0094】
ゲーム演算部810は、操作入力部500や、入力パッド40から入力される操作入力信号や、本体記憶部900から読み出したプログラムやデータ等に基づいて種々のゲーム処理を実行する。ゲーム処理としては、例えば戦闘モードにおいては、入力パッド40から入力される載置状態情報に基づき、ゲーム空間内に設定した自戦闘エリア60に操作対象キャラクタ64を配置する。具体的には、識別IDに該当するキャラクタを操作対象キャラクタ64として、載置位置に応じた自戦闘エリア60内の位置に、載置向きに合わせた向きで配置する。
【0095】
画像生成部820は、ゲーム演算部810による演算結果に基づいて幾何学処理やシェーディング処理を実行し、ゲーム画面を表示するためのゲーム画像を生成する。そして、生成したゲーム画像の画像信号を画像表示部600に出力する。また、画像生成部820は、例えばCPUやDSP等の演算装置やその制御プログラム、フレームバッファ等の描画フレーム用ICメモリ等によって実現される。
【0096】
本体記憶部900は、本体制御部800にゲーム装置400を統合的に制御させるための諸機能を実現するためのシステムプログラムや、ゲームを実行させるために必要なプログラムやデータ等を含むゲーム情報を記憶する。また、本体記憶部900は、例えば各種ICメモリやハードディスク、CD−ROM、DVD、MO等の情報記憶媒体によって実現される。図1では、ゲーム装置本体1に着脱自在な情報記憶媒体5,6がこれに該当する
【0097】
[処理の流れ]
図11は、入力パッド40による載置状態の検出処理を説明するためのフローチャートである。この処理は、入力制御部100が、所与のタイミングで、入力記憶部200に記憶されている載置状態検出プログラム210を実行することで実現される。
【0098】
同図によれば、入力制御部100は、先ず、検出エリア50を構成する桝52の内から、検出対象となる一つの桝52(以下、「検出対象桝」と称する。)を設定する(ステップS11)。
【0099】
次いで、モータ駆動制御部110が、傾斜角度テーブル220を参照し、検出対象桝に対応する傾斜角度θ及びφだけミラー44を傾斜させるよう、X軸モータ45a及びY軸モータ45bに対する駆動制御信号を出力する(ステップS12)。
【0100】
X軸モータ45a及びY軸モータ45bが駆動され、ミラー44が適切に傾斜される(即ち、検出対象桝から、ミラー44を介してイメージセンサ43に至る光路Lが形成される)と、続いて、撮像制御部120が、イメージセンサ43に撮像指示信号を出力して、検出対象桝の撮像を行わせる(ステップS13)。
【0101】
そして、イメージセンサ43から撮像画像が入力されると、載置有無判断部130が、該撮像画像を解析して、検出対象桝における玩具20の載置有無を判断する(ステップS14)。
【0102】
その結果、“載置有り”と判断した場合には(ステップS14:有)、続いて、識別ID判断部140が、撮像画像に含まれる二次元バーコードから、載置されている玩具20の識別IDを判断する(ステップ15)。また、載置向き判断部150が、撮像画像中のマーカの位置から、載置されている玩具20の載置向きを判断する(ステップS16)。
【0103】
その後、入力制御部100が、全ての桝52を検出対象桝として設定し、検出を行ったか否かを判断し、行っていなければ(ステップS17:NO)、未検出の桝52の内の1つを次の検出対象桝として設定して(ステップS18)、ステップS12に移行する。
【0104】
そして、全ての桝52について検出を行うと(ステップS17:YES)、入力制御部100は、更新された検出入力情報230に基づいて、入力パッド40上に載置されているとして検出された玩具20毎に、該玩具20の識別IDと、載置位置と、載置向きと、を対応付けた載置状態情報を生成し、ゲーム装置400に出力する(ステップS19)。
以上の処理を行うと、入力制御部100は、本処理を終了する。
【0105】
尚、上述した載置状態の検出処理を開始するタイミングとしては、▲1▼入力パッド40を主体とし、所定時間(例えば、1フレームに相当する1/60秒)毎に実行する、▲2▼ゲーム装置400を主体とし、ゲーム装置400から検出指示信号が入力された場合に実行する、或いは、▲3▼入力パッド40が備える、プレーヤが検出指示を入力するための操作ボタン41が操作された場合に実行する、等がある。
【0106】
[効果]
以上、本実施の形態によれば、ゲーム装置400に接続された入力パッド40は、検出エリア50を等分割した桝52毎にミラー44を傾斜角度θ、φで適当に傾斜させることで、イメージセンサ43が該桝52を撮像する。次いで、各桝52の撮像画像について、二次元バーコード及びマーカが含まれるか否かによって玩具20の載置有無を判断し、載置有りの場合には、含まれる二次元バーコードから該玩具20の識別IDを判断するとともに、含まれるマーカから該玩具20の載置向きを判断する。そして、載置有りと判断した桝52と、判断した識別IDと、載置向きと、を対応付けた載置状態情報を、ゲーム装置400に出力する。
【0107】
従って、検出エリア50を等分割(区分)した桝52毎に撮像を行う、即ち部分的に撮像するため、検出エリア50全体を撮像する従来の方法と比較して撮像手段の画素数が少なくて済み、撮像手段であるイメージセンサ43の低コスト化、即ち入力パッド40の低コスト化を実現するとともに、小型化を実現することができる。
【0108】
[変形例]
尚、本発明の適用は、上述した実施の形態に限定されることなく、本発明の趣旨を逸脱しない範囲で適宜変更可能である。例えば、次の変形例が挙げられる。
【0109】
(1)載置向きの検出
上述した実施の形態では、入力パッド40が検出する玩具20の載置向きを、玩具20の台座20aの底面に記されたマーカ24によって判断することとしたが、次のように検出しても良い。
【0110】
(1−1)二次元バーコード22の向き
二次元バーコード22を、玩具20の向きと関連付けた向きで記しておき、撮像画像中の二次元バーコード22の表記向きによって、該玩具20の載置向きを判断する。
【0111】
例えば、二次元バーコード22がQRコードである場合には切り出しシンボルの配置パターンが、また、データマトリクスである場合にはアライメントパターンの配置向きが、それぞれ玩具20の正面方向に対して一定の向きとなるように、該二次元バーコード22を該玩具20の台座20aの底面に記しておく。そして、載置向き判断部150は、撮像画像中の二次元バーコードの表記内容によって該玩具20の載置向きを判断する。
【0112】
(1−2)玩具20の台座20aの底面の形状
また、台座20aの底面を、指向性を有する形状に形成し、撮像画像に含まれる玩具20の台座20aの底面の形状に基づいて、該玩具20の載置向きを判断する。
【0113】
例えば、玩具20の台座20aの底面を、将棋の駒のような五角形状、且つ該五角形状の一つの角が該玩具20の正面方向に一致するように形成する。そして、載置向き判断部150は、撮像画像中の台座の底面形状である五角形状の上記一つの角の方向を正面方向として、該玩具20の載置向きを判断する。
【0114】
或いは、玩具20の台座20aの底面に、上述と同様に指向性を有する凹部を形成し、該凹部に二次元バーコード22を記すこととしても良い。
【0115】
(2)撮像画像の解析(識別IDや載置向きの判断)
また、上述した実施の形態では、入力パッド40内の制御IC46が、イメージセンサ43による撮像画像を解析して、検出エリア50内の玩具20の載置有無、識別IDや載置向きの判断を行い、判断結果をゲーム装置400に出力することとしたが、これを、ゲーム装置400が行うこととしても良い。
【0116】
具体的には、図8において、入力パッド40の入力制御部100が備える載置有無判断部130や識別ID判断部140、載置向き判断部150といった機能部を、ゲーム装置400の本体制御部800が備えることとする。そして、入力パッド40は、各桝52毎のイメージセンサ43による撮像画像を、ゲーム装置400に出力する。そして、ゲーム装置400において、本体制御部800が、入力撮像画像を解析して、検出エリア50内の玩具20の載置有無、識別IDや載置向きの判断を行う。
【0117】
(3)識別IDの表記
また、上述した実施の形態では、識別情報である識別IDを、二次元バーコード22として記す(表記)こととしたが、これに限らず、一次元バーコードやカラーバーコードとして記しても良いし、所定の変換法則に従って記号化或いは図形化して記しても良いし、或いは、識別ID(数字や文字等)そのものを記すこととしても良い。
【0118】
(4)印刷物を載置
また、入力パッド40に載置される物は、玩具20等の形象物に限られず、例えばカード等の印刷物であっても良い。この場合、カードには、キャラクタのイラストや写真等の図柄と、該カードの識別IDをコード化した二次元バーコードと、が印刷される。そして、二次元バーコードが印刷された面が裏面(入力パッド40と接触する面)となるよう、入力パッド40の枡52内にカードが載置される。
【0119】
(5)適用する装置
更に、上述した実施の形態におけるゲーム装置400を適用する具体例としては、図1に示した家庭用ゲーム装置に限定されるものではなく、例えば携帯用ゲーム装置、パーソナルコンピュータ、携帯電話機やPDA等の携帯端末等に適用しても良い。
【0120】
【発明の効果】
本発明によれば、複数の個別載置領域に区分された載置板の上面に載置された形象物の識別情報及び位置情報を、接続されている画像生成装置に出力する入力装置を実現できる。詳細には、この入力装置では、個別載置領域毎に、支持角度可変手段による反射部の支持角度の可変、及び撮像手段による撮像を断続的に行うように制御することで、各個別載置領域の撮像を行う。そして、各個別載置領域の撮像画像に含まれていた識別情報を認識して、認識した識別情報、及びこの識別情報が含まれていた個別載置領域の載置板に対する位置の情報を、上記画像生成装置に出力する。
【0121】
従って、載置板を区分した個別載置領域毎に撮像を行う、即ち部分的に撮像するため、載置板全体を撮像する従来の方法と比較して撮像手段の画素数が少なくて済み、撮像手段の低コスト化、即ち入力装置の低コスト化を実現するとともに、小型化を実現することができる。
【図面の簡単な説明】
【図1】本発明を適用した家庭用ゲーム装置の外観例。
【図2】入力パッド上に載置される玩具の詳細図。
【図3】玩具の載置向きの判断を説明するための図。
【図4】戦闘モードにおける、(a)入力パッド上の玩具の載置状態の一例、(b)ゲーム画面の一例。
【図5】入力パッドの内部構造を示す概略斜視図。
【図6】(a)X傾斜軸によるミラーの傾斜を説明するための図、(b)Y傾斜軸によるミラーの傾斜を説明するための図。
【図7】玩具の載置向きと撮像画像との関係を説明するための図。
【図8】ゲーム装置及び入力パッドの内部構成を示すブロック図。
【図9】傾斜角度テーブルのデータ構成例を示す図。
【図10】検出入力情報のデータ構成例を示す図。
【図11】載置状態の検出処理の流れを説明するためのフローチャート。
【符号の説明】
40 入力パッド
41、42 操作ボタン
43 イメージセンサ
44 ミラー
45a X軸モータ
45b Y軸モータ
46 制御CPU
50 検出エリア
52(52a〜52f) 桝
100 入力制御部
110 モータ駆動制御部
120 撮像制御部
130 載置有無判断部
140 識別ID判断部
150 載置向き判断部
200 入力記憶部
210 載置状態検出プログラム
220 傾斜角度テーブル
230 検出入力情報
400 ゲーム装置
500 操作入力部
600 画像表示部
700 通信部
800 本体制御部
810 ゲーム演算部
820 画像生成部
900 本体記憶部
20 玩具
20a 台座
22 二次元バーコード
24 マーカ
20b 模型部
[0001]
BACKGROUND OF THE INVENTION
The present invention relates to an input device and a game system connected to an image generation device.
[0002]
[Prior art]
Conventionally, an input device that detects an arrangement state (type, position, orientation, etc.) of an object to be detected such as a card or a toy arranged in a predetermined arrangement area is provided, and a game is executed using the placement state as input information. Game devices are known. The input device is classified into two types, that is, a contact type that uses electromagnetic induction and a non-contact type that analyzes a captured image, from the viewpoint of a detection method of an object to be detected.
[0003]
For example, as a game device provided with a non-contact type input device, as disclosed in Patent Document 1, a card game device that executes a soccer game using a player card on which a photograph of a player is printed as a detected object Etc. Specifically, this card game device is configured to include a display and a plurality of terminal devices connected to the main control unit. When the player arranges the player cards on the card arrangement panel of the terminal device, the card data recorded on the back surface of the player card is read by the image sensor inside the terminal device, and a team is formed based on the read data. Player data is created and a soccer game is executed. The player can instruct change of the player's position and formation by changing the arrangement of the player cards.
[0004]
[Patent Document 1]
JP 2002-301264 A
[0005]
[Problems to be solved by the invention]
In the card game device described in Patent Document 1, the image sensor performs imaging over the entire surface of the card arrangement panel. That is, in the case of a game device that executes a soccer game, shooting is performed over the entire surface of a card arrangement panel having a size that allows at least 11 player cards corresponding to one team to be arranged. For this reason, a high pixel / high accuracy image sensor is required. This leads to an increase in the price of the image sensor, that is, an increase in the price of the input device. Therefore, it has been difficult to apply the image sensor to a home game device in which the price is more important than a commercial game device.
[0006]
In addition, since the image is taken over the entire card arrangement panel, the internal space of the casing of the terminal device becomes large, and the size of the terminal device cannot be avoided. Also in this respect, it is very difficult to apply the card game device to a home game device.
[0007]
In view of the above circumstances, an object of the present invention is to realize an input device that can be applied to a home game device in a non-contact type input device included in a game device, which is reduced in cost and size as compared with conventional devices. It is said.
[0008]
[Means for Solving the Problems]
In order to solve the above problem, the invention according to claim 1
The input means for inputting the identification information and the position information, and the input from a plurality of character information in which the identification information of the figurative object and the character information including the image information of the character imitating the form of the figurative object are associated Selection means for selecting character information corresponding to the identification information input by the means, position determination means for determining a position in the virtual space based on the position information input by the input means, and the position in the virtual space An image generation unit configured to generate an image of the virtual space in which a character based on the character information selected by the selection unit is arranged at a determined position; and an input device connected to an image generation device comprising:
Imaging means (for example, the image sensor 43 in FIG. 5);
The top surface is divided into a plurality of individual placement areas (for example, 桝 52 in FIG. 5), and identification information (for example, the two-dimensional barcode 22 in FIG. 2) is written on the bottom surface in each individual placement area ( For example, a mounting plate (for example, the detection area 50 in FIG. 5) having a light transmittance capable of mounting the toy 20 in FIG. 5;
A light reflecting portion (for example, the mirror 44 in FIG. 5) supported by a predetermined axis (for example, the X tilt axis and the Y tilt axis in the embodiment) below the mounting plate;
A support angle varying means (for example, the control IC 46 in FIG. 5; the X-axis motor 45a and the Y-axis motor 45b in FIG. 8) for varying the support angle of the light reflecting portion by the predetermined axis;
Control means (for example, the control IC 46 in FIG. 5, FIG. 8) that controls to vary the support angle by the support angle variable means and intermittently image by the image pickup means in order to take an image for each individual placement area. Motor drive control unit 110 and imaging control unit 120),
Identification information recognition for recognizing whether or not (1) identification information is included in the captured image of each individual placement area imaged by the control by the control means, and (2) if the identification information is included Means (for example, the control IC 46 in FIG. 5; the mounting presence / absence determination unit 130 and the identification ID determination unit 140 in FIG. 8);
Output means for outputting the identification information recognized by the identification information recognition means and the position information of the individual placement area corresponding to the captured image containing the identification information with respect to the mounting plate to the image generating apparatus. (For example, the control IC 46 in FIG. 5; the input control unit 100 in FIG. 8);
It is characterized by having.
[0009]
According to the first aspect of the present invention, the identification information and the position information of the figurative object placed on the upper surface of the placement plate divided into a plurality of individual placement areas are transmitted to the connected image generation apparatus. An input device for outputting can be realized. Specifically, in this input device, each individual placement area is controlled by performing variable control of the support angle of the reflecting portion by the support angle varying means and intermittent imaging by the imaging means for each individual placement area. The area is imaged. Then, the identification information included in the captured image of each individual placement area is recognized, the recognized identification information, and information on the position of the individual placement area where the identification information was included, with respect to the placement plate, Output to the image generation apparatus.
[0010]
Therefore, the number of pixels of the imaging means can be reduced compared to the conventional method of imaging the entire mounting plate in order to perform imaging for each individual mounting area that divides the mounting plate, that is, partially image. It is possible to reduce the cost of the imaging means, that is, to reduce the cost of the input device, and to reduce the size.
[0011]
Here, the image pickup means can be realized by an image pickup element having a photoelectric conversion function (for example, a CCD or a CMOS image sensor).
[0012]
Further, as in the invention according to claim 2, in the input device according to claim 1,
The input unit of the image generation apparatus further inputs orientation information,
The image generation means of the image generation device further arranges the character in the virtual space in a direction based on the direction information input by the input means,
The identification information recognition means further recognizes (3) the notation direction of the identification information in the captured image,
The output means further outputs orientation information relating to the notation orientation recognized by the identification information recognition means to the image generation device.
It's also good.
[0013]
According to the second aspect of the present invention, the same effect as that of the first aspect of the invention can be obtained. Further, the notation direction of the identification information in the captured image is recognized, and the direction information regarding the recognized notation direction is obtained. An input device that outputs to an image generation device can be realized.
[0014]
In the input device according to claim 1, as in the invention according to claim 3,
The input unit of the image generation apparatus further inputs orientation information,
The image generation means of the image generation device further arranges the character in the virtual space in a direction based on the direction information input by the input means,
On the bottom surface of the figure, an identifier (for example, the marker 24 in FIG. 2) is written at a position off the center of the bottom surface,
The identification information recognition means further recognizes the placement direction of the figurative object based on the position of the identifier in (3) the captured image,
The output means further outputs orientation information related to the placement orientation recognized by the identification information recognition means to the image generation device.
It's also good.
[0015]
According to the third aspect of the present invention, the same effect as that of the first aspect of the invention can be obtained, and the placement direction of the figurative object can be recognized based on the position of the identifier in the captured image. It is possible to realize an input device that outputs the orientation information related to the placement orientation to the image generation device.
[0016]
Further, as in the invention according to claim 4, in the input device according to claim 1,
The input unit of the image generation apparatus further inputs orientation information,
The image generation means of the image generation device further arranges the character in the virtual space in a direction based on the direction information input by the input means,
The bottom surface of the figure is formed in a shape having directivity,
The identification information recognizing means further recognizes the placement direction of the figure based on the shape of the bottom face of the figure contained in (3) the captured image;
The output means further outputs orientation information related to the placement orientation recognized by the identification information recognition means to the image generation device.
It's also good.
[0017]
According to the invention described in claim 4, the same effect as that of the invention described in claim 1 can be obtained, and the mounting direction of the figurative object can be determined from the shape of the bottom surface of the figurative object included in the captured image. Can be realized, and an input device that outputs orientation information related to the recognized placement orientation to the image generation device can be realized.
[0018]
The invention according to claim 5
Input means for inputting the picked-up image and pick-up position identification information of the picked-up image, and whether or not the picked-up image inputted by the input means includes (1) identification information, or (2) The identification information recognition means for recognizing the identification information, and a plurality of pieces of character information in which the identification information of the figurative object and the character information including the image information of the character imitating the form of the figurative object are associated with each other. A selection unit that selects character information corresponding to the identification information recognized by the information recognition unit, a position determination unit that determines a position in a virtual space based on the imaging position identification information input by the input unit, and the virtual Image generating means for generating an image of the virtual space in which a character based on the character information selected by the selecting means is arranged at the determined position in the space , An input device connected to the image generator with,
Imaging means (for example, the image sensor 43 in FIG. 5);
The top surface is divided into a plurality of individual placement areas (for example, the hook 52 in FIG. 5), and a figure (for example, the toy 20 in FIG. 5) having identification information written on the bottom surface can be placed in each individual placement area. A mounting plate (for example, the detection area 50 in FIG. 5) having a light transmittance;
A light reflecting portion (for example, the mirror 44 in FIG. 5) supported by a predetermined axis (for example, the X tilt axis and the Y tilt axis in the embodiment) below the mounting plate;
Support angle variable means (for example, the X-axis motor 54a and the Y-axis motor 54b in FIG. 8) for changing the support angle of the light reflecting portion by the predetermined axis;
Control means (for example, the control IC 46 in FIG. 5; FIG. 8) that controls to vary the support angle by the support angle varying means and to intermittently image by the imaging means in order to take an image for each individual placement area. Input control unit 100),
Output means (for example, in FIG. 5) that outputs the captured image of each individual placement area imaged by the control by the control means and the identification information of the position of each individual placement area with respect to the mounting plate described above to the image generation apparatus. Control IC 54; input control unit 100 in FIG. 8);
It is characterized by having.
[0019]
According to the fifth aspect of the present invention, the captured image for each of the plurality of individual placement areas obtained by dividing the placement board on which the figurative object is placed and the imaging position information of the captured image are connected to generate an image. An input device that outputs to a device can be realized. More specifically, in this input device, for each individual placement area, control is performed such that the support angle of the reflecting portion is varied by the support angle varying means and the imaging by the imaging means is intermittently repeated. The placement area is imaged. Then, the captured image of each individual placement area and the identification information of the position of each individual placement area with respect to the placement plate are output to the image generation device.
[0020]
Therefore, the number of pixels of the imaging means can be reduced compared to the conventional method of imaging the entire mounting plate in order to perform imaging for each individual mounting area that divides the mounting plate, that is, partially image. It is possible to reduce the cost of the imaging means, that is, to reduce the cost of the input device, and to reduce the size.
[0021]
The invention described in claim 6
A plurality of character information in which input means for inputting identification information and position information, identification information of a predetermined printed matter on which a character design is printed, and character information including character image information printed on the printed matter are associated with each other A selection unit that selects character information corresponding to the identification information input by the input unit, a position determination unit that determines a position in the virtual space based on the position information input by the input unit, An image generation unit configured to generate an image of the virtual space in which a character based on the character information selected by the selection unit is arranged at the determined position in the virtual space; An input device,
Imaging means;
A mounting plate having a light transmitting property capable of mounting a printed material in which an upper surface is divided into a plurality of individual mounting regions and identification information is printed on the back surface of each individual mounting region;
A light reflecting portion pivotally supported by a predetermined axis below the mounting plate;
A support angle varying means for varying a support angle of the light reflecting portion by the predetermined axis;
Control means for controlling to vary the support angle by the support angle varying means and to intermittently perform imaging by the imaging means in order to take an image for each individual placement area;
Identification information recognition for recognizing whether or not (1) identification information is included in the captured image of each individual placement area imaged by the control by the control means, and (2) if the identification information is included Means,
Output means for outputting the identification information recognized by the identification information recognition means and the information on the position of the individual placement area corresponding to the captured image including the identification information with respect to the mounting plate to the image generating apparatus. When,
It is characterized by having.
[0022]
According to the sixth aspect of the present invention, the identification information and the position information of the printed material placed on the upper surface of the placement plate divided into a plurality of individual placement areas are output to the connected image generation device. An input device can be realized. Specifically, in this input device, each individual placement area is controlled by performing variable control of the support angle of the reflecting portion by the support angle varying means and intermittent imaging by the imaging means for each individual placement area. The area is imaged. Then, the identification information included in the captured image of each individual placement area is recognized, the recognized identification information, and information on the position of the individual placement area where the identification information was included, with respect to the placement plate, Output to the image generation apparatus.
[0023]
Therefore, the number of pixels of the imaging means can be reduced compared to the conventional method of imaging the entire mounting plate in order to perform imaging for each individual mounting area that divides the mounting plate, that is, partially image. It is possible to reduce the cost of the imaging means, that is, to reduce the cost of the input device, and to reduce the size.
[0024]
The invention according to claim 7
Input means for inputting the picked-up image and pick-up position identification information of the picked-up image, and whether or not the picked-up image inputted by the input means includes (1) identification information, or (2) Among the plurality of character information in which the identification information recognition means for recognizing the identification information, the identification information of the printed matter on which the character design is printed, and the character information including the image information of the character printed on the printed matter are associated. Selection means for selecting character information corresponding to the identification information recognized by the identification information recognition means, and position determination means for determining a position in the virtual space based on the imaging position identification information input by the input means And in the virtual space in which a character based on the character information selected by the selection means is arranged at the determined position in the virtual space. An input device connected to the image generating apparatus comprising an image generating device which generates an image, and
Imaging means;
A top plate having a light transmitting property on which a top surface is divided into a plurality of individual placement regions, and a printed matter having identification information written on the back surface can be placed on each individual placement region;
A light reflecting portion pivotally supported by a predetermined axis below the mounting plate;
A support angle varying means for varying a support angle of the light reflecting portion by the predetermined axis;
Control means for controlling to change the support angle by the support angle changing means and to intermittently take an image by the imaging means in order to take an image for each individual placement area;
An output unit that outputs a captured image of each individual placement region imaged by control by the control unit and identification information of a position of each individual placement region with respect to the mounting plate described above to the image generation device;
It is characterized by having.
[0025]
According to the seventh aspect of the present invention, the image generation apparatus to which the captured image for each of the plurality of individual placement areas obtained by dividing the placement plate on which the printed material is placed and the imaging position information of the captured image are connected. It is possible to realize an input device that outputs to More specifically, in this input device, for each individual placement area, control is performed such that the support angle of the reflecting portion is varied by the support angle varying means and the imaging by the imaging means is intermittently repeated. The placement area is imaged. Then, the captured image of each individual placement area and the identification information of the position of each individual placement area with respect to the placement plate are output to the image generation device.
[0026]
Therefore, the number of pixels of the imaging means can be reduced compared to the conventional method of imaging the entire mounting plate in order to perform imaging for each individual mounting area that divides the mounting plate, that is, partially image. It is possible to reduce the cost of the imaging means, that is, to reduce the cost of the input device, and to reduce the size.
[0027]
Further, the invention according to claim 8 is
The input device according to any one of claims 1 to 4,
Among the plurality of pieces of character information in which the input means for inputting the identification information and the position information from the input device and the character information including the image identification information and the image information of the character imitating the shape of the image are associated. Selection means for selecting character information corresponding to the identification information input by the input means, position determination means for determining a position in the virtual space based on the position information input by the input means, and the game An image generating device (for example, the game of FIG. 1), comprising: image generating means for generating an image of the game space in which a character based on the character information selected by the selecting means is arranged at the determined position in the space. Device main body 1; game device 400 in FIG.
Is a game system.
[0028]
According to the invention described in claim 8, an input device that has the same effect as that of any one of claims 1 to 4, and a plurality of individual placement areas input from the input device It is possible to realize a game system including an image generation device that generates an image of a game space in which characters are arranged based on identification information and position information of a figurative object placed on the upper surface of the placement board divided into two.
[0029]
The invention according to claim 9 is
An input device according to claim 5;
Input means for inputting a picked-up image and picked-up position identification information of the picked-up image from the input device, and whether or not the picked-up image input by the input means includes (1) identification information, (2) included Identification information recognizing means for recognizing the identification information in the case of the image, and a plurality of character information in which the identification information of the figurative object and the character information including the image information of the character imitating the form of the figurative object are associated with each other. Selection means for selecting character information corresponding to the identification information recognized by the identification information recognition means, and position determination means for determining a position in the game space based on the imaging position identification information input by the input means And an image of the game space in which a character based on the character information selected by the selection means is arranged at the determined position in the game space. And; generating image generating apparatus and an image generating means for (a game device 400 of FIG. 8, for example, the game apparatus main body 1 in FIG. 1)
Is a game system.
[0030]
According to the ninth aspect of the present invention, a plurality of input devices that have the same effects as those of the fifth aspect of the present invention and a mounting plate on which the figurative object is placed, which is input from the input device. An image generation device that generates a captured image of each individual placement area and an image of a game space in which characters are arranged based on the captured position information of the captured image can be realized.
[0031]
The invention according to claim 10 is
An input device according to claim 6;
A plurality of input means for inputting identification information and position information from the input device; a plurality of pieces of character information including character information including character image information printed on the printed matter and identification information of the printed matter on which the character design is printed; Selection means for selecting character information corresponding to the identification information input by the input means from among the character information, and position determination means for determining a position in the virtual space based on the position information input by the input means And an image generation device that generates an image of the game space in which a character based on the character information selected by the selection unit is arranged at the determined position in the game space;
Is a game system.
[0032]
According to the tenth aspect of the present invention, there is provided an input device that has the same effect as that of the sixth aspect of the present invention, and a mounting plate that is input from the input device and is divided into a plurality of individual mounting areas. It is possible to realize a game system including an image generation device that generates an image of a game space in which characters are arranged based on identification information and position information of a printed matter placed on the upper surface of the game.
[0033]
The invention according to claim 11 is
An input device according to claim 7,
Input means for inputting a picked-up image and picked-up position identification information of the picked-up image from the input device, and whether or not the picked-up image input by the input means includes (1) identification information, (2) included A plurality of identification information recognizing means for recognizing the identification information in a case where the character is printed, a plurality of pieces of character information including character information including character image information printed on the printed matter and identification information of the printed matter on which the character design is printed. A selection means for selecting character information corresponding to the identification information recognized by the identification information recognition means from the character information, and a position in the game space is determined based on the imaging position identification information input by the input means. And a character based on the character information selected by the selection means is arranged at the determined position in the game space. An image generation apparatus and an image generating means for generating an image of the game space that,
Is a game system.
[0034]
According to the eleventh aspect of the present invention, there are provided an input device having the same effect as that of the seventh aspect of the invention, and a plurality of input plates that are input from the input device and on which the printed material is placed. It is possible to realize a game system including an image generation apparatus that generates a captured image of each individual placement area and an image of a game space in which characters are arranged based on the captured position information of the captured image.
[0035]
DETAILED DESCRIPTION OF THE INVENTION
Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings. In the following description, the case where the present invention is applied to a battle scene in an RPG (role playing game) where a story develops based on the player's judgment will be described. However, the application of the present invention is not limited to this. Absent.
[0036]
[Outline of game device]
FIG. 1 is a diagram showing an example when the present invention is applied to a consumer game device. As shown in the figure, a display 2, a game controller 3, and an input pad 40 are connected to the game apparatus body 1.
[0037]
Game information, which is information necessary for executing the game, is stored in information storage media 5, 6 that are detachable from the game apparatus body 1. Specifically, the game program, initial data, and the like are stored in an information storage medium 5 such as a CD-ROM or DVD, and the play data held in accordance with a predetermined timing during the game or a save operation by the player is And stored in an information storage medium 6 such as a memory card or an IC memory.
[0038]
Alternatively, the game information may be acquired from an external device by connecting to the communication line N via the communication device 7 provided in the game apparatus body 1. The communication line N means a communication path through which data can be exchanged. That is, the communication line N is meant to include a communication network such as a telephone communication network, a cable network, and the Internet in addition to a dedicated line (dedicated cable) for direct connection and a LAN using Ethernet (registered trademark). The communication method may be wired / wireless.
[0039]
The game apparatus main body 1 includes an arithmetic processing unit such as a CPU, and a reading device for reading data stored in the information storage media 5 and 6. Various game processes are executed based on game information read from the information storage media 5 and 6, operation signals input from the game controller 3 and the input pad 40, and the game screen is displayed on the display 2.
[0040]
The input pad 40 is an input device used in combination with the toy 20 that specifies the position in the detection area 50 and the like. The toy 20 has a pedestal 20a having a substantially flat bottom so that it can be stably placed on the input pad 40, and a figure of a figure such as “human”, “cat”, “Kyoryyu” or the like. And a model portion 20b simulating the above.
[0041]
The pedestal 20a constituting the toy 20 is formed in the same shape / size regardless of which toy 20 is used. The bottom surface of the pedestal 20a (the surface placed in contact with the input pad 40) is encoded with an identification ID for identifying the toy 20, as shown in the front lower perspective view of FIG. The dimension barcode 22 and the marker 24 which is an identifier indicating the front direction of the toy 20 are written.
[0042]
Here, the two-dimensional barcode 22 and the marker 24 written on the bottom surface of the pedestal 20a may be printed (printed) on the bottom surface, or the seal on which the two-dimensional barcode 22 and the marker 24 are printed is printed. It is good also as sticking to a bottom face. In addition to the information for specifying the toy 20 such as a production number, the identification ID indicates the type of the object to be formed of the toy 20 (for example, “human”, “cat”, “Kyoryu”, etc.). Information etc. are included.
[0043]
In the following, the direction of the input pad 40 is defined as follows. That is, in FIG. 1, the side where the cable connected to the game apparatus body 1 is provided is the front (front), the side where the operation buttons 41 and 42 are provided is the front (rear), and the right is The description will be made with the right, left as left, top as up, and bottom as down.
[0044]
Further, as shown in FIG. 1, the detection area 50 formed on the upper surface of the input pad 40 is equally divided (segmented) into a 3 × 2 grid pattern, for a total of six ridges 52a to 52f (hereinafter, comprehensive). Are referred to as “桝 52”, and the identification number of each 桝 52 is “# 1 to # 6”). The cage 52 is formed in a size that can accommodate the pedestal 20a of the toy 20 (for example, the length of the long side of the cage 52 is about 1.0 to 1.5 times the diameter of the pedestal 20a). One toy 20 can be placed in each 52.
[0045]
Then, the input pad 40 detects the two-dimensional barcode 22 and the marker 24 written on the bottom surface of the toy 20 placed in the detection area 50 at a given timing, thereby identifying the toy 20. An ID, a placed position (hereinafter referred to as “placed position”) and a placed direction (hereinafter referred to as “placed direction”) are detected and output to the game apparatus body 1.
[0046]
The placement position of the toy 20 is detected with the heel 52 constituting the detection area 50 as a unit. For example, in FIG. 1, it is detected that the placement position of the toy 20 is the heel 52d (identification number is “# 4”). In addition, when one toy 20 is arrange | positioned ranging over several ridges 52, it is judged that it cannot detect.
[0047]
Further, the placement direction of the toy 20 is represented by which direction the front of the toy 20 is directed with respect to the front direction of the input pad 40, and is detected in four directions of front / rear / left / right. The Specifically, as shown in FIG. 3, the determination is made based on which of the four regions 54 a to 54 d obtained by dividing the ridge 52 by the two diagonal lines, the marker 24 is located.
[0048]
That is, when the marker 24 is located in the front area 54a, the placement direction is determined as “front”, and when the marker 24 is located in the right area 54b, the placement direction is determined as “right”. When it is located in the left area 54c, the placement direction is determined as “left”, and when it is located in the front area 54d, the placement direction is determined as “rear”. Therefore, for example, in FIG. 1, the placement direction of the toy 20-1 is detected as “front”.
[0049]
The player enjoys the game by operating the game controller 3 and the input pad 40 while watching the game screen displayed on the display 2. Specifically, the player advances the game by operating the game controller 3 according to the story development of the game, and inputs the toy 20 when the battle mode is started by encountering an enemy character during the game. Place on the pad 40.
[0050]
More specifically, when the toy 20 is placed on the input pad 40 in the battle mode, a character imitating the placed toy 20 is displayed as a character to be operated by the player (hereinafter referred to as “operation target character”). The game screen arranged in the game space is displayed.
[0051]
FIG. 4A is a diagram illustrating an example of a placement state of the toy 20 on the input pad 40 in the battle mode. According to the figure, the toy 20-2 is placed facing “left” on the heel 52b of the detection area 50, and the toy 20-3 is facing “front” on the heel 52f. It is placed.
[0052]
FIG. 4B is a diagram showing an example of the game screen in the battle mode, and shows a game screen corresponding to the placement state shown in FIG. According to the figure, the game screen GW displays the own battle area 60 in which the operation target character is arranged and the enemy battle area 70 in which the enemy character is arranged.
[0053]
Similar to the detection area 50 on the input pad 40, the own battle area 60 is divided into 3 × 2 grids, and each of the kites 62 a to 62 f (hereinafter, “桝” 62 ”is associated with the ridges 52a to 52f of the detection area 50 on a one-to-one basis.
[0054]
Then, the operation target character corresponding to the toy 20 placed on the corresponding cage 52 of the detection area 50 is arranged in each cage 62 of the own battle area 60 in accordance with the placement direction. For example, in the figure, the operation target character 64-2 corresponding to the toy 20-2 is arranged facing the “left” on the heel 62b of the own battle area 60, and the toy 20-3 is placed on the heel 62f. The corresponding operation target character 64-3 is arranged facing “front”.
[0055]
As described above, in the battle mode, the player places the toy 20 on the cage 52 of the detection area 50 of the input pad 40, so that the player can reach the desired position in the battle area 60 set in the game space. The operation target character can be arranged in a desired direction.
[0056]
[Internal structure of input pad]
FIG. 5A is a perspective view showing a schematic structure inside the input pad 40. According to the figure, inside the input pad 40, an image sensor 43, a mirror 44, a control IC 46, a power supply circuit for supplying power for operation to the image sensor 43, the control IC 46, a motor described later, and the like. (Not shown). Further, the upper surface portion of the input pad 40, specifically, the portion where the detection area 50 is formed is configured by a light-transmitting flat plate (for example, a transparent acrylic plate or glass plate).
[0057]
The image sensor 43 is a solid-state imaging device having a photoelectric conversion function such as a CCD or a CMOS image sensor, and generates a two-dimensional image to be imaged. The image sensor 43 is connected to the control IC 46, performs an imaging operation according to an imaging instruction from the control IC 46, and outputs a captured image to the control IC 46.
[0058]
The mirror 44 is a reflecting plate (reflecting part) that reflects incident light, and is arranged to guide the reflected light (emitted light) to an imaging surface that is a light receiving part of the image sensor 43. Specifically, the mirror 44 is disposed with an inclination so as to reflect incident light from a given ridge 52 in the detection area 50 and guide it to the imaging surface of the image sensor 43.
[0059]
That is, an optical path L is formed in the input pad 40 from the ridge 52 to the imaging surface of the image sensor 43 via the mirror 44 (hereinafter simply referred to as “to reach the image sensor 43”). That is, the image sensor 43 images the eyelid 52 viewed from the inside of the input pad 40.
[0060]
For example, in the same figure, an optical path L is formed from the basket 52b on which the toy 20 is placed to the image sensor 43 via the mirror 44. Therefore, the image sensor 43 captures the bag 52b, and the captured image includes an image of the bottom surface of the base 20a of the toy 20.
[0061]
Further, the mirror 44 is disposed so as to be tiltable about two predetermined axes, and different optical paths L are formed depending on the degree of tilt. That is, the ridge 52 imaged by the image sensor 43 is different because the formed optical path L is different.
[0062]
Specifically, in the figure, when an XYZ orthogonal coordinate system is defined in which the front-rear direction of the input pad 40 is the X-axis, the vertical direction is the Y-axis, and the left-right direction is the Z-axis, the mirror 44 is Inclination is performed with parallel axes (referred to as “X tilt axis” and “Y tilt axis”) as tilt axes. Then, as shown in FIG. 5B, the tilt angle θ of the mirror 44 with respect to the XY plane when tilted by the X tilt axis, and tilted by the Y tilt axis as shown in FIG. 5C. In this case, the eyelid 52 imaged by the image sensor 43 is determined by the inclination angle φ of the mirror 44 with respect to the XY plane.
[0063]
However, the tilt angle θ is positive when the mirror 44 is tilted counterclockwise when viewed from the positive direction of the X axis, and the tilt angle φ is counterclockwise when the mirror 44 is viewed from the positive direction of the Y axis. The case where it is inclined to positive is assumed to be positive. For simplicity of explanation, the image sensor 43 and the mirror 44 are arranged so that a straight line connecting the intersection of the X tilt axis and the Y tilt axis and the center position of the imaging surface of the image sensor 43 is parallel to the Z axis. It shall be installed.
[0064]
FIG. 6A is a diagram for explaining the tilt of the mirror 44 along the X tilt axis, and is a schematic view of the vertical cross section of the input pad 40 as viewed from the positive direction of the X axis. According to the figure, when the mirror 44 is tilted at the tilt angle θ1 (> 0), an optical path L1 from the flange 52a or 52d to the image sensor 43 via the mirror 44 is formed. Therefore, the image sensor 43 captures the bag 52a or 52d. Note that which of the collars 52a and 52d is imaged here is determined by the inclination angle φ, as will be described later.
[0065]
Further, when the mirror 44 is inclined at an inclination angle θ2 (> θ1), an optical path L2 from the flange 52b or 52e to the image sensor 43 via the mirror 44 is formed. Accordingly, the image sensor 43 images the ridge 52b or 52e. Note that which of the collars 52b and 52e is imaged here is determined by the inclination angle φ, as will be described later.
[0066]
Further, when the mirror 44 is inclined at an inclination angle θ3 (> θ2), an optical path L3 from the flange 52c or 52f to the image sensor 43 via the mirror 44 is formed. Therefore, the image sensor 43 captures the bag 52c or 52f. Note that which of the flanges 52c and 52f is detected here depends on the inclination angle φ, as will be described later.
[0067]
FIG. 6B is a diagram for explaining the tilt of the mirror 44 at the Y tilt axis, and shows a schematic view of the plan view of the input pad 40 as viewed from the positive direction of the Y axis. However, in the figure, it is assumed that the mirror 44 is tilted by the tilt angle θ1 with respect to the X tilt axis (that is, the image sensor 43 can image the eyelid 52a or 52d).
[0068]
According to the figure, when the mirror 44 is inclined at an inclination angle φ1 (> 0), an optical path L4 reaching the image sensor 43 via the mirror 44 is formed from the flange 52a. Therefore, the image sensor 43 captures the bag 52a.
[0069]
Further, when the mirror 44 is inclined at an inclination angle φ4 (<0), light L5e reaching the image sensor 43 via the mirror 44 is formed from the flange 52d. Therefore, the image sensor 43 captures the bag 52d.
[0070]
Further, although not shown in the drawing, the same applies to the other hooks 52b, 52c, 52e, and 52f. Specifically, when the mirror 44 is tilted by the tilt angle θ2 by the X tilt axis, when the mirror 44 is tilted at the tilt angle φ2 (> 0), the image sensor 43 captures the heel 52b, When tilted at the tilt angle φ5 (<0), the heel 52e is imaged. When the mirror 44 is tilted by the tilt angle θ3 with respect to the X tilt axis, when the mirror 44 is tilted at the tilt angle φ3 (> 0), the image sensor 43 captures the eyelid 52c and the tilt angle φ6. When tilted at (<0), the eyelid 52f is imaged.
[0071]
As described above, the image sensor 43 captures different ridges 52 according to combinations of the inclination angles θ and φ of the mirror 44 with respect to the XY plane.
[0072]
By the way, the captured image is inverted due to the reflection of the mirror 44.
FIG. 7 is a diagram illustrating the relationship between the placement direction of the toy 20 and the image captured by the image sensor 43. In FIG. 5A, the image sensor 43 is arranged with the front side on the right, the front side on the left, the upper side on the upper side, and the lower side on the lower side. Here, for simplicity of explanation, it is assumed that the letter “B” and the marker 44 are written on the bottom surface of the base 20a of the toy 20 as shown in FIG.
[0073]
FIG. 5B shows a captured image when the toy 20 is placed in the “front” direction, and FIG. 4C shows the toy 20 placed in the “back” direction. FIG. 4D shows a captured image when the placement direction of the toy 20 is “right”, and FIG. 5E shows the captured image when the placement direction of the toy 20 is “left”. The captured image in the case of “
[0074]
Thus, the image captured by the image sensor 43 is an image that has been inverted. For this reason, it is necessary to determine the identification ID and the mounting direction in consideration of this inversion.
[0075]
Further, the tilt of the mirror 44 by the X tilt axis and the Y tilt axis is realized by two motors (not shown) that are separately driven by a drive control signal from the control IC 46. When the motor is realized by, for example, a stepping motor, the mirror 44 can be tilted by a desired angle by controlling an input pulse for determining a rotation angle amount. Further, when realized by a DC motor or the like, the input pad 40 further includes an angle sensor for detecting the tilt angle of the mirror 44, and the tilt angles θ and φ detected by the angle sensor are desired angles. By controlling the DC motor so as to be, the mirror 44 can be tilted appropriately.
[0076]
In FIG. 5, the control IC 46 includes a CPU having an image analysis function, a ROM, a RAM, and the like that are storage units, and controls the image sensor 43 connected to the control IC 46, the motor, and the like. Specifically, the control IC 46 drives the motor so that the mirror 44 is inclined at an inclination angle θ and φ that can be imaged by the image sensor 43 for each eyelid 52, and the image sensor 43 captures the image. To do. Moreover, the captured image input from the image sensor 43 is analyzed, and the presence or absence, identification ID, and mounting direction of the toy 20 in the bag 52 are determined.
[0077]
[Function configuration]
FIG. 8 is a block diagram showing an internal configuration of game device 400 and input pad 40 connected to game device 400 of the present embodiment. According to the figure, the input pad 40 includes a mirror 44, an X-axis motor 45a for tilting the mirror 44 with an X tilt axis, a Y-axis motor 45b for tilting the mirror 44 with a Y tilt axis, an image sensor 43, An input control unit 100 and an input storage unit 200 are provided.
[0078]
The input control unit 100 corresponds to a CPU included in the control IC 46, and performs control related to detection processing of the placement state of the toy 20 on the input pad 40. Further, the input control unit 100 includes a motor drive control unit 110, an imaging control unit 120, a mounting presence / absence determination unit 130, an identification ID determination unit 140, and a mounting direction determination unit 150 as functional units. included.
[0079]
The motor drive control unit 110 controls the drive operation of the X-axis motor 45a and the Y-axis motor 45b. Specifically, according to the tilt angle table 220, a drive control signal for the X-axis motor 45a is output so that the mirror 44 is tilted by the tilt angle θ corresponding to the corresponding flange 52, and the mirror 44 is tilted by the tilt angle φ. A drive control signal for the Y-axis motor 45b is output so that the
[0080]
The imaging control unit 120 controls the imaging operation of the image sensor 43. Specifically, an imaging instruction signal for instructing imaging to be output to the image sensor 43 is output at a predetermined timing to perform an imaging operation.
[0081]
The placement presence / absence determination unit 130 analyzes the image captured by the image sensor 43 and determines whether or not the toy 20 is placed on the corresponding basket 52 (placement presence / absence). Specifically, if the entire bottom surface of the pedestal 20a of the toy 20 including the two-dimensional barcode 22 and the marker 24 is included in the captured image, it is determined that “there is placement”; Judged “None”.
[0082]
Here, the mounting presence / absence determining unit 130 analyzes both the two-dimensional barcode 22 and the marker 24 even if the entire bottom surface of the pedestal 20a is not included in the captured image, that is, even if a part of the bottom surface is missing. If it is included as much as possible, it may be determined that “there is placement”.
[0083]
When the toy 20 is determined to be placed (with placement) by the placement presence / absence judgment unit 130, the identification ID determination unit 140 determines the corresponding 桝 52 from the two-dimensional barcode 22 included in the captured image. The identification ID of the toy 20 placed inside is determined.
[0084]
The placement direction determination unit 150 determines whether the toy 20 is placed (placement is present) by the placement presence / absence judgment unit 130 based on the position of the marker 24 in the captured image, in the corresponding basket 52. The direction (mounting direction) of the toy 20 mounted on is determined. Specifically, as shown in FIG. 3, the determination is made based on which region 54 in the basket 52 the marker 24 is located.
[0085]
The input storage unit 200 corresponds to a ROM and a RAM included in the control IC 46, and the input control unit 100 implements a mounting state detection program 210, an inclination angle table 220, and a detection for realizing a mounting state detection process described later. The input information 230 is stored.
[0086]
The tilt angle table 220 is a table showing the tilt angle of the mirror 44 that can be imaged by the image sensor 43 on each of the eyelids 52 of the detection area 50, and FIG. 9 shows an example of the data configuration thereof. According to the figure, the tilt angle table 220 includes the tilt angle θ (222) of the mirror 44 by the X tilt axis and the tilt of the mirror 44 by the Y tilt axis for each of the eaves 52 (221) constituting the detection area 50. The angle φ (223) is stored in association with each other. The motor drive control unit 110 drives the X-axis motor 45 a and the Y-axis motor 45 b to tilt the mirror 44 so that the image sensor 43 can image the corresponding eyelid 52 according to the tilt angle table 220.
[0087]
The detection input information 230 is information on the detection result of the placement state of the toy 20 by the input pad 40, and FIG. 10 shows an example of the data configuration. According to the figure, the detection input information 230 includes a picked-up image (232) taken by the image sensor 43 and a toy 20 indicating whether or not the toy 20 is placed for each of the baskets 52 (231) constituting the detection area 50. The placement presence / absence (233), the identification ID (234) and the placement direction (235) of the placed toy 20 are stored in association with each other. The detection input information 230 is updated to the latest data every time the input control unit 100 performs a mounting state detection process described later.
[0088]
In addition, according to FIG. 8, the game apparatus 400 includes an operation input unit 500, an image display unit 600, a communication unit 700, a main body control unit 800, and a main body storage unit 900.
[0089]
The operation input unit 500 includes, for example, a button switch, a lever, a dial, a mouse, a keyboard, various sensors, and the like, and outputs an operation input signal corresponding to the operation input by the player to the main body control unit 800. In FIG. 1, the game controller 3 corresponds to this.
[0090]
The image display unit 600 displays a game screen based on the image signal from the image generation unit 820 while redrawing an image of one frame every 1/60 seconds, for example. The function is realized by hardware such as CRT, ELD, PDP, and HMD. In FIG. 1, the display 2 corresponds to this.
[0091]
The communication unit 700 connects to a communication line and transmits / receives data to / from an external device. This function is realized, for example, by a module such as Bluetooth (registered trademark) or IrDA, a modem, a TA, a jack of a wired communication cable, a control circuit, or the like. In FIG. 1, the communication device 7 corresponds to this.
[0092]
The main body control unit 800 performs various arithmetic processes such as control of the entire game apparatus 400 and game calculations. The main body control unit 800 is realized by hardware such as a CPU (CISC type, RISC type), ASIC (gate array, etc.) and a related control program. In FIG. 1, an arithmetic processing device such as a CPU included in the game apparatus main body 1 corresponds to this.
[0093]
The main body control unit 800 also includes a game calculation unit 810 that mainly performs calculation processing related to a game, and an image that generates an image signal for displaying a game screen from various data obtained by the processing of the game calculation unit 810. A generating unit 820.
[0094]
The game calculation unit 810 executes various game processes based on operation input signals input from the operation input unit 500 and the input pad 40, programs and data read from the main body storage unit 900, and the like. As the game process, for example, in the battle mode, the operation target character 64 is arranged in the own battle area 60 set in the game space based on the placement state information input from the input pad 40. Specifically, the character corresponding to the identification ID is set as the operation target character 64 at a position in the own battle area 60 corresponding to the placement position in a direction corresponding to the placement direction.
[0095]
The image generation unit 820 performs geometric processing and shading processing based on the calculation result by the game calculation unit 810, and generates a game image for displaying the game screen. Then, an image signal of the generated game image is output to the image display unit 600. The image generation unit 820 is realized by an arithmetic device such as a CPU or a DSP, a control program thereof, a drawing frame IC memory such as a frame buffer, and the like.
[0096]
The main body storage unit 900 stores game information including a system program for realizing various functions for causing the main body control unit 800 to control the game apparatus 400 in an integrated manner, and programs and data necessary for executing the game. Remember. The main body storage unit 900 is realized by an information storage medium such as various IC memories, a hard disk, a CD-ROM, a DVD, or an MO. In FIG. 1, information storage media 5 and 6 detachably attached to the game apparatus main body 1 correspond to this.
[0097]
[Process flow]
FIG. 11 is a flowchart for explaining the processing for detecting the placement state by the input pad 40. This process is realized by the input control unit 100 executing the placement state detection program 210 stored in the input storage unit 200 at a given timing.
[0098]
According to the figure, first, the input control unit 100 sets one scissors 52 (hereinafter referred to as “detection target scissors”) to be detected from the scissors 52 constituting the detection area 50 (hereinafter referred to as “detection target spear”). Step S11).
[0099]
Next, the motor drive control unit 110 refers to the tilt angle table 220 and outputs drive control signals for the X-axis motor 45a and the Y-axis motor 45b so as to tilt the mirror 44 by the tilt angles θ and φ corresponding to the detection target rod. Output (step S12).
[0100]
When the X-axis motor 45a and the Y-axis motor 45b are driven and the mirror 44 is appropriately tilted (that is, the optical path L from the detection target cage to the image sensor 43 via the mirror 44 is formed), then Then, the imaging control unit 120 outputs an imaging instruction signal to the image sensor 43 to cause the detection target soot to be imaged (step S13).
[0101]
When a captured image is input from the image sensor 43, the placement presence / absence determination unit 130 analyzes the captured image and determines whether the toy 20 is placed on the detection target basket (step S14).
[0102]
As a result, when it is determined that “placement is present” (step S14: present), the identification ID determination unit 140 then determines the placement of the toy 20 placed from the two-dimensional barcode included in the captured image. The identification ID is determined (step 15). Further, the placement direction determination unit 150 determines the placement direction of the toy 20 placed from the position of the marker in the captured image (step S16).
[0103]
After that, the input control unit 100 sets all the cocoons 52 as detection target cocoons and determines whether or not detection has been performed. If not (step S17: NO), one of the undetected cocoons 52 is detected. Is set as the next detection target bag (step S18), and the process proceeds to step S12.
[0104]
And if it detects about all the cage | baskets 52 (step S17: YES), the input control part 100 will be detected based on the updated detection input information 230 as having been mounted on the input pad 40. For every 20, the mounting state information in which the identification ID, the mounting position, and the mounting direction of the toy 20 are associated with each other is generated and output to the game device 400 (step S19).
If the above process is performed, the input control part 100 will complete | finish this process.
[0105]
Note that the timing for starting the mounting state detection process described above is as follows: (1) The input pad 40 is mainly used and is executed every predetermined time (for example, 1/60 second corresponding to one frame). (2) Executed when a detection instruction signal is input from the game apparatus 400 as a main body, or (3) the operation button 41 provided for the input pad 40 for the player to input a detection instruction is operated. There are cases to execute, etc.
[0106]
[effect]
As described above, according to the present embodiment, the input pad 40 connected to the game apparatus 400 is imaged by appropriately tilting the mirror 44 at the tilt angles θ and φ for each ridge 52 obtained by equally dividing the detection area 50. The sensor 43 images the bag 52. Next, the presence or absence of the toy 20 is determined based on whether or not the two-dimensional barcode and the marker are included in the captured image of each cage 52. If the toy 20 is present, the toy is determined from the included two-dimensional barcode. The identification ID of 20 is determined, and the placement direction of the toy 20 is determined from the included marker. Then, the mounting state information in which the bag 52 determined to be mounted, the determined identification ID, and the mounting direction are associated with each other is output to the game device 400.
[0107]
Accordingly, since the detection area 50 is equally divided (segmented) for each ridge 52, that is, a partial image is taken, the number of pixels of the imaging means is small compared to the conventional method of imaging the entire detection area 50. In addition, it is possible to reduce the cost of the image sensor 43 serving as the imaging means, that is, to reduce the cost of the input pad 40 and to reduce the size.
[0108]
[Modification]
The application of the present invention is not limited to the above-described embodiment, and can be appropriately changed without departing from the spirit of the present invention. For example, the following modification is mentioned.
[0109]
(1) Detection of orientation
In the embodiment described above, the placement direction of the toy 20 detected by the input pad 40 is determined by the marker 24 written on the bottom surface of the pedestal 20a of the toy 20, but it may be detected as follows. good.
[0110]
(1-1) Direction of the two-dimensional barcode 22
The two-dimensional barcode 22 is written in the direction associated with the direction of the toy 20, and the placement direction of the toy 20 is determined by the notation direction of the two-dimensional barcode 22 in the captured image.
[0111]
For example, when the two-dimensional barcode 22 is a QR code, the arrangement pattern of the cut-out symbols, and when the two-dimensional barcode 22 is a data matrix, the arrangement direction of the alignment pattern is a certain direction with respect to the front direction of the toy 20. The two-dimensional barcode 22 is written on the bottom surface of the base 20a of the toy 20 so that Then, the placement direction determination unit 150 determines the placement direction of the toy 20 based on the notation content of the two-dimensional barcode in the captured image.
[0112]
(1-2) Shape of the bottom surface of the base 20a of the toy 20
Further, the bottom surface of the pedestal 20a is formed in a shape having directivity, and the placement direction of the toy 20 is determined based on the shape of the bottom surface of the pedestal 20a of the toy 20 included in the captured image.
[0113]
For example, the bottom surface of the pedestal 20 a of the toy 20 is formed such that a pentagon shape like a shogi piece and one corner of the pentagon shape coincides with the front direction of the toy 20. Then, the placement direction determination unit 150 determines the placement direction of the toy 20 with the direction of the one corner of the pentagonal shape that is the bottom shape of the pedestal in the captured image as the front direction.
[0114]
Or it is good also as forming the recessed part which has directivity similarly to the above-mentioned in the bottom face of the base 20a of the toy 20, and writing the two-dimensional barcode 22 in this recessed part.
[0115]
(2) Analysis of captured image (determination of identification ID and placement direction)
In the above-described embodiment, the control IC 46 in the input pad 40 analyzes the image captured by the image sensor 43 and determines whether the toy 20 is placed in the detection area 50, whether it is an identification ID, or a placement direction. Although the determination result is output to the game apparatus 400, the game apparatus 400 may perform this.
[0116]
Specifically, in FIG. 8, functional units such as a mounting presence / absence determination unit 130, an identification ID determination unit 140, and a mounting direction determination unit 150 included in the input control unit 100 of the input pad 40 are replaced with a main body control unit of the game apparatus 400. 800 is provided. Then, the input pad 40 outputs an image captured by the image sensor 43 for each bag 52 to the game device 400. Then, in the game apparatus 400, the main body control unit 800 analyzes the input captured image and determines whether the toy 20 is placed in the detection area 50, the identification ID, and the placement direction.
[0117]
(3) Notation of identification ID
In the above-described embodiment, the identification ID, which is identification information, is described (notated) as the two-dimensional barcode 22, but not limited thereto, it may be described as a one-dimensional barcode or a color barcode. Then, it may be described in a symbolized or graphic form according to a predetermined conversion law, or an identification ID (numerals, characters, etc.) itself may be described.
[0118]
(4) Place printed matter
Further, the object placed on the input pad 40 is not limited to a figurative object such as the toy 20, and may be a printed object such as a card. In this case, a pattern such as an illustration or a photograph of the character and a two-dimensional barcode obtained by encoding the identification ID of the card are printed on the card. Then, the card is placed in the flange 52 of the input pad 40 so that the surface on which the two-dimensional barcode is printed becomes the back surface (the surface that contacts the input pad 40).
[0119]
(5) Applicable device
Furthermore, a specific example to which the game device 400 in the above-described embodiment is applied is not limited to the home game device shown in FIG. 1, and for example, a portable game device, a personal computer, a mobile phone, a PDA, etc. It may be applied to other mobile terminals.
[0120]
【The invention's effect】
According to the present invention, an input device that outputs identification information and position information of a figurative object placed on the upper surface of a placement board divided into a plurality of individual placement areas to a connected image generation device is realized. it can. Specifically, in this input device, each individual placement area is controlled by performing variable control of the support angle of the reflecting portion by the support angle varying means and intermittent imaging by the imaging means for each individual placement area. The area is imaged. Then, the identification information included in the captured image of each individual placement area is recognized, the recognized identification information, and information on the position of the individual placement area where the identification information was included, with respect to the placement plate, Output to the image generation apparatus.
[0121]
Therefore, the number of pixels of the imaging means can be reduced compared to the conventional method of imaging the entire mounting plate in order to perform imaging for each individual mounting area that divides the mounting plate, that is, partially image. It is possible to reduce the cost of the imaging means, that is, to reduce the cost of the input device, and to reduce the size.
[Brief description of the drawings]
FIG. 1 shows an example of the appearance of a consumer game device to which the present invention is applied.
FIG. 2 is a detailed view of a toy placed on an input pad.
FIG. 3 is a diagram for explaining determination of a toy placement direction;
4A is an example of a toy placement state on an input pad in a battle mode, and FIG. 4B is an example of a game screen.
FIG. 5 is a schematic perspective view showing the internal structure of the input pad.
FIGS. 6A and 6B are diagrams for explaining the tilt of the mirror by the X tilt axis, and FIG. 6B is a diagram for explaining the tilt of the mirror by the Y tilt axis.
FIG. 7 is a diagram for explaining a relationship between a toy placement direction and a captured image.
FIG. 8 is a block diagram showing an internal configuration of the game device and the input pad.
FIG. 9 is a diagram illustrating a data configuration example of an inclination angle table.
FIG. 10 is a diagram showing a data configuration example of detection input information.
FIG. 11 is a flowchart for explaining the flow of a loading state detection process;
[Explanation of symbols]
40 input pads
41, 42 Operation buttons
43 Image sensor
44 Mirror
45a X-axis motor
45b Y-axis motor
46 Control CPU
50 detection area
52 (52a-52f)
100 Input control unit
110 Motor drive controller
120 Imaging control unit
130 Placement determination unit
140 Identification ID judgment part
150 Placement direction determination unit
200 Input memory
210 Placement state detection program
220 Tilt angle table
230 Detection input information
400 game devices
500 Operation input section
600 Image display
700 Communication Department
800 Control unit
810 Game calculation part
820 Image generation unit
900 Main unit storage
20 toys
20a pedestal
22 Two-dimensional barcode
24 markers
20b Model part

Claims (11)

識別情報及び位置情報を入力する入力手段と、形象物の識別情報と当該形象物の形態を模したキャラクタの画像情報を含むキャラクタ情報とが対応付けられた複数のキャラクタ情報の中から、前記入力手段により入力された識別情報に対応するキャラクタ情報を選択する選択手段と、前記入力手段により入力された位置情報に基づいて仮想空間中の位置を決定する位置決定手段と、前記仮想空間中の前記決定された位置に、前記選択手段により選択されたキャラクタ情報に基づくキャラクタを配置した前記仮想空間の画像を生成する画像生成手段と、を備えた画像生成装置に接続される入力装置であって、
撮像手段と、
上面が複数の個別載置領域に区分され、各個別載置領域に識別情報が底面に記された形象物を載置可能な光透過性を有する載置板と、
前記載置板の下方に所定軸で軸支された光反射部と、
前記所定軸による前記光反射部の支持角度を可変する支持角度可変手段と、
前記個別載置領域毎に撮像するために、前記支持角度可変手段による支持角度の可変、及び前記撮像手段による撮像を断続的に行うように制御する制御手段と、
前記制御手段による制御によって撮像された各個別載置領域の撮像画像に、▲1▼識別情報が含まれているか否か、▲2▼含まれていた場合の当該識別情報を認識する識別情報認識手段と、
前記識別情報認識手段により認識された識別情報、及び、当該識別情報が含まれていた撮像画像に対応する個別載置領域の前記載置板に対する位置の情報を前記画像生成装置に出力する出力手段と、
を備えることを特徴とする入力装置。
The input means for inputting the identification information and the position information, and the input from a plurality of character information in which the identification information of the figurative object and the character information including the image information of the character imitating the form of the figurative object are associated Selection means for selecting character information corresponding to the identification information input by the means, position determination means for determining a position in the virtual space based on the position information input by the input means, and the position in the virtual space An image generation unit configured to generate an image of the virtual space in which a character based on the character information selected by the selection unit is arranged at a determined position; and an input device connected to an image generation device comprising:
Imaging means;
A top plate having a light transmitting property on which a top surface is divided into a plurality of individual placement regions, and a figurative object whose identification information is written on the bottom surface can be placed on each individual placement region;
A light reflecting portion pivotally supported by a predetermined axis below the mounting plate;
A support angle varying means for varying a support angle of the light reflecting portion by the predetermined axis;
Control means for controlling to vary the support angle by the support angle varying means and to intermittently perform imaging by the imaging means in order to take an image for each individual placement area;
Identification information recognition for recognizing whether or not (1) identification information is included in the captured image of each individual placement area imaged by the control by the control means, and (2) if the identification information is included Means,
Output means for outputting the identification information recognized by the identification information recognition means and the information on the position of the individual placement area corresponding to the captured image including the identification information with respect to the mounting plate to the image generating apparatus. When,
An input device comprising:
請求項1に記載の入力装置であって、
前記画像生成装置の入力手段は、更に、向き情報を入力し、
前記画像生成装置の画像生成手段は、更に、前記入力手段により入力された向き情報に基づく向きでキャラクタを前記仮想空間に配置し、
前記識別情報認識手段は、更に、▲3▼撮像画像中の識別情報の表記向きを認識し、
前記出力手段は、更に、前記識別情報認識手段により認識された表記向きに関する向き情報を前記画像生成装置に出力する、
ことを特徴とする入力装置。
The input device according to claim 1,
The input unit of the image generation apparatus further inputs orientation information,
The image generation means of the image generation device further arranges the character in the virtual space in a direction based on the direction information input by the input means,
The identification information recognition means further recognizes (3) the notation direction of the identification information in the captured image,
The output means further outputs orientation information relating to the notation orientation recognized by the identification information recognition means to the image generation device.
An input device characterized by that.
請求項1に記載の入力装置であって、
前記画像生成装置の入力手段は、更に、向き情報を入力し、
前記画像生成装置の画像生成手段は、更に、前記入力手段により入力された向き情報に基づく向きでキャラクタを前記仮想空間に配置し、
前記形象物の底面には、底面中心から外れた位置に識別子が記されており、
前記識別情報認識手段は、更に、▲3▼撮像画像中の識別子の位置に基づいて形象物の載置向きを認識し、
前記出力手段は、更に、前記識別情報認識手段により認識された載置向きに関する向き情報を前記画像生成装置に出力する、
ことを特徴とする入力装置。
The input device according to claim 1,
The input unit of the image generation apparatus further inputs orientation information,
The image generation means of the image generation device further arranges the character in the virtual space in a direction based on the direction information input by the input means,
On the bottom surface of the figure, an identifier is written at a position off the center of the bottom surface,
The identification information recognition means further recognizes the placement direction of the figurative object based on the position of the identifier in (3) the captured image,
The output means further outputs orientation information related to the placement orientation recognized by the identification information recognition means to the image generation device.
An input device characterized by that.
請求項1に記載の入力装置であって、
前記画像生成装置の入力手段は、更に、向き情報を入力し、
前記画像生成装置の画像生成手段は、更に、前記入力手段により入力された向き情報に基づく向きでキャラクタを前記仮想空間に配置し、
前記形象物の底面は、指向性を有する形状に形成されており、
前記識別情報認識手段は、更に、▲3▼撮像画像に含まれている形象物の底面の形状に基づいて当該形象物の載置向きを認識し、
前記出力手段は、更に、前記識別情報認識手段により認識された載置向きに関する向き情報を前記画像生成装置に出力する、
ことを特徴とする入力装置。
The input device according to claim 1,
The input unit of the image generation apparatus further inputs orientation information,
The image generation means of the image generation device further arranges the character in the virtual space in a direction based on the direction information input by the input means,
The bottom surface of the figure is formed in a shape having directivity,
The identification information recognizing means further recognizes the placement direction of the figure based on the shape of the bottom face of the figure contained in (3) the captured image;
The output means further outputs orientation information related to the placement orientation recognized by the identification information recognition means to the image generation device.
An input device characterized by that.
撮像画像及び撮像画像の撮像位置識別情報を入力する入力手段と、前記入力手段により入力された撮像画像に、▲1▼識別情報が含まれているか否か、▲2▼含まれていた場合の当該識別情報を認識する識別情報認識手段と、形象物の識別情報と当該形象物の形態を模したキャラクタの画像情報を含むキャラクタ情報とが対応付けられた複数のキャラクタ情報の中から、前記識別情報認識手段により認識された識別情報に対応するキャラクタ情報を選択する選択手段と、前記入力手段により入力された撮像位置識別情報に基づいて仮想空間中の位置を決定する位置決定手段と、前記仮想空間中の前記決定された位置に、前記選択手段により選択されたキャラクタ情報に基づくキャラクタを配置した前記仮想空間の画像を生成する画像生成手段と、を備えた画像生成装置に接続される入力装置であって、
撮像手段と、
上面が複数の個別載置領域に区分され、各個別載置領域に識別情報が底面に記された形象物を載置可能な光透過性を有する載置板と、
前記載置板の下方に所定軸で軸支された光反射部と、
前記所定軸による前記光反射部の支持角度を可変する支持角度可変手段と、
前記個別載置領域毎に撮像するために、前記支持角度可変手段による支持角度の可変及び前記撮像手段による撮像を断続的に行うように制御する制御手段と、
前記制御手段による制御によって撮像された各個別載置領域の撮像画像及び当該各個別載置領域の前記載置板に対する位置の識別情報を前記画像生成装置に出力する出力手段と、
を備えることを特徴とする入力装置。
Input means for inputting the picked-up image and pick-up position identification information of the picked-up image, and whether or not the picked-up image inputted by the input means includes (1) identification information, or (2) The identification information recognition means for recognizing the identification information, and a plurality of pieces of character information in which the identification information of the figurative object and the character information including the image information of the character imitating the form of the figurative object are associated with each other. A selection unit that selects character information corresponding to the identification information recognized by the information recognition unit, a position determination unit that determines a position in a virtual space based on the imaging position identification information input by the input unit, and the virtual Image generating means for generating an image of the virtual space in which a character based on the character information selected by the selecting means is arranged at the determined position in the space , An input device connected to the image generator with,
Imaging means;
A top plate having a light transmitting property on which a top surface is divided into a plurality of individual placement regions, and a figurative object whose identification information is written on the bottom surface can be placed on each individual placement region;
A light reflecting portion pivotally supported by a predetermined axis below the mounting plate;
A support angle varying means for varying a support angle of the light reflecting portion by the predetermined axis;
Control means for controlling to change the support angle by the support angle changing means and to intermittently take an image by the imaging means in order to take an image for each individual placement area;
An output unit that outputs a captured image of each individual placement region imaged by control by the control unit and identification information of a position of each individual placement region with respect to the mounting plate described above to the image generation device;
An input device comprising:
識別情報及び位置情報を入力する入力手段と、キャラクタの図柄が印刷された印刷物の識別情報と当該印刷物に印刷されたキャラクタの画像情報を含むキャラクタ情報とが対応付けられた複数のキャラクタ情報の中から、前記入力手段により入力された識別情報に対応するキャラクタ情報を選択する選択手段と、前記入力手段により入力された位置情報に基づいて仮想空間中の位置を決定する位置決定手段と、前記仮想空間中の前記決定された位置に、前記選択手段により選択されたキャラクタ情報に基づくキャラクタを配置した前記仮想空間の画像を生成する画像生成手段と、を備えた画像生成装置に接続される入力装置であって、
撮像手段と、
上面が複数の個別載置領域に区分され、各個別載置領域に識別情報が裏面に印刷された印刷物を載置可能な光透過性を有する載置板と、
前記載置板の下方に所定軸で軸支された光反射部と、
前記所定軸による前記光反射部の支持角度を可変する支持角度可変手段と、
前記個別載置領域毎に撮像するために、前記支持角度可変手段による支持角度の可変、及び前記撮像手段による撮像を断続的に行うように制御する制御手段と、
前記制御手段による制御によって撮像された各個別載置領域の撮像画像に、▲1▼識別情報が含まれているか否か、▲2▼含まれていた場合の当該識別情報を認識する識別情報認識手段と、
前記識別情報認識手段により認識された識別情報、及び、当該識別情報が含まれていた撮像画像に対応する個別載置領域の前記載置板に対する位置の情報を前記画像生成装置に出力する出力手段と、
を備えることを特徴とする入力装置。
Among a plurality of pieces of character information in which input means for inputting identification information and position information, identification information of a printed matter on which a character design is printed, and character information including character image information printed on the printed matter are associated with each other. Selection means for selecting character information corresponding to the identification information input by the input means, position determination means for determining a position in a virtual space based on the position information input by the input means, and the virtual An image generation unit configured to generate an image of the virtual space in which a character based on the character information selected by the selection unit is arranged at the determined position in the space; Because
Imaging means;
A mounting plate having a light transmitting property capable of mounting a printed material in which an upper surface is divided into a plurality of individual mounting regions and identification information is printed on the back surface of each individual mounting region;
A light reflecting portion pivotally supported by a predetermined axis below the mounting plate;
A support angle varying means for varying a support angle of the light reflecting portion by the predetermined axis;
Control means for controlling to vary the support angle by the support angle varying means and to intermittently perform imaging by the imaging means in order to take an image for each individual placement area;
Identification information recognition for recognizing whether or not (1) identification information is included in the captured image of each individual placement area imaged by the control by the control means, and (2) if the identification information is included Means,
Output means for outputting the identification information recognized by the identification information recognition means and the information on the position of the individual placement area corresponding to the captured image including the identification information with respect to the mounting plate to the image generating apparatus. When,
An input device comprising:
撮像画像及び撮像画像の撮像位置識別情報を入力する入力手段と、前記入力手段により入力された撮像画像に、▲1▼識別情報が含まれているか否か、▲2▼含まれていた場合の当該識別情報を認識する識別情報認識手段と、キャラクタの図柄が印刷された印刷物の識別情報と当該印刷物に印刷されたキャラクタの画像情報を含むキャラクタ情報とが対応付けられた複数のキャラクタ情報の中から、前記識別情報認識手段により認識された識別情報に対応するキャラクタ情報を選択する選択手段と、前記入力手段により入力された撮像位置識別情報に基づいて仮想空間中の位置を決定する位置決定手段と、前記仮想空間中の前記決定された位置に、前記選択手段により選択されたキャラクタ情報に基づくキャラクタを配置した前記仮想空間の画像を生成する画像生成手段と、を備えた画像生成装置に接続される入力装置であって、
撮像手段と、
上面が複数の個別載置領域に区分され、各個別載置領域に識別情報が裏面に記された印刷物を載置可能な光透過性を有する載置板と、
前記載置板の下方に所定軸で軸支された光反射部と、
前記所定軸による前記光反射部の支持角度を可変する支持角度可変手段と、
前記個別載置領域毎に撮像するために、前記支持角度可変手段による支持角度の可変及び前記撮像手段による撮像を断続的に行うように制御する制御手段と、
前記制御手段による制御によって撮像された各個別載置領域の撮像画像及び当該各個別載置領域の前記載置板に対する位置の識別情報を前記画像生成装置に出力する出力手段と、
を備えることを特徴とする入力装置。
Input means for inputting the picked-up image and pick-up position identification information of the picked-up image, and whether or not the picked-up image inputted by the input means includes (1) identification information, or (2) Among the plurality of character information in which the identification information recognition means for recognizing the identification information, the identification information of the printed matter on which the character design is printed, and the character information including the image information of the character printed on the printed matter are associated. Selection means for selecting character information corresponding to the identification information recognized by the identification information recognition means, and position determination means for determining a position in the virtual space based on the imaging position identification information input by the input means And in the virtual space in which a character based on the character information selected by the selection means is arranged at the determined position in the virtual space. An input device connected to the image generating apparatus comprising an image generating device which generates an image, and
Imaging means;
A top plate having a light transmitting property on which a top surface is divided into a plurality of individual placement regions, and a printed matter having identification information written on the back surface can be placed on each individual placement region;
A light reflecting portion pivotally supported by a predetermined axis below the mounting plate;
A support angle varying means for varying a support angle of the light reflecting portion by the predetermined axis;
Control means for controlling to change the support angle by the support angle changing means and to intermittently take an image by the imaging means in order to take an image for each individual placement area;
An output unit that outputs a captured image of each individual placement region imaged by control by the control unit and identification information of a position of each individual placement region with respect to the mounting plate described above to the image generation device;
An input device comprising:
請求項1〜4の何れか一項に記載の入力装置と、
前記入力装置から識別情報及び位置情報を入力する入力手段と、形象物の識別情報と当該形象物の形態を模したキャラクタの画像情報を含むキャラクタ情報とが対応付けられた複数のキャラクタ情報の中から、前記入力手段により入力された識別情報に対応するキャラクタ情報を選択する選択手段と、前記入力手段により入力された位置情報に基づいて仮想空間中の位置を決定する位置決定手段と、前記ゲーム空間中の前記決定された位置に、前記選択手段により選択されたキャラクタ情報に基づくキャラクタを配置した前記ゲーム空間の画像を生成する画像生成手段とを備えた画像生成装置と、
を具備したゲームシステム。
The input device according to any one of claims 1 to 4,
Among the plurality of pieces of character information in which the input means for inputting the identification information and the position information from the input device and the character information including the image identification information and the image information of the character imitating the shape of the image are associated. Selection means for selecting character information corresponding to the identification information input by the input means, position determination means for determining a position in the virtual space based on the position information input by the input means, and the game An image generation apparatus comprising: an image generation unit configured to generate an image of the game space in which a character based on the character information selected by the selection unit is arranged at the determined position in the space;
A game system comprising:
請求項5に記載の入力装置と、
前記入力装置から撮像画像及び撮像画像の撮像位置識別情報を入力する入力手段と、前記入力手段により入力された撮像画像に、▲1▼識別情報が含まれているか否か、▲2▼含まれていた場合の当該識別情報を認識する識別情報認識手段と、形象物の識別情報と当該形象物の形態を模したキャラクタの画像情報を含むキャラクタ情報とが対応付けられた複数のキャラクタ情報の中から、前記識別情報認識手段により認識された識別情報に対応するキャラクタ情報を選択する選択手段と、前記入力手段により入力された撮像位置識別情報に基づいてゲーム空間中の位置を決定する位置決定手段と、前記ゲーム空間中の前記決定された位置に、前記選択手段により選択されたキャラクタ情報に基づくキャラクタを配置した前記ゲーム空間の画像を生成する画像生成手段とを備えた画像生成装置と、
を具備したゲームシステム。
An input device according to claim 5;
Input means for inputting a picked-up image and picked-up position identification information of the picked-up image from the input device, and whether or not the picked-up image input by the input means includes (1) identification information, (2) included Identification information recognizing means for recognizing the identification information in the case of the image, and a plurality of character information in which the identification information of the figurative object and the character information including the image information of the character imitating the form of the figurative object are associated with each other. Selection means for selecting character information corresponding to the identification information recognized by the identification information recognition means, and position determination means for determining a position in the game space based on the imaging position identification information input by the input means And an image of the game space in which a character based on the character information selected by the selection means is arranged at the determined position in the game space. An image generation apparatus and an image generating means for generating,
A game system comprising:
請求項6に記載の入力装置と、
前記入力装置から識別情報及び位置情報を入力する入力手段と、キャラクタの図柄が印刷された印刷物の識別情報と当該印刷物に印刷されたキャラクタの画像情報を含むキャラクタ情報とが対応付けられた複数のキャラクタ情報の中から、前記入力手段により入力された識別情報に対応するキャラクタ情報を選択する選択手段と、前記入力手段により入力された位置情報に基づいて仮想空間中の位置を決定する位置決定手段と、前記ゲーム空間中の前記決定された位置に、前記選択手段により選択されたキャラクタ情報に基づくキャラクタを配置した前記ゲーム空間の画像を生成する画像生成手段とを備えた画像生成装置と、
を具備したゲームシステム。
An input device according to claim 6;
A plurality of input means for inputting identification information and position information from the input device; a plurality of pieces of character information including character information including character image information printed on the printed matter and identification information of the printed matter on which the character design is printed; Selection means for selecting character information corresponding to the identification information input by the input means from among the character information, and position determination means for determining a position in the virtual space based on the position information input by the input means And an image generation device that generates an image of the game space in which a character based on the character information selected by the selection unit is arranged at the determined position in the game space;
A game system comprising:
請求項7に記載の入力装置と、
前記入力装置から撮像画像及び撮像画像の撮像位置識別情報を入力する入力手段と、前記入力手段により入力された撮像画像に、▲1▼識別情報が含まれているか否か、▲2▼含まれていた場合の当該識別情報を認識する識別情報認識手段と、キャラクタの図柄が印刷された印刷物の識別情報と当該印刷物に印刷されたキャラクタの画像情報を含むキャラクタ情報とが対応付けられた複数のキャラクタ情報の中から、前記識別情報認識手段により認識された識別情報に対応するキャラクタ情報を選択する選択手段と、前記入力手段により入力された撮像位置識別情報に基づいてゲーム空間中の位置を決定する位置決定手段と、前記ゲーム空間中の前記決定された位置に、前記選択手段により選択されたキャラクタ情報に基づくキャラクタを配置した前記ゲーム空間の画像を生成する画像生成手段とを備えた画像生成装置と、
を具備したゲームシステム。
An input device according to claim 7,
Input means for inputting a picked-up image and picked-up position identification information of the picked-up image from the input device, and whether or not the picked-up image input by the input means includes (1) identification information, (2) included A plurality of identification information recognizing means for recognizing the identification information in a case where the character is printed, a plurality of pieces of character information including character information including character image information printed on the printed matter and identification information of the printed matter on which the character design is printed. A selection means for selecting character information corresponding to the identification information recognized by the identification information recognition means from the character information, and a position in the game space is determined based on the imaging position identification information input by the input means. And a character based on the character information selected by the selection means is arranged at the determined position in the game space. An image generation apparatus and an image generating means for generating an image of the game space that,
A game system comprising:
JP2003140220A 2003-05-19 2003-05-19 Input device, and game system Pending JP2004337502A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2003140220A JP2004337502A (en) 2003-05-19 2003-05-19 Input device, and game system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2003140220A JP2004337502A (en) 2003-05-19 2003-05-19 Input device, and game system

Publications (1)

Publication Number Publication Date
JP2004337502A true JP2004337502A (en) 2004-12-02

Family

ID=33528996

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003140220A Pending JP2004337502A (en) 2003-05-19 2003-05-19 Input device, and game system

Country Status (1)

Country Link
JP (1) JP2004337502A (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2007021249A2 (en) * 2005-08-03 2007-02-22 Grid Ip Pte. Ltd. Information output device, medium, and information input/output device
WO2007101785A1 (en) * 2006-03-09 2007-09-13 International Business Machines Corporation Persistent authenticating system and method
JP2010009571A (en) * 2008-06-25 2010-01-14 G-Time Electronic Co Ltd Array reading system
JP2011239996A (en) * 2010-05-19 2011-12-01 Bandai Co Ltd Game machine
JP2020092938A (en) * 2018-12-14 2020-06-18 株式会社セガ Game auxiliary pedestal, game device, and game system
US11478695B2 (en) * 2015-04-09 2022-10-25 Warner Bros. Entertainment Inc. Portal device and cooperating video game machine

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2007021249A2 (en) * 2005-08-03 2007-02-22 Grid Ip Pte. Ltd. Information output device, medium, and information input/output device
WO2007021249A3 (en) * 2005-08-03 2007-08-02 Grid Ip Pte Ltd Information output device, medium, and information input/output device
WO2007101785A1 (en) * 2006-03-09 2007-09-13 International Business Machines Corporation Persistent authenticating system and method
US7843471B2 (en) 2006-03-09 2010-11-30 International Business Machines Corporation Persistent authenticating mechanism to map real world object presence into virtual world object awareness
JP2010009571A (en) * 2008-06-25 2010-01-14 G-Time Electronic Co Ltd Array reading system
JP2011239996A (en) * 2010-05-19 2011-12-01 Bandai Co Ltd Game machine
US11478695B2 (en) * 2015-04-09 2022-10-25 Warner Bros. Entertainment Inc. Portal device and cooperating video game machine
JP2020092938A (en) * 2018-12-14 2020-06-18 株式会社セガ Game auxiliary pedestal, game device, and game system

Similar Documents

Publication Publication Date Title
JP5522902B2 (en) Information processing program and information processing apparatus
JP6139105B2 (en) Dart game machine
JP4895352B2 (en) Object selection program, object selection device, object selection system, and object selection method
US8988455B2 (en) Storage medium having game program stored thereon and game apparatus
US7934995B2 (en) Game system and information processing system
JP6257258B2 (en) Image projection system
US20120135803A1 (en) Game device utilizing stereoscopic display, method of providing game, recording medium storing game program, and game system
JP5226961B2 (en) GAME DEVICE, CHARACTER AND VIRTUAL CAMERA CONTROL METHOD, PROGRAM, AND RECORDING MEDIUM
JP6396070B2 (en) Image fusion system, information processing apparatus, information terminal, and information processing method
JP5285901B2 (en) Card game device, card game program
JP2010279742A (en) Game apparatus and game program
JPH1157216A (en) Game device
JP2004337502A (en) Input device, and game system
JP5184036B2 (en) GAME PROGRAM AND GAME DEVICE
US11235232B2 (en) Game machine, and storage medium
KR102350349B1 (en) A game machine, a game system, a storage device in which a computer program is stored, and a control method
JP4746653B2 (en) Automatic photo creation device
US8259107B2 (en) Storage medium having stored thereon image processing program and image processing apparatus
JP2004297754A (en) Automatic photograph making apparatus
JP2005230476A (en) Game machine
JP2005304753A (en) Game machine
JP7007737B2 (en) Game consoles and computer programs
JP5531061B2 (en) Game device
JP4735802B2 (en) GAME DEVICE, GAME PROGRAM, AND GAME DEVICE CONTROL METHOD
US20220351445A1 (en) Animation production system