JP2004298475A - Game system using portable terminal device - Google Patents

Game system using portable terminal device Download PDF

Info

Publication number
JP2004298475A
JP2004298475A JP2003096685A JP2003096685A JP2004298475A JP 2004298475 A JP2004298475 A JP 2004298475A JP 2003096685 A JP2003096685 A JP 2003096685A JP 2003096685 A JP2003096685 A JP 2003096685A JP 2004298475 A JP2004298475 A JP 2004298475A
Authority
JP
Japan
Prior art keywords
portable terminal
terminal device
movable body
game system
actual machine
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2003096685A
Other languages
Japanese (ja)
Other versions
JP3960937B2 (en
Inventor
Takeshi Sawada
毅 澤田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
GIJINKI KOGEI KK
Original Assignee
GIJINKI KOGEI KK
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by GIJINKI KOGEI KK filed Critical GIJINKI KOGEI KK
Priority to JP2003096685A priority Critical patent/JP3960937B2/en
Publication of JP2004298475A publication Critical patent/JP2004298475A/en
Application granted granted Critical
Publication of JP3960937B2 publication Critical patent/JP3960937B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide a game system utilizing portable terminal device in which a self-traveling type toy discriminates surrounding conditions and acts on the basis of inputted information by having a human being input the conditions to the portable terminal device instead of a sensor without making the self-traveling type toy perform a self-standing operation by incorporating various sensors in the conventional self-traveling type toy and operating a high-speed CPU by a complicated program on the basis of information data from the sensors and pattern data stored in a large-capacity memory. <P>SOLUTION: The game system is provided with a portable terminal 20 and a self-traveling actual machine 30. A user 10 inputs the surrounding conditions that the actual machine 30 is placed to the portable terminal 20 as sensor information and thus the sensor information 100 is sent out to the actual machine 30. By an action control means provided in the actual machine 30, the actual machine 30 thinks of the operation to be performed next and acts on the basis of the sensor information 100. <P>COPYRIGHT: (C)2005,JPO&NCIPI

Description

【0001】
【発明が属する技術分野】
本発明は、携帯型端末装置を利用したゲームシステムに係り、特に、携帯端末装置と自立走行する可動体とを備え、実空間の状況がゲームに反映される携帯型端末装置を利用したゲームシステムに関する。
【0002】
【従来の技術】
周囲の状況を自ら判断して行動する自律型ロボットは、ロボットの各箇所に備えられたセンサによって周囲の状況を把握し、当該センサによって得られたデータに基づいて内蔵されたプログラムにより行動を思考して実際の行動を行なうように構成されている。例えば、当該ロボットを犬や猫等の愛玩動物に応用し、頭をなでると頭部に配設されたセンサがその圧力を感知してあまえるしぐさを行なわせるようにしたロボットペット等がある。このような自律型ロボットは各種のセンサ、処理速度の速いCPU、記憶装置、プログラム等の各種の機器が装備され非常に高価なものとなっている。
【0003】
これに対して、従来から自走式の自動車玩具が知られている。従来の自走式の自動車玩具は、モータ駆動装置によって走行するものであり、例えばタイヤの向きを変えることにより直進させたり回転させたりすることが出来るようにされたものもある。一方、そのような一定の走行パターンに従って走行するものではなく、周囲の状況に応じて走行することが可能な自走式の自動車玩具として有線によるリモコン自動車や無線によるラジコン自動車等がある。これらの自走式玩具は操縦者がコントローラを操作することにより移動方向やスピード等を直接指定するものである。
また、自走式の自動車玩具に種々の走行パターンをインプットした携帯用ゲーム装置を搭載させ、この携帯用ゲーム装置に制御部の役割を果たさせることにより様々な走行パターンを楽しむことが出来る玩具も提供されている。(特許文献1)。
【0004】
【特許文献1】
特開2001−293261号公報 (「0057」、第8、9図)
【発明が解決しようとする課題】
【0005】
しかし、従来の自走式の自動車玩具において、リモコン等によって操縦者の指示どおりに動くのではなく自律的に走行させようとすると自動車玩具自体に各種のセンサ、CPU、記憶装置、プログラム等の各種の機器を装備する必要があり非常に高価なものとなってしまうという問題がある。
また、特許文献1に示された自走式玩具は、予め走行パターンを携帯用ゲーム装置にインプットすると共に、携帯用ゲーム装置自体を自走式玩具に搭載する必要があったことから、走行パターンは予め決められたものに制限されてしまうと共に、自走式玩具の走行中は携帯用ゲーム装置を操作できないという問題があった。
さらに、携帯ゲーム装置の画面に示された状況と実空間の状況とがリンクしたゲームは未だ提供されていない。
【0006】
そこで、本発明は、従来の自走式玩具に様々なセンサを内臓し、そのセンサからの情報データ及び大容量メモリに蓄積されたパターンデータに基づいて高速CPUを複雑なプログラムによって稼動させて自走式玩具を自立動作させるといったものではなく、人間がセンサの代わりとなって周囲の状況を携帯型端末装置に入力することにより、入力された情報に基づいて自走式玩具がその状況を判断して行動する携帯型端末装置を利用したゲームシステムを提供することを目的とする。
また、自走式玩具が行動する実空間の状況がゲームに反映された携帯型端末装置を利用したゲームシステムを提供することを目的とする。
【0007】
【課題を解決するための手段】
上記課題を解決するために請求項1に記載の本発明は、携帯端末装置と自立走行する可動体とを備え、可動体がおかれた周囲の状況を携帯端末装置にセンサ情報として入力することにより当該センサ情報を可動体に対して送出し、可動体に備えられた行動制御手段によりセンサ情報に基づいて当該可動体が次に行なうべき動作を思考して行動するように構成されたことを特徴とする携帯型端末装置を利用したゲームシステムを提供する。人間がセンサの代わりとなって可動体のおかれた周囲の状況をセンサ情報として携帯端末装置に入力することにより可動体が受け取って次の行動を思考し決定する。
【0008】
上記課題を解決するために請求項2に記載の本発明は、携帯端末装置と自立走行する可動体とを備え、可動体がおかれた周囲の状況を携帯端末装置にセンサ情報として入力することにより携帯端末に設けられた行動制御手段により当該センサ情報に基づいて可動体が次に行なうべき動作を思考すると共に動作データを生成し、当該動作データを前記可動体に送出することにより可動体がその動作データに基づいて作動するように構成されたことを特徴とする携帯型端末装置を利用したゲームシステムを提供する。人間がセンサの代わりとなって可動体のおかれた周囲の状況をセンサ情報として携帯端末装置に入力すると共に携帯端末装置内で可動体の次の行動を思考し決定する。
【0009】
上記課題を解決するために請求項3に記載の本発明は、請求項1又は2に記載の携帯型端末装置を利用したゲームシステムにおいて、携帯型端末装置の画面上には可動体の周囲の状況が示された地図と、可動体に対応したエージェントが画面上に表示されることを特徴とする。これにより、可動体が移動する実空間の状況がゲームに反映され、携帯ゲーム装置の画面に示された状況と実空間の状況とがリンクした今までにないゲームを提供することが出来る。
【0010】
上記課題を解決するために請求項4に記載の本発明は、請求項1〜3のいずれか1項に記載の携帯型端末装置を利用したゲームシステムにおいて、携帯型端末装置と可動体とは赤外線通信により所定のデータの送受信が行なわれることを特徴とする。
【0011】
上記課題を解決するために請求項5に記載の本発明は、請求項1〜4のいずれか1項に記載の携帯型端末装置を利用したゲームシステムにおいて、複数の携帯型端末装置同士を接続することにより各携帯型端末装置から可動体に対してセンサ情報又は動作データを送出可能とされていることを特徴とする。これにより、複数のプレーヤが同時ゲームを楽しむことができる。
【0012】
上記課題を解決するために請求項6に記載の本発明は、請求項1〜5のいずれか1項に記載の携帯型端末装置を利用したゲームシステムにおいて、可動体は、前進、後退、速度可変可能な走行機構と、走行機構に対する動作制御を行なう動作制御部と、そして、携帯型端末装置との間で所定のデータの送受信を行なう通信手段とを備えて構成されていることを特徴とする。
【0013】
上記課題を解決するために請求項7に記載の本発明は、請求項6に記載の携帯型端末装置を利用したゲームシステムにおいて、可動体は、複数組合せて合体可能とされ、組み合わされた各可動体の動作をそれぞれ制御することにより全体として各種の動作を行なわせることを可能としたことを特徴とする。
【0014】
【発明の実施の形態】
以下、本発明に係る携帯型端末装置を利用したゲームシステムを図面に基づいて詳細に説明する。
図1は本発明に係る携帯型端末装置を利用したゲームシステム1のシステム構成図である。
【0015】
本発明に係る携帯型端末装置を利用したゲームシステム1は、ユーザ10と、携帯端末20と、実機30と、を備えて構成されている。
まず、ユーザ10は、本発明に係る携帯型端末装置を利用したゲームシステム1を利用する者である。
【0016】
次に、図2に示すように、携帯端末20は、操作盤22と、操作画面24と、処理部26と、データ送受信部28とを備えて構成されており、ユーザ10は操作画面24を見ながら操作部22を押して操作することができ、さらにデータ送受信部28により外部の機器とのデータ通信が可能となっている。尚、携帯端末20は、少なくとも当該機能が備わっていればよく、市販のゲーム機でも携帯電話でもPDA端末でも利用することができる。
【0017】
操作部22は、選択キー22aと、決定スイッチ22bとを備えており、ユーザ10が操作画面24に表示された画面に従って、選択キー22a及び/又は決定スイッチ22bを押して入力することができるようにされている。
【0018】
操作画面24は、バックライトを備えた液晶画面であり、液晶画面の下方からバックライトで照らすようにされているので、ユーザ10は暗中でも画面の表示を確認することができる。
【0019】
図3に示すように、処理部26は、CPU26aと、メモリ26bと、ROM26cと、入出力I/F部26dと、を備えて構成されている。
まず、CPU26aは、後述するセンサ情報100を行動データ200に変換したり、実機30から送られた実行動データ300を処理してメモリ26bに蓄積したり、同様に実機30から送られた位置データ700を処理して実機30の現在地を操作画面24に表示するといった処理を行い携帯端末20全体の制御を行うように構成されている。ここで、センサ情報100とは、ユーザ10が確認した実機30の周囲の状況に関する情報である。また、行動データ200とは、ユーザ10が携帯端末20に入力した周囲の位置情報であるセンサ情報100を実機30が理解できるデータ列に変換したデータである。また、実行動データ300とは、行動データ200に基づいて実機30の走行機構36を具体的に駆動させるためのデータである。
CPU装置26aは、また、後述するメモリ26bに蓄積されている実機30の周囲の地図データ400をメモリ26bから読み出して操作画面24に表示させる。操作画面24には、携帯端末20内での実機30の仮想モデルであるエージェント27が映し出されるようになっており、エージェント27は、実機30の位置データ700に基づいて操作画面24に表示された地図上を移動可能とされている。従って、実機30の実フィールド50における行動がそのまま携帯端末20の中で再現されるようにされている。
【0020】
メモリ26bには、実機30が置かれている地図データ400が蓄積されており、必要な時にCPU26aに呼びだされ操作画面24上に表示される。また、前述した実行動データ300等も蓄積できるようにされている。
【0021】
ROM26は、携帯端末20を動作させるための基本OSや、後述する本発明の第二の実施形態に示す実機30の性格パターン600等の所定のデータが蓄積されており、逐次読み出して利用できるようにされている。
【0022】
データ送受信部28は、後述する行動データ200及び実行動データ300並びに位置データ700を赤外線によって送信し及び/又は受信する。本発明では、赤外線によってデータ通信を行っているが、赤外線に限らず外部の機器と通信が可能とされているものであれば、通信ケーブル等を用いてもよい。
【0023】
次に、図4に示すように、実機30は、赤外線受信部32と、赤外線送信部33と、筺体34と、走行機構36と、動作制御部38と、バッテリ39と、を備えて構成されている。
【0024】
まず、赤外線受信部32は、携帯端末20から送信された行動データ200を受信することができるようにされている。
【0025】
赤外線送信部33は、携帯端末20に対して実行動データ300及び位置データ700を赤外線によって送信することができるようにされている。
【0026】
筺体34は、金属製又は樹脂製の断面略四角の六面体とされている。その一面には、走行輪36aを収容するための角孔34aが設けられ、それと対抗する一面には、赤外線受信部32及び赤外線送信部33を収容する収容孔34bが設けられ、さらに他の対向する4面にはそれぞれ継手35が設けられている。本実施例では、継手35はあり型組つぎを用いたが、これに限らず、可動可能なフック型継手や自由継手でも良いことはいうまでもない。
【0027】
走行機構36は、走行輪36aと、駆動用モータ36bと、モータドライバ36cとから構成されている。
【0028】
走行輪36aは、金属製又は樹脂製のドーナツ形状をした走行用の車輪であり、その両端36dは筺体34に回転可能に設けられており、駆動用モータ36bの回転に伴って回転するようにされている。駆動用モータ36bの回転数に対する走行輪36aとの回転数の比率は1対1又は他の比率にしても良い。
【0029】
また、図5(a)から(e)に示すように、実機30は継手35を介して2台以上を結合することにより前後左右及び回転自在に移動可能となる。例えば、2台を横結合した場合では、左右同じ速度の場合は前進若しくは後進(図5(a)(e))となり、どちらか片方の速度を変える(若しくは片側を停止させる)(図5(b)(c))と、速度の遅い(停止している)実機30を内側にして回転し、双方の回転方向を反対にすると旋回(図5(d))可能となる。このように、2台以上を複数台結合した場合には、様々な動きが可能となる。さらに、実機30を複数台組み合わせた場合には、携帯端末20から各実機30に対して予め速度の決定等の詳細な設定をしておくことも可能である。
また、図5(f)に示すように、一の筺体34に走行輪36aを2つ備え、それぞれの走行輪36a、36aを独立して動作することができるようにすれば、実機30が一台であっても図5(a)から(e)に示したものと同様な動きが可能となることはいうまでもない。
【0030】
本発明に係る実機30の駆動システムは、行動データ200が動作制御部38により変換された実行動データ300に基づいてモータドライバ36cを介して駆動電力に変換され、当該駆動電力が駆動用モータ36bに供給され、当該駆動用モータ36bを回転させるように構成されている。モータドライバ36cはバッテリ39と電気的に接続されており、当該モータドライバ36cに基本電力を常に供給している。尚、本実施例では、駆動用モータ36bとして、ACサーボモータを使用したが、DCサーボモータを用いても良い。また、モータドライバ36cを介さずにパルスモータ等を用いて実行動データ300によって、直接パルスモータを駆動させても良い。この場合には、パルスモータに直接バッテリ39から電力を供給することとなる。さらに、モータドライバ36cは、アナログ駆動方式でもPWM等のデジタル駆動方式のものでもどちらでも良い。
【0031】
次に、図6を用いて、動作制御部38のシステム及びその動作を詳細に説明する。
まず、動作制御部38は、図6のブロック図に示すように、I/O装置38aと、CPU装置38bと、ROM38cと、メモリ38dと、を備えて構成されている。
【0032】
I/O装置38aは、受信した前記行動データ200を受け取ってCPU装置38bに送り、さらに、CPU装置38bによって作成された実行動データ300を送信する役割を果たすインターフェースである。
【0033】
次に、CPU装置38bでは、受信した行動データ200と後述するROM38cに蓄積された前記性格パターン600に基づいて、実機30の次に行う行動を決定して実行動データ300を作成する。
【0034】
ROM38cには、それぞれの実機30ごとに有している個性ともいうべき、性格パターン600がプログラムとして予め蓄積されている。性格パターン600には、「慎重型」、「好奇心旺盛型」等の性格がプログラムされている。例えば、実機30にセンサ情報100が入力された場合であって、そのセンサ情報100が「右側にはなにもない、前方及び左側にはなにかある」といった情報である場合、性格パターン600が「慎重型」のような性格のプログラムでれば、実機30は確実になにもない右側に進み、「好奇心旺盛型」のような性格のプログラムであれば、数回に1度の割合で「前方又は左側のなにかある方向」に進むようにプログラムされているものである。このように構成することにより実機30がすべて画一的な行動をとるものではなくそれぞれ個性を有した存在として形成させることができる。なお、性格パターン600は、固定的なプログラムでも外部からの通信又は自己の行動によって、後述するメモリ38dに追加的に書き込まれた応用動作を利用して性格パターン600を補足するようにされていても良い。また、性格パターン600のプログラムとして用いられるものの一部には、予め実機30に付けられた名前、番号、経験、ユーザの思考等のデータが用いられる。
【0035】
メモリ38dには、モータ制御及び通信制御並びに基本動作、応用動作(実機30の個性)の基礎となる基本プログラムが蓄積され、CPU装置38bによって逐次必要なタイミングで呼び出され若しくは常時呼び出された状態で利用される。
【0036】
前記作成された実行動データ300はCPU装置38bからI/O装置38aに伝送され、さらに走行機構36のモータドライバ36cに伝送される。前述したように、実行動データ300はモータドライバ36cを介して駆動電力に変換され、その後、駆動用モータ36bに供給され、それによって当該駆動用モータ36bが回転することとなる。
【0037】
一方、実機30は移動後、実機30の位置を表す位置データ700を携帯端末20に送信することとなるが、この位置データ700としては、まず、実機30の移動前の位置を中心に仮想X,Y平面を作成し、実機が実行動データ300に基づいてどの位置に移動したかを計算することによって行う。この計算に用いるパラメータの一部としては、走行輪36aの回転数又は実行動データ300を用いることが考えられる。一方、図12示すように実機30が移動する実フィールド50を複数のブロック51に分け、1又は複数のブロックごとに赤外線センサ51aを設けておくことによって、その上を実機30が通過したらその情報を端末装置20に送信し、より正確な実機30の位置データ700を得ることもできる。
【0038】
次に、本発明に係る携帯型端末装置を利用したゲームシステム1の動作及び操作について詳細に説明する。
図7は、本発明に係る携帯型端末装置を利用したゲームシステム1の第一の実施形態を示す操作フローチャートである。
ステップ1は、ユーザ10が行うステップであり、ステップ2は携帯端末20によるステップであり、ステップ3は実機30が行うステップであり、ステップ4は携帯端末20がこの一連の操作の最終段階で行うステップである。
【0039】
まず、ステップ1は、ユーザ10が実フィールド50の上に置かれている実機30の周囲の状況を確認するステップ11と、ユーザ10が確認した当該実機の周囲の状況を携帯端末20に入力するステップ12と、を有している。
【0040】
ステップ11は、まずユーザ10が、実機30の現在の周囲状況をセンサ情報100として確認するステップである。具体的には、実機30の周囲状況はその移動に従って様々に変化し、例えば、障害物40、41等が無い場合もあれば、実機30の前方に障害物40、正面左側に障害物41がある場合もある。そのような実機30が置かれた実際の実フィールド50上の周囲の状況をセンサ情報100として確認するステップである。
【0041】
ステップ12は、ユーザ10がセンサ情報100を携帯端末20に入力するステップである。具体的には、ユーザ10が操作部22の選択キー22aと決定スイッチ22bを操作して操作画面24の画面表示に従って、例えば、どの方向に障害物40又は41等が有る又は無いといったセンサ情報100を入力するステップである。
【0042】
次に、ステップ2は、携帯端末20においてなされるステップであり、入力されたセンサ情報100を実機30へ送信するための行動データ200にデータ変換をするステップ21と、携帯端末20から、行動データ200を赤外線によって実機30へ送信するステップ22とを有している。
【0043】
具体的には、ステップ21は、ユーザ10が携帯端末20に入力したセンサ情報100を、実機30が理解できるデータ列、すなわち行動データ200に変換するステップであり、例えば、行動データ200には10ビットのデータ列であり、後ろの2ビットをその実機30のデジタル化した番号となっており、他の8ビットはユーザ10が入力したセンサ情報100をデジタル化したものである。
【0044】
ステップ22は、携帯端末20から実機30へ前記行動データ200を送信するステップである。
【0045】
次に、ステップ3は、実機30が受信した行動データ200と、実機30のROM38cに蓄積された性格パターン600に基づいて、実機30が次にどのように行動するかを判断し、走行機構36を実際に駆動させるためのデータである実行動データ300を作成するステップ31と、実機30がその実行動データ300に基づいて移動し、移動後の位置データ700及び前記作成した実行動データ300を携帯端末20へ送信するステップ32とを有している。
【0046】
具体的には、実機30は、前記作成した実行動データ300を実機30に設けられている赤外線送信部32から、携帯端末20のデータ送受信部28へ送信すると共に、実機30の位置データ700を同時に送信するものである。
【0047】
携帯端末20では、実機30から送信された実行動データ300に基づいて、当該携帯端末20で作成した実機30の仮想モデルであるエージェント27が地図データ400上を移動する。
【0048】
ステップ4は、携帯端末20のメモリ26bに実機30の実行動データ300が記憶され、その記憶された実行動データ300に基づいて、実記30の行動パターンを学習するステップである。つまり、蓄積された前記実行動データ300から、あるセンサ信号100を実機30に与えたときに実機30がどのように行動するかといった移動パターンをメモリ26bに保存するステップである。
【0049】
ユーザ10は、実機30の行動によって、その時々の実機30の周囲の状況を確認してセンサ情報100として、その都度、携帯端末20に入力する。
【0050】
以上のステップ1から4を繰り返すことにより、実機30の置かれている周囲状況をユーザ10が本発明の実機30には設けられていないセンサに成り代わっって実機30にいわゆるセンサ情報を与えるものである。従って、実機30はセンサを搭載していなくても、センサ情報100と前述した実機30の性格パターン600に基づいて次に行う行動を判断して実行動データ300を作成することによって、実際に行動することが可能となる。
【0051】
次に、以上で説明した携帯型端末装置を利用したゲームシステム1の実際の利用方法を具体的に説明する。
【0052】
まず、実機30は実フィールド50のいずれかの位置に置かれており、図8(b)はその状態の実機30を表し、(a)は携帯端末20の初期の画面状態を表すものである。
【0053】
携帯端末20の初期の操作画面24には実機30の5方向の状態が表されている。
まず、操作画面24の中心付近に現されている矢印25fは実機30を表し、矢印の向きは実機30の方向を表している。図8(a)において、方向25aは実機30の前方の状態、方向25bは実機30の正面右方の状態、方向25cは実機30の足元の状態、方向25dは実機30の正面左方の状態、方向25eは実機30の後方の状態をそれぞれ示している。尚、操作画面24に表されている「?」マークは実機30にその方向のセンサ情報がなく、どのようになっているかが分からないことを意味しているものである。
【0054】
次に、ユーザ10は携帯端末20の選択キー22aを操作して方向25aから25eのいずれかの方向を選択する。例えば、ユーザ10が方向25a、つまり前方を選択すると、図8(c)に示すように操作画面24に、さらにメイン画面25が表示される。
【0055】
メイン画面24が初めに開いた状態では、実機30にはセンサ情報100として、いかなる情報も与えられておらず、すべての方向に「?」マークが表されている。ユーザ10が選択キー22aを押して、前方の方向選ぶと、サブ画面25aが表示される。例えば、「なにもない」、「なにかある」、「しょうがいぶつ」、が選択できるサブ画面25aが表示される。ユーザ10は、実機30の現在置かれている状況を確認して、前記の選択肢の中から実機30の現状に即した状態を選択し、センサ情報100として入力する。それぞれの選択肢はさらにサブ画面25aへとつなげられて、階層状になっている。例えば、ユーザ10が「なにもない」、を選択キー22aで選択して決定スイッチ22bで決定すると次のサブ画面25a(図9(a))が表示され、「しょうがいぶつ」、を選択するとサブ画面25a(図9(c))が表示される。
【0056】
サブ画面25aでの選択により、そのセンサ情報100に基づく行動データ200が携帯端末20において作成され、実機30に送信されて、実機30は、その行動データ200と実機30の中にプログラムされている前述の性格パターン600に基づいて、次の行動を決定することとなるが、前述したように、「なにかある」というセンサ情報100に基づく行動データ200は、その方向に危険があるのは、それとも安全であるのか分からないので、「なにかある」を選択すると、実機30の性格パターン600が「慎重型」であれば、その方向には進まず、「好奇心旺盛型」であれば、数回に1度は「なにかある」の方向に進むこととなる。
【0057】
実機30が前方に進んだ後、実機30は図9(d)の状態となり、次なるセンサ情報100に基づく行動データ200を待つこととなる。従って、ユーザ10は、前述と同様に携帯端末20によって操作を進めることとなるが、本例の場合、実機30の新たな状況は図9(c)に示すように、前方と正面左方に障害物40、41がある。従って、ユーザ10は実機30の現状を確認して、まず、携帯端末20のサブ画面25aの前方及び正面左方のどちらも「しょうがいぶつ」を選択し、さらにサブ場面25aの「しょうがいぶつ」の種類を選択することとなる。本例の場合は、「かべ」、「とびら」、「あな」、等の選択肢が表示され選択可能となるので、前方及び正面左方のどちらも「かべ」を選択する(図10(a))。また、正面右方には、「しょうがいぶつ」がなく、道の状態も良好なので、サブ画面25aにおいて「なにもない」を選択し、次にサブ画面25aにおいて「ふつうのみち」を選択する(図10(c))。
【0058】
このように、携帯端末20へ入力したセンサ情報100は行動データ200に変換され、実機30へ送信されると、実機30は行動データ200と自己の性格パターン600とに基づいて、実行動データ300を作成して、実機30は実際に行動することとなる。
【0059】
実機30が移動した後、実機30の作成した実行動データ300と実機30の現在位置の位置データ700を携帯端末20に送信し、携帯端末20において、その実行動データ300をメモリ26bに蓄積すると共に実機30の実行動パターン300を学習する。また、位置データ700により実機30の現在位置を知ることができる。
【0060】
以上の説明の操作を繰り返して行うことによって、実機30はセンサ等を搭載しなくても、ユーザ10からセンサ情報100を得ることで、実機30の置かれている状況を認識し、次の行動を決定することができる。また、ユーザ10は携帯端末20によって、実機30の性格パターン600を確認することができ、実機30にセンサ情報100を与えることができる。
【0061】
次に、図11を用いて他の第二の実施形態について説明する。
第二の実施形態の各ステップでステップ1及びステップ4は第一の実施形態と異なるところがなく、第一の実施形態と異なるのはステップ2及びステップ3であるのでこの点について詳細に説明する。
【0062】
第二の実施形態に示すステップ2は、ステップ1で入力されたセンサ情報1000に基づき、携帯端末20において実機30へ送信するための行動データ200にデータ変換するステップ21と、当該行動データ200と実機30の性格パターン600に基づいて実機30の次の行動を判断し、実機30の実行動データ300を作成するステップ22と、当該実行動データ300を携帯端末20に設けられたデータ送受信部28から、赤外線によって実機30へ送信するステップ23とを有している。
【0063】
ステップ3では、実機30は、携帯端末20から実行動データ300を得て動作制御部38及び走行機構36を動作させて行動するステップ31と、その行動後の実機30の位置データ700を実機30に設けられた赤外線送信部32から携帯端末20へ送信するステップ32とを有している。
【0064】
以上のように、第一の実施形態では、携帯端末20からは行動データ200を実機30へ送信し、実機30においてその行動データ200と実機30に蓄積されている性格パターン600とに基づいて実行動データ300が作成され、実機30はそれに即して行動するのに対し、第二の実施形態では、携帯端末20において、行動データ200と携帯端末20に蓄積されている実機30の性格パラメータ500とに基づいて実行動データ300を作成し、それを実機30へ送信し、実機30はそれに即して行動するというものである。
つまり、第二の実施形態によれば、実行動データ300の作成作業までは携帯端末200に任せているため、実機30には自己の性格パラメータ500を蓄積しておく必要はなく、また、行動データ200と性格パラメータ500とに基づいて実行動データ300を決定して作成する必要もないことから、CPU装置38bの負担が軽くなり、また、ROM38cやメモリ38dが小容量でも実機30が容易に制御できることから、制御部の簡略化が図れ、小型化と省電力化が可能となる。
【0065】
次に、図12に基づいて本発明の第三の実施形態を説明する。
まず、図12は、実機30の組合せを表す概略斜視図である。
【0066】
図13(a)は、実機30をそれぞれ垂直に接続した例である。この場合、実機30は直進移動と横移動が可能となる。さらに、図13(b)から(d)に示すように実機30を複数体接続することによって、実機30が1体では不可能な動作を行わせることが可能となる。
【0067】
また、図14は、実機30を複数体接続した場合の、携帯端末20から送信される行動データ200の実施例である。
図14(a)に示すように、実機30を複数体接続した場合には、ここに行動データ200を送信することが必要となるが、本例ではパケット方式の通信により、実機30に宛てたデータ信号をそれぞれの実機30が受取り、それに基づいて行動することとなる。
【0068】
さらに、図15は、本発明の第四の実施例である。
図15は、複数人でゲームをする場合に、それぞれの携帯端末20を通信ケーブル等で接続し、実機30の性格パラメータ500を入れ替えたり又は共有したりすることが可能となる。実施形態では、2台の携帯端末20通信ケーブルで接続しているものであるが、もちろん2台以上の携帯端末20も接続することができ、さらに、赤外線通信を利用してデータ交換等をすることも可能である。
【0069】
【発明の効果】
以上説明したように、本発明による携帯型端末装置を利用したゲームシステムによれば、携帯端末装置と自立走行する可動体とを備え、可動体がおかれた周囲の状況を携帯端末装置にセンサ情報として入力することによりセンサ情報を可動体に対して送出し、可動体に備えられた行動制御手段によりセンサ情報に基づいて当該可動体が次に行なうべき動作を思考して行動するように構成されていることにより、可動体にセンサや電子回路等を設けなくてよく、可動体自身が小型かつ軽量となり省電力化と低コスト化を図ることができるという効果がある。
【0070】
また、携帯端末装置と自立走行する可動体とを備え、可動体がおかれた周囲の状況を携帯端末装置にセンサ情報として入力することにより携帯端末装置に設けられた行動制御手段によりセンサ情報に基づいて可動体が次に行なうべき動作を思考すると共に動作データを生成し、動作データを可動体に送出することにより可動体がその動作データに基づいて作動するように構成されていることにより、可動体に、動作データを思考するプログラムや動作データを搭載する必要がなく、それに伴いCPUやメモリ等も小型化することができ、省電力化と簡略化を図ることができる効果がある。
【0071】
また、携帯型端末装置の画面上には可動体の周囲の状況が示された地図と、可動体に対応したエージェントが画面上に表示されるようにしているので、ユーザは可動体の状況を携帯端末装置の画面上で確認することができ、遠隔地からも操作をすることができる効果がある。
【0072】
また、携帯型端末装置と可動体とは赤外線通信により所定のデータの送受信が行なわれるようにされているので、一台の携帯端末装置で複数の可動体に動作データを送信するために、複数の通信ケーブルによる接続の必要がなく、非常に簡単に複数の可動体と同時に動作データの送受信が出来る効果がある。
【0073】
また、複数の携帯型端末装置同士を接続することにより各携帯型端末装置から可動体に対してセンサ情報又は動作データを送出可能とされているので、多人数でデータの受け渡しや共有をすることができるという効果がある。
【0074】
また、携帯型端末装置を利用したゲームシステムにおいて、可動体は、前進、後退、速度可変可能な走行機構と、走行機構に対する動作制御を行なう動作制御部と、そして、携帯型端末装置との間で所定のデータの送受信を行なう通信手段と、を備えて構成されているので、非常に機能が簡略化することができ、かつ、簡略化した機能は通信手段によるデータによって補えるという効果がある。
【0075】
また、携帯型端末装置を利用したゲームシステムにおいて、可動体は、複数組合せて合体可能とされ、組み合わされた各可動体の動作をそれぞれ制御することにより全体として各種の動作を行なわせることを可能としたので、可動体1台では、不可能な動作を複数の可動体をつなぎ合わせることによって動作可能とできる効果がある。
【図面の簡単な説明】
【図1】本発明に係る携帯型端末装置を利用したゲームシステム1のシステム構成図である。
【図2】本発明に係る携帯端末20の一実施形態の外観図である。
【図3】本発明に係る携帯端末20のブロック図である。
【図4】本発明に係る実機30の一部断面の概略斜視図である。
【図5(1)】(a)〜(d)本発明に係る実機30の組み合わせ図である。
【図5(2)】(e)本発明に係る実機30の組み合わせ図であり、(f)は本発明に係る実機30の第二の実施形態である。
【図6】本発明に係る実機30のブロック図である。
【図7】本発明の一実施形態を表す操作フローチャートである。
【図8】(a)及び(c)は本発明に係る操作画面を表しており、(b)及び(d)はそのときの実機30の状態を表す概略斜視図である。
【図9】(a)及び(c)は本発明に係る操作画面を表しており、(b)及び(d)はそのときの実機の状態を表す概略斜視図である。
【図10】(a)及び(c)は本発明に係る操作画面を表しており、(b)及び(d)はそのときの実機の状態を表す概略斜視図である。
【図11】本発明の第二の実施形態を表す操作フローチャートである。
【図12】本発明に係る実フィールドにおける実機30と障害物40,41を表す概略斜視図である。
【図13】(a)及び(c)は本発明に係る操作画面を表しており、(b)及び(d)はそのときの実機の状態を表す概略斜視図である。
【図14】本発明に係る第四の実施形態であり、複数個の実機に対してパケット通信によりデータを伝送する実施例である。
【図15】本発明に係る第五の実施形態であり、通信ケーブルにより複数台の携帯端末を接続した実施形態である。
【符号の説明】
10 ユーザ
20 携帯端末
22 操作部
22a 操作キー
22b 決定スイッチ
24 操作画面
28 データ送受信部
25 メイン画面
25a サブ画面
27 エージェント
30 実機
32 赤外線受信部
33 赤外線送信部
34 筺体
34a 角孔
34b 収容孔
35 継手
36 走行機構
36a 走行輪
36b 駆動用モータ
36c モータドライバ
38 動作制御部
38a I/O装置
38b CPU装置
38c ROM
38d メモリ
39 バッテリ
50 実フィールド
51a 赤外線センサ
40 障害物
41 障害物
100 センサ情報
200 行動データ
300 実行動データ
400 地図データ
500 性格パラメータ
600 性格パターン
700 位置データ
[0001]
[Technical field to which the invention belongs]
The present invention relates to a game system using a portable terminal device, and more particularly, to a game system using a portable terminal device that includes a portable terminal device and a movable body that runs independently and reflects a situation in real space in a game. About.
[0002]
[Prior art]
Autonomous robots that act based on their own judgment of the surrounding situation grasp the surrounding situation with sensors provided in each part of the robot, and think about the action with a built-in program based on the data obtained by the sensor And is configured to perform the actual action. For example, there is a robot pet or the like in which the robot is applied to pets such as dogs and cats, and when a head is stroked, a sensor disposed on the head senses the pressure and performs a gesture. Such an autonomous robot is equipped with various sensors, a CPU with a high processing speed, a storage device, a program, and other various devices, and is very expensive.
[0003]
On the other hand, a self-propelled car toy is conventionally known. Conventional self-propelled toys are driven by a motor drive device, and for example, some can be made to go straight or rotate by changing the direction of a tire. On the other hand, as a self-propelled car toy that can run according to the surrounding conditions, there is a wired remote control car, a radio controlled radio car, and the like. In these self-propelled toys, a driver directly designates a moving direction, speed, and the like by operating a controller.
In addition, a toy that can enjoy various driving patterns by mounting a portable game device that inputs various driving patterns on a self-propelled car toy and causing the portable game device to play the role of a control unit. Is also provided. (Patent Document 1).
[0004]
[Patent Document 1]
JP 2001-293261 A (“0057”, FIGS. 8 and 9)
[Problems to be solved by the invention]
[0005]
However, in a conventional self-propelled toy car, if it is intended to run autonomously instead of moving according to the operator's instructions by a remote controller or the like, the car toy itself has various sensors, CPUs, storage devices, programs, etc. There is a problem that it is necessary to equip the equipment and becomes very expensive.
In addition, the self-propelled toy shown in Patent Document 1 needs to input a traveling pattern to the portable game device in advance and to mount the portable game device itself on the self-propelled toy. However, there is a problem that the portable game device cannot be operated while the self-propelled toy is traveling.
Furthermore, a game in which the situation shown on the screen of the portable game device and the situation in the real space are linked has not been provided yet.
[0006]
Accordingly, the present invention incorporates various sensors in a conventional self-propelled toy, and operates a high-speed CPU by a complicated program based on information data from the sensors and pattern data stored in a large-capacity memory. The self-propelled toy determines the situation based on the input information, instead of operating the self-propelled toy, instead of a sensor being used by a human to enter the surrounding situation into the portable terminal device. It is an object of the present invention to provide a game system using a portable terminal device that acts as a user.
Moreover, it aims at providing the game system using the portable terminal device in which the condition of the real space where a self-propelled toy acted was reflected in the game.
[0007]
[Means for Solving the Problems]
In order to solve the above-mentioned problem, the present invention described in claim 1 is provided with a mobile terminal device and a movable body that runs independently, and inputs a surrounding situation where the movable body is placed as sensor information to the mobile terminal device. The sensor information is sent to the movable body, and the behavior control means provided in the movable body is configured to act based on the sensor information while thinking about the action to be performed next. A game system using a portable terminal device is provided. When a human inputs a situation around the movable body instead of the sensor to the portable terminal device as sensor information, the movable body receives and determines the next action.
[0008]
In order to solve the above-mentioned problem, the present invention described in claim 2 includes a portable terminal device and a movable body that runs independently, and inputs the surrounding situation where the movable body is placed as sensor information to the portable terminal device. Based on the sensor information, the movable body thinks about the next operation to be performed by the behavior control means provided in the portable terminal, generates operation data, and sends the operation data to the movable body. There is provided a game system using a portable terminal device, which is configured to operate based on the operation data. A human inputs the surrounding state of the movable body in place of the sensor as sensor information to the portable terminal device and considers and determines the next action of the movable body in the portable terminal device.
[0009]
In order to solve the above-mentioned problem, the present invention described in claim 3 is a game system using the portable terminal device according to claim 1 or 2, wherein a screen around the movable body is displayed on the screen of the portable terminal device. A map showing the situation and an agent corresponding to the movable body are displayed on the screen. Thereby, the situation of the real space in which the movable body moves is reflected in the game, and an unprecedented game in which the situation shown on the screen of the portable game device and the situation of the real space are linked can be provided.
[0010]
In order to solve the above-mentioned problem, the present invention described in claim 4 provides a game system using the portable terminal device according to any one of claims 1 to 3, wherein the portable terminal device and the movable body are Predetermined data is transmitted and received by infrared communication.
[0011]
In order to solve the above-mentioned problem, the present invention described in claim 5 connects a plurality of portable terminal devices in a game system using the portable terminal device described in any one of claims 1 to 4. Thus, sensor information or operation data can be sent from each portable terminal device to the movable body. Thereby, a plurality of players can enjoy the simultaneous game.
[0012]
In order to solve the above-mentioned problem, the present invention described in claim 6 is directed to a game system using the portable terminal device according to any one of claims 1 to 5, wherein the movable body moves forward, backward, and speed. A variable travel mechanism, an operation control unit that performs operation control on the travel mechanism, and a communication unit that transmits and receives predetermined data to and from the portable terminal device. To do.
[0013]
In order to solve the above-mentioned problem, the present invention described in claim 7 is a game system using the portable terminal device according to claim 6, wherein a plurality of movable bodies can be combined and combined. It is possible to perform various operations as a whole by controlling the operations of the movable body.
[0014]
DETAILED DESCRIPTION OF THE INVENTION
Hereinafter, a game system using a portable terminal device according to the present invention will be described in detail with reference to the drawings.
FIG. 1 is a system configuration diagram of a game system 1 using a portable terminal device according to the present invention.
[0015]
A game system 1 using a portable terminal device according to the present invention includes a user 10, a portable terminal 20, and a real machine 30.
First, the user 10 is a person who uses the game system 1 using the portable terminal device according to the present invention.
[0016]
Next, as illustrated in FIG. 2, the mobile terminal 20 includes an operation panel 22, an operation screen 24, a processing unit 26, and a data transmission / reception unit 28, and the user 10 displays the operation screen 24. It can be operated by pushing the operation unit 22 while watching, and the data transmission / reception unit 28 enables data communication with an external device. The mobile terminal 20 only needs to have at least the function, and can be used with a commercially available game machine, a mobile phone, or a PDA terminal.
[0017]
The operation unit 22 includes a selection key 22a and a determination switch 22b so that the user 10 can input by pressing the selection key 22a and / or the determination switch 22b according to the screen displayed on the operation screen 24. Has been.
[0018]
The operation screen 24 is a liquid crystal screen provided with a backlight, and is illuminated with the backlight from the lower side of the liquid crystal screen, so that the user 10 can confirm the display of the screen even in the dark.
[0019]
As shown in FIG. 3, the processing unit 26 includes a CPU 26a, a memory 26b, a ROM 26c, and an input / output I / F unit 26d.
First, the CPU 26a converts sensor information 100, which will be described later, into action data 200, processes the execution motion data 300 sent from the actual machine 30 and stores it in the memory 26b, or similarly the position data sent from the actual machine 30. It is configured to process 700 and display the current location of the actual machine 30 on the operation screen 24 to control the entire mobile terminal 20. Here, the sensor information 100 is information related to the situation around the actual machine 30 confirmed by the user 10. The action data 200 is data obtained by converting the sensor information 100 that is surrounding position information input by the user 10 to the mobile terminal 20 into a data string that can be understood by the actual device 30. The execution motion data 300 is data for specifically driving the traveling mechanism 36 of the actual machine 30 based on the behavior data 200.
The CPU device 26a also reads out the map data 400 around the actual machine 30 stored in the memory 26b, which will be described later, from the memory 26b and displays it on the operation screen 24. An agent 27 that is a virtual model of the real machine 30 in the mobile terminal 20 is displayed on the operation screen 24, and the agent 27 is displayed on the operation screen 24 based on the position data 700 of the real machine 30. It is possible to move on the map. Therefore, the action in the real field 50 of the real machine 30 is reproduced in the portable terminal 20 as it is.
[0020]
The memory 26b stores map data 400 on which the actual machine 30 is placed, and is called by the CPU 26a and displayed on the operation screen 24 when necessary. The execution motion data 300 and the like described above can also be stored.
[0021]
The ROM 26 stores basic data for operating the mobile terminal 20 and predetermined data such as a personality pattern 600 of the actual machine 30 shown in the second embodiment of the present invention, which will be described later, so that it can be read and used sequentially. Has been.
[0022]
The data transmitter / receiver 28 transmits and / or receives action data 200, execution motion data 300, and position data 700, which will be described later, by infrared rays. In the present invention, data communication is performed by infrared rays, but a communication cable or the like may be used as long as communication with external devices is possible without being limited to infrared rays.
[0023]
Next, as shown in FIG. 4, the actual machine 30 includes an infrared receiver 32, an infrared transmitter 33, a housing 34, a travel mechanism 36, an operation controller 38, and a battery 39. ing.
[0024]
First, the infrared receiving unit 32 is configured to receive the action data 200 transmitted from the mobile terminal 20.
[0025]
The infrared transmission unit 33 can transmit the execution motion data 300 and the position data 700 to the mobile terminal 20 by infrared rays.
[0026]
The casing 34 is a hexahedron having a substantially square cross section made of metal or resin. One surface is provided with a square hole 34a for accommodating the traveling wheel 36a, and the other surface is provided with an accommodation hole 34b for accommodating the infrared receiver 32 and the infrared transmitter 33, and the other opposing surface. A joint 35 is provided on each of the four surfaces. In this embodiment, the joint 35 is a dovetail joint, but the present invention is not limited to this, and it goes without saying that a movable hook joint or a free joint may be used.
[0027]
The traveling mechanism 36 includes a traveling wheel 36a, a driving motor 36b, and a motor driver 36c.
[0028]
The traveling wheel 36a is a metal or resin donut-shaped traveling wheel, and both ends 36d of the traveling wheel 36a are rotatably provided on the housing 34 so as to rotate with the rotation of the driving motor 36b. Has been. The ratio of the rotational speed of the traveling wheel 36a to the rotational speed of the driving motor 36b may be 1: 1 or other ratio.
[0029]
Further, as shown in FIGS. 5A to 5E, the actual machine 30 can be moved forward and backward, right and left, and freely rotatable by connecting two or more units via a joint 35. For example, in the case where the two units are connected horizontally, when the left and right speeds are the same, the vehicle moves forward or backward (FIGS. 5A and 5E), and either one of the speeds is changed (or one side is stopped) (FIG. 5 ( b) (c)), and turning with the actual machine 30 having a low speed (stopped) inside, and turning both directions opposite to each other, turning (FIG. 5 (d)) becomes possible. Thus, when two or more units are combined, various movements are possible. Further, when a plurality of actual machines 30 are combined, it is also possible to make detailed settings such as determining the speed from the mobile terminal 20 to each actual machine 30 in advance.
Further, as shown in FIG. 5 (f), if two traveling wheels 36a are provided in one housing 34 and each traveling wheel 36a, 36a can be operated independently, one actual machine 30 can be used. Needless to say, even a table can move in the same manner as shown in FIGS. 5 (a) to 5 (e).
[0030]
In the drive system of the actual machine 30 according to the present invention, the action data 200 is converted into drive power via the motor driver 36c based on the execution motion data 300 converted by the operation control unit 38, and the drive power is converted into the drive motor 36b. And the drive motor 36b is configured to rotate. The motor driver 36c is electrically connected to the battery 39, and always supplies basic power to the motor driver 36c. In this embodiment, an AC servomotor is used as the drive motor 36b, but a DC servomotor may be used. Alternatively, the pulse motor may be directly driven by the execution motion data 300 using a pulse motor or the like without using the motor driver 36c. In this case, electric power is supplied directly from the battery 39 to the pulse motor. Further, the motor driver 36c may be either an analog drive system or a digital drive system such as PWM.
[0031]
Next, the system of the operation control unit 38 and its operation will be described in detail with reference to FIG.
First, as shown in the block diagram of FIG. 6, the operation control unit 38 includes an I / O device 38a, a CPU device 38b, a ROM 38c, and a memory 38d.
[0032]
The I / O device 38a is an interface that plays the role of receiving the received behavior data 200 and sending it to the CPU device 38b, and further transmitting the execution motion data 300 created by the CPU device 38b.
[0033]
Next, the CPU device 38b determines the action to be performed next to the actual machine 30 based on the received action data 200 and the personality pattern 600 stored in the ROM 38c, which will be described later, and creates the execution action data 300.
[0034]
In the ROM 38c, a personality pattern 600, which should be called the individuality of each actual machine 30, is stored in advance as a program. In the personality pattern 600, personalities such as “careful” and “curiosity” are programmed. For example, when the sensor information 100 is input to the actual machine 30 and the sensor information 100 is information such as “there is nothing on the right side and there is something on the front and the left side”, the personality pattern 600 is “ If it is a program with a character such as “Cautious”, the actual machine 30 will surely advance to the right, and if it is a program with a character such as “Curious”, it will be once every few times. It is programmed to proceed in a “some direction forward or left”. By configuring in this way, all the actual machines 30 do not take a uniform action, but can be formed as individual existences. The personality pattern 600 supplements the personality pattern 600 by using an application operation additionally written in the memory 38d described later by external communication or self action even in a fixed program. Also good. In addition, data such as a name, a number, an experience, a user's thought, or the like previously assigned to the actual machine 30 is used as a part of what is used as the personality pattern 600 program.
[0035]
The memory 38d stores basic programs that are the basis of motor control, communication control, basic operations, and applied operations (individual characteristics of the actual machine 30), and is called by the CPU device 38b sequentially at a necessary timing or in a state of being always called. Used.
[0036]
The created execution motion data 300 is transmitted from the CPU device 38 b to the I / O device 38 a and further transmitted to the motor driver 36 c of the traveling mechanism 36. As described above, the execution motion data 300 is converted into drive power via the motor driver 36c, and then supplied to the drive motor 36b, whereby the drive motor 36b rotates.
[0037]
On the other hand, after the actual machine 30 moves, the position data 700 representing the position of the actual machine 30 is transmitted to the mobile terminal 20. As the position data 700, first, the virtual X centered on the position before the actual machine 30 is moved is used. , Y plane is created, and the actual machine is calculated based on the execution motion data 300 to calculate the position. As a part of parameters used for this calculation, it is conceivable to use the rotation speed of the traveling wheel 36a or the execution motion data 300. On the other hand, as shown in FIG. 12, the real field 50 in which the real machine 30 moves is divided into a plurality of blocks 51, and an infrared sensor 51a is provided for each block or a plurality of blocks. Can be transmitted to the terminal device 20 to obtain more accurate position data 700 of the actual machine 30.
[0038]
Next, the operation and operation of the game system 1 using the portable terminal device according to the present invention will be described in detail.
FIG. 7 is an operation flowchart showing the first embodiment of the game system 1 using the portable terminal device according to the present invention.
Step 1 is a step performed by the user 10, Step 2 is a step performed by the mobile terminal 20, Step 3 is a step performed by the actual machine 30, and Step 4 is performed by the mobile terminal 20 at the final stage of this series of operations. It is a step.
[0039]
First, in step 1, the user 10 confirms the situation around the real machine 30 placed on the real field 50, and inputs the situation around the real machine confirmed by the user 10 to the mobile terminal 20. Step 12 is included.
[0040]
Step 11 is a step in which the user 10 first confirms the current surrounding state of the actual machine 30 as the sensor information 100. Specifically, the surroundings of the actual machine 30 change variously according to the movement. For example, there are cases where there are no obstacles 40, 41, or the like. There can be. This is a step of confirming, as sensor information 100, the surrounding situation on the actual real field 50 where the actual machine 30 is placed.
[0041]
Step 12 is a step in which the user 10 inputs the sensor information 100 to the mobile terminal 20. More specifically, the sensor information 100 such as, for example, in which direction the obstacle 40 or 41 is present or absent according to the screen display of the operation screen 24 when the user 10 operates the selection key 22a and the determination switch 22b of the operation unit 22. Is a step of inputting.
[0042]
Next, Step 2 is a step performed in the mobile terminal 20, in which Step 21 for converting the input sensor information 100 into action data 200 for transmitting to the actual machine 30 and the action data from the mobile terminal 20 are performed. And step 22 for transmitting 200 to the real machine 30 by infrared rays.
[0043]
Specifically, step 21 is a step of converting the sensor information 100 input to the mobile terminal 20 by the user 10 into a data string that can be understood by the actual device 30, that is, the behavior data 200. It is a bit data string, and the last 2 bits are the digitized number of the actual machine 30, and the other 8 bits are the digitized sensor information 100 input by the user 10.
[0044]
Step 22 is a step of transmitting the behavior data 200 from the mobile terminal 20 to the actual machine 30.
[0045]
Next, in step 3, based on the behavior data 200 received by the actual machine 30 and the personality pattern 600 stored in the ROM 38 c of the actual machine 30, it is determined how the actual machine 30 will act next, and the traveling mechanism 36. Step 31 for creating the execution motion data 300 that is data for actually driving the vehicle, the actual machine 30 moves based on the execution motion data 300, and the moved position data 700 and the created execution motion data 300 are carried around. And a step 32 of transmitting to the terminal 20.
[0046]
Specifically, the actual machine 30 transmits the created execution motion data 300 from the infrared transmission unit 32 provided in the actual machine 30 to the data transmission / reception unit 28 of the mobile terminal 20, and the position data 700 of the actual machine 30. Transmit at the same time.
[0047]
In the mobile terminal 20, the agent 27 that is a virtual model of the real machine 30 created by the mobile terminal 20 moves on the map data 400 based on the execution motion data 300 transmitted from the real machine 30.
[0048]
Step 4 is a step in which the execution motion data 300 of the actual machine 30 is stored in the memory 26 b of the mobile terminal 20, and the behavior pattern of the actual description 30 is learned based on the stored execution motion data 300. That is, this is a step of storing, in the memory 26b, a movement pattern such as how the actual machine 30 behaves when a certain sensor signal 100 is given to the actual machine 30 from the accumulated execution motion data 300.
[0049]
The user 10 confirms the situation around the actual machine 30 from time to time by the action of the actual machine 30 and inputs it as the sensor information 100 to the portable terminal 20 each time.
[0050]
By repeating the above steps 1 to 4, the user 10 gives so-called sensor information to the actual machine 30 instead of the sensor that is not provided in the actual machine 30 of the present invention in the surrounding situation where the actual machine 30 is placed. It is. Therefore, even if the actual machine 30 is not equipped with a sensor, the actual action 30 is actually determined by determining the action to be performed next based on the sensor information 100 and the personality pattern 600 of the actual machine 30 and creating the execution motion data 300. It becomes possible to do.
[0051]
Next, an actual usage method of the game system 1 using the portable terminal device described above will be specifically described.
[0052]
First, the actual machine 30 is placed at any position in the actual field 50, FIG. 8B shows the actual machine 30 in that state, and FIG. 8A shows the initial screen state of the mobile terminal 20. .
[0053]
The initial operation screen 24 of the portable terminal 20 shows the state of the real machine 30 in five directions.
First, an arrow 25 f displayed near the center of the operation screen 24 represents the actual machine 30, and the direction of the arrow represents the direction of the actual machine 30. In FIG. 8A, the direction 25 a is a state in front of the actual machine 30, the direction 25 b is a state in front right of the actual machine 30, the direction 25 c is in the state of the foot of the actual machine 30, and the direction 25 d is in a state in the left front of the actual machine 30. , Direction 25e indicates a state behind the actual machine 30, respectively. The “?” Mark displayed on the operation screen 24 means that there is no sensor information in that direction in the actual machine 30 and it is not known how it is.
[0054]
Next, the user 10 operates the selection key 22a of the portable terminal 20 to select one of the directions 25a to 25e. For example, when the user 10 selects the direction 25a, that is, the front, the main screen 25 is further displayed on the operation screen 24 as shown in FIG.
[0055]
In the state where the main screen 24 is initially opened, no information is given to the actual machine 30 as the sensor information 100, and “?” Marks are displayed in all directions. When the user 10 presses the selection key 22a to select the forward direction, the sub screen 25a is displayed. For example, a sub-screen 25a is displayed in which “nothing”, “something”, or “gingerbatsu” can be selected. The user 10 confirms the current situation of the actual machine 30, selects a state in accordance with the current situation of the actual machine 30 from the above options, and inputs it as sensor information 100. Each option is further connected to the sub-screen 25a to form a hierarchy. For example, when the user 10 selects “Nothing” with the selection key 22a and decides with the decision switch 22b, the next sub-screen 25a (FIG. 9A) is displayed, and “Shoigaitsutsu” is selected. Then, the sub screen 25a (FIG. 9C) is displayed.
[0056]
By selection on the sub-screen 25a, action data 200 based on the sensor information 100 is created in the mobile terminal 20 and transmitted to the actual machine 30, and the actual machine 30 is programmed in the action data 200 and the actual machine 30. The next action is determined based on the personality pattern 600 described above. As described above, the action data 200 based on the sensor information 100 indicating “something” may be dangerous in that direction. Since it is not known whether it is safe, if “something” is selected, if the personality pattern 600 of the actual machine 30 is “careful”, it will not proceed in that direction, and if it is “curiosity”, several times Once in a while, it will proceed in the direction of “something”.
[0057]
After the real machine 30 moves forward, the real machine 30 enters the state shown in FIG. 9D and waits for action data 200 based on the next sensor information 100. Therefore, the user 10 proceeds with the operation using the portable terminal 20 in the same manner as described above, but in this example, the new situation of the actual machine 30 is forward and left on the front as shown in FIG. There are obstacles 40 and 41. Accordingly, the user 10 confirms the current state of the actual device 30, and first selects “Shogaibutsu” on both the front and the left side of the sub-screen 25 a of the mobile terminal 20, and further selects “Shogaibutsu” in the sub-scene 25 a. "Will be selected. In the case of this example, since options such as “bebe”, “door”, “ana”, etc. are displayed and can be selected, “bebe” is selected for both the front and the left front (FIG. 10). (A)). In addition, since there is no “Shoigabutsu” on the right side of the front and the road is in good condition, “None” is selected on the sub screen 25a, and then “Normal Michi” is selected on the sub screen 25a. (FIG. 10C).
[0058]
As described above, when the sensor information 100 input to the mobile terminal 20 is converted into the behavior data 200 and transmitted to the actual device 30, the actual device 30 executes the execution motion data 300 based on the behavior data 200 and the personality pattern 600. The actual machine 30 will actually act.
[0059]
After the real machine 30 moves, the execution motion data 300 created by the real machine 30 and the position data 700 of the current position of the real machine 30 are transmitted to the mobile terminal 20, and the execution motion data 300 is stored in the memory 26 b in the mobile terminal 20. The execution motion pattern 300 of the actual machine 30 is learned. Further, the current position of the actual machine 30 can be known from the position data 700.
[0060]
By repeating the operations described above, even if the actual machine 30 is not equipped with a sensor or the like, the sensor information 100 is obtained from the user 10 to recognize the situation where the actual machine 30 is placed, and the next action Can be determined. Further, the user 10 can confirm the personality pattern 600 of the actual machine 30 by using the mobile terminal 20 and can provide the sensor information 100 to the actual machine 30.
[0061]
Next, another second embodiment will be described with reference to FIG.
In each step of the second embodiment, Step 1 and Step 4 are not different from the first embodiment, and are different from the first embodiment in Step 2 and Step 3. Therefore, this point will be described in detail.
[0062]
Step 2 shown in the second embodiment includes step 21 for converting data into action data 200 to be transmitted to the actual device 30 in the mobile terminal 20 based on the sensor information 1000 input in step 1, and the action data 200 Step 22 for determining the next action of the actual machine 30 based on the personality pattern 600 of the actual machine 30 and creating the execution motion data 300 of the actual machine 30, and the data transmission / reception unit 28 provided in the portable terminal 20 with the execution motion data 300 To step 23 for transmitting to the actual machine 30 by infrared rays.
[0063]
In step 3, the actual machine 30 obtains the execution motion data 300 from the mobile terminal 20 and acts by operating the operation control unit 38 and the traveling mechanism 36, and the actual machine 30 receives the position data 700 of the actual machine 30 after the action. And the step 32 of transmitting to the portable terminal 20 from the infrared transmission part 32 provided in FIG.
[0064]
As described above, in the first embodiment, the behavior data 200 is transmitted from the mobile terminal 20 to the actual device 30, and the actual device 30 performs the actual operation based on the behavior data 200 and the personality pattern 600 accumulated in the actual device 30. While the action data 300 is created and the actual machine 30 behaves accordingly, in the second embodiment, in the mobile terminal 20, the action data 200 and the personality parameter 500 of the actual machine 30 stored in the mobile terminal 20. Based on the above, the execution motion data 300 is created and transmitted to the actual machine 30, and the actual machine 30 acts accordingly.
In other words, according to the second embodiment, since the creation of the execution motion data 300 is left to the mobile terminal 200, it is not necessary to store the personality parameter 500 in the actual machine 30, and Since it is not necessary to determine and create the execution motion data 300 based on the data 200 and the personality parameter 500, the burden on the CPU device 38b is reduced, and the real machine 30 is easy even if the ROM 38c and the memory 38d have a small capacity. Since it can be controlled, the control unit can be simplified, and miniaturization and power saving can be achieved.
[0065]
Next, a third embodiment of the present invention will be described based on FIG.
First, FIG. 12 is a schematic perspective view showing a combination of the actual machines 30.
[0066]
FIG. 13A shows an example in which the actual machines 30 are connected vertically. In this case, the actual machine 30 can move straight and move laterally. Furthermore, by connecting a plurality of real machines 30 as shown in FIGS. 13B to 13D, it becomes possible to perform an operation that is impossible with one real machine 30.
[0067]
FIG. 14 is an example of action data 200 transmitted from the mobile terminal 20 when a plurality of real machines 30 are connected.
As shown in FIG. 14 (a), when a plurality of real machines 30 are connected, it is necessary to transmit the behavior data 200 here, but in this example, addressed to the real machine 30 by packet communication. Each real machine 30 receives the data signal and acts based on it.
[0068]
Further, FIG. 15 shows a fourth embodiment of the present invention.
In FIG. 15, when a game is played by a plurality of people, each mobile terminal 20 can be connected by a communication cable or the like, and the personality parameter 500 of the actual machine 30 can be exchanged or shared. In the embodiment, two mobile terminals 20 are connected by a communication cable. Of course, two or more mobile terminals 20 can also be connected, and further, data exchange is performed using infrared communication. It is also possible.
[0069]
【The invention's effect】
As described above, according to the game system using the portable terminal device according to the present invention, the portable terminal device and the movable body that runs independently are provided, and the surrounding situation where the movable body is placed is detected by the portable terminal device. The sensor information is sent to the movable body by inputting it as information, and the behavior control means provided in the movable body is configured to act based on the sensor information while thinking about the next action to be performed by the movable body. As a result, it is not necessary to provide a sensor, an electronic circuit, or the like on the movable body, and the movable body itself is small and lightweight, and there is an effect that power saving and cost reduction can be achieved.
[0070]
In addition, the mobile terminal device and the movable body that runs independently are provided with sensor information by action control means provided in the mobile terminal device by inputting the surrounding situation where the movable body is placed as sensor information to the mobile terminal device. Based on the configuration that the movable body is operated based on the operation data by thinking about the next operation to be performed by the movable body and generating the operation data and sending the operation data to the movable body. There is no need to mount a program for thinking of operation data or operation data on the movable body, and accordingly, the CPU, the memory, etc. can be reduced in size, and there is an effect that power saving and simplification can be achieved.
[0071]
In addition, since the map showing the situation around the movable body and the agent corresponding to the movable body are displayed on the screen on the screen of the portable terminal device, the user can view the situation of the movable body. This can be confirmed on the screen of the mobile terminal device, and can be operated from a remote location.
[0072]
In addition, since the portable terminal device and the movable body are configured to transmit and receive predetermined data by infrared communication, in order to transmit operation data to a plurality of movable bodies with a single portable terminal device, a plurality of There is no need for connection with a communication cable, and operation data can be transmitted and received simultaneously with a plurality of movable bodies very easily.
[0073]
In addition, since it is possible to send sensor information or operation data from each portable terminal device to the movable body by connecting a plurality of portable terminal devices, it is possible to pass and share data with a large number of people. There is an effect that can be.
[0074]
Further, in the game system using the portable terminal device, the movable body includes a traveling mechanism that can move forward, backward, and speed, an operation control unit that performs operation control on the traveling mechanism, and the portable terminal device. And the communication means for transmitting and receiving predetermined data. Therefore, the function can be greatly simplified, and the simplified function can be supplemented by data from the communication means.
[0075]
Further, in a game system using a portable terminal device, a plurality of movable bodies can be combined and combined, and various operations can be performed as a whole by controlling the operations of the combined movable bodies. Therefore, with one movable body, there is an effect that an operation that cannot be performed can be performed by connecting a plurality of movable bodies.
[Brief description of the drawings]
FIG. 1 is a system configuration diagram of a game system 1 using a portable terminal device according to the present invention.
FIG. 2 is an external view of an embodiment of a mobile terminal 20 according to the present invention.
FIG. 3 is a block diagram of a mobile terminal 20 according to the present invention.
FIG. 4 is a schematic perspective view of a partial cross section of an actual machine 30 according to the present invention.
FIGS. 5A to 5D are combination diagrams of an actual machine 30 according to the present invention.
5 (2) is a combination diagram of an actual machine 30 according to the present invention, and FIG. 5 (f) is a second embodiment of the actual machine 30 according to the present invention.
FIG. 6 is a block diagram of a real machine 30 according to the present invention.
FIG. 7 is an operation flowchart illustrating an embodiment of the present invention.
8A and 8C show operation screens according to the present invention, and FIGS. 8B and 8D are schematic perspective views showing the state of the actual machine 30 at that time.
FIGS. 9A and 9C show operation screens according to the present invention, and FIGS. 9B and 9D are schematic perspective views showing the state of an actual machine at that time. FIGS.
FIGS. 10A and 10C show operation screens according to the present invention, and FIGS. 10B and 10D are schematic perspective views showing the state of an actual machine at that time.
FIG. 11 is an operation flowchart showing a second embodiment of the present invention.
FIG. 12 is a schematic perspective view showing a real machine 30 and obstacles 40 and 41 in the real field according to the present invention.
FIGS. 13A and 13C show operation screens according to the present invention, and FIGS. 13B and 13D are schematic perspective views showing the state of an actual machine at that time.
FIG. 14 is a fourth embodiment according to the present invention, which is an example of transmitting data to a plurality of actual machines by packet communication.
FIG. 15 is a fifth embodiment according to the present invention, in which a plurality of portable terminals are connected by a communication cable.
[Explanation of symbols]
10 users
20 Mobile devices
22 Operation unit
22a Operation key
22b Decision switch
24 Operation screen
28 Data transceiver
25 Main screen
25a Sub screen
27 Agent
30 Actual machine
32 Infrared receiver
33 Infrared transmitter
34 body
34a square hole
34b receiving hole
35 fittings
36 Traveling mechanism
36a traveling wheel
36b Motor for driving
36c motor driver
38 Operation control unit
38a I / O device
38b CPU device
38c ROM
38d memory
39 battery
50 Actual field
51a Infrared sensor
40 obstacles
41 Obstacle
100 Sensor information
200 Behavior data
300 Execution data
400 map data
500 Personality parameters
600 personality patterns
700 Position data

Claims (7)

携帯端末装置と自立走行する可動体とを備え、
前記可動体がおかれた周囲の状況を前記携帯端末装置にセンサ情報として入力することにより当該センサ情報を前記可動体に対して送出し、前記可動体に備えられた行動制御手段により前記センサ情報に基づいて当該可動体が次に行なうべき動作を思考して行動するように構成されたことを特徴とする携帯型端末装置を利用したゲームシステム。
A mobile terminal device and a movable body that runs independently,
By inputting a situation around the movable body as sensor information to the portable terminal device, the sensor information is sent to the movable body, and the sensor information is transmitted by action control means provided in the movable body. A game system using a portable terminal device, wherein the movable body is configured to think and act on the next operation to be performed based on the above.
携帯端末装置と自立走行する可動体とを備え、
前記可動体がおかれた周囲の状況を前記携帯端末装置にセンサ情報として入力することにより前記携帯端末装置に設けられた行動制御手段により当該センサ情報に基づいて前記可動体が次に行なうべき動作を思考すると共に動作データを生成し、当該動作データを前記可動体に送出することにより前記可動体がその動作データに基づいて作動するように構成されたことを特徴とする携帯型端末装置を利用したゲームシステム。
A mobile terminal device and a movable body that runs independently,
An operation to be performed next by the movable body based on the sensor information by the behavior control means provided in the portable terminal device by inputting the surrounding situation where the movable body is placed as sensor information to the portable terminal device. A portable terminal device configured to generate motion data, send the motion data to the movable body, and operate the movable body based on the motion data Game system.
請求項1又は2に記載の携帯型端末装置を利用したゲームシステムにおいて、
前記携帯型端末装置の画面上には前記可動体の周囲の状況が示された地図と、前記可動体に対応したエージェントが画面上に表示されることを特徴とする携帯型端末装置を利用したゲームシステム。
In the game system using the portable terminal device according to claim 1 or 2,
Utilizing a portable terminal device, wherein a map showing a situation around the movable body and an agent corresponding to the movable body are displayed on the screen of the portable terminal device Game system.
請求項1〜3のいずれか1項に記載の携帯型端末装置を利用したゲームシステムにおいて、
前記携帯型端末装置と前記可動体とは赤外線通信により所定のデータの送受信が行なわれることを特徴とする携帯型端末装置を利用したゲームシステム。
In the game system using the portable terminal device according to any one of claims 1 to 3,
A game system using a portable terminal device, wherein predetermined data is transmitted and received between the portable terminal device and the movable body by infrared communication.
請求項1〜4のいずれか1項に記載の携帯型端末装置を利用したゲームシステムにおいて、
複数の携帯型端末装置同士を接続することにより各携帯型端末装置から可動体に対して前記センサ情報又は前記動作データを送出可能とされていることを特徴とする携帯型端末装置を利用したゲームシステム。
In the game system using the portable terminal device according to any one of claims 1 to 4,
A game using a portable terminal device characterized in that the sensor information or the operation data can be sent from each portable terminal device to a movable body by connecting a plurality of portable terminal devices. system.
請求項1〜5のいずれか1項に記載の携帯型端末装置を利用したゲームシステムにおいて、
前記可動体は、
前進、後退、速度可変可能な走行機構と、
前記走行機構に対する動作制御を行なう動作制御部と、そして、
前記携帯型端末装置との間で所定のデータの送受信を行なう通信手段と、
を備えて構成されていることを特徴とする携帯型端末装置を利用したゲームシステム。
In the game system using the portable terminal device according to any one of claims 1 to 5,
The movable body is
A traveling mechanism capable of moving forward, backward, and variable speed;
An operation control unit that performs operation control on the traveling mechanism; and
Communication means for transmitting and receiving predetermined data to and from the portable terminal device;
A game system using a portable terminal device, comprising:
請求項6に記載の携帯型端末装置を利用したゲームシステムにおいて、
前記可動体は、複数組合せて合体可能とされ、組み合わされた各可動体の動作をそれぞれ制御することにより全体として各種の動作を行なわせることを可能としたことを特徴とする携帯型端末装置を利用したゲームシステム。
In the game system using the portable terminal device according to claim 6,
A portable terminal device characterized in that a plurality of the movable bodies can be combined and combined, and various operations can be performed as a whole by controlling the operations of the combined movable bodies. Game system used.
JP2003096685A 2003-03-31 2003-03-31 A game system using a portable terminal device. Expired - Fee Related JP3960937B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2003096685A JP3960937B2 (en) 2003-03-31 2003-03-31 A game system using a portable terminal device.

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2003096685A JP3960937B2 (en) 2003-03-31 2003-03-31 A game system using a portable terminal device.

Publications (2)

Publication Number Publication Date
JP2004298475A true JP2004298475A (en) 2004-10-28
JP3960937B2 JP3960937B2 (en) 2007-08-15

Family

ID=33408666

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003096685A Expired - Fee Related JP3960937B2 (en) 2003-03-31 2003-03-31 A game system using a portable terminal device.

Country Status (1)

Country Link
JP (1) JP3960937B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016523124A (en) * 2013-05-31 2016-08-08 アンキ,インコーポレイテッド A mobile agent that manipulates, moves, and / or changes posture of a component
US9919232B2 (en) 2009-05-28 2018-03-20 Anki, Inc. Mobile agents for manipulating, moving, and/or reorienting components

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9919232B2 (en) 2009-05-28 2018-03-20 Anki, Inc. Mobile agents for manipulating, moving, and/or reorienting components
US11027213B2 (en) 2009-05-28 2021-06-08 Digital Dream Labs, Llc Mobile agents for manipulating, moving, and/or reorienting components
JP2016523124A (en) * 2013-05-31 2016-08-08 アンキ,インコーポレイテッド A mobile agent that manipulates, moves, and / or changes posture of a component
JP2017094122A (en) * 2013-05-31 2017-06-01 アンキ,インコーポレイテッド Mobile agents for manipulating, moving, and/or reorienting components
JP2018167031A (en) * 2013-05-31 2018-11-01 アンキ,インコーポレイテッド Mobile agents for manipulating, moving, and/or reorienting components

Also Published As

Publication number Publication date
JP3960937B2 (en) 2007-08-15

Similar Documents

Publication Publication Date Title
US20220126444A1 (en) Transferable intelligent control device
CN103324100B (en) A kind of emotion on-vehicle machines people of information-driven
JP6028113B2 (en) Transformers car toys
DE60028933T2 (en) PROGRAMMABLE TOY WITH COMMUNICATION AGENT
US11648485B2 (en) Toy robot
JP4136382B2 (en) Remotely operated toy system and accessory equipment used therefor
US11231708B2 (en) Display control apparatus, display control method, and storage medium
WO2011013428A1 (en) Remote control system
US20140360399A1 (en) Wireless model railroad control system
JP3960937B2 (en) A game system using a portable terminal device.
KR101620326B1 (en) Stationary bicycle system for wireless toy car control
US11468650B2 (en) System and method for authoring augmented reality storytelling experiences incorporating interactive physical components
JP4503533B2 (en) Model traveling device, model equipped with the traveling device, and remotely operated toy
CN110634343A (en) Interactive analog equipment of excavator
JP4042939B2 (en) Toy, game system
CN210836642U (en) Mechanical model interaction equipment
US20080122394A1 (en) Robotic System
CN104436694B (en) A kind of electronic toy control system and control method
CN203123539U (en) Game remote controller
JP3994035B2 (en) Steerable walking toy
CN109011638B (en) Remote-controllable assembled building block component and assembled building block system
JP2019213804A (en) Car toy
KR102424396B1 (en) Mobile block assembly system using human interface
CN211987058U (en) Interactive amusement equipment of model excavator
Radhakrishnan Developing a Modular Package for Autonomous Driving and the Experiences Gained while Implementing this System in a Sophomore Level Design Course

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20060330

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20060425

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20060425

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20070116

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070313

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20070417

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070417

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20070515

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20070515

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100525

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110525

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140525

Year of fee payment: 7

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees