JP5038465B2 - 情報処理プログラム、情報処理装置、情報処理方法および情報処理システム - Google Patents

情報処理プログラム、情報処理装置、情報処理方法および情報処理システム Download PDF

Info

Publication number
JP5038465B2
JP5038465B2 JP2010119869A JP2010119869A JP5038465B2 JP 5038465 B2 JP5038465 B2 JP 5038465B2 JP 2010119869 A JP2010119869 A JP 2010119869A JP 2010119869 A JP2010119869 A JP 2010119869A JP 5038465 B2 JP5038465 B2 JP 5038465B2
Authority
JP
Japan
Prior art keywords
posture
selection
selection target
information processing
attitude
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2010119869A
Other languages
English (en)
Other versions
JP2011244965A (ja
Inventor
洋一 山田
秀麿 藤林
怜 田中
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nintendo Co Ltd
Original Assignee
Nintendo Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nintendo Co Ltd filed Critical Nintendo Co Ltd
Priority to JP2010119869A priority Critical patent/JP5038465B2/ja
Priority to EP10171904.5A priority patent/EP2390760B1/en
Priority to US12/856,274 priority patent/US9492747B2/en
Publication of JP2011244965A publication Critical patent/JP2011244965A/ja
Application granted granted Critical
Publication of JP5038465B2 publication Critical patent/JP5038465B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/40Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment
    • A63F13/42Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle
    • A63F13/428Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle involving motion or position input signals, e.g. signals representing the rotation of an input controller or a player's arm motions sensed by accelerometers or gyroscopes
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/211Input arrangements for video game devices characterised by their sensors, purposes or types using inertial sensors, e.g. accelerometers or gyroscopes
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/25Output arrangements for video game devices
    • A63F13/28Output arrangements for video game devices responding to control signals received from the game device for affecting ambient conditions, e.g. for vibrating players' seats, activating scent dispensers or affecting temperature or light
    • A63F13/285Generating tactile feedback signals via the game input device, e.g. force feedback
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/016Input arrangements with force or tactile feedback as computer generated output to the user
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0346Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04842Selection of displayed objects or displayed text elements
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/50Controlling the output signals based on the game progress
    • A63F13/53Controlling the output signals based on the game progress involving additional visual information provided to the game scene, e.g. by overlay to simulate a head-up display [HUD] or displaying a laser sight in a shooting game
    • A63F13/533Controlling the output signals based on the game progress involving additional visual information provided to the game scene, e.g. by overlay to simulate a head-up display [HUD] or displaying a laser sight in a shooting game for prompting the player, e.g. by displaying a game menu
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/80Special adaptations for executing a specific game genre or game mode
    • A63F13/822Strategy games; Role-playing games
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/30Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by output arrangements for receiving control signals generated by the game device
    • A63F2300/308Details of the user interface
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/60Methods for processing data by generating or executing the game program
    • A63F2300/6045Methods for processing data by generating or executing the game program for mapping control signals received from the input arrangement into game commands
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/80Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game specially adapted for executing a specific type of game
    • A63F2300/807Role playing or strategy games

Description

本発明は、情報処理プログラム、情報処理装置、情報処理方法および情報処理システムに関し、より特定的には、画面に表示されている複数のオブジェクトから所望のオブジェクトの選択を行わせる情報処理プログラム、情報処理装置、情報処理方法および情報処理システムに関する。
従来、プレイヤキャラクタが所持している複数のアイテムから使用するアイテムを選択させるための操作に関して、円環状にアイテムを配置させた画面を表示して選択させる操作手法があった(例えば、特許文献1)。当該操作手法では、円環状に配置されたアイテムに対して、操作ボタンからの入力指示に応じて、円環に沿ってアイテムを回転させる(シフトさせる)ようにし、アイテムの選択や配置の入れ替えの操作を行っていた。
特開2000−176164号公報
しかしながら、上述したような操作手法では、操作ボタンからの入力指示に応じてアイテムを回転させ、選択や入れ替え等を行う必要があった。そのため、直観的な操作で所望のアイテムを操作することができなかった。
それ故に、本発明の目的は、画面上に表示されている複数のオブジェクトから所望のオブジェクトを直感的な操作で選択可能な情報処理プログラム、情報処理装置、情報処理方法および情報処理システムを提供する事である。
本発明は、上記の課題を解決するために、以下の構成を採用した。
第1の発明は、入力装置の姿勢または動きを検出する姿勢・動きセンサから取得する姿勢・動きデータに基づいた所定の情報処理を行う情報処理装置のコンピュータで実行される情報処理プログラムであって、対応関係データ記憶手段と、オブジェクト表示手段と、データ取得手段と、入力姿勢算出手段と、オブジェクト選択手段と、情報処理手段としてコンピュータを機能させる。対応関係データ記憶手段は、複数の選択対象オブジェクトのそれぞれと入力装置の姿勢との対応付けを示す対応関係データを記憶する。オブジェクト表示手段は、複数の選択対象オブジェクトを表示装置に表示する。データ取得手段は、姿勢・動きデータを取得する。入力姿勢算出手段は、データ取得手段で取得した姿勢・動きデータに基づいて入力装置の姿勢である入力姿勢を算出する。オブジェクト選択手段は、入力姿勢算出手段で算出された入力姿勢と対応関係データとに基づいて複数の選択対象オブジェクトの中から1つの選択対象オブジェクトを選択する。情報処理手段は、オブジェクト選択手段で選択された選択対象オブジェクトに基づいた処理を行う。
第1の発明によれば、入力装置の姿勢に応じて選択対象オブジェクトのいずれかを選択することができ、直感的な選択操作を提供することができる。
第2の発明は、第1の発明において、情報処理手段は、選択確定手段と、オブジェクト基準姿勢設定手段とを含む。選択確定手段は、オブジェクト選択手段で選択された選択対象オブジェクトの選択を確定する。オブジェクト基準姿勢設定手段は、選択確定手段で選択対象オブジェクトの選択を確定した際に、入力装置の姿勢を、当該選択を確定した選択対象オブジェクトにおける基準となる姿勢として設定する。そして、情報処理手段は、選択を確定した選択対象オブジェクトに基づいた処理を、オブジェクト基準姿勢設定手段で設定した基準となる姿勢に基づいて行う。
第2の発明によれば、選択確定時の入力姿勢に基づいて、当該選択対象オブジェクトに基づいた処理を実行できるため、選択操作とそれに続く処理にかかる一連の操作性をより高めることができる。
第3の発明は、第1の発明において、オブジェクト選択手段は、表示装置に対する入力姿勢の傾き方向及び傾き量に基づいて、複数の選択対象オブジェクトの中から1つの選択対象オブジェクトを選択する。
第4の発明は、第3の発明において、オブジェクト選択手段は、表示装置の表示面に対する入力姿勢の射影ベクトルを算出する射影ベクトル算出手段を含む。そして、射影ベクトルの向き及び大きさに基づいて、複数の選択対象オブジェクトの中から1つの選択対象オブジェクトを選択する。
第3乃至第4の発明によれば、表示装置に対する成分、例えば射影ベクトルを利用するため、より簡易な処理で選択対象オブジェクトの選択判定を行うことができる。
第5の発明は、第1の発明において、オブジェクト表示手段は、複数の選択対象オブジェクトを、対応関係データにおいてそれぞれが対応する入力装置の姿勢に基づいた表示装置上の位置に表示する。
第5の発明によれば、選択対象オブジェクトの表示位置と、これらを選択するための入力姿勢との関係を利用者に直感的に把握させることが可能となる。
第6の発明は、第5の発明において、コンピュータを、入力装置に対する所定の基準姿勢を設定する基準姿勢設定手段としてさらに機能させる。また、対応関係データ記憶手段は、入力装置の姿勢のデータを基準姿勢に対する姿勢として記憶する。そして、オブジェクト選択手段は、基準姿勢に対する入力姿勢に基づいて1つの選択対象オブジェクトを選択する。
第6の発明によれば、基準姿勢を設けて入力装置の姿勢を判定するため、より直感的で違和感のない操作感を提供することができる。
第7の発明は、第6の発明において、コンピュータを、基準姿勢の方向と入力姿勢の方向との角度を算出する角度算出手段としてさらに機能させる。そして、オブジェクト選択手段は、角度算出手段で第1の角度以上の角度が算出された時に、入力姿勢に基づいて1つの選択対象オブジェクトを選択する。
第7の発明によれば、入力装置を大きく動かさずとも選択対象オブジェクトの選択を可能とする。
第8の発明は、第7の発明において、コンピュータを、角度算出手段で第1の角度よりも小さい第2の角度以下の角度が算出された時に、当該選択されている選択対象オブジェクトを選択されていない状態にする、オブジェクト選択解除手段としてさらに機能させる。
第8の発明によれば、オブジェクトの選択状態の解除を容易に実行することが可能となる。
第9の発明は、第7の発明において、コンピュータを、基準姿勢戻り判定手段と、オブジェクト選択解除手段としてさらに機能させる。基準姿勢戻り判定手段は、オブジェクト選択手段で選択対象オブジェクトのいずれかが選択されている状態において、入力姿勢が基準姿勢と一致あるいは近似する姿勢に変化したか否かを判定する。オブジェクト選択解除手段は、基準姿勢戻り判定手段で入力姿勢が基準姿勢に一致あるいは近似したと判定されたとき、選択されている選択対象オブジェクトを選択されていない状態にする。
第9の発明によれば、第8の発明と同様の効果を得ることができる。
第10の発明は、第7の発明において、基準姿勢設定手段は、入力装置の所定軸を表示装置の中心方向に向けた姿勢を基準姿勢として設定する。また、コンピュータを、表示装置上において、当該表示装置の中心から入力姿勢の方向に向けて角度算出手段で算出された角度に対応する距離だけ離れた位置に、入力装置の所定軸が向いている方向に対応する表示装置上の位置を示す指示オブジェクトを表示する指示オブジェクト表示手段としてさらに機能させる。
第10の発明によれば、現在の入力装置の姿勢状態を利用者に把握させやすくすることができ、操作性の向上を図ることができる。
第11の発明は、第10の発明において、選択対象オブジェクトにはそれぞれ、当該選択対象オブジェクトの中心から所定の範囲が選択継続範囲として設定され、当該選択継続範囲は、表示画面上に隣接して配置されている選択対象オブジェクト間でその一部が重複している。そして、オブジェクト選択手段は、選択対象オブジェクトのいずれかが選択されている状態において、選択継続範囲の重複している領域内に指示オブジェクトが存在しているときは、直前に選択された選択対象オブジェクトの選択状態を継続する。
第11の発明によれば、隣接して配置された選択対象オブジェクトの間に指示オブジェクトが位置したとき、選択状態が容易に解除されることを防ぎ、操作性の向上を図ることができる。
第12の発明は、第10の発明において、角度算出手段で算出された角度が同一である場合、オブジェクト選択手段で選択対象オブジェクトが選択されていない状態において角度算出手段で算出された角度に対応する距離よりも、オブジェクト選択手段で選択対象オブジェクトが選択されている状態において角度算出手段で算出された角度に対応する距離のほうが長い。
第12の発明によれば、いずれかの選択対象オブジェクトが選択中であるか否かによって、角度算出手段で算出された角度に対応する距離を変えることができ、いずれかの選択対象オブジェクトの選択は行いやすく、選択された後は、その選択解除がされにくいという操作性を提供することができる。
第13の発明は、第6の発明において、情報処理手段は、選択確定手段と、基準姿勢更新手段とを含む。選択確定手段は、オブジェクト選択手段で選択された選択対象オブジェクトの選択を確定する。基準姿勢更新手段は、選択確定手段で選択対象オブジェクトの選択を確定した際に、入力装置の姿勢で基準姿勢を更新する。そして、情報処理手段は、選択を確定した選択対象オブジェクトに基づいた処理を行う。
第13の発明によれば、選択が確定された後、当該選択されたオブジェクトに対応する所定の処理が実行されるときに、選択を確定したときの入力装置の姿勢を基準とした処理を実行することができる。これにより、操作性の向上を図ることが可能となる。
第14の発明は、第13の発明において、情報処理手段は選択を確定した選択対象オブジェクトに基づいた処理を、基準姿勢更新手段で更新した基準姿勢に基づいて行う。
第14の発明によれば、選択操作にかかる一連の操作の操作性向上を図ることができる。
第15の発明は、第5の発明において、オブジェクト表示手段は、複数の選択対象オブジェクトを、所定間隔で環状にそれぞれに対応付けられた入力装置の姿勢に基づいた表示装置上の位置に表示する。
第15の発明によれば、より直感的な選択操作が可能となる。
第16の発明は、第1の発明において、情報処理手段は、オブジェクト選択手段でいずれかの選択対象オブジェクトが選択された際に、少なくとも当該選択された選択対象オブジェクトを強調表示する強調表示手段を含む。
第16の発明によれば、現在選択されている選択対象オブジェクトを利用者に直感的に識別させることができる。
第17の発明は、第1の発明において、入力装置は、振動装置をさらに備える。そして、情報処理手段は、オブジェクト選択手段でオブジェクトが選択された際に、振動装置を所定期間振動させる。
第17の発明によれば、いずれかの選択対象オブジェクトが選択状態となったことを利用者に容易に伝えることができる。
第18の発明は、第1の発明において、姿勢・動きセンサは、角速度を検出する角速度センサである。そして、情報処理装置は、角速度センサを備えた入力装置から角速度を示す角速度データを取得する。更に、データ取得手段は、角速度データを取得する。そして、姿勢算出手段は、データ取得手段で取得した角速度データに基づいて入力装置の姿勢を算出する。
第18の発明によれば、角速度データを利用するため、より正確に入力装置の姿勢を算出することができる。
第19の発明は、入力装置の姿勢または動きを検出する姿勢・動きセンサから取得する姿勢・動きデータに基づいた所定の情報処理を行う情報処理装置であって、対応関係データ記憶手段と、オブジェクト表示手段と、データ取得手段と、入力姿勢算出手段と、オブジェクト選択手段と、情報処理手段とを備える。対応関係データ記憶手段は、複数の選択対象オブジェクトのそれぞれと入力装置の姿勢との対応付けを示す対応関係データを記憶する。オブジェクト表示手段は、複数の選択対象オブジェクトを表示装置に表示する。データ取得手段は、姿勢・動きデータを取得する。入力姿勢算出手段は、データ取得手段で取得した姿勢・動きデータに基づいて入力装置の姿勢である入力姿勢を算出する。オブジェクト選択手段は、入力姿勢算出手段で算出された入力姿勢と対応関係データとに基づいて複数の選択対象オブジェクトの中から1つの選択対象オブジェクトを選択する。情報処理手段は、オブジェクト選択手段で選択された選択対象オブジェクトに基づいた処理を行う。
第20の発明は、入力装置の姿勢または動きを検出する姿勢・動きセンサから取得する姿勢・動きデータに基づいた所定の情報処理を行い、更に、複数の選択対象オブジェクトから選択されたオブジェクトに基づく処理を行う情報処理制御方法であって、対応関係データ記憶ステップと、オブジェクト表示ステップと、データ取得ステップと、入力姿勢算出ステップと、オブジェクト選択ステップと、情報処理ステップとを備える。対応関係データ記憶ステップは、複数の選択対象オブジェクトのそれぞれと入力装置の姿勢との対応付けを示す対応関係データを記憶する。オブジェクト表示ステップは、複数の選択対象オブジェクトを表示装置に表示する。データ取得ステップは、姿勢・動きデータを取得する。入力姿勢算出ステップは、データ取得ステップで取得した姿勢・動きデータに基づいて入力装置の姿勢である入力姿勢を算出する。オブジェクト選択ステップは、入力姿勢算出ステップにおいて算出された入力姿勢と対応関係データとに基づいて複数の選択対象オブジェクトの中から1つの選択対象オブジェクトを選択する。情報処理ステップは、オブジェクト選択ステップで選択された選択対象オブジェクトに基づいた処理を行う。
第21の発明は、入力装置の姿勢または動きを検出する姿勢・動きセンサから取得する姿勢・動きデータに基づいた所定の情報処理を行う情報処理システムであって、対応関係データ記憶手段と、オブジェクト表示手段と、データ取得手段と、入力姿勢算出手段と、オブジェクト選択手段と、情報処理手段とを備える。対応関係データ記憶手段は、複数の選択対象オブジェクトのそれぞれと入力装置の姿勢との対応付けを示す対応関係データを記憶する。オブジェクト表示手段は、複数の選択対象オブジェクトを表示装置に表示する。データ取得手段は、姿勢・動きデータを取得する。入力姿勢算出手段は、データ取得手段で取得した姿勢・動きデータに基づいて入力装置の姿勢である入力姿勢を算出する。オブジェクト選択手段は、入力姿勢算出手段で算出された入力姿勢と対応関係データとに基づいて複数の選択対象オブジェクトの中から1つの選択対象オブジェクトを選択する。情報処理手段は、オブジェクト選択手段で選択された選択対象オブジェクトに基づいた処理を行う。
第19乃至第21の発明によれば、第1の発明と同様の効果を得ることができる。
本発明によれば、複数の選択対象オブジェクトから所望のオブジェクトを直感的な操作で選択する事ができる。
ゲームシステム1の外観図 ゲーム装置3の構成を示すブロック図 入力装置8の外観構成を示す斜視図 コントローラ5の外観構成を示す斜視図 コントローラ5の内部構造を示す図 コントローラ5の内部構造を示す図 入力装置8の構成を示すブロック図 本実施形態で想定するゲームの画面の一例 アイテム選択画面の一例 アイテム選択画面での操作の一例 アイテム選択画面での操作の一例 本実施形態で想定するゲームの画面の一例 アイテム選択画面での操作の一例 アイテム選択画面での操作の一例 基準姿勢を説明するための図 基準姿勢を説明するための図 基準姿勢と現在姿勢の関係を示す図 現在姿勢の角度に関して説明するための図 現在姿勢の方向について説明するための図 アイテム選択判定用のテーブルの概念を示す模式図 第2スケール円を説明するための図 アイテムアイコン選択中における選択判定について説明するための図 外部メインメモリ12のメモリマップを示す図 アイテム選択処理の詳細を示すフローチャート 図24のステップS3で示した姿勢方向算出処理の詳細を示すフローチャート 図24のステップS5で示した非フォーカス処理の詳細を示すフローチャート 図24のステップS6で示したフォーカス処理の詳細を示すフローチャート
以下、本発明の実施の形態について、図面を参照して説明する。尚、この実施例により本発明が限定されるものではない。
[ゲームシステムの全体構成]
図1を参照して、本発明の一実施形態に係る情報処理装置の一例であるゲーム装置を含むゲームシステム1について説明する。図1は、ゲームシステム1の外観図である。以下、据置型のゲーム装置を一例にして、本実施形態のゲーム装置およびゲームプログラムについて説明する。図1において、ゲームシステム1は、テレビジョン受像器(以下、単に「テレビ」と記載する)2、ゲーム装置3、光ディスク4、入力装置8、およびマーカ部6を含む。本システムは、入力装置8を用いたゲーム操作に基づいてゲーム装置3でゲーム処理を実行するものである。
ゲーム装置3には、当該ゲーム装置3に対して交換可能に用いられる情報記憶媒体の一例である光ディスク4が脱着可能に挿入される。光ディスク4には、ゲーム装置3において実行されるためのゲームプログラムが記憶されている。ゲーム装置3の前面には光ディスク4の挿入口が設けられている。ゲーム装置3は、挿入口に挿入された光ディスク4に記憶されているゲームプログラムを読み出して実行することによってゲーム処理を実行する。
ゲーム装置3には、表示装置の一例であるテレビ2が接続コードを介して接続される。テレビ2は、ゲーム装置3において実行されるゲーム処理の結果得られるゲーム画像を表示する。また、テレビ2の画面の周辺(図1では画面の上側)には、マーカ部6が設置される。マーカ部6は、その両端に2つのマーカ6Rおよび6Lを備えている。マーカ6R(マーカ6Lも同様)は、具体的には1以上の赤外LEDであり、テレビ2の前方に向かって赤外光を出力する。マーカ部6はゲーム装置3に接続されており、ゲーム装置3はマーカ部6が備える各赤外LEDの点灯を制御することが可能である。
入力装置8は、自機に対して行われた操作の内容を示す操作データをゲーム装置3に与えるものである。本実施形態では、入力装置8はコントローラ5とジャイロセンサユニット7とを含む。詳細は後述するが、入力装置8は、コントローラ5に対してジャイロセンサユニット7が着脱可能に接続されている構成である。コントローラ5とゲーム装置3とは無線通信によって接続される。本実施形態では、コントローラ5とゲーム装置3との間の無線通信には例えばBluetooth(ブルートゥース)(登録商標)の技術が用いられる。なお、他の実施形態においてはコントローラ5とゲーム装置3とは有線で接続されてもよい。
[ゲーム装置3の内部構成]
次に、図2を参照して、ゲーム装置3の内部構成について説明する。図2は、ゲーム装置3の構成を示すブロック図である。ゲーム装置3は、CPU10、システムLSI11、外部メインメモリ12、ROM/RTC13、ディスクドライブ14、およびAV−IC15等を有する。
CPU10は、光ディスク4に記憶されたゲームプログラムを実行することによってゲーム処理を実行するものであり、ゲームプロセッサとして機能する。CPU10は、システムLSI11に接続される。システムLSI11には、CPU10の他、外部メインメモリ12、ROM/RTC13、ディスクドライブ14およびAV−IC15が接続される。システムLSI11は、それに接続される各構成要素間のデータ転送の制御、表示すべき画像の生成、外部装置からのデータの取得等の処理を行う。システムLSI11の内部構成については後述する。揮発性の外部メインメモリ12は、光ディスク4から読み出されたゲームプログラムや、フラッシュメモリ17から読み出されたゲームプログラム等のプログラムを記憶したり、各種データを記憶したりするものであり、CPU10のワーク領域やバッファ領域として用いられる。ROM/RTC13は、ゲーム装置3の起動用のプログラムが組み込まれるROM(いわゆるブートROM)と、時間をカウントするクロック回路(RTC:Real Time Clock)とを有する。ディスクドライブ14は、光ディスク4からプログラムデータやテクスチャデータ等を読み出し、後述する内部メインメモリ11eまたは外部メインメモリ12に読み出したデータを書き込む。
また、システムLSI11には、入出力プロセッサ(I/Oプロセッサ)11a、GPU(Graphics Processor Unit)11b、DSP(Digital Signal Processor)11c、VRAM11d、および内部メインメモリ11eが設けられる。図示は省略するが、これらの構成要素11a〜11eは内部バスによって互いに接続される。
GPU11bは、描画手段の一部を形成し、CPU10からのグラフィクスコマンド(作画命令)に従って画像を生成する。VRAM11dは、GPU11bがグラフィクスコマンドを実行するために必要なデータ(ポリゴンデータやテクスチャデータ等のデータ)を記憶する。画像が生成される際には、GPU11bは、VRAM11dに記憶されたデータを用いて画像データを作成する。
DSP11cは、オーディオプロセッサとして機能し、内部メインメモリ11eや外部メインメモリ12に記憶されるサウンドデータや音波形(音色)データを用いて、音声データを生成する。
上述のように生成された画像データおよび音声データは、AV−IC15によって読み出される。AV−IC15は、読み出した画像データをAVコネクタ16を介してテレビ2に出力するとともに、読み出した音声データを、テレビ2に内蔵されるスピーカ2aに出力する。これによって、画像がテレビ2に表示されるとともに音がスピーカ2aから出力される。
入出力プロセッサ11aは、それに接続される構成要素との間でデータの送受信を実行したり、外部装置からのデータのダウンロードを実行したりする。入出力プロセッサ11aは、フラッシュメモリ17、無線通信モジュール18、無線コントローラモジュール19、拡張コネクタ20、およびメモリカード用コネクタ21に接続される。無線通信モジュール18にはアンテナ22が接続され、無線コントローラモジュール19にはアンテナ23が接続される。
入出力プロセッサ11aは、無線通信モジュール18およびアンテナ22を介してネットワークに接続し、ネットワークに接続される他のゲーム装置や各種サーバと通信することができる。入出力プロセッサ11aは、定期的にフラッシュメモリ17にアクセスし、ネットワークへ送信する必要があるデータの有無を検出し、当該データが有る場合には、無線通信モジュール18およびアンテナ22を介してネットワークに送信する。また、入出力プロセッサ11aは、他のゲーム装置から送信されてくるデータやダウンロードサーバからダウンロードしたデータを、ネットワーク、アンテナ22および無線通信モジュール18を介して受信し、受信したデータをフラッシュメモリ17に記憶する。CPU10はゲームプログラムを実行することにより、フラッシュメモリ17に記憶されたデータを読み出してゲームプログラムで利用する。フラッシュメモリ17には、ゲーム装置3と他のゲーム装置や各種サーバとの間で送受信されるデータの他、ゲーム装置3を利用してプレイしたゲームのセーブデータ(ゲームの結果データまたは途中データ)が記憶されてもよい。
また、入出力プロセッサ11aは、コントローラ5から送信される操作データをアンテナ23および無線コントローラモジュール19を介して受信し、内部メインメモリ11eまたは外部メインメモリ12のバッファ領域に記憶(一時記憶)する。
さらに、入出力プロセッサ11aには、拡張コネクタ20およびメモリカード用コネクタ21が接続される。拡張コネクタ20は、USBやSCSIのようなインターフェースのためのコネクタであり、外部記憶媒体のようなメディアを接続したり、他のコントローラのような周辺機器を接続したり、有線の通信用コネクタを接続することによって無線通信モジュール18に替えてネットワークとの通信を行ったりすることができる。メモリカード用コネクタ21は、メモリカードのような外部記憶媒体を接続するためのコネクタである。例えば、入出力プロセッサ11aは、拡張コネクタ20やメモリカード用コネクタ21を介して外部記憶媒体にアクセスし、外部記憶媒体にデータを保存したり、外部記憶媒体からデータを読み出したりすることができる。
ゲーム装置3には、電源ボタン24、リセットボタン25、およびイジェクトボタン26が設けられる。電源ボタン24およびリセットボタン25は、システムLSI11に接続される。電源ボタン24がオンされると、ゲーム装置3の各構成要素に対して、図示しないACアダプタを経て電源が供給される。リセットボタン25が押されると、システムLSI11は、ゲーム装置3の起動プログラムを再起動する。イジェクトボタン26は、ディスクドライブ14に接続される。イジェクトボタン26が押されると、ディスクドライブ14から光ディスク4が排出される。
[入力装置8の構成]
次に、図3〜図6を参照して、入力装置8について説明する。図3は、入力装置8の外観構成を示す斜視図である。図4は、コントローラ5の外観構成を示す斜視図である。図3は、コントローラ5の上側後方から見た斜視図であり、図4は、コントローラ5を下側前方から見た斜視図である。
図3および図4において、コントローラ5は、例えばプラスチック成型によって形成されたハウジング31を有している。ハウジング31は、その前後方向(図3に示すZ軸方向)を長手方向とした略直方体形状を有しており、全体として大人や子供の片手で把持可能な大きさである。プレイヤは、コントローラ5に設けられたボタンを押下すること、および、コントローラ5自体を動かしてその位置や姿勢を変えることによってゲーム操作を行うことができる。
ハウジング31には、複数の操作ボタンが設けられる。図3に示すように、ハウジング31の上面には、十字ボタン32a、1番ボタン32b、2番ボタン32c、Aボタン32d、マイナスボタン32e、ホームボタン32f、プラスボタン32g、および電源ボタン32hが設けられる。本明細書では、これらのボタン32a〜32hが設けられるハウジング31の上面を「ボタン面」と呼ぶことがある。一方、図4に示すように、ハウジング31の下面には凹部が形成されており、当該凹部の後面側傾斜面にはBボタン32iが設けられる。これらの各操作ボタン32a〜32iには、ゲーム装置3が実行するゲームプログラムに応じた機能が適宜割り当てられる。また、電源ボタン32hは遠隔からゲーム装置3本体の電源をオン/オフするためのものである。ホームボタン32fおよび電源ボタン32hは、その上面がハウジング31の上面に埋没している。これによって、プレイヤがホームボタン32fまたは電源ボタン32hを誤って押下することを防止することができる。
ハウジング31の後面にはコネクタ33が設けられている。コネクタ33は、コントローラ5に他の機器(例えば、ジャイロセンサユニット7や他のコントローラ)を接続するために利用される。また、ハウジング31の後面におけるコネクタ33の両側には、上記他の機器が容易に離脱することを防止するために係止穴33aが設けられている。
ハウジング31上面の後方には複数(図3では4つ)のLED34a〜34dが設けられる。ここで、コントローラ5には、他のメインコントローラと区別するためにコントローラ種別(番号)が付与される。各LED34a〜34dは、コントローラ5に現在設定されている上記コントローラ種別をプレイヤに通知したり、コントローラ5の電池残量をプレイヤに通知したりする等の目的で用いられる。具体的には、コントローラ5を用いてゲーム操作が行われる際、上記コントローラ種別に応じて複数のLED34a〜34dのいずれか1つが点灯する。
また、コントローラ5は撮像情報演算部35(図6)を有しており、図4に示すように、ハウジング31前面には撮像情報演算部35の光入射面35aが設けられる。光入射面35aは、マーカ6Rおよび6Lからの赤外光を少なくとも透過する材質で構成される。
ハウジング31上面における1番ボタン32bとホームボタン32fとの間には、コントローラ5に内蔵されるスピーカ49(図5)からの音を外部に放出するための音抜き孔31aが形成されている。
次に、図5および図6を参照して、コントローラ5の内部構造について説明する。図5および図6は、コントローラ5の内部構造を示す図である。なお、図5は、コントローラ5の上筐体(ハウジング31の一部)を外した状態を示す斜視図である。図6は、コントローラ5の下筐体(ハウジング31の一部)を外した状態を示す斜視図である。図6に示す斜視図は、図5に示す基板30を裏面から見た斜視図となっている。
図5において、ハウジング31の内部には基板30が固設されており、当該基板30の上主面上に各操作ボタン32a〜32h、各LED34a〜34d、加速度センサ37、アンテナ45、およびスピーカ49等が設けられる。これらは、基板30等に形成された配線(図示せず)によってマイクロコンピュータ(Micro Computer:マイコン)42(図6参照)に接続される。本実施形態では、加速度センサ37は、X軸方向に関してコントローラ5の中心からずれた位置に配置されている。これによって、コントローラ5をZ軸回りに回転させたときのコントローラ5の動きが算出しやすくなる。また、加速度センサ37は、長手方向(Z軸方向)に関してコントローラ5の中心よりも前方に配置されている。また、無線モジュール44(図6)およびアンテナ45によって、コントローラ5がワイヤレスコントローラとして機能する。
一方、図6において、基板30の下主面上の前端縁に撮像情報演算部35が設けられる。撮像情報演算部35は、コントローラ5の前方から順に赤外線フィルタ38、レンズ39、撮像素子40、および画像処理回路41を備えている。これらの部材38〜41はそれぞれ基板30の下主面に取り付けられる。
さらに、基板30の下主面上には、上記マイコン42およびバイブレータ48が設けられている。バイブレータ48は、例えば振動モータやソレノイドであり、基板30等に形成された配線によってマイコン42と接続される。マイコン42の指示によりバイブレータ48が作動することによってコントローラ5に振動が発生する。これによって、コントローラ5を把持しているプレイヤの手にその振動が伝達される、いわゆる振動対応ゲームを実現することができる。本実施形態では、バイブレータ48は、ハウジング31のやや前方寄りに配置される。つまり、バイブレータ48がコントローラ5の中心よりも端側に配置することによって、バイブレータ48の振動によりコントローラ5全体を大きく振動させることができる。また、コネクタ33は、基板30の下主面上の後端縁に取り付けられる。なお、図5および図6に示す他、コントローラ5は、マイコン42の基本クロックを生成する水晶振動子、スピーカ49に音声信号を出力するアンプ等を備えている。
また、ジャイロセンサユニット7は、3軸回りの角速度を検知するジャイロセンサ(図7に示すジャイロセンサ55および56)を有する。ジャイロセンサユニット7は、コントローラ5のコネクタ33に着脱可能に装着される。ジャイロセンサユニット7の前端(図3に示すZ軸正方向側の端部)には、コネクタ33に接続可能なプラグ(図7に示すプラグ53)が設けられる。さらに、プラグ53の両側にはフック(図示せず)が設けられる。ジャイロセンサユニット7がコントローラ5に対して装着される状態では、プラグ53がコネクタ33に接続されるとともに、上記フックがコントローラ5の係止穴33aに係止する。これによって、コントローラ5とジャイロセンサユニット7とがしっかりと固定される。また、ジャイロセンサユニット7は側面(図3に示すX軸方向の面)にボタン51を有している。ボタン51は、それを押下すれば上記フックの係止穴33aに対する係止状態を解除することができるように構成されている。したがって、ボタン51を押下しながらプラグ53をコネクタ33から抜くことによって、ジャイロセンサユニット7をコントローラ5から離脱することができる。
また、ジャイロセンサユニット7の後端には、上記コネクタ33と同形状のコネクタが設けられる。したがって、コントローラ5(のコネクタ33)に対して装着可能な他の機器は、ジャイロセンサユニット7のコネクタに対しても装着可能である。なお、図3においては、当該コネクタに対してカバー52が着脱可能に装着されている。
なお、図3〜図6に示したコントローラ5およびジャイロセンサユニット7の形状や、各操作ボタンの形状、加速度センサやバイブレータの数および設置位置等は単なる一例に過ぎず、他の形状、数、および設置位置であっても、本発明を実現することができる。また、本実施形態では、撮像手段による撮像方向はZ軸正方向であるが、撮像方向はいずれの方向であってもよい。すなわち、コントローラ5における撮像情報演算部35の位置(撮像情報演算部35の光入射面35a)は、ハウジング31の前面でなくてもよく、ハウジング31の外部から光を取り入れることができれば他の面に設けられてもかまわない。
図7は、入力装置8(コントローラ5およびジャイロセンサユニット7)の構成を示すブロック図である。コントローラ5は、操作部32(各操作ボタン32a〜32i)、コネクタ33、撮像情報演算部35、通信部36、および加速度センサ37を備えている。コントローラ5は、自機に対して行われた操作内容を示すデータを操作データとしてゲーム装置3へ送信するものである。
操作部32は、上述した各操作ボタン32a〜32iを含み、各操作ボタン32a〜32iに対する入力状態(各操作ボタン32a〜32iが押下されたか否か)を示す操作ボタンデータを通信部36のマイコン42へ出力する。
撮像情報演算部35は、撮像手段が撮像した画像データを解析してその中で輝度が高い領域を判別してその領域の重心位置やサイズなどを算出するためのシステムである。撮像情報演算部35は、例えば最大200フレーム/秒程度のサンプリング周期を有するので、比較的高速なコントローラ5の動きでも追跡して解析することができる。
撮像情報演算部35は、赤外線フィルタ38、レンズ39、撮像素子40、および画像処理回路41を含んでいる。赤外線フィルタ38は、コントローラ5の前方から入射する光から赤外線のみを通過させる。レンズ39は、赤外線フィルタ38を透過した赤外線を集光して撮像素子40へ入射させる。撮像素子40は、例えばCMOSセンサやあるいはCCDセンサのような固体撮像素子であり、レンズ39が集光した赤外線を受光して画像信号を出力する。ここで、テレビ2の表示画面近傍に配置されるマーカ部6のマーカ6Rおよび6Lは、テレビ2の前方に向かって赤外光を出力する赤外LEDで構成される。したがって、赤外線フィルタ38を設けることによって、撮像素子40は、赤外線フィルタ38を通過した赤外線だけを受光して画像データを生成するので、マーカ6Rおよび6Lの画像をより正確に撮像することができる。以下では、撮像素子40によって撮像された画像を撮像画像と呼ぶ。撮像素子40によって生成された画像データは、画像処理回路41で処理される。画像処理回路41は、撮像画像内における撮像対象(マーカ6Rおよび6L)の位置を算出する。画像処理回路41は、算出された位置を示す座標を通信部36のマイコン42へ出力する。この座標のデータは、マイコン42によって操作データとしてゲーム装置3に送信される。以下では、上記座標を「マーカ座標」と呼ぶ。マーカ座標はコントローラ5自体の向き(傾斜角度)や位置に対応して変化するので、ゲーム装置3はこのマーカ座標を用いてコントローラ5の向きや位置を算出することができる。
なお、他の実施形態においては、コントローラ5は画像処理回路41を備えていない構成であってもよく、撮像画像自体がコントローラ5からゲーム装置3へ送信されてもよい。このとき、ゲーム装置3は、画像処理回路41と同様の機能を有する回路あるいはプログラムを有しており、上記マーカ座標を算出するようにしてもよい。
加速度センサ37は、コントローラ5の加速度(重力加速度を含む)を検出する、すなわち、コントローラ5に加わる力(重力を含む)を検出する。加速度センサ37は、当該加速度センサ37の検出部に加わっている加速度のうち、センシング軸方向に沿った直線方向の加速度(直線加速度)の値を検出する。例えば、2軸以上の多軸加速度センサの場合には、加速度センサの検出部に加わっている加速度として、各軸に沿った成分の加速度をそれぞれ検出する。例えば、3軸または2軸の加速度センサは、アナログ・デバイセズ株式会社(Analog Devices, Inc.)またはSTマイクロエレクトロニクス社(STMicroelectronics N.V.)から入手可能である種類のものでもよい。なお、加速度センサ37は、例えば静電容量式の加速度センサであるとするが、他の方式の加速度センサを用いるようにしてもよい。
本実施形態では、加速度センサ37は、コントローラ5を基準とした上下方向(図3に示すY軸方向)、左右方向(図3に示すX軸方向)および前後方向(図3に示すZ軸方向)の3軸方向に関してそれぞれ直線加速度を検出する。加速度センサ37は、各軸に沿った直線方向に関する加速度を検出するものであるため、加速度センサ37からの出力は3軸それぞれの直線加速度の値を表すものとなる。すなわち、検出された加速度は、入力装置8(コントローラ5)を基準に設定されるXYZ座標系(コントローラ座標系)における3次元のベクトル(ax,ay,az)として表される。以下では、加速度センサ37によって検出される3軸に関する各加速度値を各成分とするベクトルを加速度ベクトルと呼ぶ。
加速度センサ37が検出した加速度を示すデータ(加速度データ)は、通信部36へ出力される。なお、加速度センサ37が検出した加速度は、コントローラ5自体の向き(傾斜角度)や動きに対応して変化するので、ゲーム装置3は加速度データを用いてコントローラ5の向きや動きを算出することができる。本実施形態では、ゲーム装置3は、加速度データに基づいてコントローラ5の姿勢を判断する。
加速度センサ37が検出した加速度(加速度ベクトル)を示すデータ(加速度データ)は、通信部36へ出力される。本実施形態において、加速度センサ37は、コントローラ5の傾斜角度を判断するためのデータを出力するセンサとして用いられる。
なお、加速度センサ37から出力される加速度の信号に基づいて、ゲーム装置3のプロセッサ(例えばCPU10)またはコントローラ5のプロセッサ(例えばマイコン42)等のコンピュータが処理を行うことによって、コントローラ5に関するさらなる情報を推測または算出(判定)することができることは、当業者であれば本明細書の説明から容易に理解できるであろう。例えば、加速度センサ37を搭載するコントローラ5が静止状態であることを前提としてコンピュータ側の処理が実行される場合(すなわち、加速度センサによって検出される加速度が重力加速度のみであるとして処理が実行される場合)、コントローラ5が現実に静止状態であれば、検出された加速度に基づいてコントローラ5の姿勢が重力方向に対して傾いているか否かまたはどの程度傾いているかを知ることができる。具体的には、加速度センサ37の検出軸が鉛直下方向を向いている状態を基準としたとき、1G(重力加速度)がかかっているか否かによって、コントローラ5が基準に対して傾いているか否かを知ることができるし、その大きさによって基準に対してどの程度傾いているかも知ることができる。また、多軸の加速度センサ37の場合には、さらに各軸の加速度の信号に対して処理を施すことによって、重力方向に対してコントローラ5がどの程度傾いているかをより詳細に知ることができる。この場合において、プロセッサは、加速度センサ37からの出力に基づいてコントローラ5の傾斜角度を算出してもよいし、当該傾斜角度を算出せずに、コントローラ5の傾斜方向を算出するようにしてもよい。このように、加速度センサ37をプロセッサと組み合わせて用いることによって、コントローラ5の傾斜角度または姿勢を判定することができる。
一方、コントローラ5が動的な状態(コントローラ5が動かされている状態)であることを前提とする場合には、加速度センサ37は重力加速度に加えてコントローラ5の動きに応じた加速度を検出するので、検出された加速度から重力加速度の成分を所定の処理により除去することによってコントローラ5の動き方向を知ることができる。また、コントローラ5が動的な状態であることを前提とする場合であっても、検出された加速度から、加速度センサの動きに応じた加速度の成分を所定の処理により除去することによって、重力方向に対するコントローラ5の傾きを知ることが可能である。なお、他の実施例では、加速度センサ37は、内蔵の加速度検出手段で検出された加速度信号をマイコン42に出力する前に当該加速度信号に対して所定の処理を行うための、組込み式の処理装置または他の種類の専用の処理装置を備えていてもよい。組込み式または専用の処理装置は、例えば、加速度センサ37が静的な加速度(例えば、重力加速度)を検出するために用いられる場合、加速度信号を傾斜角(あるいは、他の好ましいパラメータ)に変換するものであってもよい。
通信部36は、マイコン42、メモリ43、無線モジュール44、およびアンテナ45を含んでいる。マイコン42は、処理を行う際にメモリ43を記憶領域として用いながら、マイコン42が取得したデータをゲーム装置3へ無線送信する無線モジュール44を制御する。また、マイコン42はコネクタ33に接続されている。ジャイロセンサユニット7から送信されてくるデータは、コネクタ33を介してマイコン42に入力される。以下、ジャイロセンサユニット7の構成について説明する。
ジャイロセンサユニット7は、プラグ53、マイコン54、2軸ジャイロセンサ55、および1軸ジャイロセンサ56を備えている。上述のように、ジャイロセンサユニット7は、3軸(本実施形態では、XYZ軸)周りの角速度を検出し、検出した角速度を示すデータ(角速度データ)をコントローラ5へ送信する。
2軸ジャイロセンサ55は、X軸周りの角速度およびY軸周りの(単位時間あたりの)角速度を検出する。また、1軸ジャイロセンサ56は、Z軸周りの(単位時間あたりの)角速度を検出する。なお、本明細書では、コントローラ5の撮像方向(Z軸正方向)を基準として、XYZ軸周りの回転方向を、それぞれ、ロール方向、ピッチ方向、ヨー方向と呼ぶ。すなわち、2軸ジャイロセンサ55は、ロール方向(X軸周りの回転方向)およびピッチ方向(Y軸周りの回転方向)の角速度を検出し、1軸ジャイロセンサ56は、ヨー方向(Z軸周りの回転方向)の角速度を検出する。
なお、本実施形態では、3軸回りの角速度を検出するために、2軸ジャイロセンサ55と1軸ジャイロセンサ56とを用いる構成としたが、他の実施形態においては、3軸回りの角速度を検出することができればよく、用いるジャイロセンサの数および組み合わせはどのようなものであってもよい。
また、本実施形態では、後述する姿勢算出処理における計算を容易にする目的で、各ジャイロセンサ55および56が角速度を検出する3つの軸は、加速度センサ37が加速度を検出する3つの軸(XYZ軸)と一致するように設定される。ただし、他の実施形態においては、各ジャイロセンサ56および57が角速度を検出する3つの軸と、加速度センサ37が加速度を検出する3つの軸とは一致しなくてもよい。
各ジャイロセンサ55および56で検出された角速度を示すデータは、マイコン54に出力される。したがって、マイコン54には、XYZ軸の3軸回りの角度速度を示すデータが入力されることになる。マイコン54は、上記3軸回りの角速度を示すデータを角速度データとしてプラグ53を介してコントローラ5へ送信する。なお、マイコン54からコントローラ5への送信は所定の周期毎に逐次行われるが、ゲームの処理は1/60秒を単位として(1フレーム時間として)行われることが一般的であるので、この時間以下の周期で送信を行うことが好ましい。
コントローラ5の説明に戻り、操作部32、撮像情報演算部35、および加速度センサ37からマイコン42へ出力されたデータ、ならびに、ジャイロセンサユニット7からマイコン42へ送信されてきたデータは、一時的にメモリ43に格納される。これらのデータは、上記操作データとしてゲーム装置3へ送信される。すなわち、マイコン42は、ゲーム装置3の無線コントローラモジュール19への送信タイミングが到来すると、メモリ43に格納されている操作データを無線モジュール44へ出力する。無線モジュール44は、例えばBluetooth(ブルートゥース)の技術を用いて、所定周波数の搬送波を操作データで変調し、その微弱電波信号をアンテナ45から放射する。つまり、操作データは、無線モジュール44で微弱電波信号に変調されてコントローラ5から送信される。微弱電波信号はゲーム装置3側の無線コントローラモジュール19で受信される。受信された微弱電波信号について復調や復号を行うことによって、ゲーム装置3は操作データを取得することができる。そして、ゲーム装置3のCPU10は、取得した操作データとゲームプログラムとに基づいて、ゲーム処理を行う。なお、通信部36から無線コントローラモジュール19への無線送信は所定の周期毎に逐次行われるが、ゲームの処理は1/60秒を単位として(1フレーム時間として)行われることが一般的であるので、この時間以下の周期で送信を行うことが好ましい。コントローラ5の通信部36は、例えば1/200秒に1回の割合で各操作データをゲーム装置3の無線コントローラモジュール19へ出力する。
上記コントローラ5を用いることによって、プレイヤは、各操作ボタンを押下する従来の一般的なゲーム操作に加えて、コントローラ5を任意の傾斜角度に傾ける操作を行うことができる。その他、上記コントローラ5によれば、プレイヤは、コントローラ5によって画面上の任意の位置を指示する操作、および、コントローラ5自体を動かす操作を行うこともできる。
次に、本実施形態における動作や処理の概要について説明する。本実施形態では、画面に表示された所定のオブジェクト(アイコン等)を、入力装置8の姿勢に応じて選択可能とする処理が実行される。例えば、選択可能な2つのオブジェクトが画面に表示されている場合を想定すると、入力装置8を、そのZ方向が地面と水平になり、先端が左を向いているような姿勢にすれば、第1のオブジェクトが選択される。また、入力装置8を、そのZ軸方向が地面と垂直になり、先端が真上を向いているような姿勢にすれば、第2のオブジェクトが選択される、というような処理が実行される。
次に、上記のような処理の一例として、本実施形態で想定するゲームおよび当該ゲームにおいて実行される処理の概要を説明する。本実施形態で想定するゲームは、仮想3次元空間を舞台としたアクションアドベンチャーゲームである。図8は、本ゲームの画面の一例である。図8では、いわゆる3人称視点で描画された仮想3次元空間とプレイヤオブジェクト101がゲーム画面として表示されている。また、本ゲームにおいては、プレイヤオブジェクト101は武器(以下、メインウェポン)を用いて、図示しない敵オブジェクトと戦うことができる。その他、プレイヤオブジェクト101は、サブウェポンやアイテムを用いることが可能となっている。これらサブウェポンやアイテムは複数用意されており、プレイヤは適宜これらを使い分けてゲームを進めていく。そして、本実施形態で説明する処理は、このサブウェポンやアイテムを選択するときの操作に関する処理である。
なお、ゲーム画面の右上隅付近には、装備内容アイコン102が表示されている。当該装備内容アイコン102は、現在装備中のサブウェポンまたはアイテムを示すためのアイコンであり、何も装備していないときは、図8に示すように、空白状態となっている。
次に、上記サブウェポンやアイテムを選択するときの操作と画面について具体的に説明する。まず、上記図8のような画面において、プレイヤが入力装置8のBボタン32iを押すと、図9に示すようなサブウェポン・アイテム選択画面(以下、単にアイテム選択画面と呼ぶ)が表示される。図9では、8つの画像が円環状に配置された画面が表示されている。これら8つの画像はそれぞれサブウェポンあるいはアイテムの内容を示す画像である。以下では、これらの画像のことを総称して「アイテムアイコン」105と呼ぶ。本実施形態では、一番上に「爆弾」を示すアイテムアイコン105aが表示されており、以下、時計回りに、「壺」「ブーメラン」「フック」「パチンコ」「竪琴」「虫眼鏡」「弓矢」を示すアイテムアイコン105b〜105hが表示されている。また、画面の略中央には、中央アイコン103が表示されている。このアイコンは、Bボタン32iが押されていることを示すアイコンである。そして、この中央アイコン103から左上方向に伸びた紐状のオブジェクトで接続されている指示アイコン104も表示されている。更に、画面中央を中心としたような円106も表示されている。当該指示アイコンは、入力装置8の姿勢に応じてその表示位置が変化する。例えば、プレイヤが入力装置を動かした結果、入力装置8の先端が右上を向くような姿勢になれば(つまり、プレイヤが入力装置8の先端を右上に向ければ)、指示アイコン104は、中央アイコン103の右上方向の所定の位置に移動して表示される(表示位置の詳細については後述する)。
そして、当該指示アイコン104を何れかのアイテムアイコン105に重ねることでアイテムを選択することができる。例えば、図9の状態において、アイテムアイコン105hを選択する操作を例とすると、まず、プレイヤが、入力装置8の先端(撮像情報演算部35がある側)を左上に向けるような操作を行う(つまり、入力装置8の姿勢を変化させる)。これに伴い、指示アイコン104が左上方向に移動していき、図10に示すように、円106の外周付近の位置に到達する。すると、図11に示すように、指示アイコン104がアイテムアイコン105hに吸着するように自動的に移動し、アイテムアイコン105hが拡大表示される。これにより、アイテムアイコン105hが選択された状態となる。また、図11では、円106よりも一回り程大きな円107が表示されている。当該円107は、アイテムアイコン105が選択状態のときにのみ表示される。
この状態でプレイヤがBボタン32iから指を離せば、アイテムアイコン105hで示されるサブウェポン、ここではパチンコをプレイヤオブジェクト101が装備した状態となり、図12に示すように、パチンコを構えたプレイヤオブジェクト101が表示される。また、このとき、装備内容アイコン102には、パチンコの画像が表示されており、サブウェポンとしてパチンコを装備していることが示されている。更に、画面には、照準オブジェクト108がプレイヤオブジェクト101の正面方向に表示されている。プレイヤは、Bボタン32iから指を離して、そのままAボタンを押すことで、プレイヤオブジェクト101にパチンコから照準オブジェクト108の方向に向けて弾を撃たせることが可能となっている。つまり、Bボタンから指を離した後、入力装置8の姿勢は特に変更せずに(構え直すことなく)、入力装置8の先端が左上を向いたままの姿勢で、例えばAボタン32dを押せば、プレイヤオブジェクト101の正面方向にパチンコの弾を撃つことが可能である。その結果、アイテムの選択からその後のアイテム使用までの一連の操作に関し、スピーディーな操作が可能となっている。
ここで、上記アイテム選択状態中における操作について説明すると、上記図11で示したような、アイテムアイコン105hが選択されている状態(入力装置の先端が左上を向いた姿勢の状態)から、例えば、右隣にあるアイテムアイコン105aを選択する操作を想定する。この場合は、入力装置8の先端を上に向けるような操作を行えば、図13に示すように、指示アイコン104が右上方向に移動し、アイテムアイコン105aが選択された状態となる。
また、上記図11の状態から、アイテムアイコン105cを選ぶ場合を想定する。この場合は、入力装置8の先端を右に向けるような操作を行うことで、図14に示すように、指示アイコン104をアイテムアイコン105cの位置に移動することができる。つまり、指示アイコン104が時計回りで順番にアイテムアイコン105h〜105b移動してからアイテムアイコン105cが選択されるという動きではなく、アイテムアイコン105hの位置からダイレクトにアイテムアイコン105cを選択することが可能となっている。これにより、直感的でスピーディーな選択操作が可能となっている。
また、いずれかのアイテムアイコンの選択状態において、入力装置8の先端を画面中央に向けるような操作を行うことで、選択状態を解除することも可能である。換言すれば、アイテムアイコンの選択状態から、入力装置の姿勢を上記基準姿勢に戻す(基準姿勢にある程度近づけた場合も含む)ことで、選択状態を解除することが可能である。
次に、本実施形態で実行される、上記のような動作を行うための処理の概要を説明する。上記のような動作を実現するために、本実施形態では、まず、「基準姿勢」と呼ばれる姿勢を設定する。この基準姿勢は、本実施形態では、入力装置8の先端をテレビ2の中心方向に向け、上記ボタン面を上に向けたような姿勢として設定している。ここで、本実施形態では、入力装置8の姿勢を、図15に示すように、入力装置8の先端方向をZ軸正方向、上記ボタン面の方向をY軸正方向とし、左側面方向をX軸正方向としたローカル座標系での3軸のベクトルで捉えている。但し、以下の説明では、説明を判りやすくするため、入力装置8の姿勢については、図15のZ軸方向の矢印のみで示す。その結果、上記基準姿勢は、図16に示すようなZ軸の矢印で示される。
上記のように、入力装置8の先端がテレビ2の中心方向に向いた姿勢を基準姿勢として設定したうえで、以下のような処理を行うことで、アイテムの選択処理が実行される。以下に説明するような本実施形態の処理は、基本的に1フレーム単位(1/60秒)で繰り返し実行される。まず、ジャイロセンサユニット7から得られる角速度に基づいて、各フレームにおける入力装置8の姿勢が「現在姿勢」として算出される。そして、上記基準姿勢に対する当該現在姿勢の角度が算出される。例えば、基準姿勢に対して、右下方向に入力装置8を傾けたような場合は、図17に示すような関係となる。図17(A)は、基準姿勢と現在姿勢の関係を示す斜視図である。図17(B)は、図17(A)における基準姿勢を真上、真横、真後ろから見た状態を模式的に示す図である。図17(C)は、図17(A)における現在姿勢を真上、真横、真後ろから見た状態を模式的に示す図である。図17で示されるように、現在姿勢の角度は、基準姿勢を示す矢印と現在姿勢を示す矢印との成す角度で示される。換言すれば、この角度は、X軸方向の変化とY軸方向の変化を合成した角度で示される。
現在姿勢の角度が算出されれば、更に、現在姿勢の方向が算出される。当該「現在姿勢の方向」とは、基準姿勢方向に垂直な平面(本実施形態ではテレビ2の画面に相当)に対する現在姿勢の方向のことである。そして、上記角度と方向に基づいて、アイテムアイコン105の何れかが選択される。
ここで、上記アイテムアイコン105の選択に際しての、上記現在姿勢の角度の扱いについて説明する。本実施形態では、上記図9等で示したような円106が選択画面に表示されているが、この円106の中心が上記算出される現在姿勢の角度の0度に対応し、外周の部分は、現在姿勢の角度の12度に対応している(図18参照)。つまり、入力装置8が基準姿勢と一致している場合は、現在姿勢の角度は0度となり、入力装置8を基準姿勢から12度傾けた場合は、入力装置8の先端は上記円106の外周のいずれかを指す方向に向いていることになる。そして、本実施形態では、この角度が12度以上となったときに、以下に説明する現在姿勢の方向に基づいて、いずれかのアイテムアイコン105が選択される。
次に、現在姿勢の方向の扱いについて説明する。現在姿勢の方向の算出については、図19に示すように、現在姿勢(図19(A))を画面に射影したベクトル(図19(B))を算出することで、現在姿勢の方向(図19(C))が算出される。
ここで、本実施形態では、選択画面におけるアイテムアイコン105の配置位置と現在姿勢の方向とを対応付けたアイテム選択判定用のテーブルが予め定義されている。図20は、当該アイテム選択判定用テーブルを模式的に示した図である。図20では、画面の中心を中心点とした円形の領域が定義されており、アイテムアイコン105の数(8個)に応じて、8つの領域に分けられている。これは、換言すれば、画面の中心点を起点として8つの方向に分けられていることになり、上記8個のアイテムアイコン105がそれぞれ、当該8方向のいずれかに関連付けられていることになる。そして、上記のように現在姿勢の方向が算出されれば、当該判定用テーブルに基づいて、現在姿勢の方向に関連づけられているアイテムアイコン105が選択されることになる。つまり、本実施形態では、入力装置の姿勢が、基準姿勢に対して12度以上傾いたことが検出されたときに、そのときの入力装置8の方向に応じたアイテムアイコン105が選択される。
また、アイテムアイコン105が選択された状態から、現在姿勢の角度が7度未満になった場合は、選択状態が解除される。つまり、アイテム選択中の状態から、入力装置の姿勢が基準姿勢にある程度近づけば、選択状態が解除される。
また、本実施形態では、プレイヤに現在の操作内容を判りやすく伝えるために、上述したような指示アイコン104を表示している。当該指示アイコンの表示位置の決定処理の概要について説明する。まず、上記図18で示したように、上記円106と上記入力装置の角度との対応付けを行っておく。具体的には、円106の半径について、その中心が現在角度の0度に相当し、外周が現在姿勢の角度の12度に相当するような対応付けを予め定義する(なお、現在姿勢の角度が12度以上に変化したときは、すべて12度として扱う)。以下では、当該円106を第1スケール円106、あるいは、単に第1スケールと呼ぶこともある。このような対応付けを行っておくことで、上記算出された現在姿勢の角度に対応する円106の中心からの距離(半径上の位置)が算出されることになる。そして、当該中心からの距離と上記現在姿勢の方向に基づいて、指示アイコン104の表示位置が決定される。
ここで、上記図11で示したような、指示アイコン104がアイテムアイコン105に吸着するような動作を実行するため、本実施形態では、以下のような処理も行われる。上記のように、現在姿勢の角度が12度以上になったときにアイテムアイコンの選択が行われるが、当該角度が12度以上になるまでは、指示アイコン104の表示位置を決めるために第1スケール円106を用いていた。一方、現在姿勢の角度が12度以上になれば、指示アイコン104の表示位置を決めるために、第1スケール円106よりも半径が大きな上記円107を用いる。以下では、円107を第2スケール円と呼ぶこともある。図21は、第1スケール円106と第2スケール円107の関係を示す図である。図21に示すように、当該第2スケール円107も、その中心が現在姿勢の角度の0度、外周が現在姿勢の角度の12度になるような対応付けられている。但し、第1スケール円106よりも半径が大きいため、例えば、現在姿勢の角度が12度であるとき、第1スケール円106と第2スケール円107のいずれを適用するかによって、指示アイコン104の表示位置が異なってくることになる(なお、本実施形態では、第2スケール円の外周が各アイテムアイコン105の中点を通るような半径が第2スケール円の半径として設定されている)。つまり、現在姿勢の角度が12度の場合、第2スケール円107を適用した場合の方が、第1スケール円106を適用したときよりも外側に指示アイコン104が表示されることになる。そのため、本実施形態では、アイテムアイコン105が未選択の状態において、現在姿勢の角度が12度を越えるまでは第1スケール円106を用いて指示アイコンの表示位置を決定し、現在姿勢の角度が12度を越え、何れかのアイテムアイコン105が選択されるときは、第2スケール円107に切り替えて指示アイコンの表示位置を決定する。その結果、上記図10および図11で示したように、円106の外周に指示アイコン104が来たとき、アイテムアイコン105に吸着するような動作が描写されることになる。
次に、いずれかのアイテムアイコン105が選択されている状態における指示アイコン104の動作処理の概要に関して説明する。具体的には、いずれかのアイテムアイコン選択中において、隣接するアイテムアイコン105間に指示アイコン104が移動されたときの処理概要を説明する。例えば、上記図13で示したような、アイテムアイコン105aが選択されている状態で、指示アイコンを右隣のアイテムアイコン105bに向けて移動させる場合を想定して説明する。
まず、各アイテムアイコン105には、各アイテムアイコンの中点と画面の中央と結ぶ中心線を基準として、左右方向に所定の角度が設定されている。例えば、アイテムアイコン105aを例にすると、図22に示すように、画面の中央とアイテムアイコン105aの中点を結ぶ中心線を基準に、左右方向にそれぞれ所定の角度110が設定されている。また、この左右それぞれ角度110を合わせた扇形の領域は、上記図20で示したようなアイテム選択判定用テーブルでの各領域(図22においては点線で示される領域)よりも広い領域となるように、当該角度が設定されている(以下では、当該左右の角度110を合わせた領域のことをアイテム選択中領域と呼ぶこともある)。そして、アイテムアイコン105aが選択されている状態では、指示アイコン104の位置がこのアイテム選択中領域内(角度110で示される範囲内)にある限り、アイテムアイコン105aの選択状態が継続する。
その結果、上述したようなアイテム選択判定用テーブルを基準に考えるとアイテムアイコン105bが選択されるような位置に、指示アイコン104が位置しているような場合でも(例えば、図22の位置111)、アイテムアイコン105bは選択されずに、アイテムアイコン105aが選択されている状態が継続する。そして、アイテムアイコン105aの選択中においては、この角度110の範囲の外に位置したときに初めて、アイテムアイコンaの選択が解除され、改めてアイテム選択判定用テーブルを基準にして、アイテムアイコン105の選択判定が行われる。また、上記のようにアイテムアイコン105bや105h等にも同様の角度設定が行われている。これはつまり、隣接アイコン間で当該角度による範囲の重複部分が存在することになるが、この重複部分においては、それまで選択されていたアイテムアイコン105の選択状態が優先される(選択解除されにくくなる)ことになる。このような処理を行うことで、隣接するアイテムアイコン105の境界部分で、指示アイコン104が小刻みに両アイコンの間を行ったり来たりするような動作を防ぐ事ができる。
次に、ゲーム装置3によって実行されるゲーム処理の詳細を説明する。まず、ゲーム処理の際に外部メインメモリ12に記憶されるデータについて説明する。図23は、図3に示した外部メインメモリ12(ただし、内部メインメモリ11eでもよいし、両方を使用するようにしてもよい)のメモリマップを示す図である。図23において、外部メインメモリ12は、プログラム記憶領域121、データ記憶領域124、作業領域132を含む。プログラム記憶領域121およびデータ記憶領域124のデータは、ディスク4に予め記憶されたものが、本実施形態にかかるゲーム処理に際して外部メインメモリ12にコピーされたものである。
なお、これらのプログラムおよびデータは、上記ディスク4の他、カートリッジ型ROMやメモリカード、ハードディスク等の記録媒体で提供されても良いし、有線ネットワークや無線ネットワークを介して所定のサーバやゲーム装置等からダウンロードすることで提供されてもよい(つまり、ダウンロードしたプログラムやデータを外部メインメモリ12に記憶する形態でもよい)。
プログラム記憶領域121は、CPU10によって実行されるゲームプログラム122を記憶し、このゲームプログラム122には、アイテム選択処理プログラム123などによって構成される。当該アイテム選択処理プログラム123は、上述したようなアイテム選択処理を実行するためのプログラムである。
データ記憶領域124には、オブジェクトデータ125、画像データ126、サブウェポン・アイテムデータ127、アイテム選択判定用テーブルデータ128、アイテム選択中領域定義データ129、第1スケール定義データ130、第2スケール定義データ131などのデータが記憶される。
オブジェクトデータ125は、上記プレイヤオブジェクト101等の、ゲーム中に登場する各種オブジェクトのデータ(ポリゴンモデルデータ等)である。画像データ126は、上記オブジェクトに貼り付けるテクスチャ等のデータである。
サブウェポン・アイテムデータ127は、上述したようなサブウェポンやアイテムの内容(その動作や効力等)について定義したデータである。また、上記各アイテムアイコン105との対応付けを示すデータも含まれている。
アイテム選択判定用テーブルデータ128は、上記図20で示したような内容を示すテーブルのデータである。すなわち、画面上に配置される各アイテムアイコン105と入力装置8の姿勢(現在姿勢の方向)との対応付けを定義したデータである。
アイテム選択中領域定義データ129は、上記図22を用いて説明したような、いずれかのアイテムアイコン105が選択されている状態において、当該アイテムアイコン105が選択中であると判定するための範囲(上記図22の角度110によって示される範囲)を定義したデータである。
第1スケール定義データ130は、図18を用いて上述したような第1スケール円106に相当するデータである。また、第2スケール定義データ131は、図21を用いて上述したような第2スケール円107に相当するデータである。すなわち、双方とも、入力装置8の現在角度と画面上の位置(指示アイコン104の表示位置)との対応付けを定義したデータである。
作業領域132には、ゲーム処理中に一時的に生成され用いられる各種データが記憶される。具体的には、操作データ133、基準姿勢データ138、現在姿勢データ139、フォーカスフラグ142、選択アイテムデータ143等が記憶される。
操作データ133は、入力装置8からゲーム装置3へ送信されてくる操作データである。上述したように、入力装置8からゲーム装置3へ1/200秒に1回の割合で操作データが送信されるので、外部メインメモリ12に記憶される操作データ133はこの割合で更新される。本実施形態においては、外部メインメモリ12には、最新の(最後に取得された)操作データのみが記憶されればよい。
操作データ133には、角速度データ134、加速度データ135、マーカ座標データ136、および操作ボタンデータ137が含まれる。角速度データ134は、ジャイロセンサユニット7のジャイロセンサ55および56によって検出された角速度を示すデータである。ここでは、角速度データ134は、図3に示すXYZの3軸回りのそれぞれの角速度を示す。また、加速度データ135は、加速度センサ37によって検出された加速度(加速度ベクトル)を示すデータである。ここでは、加速度データ135は、図3に示すXYZの3軸の方向に関する加速度を各成分とする3次元の加速度ベクトルを示す。
マーカ座標データ136は、撮像情報演算部35の画像処理回路41によって算出される座標、すなわち上記マーカ座標を示すデータである。マーカ座標は、撮像画像に対応する平面上の位置を表すための2次元座標系で表現される。なお、撮像素子40によって2つのマーカ6Rおよび6Lが撮像される場合には、2つのマーカ座標が算出される。一方、撮像素子40の撮像可能な範囲内にマーカ6Rおよび6Lのいずれか一方が位置しない場合には、撮像素子40によって1つのマーカのみが撮像され、1つのマーカ座標のみが算出される。また、撮像素子40の撮像可能な範囲内にマーカ6Rおよび6Lの両方が位置しない場合には、撮像素子40によってマーカが撮像されず、マーカ座標は算出されない。したがって、マーカ座標データ136は、2つのマーカ座標を示す場合もあるし、1つのマーカ座標を示す場合もあるし、マーカ座標がないことを示す場合もある。
操作ボタンデータ137は、各操作ボタン32a〜32iに対する入力状態を示すデータである。
基準姿勢データ138は、上述したような基準姿勢を示すデータである。
現在姿勢データ139は、上述したような現在姿勢を示すデータであり、現在角度データ140、現在方向データ141を含む。現在角度データ140は、基準姿勢に対する現在姿勢の角度を示すデータである。現在方向データ141は、基準姿勢方向に垂直な平面(本実施形態ではテレビ2の画面に相当)に対する現在姿勢の方向を示すデータである。
フォーカスフラグ142は、何れかのアイテムアイコン105が選択されている状態か否かを示すフラグである。当該フラグがオフであれば、アイテムアイコン105は選択されていない状態であり、当該フラグがオンであれば、何れかのアイテムアイコン105が選択されている状態であることを示す。
選択アイテムデータ143は、現在選択中のアイテムあるいはサブウェポンを示すデータである。
次に、図24〜図27を参照して、ゲーム装置3によって実行されるアイテム選択処理の詳細について説明する。ゲーム装置3の電源が投入されると、ゲーム装置3のCPU10は、ROM/RTC13に記憶されている起動プログラムを実行し、これによって外部メインメモリ12等の各ユニットが初期化される。そして、光ディスク4に記憶されたゲームプログラムが外部メインメモリ12に読み込まれ、CPU10によって当該ゲームプログラムの実行が開始される。図24におけるフローチャートは、上述したようなサブウェポンやアイテムを選択するときにおけるゲーム処理を示す。つまり、ゲーム開始後、アイテム選択のための操作が行われると、図24に示すフローチャートの処理が実行される。なお、本実施形態においては、サブウェポン・アイテムの選択操作以外の状況におけるゲーム処理は本発明と直接関連しないので説明を省略する。また、図24に示すステップS3〜ステップS7の処理ループは、1フレーム毎に繰り返し実行される。
図24において、まず、ステップS1において、操作ボタンデータ137が参照されて、アイテム選択ボタンがオンになったか否かが判定される。具体的には、Bボタン32iが押下されたか否かが判定される。当該判定の結果、アイテム選択ボタンがオンではないと判定されたときは(ステップS1でNO)、本処理は終了する。
一方、アイテム選択ボタンがオンであると判定されたときは(ステップS1でYES)、次に、ステップS2において、アイテム選択処理にかかる初期設定が実行される。このステップS2の処理をより具体的に説明すると、まず、CPU10は、フォーカスフラグ142にオフを設定する。更に、CPU10は、選択アイテムデータ143にNULL値(アイテム・サブウェポンが選択されていないことを示す値)を設定する。更に、上記図9で示したようなアイテム選択画面を生成し、表示する処理が実行される。
次に、ステップS3において、姿勢方向算出処理が実行される。当該処理は、入力装置の現在姿勢を算出するための処理である。図25は、上記ステップS3で示した姿勢方向算出処理の詳細を示すフローチャートである。まず、ステップS21において、基準姿勢が算出され、基準姿勢データ138に設定される。ここでは、図16等を用いて上述したような、入力装置8の先端がテレビ2の中心方向に向き、ボタン面が上に向いた姿勢が算出されて、基準姿勢データ138に設定される。
次に、ステップS22において、ジャイロセンサユニット7から角速度データ134が取得される。続くステップS23において、当該角速度データ134に基づいて入力装置の現在姿勢が算出される。更に、ステップS24において、上記ステップS21で設定された基準姿勢に対する現在姿勢の角度が算出される。
次に、ステップS25において、上記図19を用いて説明したような、現在姿勢の方向が算出され、現在方向データ141に記憶される。
次に、ステップS26において、現在姿勢の角度を0度〜12度の範囲に収めるように、現在姿勢の角度の正規化が行われる。具体的には、現在姿勢の角度が12度以上の場合は、一律に12度として、現在角度データ140に記憶する。以上で、姿勢方向算出処理は終了する。
図24に戻り、姿勢方向算出処理の次に、ステップS4において、フォーカスフラグ142がオフであるか否かが判定される。すなわち、いずれかのアイテムアイコンが選択されている状態か否かが判定される。当該判定の結果、フォーカスフラグ142がオフであると判定されたときは(ステップS4でYES)、ステップS5において、非フォーカス処理が実行される。
図26は、上記ステップS5で示した非フォーカス処理の詳細を示すフローチャートである。まず、ステップS41において、現在角度データ140が参照され、現在角度が12度以上か否かが判定される。当該判定の結果、12度以上ではないと判定されたときは(ステップS41でNO)、ステップS44において、上記第1スケール定義データ130を用いて、指示アイコン104の表示位置が決定され、当該決定された位置に指示アイコン104が表示される。そして、非フォーカス処理が終了する。
なお、本実施形態では、第1スケール定義データ130を用いているが、これに限らず、このような第1スケールに相当する内容の関数を利用して指示アイコン104の表示位置を算出してもよい。
一方、上記ステップS41の判定の結果、現在角度が12度以上と判定されたときは(ステップS41でYES)、次に、ステップS42において、フォーカスフラグ142がオンに設定される。続いて、ステップS43において、後述するフォーカス処理が実行され、非フォーカス処理が終了する。
図24に戻り、非フォーカス処理が終われば、後述するステップS7の処理に進む。一方、上記ステップS4の判定の結果、フォーカスフラグ142がオフではないと判定されたときは(ステップS4でNO)、現在いずれかのアイテムアイコン105が選択されている状態であるため、ステップS6において、フォーカス処理が実行される。
図27は、上記ステップS6で示したフォーカス処理の詳細を示すフローチャートである。まず、ステップS61において、現在角度が7度未満か否かが判定される。その結果、現在角度が7度未満と判定されたときは(ステップS61でYES)、アイテムアイコン105を選択しているときの姿勢から、ある程度上記基準姿勢に近づいた姿勢に変化したと考えられる。そのため、この場合は、いずれかのアイテムアイコン105の選択中状態から非選択状態とするための処理(選択解除のための処理)が実行される。具体的には、まず、ステップS62において、フォーカスフラグ142にオフが設定される。次に、ステップS63において、選択アイテムデータ143にNULL値が設定される。
続くステップS64において、上述したような非フォーカス処理が実行される(その結果、上記第1スケールを用いて、指示アイコン104の表示位置が決定されることになる)。そして、当該フォーカス処理は終了する。
一方、上記ステップS61の判定の結果、現在角度が7度未満ではないと判定されたときは(ステップS61でNO)、次に、ステップS65において、上記第2スケール定義データ131を用いて指示アイコン104の表示位置が決定され、当該決定された位置に指示アイコン104が表示される。
次に、ステップS66において、選択アイテムデータ143がNULL値か否かが判定される。つまり、アイテムアイコン105の非選択状態から選択状態に切り替わったのか、前フレームから引き続いて選択状態が継続しているのかが判定される。当該判定の結果、選択アイテムデータ143がNULL値と判定されたときは(ステップS66でYES)、ステップS67において、上記アイテム選択判定用テーブルデータ128が参照され、現在方向に対応したアイテムアイコン105が選択される。更に、当該アイテムアイコン105に対応するサブウェポンあるいはアイテムを示すデータが選択アイテムデータ143に記憶される。
続くステップS68において、当該選択されたアイテムアイコン105のサイズを拡大することで、選択アイテムの強調表示が行われる。また、このとき、選択アイテム以外のアイテムアイコン105が強調表示されていた場合は、その強調表示を解除して元の状態に戻す。そして、フォーカス処理は終了する。
一方、上記ステップS66の判定の結果、選択アイテムデータ143がNULL値ではない判定されたときは(ステップS66でNO)、アイテムアイコン105の選択状態が前フレームから継続していることになるため、次に、ステップS69において、アイテム選択中領域定義データ129が参照され、現在選択中のアイテムアイコン105に設定されている所定の角度の範囲内に、上記指示アイコン104の表示位置が含まれているか否かが判定される。つまり、図22を用いて上述したように、隣接するアイテムアイコン105間における指示アイコンの移動とそれに伴う選択解除の有無の判定が行われる。当該判定の結果、現在選択中のアイテムアイコン105に設定されている所定の角度の範囲内に上記指示アイコン104の表示位置が含まれていると判定されたときは(ステップS69でYES)、そのままフォーカス処理は終了する(つまり、選択状態のアイテムアイコン105に変化はない)。
一方、現在選択中のアイテムアイコン105に設定されている所定の角度の範囲内に上記指示アイコン104の表示位置が含まれていないと判定されたときは(ステップS69でNO)、上記ステップS67に処理が進められる。その結果、現在選択されているアイテムアイコン105の選択状態が解除され、隣接しているアイテムアイコン105が新たに選択されることになる。以上で、フォーカス処理は終了する。
図24に戻り、非フォーカス処理、あるいはフォーカス処理が終われば、続くステップS7において、アイテム選択ボタンがオンであるか否かが判定される。当該判定の結果、アイテム選択ボタンがオンであると判定されたときは(ステップS7でYES)、上記ステップS3に戻り処理が繰り返される。つまり、Bボタン32iが押下され続けている間は、上記アイテム選択画面が表示され続けて、アイテムの選択操作が可能な状態が継続する。一方、アイテム選択ボタンがオンではないと判定されたときは(ステップS7でNO)、次に、ステップS8において、選択アイテムデータ143にNULL値が設定されているか否かが判定される。その結果、選択アイテムデータ143にNULL値が設定されていると判定されたときは(ステップS8でYES)、サブウェポンやアイテムが選択されなかったこととなるため、アイテム選択処理はこれで終了する。
一方、選択アイテムデータ143にNULL値が設定されていないと判定されたときは(ステップS8でNO)、次に、ステップS9において、選択アイテムデータ143が参照され、選択されたアイテムあるいはサブウェポンをプレイヤオブジェクト101に装備させる処理が実行される。つまり、選択内容が確定されることになる。また、このとき、選択されたアイテムあるいはサブウェポンを示す画像を上記装備内容アイコン102内に表示するための処理も実行される。
次に、ステップS10において、現在姿勢を基準姿勢として設定する処理が実行される。これは、このアイテム選択処理が終了した後、すぐにサブウェポンやアイテムが使用できるようにするための準備として実行される処理である。例えば、サブウェポンとしてパチンコを選択したようなとき、Bボタン32iから指を離したときに、入力装置8を構えなおさずにそのままAボタンを押せばプレイヤから見て正面方向に弾を撃てるようにするための処理である。アイテム選択処理終了時の入力装置の姿勢を基準姿勢として設定すれば、このときの姿勢が、入力装置8の先端をテレビの中心方向に向けているとみなされる。その結果、入力装置8を構えなおさずとも(入力装置の先端をテレビの中心方向に向け直さずとも)、そのままAボタンを押せばプレイヤから見て正面方向に弾を撃つことが可能となる。以上で、本実施形態にかかるアイテム選択処理は終了する。
このように、本実施形態では、入力装置8の姿勢に応じて、画面上に表示されている所定のオブジェクト(本実施形態ではアイテムアイコン105)の選択を可能としている。これにより、直感的でスピーディーな選択操作が可能となる。例えば、左上のアイテムアイコン105hを選択している状態から、右下のアイテムアイコン105dを選択しようとするとき、時計回りに指示アイコン104を移動させずとも、ダイレクトに(直線的に)右下のアイテムアイコン105dを選択することが可能である。
また、円環状に配置されているアイテムアイコン105の配置位置と、それぞれの選択に要する入力装置8の姿勢とが一致するように対応付けている(例えば、上に配置されているアイテムアイコン105aを選択するときは、入力装置8の先端を上に向ける姿勢にする)。そのため、より直感的に選択することが可能である。
また、上記のように、入力装置8の姿勢とアイテムアイコン105とを対応付けて、アイテムアイコン105の選択を可能としている。そのため、例えば、十字キー等の物理的なキーの押下方向と上記アイテムアイコン105とを対応付けて選択するような場合に比べ、選択可能なアイテムアイコン105の数の制限を受けないという利点がある。物理的なキーとアイテムアイコン105とを対応付ける場合は、そのキーの数が、選択画面に表示されるアイテムアイコン105の数の上限となるためである。
また、入力装置8の姿勢に応じて上記指示アイコン104を表示するようにしているため、入力装置の姿勢状態をプレイヤに把握させやすくすることも可能となっている。
また、選択内容の確定時(選択操作終了時)の姿勢を基準姿勢として、その後に実行される選択アイテムを使用する処理で当該基準姿勢を利用できるようにしている。これにより、選択後の操作に関しても、入力装置8を構え直す等の操作を不要とすることができ、スピーディーな操作が可能となる。
なお、アイテムアイコン105が選択されたときに、入力装置8を振動させるようにしてもよい。この場合は、例えば、上記図26のステップS42の処理においてフォーカスフラグ142がオンに設定されたときに、バイブレータ48を動作させるような制御を行えばよい。これにより、アイテムアイコン105が選択されたことをプレイヤに判りやすく伝えることが可能となる。
また、上述の実施形態では、入力装置8の姿勢算出にジャイロセンサユニット7から出力された角速度データを利用していた。この他、例えば、加速度センサ37から出力される加速度データを用いて入力装置8の姿勢を算出してもよい。また、その他、例えば、重力方向に対して入力装置8の傾き(以下、単に「傾き」と言う)に応じたデータを出力するセンサ(傾きセンサ)、入力装置8の方位に応じたデータを出力するセンサ(磁気センサ)等から出力されるデータを用いることができる。また、加速度センサおよびジャイロセンサは多軸検出可能なものだけなく1軸検出のものでもよい。また、これらのセンサを組み合わせて、より正確な検出を行うものであってもかまわない。なお、入力装置8に固定されたカメラ(例えば、撮像情報演算部35)を、上記センサとして利用することも可能である。この場合、入力装置8の動きに応じてカメラが撮像する撮像画像が変化するので、この画像を解析することにより、入力装置8の動きを判断することができる。また、上記センサは、その種類によっては、入力装置8の外部に別設されてもよい。一例として、センサとしてのカメラで入力装置8の外部から入力装置8全体を撮影し、撮像画像内に撮像された入力装置8の画像を解析することにより、入力装置8の動きを判断することが可能である。さらに、入力装置8に固設されたユニットと入力装置8外部に別設されたユニットとの協働によるシステムを用いてもよい。この例としては、入力装置8外部に発光ユニットを別設し、例えばテレビ2やゲーム装置3に固設されたカメラで発光ユニットからの光を撮影する。このカメラで撮像された撮像画像を解析することにより、入力装置8の動きを判断するようにしてもよい。
また、上記実施形態では、選択操作終了時の姿勢を、その後に行われる選択アイテムの使用処理における基準姿勢とするための処理を行っていたが、必ずしもこのような処理を行わずとも良い。つまり、ゲーム内容に応じて、選択操作終了時の姿勢をその次の処理における基準姿勢として利用してもよいし、利用しなくても良い。但し、上記のように、選択操作終了時の姿勢をその後の処理における基準姿勢として利用できるようにすれば、入力装置8を持ち直す等の手間を省くことができる点で有利である。
更には、アイテムアイコン105の画面上の配置に関して、上記実施形態では、円環状に配置した例を示したが、これに限らず、他の状態で配置しても良い。つまり、入力装置8で所定の姿勢を取れば、画面に表示されている所定のオブジェクトが選択できれば、円環状の配置に限らず、例えば、三角形状や長方形状に配置してもよいし、画面の四隅に配置したり、画面の外周に沿って配置するようにしてもよい。
また、上記実施形態では、アイテムアイコン105の形状が四角形の場合を例としたが、これに限らず、その形状を円形等にした場合でも本発明は適用可能である。
また、上記実施形態では、図19を用いて上述したように、現在姿勢を画面に射影したベクトルを算出して現在姿勢の方向を算出していた。ここで、当該ベクトルは、画面に対する入力装置の傾き方向とともに、そのベクトルの大きさが入力装置の傾き量を示すという側面もある。そのため、当該射影したベクトルの向きおよび大きさに基づいて指示位置を算出するようにしてもよい。そして、当該指示位置に基づいてアイテムアイコン105の選択判定を行うようにしても良い。
また、アイテムアイコン105の選択に関して、例えば、入力装置8の傾きから画面上の指示位置を算出し、この指示位置に基づいてアイテムアイコン105の選択判定を行うようにしても良い。この場合は、例えば、以下のような処理が考えられる。まず、表示画面上の中心点を原点として設定する。また、入力装置から画面までの距離として、所定の距離を固定値として予め設定する。次に、入力装置8の傾きを上記角速度データ等に基づいて算出する。次に、上記所定の距離と当該算出された傾きとに基づいて、表示画面上の指示位置を算出する。そして、当該指示位置に基づき、アイテムアイコン105を選択するようにしてもよい。
また、上記実施形態においては、入力装置8の姿勢に基づいてアイテムアイコン105を選択するための一連の処理が単一の装置(ゲーム装置3)において実行される場合を説明したが、他の実施形態においては、上記一連の処理が複数の情報処理装置からなる情報処理システムにおいて実行されてもよい。例えば、端末側装置と、当該端末側装置とネットワークを介して通信可能なサーバ側装置とを含む情報処理システムにおいて、上記一連の処理のうちの一部の処理がサーバ側装置によって実行されてもよい。さらには、端末側装置と、当該端末側装置とネットワークを介して通信可能なサーバ側装置とを含む情報処理システムにおいて、上記一連の処理のうちの主要な処理がサーバ側装置によって実行され、当該端末側装置では一部の処理が実行されてもよい。また、上記情報処理システムにおいて、サーバ側のシステムは、複数の情報処理装置によって構成され、サーバ側で実行するべき処理を複数の情報処理装置が分担して実行してもよい。
本発明にかかる情報処理プログラム、情報処理装置、情報処理方法および情報処理システムは、所定のオブジェクトの選択に際して、より直感的な操作が可能であり、各種ゲーム装置やパーソナルコンピュータ、電化製品等、選択操作が必要となる各種情報処理装置に有用である。
1…ゲームシステム
2…モニタ
2a…スピーカ
3…ゲーム装置
4…光ディスク
5…コントローラ
7…ジャイロセンサユニット
8…入力装置
10…CPU
11…システムLSI
11a…入出力プロセッサ
11b…GPU
11c…DSP
11d…VRAM
11e…内部メインメモリ
12…外部メインメモリ
13…ROM/RTC
14…ディスクドライブ
15…AV−IC
16…AVコネクタ
17…フラッシュメモリ
18…無線通信モジュール
19…無線コントローラモジュール
20…拡張コネクタ
21…外部メモリカード用コネクタ
22…アンテナ
23…アンテナ
24…電源ボタン
25…リセットボタン
26…イジェクトボタン
30…基板
31…ハウジング
32…操作部
33…コネクタ
34…LED
35…撮像情報演算部
36…通信部
37…加速度センサ
38…赤外線フィルタ
39…レンズ
40…撮像素子
41…画像処理回路
42…マイコン
43…メモリ
44…無線モジュール
45…アンテナ
48…バイブレータ
49…スピーカ
53…プラグ
54…マイコン
55…2軸ジャイロセンサ
56…1軸ジャイロセンサ

Claims (24)

  1. 入力装置の姿勢または動きを検出する姿勢・動きセンサから取得する姿勢・動きデータに基づいた所定の情報処理を行う情報処理装置のコンピュータで実行される情報処理プログラムであって、
    複数の選択対象オブジェクトのそれぞれと前記入力装置の姿勢との対応付けを示す対応関係データを記憶する対応関係データ記憶手段と、
    前記複数の選択対象オブジェクトを表示装置に表示するオブジェクト表示手段と、
    前記姿勢・動きデータを取得するデータ取得手段と、
    前記データ取得手段で取得した姿勢・動きデータに基づいて前記入力装置の姿勢である入力姿勢を算出する入力姿勢算出手段と、
    前記入力姿勢算出手段で算出された前記入力姿勢と前記対応関係データとに基づいて前記複数の選択対象オブジェクトの中から1つの選択対象オブジェクトを選択するオブジェクト選択手段と、
    前記オブジェクト選択手段で選択された選択対象オブジェクトに基づいた処理を行う情報処理手段として前記コンピュータを機能させ
    前記情報処理手段は、
    前記オブジェクト選択手段で選択された選択対象オブジェクトの選択を確定する選択確定手段と、
    前記選択確定手段で前記選択対象オブジェクトの選択を確定した際に、前記入力装置の姿勢を、当該選択を確定した選択対象オブジェクトにおける基準となる姿勢として設定するオブジェクト基準姿勢設定手段とを含み、
    前記選択を確定した選択対象オブジェクトに基づいた処理を、前記オブジェクト基準姿勢設定手段で設定した基準となる姿勢に基づいて行う、情報処理プログラム。
  2. 入力装置の姿勢または動きを検出する姿勢・動きセンサから取得する姿勢・動きデータに基づいた所定の情報処理を行う情報処理装置のコンピュータで実行される情報処理プログラムであって、
    複数の選択対象オブジェクトのそれぞれと前記入力装置の姿勢との対応付けを示す対応関係データを記憶する対応関係データ記憶手段と、
    前記複数の選択対象オブジェクトを表示装置に表示するオブジェクト表示手段と、
    前記姿勢・動きデータを取得するデータ取得手段と、
    前記データ取得手段で取得した姿勢・動きデータに基づいて前記入力装置の姿勢である入力姿勢を算出する入力姿勢算出手段と、
    前記入力姿勢算出手段で算出された前記入力姿勢と前記対応関係データとに基づいて前記複数の選択対象オブジェクトの中から1つの選択対象オブジェクトを選択するオブジェクト選択手段と、
    前記オブジェクト選択手段で選択された選択対象オブジェクトに基づいた処理を行う情報処理手段として前記コンピュータを機能させ、
    前記オブジェクト選択手段は、
    前記表示装置の表示面に対する前記入力姿勢の射影ベクトルを算出する射影ベクトル算出手段を含み、
    前記射影ベクトルの向き及び大きさに基づいて、前記複数の選択対象オブジェクトの中から1つの選択対象オブジェクトを選する、情報処理プログラム。
  3. 入力装置の姿勢または動きを検出する姿勢・動きセンサから取得する姿勢・動きデータに基づいた所定の情報処理を行う情報処理装置のコンピュータで実行される情報処理プログラムであって、
    複数の選択対象オブジェクトのそれぞれと前記入力装置の姿勢との対応付けを示す対応関係データを記憶する対応関係データ記憶手段と、
    前記複数の選択対象オブジェクトを表示装置に表示するオブジェクト表示手段と、
    前記姿勢・動きデータを取得するデータ取得手段と、
    前記データ取得手段で取得した姿勢・動きデータに基づいて前記入力装置の姿勢である入力姿勢を算出する入力姿勢算出手段と、
    前記入力姿勢算出手段で算出された前記入力姿勢と前記対応関係データとに基づいて前記複数の選択対象オブジェクトの中から1つの選択対象オブジェクトを選択するオブジェクト選択手段と、
    前記オブジェクト選択手段で選択された選択対象オブジェクトに基づいた処理を行う情報処理手段と、
    前記入力装置に対する所定の基準姿勢を設定する基準姿勢設定手段として前記コンピュータを機能させ、
    前記対応関係データ記憶手段は、前記入力装置の姿勢のデータを、前記基準姿勢に対する姿勢として記憶し、
    前記オブジェクト表示手段は、前記複数の選択対象オブジェクトを、前記対応関係データにおいてそれぞれが対応する前記入力装置の姿勢に基づいた前記表示装置上の位置に表示し、
    前記オブジェクト選択手段は、前記基準姿勢に対する前記入力姿勢に基づいて1つの選択対象オブジェクトを選択する、情報処理プログラム。
  4. 前記コンピュータを、前記基準姿勢の方向と前記入力姿勢の方向との角度を算出する角度算出手段としてさらに機能させ、
    前記オブジェクト選択手段は、前記角度算出手段で第1の角度以上の角度が算出された時に、前記入力姿勢に基づいて1つの選択対象オブジェクトを選択する、請求項に記載の情報処理プログラム。
  5. 前記コンピュータを、
    、前記角度算出手段で前記第1の角度よりも小さい第2の角度以下の角度が算出された時に、当該選択されている選択対象オブジェクトを選択されていない状態にする、オブジェクト選択解除手段としてさらに機能させる、請求項に記載の情報処理プログラム。
  6. 前記コンピュータを、
    前記オブジェクト選択手段で前記選択対象オブジェクトのいずれかが選択されている状態において、前記入力姿勢が前記基準姿勢と一致あるいは近似する姿勢に変化したか否かを判定する基準姿勢戻り判定手段と、
    前記基準姿勢戻り判定手段で前記入力姿勢が前記基準姿勢に一致あるいは近似したと判定されたとき、前記選択されている選択対象オブジェクトを選択されていない状態にする、オブジェクト選択解除手段としてさらに機能させる、請求項に記載の情報処理プログラム。
  7. 前記基準姿勢設定手段は、前記入力装置の所定軸を前記表示装置の中心方向に向けた姿勢を前記基準姿勢として設定し、
    前記コンピュータを、前記表示装置上において、当該表示装置の中心から前記入力姿勢の方向に向けて前記角度算出手段で算出された角度に対応する距離だけ離れた位置に、前記入力装置の所定軸が向いている方向に対応する前記表示装置上の位置を示す指示オブジェクトを表示する指示オブジェクト表示手段としてさらに機能させる、請求項に記載の情報処理プログラム。
  8. 前記選択対象オブジェクトにはそれぞれ、当該選択対象オブジェクトの中心から所定の範囲が選択継続範囲として設定され、当該選択継続範囲は、前記表示画面上に隣接して配置されている選択対象オブジェクト間でその一部が重複しており、
    前記オブジェクト選択手段は、前記選択対象オブジェクトのいずれかが選択されている状態において、前記選択継続範囲の重複している領域内に前記指示オブジェクトが存在しているときは、直前に選択された選択対象オブジェクトの選択状態を継続する、請求項に記載の情報処理プログラム。
  9. 前記角度算出手段で算出された角度が同一である場合、前記オブジェクト選択手段で前記選択対象オブジェクトが選択されていない状態において前記角度算出手段で算出された角度に対応する距離よりも、前記オブジェクト選択手段で前記選択対象オブジェクトが選択されている状態において前記角度算出手段で算出された角度に対応する距離の方が長い、請求項に記載の情報処理プログラム。
  10. 前記情報処理手段は、
    前記オブジェクト選択手段で選択された選択対象オブジェクトの選択を確定する選択確定手段と、
    前記選択確定手段で前記選択対象オブジェクトの選択を確定した際に、前記入力装置の姿勢で前記基準姿勢を更新する基準姿勢更新手段とを含み、
    前記選択を確定した選択対象オブジェクトに基づいた処理を行う、請求項に記載の情報処理プログラム。
  11. 前記情報処理手段は前記選択を確定した選択対象オブジェクトに基づいた処理を、前記基準姿勢更新手段で更新した前記基準姿勢に基づいて行う、請求項10に記載の情報処理プログラム。
  12. 前記オブジェクト表示手段は、前記複数の選択対象オブジェクトを、所定間隔で環状にそれぞれに対応付けられた前記入力装置の姿勢に基づいた前記表示装置上の位置に表示する、請求項に記載の情報処理プログラム。
  13. 前記情報処理手段は、前記オブジェクト選択手段でいずれかの選択対象オブジェクトが選択された際に、少なくとも当該選択された選択対象オブジェクトを強調表示する強調表示手段を含む、請求項1ないし3のいずれかに記載の情報処理プログラム。
  14. 前記入力装置は、振動装置をさらに備え、
    前記情報処理手段は、前記オブジェクト選択手段でオブジェクトが選択された際に、前記振動装置を所定期間振動させる、請求項1ないし3のいずれかに記載の情報処理プログラム。
  15. 前記姿勢・動きセンサは、角速度を検出する角速度センサであり、
    前記情報処理装置は、前記角速度センサを備えた入力装置から、角速度を示す角速度データを取得し、
    前記データ取得手段は、前記角速度データを取得し、
    前記姿勢算出手段は、前記データ取得手段で取得した角速度データに基づいて前記入力装置の姿勢を算出する、請求項1ないし3のいずれかに記載の情報処理プログラム。
  16. 入力装置の姿勢または動きを検出する姿勢・動きセンサから取得する姿勢・動きデータに基づいた所定の情報処理を行う情報処理装置であって、
    複数の選択対象オブジェクトのそれぞれと前記入力装置の姿勢との対応付けを示す対応関係データを記憶する対応関係データ記憶手段と、
    前記複数の選択対象オブジェクトを表示装置に表示するオブジェクト表示手段と、
    前記姿勢・動きデータを取得するデータ取得手段と、
    前記データ取得手段で取得した姿勢・動きデータに基づいて前記入力装置の姿勢である入力姿勢を算出する入力姿勢算出手段と、
    前記入力姿勢算出手段で算出された前記入力姿勢と前記対応関係データとに基づいて前記複数の選択対象オブジェクトの中から1つの選択対象オブジェクトを選択するオブジェクト選択手段と、
    前記オブジェクト選択手段で選択された選択対象オブジェクトに基づいた処理を行う情報処理手段とを備え
    前記情報処理手段は、
    前記オブジェクト選択手段で選択された選択対象オブジェクトの選択を確定する選択確定手段と、
    前記選択確定手段で前記選択対象オブジェクトの選択を確定した際に、前記入力装置の姿勢を、当該選択を確定した選択対象オブジェクトにおける基準となる姿勢として設定するオブジェクト基準姿勢設定手段とを含み、
    前記選択を確定した選択対象オブジェクトに基づいた処理を、前記オブジェクト基準姿勢設定手段で設定した基準となる姿勢に基づいて行う、情報処理装置。
  17. 入力装置の姿勢または動きを検出する姿勢・動きセンサから取得する姿勢・動きデータに基づいた所定の情報処理を行う情報処理装置であって、
    複数の選択対象オブジェクトのそれぞれと前記入力装置の姿勢との対応付けを示す対応関係データを記憶する対応関係データ記憶手段と、
    前記複数の選択対象オブジェクトを表示装置に表示するオブジェクト表示手段と、
    前記姿勢・動きデータを取得するデータ取得手段と、
    前記データ取得手段で取得した姿勢・動きデータに基づいて前記入力装置の姿勢である入力姿勢を算出する入力姿勢算出手段と、
    前記入力姿勢算出手段で算出された前記入力姿勢と前記対応関係データとに基づいて前記複数の選択対象オブジェクトの中から1つの選択対象オブジェクトを選択するオブジェクト選択手段と、
    前記オブジェクト選択手段で選択された選択対象オブジェクトに基づいた処理を行う情報処理手段とを備え、
    前記オブジェクト選択手段は、
    前記表示装置の表示面に対する前記入力姿勢の射影ベクトルを算出する射影ベクトル算出手段を含み、
    前記射影ベクトルの向き及び大きさに基づいて、前記複数の選択対象オブジェクトの中から1つの選択対象オブジェクトを選択する、情報処理装置。
  18. 入力装置の姿勢または動きを検出する姿勢・動きセンサから取得する姿勢・動きデータに基づいた所定の情報処理を行う情報処理装置であって、
    複数の選択対象オブジェクトのそれぞれと前記入力装置の姿勢との対応付けを示す対応関係データを記憶する対応関係データ記憶手段と、
    前記複数の選択対象オブジェクトを表示装置に表示するオブジェクト表示手段と、
    前記姿勢・動きデータを取得するデータ取得手段と、
    前記データ取得手段で取得した姿勢・動きデータに基づいて前記入力装置の姿勢である入力姿勢を算出する入力姿勢算出手段と、
    前記入力姿勢算出手段で算出された前記入力姿勢と前記対応関係データとに基づいて前記複数の選択対象オブジェクトの中から1つの選択対象オブジェクトを選択するオブジェクト選択手段と、
    前記オブジェクト選択手段で選択された選択対象オブジェクトに基づいた処理を行う情報処理手段と
    前記入力装置に対する所定の基準姿勢を設定する基準姿勢設定手段とを備え、
    前記対応関係データ記憶手段は、前記入力装置の姿勢のデータを、前記基準姿勢に対する姿勢として記憶し、
    前記オブジェクト表示手段は、前記複数の選択対象オブジェクトを、前記対応関係データにおいてそれぞれが対応する前記入力装置の姿勢に基づいた前記表示装置上の位置に表示し、
    前記オブジェクト選択手段は、前記基準姿勢に対する前記入力姿勢に基づいて1つの選択対象オブジェクトを選択する、情報処理装置
  19. 入力装置の姿勢または動きを検出する姿勢・動きセンサから取得する姿勢・動きデータに基づいた所定の情報処理を行い、更に、複数の選択対象オブジェクトから選択されたオブジェクトに基づく処理を行い、複数の選択対象オブジェクトのそれぞれと前記入力装置の姿勢との対応付けを示す対応関係データを記憶する対応関係データ記憶手段を備える情報処理装置で実行される情報処理制御方法であって、
    前記複数の選択対象オブジェクトを表示装置に表示するオブジェクト表示ステップと、
    前記姿勢・動きデータを取得するデータ取得ステップと、
    前記データ取得ステップにおいて取得された姿勢・動きデータに基づいて前記入力装置の姿勢である入力姿勢を算出する入力姿勢算出ステップと、
    前記入力姿勢算出ステップにおいて算出された前記入力姿勢と前記対応関係データとに基づいて前記複数の選択対象オブジェクトの中から1つの選択対象オブジェクトを選択するオブジェクト選択ステップと、
    前記オブジェクト選択ステップで選択された選択対象オブジェクトに基づいた処理を行う情報処理ステップとを備え
    前記情報処理ステップは、
    前記オブジェクト選択ステップで選択された選択対象オブジェクトの選択を確定する選択確定ステップと、
    前記選択確定ステップで前記選択対象オブジェクトの選択を確定した際に、前記入力装置の姿勢を、当該選択を確定した選択対象オブジェクトにおける基準となる姿勢として設定するオブジェクト基準姿勢設定ステップとを含み、
    前記選択を確定した選択対象オブジェクトに基づいた処理を、前記オブジェクト基準姿勢設定ステップにおいて設定した基準となる姿勢に基づいて行う、情報処理制御方法。
  20. 入力装置の姿勢または動きを検出する姿勢・動きセンサから取得する姿勢・動きデータに基づいた所定の情報処理を行い、更に、複数の選択対象オブジェクトから選択されたオブジェクトに基づく処理を行い、複数の選択対象オブジェクトのそれぞれと前記入力装置の姿勢との対応付けを示す対応関係データを記憶する対応関係データ記憶手段を備える情報処理装置で実行される情報処理制御方法であって、
    前記複数の選択対象オブジェクトを表示装置に表示するオブジェクト表示ステップと、
    前記姿勢・動きデータを取得するデータ取得ステップと、
    前記データ取得ステップにおいて取得された姿勢・動きデータに基づいて前記入力装置の姿勢である入力姿勢を算出する入力姿勢算出ステップと、
    前記入力姿勢算出ステップにおいて算出された前記入力姿勢と前記対応関係データとに基づいて前記複数の選択対象オブジェクトの中から1つの選択対象オブジェクトを選択するオブジェクト選択ステップと、
    前記オブジェクト選択ステップで選択された選択対象オブジェクトに基づいた処理を行う情報処理ステップとを備え、
    前記オブジェクト選択ステップは、
    前記表示装置の表示面に対する前記入力姿勢の射影ベクトルを算出する射影ベクトル算出ステップを含み、
    前記射影ベクトルの向き及び大きさに基づいて、前記複数の選択対象オブジェクトの中から1つの選択対象オブジェクトを選択する、情報処理制御方法。
  21. 入力装置の姿勢または動きを検出する姿勢・動きセンサから取得する姿勢・動きデータに基づいた所定の情報処理を行い、更に、複数の選択対象オブジェクトから選択されたオブジェクトに基づく処理を行い、複数の選択対象オブジェクトのそれぞれと前記入力装置の姿勢との対応付けを示す対応関係データを記憶する対応関係データ記憶手段を備える情報処理装置で実行される情報処理制御方法であって、
    前記複数の選択対象オブジェクトを表示装置に表示するオブジェクト表示ステップと、
    前記姿勢・動きデータを取得するデータ取得ステップと、
    前記データ取得ステップにおいて取得された姿勢・動きデータに基づいて前記入力装置の姿勢である入力姿勢を算出する入力姿勢算出ステップと、
    前記入力姿勢算出ステップにおいて算出された前記入力姿勢と前記対応関係データとに基づいて前記複数の選択対象オブジェクトの中から1つの選択対象オブジェクトを選択するオブジェクト選択ステップと、
    前記オブジェクト選択ステップで選択された選択対象オブジェクトに基づいた処理を行う情報処理ステップと、
    前記入力装置に対する所定の基準姿勢を設定する基準姿勢設定ステップとを備え、
    前記対応関係データ記憶手段は、前記入力装置の姿勢のデータを、前記基準姿勢に対する姿勢として記憶し、
    前記オブジェクト表示ステップは、前記複数の選択対象オブジェクトを、前記対応関係データにおいてそれぞれが対応する前記入力装置の姿勢に基づいた前記表示装置上の位置に表示し、
    前記オブジェクト選択ステップは、前記基準姿勢に対する前記入力姿勢に基づいて1つの選択対象オブジェクトを選択する、情報処理制御方法。
  22. 入力装置の姿勢または動きを検出する姿勢・動きセンサから取得する姿勢・動きデータに基づいた所定の情報処理を行う情報処理システムであって、
    複数の選択対象オブジェクトのそれぞれと前記入力装置の姿勢との対応付けを示す対応関係データを記憶する対応関係データ記憶手段と、
    前記複数の選択対象オブジェクトを表示装置に表示するオブジェクト表示手段と、
    前記姿勢・動きデータを取得するデータ取得手段と、
    前記データ取得手段で取得した姿勢・動きデータに基づいて前記入力装置の姿勢である入力姿勢を算出する入力姿勢算出手段と、
    前記入力姿勢算出手段で算出された前記入力姿勢と前記対応関係データとに基づいて前記複数の選択対象オブジェクトの中から1つの選択対象オブジェクトを選択するオブジェクト選択手段と、
    前記オブジェクト選択手段で選択された選択対象オブジェクトに基づいた処理を行う情報処理手段とを備え
    前記情報処理手段は、
    前記オブジェクト選択手段で選択された選択対象オブジェクトの選択を確定する選択確定手段と、
    前記選択確定手段で前記選択対象オブジェクトの選択を確定した際に、前記入力装置の姿勢を、当該選択を確定した選択対象オブジェクトにおける基準となる姿勢として設定するオブジェクト基準姿勢設定手段とを含み、
    前記選択を確定した選択対象オブジェクトに基づいた処理を、前記オブジェクト基準姿勢設定手段で設定した基準となる姿勢に基づいて行う、情報処理システム。
  23. 入力装置の姿勢または動きを検出する姿勢・動きセンサから取得する姿勢・動きデータに基づいた所定の情報処理を行う情報処理システムであって、
    複数の選択対象オブジェクトのそれぞれと前記入力装置の姿勢との対応付けを示す対応関係データを記憶する対応関係データ記憶手段と、
    前記複数の選択対象オブジェクトを表示装置に表示するオブジェクト表示手段と、
    前記姿勢・動きデータを取得するデータ取得手段と、
    前記データ取得手段で取得した姿勢・動きデータに基づいて前記入力装置の姿勢である入力姿勢を算出する入力姿勢算出手段と、
    前記入力姿勢算出手段で算出された前記入力姿勢と前記対応関係データとに基づいて前記複数の選択対象オブジェクトの中から1つの選択対象オブジェクトを選択するオブジェクト選択手段と、
    前記オブジェクト選択手段で選択された選択対象オブジェクトに基づいた処理を行う情報処理手段とを備え、
    前記オブジェクト選択手段は、
    前記表示装置の表示面に対する前記入力姿勢の射影ベクトルを算出する射影ベクトル算出手段を含み、
    前記射影ベクトルの向き及び大きさに基づいて、前記複数の選択対象オブジェクトの中から1つの選択対象オブジェクトを選択する、情報処理システム。
  24. 入力装置の姿勢または動きを検出する姿勢・動きセンサから取得する姿勢・動きデータに基づいた所定の情報処理を行う情報処理装置であって、
    複数の選択対象オブジェクトのそれぞれと前記入力装置の姿勢との対応付けを示す対応関係データを記憶する対応関係データ記憶手段と、
    前記複数の選択対象オブジェクトを表示装置に表示するオブジェクト表示手段と、
    前記姿勢・動きデータを取得するデータ取得手段と、
    前記データ取得手段で取得した姿勢・動きデータに基づいて前記入力装置の姿勢である入力姿勢を算出する入力姿勢算出手段と、
    前記入力姿勢算出手段で算出された前記入力姿勢と前記対応関係データとに基づいて前記複数の選択対象オブジェクトの中から1つの選択対象オブジェクトを選択するオブジェクト選択手段と、
    前記オブジェクト選択手段で選択された選択対象オブジェクトに基づいた処理を行う情報処理手段と
    前記入力装置に対する所定の基準姿勢を設定する基準姿勢設定手段とを備え、
    前記対応関係データ記憶手段は、前記入力装置の姿勢のデータを、前記基準姿勢に対する姿勢として記憶し、
    前記オブジェクト表示手段は、前記複数の選択対象オブジェクトを、前記対応関係データにおいてそれぞれが対応する前記入力装置の姿勢に基づいた前記表示装置上の位置に表示し、
    前記オブジェクト選択手段は、前記基準姿勢に対する前記入力姿勢に基づいて1つの選択対象オブジェクトを選択する、情報処理システム。
JP2010119869A 2010-05-25 2010-05-25 情報処理プログラム、情報処理装置、情報処理方法および情報処理システム Active JP5038465B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2010119869A JP5038465B2 (ja) 2010-05-25 2010-05-25 情報処理プログラム、情報処理装置、情報処理方法および情報処理システム
EP10171904.5A EP2390760B1 (en) 2010-05-25 2010-08-04 Information processing of attitude or motion data for object selection
US12/856,274 US9492747B2 (en) 2010-05-25 2010-08-13 Using handheld controller attitude to select a desired object displayed on a screen

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010119869A JP5038465B2 (ja) 2010-05-25 2010-05-25 情報処理プログラム、情報処理装置、情報処理方法および情報処理システム

Publications (2)

Publication Number Publication Date
JP2011244965A JP2011244965A (ja) 2011-12-08
JP5038465B2 true JP5038465B2 (ja) 2012-10-03

Family

ID=44652620

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010119869A Active JP5038465B2 (ja) 2010-05-25 2010-05-25 情報処理プログラム、情報処理装置、情報処理方法および情報処理システム

Country Status (3)

Country Link
US (1) US9492747B2 (ja)
EP (1) EP2390760B1 (ja)
JP (1) JP5038465B2 (ja)

Families Citing this family (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5692904B2 (ja) * 2010-11-17 2015-04-01 任天堂株式会社 入力システム、情報処理装置、情報処理プログラム、および指示位置算出方法
KR101189633B1 (ko) * 2011-08-22 2012-10-10 성균관대학교산학협력단 손가락 움직임에 따른 포인터 제어명령어 인식 방법 및 손가락 움직임에 따라 포인터를 제어하는 모바일 단말
JP5927872B2 (ja) * 2011-12-01 2016-06-01 ソニー株式会社 情報処理装置、情報処理方法およびプログラム
US9342139B2 (en) * 2011-12-19 2016-05-17 Microsoft Technology Licensing, Llc Pairing a computing device to a user
US9128562B2 (en) * 2012-05-25 2015-09-08 Sony Corporation Terminal apparatus, display system, display method, and recording medium for switching between pointer mode and touch-panel mode based on handheld activation
JP6194716B2 (ja) * 2013-09-19 2017-09-13 株式会社デンソーウェーブ リモートコントローラー
USD850484S1 (en) * 2016-06-18 2019-06-04 Shanghai Mobvoi Information Technology Company Limited Display screen with a transitional graphical user interface
GB2556894A (en) * 2016-11-23 2018-06-13 Sony Interactive Entertainment Inc Apparatus and method of interactive control
CN109151320B (zh) * 2018-09-29 2022-04-22 联想(北京)有限公司 一种目标对象选取方法及装置
US11747802B2 (en) 2019-12-11 2023-09-05 Mason Electric Co. Ruggedized remote control display management system for harsh and safety-critical environments
US11580930B2 (en) 2019-12-12 2023-02-14 Mason Electric Co. Ruggedized remote control display latency and loss of signal detection for harsh and safety-critical environments
US11841554B2 (en) * 2021-04-29 2023-12-12 Brandon Gaynor Eyewear interface assembly

Family Cites Families (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05127809A (ja) * 1991-04-19 1993-05-25 Sharp Corp 三次元空間座標入力装置
JPH1049290A (ja) * 1996-08-05 1998-02-20 Sony Corp 情報処理装置および方法
JP3264654B2 (ja) 1998-12-17 2002-03-11 株式会社スクウェア ゲーム装置、ゲーム装置の制御方法、及び記録媒体
US7031875B2 (en) * 2001-01-24 2006-04-18 Geo Vector Corporation Pointing systems for addressing objects
US7233316B2 (en) 2003-05-01 2007-06-19 Thomson Licensing Multimedia user interface
JP3773058B2 (ja) * 2004-07-20 2006-05-10 コナミ株式会社 ゲーム装置、ゲーム装置の制御方法及びプログラム
US7773073B2 (en) * 2005-07-05 2010-08-10 Sharp Kabushiki Kaisha Operation equipment and operation system
JP4247218B2 (ja) 2005-08-26 2009-04-02 株式会社コナミデジタルエンタテインメント ゲーム装置、ゲーム装置の制御方法及びプログラム
JP4907129B2 (ja) * 2005-09-01 2012-03-28 任天堂株式会社 情報処理システムおよびプログラム
JP5044129B2 (ja) * 2006-03-27 2012-10-10 株式会社コナミデジタルエンタテインメント ゲーム装置、ゲーム装置の制御方法及びプログラム
JP2007306070A (ja) * 2006-05-08 2007-11-22 Sony Computer Entertainment Inc 遠隔制御システム及び遠隔制御方法
JP5285863B2 (ja) * 2007-03-06 2013-09-11 任天堂株式会社 情報選択装置、情報選択プログラム、ゲーム装置およびゲームプログラム
JP5338662B2 (ja) * 2007-06-08 2013-11-13 ソニー株式会社 情報処理装置、入力装置及び情報処理システム
KR101424259B1 (ko) * 2007-08-22 2014-07-31 삼성전자주식회사 휴대단말에서 입력 피드백 제공 방법 및 장치
US9335912B2 (en) * 2007-09-07 2016-05-10 Apple Inc. GUI applications for use with 3D remote controller
JP2009075861A (ja) * 2007-09-20 2009-04-09 Panasonic Corp 入力装置および入力システム
KR20100095999A (ko) * 2007-12-07 2010-09-01 소니 가부시끼가이샤 입력 장치, 제어 장치, 제어 시스템, 핸드헬드 장치 및 제어 방법
US8826181B2 (en) * 2008-06-28 2014-09-02 Apple Inc. Moving radial menus
JP2009247885A (ja) * 2008-10-09 2009-10-29 Namco Bandai Games Inc ゲームコントローラケース、プログラム、情報記憶媒体、及びゲーム装置

Also Published As

Publication number Publication date
JP2011244965A (ja) 2011-12-08
US20110291929A1 (en) 2011-12-01
US9492747B2 (en) 2016-11-15
EP2390760A2 (en) 2011-11-30
EP2390760A3 (en) 2016-08-03
EP2390760B1 (en) 2019-03-06

Similar Documents

Publication Publication Date Title
JP5038465B2 (ja) 情報処理プログラム、情報処理装置、情報処理方法および情報処理システム
JP5700758B2 (ja) ゲーム装置、ゲームプログラム、ゲームシステム、およびゲーム処理方法
JP5448073B2 (ja) 情報処理装置、情報処理プログラム、情報処理システム、および、選択対象の選択方法
JP6184658B2 (ja) ゲームシステム、ゲーム装置、ゲームプログラム、および、ゲーム処理方法
JP5060798B2 (ja) 情報処理プログラムおよび情報処理装置
JP5289031B2 (ja) ゲーム装置およびゲームプログラム
JP5224832B2 (ja) 情報処理プログラムおよび情報処理装置
JP5689014B2 (ja) 入力システム、情報処理装置、情報処理プログラム、および3次元位置算出方法
JP4918376B2 (ja) 情報処理プログラムおよび情報処理装置
JP5988549B2 (ja) 位置算出システム、位置算出装置、位置算出プログラム、および位置算出方法
JP5797046B2 (ja) ポインティングシステム、情報処理システム、座標系等の設定方法、情報処理装置、および情報処理プログラム
JP2010020554A (ja) 情報処理プログラムおよび情報処理装置
JP5620719B2 (ja) 情報処理プログラム、情報処理装置、情報処理システム、および、マップ表示方法
JP2010142404A (ja) ゲームプログラムおよびゲーム装置
JP5844999B2 (ja) 情報処理プログラム、情報処理装置、情報処理システム及び情報処理方法
JP5525177B2 (ja) 情報処理プログラム、および、情報処理装置
JP5576721B2 (ja) ゲームプログラム、ゲーム装置、ゲームシステムおよびゲーム方法
JP5350612B2 (ja) ゲームプログラム、ゲーム装置、ゲームシステムおよびゲーム処理方法
JP5945297B2 (ja) ゲームプログラムおよびゲーム装置
JP2007295990A (ja) 移動方向算出装置および移動方向算出プログラム
JP6262563B2 (ja) 情報処理プログラム、情報処理装置、情報処理システム、および、情報処理方法
JP6280390B2 (ja) 情報処理プログラム、情報処理装置、情報処理システム、および、情報処理方法
JP5798601B2 (ja) ゲームプログラム、ゲーム装置、ゲームシステムおよびゲーム処理方法
JP2015038752A (ja) 座標算出装置および座標算出プログラム

Legal Events

Date Code Title Description
RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20110902

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20111128

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120330

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120524

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120703

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120705

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150713

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 5038465

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250