JP2013214252A - 表示制御システム、表示制御方法、表示制御プログラム、および表示制御装置 - Google Patents

表示制御システム、表示制御方法、表示制御プログラム、および表示制御装置 Download PDF

Info

Publication number
JP2013214252A
JP2013214252A JP2012085098A JP2012085098A JP2013214252A JP 2013214252 A JP2013214252 A JP 2013214252A JP 2012085098 A JP2012085098 A JP 2012085098A JP 2012085098 A JP2012085098 A JP 2012085098A JP 2013214252 A JP2013214252 A JP 2013214252A
Authority
JP
Japan
Prior art keywords
virtual camera
input
display
unit
display control
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2012085098A
Other languages
English (en)
Other versions
JP5959047B2 (ja
Inventor
Tsubasa Sakaguchi
翼 阪口
Hiroshi Umemiya
浩 梅宮
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nintendo Co Ltd
Original Assignee
Nintendo Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nintendo Co Ltd filed Critical Nintendo Co Ltd
Priority to JP2012085098A priority Critical patent/JP5959047B2/ja
Priority to US13/611,737 priority patent/US9086724B2/en
Publication of JP2013214252A publication Critical patent/JP2013214252A/ja
Application granted granted Critical
Publication of JP5959047B2 publication Critical patent/JP5959047B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1684Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675
    • G06F1/1694Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675 the I/O peripheral being a single or a set of motion sensors for pointer control or gesture input obtained by sensing movements of the portable computer
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/211Input arrangements for video game devices characterised by their sensors, purposes or types using inertial sensors, e.g. accelerometers or gyroscopes
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/25Output arrangements for video game devices
    • A63F13/26Output arrangements for video game devices having at least one additional display device, e.g. on the game controller or outside a game booth
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/40Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment
    • A63F13/42Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle
    • A63F13/428Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle involving motion or position input signals, e.g. signals representing the rotation of an input controller or a player's arm motions sensed by accelerometers or gyroscopes
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/50Controlling the output signals based on the game progress
    • A63F13/52Controlling the output signals based on the game progress involving aspects of the displayed game scene
    • A63F13/525Changing parameters of virtual cameras
    • A63F13/5255Changing parameters of virtual cameras according to dedicated instructions from a player, e.g. using a secondary joystick to rotate the camera around a player's character
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1626Constructional details or arrangements for portable computers with a single-body enclosure integrating a flat display, e.g. Personal Digital Assistants [PDAs]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0338Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of limited linear or angular displacement of an operating part of the device from a neutral position, e.g. isotonic or isometric joysticks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0346Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/038Control and interface arrangements therefor, e.g. drivers or device-embedded control circuitry
    • G06F3/0383Signal control means within the pointing device
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04815Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
    • GPHYSICS
    • G08SIGNALLING
    • G08CTRANSMISSION SYSTEMS FOR MEASURED VALUES, CONTROL OR SIMILAR SIGNALS
    • G08C17/00Arrangements for transmitting signals characterised by the use of a wireless electrical link
    • G08C17/02Arrangements for transmitting signals characterised by the use of a wireless electrical link using a radio link
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/422Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
    • H04N21/42204User interfaces specially adapted for controlling a client device through a remote control device; Remote control devices therefor
    • H04N21/42206User interfaces specially adapted for controlling a client device through a remote control device; Remote control devices therefor characterized by hardware details
    • H04N21/4222Remote control device emulator integrated into a non-television apparatus, e.g. a PDA, media center or smart toy
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/30Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by output arrangements for receiving control signals generated by the game device
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2200/00Indexing scheme relating to G06F1/04 - G06F1/32
    • G06F2200/16Indexing scheme relating to G06F1/16 - G06F1/18
    • G06F2200/161Indexing scheme relating to constructional details of the monitor
    • G06F2200/1614Image rotation following screen orientation, e.g. switching from landscape to portrait mode
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2200/00Indexing scheme relating to G06F1/04 - G06F1/32
    • G06F2200/16Indexing scheme relating to G06F1/16 - G06F1/18
    • G06F2200/163Indexing scheme relating to constructional details of the computer
    • G06F2200/1637Sensing arrangement for detection of housing movement or orientation, e.g. for controlling scrolling or cursor movement on the display of an handheld computer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/038Indexing scheme relating to G06F3/038
    • G06F2203/0384Wireless input, i.e. hardware and software details of wireless interface arrangements for pointing devices
    • GPHYSICS
    • G08SIGNALLING
    • G08CTRANSMISSION SYSTEMS FOR MEASURED VALUES, CONTROL OR SIMILAR SIGNALS
    • G08C2201/00Transmission systems of control signals via wireless link
    • G08C2201/30User interface
    • GPHYSICS
    • G08SIGNALLING
    • G08CTRANSMISSION SYSTEMS FOR MEASURED VALUES, CONTROL OR SIMILAR SIGNALS
    • G08C2201/00Transmission systems of control signals via wireless link
    • G08C2201/70Device selection
    • G08C2201/71Directional beams
    • GPHYSICS
    • G08SIGNALLING
    • G08CTRANSMISSION SYSTEMS FOR MEASURED VALUES, CONTROL OR SIMILAR SIGNALS
    • G08C2201/00Transmission systems of control signals via wireless link
    • G08C2201/90Additional features
    • G08C2201/91Remote control based on location and proximity

Abstract

【課題】装置の姿勢を考慮しつつ方向入力部に対する入力操作によってオブジェクトを制御することが可能な技術を提供する。
【解決手段】端末装置を横長になるようにして把持した場合において、右アナログスティックを用いて左右方向を入力すると、第1仮想カメラが仮想空間の左右方向を向く。一方、端末装置を縦長になるようにして把持した場合において、右アナログスティックを用いて見た目上の左右方向、すなわち、横長の状態の上下方向を入力すると、第1仮想カメラが仮想空間の左右方向を向く。
【選択図】図8

Description

本発明は、ユーザの操作に応じて表示部に画像を表示させる表示制御システム、表示制御方法、表示制御プログラム、および表示制御装置に関する。
従来より、装置の姿勢を用いて表示内容を変化させる表示装置が存在する。例えば、重力方向を検出して当該重力方向に基づいてオブジェクトを回転させ、回転させたオブジェクトを表示装置に表示させる装置がある(例えば、特許文献1)。
特開2007−310031号公報
しかしながら、上記従来の装置では、当該装置の姿勢に応じてオブジェクトを回転させて表示させるものであり、ユーザによる入力操作に基づいて表示画像を制御するものではなかった。
それ故、本発明の目的は、装置の姿勢を考慮しつつ方向入力部に対する入力操作によって表示画像を制御することが可能な技術を提供することである。
本発明は、上記の課題を解決するために、以下の構成を採用した。
本発明の一例は、方向入力部と表示部とを備えた操作装置に対する操作に応じて、当該表示部の表示内容を制御する表示制御システムである。当該表示制御システムは、入力データ取得部と、第1仮想カメラ制御部と、表示制御部とを備える。入力データ取得部は、上記方向入力部の入力方向に応じた入力データを取得する。第1仮想カメラ制御部は、上記入力方向に基づいて仮想空間における仮想カメラを制御する。表示制御部は、上記第1仮想カメラ制御部によって制御された仮想カメラに基づく画像を上記表示部に表示させる。そして、上記第1仮想カメラ制御部は、上記操作装置の姿勢の変化に応じて上記入力データが示す入力方向を変化させ、当該変化させた方向に基づいて、上記仮想カメラを制御する。
上記によれば、操作装置の方向入力部の入力方向によって仮想カメラを制御するとともに、操作装置の姿勢に応じて入力方向を変化させることができる。
また、他の構成では、上記第1仮想カメラ制御部は、上記方向入力部の実空間を基準とした入力方向に基づいて、上記仮想カメラを制御してもよい。
上記によれば、操作装置の姿勢に関わらず方向入力部の実空間を基準とした入力方向に基づいて、仮想カメラを制御することができる。例えば、操作装置の姿勢が変化された場合であっても、見た目上の右方向への入力に基づいて仮想カメラを制御することができる。
また、他の構成では、上記操作装置の姿勢に応じて、上記仮想カメラの向きを制御する第2仮想カメラ制御部をさらに備えてもよい。
上記によれば、操作装置の姿勢に応じて仮想カメラの向きをさらに制御することができる。
また、他の構成では、上記第1仮想カメラ制御部は、上記仮想カメラの向きの変化方向と、上記方向入力部の実空間を基準とした入力方向に対応する仮想空間の方向とが沿うように、上記仮想カメラの向きを変化させてもよい。
上記によれば、操作装置の姿勢が変化した場合であっても、方向入力部の実空間を基準とした入力方向と、仮想カメラの向きの変化方向とが沿うように、上記仮想カメラの向きを変化させることができる。これにより、例えば、方向入力部の実空間を基準とした入力方向(見た目上の入力方向)が右方向である場合に、仮想カメラの向きを右方向に向けることができる。
また、他の構成では、上記第1仮想カメラ制御部は、上記表示部の画面に垂直な軸周りの上記操作装置の回転に応じて上記入力方向を回転させ、当該回転させた入力方向に基づいて上記仮想カメラの向きを制御してもよい。
上記によれば、操作装置を表示部の画面に垂直な軸周りに回転させた場合において、方向入力部の入力方向を当該操作装置の回転に応じて回転させ、回転させた入力方向に基づいて仮想カメラの向きを制御することができる。
また、他の構成では、上記第1仮想カメラ制御部は、上記入力方向の所定方向の成分に基づいて、上記仮想空間の所定方向に上記仮想カメラの向きを変化させてもよい。
上記によれば、入力方向の所定方向の成分(例えば、左右方向)を取り出して、仮想カメラの向きを仮想空間の所定方向(例えば、左右方向)に変化させることができる。
また、他の構成では、上記第2仮想カメラ制御部は、上記表示部の画面に垂直な軸周りの上記操作装置の回転に応じて、上記仮想カメラを撮像軸周りに上記操作装置の回転方向に回転させてもよい。
上記によれば、操作装置を表示部の画面に垂直な軸周りに回転させた場合において、表示部に表示される画像を逆方向に回転させることができる。これにより、表示部に表示される画像を見た目上回転させないようにすることができる。
また、他の構成では、上記方向入力部または上記操作装置に設けられた第2の方向入力部の入力方向に基づいて、上記仮想空間を移動可能なユーザオブジェクトの移動方向を制御するユーザオブジェクト制御部をさらに備えてもよい。上記ユーザオブジェクト制御部は、上記操作装置の姿勢の変化に応じて上記入力方向を変化させ、当該変化させた方向に基づいて、上記ユーザオブジェクトの移動方向を制御する。上記表示制御部は、上記ユーザオブジェクトを含む画像を上記表示部に表示させる。
上記によれば、仮想空間においてユーザオブジェクトを方向入力部の入力方向に基づいて移動させることができる。
また、他の構成では、上記表示制御システムは、第3仮想カメラ制御部と、第2表示制御部とをさらに備えてもよい。第3仮想カメラ制御部は、上記仮想空間に配置された第2の仮想カメラの向きを上記仮想カメラの向きに応じて変化させる。第2表示制御部は、上記第2の仮想カメラから上記仮想空間を見た画像を上記表示部とは別体の表示装置に表示させる。
上記によれば、第2の仮想カメラを用いて上記表示部とは別体の表示装置に画像を表示させることができる。
また、他の一例では、方向入力部と表示部とを備えた操作装置に対する操作に応じて、当該表示部の表示内容を制御する表示制御システムである。表示制御システムは、入力データ取得部と、制御部と、表示制御部とを備える。入力データ取得部は、上記方向入力部の入力方向に応じた入力データを取得する。制御部は、上記入力方向に基づいて仮想空間における所定のオブジェクトを制御する。表示制御部は、上記操作装置の姿勢に応じた画像を上記表示部に表示させるとともに、上記制御部によって制御された所定のオブジェクトに基づく画像を上記表示部に表示させる。また、上記制御部は、上記操作装置の姿勢の変化に応じて上記入力データが示す入力方向を変化させ、当該変化させた方向に基づいて、上記所定のオブジェクトを制御する。
上記によれば、操作装置の方向入力部の入力方向によって所定のオブジェクトを制御するとともに、操作装置の姿勢に応じて入力方向を変化させることができる。ここで、所定のオブジェクトとしては、例えば仮想カメラであってもよいし、ユーザによって操作されるオブジェクトであってもよい。
なお、本発明の別の一例は、上記表示制御システムにおいて行われる表示制御方法であってもよい。表示制御システムは、1の装置によって構成されてもよいし、複数の装置によって構成されてもよい。また、他の一例は、コンピュータを上記表示制御システムの各部として機能させる表示制御プログラムであってもよい。また、他の一例は、上記表示制御システムの各部を備える表示制御装置であってもよい。
本発明によれば、操作装置の姿勢に応じて方向入力部に対する入力操作によって表示画像を制御することができる。
ゲームシステム1の構成の一例を示す外観図 ゲームシステム1の構成の一例を示すブロック図 本実施形態のゲームが行われた場合の表示装置7および端末装置7のLCD51に表示される画像の一例を示す図 端末装置7を基準姿勢からヨー方向(Y軸周り)に回転させた場合の第1仮想カメラC1の向きの変化について説明するための図 端末装置7を基準姿勢からピッチ方向(X軸周り)に回転させた場合の第1仮想カメラC1の向きの変化について説明するための図 端末装置7を基準姿勢からロール方向(Z軸周り)に回転させた場合の第1仮想カメラC1の向きの変化について説明するための図 右アナログスティック72Bを用いて右方向(X軸負方向)が入力された場合の第1仮想カメラC1の向きの変化について説明するための図 端末装置7のX軸が重力方向を向くように把持されている場合(縦持ち)において、右アナログスティック72Bを用いて方向入力が行われたときの第1仮想カメラC1の向きの変化について説明するための図 端末装置7のX軸が実空間の水平方向に対して所定の角度だけ傾くように把持されている場合(斜め持ち)において、右アナログスティック72Bを用いて方向入力が行われたときの第1仮想カメラC1の向きの変化について説明するための図 右アナログスティック72Bの入力方向に応じた入力ベクトルを端末装置7の姿勢に応じて回転させる様子を示す図 端末装置7の姿勢と右アナログスティック72Bを用いた方向入力操作とに基づいた第1仮想カメラC1の向きの制御を示す図 端末装置7をヨー方向に回転させる操作、および、右アナログスティック72Bを用いた左右方向の入力に基づいた2つの仮想カメラの制御について説明するための図 端末装置7をピッチ方向に回転させる操作に基づいた2つの仮想カメラの制御について説明するための図 端末装置7をロール方向に回転させる操作に基づいた2つの仮想カメラの制御について説明するための図 コントローラ5を用いて表示装置2の画面上の位置が指示された場合において、端末装置7および表示装置2に表示される画像の一例を示す図 指示オブジェクト87が配置される位置について説明するための図 端末装置7の左アナログスティック72Aを用いた方向入力に基づいてユーザオブジェクト81を移動させる様子を示す図 端末装置7が縦持ちの状態である場合において、左アナログスティック72Aを用いた方向入力操作が行われた場合のユーザオブジェクト81の移動を説明するための図 ユーザオブジェクト81が移動して第2ユーザによって指示された家オブジェクト82に到達した様子を示す図 ユーザオブジェクト81が移動して仮想空間に配置されたビルオブジェクト89に到達した様子を示す図 第1仮想カメラC1と第2仮想カメラC2の位置関係および撮像方向(視線方向)の種々の例を示す図 図21に示す視点Cに第2仮想カメラC2が設定される際に表示装置2に表示される画像の一例を示す図 図22に示す視点Dに第2仮想カメラC2が設定される際に表示装置2に表示される画像の一例を示す図 ゲーム装置3内に記憶される各種データを示す図 ゲーム装置3において実行される処理の流れを示すメインフローチャート
(ゲームシステムの構成の一例)
以下、図面を参照して、一実施形態に係るゲームシステム1について説明する。図1は、ゲームシステム1の構成の一例を示す外観図である。図2は、ゲームシステム1の構成の一例を示すブロック図である。図1および図2に示すように、ゲームシステム1は、据置型の表示装置2(例えば、テレビ等)、据置型のゲーム装置3、光ディスク4、コントローラ5、マーカ装置6、および、端末装置7を含む。
ゲーム装置3は、CPU10やメモリ11等を含み、光ディスク4等の記憶媒体に記憶されたプログラムがメモリに読み込まれ、CPU10が当該メモリに読み込まれたプログラムを実行することにより、後述する処理を実行する。そして、ゲーム装置3は、処理の結果としての画像を、表示装置2や端末装置7に出力する。
端末装置7は、ユーザが両手または片手で把持可能な程度の大きさの可搬型表示装置であり、ユーザは端末装置7を手に持って動かしたり、あるいは、端末装置7を自由な位置に配置したりして使用することが可能である。端末装置7は、表示装置であるLCD(Liquid Crystal Display:液晶表示装置)71を備える。また、端末装置7は、方向入力のためのアナログスティック(左アナログスティック72A、右アナログスティック72B)等の入力部72、自機の姿勢に応じた姿勢データを出力することが可能な慣性センサ(ジャイロセンサや加速度センサ等)73等を備える。端末装置7とゲーム装置3とは無線によって通信可能である。端末装置7は、ゲーム装置3で生成された画像のデータをゲーム装置3から受信し、当該画像をLCD51に表示する。また、端末装置7は、自機に対する操作(入力部72に対する操作、端末装置7自体の姿勢を変化させる操作)に基づく操作データをゲーム装置3に送信する。
コントローラ5は、ユーザが把持可能な程度の大きさであり、表示装置2の画面上の位置を指示するために用いられる。例えば、コントローラ5に設けられた撮像部で、表示装置2の所定位置に配置されたマーカ装置6からの赤外光を受光することにより、指示された画面上の位置が検出される。あるいは、コントローラ5に姿勢を検出するためのセンサが設けられ、コントローラ5の姿勢によって画面上の位置が指示されてもよい(例えば、初期姿勢では画面中央が指示され、初期姿勢からの姿勢の変化によって指示位置が変化する)。
詳細は後述するが、端末装置7は、第1ユーザによって把持され、コントローラ5は、第2ユーザによって把持される。
なお、図1および図2に示すゲームシステム1は単なる一例であり、後述する処理はどのような装置において行われてもよい。
(処理の概要)
次に、本実施形態のゲームシステム1において行われる処理の概要について説明する。図3は、本実施形態のゲームが行われた場合の表示装置2および端末装置7のLCD51に表示される画像の一例を示す図である。本実施形態では、端末装置7は、第1ユーザによって把持されるものとする。また、コントローラ5は、第2ユーザによって把持される。
図3に示すように、表示装置2には、xyz座標系で定義される仮想空間に配置されたユーザオブジェクト81、家オブジェクト(選択オブジェクト)82等が表示される。また、仮想空間には、岩オブジェクト83、木オブジェクト84(84a〜84c)等が配置される。ユーザオブジェクト81は、端末装置7を用いて第1ユーザによって操作される仮想キャラクタである。また、端末装置7のLCD71には、表示装置2と同様の画像が表示される。図3に示すように、端末装置7に表示される画像は、表示装置2に表示される画像よりも画角が狭い画像である。端末装置7および表示装置2に表示される画像は、仮想空間に配置された第1仮想カメラC1および第2仮想カメラC2を用いてそれぞれ生成され、端末装置7に対する操作によって変化する。
具体的には、第1仮想カメラC1および第2仮想カメラC2の向き(姿勢)は、端末装置7の姿勢および端末装置7の右アナログスティック72Bに対する操作によって制御される。例えば、端末装置7に固定のXYZ座標系のY軸(上下方向の軸)が重力方向と平行であり、X軸(左右方向の軸)が地面に対して平行であり、かつ、Z軸(LCD51に垂直な軸)が表示装置2の画面を向く場合、図3に示すような画像が端末装置7および表示装置2に表示される。この端末装置7の姿勢(以下では、「基準姿勢」ということがある)を基準として端末装置7の姿勢が変化した場合、第1仮想カメラC1および第2仮想カメラC2の向きも変化する。なお、実空間の地面に対してY軸が所定の角度だけ傾いているときの姿勢を基準姿勢としてもよい。ユーザは、端末装置7を把持して画面を見る場合、端末装置7を垂直に立てる(Y軸を重力方向と平行にする)よりも、わずかに傾ける方が見易いことがあるため、そのような端末装置7の姿勢を基準姿勢としてもよい。
以下、図4から図10を参照して、端末装置7に対する操作(端末装置7自体の姿勢を変化させる操作、および右アナログスティック72Bに対する方向入力操作)による第1仮想カメラC1の制御について説明する。
まず、図4から図6を参照して、端末装置7の姿勢の変化に応じた第1仮想カメラC1の向きの変化について説明する。図4は、端末装置7を基準姿勢からヨー方向(Y軸周り)に回転させた場合の第1仮想カメラC1の向きの変化について説明するための図である。図5は、端末装置7を基準姿勢からピッチ方向(X軸周り)に回転させた場合の第1仮想カメラC1の向きの変化について説明するための図である。図6は、端末装置7を基準姿勢からロール方向(Z軸周り)に回転させた場合の第1仮想カメラC1の向きの変化について説明するための図である。
図4において、端末装置7を実空間の上方から見た図が示されており、そのときの第1仮想カメラC1をカメラ上方(仮想空間の上方)から見た図が示されている。例えば、図4に示すように、端末装置7が基準姿勢である場合、第1仮想カメラC1の撮像方向(Zc1軸)は、仮想空間に配置された岩オブジェクト83に向いており、端末装置7の画面の左右方向の中央領域には、岩オブジェクト83が表示される。この状態から、端末装置7の背面を実空間の右方向に向けると、第1仮想カメラC1も仮想空間の右方向を向く。具体的には、端末装置7をヨー方向(Y軸周り)に回転させると、当該回転角に応じて、第1仮想カメラC1に固定のXc1Yc1Zc1座標系のYc1軸周りに、第1仮想カメラC1が回転する。ここで、Xc1軸は、第1仮想カメラC1を基準として左方向に延びる軸であり、Yc1軸は、第1仮想カメラC1を基準として上方向に延びる軸であり、Zc1軸は、第1仮想カメラC1の撮像方向の軸である。Yc1軸周りに第1仮想カメラC1が回転することにより、端末装置7を回転させる前に端末装置7の画面の中央領域に表示されていた岩オブジェクト83は、端末装置7の回転後においては、画面の左領域に移動している。また、回転前に画面の右領域に表示されていた家オブジェクト82は、端末装置7の回転後においては、画面の中央付近に表示される。また、回転前に画面の左領域に表示されていた木オブジェクト84bは、回転後においては、第1仮想カメラC1の撮像範囲から外れ、画面には表示されない。
また、図5では、端末装置7を右方向から見た図が示されており、そのときの第1仮想カメラC1をカメラの右方向から見た図が示されている。図5に示すように、端末装置7が基準姿勢である場合、第1仮想カメラC1の撮像方向(Zc1軸)は、仮想空間の地面(xz平面)と平行である。このため、端末装置7の画面には、仮想空間の地平線が画面の上下方向に関して中央付近に表示されている。この状態から、端末装置7の背面を実空間の上方向に向けると、第1仮想カメラC1も仮想空間の上方向を向く。具体的には、端末装置7をピッチ方向(X軸周り)に回転させると、当該回転角に応じて、Xc1軸周りに第1仮想カメラC1が回転する。このため、端末装置7を回転させる前に端末装置7の画面の上下方向の中央領域に表示されていた岩オブジェクト83等は、端末装置7を回転させた後においては、画面の上下方向に関して下領域に表示される。また、回転前に画面よりも仮想空間の上方に存在しているため画面に表示されていなかった太陽オブジェクト85が、回転後においては、第1仮想カメラC1の撮像範囲に入って、画面に表示されている。
また、図6では、端末装置7を正面から見た図が示されており、そのときの第1仮想カメラC1をカメラ後方から見た図が示されている。図6に示すように、端末装置7が基準姿勢である場合、第1仮想カメラC1の撮像方向(Zc1軸)は回転しておらず、第1仮想カメラC1に固定のXc1軸は仮想空間の地面と平行である。この状態から端末装置7をロール方向(Z軸周り)に回転させると、当該回転角に応じて、Zc1軸周りに第1仮想カメラC1が回転する。具体的には、第1仮想カメラC1は、端末装置7のZ軸周りの回転方向に当該端末装置7の回転量と同じ回転量で、Zc1軸(撮像軸)周りに回転する。このため、第1仮想カメラC1を用いて生成される画像は、端末装置7の画面の中心軸に対して端末装置7の回転方向と逆方向に回転する。その結果、端末装置7のロール方向の回転が打ち消され、端末装置7の画面において、画像は、第1ユーザの見た目上はロール方向に回転しない。すなわち、端末装置7の画面に表示される画像に含まれる仮想空間の地面(xz平面)は実空間の地面と平行であり、仮想空間の上下方向は、実空間の重力方向と平行である。
従って、例えば、第1ユーザが端末装置7をロール方向に反時計回りに90度回転させることによってX軸が重力方向を向く場合(このような姿勢で端末装置7を把持することを「縦持ち」ということがある)、画像は時計回りに90度回転して、上下方向に長い画像が端末装置7に表示される(図8参照)。
上述した端末装置7のヨー方向、ピッチ方向、ロール方向の回転は、端末装置7の慣性センサ73が検出する物理量、例えばジャイロセンサが検出する角速度及び/又は加速度センサが検出する重力加速度に基づいて、算出することができる。例えば、ジャイロセンサが検出するX、Y、Z軸周りの角速度を時間で積分することによって、端末装置7の姿勢(各軸周りの回転)を算出することができる。なお、端末装置7の姿勢は、慣性センサに限らず他の方法(例えば、カメラで端末装置7を撮像し、撮像した画像から端末装置7を検出する等)で検出されてもよい。
次に、右アナログスティック72Bを用いた方向入力に基づいた第1仮想カメラC1の向きの制御について、説明する。図7は、右アナログスティック72Bを用いて右方向(X軸負方向)が入力された場合の第1仮想カメラC1の向きの変化について説明するための図である。
図7に示すように、右アナログスティック72Bを用いて右方向が入力された場合(右方向にスライドされた場合)、第1仮想カメラC1は、その入力量(スライド量とスライドされた時間)に応じて、ヨー方向に回転する。具体的には、第1仮想カメラC1は、仮想空間のy軸と平行な軸周りに回転する。従って、右アナログスティック72Bを用いて右方向が入力されると、第1仮想カメラC1は仮想空間の右方向を向き、入力前に画面の左右方向の中央付近に表示されていた岩オブジェクト83は、入力後では画面の左右方向の左領域に表示される。なお、図7では、仮想空間に固定のy軸と第1仮想カメラC1に固定のYc1軸とが平行であるため、第1仮想カメラC1はYc1軸周りに回転している。
なお、右アナログスティック72Bを用いて左方向が入力された場合は、第1仮想カメラC1は、y軸周りに逆回転する。したがって、右アナログスティック72Bを用いて左方向が入力された場合は、第1仮想カメラC1は仮想空間の左側を向く。
また、図7において、右アナログスティック72Bを用いて例えば右斜め上方が入力された場合、当該入力のうちの右方向の成分のみが第1仮想カメラC1のヨー方向の回転に用いられる。また、図7において、右アナログスティック72Bを用いて上下方向が入力された場合、第1仮想カメラC1はヨー方向には回転しない。すなわち、右アナログスティック72Bを用いた左右方向の入力に応じて、第1仮想カメラC1はヨー方向(仮想空間の左右方向)に回転する一方、右アナログスティック72Bを用いた上下方向の入力に対しては、第1仮想カメラC1は、ヨー方向にもピッチ方向(仮想空間の上下方向)にも、さらにロール方向にも回転しない。
図8は、端末装置7のX軸が重力方向を向くように把持されている場合(縦持ち)において、右アナログスティック72Bを用いて方向入力が行われたときの第1仮想カメラC1の向きの変化について説明するための図である。図8に示すように、端末装置7のX軸が重力方向を向くように把持されている場合、すなわち、図3に示す基準姿勢から90度反時計回り(Z軸周り)に回転されている場合において、右アナログスティック72BがY軸負方向(重力方向を基準として右方向)にスライドされたとき、第1仮想カメラC1はy軸周りに回転される。第1仮想カメラC1がy軸周りに回転されることにより、第1仮想カメラC1は仮想空間の右方向を向く。このため、右アナログスティック72Bの操作前には画面の右側にその一部しか表示されなかった家オブジェクト82が、操作後には画面の左右方向の中央付近に表示される。
なお、図8に示す縦持ちの状態において、右アナログスティック72Bを用いてY軸正方向(重力方向を基準として左方向)にスライドされた場合、第1仮想カメラC1は仮想空間の左方向を向く。また、図8に示す縦持ちの状態において、右アナログスティック72Bを用いてX軸方向(重力方向)が入力された場合、第1仮想カメラC1の向きは変化しない。
図9は、端末装置7のX軸が実空間の水平方向に対して所定の角度だけ傾くように把持されている場合(斜め持ち)において、右アナログスティック72Bを用いて方向入力が行われたときの第1仮想カメラC1の向きの変化について説明するための図である。図9に示すように、端末装置7が基準姿勢から所定の角度(例えば30度)だけロール方向(Z軸周り)に回転されて把持されている場合、第1仮想カメラC1もロール方向(Zc1軸周り)に回転される。この状態において、右アナログスティック72Bが見た目上の右方向(基準姿勢における右斜め下方向)にスライドされた場合、第1仮想カメラC1は、仮想空間のy軸周りに回転される。すなわち、第1仮想カメラC1は、右アナログスティック72Bが見た目上の右方向にスライドされた場合、仮想空間の右方向を向く。このため、右アナログスティック72Bの操作前には画面の右側に表示されていた家オブジェクト82は、操作後には画面の左方向に移動する。
このように、端末装置7の姿勢が変化しても、第1仮想カメラC1は、右アナログスティック72Bの見た目上(外観上)の入力方向に対応する仮想空間の方向を向くように制御される。すなわち、第1仮想カメラC1の向きの変化方向と、アナログスティックの見た目上の入力方向とが沿うように、第1仮想カメラC1の向きが変化される。ここで、「見た目上の入力方向」とは、実空間を基準とした右アナログスティック72Bのスライド方向である。端末装置7が基準姿勢である場合は、見た目上の入力方向と端末装置7が検出する右アナログスティック72Bの入力方向を示す入力ベクトルの方向とは一致する。一方、端末装置7が基準姿勢からZ軸周りに回転されている場合、見た目上の入力方向は、上記入力ベクトルの方向とは異なる。具体的には、右アナログスティック72Bの入力方向を示す入力ベクトルが、端末装置7の姿勢に応じて回転され、当該回転されたベクトルに基づいて、第1仮想カメラC1の向きが変化する。
図10は、右アナログスティック72Bの入力方向に応じた入力ベクトルを端末装置7の姿勢に応じて回転させる様子を示す図である。端末装置7の右アナログスティック72Bにおいて行われた操作は、入力ベクトルとして算出される。図10に示すように、右アナログスティック72Bの入力方向に応じた入力ベクトルは、IxIy座標系の座標値として表される。Ix軸は、端末装置7のX軸負方向と一致し、Iy軸は、端末装置7のY軸正方向と一致する。端末装置7がロール方向(Z軸周り)にθrだけ回転されている場合において、入力ベクトルの値が例えば(0.707,−0.707)であった場合、当該入力ベクトルをθrだけ回転させた補正ベクトルが算出される。そして、当該補正ベクトルが、第1仮想カメラC1のy軸周りの回転に用いられる。より具体的には、第1仮想カメラC1のy軸周りの回転(ヨー方向の回転)には、右アナログスティック72Bを用いた見た目上の左右方向の入力のみが用いられるため、補正ベクトルのIx軸成分の値に応じて、第1仮想カメラC1がy軸周りに回転される。
例えば、端末装置7のロール方向の回転角θrが90度である場合(縦持ちの場合)において、入力ベクトルの値が(0,−1.0)であるとき、入力ベクトルを90度回転させた補正ベクトルは(1,0)となる。従って、この場合、右アナログスティック72Bの右方向が入力されたと見なして、第1仮想カメラC1をy軸周りに回転させる。また、例えば、端末装置7のロール方向の回転角θrが90度である場合において、入力ベクトルの値が(1,0)であるとき、入力ベクトルを90度回転させた補正ベクトルは(0,1)となる。従って、この場合、右アナログスティック72Bの上方向が入力されたと見なして、第1仮想カメラC1をy軸周りに回転させない。
このように、端末装置7の姿勢に応じて右アナログスティック72Bの入力方向を示す入力ベクトルを補正して補正ベクトルを算出する。そして、当該補正ベクトルに基づいて、第1仮想カメラC1を仮想空間の上下方向の軸周りに回転させる。これにより、端末装置7の姿勢が変化した場合においても、見た目上の右アナログスティック72Bの入力方向(重力方向を基準とした水平方向)に、第1仮想カメラC1を向けることができる。
以上のように、本実施形態においては、端末装置7の姿勢を変化させる操作(第1の操作)、および、右アナログスティック72Bを用いた方向入力操作(第2の操作)によって、第1仮想カメラC1の向きが制御される。図11に示すように、第1の操作によるカメラ制御と第2の操作によるカメラ制御が足しあわされることにより、第1仮想カメラC1の向きが決定される。
(端末装置と表示装置とを用いたゲーム操作)
次に、図12から図19を参照して、端末装置7と表示装置2とに表示される画像を用いた複数人で行われるゲーム操作について説明する。まず、図12から図14を用いて、端末装置7と表示装置2とに表示される画像について説明する。
図12は、端末装置7をヨー方向に回転させる操作、および、右アナログスティック72Bを用いた左右方向の入力に基づいた2つの仮想カメラの制御について説明するための図である。上述のように、端末装置7のヨー方向(Y軸周り)の回転および右アナログスティック72Bの左右方向の入力に応じて、端末装置7のLCD51に表示される画像を生成するための第1仮想カメラC1の向きが変化する。第1仮想カメラC1と同様に、表示装置2に表示される画像を生成するための第2仮想カメラC2の向きも、端末装置7のヨー方向の回転および右アナログスティック72Bの左右方向の入力に応じて、変化する。すなわち、ヨー方向に関して、第2仮想カメラC2は第1仮想カメラC1と連動して動作する。具体的には、第1仮想カメラC1に固定の座標系のYc1軸周りの回転と、第2仮想カメラC2に固定のXc2Yc2Zc2座標系のYc2軸周りの回転とは、等しい。ただし、急激な変化を避けるために、第2仮想カメラC2が第1仮想カメラC1に所定時間をかけて追従するようにしてもよい。なお、Xc2軸は第2仮想カメラC2を基準として左方向に延びる軸であり、Yc2軸は第2仮想カメラC2を基準として上方向に延びる軸であり、Zc2軸は第2仮想カメラC2の撮像方向に延びる軸である。
図13は、端末装置7をピッチ方向に回転させる操作に基づいた2つの仮想カメラの制御について説明するための図である。図14は、端末装置7をロール方向に回転させる操作に基づいた2つの仮想カメラの制御について説明するための図である。図13に示すように、端末装置7をピッチ方向(X軸周り)に回転させると、第1仮想カメラC1もピッチ方向(Xc1軸周り)に回転する。一方で、端末装置7をピッチ方向に回転させても、第2仮想カメラC2は、ピッチ方向(Xc2軸周り)に回転しない。
また、図14に示すように、端末装置7をロール方向(Z軸周り)に回転させると、第1仮想カメラC1もロール方向(Zc1軸周り)に回転する。一方で、端末装置7をロール方向に回転させても、第2仮想カメラC2は、ロール方向(Zc2軸周り)に回転しない。すなわち、ピッチ方向およびロール方向に関しては、第2仮想カメラC2は第1仮想カメラC1と連動して動作しない。
このように、端末装置7をヨー方向に回転させたり、右アナログスティック72Bを左右方向にスライドさせることにより、ヨー方向に関して第1仮想カメラC1と第2仮想カメラC2とを連動させることができる。また、端末装置7をピッチ方向やロール方向に回転させることにより、端末装置7を把持する第1ユーザは、端末装置7の背面を上下左右の任意の方向に向けることによって、仮想空間の上下左右の任意の方向を見ることができる。従って、第1ユーザは、自身の端末装置7に対する操作に応じて自由に仮想空間を見渡すことができる。
一方、端末装置7がヨー方向に回転されると第2仮想カメラC2もヨー方向(y軸周り)に回転するが、端末装置7がピッチ方向やロール方向に回転されても第2仮想カメラC2はピッチ方向やロール方向に回転しない。従って、第1ユーザが端末装置7をピッチ方向やロール方向に回転させても、表示装置2に表示される仮想空間の範囲は変化しない。このため、表示装置2を視認する第2ユーザにとっては、見やすい画像となる。すなわち、第1ユーザが端末装置7を上下方向に向けたりロール方向に回転させたりすることで表示装置2において画像が上下方向に揺れたり、回転したりすると、第2ユーザにとっては見難い画像となる。しかしながら、本実施形態では、第2仮想カメラC2は第1仮想カメラC1とヨー方向に関してのみ連動するため、据置型の表示装置2を視認する第2ユーザにとって見やすい画像となる。
次に、上述のように端末装置7および表示装置2において仮想空間の画像が表示されている場合において、第2ユーザがコントローラ5を用いて表示装置2の画面上の位置を指示する場合について説明する。図15は、コントローラ5を用いて表示装置2の画面上の位置が指示された場合において、端末装置7および表示装置2に表示される画像の一例を示す図である。
図15に示すように、第2ユーザがコントローラ5の先端を表示装置2に向けると、表示装置2の画面には、画面上の指示位置を示すポインタ86が表示される。表示装置2にポインタ86が表示されると、端末装置7のLCD71には、指示オブジェクト87が表示される。指示オブジェクト87は、所定の3次元形状(例えば、球)のオブジェクトであり、ポインタ86が示す表示装置2の画面上の位置に対応する仮想空間の3次元位置に配置される。そして、当該指示オブジェクト87を含む仮想空間を撮像した画像が、端末装置7のLCD71に表示される。また、端末装置7には、指示オブジェクト87の位置を示す指標88が表示される。指標88は、ユーザオブジェクト81と指示オブジェクト87との位置関係を示し、例えば、ユーザオブジェクト81から指示オブジェクト87に向かう矢印として表示される。当該指標88および指示オブジェクト87が端末装置7に表示されることで、端末装置7を視認する第1ユーザは、指示オブジェクト87の位置、すなわち、第2ユーザによって指示された位置を知ることができる。
図16は、指示オブジェクト87が配置される位置について説明するための図である。まず、コントローラ5を用いて指示された表示装置2の画面上の指示位置が算出される。例えば、表示装置2の周辺(例えば画面の上方)に配置されたマーカ装置6からの光をコントローラ5の撮像部が撮像することにより、表示装置2の画面上の指示位置(2次元)が算出される。次に、図16に示すように、当該指示位置を通って第2仮想カメラC2のZc2軸と平行な直線が算出される。そして、当該直線と仮想空間の地面(xy平面)から所定の高さhの面とが交わる点が、3次元指示位置として算出される。このようにして算出された3次元指示位置に、指示オブジェクト87が配置される。
図17は、端末装置7の左アナログスティック72Aを用いた方向入力に基づいてユーザオブジェクト81を移動させる様子を示す図である。図17に示すように、第1ユーザは、端末装置7の左アナログスティック72Aを用いて所定の方向を入力することにより、ユーザオブジェクトを81’の位置から81の位置に移動させることができる。ユーザオブジェクト81の移動に伴って、第1仮想カメラC1および第2仮想カメラC2も仮想空間を移動する。例えば、左アナログスティック72Aの上方向(Y軸正方向)が入力された場合、ユーザオブジェクト81は、仮想空間を前方に移動し(端末装置7の画面の奥方向に移動し)、2つの仮想カメラもそれに伴って移動する。また、左アナログスティック72Aの右方向(X軸負方向)が入力された場合、ユーザオブジェクト81は、仮想空間を右方向に移動し、それに伴って2つの仮想カメラも移動する。また、図17に示すように、左アナログスティック72Aの右上方向が入力されると、ユーザオブジェクト81は、右斜め前方に移動する。このように、第1ユーザは、左アナログスティック72Aを用いた方向入力によって、仮想空間の任意の方向にユーザオブジェクト81を移動させることができる。
なお、端末装置7が縦持ちの状態である場合、左アナログスティック72Aを用いて方向入力が行われると、上記右アナログスティック72Bを用いた操作と同様に、左アナログスティック72Aの見た目上の入力方向にユーザオブジェクト81は移動する。図18は、端末装置7が縦持ちの状態である場合において、左アナログスティック72Aを用いた方向入力操作が行われた場合のユーザオブジェクト81の移動を説明するための図である。図18に示すように、端末装置7が縦持ちの状態である場合において、左アナログスティック72AがX軸負方向にスライドされると、見た目上のスライド方向は実空間の上方である。従って、この場合、左アナログスティック72Aを用いて上方向が入力されたと見なされて、ユーザオブジェクト81は、右方向に移動せずに仮想空間の前方(画面の奥方向)に移動する。具体的には、上述の右アナログスティック72Bを用いた操作と同様に、左アナログスティック72Aの入力方向に応じた入力ベクトルが、端末装置7のZ軸周りの回転に応じて回転される。そして、当該回転されたベクトルに応じて、ユーザオブジェクト81の移動方向が定められる。
図19は、ユーザオブジェクト81が移動して第2ユーザによって指示された家オブジェクト82に到達した様子を示す図である。ここで、ユーザオブジェクト81が、家オブジェクト82に到達した場合、ゲームAが選択される。家オブジェクト82は、これから実行するゲームを選択するためのオブジェクトであり、家オブジェクト82に対応するゲームが予め用意されている。また、仮想空間には、ゲームAに対応する家オブジェクト82の他に、異なる種類のゲームに対応付けられた複数の選択オブジェクトがそれぞれ配置される。
図20は、ユーザオブジェクト81が移動して仮想空間に配置されたビルオブジェクト89に到達した様子を示す図である。図20に示すように、仮想空間には、ゲームBに対応するビルオブジェクト89が配置され、ユーザオブジェクト81がビルオブジェクト89に到達すると、ゲームBが選択される。
以上のように、第1ユーザがユーザオブジェクト81を操作して各ゲームに対応付けられた選択オブジェクトを選択することにより、ゲームが実行される。第2ユーザは、表示装置2に表示された画像を見ながら、コントローラ5を用いて表示装置2の画面上の位置を指示することにより、第1ユーザに選択してもらいたい選択オブジェクト(ゲーム)を指示する。第1ユーザは、端末装置7のLCD71に表示された指示オブジェクト87を見て、第2ユーザによって指示された選択オブジェクトを知ることができる。そして、第1ユーザはユーザオブジェクト81を操作することによって当該選択オブジェクトを選択し、ゲームを開始することができる。
このように、表示装置2の画面上の指示位置に対応する仮想空間の位置に指示オブジェクト87が配置され、当該指示オブジェクト87が端末装置7に表示されることにより、ユーザ同士のコミュニケーションを行うことができる。
なお、上記実施形態は単なる一例であり、例えば以下に説明するように種々の変形が行われてもよい。
例えば、上記実施形態では、右アナログスティック72Bを用いた見た目上の左右方向(重力方向に対して左右方向)の入力に応じて、第1仮想カメラC1をヨー方向に回転させた。他の実施形態では、見た目上の上下方向(重力に平行な方向)の入力に応じて、第1仮想カメラC1をピッチ方向に回転させてもよい。すなわち、当該上下方向の入力に応じて、第1仮想カメラC1を仮想空間の上下方向に向けてもよい。この場合、右アナログスティック72Bの入力方向を示す入力ベクトルを端末装置7の姿勢に応じて補正して(回転させて)上記補正ベクトルを算出し、当該補正ベクトルの左右方向成分に応じて、第1仮想カメラC1をヨー方向に回転させる。また、当該補正ベクトルの上下方向成分に応じて、第1仮想カメラC1をピッチ方向に回転させる。
また、上記実施形態では、任意の方向を入力することが可能なアナログスティックを用いた方向入力を行い、アナログスティックにおいて行われた入力方向を、端末装置7の姿勢に応じて補正した。他の実施形態では、十字キーや所定のパターンで配置された複数の操作ボタン、その他任意の入力手段を用いて方向入力が行われ、端末装置7の姿勢に応じて入力方向が補正されてもよい。
また、上記実施形態では、ヨー方向に関してのみ第2仮想カメラC2を第1仮想カメラC1と連動させたが、他の実施形態では、ピッチ方向およびロール方向も含めて連動させてもよい。また、他の実施形態では、第2仮想カメラC2を、所定方向に関してのみ第1仮想カメラC1と連動させてもよい。すなわち、第1仮想カメラC1は、端末装置7に対する操作に応じて複数の方向(ロール、ピッチ、ヨー)に回転する一方で、第2仮想カメラC2は、複数の方向のうちの所定方向に回転してもよい。
また、上記実施形態では、第1仮想カメラC1および第2仮想カメラC2が仮想空間に配置され、第1仮想カメラC1と第2仮想カメラC2とは連動した。そして、第1仮想カメラC1から仮想空間を見た画像が端末装置7に表示され、第2仮想カメラC2から仮想空間を見た画像が表示装置2に表示された。他の実施形態では、第2仮想カメラC2は設定されずに、第1仮想カメラC1から見た画像が端末装置7および表示装置2に表示されてもよい。
また、上記実施形態では、第2仮想カメラC2の撮像方向を、第1仮想カメラC1の撮像方向と平行(所定の角度差があってもよい)にすることにより、表示装置2には、端末装置7に表示される画像と同じような画像(ユーザオブジェクト81の後方から仮想空間を見た画像)が表示された。すなわち、上記実施形態では、表示装置2の奥方向に対応する仮想空間の方向を端末装置7の奥方向に対応する仮想空間の方向と一致させた。他の実施形態では、第2仮想カメラC2の位置および撮像方向は第1仮想カメラC1と一致(実質的に一致)していなくてもよい。
図21は、第1仮想カメラC1と第2仮想カメラC2の位置関係および撮像方向(視線方向)の種々の例を示す図である。上記実施形態のように、第2仮想カメラC2は、第1仮想カメラC1の視点Aと一致(略一致)する視点Bに配置されてもよく、撮像方向Bは、第1仮想カメラC1の撮像方向Aと一致(略一致)してもよい。具体的には、第2仮想カメラC2の視点Bは、左右方向および上下方向に関して第1仮想カメラC1の視点Aと一致してもよい。あるいは、第2仮想カメラC2の視点Bは、左右方向に関して第1仮想カメラC1の視点Aと一致し、上下方向に関して第1仮想カメラC1とずれていてもよい。この場合、図3に示すように、表示装置2および端末装置7には略同じ画像が表示され、表示装置2の画像の奥方向が示す仮想空間の方向は、端末装置7に表示される画像の奥方向に対応する。言い換えると、第1仮想カメラC1の撮像方向と第2仮想カメラC2の撮像方向とは、実質的に平行(垂直よりも平行に近く)に設定されてもよい。
また、図21に示すように、第2仮想カメラC2は、視点Cに配置されて、撮像方向は方向Cに設定されてもよい。また、第2仮想カメラC2は、視点Dに配置されて、撮像方向は方向Dに設定されてもよい。すなわち、第2仮想カメラC2の撮像方向は、仮想空間の地面に対して実質的に垂直(平行よりも垂直に近い)になるように設定されてもよい。
図22は、図21に示す視点Cに第2仮想カメラC2が設定される際に表示装置2に表示される画像の一例を示す図である。図23は、図22に示す視点Dに第2仮想カメラC2が設定される際に表示装置2に表示される画像の一例を示す図である。図22に示すように、表示装置2には端末装置7よりも仮想空間の上方から見た画像が表示される。この場合においても、第1仮想カメラC1と第2仮想カメラC2とは連動するため、端末装置7に対する操作に応じて、表示装置2に表示される画像は変化する。また、図23に示すように、表示装置2には、仮想空間の真上から見た俯瞰視点の画像が表示されてもよい。この場合においても、同様に第1仮想カメラC1と第2仮想カメラC2とは連動する。図22および図23に示すように、端末装置7には、上記実施形態と同様に画面の奥方向が仮想空間の地面に沿った方向となる画像が表示される一方で、表示装置2には、画面の奥方向が仮想空間の地面と垂直(実質的に垂直)となる画像が表示される。すなわち、仮想空間の上方からユーザオブジェクト81を含む仮想空間を見た画像が表示装置2に表示される。この場合、表示装置2の画像の上方向が示す仮想空間の方向は、端末装置7に表示される画像の奥方向に対応する。言い換えると、第1仮想カメラC1の撮像方向と第2仮想カメラC2の撮像方向とは、実質的に垂直(平行よりも垂直に近く)に設定されてもよい。
また、上記実施形態では、コントローラ5を用いて表示装置2の画面上の位置が指示されたが、他の実施形態では、他の任意の装置を用いて表示装置2の画面上の位置が指示されてもよい。例えば、マウス等のポインティングデバイスやアナログスティック、十字キー、複数の操作ボタン等を用いた方向入力によって表示装置2の画面上のポインタが移動し、当該ポインタの位置を指示位置としてもよい。あるいは、表示装置2の画面上にタッチパネルが設けられ、タッチ操作によって表示装置2の画面上の位置が指示されてもよい。
また、上記実施形態では、選択オブジェクトによって選択オブジェクトに応じたゲームが実行されるものとした。他の実施形態では、選択されたオブジェクトに応じて他の任意のプログラムが実行されてもよい。
また、上記実施形態では、表示装置2の画面上の位置が指示され、当該指示された位置を示す指示オブジェクト87が端末装置7に表示された。他の実施形態では、端末装置7のLCD71の画面上の位置が指示され、当該指示された位置に対応する仮想空間の位置に指示オブジェクトが配置されて、当該指示オブジェクトが表示装置2に表示されてもよい。
例えば、端末装置7の画面上にタッチパネルが設けられ、タッチ操作によってLCD71上の位置が指示され、当該指示位置に対応する仮想空間の位置に指示オブジェクトが配置されてもよい。そして、当該指示オブジェクトを含む画像が表示装置2に表示されることにより、端末装置7を使用する第1ユーザと表示装置2を視認する第2ユーザとの間でコミュニケーションが行われてもよい。また、端末装置7とは別体の操作装置を用いて端末装置7のLCD71上の画面の位置が指示され、当該指示位置に対応する仮想空間の位置に指示オブジェクトが配置されてもよい。そして、当該指示オブジェクトを含む画像が表示装置2に表示されてもよい。
(処理の流れ)
次に、本実施形態のゲームシステム1において行われる処理の詳細について説明する。まず、メモリに記憶される各種データについて説明する。図24は、ゲーム装置3内に記憶される各種データを示す図である。
図24に示すように、ゲーム装置3のメモリ11等には、後述する処理を実行するためのプログラム100、ゲームAを実行するためのゲームプログラム101、および、ゲームBを実行するためのゲームプログラム102が記憶される。また、ゲーム装置3には、端末装置7の姿勢を示す姿勢データ110、左アナログスティック72Aおよび右アナログスティック72Bの入力方向を示す入力方向データ111、第1仮想カメラC1の向きを示す第1仮想カメラデータ112、第2仮想カメラC2の向きを示す第2仮想カメラデータ113、コントローラ5を用いて指示された表示装置2の画面上の位置を示す指示位置データ114、および、ユーザオブジェクトの位置を示すオブジェクトデータ115等が記憶される。また、ゲーム装置3には、上記家オブジェクト82やビルオブジェクト89の位置を示すデータ等が記憶される。
(フローチャートの説明)
次に、ゲーム装置3(CPU10)において実行される処理の詳細を、図25を参照して説明する。図25は、ゲーム装置3において実行される処理の流れを示すメインフローチャートである。
まず、ゲーム装置3は、メモリに記憶された端末装置7の慣性センサ73からのデータに基づいて、端末装置7の姿勢を取得(算出)する(ステップS101)。次に、ゲーム装置3は、メモリに記憶された端末装置7からの操作データに基づいて、右アナログスティック72Bおよび左アナログスティック72Aの入力方向を示す入力ベクトルそれぞれを取得する(ステップS102)。
次に、ゲーム装置3は、端末装置7の姿勢および右アナログスティック72Bの入力ベクトルに基づいて、第1仮想カメラC1および第2仮想カメラC2の制御を行う(ステップS103)。具体的には、ゲーム装置3は、上述のように、端末装置7のヨー方向、ピッチ方向、ロール方向の回転に応じて第1仮想カメラC1の向きを算出する。また、右アナログスティック72Bの入力方向を示す入力ベクトルと端末装置7のロール方向の回転とに基づいて、補正ベクトルを算出し、算出した補正ベクトルに応じて第1仮想カメラC1をy軸周りに回転させる。また、ゲーム装置3は、上述のように第1仮想カメラC1の向きに応じて第2仮想カメラC2の向きを設定する。
次に、ゲーム装置3は、コントローラ5を用いた表示装置2の画面上の指示位置を取得し(ステップS104)、当該指示位置に対応する仮想空間の位置である3次元位置を算出する(ステップS105)。そして、ゲーム装置3は、指示オブジェクト87を算出した3次元位置に配置する(ステップS106)。以上の処理が行われることにより、第1仮想カメラC1および第2仮想カメラC2から見た画像がそれぞれ生成され、端末装置7および表示装置2に出力される。これにより、端末装置7には、第1仮想カメラC1から指示オブジェクト87を含む仮想空間を見た画像が表示され、表示装置2には、第1仮想カメラC1と連動する第2仮想カメラC2から仮想空間を見た画像が表示される。
次に、ゲーム装置3は、左アナログスティック72Aの入力方向に応じた入力ベクトルに基づいて、ユーザオブジェクト81を仮想空間内で移動させる(ステップS107)。この場合において、上述のように、入力ベクトルを端末装置7の姿勢に応じて補正し、補正したベクトルに基づいて、ユーザオブジェクト81を移動させる。そして、移動後のユーザオブジェクト81が、仮想空間に配置された選択オブジェクトの位置に到達したか否かが判定される(ステップS108)。ユーザオブジェクト81が選択オブジェクトに到達した場合(ステップS108:YES)、ゲーム装置3は、メモリに記憶された選択オブジェクトに応じたゲームプログラムの実行を開始する(ステップS109)。ユーザオブジェクト81が選択オブジェクトに到達しない場合(ステップS108:NO)、ゲーム装置3は、図25に示す処理を終了する。
なお、図25に示すフローチャートの処理は繰り返し実行される。また、当該フローチャートにおける各ステップの処理は、単なる一例に過ぎず、同様の結果が得られるのであれば、各ステップの処理順序を入れ替えてもよい。
また、上述した処理の一部は、端末装置7において行われてもよい。例えば、端末装置7の姿勢およびアナログスティックを用いた方向入力に応じて、第1仮想カメラC1の向きが端末装置7において算出されてもよい。この場合において、端末装置7は、自機の姿勢に応じてアナログスティックの入力ベクトルを回転させたベクトルを算出し、当該算出したベクトルに基づいて、第1仮想カメラC1の向きを算出する。
また、上記プログラムは、上記ゲーム装置3に限らず、他の任意の情報処理装置において実行され、当該情報処理装置が上述したゲームシステムとして機能してもよい。例えば、他の情報処理装置としては、携帯電話、スマートフォン、PDA、パーソナルコンピュータ、タブレット型コンピュータ等が用いられてもよい。これら他の情報処理装置が、上述したゲーム装置3および端末装置7として機能してもよい。
また、他の実施形態では、互いに通信可能な複数の装置を含むゲームシステムにおいて、当該複数の装置が、上述のようなゲーム装置3において実行されたゲーム処理を分担して実行するようにしてもよい。例えば、インターネットのようなネットワークに接続された複数の情報処理装置によって上述のようなゲームシステムが構成されてもよい。
また、上記実施形態においては、ゲーム装置3のCPUがプログラムを実行することによって、上述したフローチャートによる処理が行われた。他の実施形態においては、上記処理の一部又は全部は、ゲーム装置3が備える専用回路によって行われてもよいし、他の汎用プロセッサによって行われてもよい。少なくとも1つのプロセッサが、上記処理を実行するための「プログラムされた論理回路」として動作するものであってもよい。
1 ゲームシステム
2 表示装置
3 ゲーム装置
5 コントローラ
7 端末装置
71 LCD
72A 左アナログスティック
72B 右アナログスティック
81 ユーザオブジェクト
82、89 選択オブジェクト
87 指示オブジェクト
88 指標

Claims (21)

  1. 方向入力部と表示部とを備えた操作装置に対する操作に応じて、当該表示部の表示内容を制御する表示制御システムであって、
    前記方向入力部の入力方向に応じた入力データを取得する入力データ取得部と、
    前記入力方向に基づいて仮想空間における仮想カメラを制御する第1仮想カメラ制御部と、
    前記第1仮想カメラ制御部によって制御された仮想カメラに基づく画像を前記表示部に表示させる表示制御部とを備え、
    前記第1仮想カメラ制御部は、前記操作装置の姿勢の変化に応じて前記入力データが示す入力方向を変化させ、当該変化させた方向に基づいて、前記仮想カメラを制御する、表示制御システム。
  2. 前記第1仮想カメラ制御部は、前記方向入力部の実空間を基準とした入力方向に基づいて、前記仮想カメラを制御する、請求項1に記載の表示制御システム。
  3. 前記操作装置の姿勢に応じて、前記仮想カメラの向きを制御する第2仮想カメラ制御部をさらに備える、請求項1または2に記載の表示制御システム。
  4. 前記第1仮想カメラ制御部は、前記仮想カメラの向きの変化方向と、前記方向入力部の実空間を基準とした入力方向に対応する仮想空間の方向とが沿うように、前記仮想カメラの向きを変化させる、請求項1から3の何れかに記載の表示制御システム。
  5. 前記第1仮想カメラ制御部は、前記表示部の画面に垂直な軸周りの前記操作装置の回転に応じて前記入力方向を回転させ、当該回転させた入力方向に基づいて前記仮想カメラの向きを制御する、請求項1から4の何れかに記載の表示制御システム。
  6. 前記第1仮想カメラ制御部は、前記入力方向の所定方向の成分に基づいて、前記仮想空間の所定方向に前記仮想カメラの向きを変化させる、請求項1から5の何れかに記載の表示制御システム。
  7. 前記第2仮想カメラ制御部は、前記表示部の画面に垂直な軸周りの前記操作装置の回転に応じて、前記仮想カメラを撮像軸周りに前記操作装置の回転方向に回転させる、請求項3に記載の表示制御システム。
  8. 前記方向入力部または前記操作装置に設けられた第2の方向入力部の入力方向に基づいて、前記仮想空間を移動可能なユーザオブジェクトの移動方向を制御するユーザオブジェクト制御部をさらに備え、
    前記ユーザオブジェクト制御部は、前記操作装置の姿勢の変化に応じて前記入力方向を変化させ、当該変化させた方向に基づいて、前記ユーザオブジェクトの移動方向を制御し、
    前記表示制御部は、前記ユーザオブジェクトを含む画像を前記表示部に表示させる、請求項1から7の何れかに記載の表示制御システム。
  9. 前記仮想空間に配置された第2の仮想カメラの向きを前記仮想カメラの向きに応じて変化させる第3仮想カメラ制御部と、
    前記第2の仮想カメラから前記仮想空間を見た画像を前記表示部とは別体の表示装置に表示させる第2表示制御部とをさらに備える、請求項1から8の何れかに記載の表示制御システム。
  10. 方向入力部と表示部とを備えた操作装置に対する操作に応じて、当該表示部の表示内容を制御する表示制御方法であって、
    前記方向入力部の入力方向に応じた入力データを取得する入力データ取得ステップと、
    前記入力方向に基づいて仮想空間における仮想カメラを制御する第1仮想カメラ制御ステップと、
    前記第1仮想カメラ制御ステップで制御された仮想カメラに基づく画像を前記表示部に表示させる表示制御ステップとを含み、
    前記第1仮想カメラ制御ステップでは、前記操作装置の姿勢の変化に応じて前記入力データが示す入力方向を変化させ、当該変化させた方向に基づいて、前記仮想カメラを制御する、表示制御方法。
  11. 前記第1仮想カメラ制御ステップでは、前記方向入力部の実空間を基準とした入力方向に基づいて、前記仮想カメラを制御する、請求項10に記載の表示制御方法。
  12. 前記操作装置の姿勢に応じて、前記仮想カメラの向きを制御する第2仮想カメラ制御ステップをさらに含む、請求項10または11に記載の表示制御方法。
  13. 前記第1仮想カメラ制御ステップでは、前記仮想カメラの向きの変化方向と、前記方向入力部の実空間を基準とした入力方向に対応する仮想空間の方向とが沿うように、前記仮想カメラの向きを変化させる、請求項10から12の何れかに記載の表示制御方法。
  14. 前記第1仮想カメラ制御ステップでは、前記表示部の画面に垂直な軸周りの前記操作装置の回転に応じて前記入力方向を回転させ、当該回転させた入力方向に応じて前記仮想カメラの向きを制御する、請求項10から13の何れかに記載の表示制御方法。
  15. 前記第1仮想カメラ制御ステップでは、前記入力方向の所定方向の成分に基づいて、前記仮想空間の所定方向に前記仮想カメラの向きを変化させる、請求項10から14の何れかに記載の表示制御方法。
  16. 前記第2仮想カメラ制御ステップでは、前記表示部の画面に垂直な軸周りの前記操作装置の回転に応じて、前記仮想カメラを撮像軸周りに前記操作装置の回転方向に回転させる、請求項12に記載の表示制御方法。
  17. 前記方向入力部または前記操作装置に設けられた第2の方向入力部の入力方向に基づいて、前記仮想空間を移動可能なユーザオブジェクトの移動方向を制御するユーザオブジェクト制御ステップをさらに含み、
    前記ユーザオブジェクト制御ステップでは、前記操作装置の姿勢の変化に応じて前記入力方向を変化させ、当該変化させた方向に基づいて、前記ユーザオブジェクトの移動方向を制御し、
    前記表示制御ステップでは、前記ユーザオブジェクトを含む画像を前記表示部に表示させる、請求項10から16の何れかに記載の表示制御方法。
  18. 前記仮想空間に配置された第2の仮想カメラの向きを前記仮想カメラの向きに応じて変化させる第3仮想カメラ制御ステップと、
    前記第2の仮想カメラから前記仮想空間を見た画像を前記表示部とは別体の表示装置に表示させる第2表示制御ステップとをさらに含む、請求項10から17の何れかに記載の表示制御方法。
  19. 方向入力部と表示部とを備えた操作装置に対する操作に応じて、当該表示部の表示内容を制御する表示制御プログラムであって、コンピュータを、
    前記方向入力部の入力方向に応じた入力データを取得する入力データ取得部と、
    前記入力方向に基づいて仮想空間における仮想カメラを制御する仮想カメラ制御部と、
    前記仮想カメラ制御部によって制御された仮想カメラに基づく画像を前記表示部に表示させる表示制御部として機能させ、
    前記仮想カメラ制御部は、前記操作装置の姿勢の変化に応じて前記入力データが示す入力方向を変化させ、当該変化させた方向に基づいて、前記仮想カメラを制御する、表示制御プログラム。
  20. 方向入力部と表示部とを備えた操作装置に対する操作に応じて、当該表示部の表示内容を制御する表示制御装置であって、
    前記方向入力部の入力方向に応じた入力データを取得する入力データ取得部と、
    前記入力方向に基づいて仮想空間における仮想カメラを制御する仮想カメラ制御部と、
    前記仮想カメラ制御部によって制御された仮想カメラに基づく画像を前記表示部に表示させる表示制御部とを備え、
    前記仮想カメラ制御部は、前記操作装置の姿勢の変化に応じて前記入力データが示す入力方向を変化させ、当該変化させた方向に基づいて、前記仮想カメラを制御する、表示制御装置。
  21. 方向入力部と表示部とを備えた操作装置に対する操作に応じて、当該表示部の表示内容を制御する表示制御システムであって、
    前記方向入力部の入力方向に応じた入力データを取得する入力データ取得部と、
    前記入力方向に基づいて仮想空間における所定のオブジェクトを制御する制御部と、
    前記操作装置の姿勢に応じた画像を前記表示部に表示させるとともに、前記制御部によって制御された所定のオブジェクトに基づく画像を前記表示部に表示させる表示制御部とを備え、
    前記制御部は、前記操作装置の姿勢の変化に応じて前記入力データが示す入力方向を変化させ、当該変化させた方向に基づいて、前記所定のオブジェクトを制御する、表示制御システム。

JP2012085098A 2012-04-04 2012-04-04 表示制御システム、表示制御方法、表示制御プログラム、および表示制御装置 Active JP5959047B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2012085098A JP5959047B2 (ja) 2012-04-04 2012-04-04 表示制御システム、表示制御方法、表示制御プログラム、および表示制御装置
US13/611,737 US9086724B2 (en) 2012-04-04 2012-09-12 Display control system, display control method, computer-readable storage medium having stored thereon display control program, and display control apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012085098A JP5959047B2 (ja) 2012-04-04 2012-04-04 表示制御システム、表示制御方法、表示制御プログラム、および表示制御装置

Publications (2)

Publication Number Publication Date
JP2013214252A true JP2013214252A (ja) 2013-10-17
JP5959047B2 JP5959047B2 (ja) 2016-08-02

Family

ID=49291882

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012085098A Active JP5959047B2 (ja) 2012-04-04 2012-04-04 表示制御システム、表示制御方法、表示制御プログラム、および表示制御装置

Country Status (2)

Country Link
US (1) US9086724B2 (ja)
JP (1) JP5959047B2 (ja)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015158706A (ja) * 2014-02-21 2015-09-03 任天堂株式会社 情報処理プログラム、情報処理装置、情報処理システム、および、情報処理方法
JP2017134775A (ja) * 2016-01-29 2017-08-03 キヤノン株式会社 画像処理装置、画像処理方法及びプログラム
JP2017188002A (ja) * 2016-04-08 2017-10-12 任天堂株式会社 画像処理装置、画像処理システムおよび画像処理方法
JP2018060539A (ja) * 2017-10-02 2018-04-12 望月 玲於奈 ユーザーインターフェースプログラム
US11555575B2 (en) 2020-04-07 2023-01-17 Sharp Kabushiki Kaisha Operating device, display control method, and recording medium recording display control program

Families Citing this family (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9327191B2 (en) * 2006-05-08 2016-05-03 Nintendo Co., Ltd. Method and apparatus for enhanced virtual camera control within 3D video games or other computer graphics presentations providing intelligent automatic 3D-assist for third person viewpoints
JP6178066B2 (ja) 2012-11-06 2017-08-09 株式会社ソニー・インタラクティブエンタテインメント 情報処理装置、情報処理方法、プログラム及び情報記憶媒体
US9933921B2 (en) 2013-03-13 2018-04-03 Google Technology Holdings LLC System and method for navigating a field of view within an interactive media-content item
US9589597B2 (en) 2013-07-19 2017-03-07 Google Technology Holdings LLC Small-screen movie-watching using a viewport
WO2015013145A2 (en) * 2013-07-19 2015-01-29 Google Inc. View-driven consumption of frameless media
EP3022941A1 (en) 2013-07-19 2016-05-25 Google Technology Holdings LLC Visual storytelling on a mobile media-consumption device
US9851868B2 (en) 2014-07-23 2017-12-26 Google Llc Multi-story visual experience
US10341731B2 (en) 2014-08-21 2019-07-02 Google Llc View-selection feedback for a visual experience
GB2533637B (en) * 2014-12-24 2021-05-19 Fountain Digital Labs Ltd An Interactive Video System and a Method of Controlling an Interactive Video System
US10467917B2 (en) 2016-06-28 2019-11-05 Fountain Digital Labs Limited Interactive video system and a method of controlling an interactive video system based on a motion and a sound sensors
WO2019221788A1 (en) * 2018-05-18 2019-11-21 Suzohapp Americas Llc Dynamic display panel system containing push button assemblies
JP6916150B2 (ja) * 2018-06-05 2021-08-11 任天堂株式会社 ゲームシステム、ゲームプログラム、ゲーム装置、およびゲーム処理方法
CN113079410B (zh) * 2020-01-03 2023-05-23 三星电子株式会社 显示装置及其控制方法
JP2021194259A (ja) * 2020-06-15 2021-12-27 任天堂株式会社 情報処理プログラム、情報処理装置、情報処理システム、および情報処理方法
JP7233399B2 (ja) * 2020-06-23 2023-03-06 任天堂株式会社 ゲームプログラム、ゲーム装置、ゲームシステム、およびゲーム処理方法
US11623145B1 (en) * 2021-12-13 2023-04-11 Electronic Arts Inc. Anti-peek system for video games
US11700354B1 (en) * 2022-07-21 2023-07-11 Katmai Tech Inc. Resituating avatars in a virtual environment

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008142509A (ja) * 2006-11-17 2008-06-26 Nintendo Co Ltd ゲームシステムおよびゲームプログラム
JP2012101026A (ja) * 2010-10-13 2012-05-31 Namco Bandai Games Inc プログラム、情報記憶媒体、ゲーム装置及びサーバシステム

Family Cites Families (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6712703B2 (en) * 1998-11-19 2004-03-30 Nintendo Co., Ltd. Video game apparatus and information storage medium for video game
JP4691268B2 (ja) * 2001-05-02 2011-06-01 任天堂株式会社 ゲームシステムおよびゲームプログラム
JP3902508B2 (ja) * 2002-05-20 2007-04-11 任天堂株式会社 ゲームシステムおよびゲームプログラム
US9327191B2 (en) * 2006-05-08 2016-05-03 Nintendo Co., Ltd. Method and apparatus for enhanced virtual camera control within 3D video games or other computer graphics presentations providing intelligent automatic 3D-assist for third person viewpoints
JP5179020B2 (ja) * 2006-05-09 2013-04-10 任天堂株式会社 ゲームプログラム、ゲーム装置、ゲームシステムおよびゲーム処理方法
JP2007310031A (ja) 2006-05-16 2007-11-29 Seiko Epson Corp 画像表示装置、携帯型電子機器および画像表示方法
US9310992B2 (en) * 2008-08-22 2016-04-12 Google Inc. Panning in a three dimensional environment on a mobile device
AU2011204816B8 (en) * 2010-02-03 2013-08-08 Nintendo Co., Ltd. Display device, game system, and game process method
JP5643549B2 (ja) 2010-06-11 2014-12-17 任天堂株式会社 画像処理システム、画像処理プログラム、画像処理装置および画像処理方法
JP6243586B2 (ja) 2010-08-06 2017-12-06 任天堂株式会社 ゲームシステム、ゲーム装置、ゲームプログラム、および、ゲーム処理方法
JP5719147B2 (ja) 2010-11-09 2015-05-13 任天堂株式会社 ゲームシステム、ゲーム装置、ゲームプログラム、および、ゲーム処理方法
US9011243B2 (en) 2010-11-09 2015-04-21 Nintendo Co., Ltd. Game system, game device, storage medium storing game program, and game process method
JP5792971B2 (ja) 2011-03-08 2015-10-14 任天堂株式会社 情報処理システム、情報処理プログラム、および情報処理方法
EP2497543A3 (en) 2011-03-08 2012-10-03 Nintendo Co., Ltd. Information processing program, information processing system, and information processing method
US9539511B2 (en) 2011-03-08 2017-01-10 Nintendo Co., Ltd. Computer-readable storage medium, information processing system, and information processing method for operating objects in a virtual world based on orientation data related to an orientation of a device
JP5869236B2 (ja) 2011-06-03 2016-02-24 任天堂株式会社 情報処理プログラム、情報処理装置、情報処理システム、および情報処理方法
JP5951957B2 (ja) 2011-10-27 2016-07-13 任天堂株式会社 ゲームシステム、ゲーム装置、ゲームプログラム、およびゲーム処理方法

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008142509A (ja) * 2006-11-17 2008-06-26 Nintendo Co Ltd ゲームシステムおよびゲームプログラム
JP2012101026A (ja) * 2010-10-13 2012-05-31 Namco Bandai Games Inc プログラム、情報記憶媒体、ゲーム装置及びサーバシステム

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015158706A (ja) * 2014-02-21 2015-09-03 任天堂株式会社 情報処理プログラム、情報処理装置、情報処理システム、および、情報処理方法
JP2017134775A (ja) * 2016-01-29 2017-08-03 キヤノン株式会社 画像処理装置、画像処理方法及びプログラム
JP2017188002A (ja) * 2016-04-08 2017-10-12 任天堂株式会社 画像処理装置、画像処理システムおよび画像処理方法
US11082682B2 (en) 2016-04-08 2021-08-03 Nintendo Co., Ltd. Image processing apparatus and storage medium for deforming or moving displayed objects
JP2018060539A (ja) * 2017-10-02 2018-04-12 望月 玲於奈 ユーザーインターフェースプログラム
US11555575B2 (en) 2020-04-07 2023-01-17 Sharp Kabushiki Kaisha Operating device, display control method, and recording medium recording display control program
JP7399779B2 (ja) 2020-04-07 2023-12-18 シャープ株式会社 操作装置、表示制御方法、及び表示制御プログラム

Also Published As

Publication number Publication date
US20130265217A1 (en) 2013-10-10
US9086724B2 (en) 2015-07-21
JP5959047B2 (ja) 2016-08-02

Similar Documents

Publication Publication Date Title
JP5959047B2 (ja) 表示制御システム、表示制御方法、表示制御プログラム、および表示制御装置
US9721396B2 (en) Computer and computer system for controlling object manipulation in immersive virtual space
CN108780360B (zh) 虚拟现实导航
KR101340797B1 (ko) 3d 객체 표시가 가능한 휴대용 장치 및 그 방법
EP2490453B1 (en) Stereoscopic image display control
JP5448073B2 (ja) 情報処理装置、情報処理プログラム、情報処理システム、および、選択対象の選択方法
JP5586545B2 (ja) ゲームシステム、携帯型ゲーム装置、情報処理部の制御方法、および情報処理部の制御プログラム
US20160357017A1 (en) Head-mounted display, information processing device, display control method, and program
EP2466440B1 (en) Display control program, display control apparatus, display control system, and display control method
JP6242039B2 (ja) 自動センタリング機能付きのジャイロ制御されるゲーム視点のための装置および方法
JP6099237B2 (ja) 表示制御システム、表示制御方法、表示制御プログラム、および表示制御装置
JP2014053794A (ja) 情報処理プログラム、情報処理装置、情報処理システム及び情報処理方法
US20120306868A1 (en) Storage medium having stored therein an image generation program, image generation method, image generation apparatus and image generation system
JP2017004356A (ja) 仮想空間位置指定方法、プログラム、プログラムを記録した記録媒体、および、装置
JP6100497B2 (ja) 情報処理プログラム、情報処理装置、情報処理システム、および画像表示方法
WO2020157955A1 (ja) 仮想オブジェクト表示装置及び仮想オブジェクト表示方法
JP6174646B2 (ja) 仮想空間内のオブジェクトを3軸操作するためのコンピュータ・プログラム
JP6549066B2 (ja) 没入型仮想空間でオブジェクト操作を制御するためのコンピュータ・プログラムおよびコンピュータ・システム
JP2012083809A (ja) 情報処理装置、情報処理装置の制御方法、及びプログラム
JP7471497B2 (ja) 画像表示システム、画像表示プログラム、表示制御装置、および画像表示方法
EP2952233B1 (en) Information processing system, information processing program, information processing apparatus, and information processing method
JP2017054320A (ja) Hmd装置におけるセンサー類を用いたユーザーインタフェースプログラムと広告および装置
JP2017049960A (ja) Hmd装置におけるセンサー類を用いたユーザーインタフェースプログラムおよび装置
JP5095704B2 (ja) ゲーム装置及びゲームプログラム
JP5759797B2 (ja) 画像生成プログラム、画像生成方法、画像生成装置及び画像生成システム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150213

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20151211

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20151216

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160205

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160526

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160531

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160615

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160617

R150 Certificate of patent or registration of utility model

Ref document number: 5959047

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250