JP2012115414A - ゲーム装置、ゲームを提供する方法、ゲームプログラム、および、ゲームシステム - Google Patents

ゲーム装置、ゲームを提供する方法、ゲームプログラム、および、ゲームシステム Download PDF

Info

Publication number
JP2012115414A
JP2012115414A JP2010266940A JP2010266940A JP2012115414A JP 2012115414 A JP2012115414 A JP 2012115414A JP 2010266940 A JP2010266940 A JP 2010266940A JP 2010266940 A JP2010266940 A JP 2010266940A JP 2012115414 A JP2012115414 A JP 2012115414A
Authority
JP
Japan
Prior art keywords
display
game
unit
image
imaging unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2010266940A
Other languages
English (en)
Inventor
Toyokazu Nonaka
豊和 野中
Tomomi Yamane
知美 山根
Norihito Ito
則人 伊藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nintendo Co Ltd
Original Assignee
Nintendo Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nintendo Co Ltd filed Critical Nintendo Co Ltd
Priority to JP2010266940A priority Critical patent/JP2012115414A/ja
Priority to US13/267,233 priority patent/US20120135803A1/en
Publication of JP2012115414A publication Critical patent/JP2012115414A/ja
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0354Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
    • G06F3/03545Pens or stylus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/016Input arrangements with force or tactile feedback as computer generated output to the user
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means
    • G06F3/0308Detection arrangements using opto-electronic means comprising a plurality of distinctive and separately oriented light emitters or reflectors associated to the pointing device, e.g. remote cursor controller with distinct and separately oriented LEDs at the tip whose radiations are captured by a photo-detector associated to the screen
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/042Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/128Adjusting depth or disparity
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/30Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by output arrangements for receiving control signals generated by the game device

Abstract

【課題】ユーザがオブジェクトに直接触っているような感覚が得られる新規なゲーム装置、ゲームを提供する方法、ゲームプログラム、および、ゲームシステムを提供する。
【解決手段】視差を利用してゲーム画像を立体視表示するゲーム装置を提供する。ゲーム装置は、立体視表示が可能な表示部と、撮像部と、オブジェクトの表示部に対する表示位置を設定するとともに、仮想空間内の対応する位置に当該オブジェクトを配置するオブジェクト設定部と、表示部の奥行き方向におけるオブジェクトの表示位置に基づいて視差を設定し、表示部にオブジェクトを立体視表示させる表示制御部と、撮像部によって撮像される所定の指示部材の画像に基づいて、当該指示部材の撮像部に対する相対位置を算出する指示位置算出部と、オブジェクトの表示位置と算出された相対位置との関係に基づいて、ゲーム処理を行うゲーム処理部とを含む。
【選択図】図1

Description

本発明は、視差を利用してゲーム画像を立体視表示するゲーム装置、ゲームを提供する方法、ゲームプログラム、および、ゲームシステムに関する。
従来から、ユーザがタッチパネルに対して操作を行うことで、仮想空間内に表示されるオブジェクトを動かすようなインターフェイスが提供されている。例えば、特開2006−119774号公報(特許文献1)には、表示画面上の2次元座標を入力するデバイスからの入力に基づいて仮想3次元空間に対する座標を算出することで、仮想空間内のオブジェクトの移動についての指示が生成される。
特開2006−119774号公報
上述の特開2006−119774号公報(特許文献1)に開示される構成によれば、ユーザは平面上のタッチパネルに対してタッチ操作を行うので、仮想空間内でオブジェクトを動かしても、実際の空間内に存在するものを触っているような感覚にはなりにくい。
本発明は、ユーザがオブジェクトに直接触っているような感覚が得られる新規なゲーム装置、ゲームを提供する方法、ゲームプログラム、および、ゲームシステムを提供することである。
本発明の第1の局面に従えば、視差を利用してゲーム画像を立体視表示するゲーム装置を提供する。ゲーム装置は、立体視表示が可能な表示部と、撮像部と、オブジェクトの表示部に対する表示位置を設定するとともに、仮想空間内の対応する位置に当該オブジェクトを配置するオブジェクト設定部と、表示部の奥行き方向におけるオブジェクトの表示位置に基づいて視差を設定し、表示部にオブジェクトを立体視表示させる表示制御部と、撮像部によって撮像される所定の指示部材の画像に基づいて、当該指示部材の撮像部に対する相対位置を算出する指示位置算出部と、オブジェクトの表示位置と算出された相対位置との関係に基づいて、ゲーム処理を行うゲーム処理部とを含む。
本発明の第1の局面によれば、ユーザは、立体視表示されるオブジェクトを直接触っているような感覚が得られる。すなわち、従来のような平面上のタッチパネルに対するユーザ入力は、平面的な2次元座標での入力であり、このような2次元座標だけでユーザに距離感を与えることは難しかったが、本発明により提供されるユーザインターフェイスによれば、立体的な3次元座標での入力となる。さらに、立体視表示されるオブジェクトと関連付けてその入力が検出されるので、ユーザは、オブジェクトに対して、現実感のある直感的な入力をしているという感じを得ることができる。
このようなユーザインターフェイスにより提供される直接的な入力操作によって、ユーザは、実生活に近いモーションで所望の操作を行うことができ、かつ、現実感のある見た目の感触を得ることもできる。
本発明の第2の局面に従えば、上記第1の局面において、ゲーム装置は、一方面に表示部が設けられる第1のハウジングをさらに含み、撮像部は、第1のハウジングにおける表示部と同じ面に設けられる。
本発明の第2の局面によれば、表示部からユーザの側に飛び出して見えるオブジェクトに対して、ユーザが直接的に触って操作するようなユーザインターフェイスを実現することができる。
本発明の第3の局面に従えば、上記第1の局面において、ゲーム装置は、一方面に表示部が設けられる第1のハウジングをさらに含み、撮像部は、第1のハウジングにおける表示部とは反対側の面に設けられる。
本発明の第3の局面によれば、表示部からユーザとは反対の側に引き込まれて見えるオブジェクトに対して、ユーザが直接的に触って操作するようなユーザインターフェイスを実現することができる。
本発明の第4の局面に従えば、上記第3の局面において、表示制御部は、撮像部によって撮像される画像をオブジェクトの画像と共に表示部に表示させる。
本発明の第4の局面によれば、拡張現実(Augmented Reality)のようなユーザインターフェイスを提供することができる。
本発明の第5の局面に従えば、上記第1〜4のいずれかの局面において、指示部材は、先端にマーカーを有するスタイラスであり、指示位置算出部は、撮像部によって撮像される画像内のマーカーを示す画像の大きさに基づいて、表示部の奥行き方向におけるスタイラスの位置を算出する。
本発明の第5の局面によれば、一般的な撮像部を用いて指示部材であるマーカーを含む範囲を撮像することで、当該マーカーが存在する表示部の奥行き方向における位置を算出することができる。すなわち、特別な撮像部を用意することなく、マーカーの奥行き方向の位置を算出できるので、コストを抑制できる。このような構成を採用することで、ユーザからみれば、マーカーを有するスタイラスをもって動作をすることで、所望の指示を与えることができる。
本発明の第6の局面に従えば、上記第5の局面において、スタイラスは、振動を発生する振動発生部を含み、ゲーム処理部は、算出されたスタイラスの位置に基づいて、ゲーム処理を行うとともに、当該ゲーム処理の進行に対応して振動発生部から振動を発生させる。
本発明の第6の局面によれば、ユーザは、オブジェクトを実際に触っている感覚を得られるとともに、何らかの操作を行った場合に、そのレスポンス(フィードバック)として振動を感じることもできる。これにより、ユーザは、オブジェクトを直接的に触っている感覚を視覚的に得ることができるとともに、身体的にもその感覚を得ることができる。
本発明の第7の局面に従えば、上記第2または3の局面において、ゲーム装置は、第1のハウジングと折り畳み可能に連結される第2のハウジングと、第2のハウジングに設けられるタッチパネルとをさらに含み、ゲーム処理部は、タッチパネルに対する入力に基づいて、さらにゲーム処理を行う。
本発明の第7の局面によれば、ユーザは、指示部材を動かして操作するだけではなく、通常のタッチパネルを用いてもゲーム進行ができる。そのため、オブジェクトを直接的に触っている感覚を楽しむとともに、円滑なゲーム進行を指示することができる。
本発明の第8の局面に従えば、上記第2または3の局面において、ゲーム装置は、撮像部に着脱可能に設けられ、撮像部を中心とする全周囲の画像を撮像部に導くためのレンズをさらに含む。
本発明の第9の局面に従えば、上記第2または3の局面において、ゲーム装置は、撮像部に着脱可能に設けられる広角レンズをさらに含む。
本発明の第10の局面に従えば、上記第2または3の局面において、ゲーム装置は、撮像部に着脱可能に設けられ、撮像部の撮像範囲を可変とする反射光学系をさらに含む。
本発明の第8〜第10の局面によれば、ゲーム装置に装着されている撮像部が必ずしもユーザが動く範囲(指示部材が存在し得る範囲)の全体を視野範囲にしていない場合であっても、当該撮像部を用いて、本発明に係るゲームを楽しむことができる。そのため、撮像部を新たに追加するような場合に比較して、必要なコストを抑制することができる。
本発明の第11の局面に従えば、立体視表示が可能な表示部を有するゲーム装置において、視差を利用してゲーム画像を立体視表示することを含むゲームを提供する方法を実現する。ゲームを提供する方法は、オブジェクトの表示部に対する表示位置を設定するとともに、仮想空間内の対応する位置に当該オブジェクトを配置するオブジェクト設定ステップと、表示部の奥行き方向におけるオブジェクトの表示位置に基づいて視差を設定し、表示部にオブジェクトを立体視表示させる表示制御ステップと、撮像部によって撮像される所定の指示部材の画像に基づいて、当該指示部材の撮像部に対する相対位置を算出する指示位置算出ステップと、オブジェクトの表示位置と算出された相対位置との関係に基づいて、ゲーム処理を行うゲーム処理ステップとを含む。
本発明の第11の局面によれば、上記の第1の局面と同様の効果を得ることができる。
本発明の第12の局面に従えば、上記第11の局面において、表示制御ステップは、撮像部によって撮像される画像をオブジェクトの画像と共に表示部に表示させるステップを含む。
本発明の第12の局面によれば、上記の第4の局面と同様の効果を得ることができる。
本発明の第13の局面に従えば、上記第11または12の局面において、指示部材は、先端にマーカーを有するスタイラスであり、指示位置算出ステップは、撮像部によって撮像される画像内のマーカーを示す画像の大きさに基づいて、表示部の奥行き方向におけるスタイラスの位置を算出するステップを含む。
本発明の第13の局面によれば、上記の第5の局面と同様の効果を得ることができる。
本発明の第14の局面に従えば、立体視表示が可能な表示部を有するゲーム装置で実行されることで、視差を利用してゲーム画像を立体視表示するゲームプログラムを提供する。ゲームプログラムは、ゲーム装置を、オブジェクトの表示部に対する表示位置を設定するとともに、仮想空間内の対応する位置に当該オブジェクトを配置するオブジェクト設定手段と、表示部の奥行き方向におけるオブジェクトの表示位置に基づいて視差を設定し、表示部にオブジェクトを立体視表示させる表示制御手段と、撮像部によって撮像される所定の指示部材の画像に基づいて、当該指示部材の撮像部に対する相対位置を算出する指示位置算出手段と、オブジェクトの表示位置と算出された相対位置との関係に基づいて、ゲーム処理を行うゲーム処理手段として機能させる。
本発明の第14の局面によれば、上記の第1の局面と同様の効果を得ることができる。
本発明の第15の局面に従えば、撮像部と、視差を利用してゲーム画像を立体視表示するゲーム装置とを備えるゲームシステムを提供する。ゲーム装置は、立体視表示が可能な表示部と、オブジェクトの表示部に対する表示位置を設定するとともに、仮想空間内の対応する位置に当該オブジェクトを配置するオブジェクト設定部と、表示部の奥行き方向におけるオブジェクトの表示位置に基づいて視差を設定し、表示部にオブジェクトを立体視表示させる表示制御部と、撮像部によって撮像される所定の指示部材の画像に基づいて、当該指示部材の撮像部に対する相対位置を算出する指示位置算出部と、オブジェクトの表示位置と算出された相対位置との関係に基づいて、ゲーム処理を行うゲーム処理部とを含む。
本発明の第15の局面によれば、上記の第1の局面と同様の効果を得ることができる。加えて、それ自体が撮像部を有していないゲーム装置であっても、他の主体が有する撮像部によって撮像された画像を用いることで、本発明に係るゲーム処理を実現することができる。
本発明によれば、ユーザがオブジェクトに直接触っているような感覚が得られる新規なゲーム装置、ゲームを提供する方法、ゲームプログラム、および、ゲームシステムを実現できる。
本実施の形態に従うゲーム装置によって提供されるユーザインターフェイスを説明するための模式図である。 本発明の実施の形態に従うゲーム装置の正面図(開状態)である。 図2に示すゲーム装置の上面側を中心とする投影図である。 図2に示すゲーム装置の底面側を中心とする投影図である。 本発明の実施の形態に従うゲーム装置の電気的構成を示すブロック図である。 本発明の実施の形態に従うゲーム装置での表示制御を実現するための電気的構成を示すブロック図である。 図6に示す上側LCDの断面模式図である。 本発明の実施の形態に従うゲーム装置において立体視表示に用いられる視差を有する一対の画像を生成する方法の一例について説明するための図である。 図8に示す方法によって生成された視差を有する一対の画像を用いて立体視表示を提供する方法について説明するための図である。 本発明の実施の形態に従うゲーム装置で利用されるスタイラスの一例を示す図である。 本発明の実施の形態に従うゲーム装置における位置検出の原理を説明するための図である。 本実施の形態に従うマーカー位置の算出処理を説明するための図である。 本実施の形態に従うマーカー位置の算出処理を説明するための図である。 本実施の形態に従うゲーム装置において全方位カメラを用いた構成例を示す図である。 図14に示す全方位カメラにより取得される画像に対する画像処理の内容を説明するための図である。 本実施の形態に従うゲーム装置において広角レンズを用いた構成例を示す図である。 本実施の形態に従うゲーム装置において反射光学系を用いた構成例を示す図である。 本実施の形態に従うゲーム装置において外側カメラを用いる場合を示す図である。 図18に示す構成において上側LCDに表示される画面例を示す図である。 本実施の形態に従うゲーム装置において外側カメラを用いる場合を示す図である。 本実施の形態に従うゲーム装置における機能ブロック図である。 本発明の実施の形態に従うゲーム装置において実行される処理手順に係るフローチャートである。 本実施の形態に従うスタイラスの外観図である。 本実施の形態に従うスタイラスにおける機能ブロック図である。 本実施の形態に従うゲーム装置によって提供されるスキンシップゲームの一例を示す図である。 本実施の形態に従うゲーム装置によって提供されるスキンシップゲームの一例を示す図である。 本実施の形態に従うゲーム装置によって提供されるシャボン玉運びゲームの一例を示す図である。 本実施の形態に従うゲーム装置によって提供されるスケッチゲームの一例を示す図である。 本実施の形態に従うゲーム装置によって提供される鉄球運びゲームの一例を示す図である。 本実施の形態に従うゲーム装置によって提供される鉄球運びゲームの一例を示す図である。
本発明の実施の形態について、図面を参照しながら詳細に説明する。なお、図中の同一または相当部分については、同一符号を付してその説明は繰返さない。
本発明に係る情報処理装置の代表例として、以下では、コンピュータである携帯型のゲーム装置1について説明する。特に、本実施の形態に従うゲーム装置1は、後述するように、少なくとも1つの立体視表示が可能な表示部を有しており、この表示部を用いて、視差を利用してゲーム画像を立体視表示することが可能となっている。
本発明に係るゲーム装置としては、携帯型のゲーム装置1として具現化される場合に限られず、据置型のゲーム装置や、パーソナルコンピュータ、携帯電話、携帯端末などとして具現化することもできる。さらに、後述するように、本発明に係るゲームプログラムを格納した記録媒体と当該記録媒体を装着可能な処理装置本体とを含む情報処理システムとして具現化してもよい。
<A.用語>
本明細書において、「立体視表示」、「3次元表示」、「3D表示」とは、ユーザが画像に含まれる少なくとも一部のオブジェクトを立体的に視認することができるように、当該画像を表現することを意味する。ユーザにオブジェクトを立体的に視認させるために、典型的には、人間の目や脳の生理的な働きを利用する。このような立体視表示は、ユーザにオブジェクトを立体的に視認させるために表示される画像(典型的には、視差を有するステレオ画像)を用いて実現される。
本明細書において、「平面表示」、「2次元表示」、「2D表示」とは、上述の「立体視表示」などと相対する用語であり、ユーザが画像に含まれるオブジェクトを立体的に視認できないような態様で、当該画像を表現することを意味する。
<B.概要>
本実施の形態に従うゲーム装置1は、視差を利用してゲーム画像を立体視表示することが可能である。すなわち、ゲーム装置1は、視差を利用してゲーム画像を立体視表示することを含むゲームを提供する。
特に、ゲーム装置1では、ゲーム画像の少なくとも一部として立体視表示されるオブジェクトをユーザが直接触って操作していると感じるユーザインターフェイスを提供する。すなわち、ユーザは、あたかも表示部の奥行き方向のある位置に存在しているように見える(現実には存在しないが)オブジェクトに対して、そのオブジェクトが見えている位置で現実に何らかの操作をすることで、表示部に表示されるオブジェクトをその操作に応じて動かしていると感じることができる。
図1は、本実施の形態に従うゲーム装置1によって提供されるユーザインターフェイスを説明するための模式図である。図1を参照して、ゲーム装置1は、折り畳み可能に構成された上側ハウジング2および下側ハウジング3からなり、上側ハウジング2には、立体視表示が可能な上側LCD110が装着されている。この上側LCD110では、典型的には、所定の視差を与えられたオブジェクト200の画像を表示する。これにより、ユーザは、上側LCD110の奥行き方向における、当該視差量に応じた位置にオブジェクト200が存在すると視認することができる。
さらに、上側ハウジング2には、撮像部(典型的には、内側カメラ133)が装着されており、この撮像部の撮像によって得られた画像に基づいてユーザ操作が検出される。そして、この検出されるユーザ操作とユーザによって視認されるオブジェクト200の位置とに基づいて判断処理が実行され、この判断処理による判断結果に従ってゲーム処理が進行する。より具体的には、ユーザ操作には、指示部材である位置検出用のマーカー302が装着されたスタイラス300などが用いられ、撮像部によって取得されるマーカー302の画像に基づいて、マーカー302の位置が算出される。
このように、本実施の形態に従うゲーム装置1では、ユーザが立体的に視認しているオブジェクトをスタイラス300などで直接触って操作するとことができ、これにより、実際には存在しないものを触ることができるという不思議な感じをユーザに与えることができる。
以下、このようなユーザインターフェイスを提供するための構成などについて詳述する。
<C.ゲーム装置の全体構成>
まず、本実施の形態に従うゲーム装置1の全体構成について説明する。
図2は、本発明の実施の形態に従うゲーム装置1の正面図(開状態)である。図3は、図2に示すゲーム装置1の上面側を中心とする投影図である。すなわち、図3(A)は、ゲーム装置1の正面図(閉状態)を示し、図3(B)は、ゲーム装置1の前面図を示し、図3(C)は、ゲーム装置1の左側面図を示し、図3(D)は、ゲーム装置1の右側面図を示す。図4は、図2に示すゲーム装置1の底面側を中心とする投影図である。すなわち、図4(A)は、ゲーム装置1の底面図を示し、図4(B)は、ゲーム装置1の背面図を示す。本明細書においては、便宜上、ゲーム装置1を図2に示すように配置した状態を基準として、「正面」、「前面」、「左側面」、「右側面」、「底面」、「背面」という用語を用いるが、これらの用語は形式的な呼称であり、ユーザによるゲーム装置1の使用形態の制約などを意図するものではない。
図2〜図4を参照して、本実施の形態に従う携帯型のゲーム装置1は、折り畳み可能に構成されている。ゲーム装置1は、開いた状態では、図2のような外観であり、閉じた状態では、図3(A)のような外観となっている。ゲーム装置1は、開いた状態であっても、ユーザが両手または片手で把持することができるようなサイズであることが好ましい。
ゲーム装置1は、上側ハウジング2と下側ハウジング3とを有する。上側ハウジング2と下側ハウジング3とは、折り畳み可能(開閉可能)に連結されている。図2に示す例では、上側ハウジング2および下側ハウジング3の各々は、長方形の板状に形成され、互いの長辺部分でヒンジ4を介して回転可能に連結されている。ゲーム装置1は、ユーザによって使用するときに、開状態に維持され、使用されないときに、閉状態に維持される。
また、ゲーム装置1では、上側ハウジング2と下側ハウジング3との間の角度を、閉状態の位置と開状態の位置との間(略0°〜略180°)の任意の角度で維持することもできる。言い換えれば、上側ハウジング2を下側ハウジング3に対して任意の角度で静止させることができる。このハウジング間の静止には、上側ハウジング2と下側ハウジング3との連結部分に発生する摩擦力などが用いられる。摩擦力に加えて、あるいは、摩擦力に代えて、上側ハウジング2と下側ハウジング3との連結部内にラッチ機構を採用してもよい。
上側ハウジング2には、立体視表示が可能な表示部(表示手段)として、上側LCD(Liquid Crystal Display:液晶表示装置)110が設けられている。上側LCD110は、長方形状の表示領域を有し、その長辺方向が上側ハウジング2の長辺方向に一致するように配置される。本実施の形態に従うゲーム装置1では、ユーザが立体視表示をより楽しむことができるように、下側LCD120の画面サイズに比較してより大きな画面サイズを有する上側LCD110を採用する構成を示す。但し、必ずしも、このように画面サイズを異ならせる必要はなく、アプリケーションの用途やゲーム装置1のサイズなどに応じて、画面サイズは適宜設計することができる。上側LCD110の詳細な構成については、後述する。
上側ハウジング2には、何らかの被写体を撮像するための撮像装置(撮像手段)が設けられている。より具体的には、上側ハウジング2には、一対の外側カメラ131Lおよび131R(図3(A)参照)と、内側カメラ133(図2参照)とが設けられている。ここで、内側カメラ133は、上側LCD110の上部に配置されており、一対の外側カメラ131Lおよび131Rは、内側カメラ133が配置されている内側主面とは反対側の面、すなわち上側ハウジング2の外側主面(ゲーム装置1が閉状態となった場合に外側となる面に相当)に配置されている。
このような位置関係によって、一対の外側カメラ131Lおよび131Rは、上側ハウジング2の外側主面が向く方向に存在する被写体を撮像することができ、一方、内側カメラ133は、外側カメラ131Lおよび131Rの撮像方向の逆方向、すなわち、上側ハウジング2の内側主面が向く方向に存在する被写体を撮像することができる。
一対の外側カメラ131Lおよび131Rは、所定の間隔だけ離して配置されており、これらの外側カメラ131Lおよび131Rが取得する一対の画像データを用いて、被写体を立体視表示することもできる。すなわち、外側カメラ131Lおよび131Rは、いわゆるステレオカメラとして機能する。外側カメラ131Lおよび131Rの撮像によって取得される一対の入力画像の間には、外側カメラ131Lと外側カメラ131Rとの相対的な位置関係に応じた、所定の視差が存在する。
一方、内側カメラ133の撮像によって取得される入力画像は、基本的には、非立体視表示(平面表示、通常表示)に用いられる。したがって、本実施の形態に従うゲーム装置1においては、外側カメラ131Lおよび131Rを有効化すると、立体視表示をするための一対の入力画像を取得でき、内側カメラ133を有効化すると、非立体視表示をするための入力画像を取得できる。
さらに、上側ハウジング2には、上側LCD110の右側に立体視ボリューム145が設けられている。この立体視ボリューム145は、上側LCD110における立体視表示を調整するために用いられる。
上側ハウジング2には、音声発生装置(音声発生手段)としてのスピーカ(図5に示すスピーカ151)が収納されている。より具体的には、上側ハウジング2の内側主面中央部に配置されている上側LCD110に対して、左右両側に音抜き孔151Lおよび151Rがそれぞれ配置されている。スピーカ151で発生した音声は、スピーカ151と連通する音抜き孔151Lおよび151Rを通じて、ユーザへ向けて放射される。
一方、下側ハウジング3には、表示部(表示手段)として、下側LCD120が設けられている。下側LCD120は、長方形状の表示領域を有し、その長辺方向が下側ハウジング3の長辺方向と一致するように配置される。
下側LCD120としては、後述するような立体視表示が可能な表示部を採用してもよいが、本実施の形態においては、各種情報などを非立体視表示する通常の表示部が採用される。そのため、下側LCD120としては、例えば、EL(Electro Luminescence:電界発光)を利用した表示部というような、他の適切な形式の表示部を採用してもよい。さらに、表示部(表示手段)の解像度は、実行されるアプリケーションなどに応じて適切に設計される。
下側ハウジング3には、ユーザなどからの入力操作を受け付ける入力手段(入力装置)として、コントロールパッド154と、十字ボタン161と、ボタン群142,162とが設けられている。これらの入力部は、上側ハウジング2と下側ハウジング3とを折り畳んだときに内側となる、下側ハウジング3の主面上に設けられている。特に、コントロールパッド154および十字ボタン161は、ユーザがゲーム装置1を把持した際に、その左手で容易に操作できる位置に配置され、ボタン群162は、ユーザがゲーム装置1を把持した際に、その右手で容易に操作できる位置に配置される。
コントロールパッド154は、主として、ゲーム装置1における立体視表示を調整するための操作を受け付ける。特に、コントロールパッド154は、少なくとも2自由度の入力を同時に受け付けることが可能なアナログデバイスの一例である。より具体的には、コントロールパッド154は、ユーザの操作を受け付ける突起部を有するとともに、下側ハウジング3に対する相対的な位置関係を、少なくとも紙面上下方向および紙面左右方向に変更することが可能な構造となっている。図2に示すコントロールパッド154に代えて、アナログスティック、または、ジョイスティックなどを採用してもよい。
十字ボタン161は、2つの方向を独立して操作可能な入力部であり、ユーザがそれぞれの方向におけるボタン操作をすることで、それに応じた値をもつ2次元の値が出力される。
ボタン群162は、紙面上下左右方向にそれぞれ対応付けられた、4つの操作ボタン162A,162B,162X,162Yを含む。すなわち、ボタン群162についても、2つの方向を独立して操作可能な入力部に相当し、ユーザがそれぞれの方向に対応付けて配置された操作ボタン162A,162B,162X,162Yを操作することで、その操作状態を示す値が出力される。この操作状態を示す値も後述する「操作入力」として検出される。
十字ボタン161および/またはボタン群162が出力する操作入力は、ゲーム装置1における立体視表示の調整に用いられてもよい。あるいは、ゲーム装置1で実行される各種アプリケーションにおいては、これらの操作入力は、ゲーム進行などに係る、選択・決定・キャンセルといった操作に用いられる。
ボタン群142は、セレクトボタン142aと、HOMEボタン142bと、スタートボタン142cと、電源ボタン142dとを含む。セレクトボタン142aは、典型的には、ゲーム装置1で実行されるアプリケーションを選択するために用いられる。HOMEボタン142bは、典型的には、ゲーム装置1で実行されるメニューアプリケーションや各種アプリケーションを初期状態にするために用いられる。スタートボタン142cは、典型的には、ゲーム装置1においてアプリケーションの実行を開始するために用いられる。電源ボタン142dは、ゲーム装置1の電源をオン/オフするために用いられる。
下側ハウジング3内には、音声取得装置(音声取得手段)としてのマイク(図5に示すマイク153)が収納されている。そして、下側ハウジング3の主面上には、マイク153がゲーム装置1の周囲における音を取得するためのマイク用孔153aが設けられている。なお、マイク153が収納される位置、および、当該マイク153と連通するマイク用孔153aの位置は、下側ハウジング3の主面上に限られることなく、例えば、マイク153をヒンジ4内に収納するとともに、ヒンジ4の表面であって、マイク153の収納位置に対応する位置にマイク用孔153aを設けてもよい。
ゲーム装置1には、コントロールパッド154、十字ボタン161、および、ボタン群142,162に加えて、別の入力部(入力手段)であるポインティングデバイスとして、タッチパネル122がさらに設けられている。タッチパネル122は、下側LCD120の画面上を覆うように装着され、ユーザによる入力操作(位置指示操作、ポインティング操作)が行われた場合に、対応する2次元座標値を検出する。
すなわち、タッチパネル122は、下側LCD120の表示領域内におけるユーザによる位置指示操作(2次元座標値)を受け付けるとともに、その位置指示操作が継続している間の2次元座標値の時間的な変化、すなわち一連の位置指示操作を受け付ける。
タッチパネル122としては、典型的には、抵抗膜方式を採用することができる。但し、抵抗膜方式に限らず、各種の押圧式のタッチパネルを採用することもできる。また、タッチパネル122の解像度(検出精度)は、下側LCD120の解像度(表示精度)と同程度であることが好ましい。但し、タッチパネル122の解像度と下側LCD120の解像度とを完全に一致させる必要はない。
タッチパネル122に対するポインティング操作は、通常、ユーザがスタイラス300を用いることで行われるが、スタイラス300に代えて、ユーザ自身の指などでポインティング操作(入力操作)を行うことも可能である。図2,図4(C)に示すように、下側ハウジング3の背面には、スタイラス300の収納部176が設けられている。すなわち、タッチパネル122に対する入力操作を行うためのスタイラス300は、通常、収納部176に格納されており、ユーザが必要に応じて取り出すことになる。
なお、ユーザからの位置指示操作を受け付ける受付手段であるポインティングデバイスとしては、タッチパネル122に代えて、あるいは、これに加えて、マウス、トラックボール、ペンタブレットなどを用いてもよい。また、表示部の表示面に対して遠隔から座標を指示できるポインタ装置(典型的には、Wii(登録商標)のコントローラなど)を採用してもよい。いずれのデバイスを用いた場合であっても、第2LCD120の表示領域内の位置に関連付けられた位置指示操作を受け付けるように構成されることが好ましい。
図3(C),図3(D),図4(A),図4(B)に示すように、下側ハウジング3の背面の左端部には、Lボタン162Lが設けられており、下側ハウジング3の背面の右端部には、Rボタン162Rが設けられている。Lボタン162LおよびRボタン162Rについては、ゲーム装置1で実行される各種のアプリケーションにおいて、選択などの操作に用いられる。
図3(C)に示すように、下側ハウジング3の左側面には、音量ボリューム144が設けられている。音量ボリューム144は、ゲーム装置1に搭載されているスピーカ(図5に示すスピーカ151)からの音量を調整するために用いられる。
図3(D)に示すようには、下側ハウジング3の右側面には、無線スイッチ143が設けられている。無線スイッチ143は、ゲーム装置1における無線通信をオン状態(有効化状態)またはオフ状態(無効化状態)に切り替える。
ゲーム装置1に対しては、ゲームカード171および/またはメモリカード173が装着可能となっている。
すなわち、図4(B)に示すように、下側ハウジング3の背面には、ゲームカード171を装着するためのゲームカードスロット170が設けられている。ゲームカードスロット170の奥側には、ゲーム装置1とゲームカード171との間を電気的に接続するためのインターフェイスが設けられている。ゲームカードスロット170は、ゲームカード171を着脱自在に構成されている。ゲームカード171は、アプリケーションプログラムやゲームプログラム(いずれも命令セットを含む)などを保持する。
また、図3(C)に示すように、下側ハウジング3の左側面には、メモリカード173を装着するためのメモリカードスロット172が設けられている。メモリカードスロット172の奥側には、ゲーム装置1とメモリカード173との間を電気的に接続するためのインターフェイスが設けられている。メモリカードスロット172は、メモリカード173を着脱自在に構成されている。メモリカード173は、他の情報処理装置・ゲーム装置から取得したプログラムや画像データの読出し、ならびに、ゲーム装置1によって撮像および/または画像処理された画像データの記憶(保存)などに用いられる。ゲームカード171は、例えば、SD(Secure Digital)カードなどの不揮発性記録媒体からなる。
ゲーム装置1には、動作状態などをユーザに提示するための各種表示装置が設けられている。より具体的には、下側ハウジング3および上側ハウジング2には、表示部(表示手段)として、複数のLED(Light Emitting Diode)からなるインジケータ群147が設けられている。インジケータ群147は、立体表示インジケータ147aと、お知らせインジケータ147bと、無線インジケータ147cと、電源インジケータ147dと、充電インジケータ147eとを含む。立体表示インジケータ147aは、上側ハウジング2の主面上に設けており、その他のインジケータは、下側ハウジング3の主面または側面に設けられている。
立体表示インジケータ147aは、上側LCD110において立体視表示が行われているか否かを通知する。典型的には、上側LCD110での立体視表示が有効化されているときに、立体表示インジケータ147aは点灯する。
お知らせインジケータ147bは、ユーザに通知すべき情報が存在するか否かを通知する。典型的には、ユーザに対して未読の電子メールが存在しているときや、各種のサーバから何らかのメッセージを受信しているときに、お知らせインジケータ147bは点灯する。
無線インジケータ147cは、ゲーム装置1における無線通信の状態を通知する。典型的には、無線通信が有効化されているときに、無線インジケータ147cは点灯する。
電源インジケータ147dは、ゲーム装置1における電源状態を通知する。ゲーム装置1は、図示しないバッテリを内蔵しており(典型的には、下側ハウジング3に収納される)、主として、このバッテリからの電力で駆動する。そのため、電源インジケータ147dは、ゲーム装置1における電源の投入状態、および/または、バッテリの残量の状態などを通知する。典型的には、ゲーム装置1の電源が投入状態(オン状態)であって、かつ、バッテリの残量が十分であるときに、電源インジケータ147dは、緑色に点灯し、ゲーム装置1の電源が投入状態(オン状態)であって、かつ、バッテリの残量が低下しているときに、赤色に点灯する。
充電インジケータ147eは、上述のバッテリに対する充電状態を通知する。典型的には、ゲーム装置1に対して充電アダプタ(図示しない)などが装着されて内蔵のバッテリが充電状態であるときに、充電インジケータ147eは点灯する。なお、充電アダプタは、図4(A)に示すように、ゲーム装置1の背面に設けられている充電端子174に接続される。
また、本実施の形態に従うゲーム装置1は、赤外線通信の機能を搭載しており、ゲーム装置1の背面には、赤外線ポート179が設けられている。この赤外線ポート179は、データ通信の搬送波である赤外線を投光/受光する。
さらに、ゲーム装置1の前面には、ゲーム装置1を吊り下げるためのストラップを接続するためのフック31,32が設けられている。
また、下側ハウジング3の前面には、ヘッドホンおよび/またはマイクを接続するための接続端子158が設けられている。
<D.ゲーム装置の電気的構成>
次に、本実施の形態に従うゲーム装置1の電気的構成について説明する。
図5は、本発明の実施の形態に従うゲーム装置1の電気的構成を示すブロック図である。
図5を参照して、ゲーム装置1は、演算処理部100と、上側LCD110と、下側LCD120と、タッチパネル122と、外側カメラ131L,131Rと、内側カメラ133と、無線モジュール134と、不揮発性メモリ136と、メインメモリ138と、マイコン140と、ボタン群142と、音量ボリューム144と、立体視ボリューム145と、電源管理IC(Integrated Circuit)146と、インジケータ群147と、加速度センサ148と、インターフェイス回路150と、スピーカ151と、ヘッドホン用アンプ152と、マイク153と、接続端子158と、十字ボタン161と、ボタン群162と、ゲームカードスロット170と、メモリカードスロット172と、赤外線モジュール178とを含む。また、ゲーム装置1は、図示しないバッテリおよび電源回路を含む。
演算処理部100は、ゲーム装置1の全体の制御を司る。より具体的には、演算処理部100は、不揮発性メモリ136に予め格納されているファームウェア(命令セット)、ゲームカードスロット170に装着されるゲームカード171から読出されるプログラム(命令セット)やデータ、メモリカードスロット172に装着されるメモリカード173から読出されるプログラム(命令セット)やデータなどを実行することで、上側LCD110における立体視表示の制御を含む各種処理を実現する。
なお、演算処理部100で実行されるプログラム(命令セット)がゲームカード171やメモリカード173を通じて提供される場合に加えて、CD−ROMやDVDなどの光学式の記録媒体を通じて、ゲーム装置1へ提供されるようにしてもよい。さらに、ネットワークを通じて接続されるサーバ装置(図示しない)からプログラムが提供されるようにしてもよい。
より具体的には、演算処理部100は、CPU(Central Processing Unit)102と、GPU(Graphical Processing Unit)104と、VRAM(Video Random Access Memory)106と、DSP(Digital Signal Processor)108とを含む。これらの各部の処理については、後述する。また、演算処理部100は、各部との間でデータを遣り取りする。
外側カメラ131Lおよび131Rならびに内側カメラ133の各々は、演算処理部100に接続され、演算処理部100からの指示に応答して、撮像により取得した入力画像を演算処理部100へ出力する。これらのカメラの各々は、CCD(Charge Coupled Device)やCIS(CMOS Image Sensor)といった撮像素子と、撮像素子で取得された画像データ(入力画像)を読出すための周辺回路とを含む。
無線モジュール134は、他のゲーム装置1や何らかの情報処理装置との間で無線信号を介してデータを遣り取りする。一例として、無線モジュール134は、IEEE802.11a/b/g/nといった規格に準拠した無線LAN方式により、他の装置との間でデータ通信を行う。
不揮発性メモリ136は、ゲーム装置1の基本動作に必要なファームウェアなどを格納しており、そのファームウェアを記述するコードがメインメモリ138に展開される。演算処理部100のCPU102がメインメモリ138に展開されたコードを実行することで、ゲーム装置1での基本処理が実現される。また、不揮発性メモリ136には、ゲーム装置1において予め設定される各種パラメータに関するデータ(プリセットデータ)が格納されてもよい。一例として、不揮発性メモリ136は、フラッシュメモリからなる。
メインメモリ138は、演算処理部100が処理を実行するためのワーク領域またはバッファ領域として用いられる。すなわち、メインメモリ138は、演算処理部100での処理に必要なプログラム(コード)やデータを一時的に記憶する。一例として、メインメモリ138は、PSRAM(Pseudo-SRAM)からなる。
マイコン140は、主として、ユーザインターフェイスに係る処理を提供する。より具体的には、マイコン140は、演算処理部100と接続されるとともに、ボタン群142、音量ボリューム144、立体視ボリューム145、電源管理IC146、インジケータ群147、および、加速度センサ148と接続される。マイコン140は、ユーザによるボタン操作などを検知して、その検知結果を演算処理部100へ出力するとともに、演算処理部100からの信号に応答して、ユーザへ各種情報を通知するためのインジケータを点灯する。
また、マイコン140は、リアルタイムカウント(RTC:Real Time Clock)141を有している。リアルタイムカウンタ141は、計時機能を提供する部位であり、予め定まった周期で時間をカウントする。このカウント結果は、逐次、演算処理部100へ出力される。演算処理部100は、リアルタイムカウンタ141によってカウントされたカウント値に基づいて、現在時刻(日付)等を算出することもできる。
電源管理IC146は、ゲーム装置1に搭載される電源(典型的には、上述のバッテリ)から各部へ電力を供給するとともに、その供給量を制御する。
加速度センサ148は、ゲーム装置1の変位を検出し、その検出結果は、マイコン140を通じて演算処理部100へ出力される。加速度センサ148による検出結果は、ゲーム装置1で実行されるプログラム(ゲームアプリケーション)などに利用される。
赤外線モジュール178は、他のゲーム装置1との間で無線通信(赤外線通信)を行う。この赤外線モジュール178による無線通信は、無線モジュール134による無線通信に比較して到達可能距離が短くなっている。この赤外線通信の搬送波である赤外線は、赤外線ポート179(図4(B)参照)を通じて投光/受光される。
インターフェイス回路150は、演算処理部100と接続されるとともに、スピーカ151、ヘッドホン用アンプ152、マイク153、コントロールパッド154、および、タッチパネル122と接続される。より具体的には、インターフェイス回路150は、スピーカ151、ヘッドホン用アンプ152、マイク153の制御を行うための音声制御回路(図示しない)と、タッチパネル122の制御を行うためのタッチパネル制御回路(図示しない)とを含む。
スピーカ151は、インターフェイス回路150からの音声信号を増幅して、音抜き孔151Lおよび151Rから音声を出力する。ヘッドホン用アンプ152は、インターフェイス回路150からの音声信号を増幅して、接続されるヘッドホンから音声を出力する。マイク153は、ゲーム装置1に向かって発声されたユーザの音声などを検知して、検知した音声を示す音声信号をインターフェイス回路150に出力する。
以上のように、インターフェイス回路150を構成する音声制御回路は、マイク153で検知されたアナログの音声信号に対してA/D(アナログ/デジタル)変換を行い、その結果得られたデジタルの音声信号を演算処理部100へ出力するとともに、演算処理部100などで生成されたデジタルの音声信号に対してD/A(デジタル/アナログ)変換を行い、その結果得られたアナログの音声信号をスピーカ151および/または接続されるヘッドホンへ出力する。
また、インターフェイス回路150を構成するタッチパネル制御回路は、タッチパネル122からの検出信号に応答して、ユーザが入力操作(ポインティング操作)した位置を示すタッチ位置データを生成して演算処理部100へ出力する。すなわち、タッチパネル122は、そのタッチ面上でポインティングされた位置に対応する2次元座標値に応じた操作入力(タッチ位置データ)を出力する。
ゲームカードスロット170およびメモリカードスロット172は、それぞれ、演算処理部100と接続される。ゲームカードスロット170は、演算処理部100からの指令に応答して、コネクタを介して、装着されたゲームカード171との間でデータの読出しおよび書込みを行う。メモリカードスロット172は、演算処理部100からの指令に応答して、コネクタを介して、装着されたメモリカード173との間でデータの読出しおよび書込みを行う。
下側LCD120および上側LCD110は、演算処理部100からの指令に従って、それぞれ画像を表示する。ゲーム装置1の典型的な使用形態においては、下側LCD120に各種操作を受け付けるための画像が表示されるとともに、上側LCD110では、立体視表示が行われる。
<E.立体視表示を提供するための構成>
次に、本実施の形態に従うゲーム装置1において立体視表示を提供するための構成について説明する。
図6は、本発明の実施の形態に従うゲーム装置1での表示制御を実現するための電気的構成を示すブロック図である。図7は、図6に示す上側LCD110の断面模式図である。
図6を参照して、演算処理部100は、CPU102に加えて、主として、上側LCD110および下側LCD120においてそれぞれ画像を表示するための処理(画像処理)を行うためのGPU104を含む。GPU104は、画像処理に特化した処理回路を有しており、CPU102からの指令に応答して、上側LCD110および下側LCD120にそれぞれ表示すべき画像を逐次生成する。これらの画像は、上側LCD110用のVRAM106a、および、下側LCD120用のVRAM106bへそれぞれ転送される。
このとき、上側LCD110において立体視表示を行うための一対の画像(左目用画像および右目用画像)は互いに独立してVRAM106aへ書込まれる。これに対して、下側LCD120においては平面表示(非立体視表示)が行われるので、単一の画像がVRAM106bへ書込まれる。
上側LCD110は、LCDコントローラ111と、LCDパネル112と、バリア液晶113とを含む。これに対して、下側LCD120は、LCDコントローラ121と、LCDパネル123とを含む。
さらに、上側LCD110の構造について説明する。
図7には、上側LCD110の典型例として、パララックスバリア方式の液晶表示デバイスの構造を示す。上側LCD110は、ガラス基板118とガラス基板119との間に配置されたLCDパネル112を含む。
LCDパネル112は、左目用画素群112Lおよび右目用画素群112Rを含む。ガラス基板118のガラス基板119の側とは反対側に、図示しないバックライトが設けられており、このバックライトからの光は左目用画素群112Lおよび右目用画素群112Rに向けて照射される。そして、左目用画素群112Lおよび右目用画素群112Rは、バックライトからの光を調節するための空間光変調器として機能する。ここで、左目用画素群112Lの各画素と右目用画素群112Rの各画素とは交互に配置される。
ガラス基板118の左目用画素群112Lおよび右目用画素群112Rに接する側とは反対の側に、視差光学系であるバリア液晶113が設けられる。このバリア液晶113には、複数のスリット114が所定間隔で行列状に設けられている。各スリット114の中心位置を通り、かつガラス基板118の面に対して垂直方向の軸を基準として、左目用画素群112Lおよび右目用画素群112Rとが対称的に配置される。このように、各スリットに対応付けられる左目用画素群112Lおよび右目用画素群112Rの各組について、スリットとの間の位置関係を適切に設計することで、ユーザは、その左目で左目用画素群112Lだけを視認するとともに、その右目で右目用画素群112Rだけを視認することになる。
すなわち、バリア液晶113に含まれる各スリット114が、ユーザの右目および左目による視界をそれぞれ対応する角度に制限する。その結果、ユーザの左目の視線AXLには左目用画素群112Lのみが存在し、一方、ユーザの右目の視線AXRには右目用画素群112Rのみが存在することになる。
ここで、左目用画素群112Lおよび右目用画素群112Rに、所定の視差を有する一対の画像を表示させることで、所定の視差を有する画像をユーザに提示することができる。このような所定の視差を有する一対の画像を表示することで、ユーザから見れば、被写体を立体的に見ていると感じることになる。以下では、バリア液晶113のユーザ側の表面、すなわち、この画像が実際に表示される面を(上側LCD110の)表示面とも称す。
より具体的には、図6に示すように、GPU104は、左目用画像および右目用画像をVRAM106aのアドレスを指定して順次書込む。LCDコントローラ111は、VRAM106aに書込まれた左目用画像および右目用画像を構成する列方向の画像が、LCDパネル112に交互に並んで表示されるように、VRAM106aの対象となるアドレスから各列の画像データを順次読出して、LCDパネル112を駆動する。
なお、上側LCD110では、画像を平面表示、すなわち、非立体視表示することもできる。この場合には、LCDコントローラ111に対して指令を与えることで、バリア液晶113を無効化する方法と、表示に用いられる左目用画像と右目用画像との間の視差を実質的にゼロとする方法とが存在する。
前者の方法の場合、バリア液晶113が提供する複数のスリット114が無効化されるので、ユーザの左目および右目には、実質的に、左目用画素群112Lおよび右目用画素群112Rからの光が入射することになる。なお、この場合には、ユーザから見た解像度は、立体視表示のときの解像度に比べて、実質的に2倍となる。
後者の方法の場合、ユーザの左目で視認される画像と、右目で視認される画像とが実質的に同一に制御されるので、ユーザは、同じ画像を左目および右目で視認することになる。
一方、下側LCD120においては、非立体視表示がなされる。すなわち、GPU104は、表示すべき画像をVRAM106bのアドレスを指定して順次書込み、LCDコントローラ121は、VRAM106bに書込まれた画像を順次読出して、LCDパネル123を駆動する。
なお、図7には、立体視表示が可能な表示部の典型例として、パララックスバリア方式の表示デバイスを例示したが、例えば、レンチキュラ方式の表示デバイスなどを採用することもできる。これらの方式は、左目用画像の表示エリアと右目用画像の表示エリアとが一定のパターンで(典型的には交互に)配置される。
なお、シャッタメガネ(時分割方式)を利用した方法のように、左目用画像の表示エリアと右目用画像の表示エリアとを共通としつつ、左目用画像と右目用画像とを交互に表示する形態を採用することもできる。
<F.立体視表示に係る制御ロジック>
次に、本実施の形態に従うゲーム装置1において立体視表示に係る制御ロジックについて説明する。上述したように、所定の視差を有する一対の画像(ステレオ画像)を用いることで立体視表示を実現できるが、このステレオ画像を生成する方法としては、公知の方法を採用することができる。以下の説明では、仮想空間に配置されたオブジェクトを仮想カメラを用いて仮想的に撮像(レンダリング)することで、ステレオ画像を生成する場合の処理について説明する。このような構成に代えて、一対の外側カメラ131Lおよび131R(図3(A)参照)を用いて現実の被写体を撮像することで、一対の画像(ステレオ画像)を取得することもできる。
図8は、本発明の実施の形態に従うゲーム装置1において立体視表示に用いられる視差を有する一対の画像を生成する方法の一例について説明するための図である。図9は、図8に示す方法によって生成された視差を有する一対の画像を用いて立体視表示を提供する方法について説明するための図である。
図8(A)には、仮想空間においてオブジェクト200が配置されており、このオブジェクト200を一対の仮想カメラ220Lおよび220Rを用いて撮像(レンダリング)した場合を示す。なお、オブジェクト200に対する仮想カメラ220Lおよび220Rの相対的な位置関係、および、仮想カメラ220Lと仮想カメラ220Rとの間の距離d1については、アプリケーションなどによって任意に設定できるものとする。
以下の説明においては、一対の仮想カメラ220Lおよび220Rを結ぶ直線が表示部(上側LCD110)の表示面の水平方向に対応しているとする。このとき、水平方向をX方向と称し、垂直方向をY方向と称し、各仮想カメラ220Lおよび220Rのカメラ方向(撮像の光軸方向)をZ方向と称す(以下同様である)。
図8(B)には、図8(A)に示すような位置関係において取得される一対の入力画像(ステレオ画像)の一例を示す。すなわち、仮想カメラ220Lがオブジェクト200をレンダリングすることにより、左目用の入力画像PIMGLが生成され、仮想カメラ220Rがオブジェクト200をレンダリングすることにより、右目用の入力画像PIMGRが生成される。
この左目用の入力画像PIMGLと右目用の入力画像PIMGRとを比較すると、入力画像PIMGL内におけるオブジェクト200の位置と、入力画像PIMGR内におけるオブジェクト200の位置とは異なっていることがわかる。すなわち、入力画像PIMGLにおいては、オブジェクト200を表す像が相対的に右側に位置しており、入力画像PIMGRにおいては、オブジェクト200を表す像が相対的に左側に位置している。
このような視差を有する一対の入力画像(ステレオ画像)を、上側LCD110の表示面に表示することで、ユーザは、そのオブジェクト200について、立体的に視認することができる。このような一対の入力画像に対して付与される視差量は、仮想カメラ220Lと仮想カメラ220Rとの間の距離d1の大きさ(図8(A))に依存して変化する。
より具体的には、図9(A)に示すように、仮想カメラ220Lと仮想カメラ220Rとの間の距離が拡大すると(d2>d1)、入力画像PIMGLおよび入力画像PIMGRに付与される視差量も大きくなる。この結果、ユーザは、オブジェクト200が上側LCD110の表示面よりユーザ側に存在しているように視認する。いわば、ユーザは、オブジェクト200の像が表示面から「飛び出している」ように感じる。
これに対して、図9(B)に示すように、仮想カメラ220Lと仮想カメラ220Rとの間の距離が縮小すると(d3<d1)、入力画像PIMGLおよび入力画像PIMGRに付与される視差量も小さくなる。この結果、ユーザは、オブジェクト200が上側LCD110の表示面より背面側に存在しているように視認する。いわば、ユーザは、オブジェクト200の像が表示面から「引き込まれている」ように視認する。
このように、上側LCD110に表示される一対の画像に与える視差を調整することで、オブジェクトが存在しているとユーザが視認する表示部の奥行き方向での位置を制御することができる。すなわち、視差量を適宜制御することで、ユーザに対して、表示部から目的の距離にオブジェクトが存在すると視認させることができる。
なお、一対の画像に対して付与する視差量をゼロに設定すると、ユーザの右目および左目には同一の画像が入射することになるので、表示面において平面的にオブジェクトが表示される。
また、図8に示す方法では、オブジェクトを仮想的に撮像することで、表示部に表示される一対の画像に与える視差量を調整する方法について説明したが、ある一定値の視差量を与えられた一対の画像を用いて、これらの画像間の表示面における相対的な表示位置を変更することで、ユーザが視認するオブジェクトの位置を調整することもできる。
<G.位置検出および関連処理>
次に、ユーザによる操作がなされた位置を検出する処理について説明する。
本実施の形態に従うゲーム装置1では、ユーザ操作に関連付けられた指示部材を撮像部で撮像して得られた画像を用いて、位置検出が行われる。より具体的には、指示部材として、画像処理技術を用いてその位置を抽出できる特徴が付与された位置検出用のマーカーが用いられる。
このようなマーカーとしては、その表面に現実世界に存在しないような色(典型的には、蛍光色)が塗布された部材や、その表面に予め定められた模様(パターン)が付された部材などが用いられる。このような部材を用いることで、撮像部によって撮像された画像内から特定の色または模様が存在する位置および領域を抽出することで、当該マーカーの位置を算出することができる。
図10は、本発明の実施の形態に従うゲーム装置1で利用されるスタイラス300の一例を示す図である。図10に示すように、本実施の形態に従うスタイラス300は、その先端に指示部材として、球形のマーカー302が装着されているものとする。なお、このマーカー302をユーザの指などに直接的に装着してもよい。
なお、指示部材であるマーカー302を球形にしたのは、後述するように、画像中における大きさ(サイズ)で撮像部からの距離を測定するためである。すなわち、球形のマーカー302を採用することで、撮像部によって取得された画像内においては、撮像部とマーカー302との間の相対的な位置関係に影響されず常に同一の形状(円)を維持できる。これにより、画像内のマーカー302に対応する画像の大きさを安定して計測することができる。
図11は、本発明の実施の形態に従うゲーム装置1における位置検出の原理を説明するための図である。図11を参照して、本実施のゲーム装置1においては、撮像部によって撮像される所定の指示部材(マーカー302)の画像に基づいて、当該指示部材の撮像部に対する相対位置が算出される。より具体的には、撮像部によって撮像される画像内のマーカーを示す画像の大きさに基づいて、表示部(上側LCD110)の奥行き方向(Z方向)におけるマーカー302の位置が算出される。
すなわち、撮像部によって取得された画像中においてマーカー302の大きさ(サイズ)が大きいほど撮像部に近いことを意味し、反対に、撮像部によって取得された画像中においてマーカー302の大きさ(サイズ)が小さいほど撮像部に遠いことを意味する。
そこで、本実施の形態に従うゲーム装置1においては、内側カメラ133または外側カメラ131L,131Rの撮像によってマーカー302が存在する範囲を撮像し、この撮像によって取得された画像中におけるマーカー302に対応する領域の位置およびその大きさに基づいて、当該撮像部を基準とした座標系における位置が算出される。そして、その撮像部を基準とした座標系における位置を表示部(上側LCD110)を基準とする座標系における位置に変換した上で、表示部によって立体視表示されるオブジェクトの位置と算出されたマーカー302の位置とが重なっているか、すなわち、両者が衝突しているか否かが判断される。最終的に、この判断結果に基づいて、ゲーム処理が進行される。より具体的には、以下のような手順で処理が実行される。
1.ユーザに視認されるオブジェクトの表示位置(飛び出し量/引き込み量)の算出
2.マーカーの位置の算出
3.衝突判定
4.衝突判定の結果に応じてゲーム処理の実行(オブジェクト表示位置の変更)
以下、図12および図13を参照して、これらの処理の詳細について説明する。図12および図13は、本実施の形態に従うマーカー位置の算出処理を説明するための図である。
(g1:表示位置(飛び出し量/引き込み量)の算出)
まず、位置算出に用いる座標系を次のように設定する。すなわち、図12および図13に示すように、表示部(上側LCD110)についての座標系として、上側LCD110の表示面の中心点Oを原点として、水平方向をX軸、垂直方向をY軸、奥行き方向をZ軸と設定する。計算の都合上、水平右向きにX軸の正方向、垂直上向きをY軸の正方向、奥行き方向の手前側をZ軸の正方向とする。したがって、中心点O(x,y,z)=(0,0,0)となる。この座標系における単位は実距離(例えば、メートル)であるとする。
次に、図12および図13に示すように、撮像部(内側カメラ133)についての座標系として、内側カメラ133の中心点O’を原点として、上側ハウジング2の表面に沿って水平方向をX’軸、垂直方向をY’軸と設定する。そして、上側LCD110についての座標系であるZ軸と平行にZ’軸を設定する。計算の都合上、水平右向きにX’軸の正方向、垂直上向きをY’軸の正方向、奥行き方向の手前側をZ’軸の正方向とする。
後述するように、撮像部(内側カメラ133)についての座標系(X’−Y’−Z’座標系)と表示部(上側LCD110)についての座標系(X−Y−Z座標系)との対応関係が予め既知であるので、X’−Y’−Z’座標系において算出された位置は、X−Y−Z座標系における位置に容易に変換することができる。
まず、表示部の奥行き方向(Z軸)におけるオブジェクト200の表示位置が算出される。すなわち、ユーザが視認するオブジェクト200の飛び出し量または引き込み量が算出される。
より具体的には、人の左右の目の間の距離[m]をAとし、表示面におけるオブジェクト200に与えられている視差量[m]をBとし、上側LCD110の表示面からユーザの目までの距離をC[m]とすると、立体視表示されるオブジェクト200が視認される表示面からの距離(飛び出し量/引き込み量)D[m]は、(1)式のように算出される。
D=B/(A+B)×C …(1)
ここで、表示部(上側LCD110)の表示面の中心点を原点(0,0)として、オブジェクト200の表示面における表示位置を(x1,y1)とすると、X−Y−Z座標系におけるオブジェクト200の表示位置は、(2)式のように表すことができる。
(x1,y1,z1)=(x1,y1,D) …(2)
なお、(1)式における人の左右の目の間の距離A、および、表示面からユーザの目までの距離Bについては、個人差があるため、表示面からの距離Dは、ユーザによって差がでる(ばらつく)。なお、これらの距離AおよびBについては、予め所定の設計値が与えられているとする。そのため、オブジェクトの表示位置(x1,y1,D)は、誤差を含むものとして扱う必要がある。具体的には、後述するような、衝突判定処理における衝突したか否かの判定を行うためのしきい値などに対して、これらの誤差を考慮したマージンを設定するなどの方法が考えられる。
(g2:マーカーの位置の算出)
次に、撮像部によって撮像された画像からマーカーの位置が算出される。
まず、マーカー302が撮像部から単位距離の位置に存在する場合に、撮像部の撮像によって取得された画像中におけるマーカー302に対応する領域の大きさがF[m]であるとする。そして、ある時点において、撮像部の撮像によって取得された画像中におけるマーカー302に対応する領域の大きさがE[m]であれば、撮像部からマーカー302までの距離G[m]は、(3)式のように算出される。
G=E/F …(3)
ここで、大きさEおよびFは、画像処理を用いて、撮像部により取得された画像内でマーカーに対応する領域が占めるピクセル数、または、その領域の径などを抽出することで算出される。なお、マーカー302が撮像部の撮像範囲の端に存在し、それによりその一部が欠けているような場合には、その大きさを正確に算出することができない。このような場合には、画像補間などを行って、マーカー302を示す領域の画像を修正した上で、その大きさが算出される。
また、撮像部により取得された画像内におけるマーカー302に対応する領域の座標が(x2’’,y2’’)であるとすると、X’−Y’−Z’座標系におけるマーカー302の位置(x2’,y2’,z2’)は、(4)式に示されるベクトルVm上に位置することになる。
Vm(x’,y’,z’)=({tan(θh/2)×x2’’}/(Ph/2),{tan(θv/2)×y2’’}/(Pv/2),1) …(4)
但し、撮像部の解像度をPh[ピクセル]×Pv[ピクセル]とし、その水平画角をθh[°]、その垂直画角をθv[°]とする。
(3)式は、マーカー302が撮像部から単位距離の位置に存在する場合(z=1の場合)での、X’−Y’−Z’座標系における位置に相当する。(4)式に示すベクトルVmの大きさ(ノルム)をHとすると、X’−Y’−Z’座標系におけるマーカー302の位置(x2’,y2’,z2’)は、(5)式のように算出される。
(x2’,y2’,z2’)=({tan(θh/2)×x2’’×G/H}/(Ph/2),{tan(θv/2)×y2’’×G/H}/(Pv/2),G/H) …(5)
さらに、X−Y−Z座標系の中心点OとX’−Y’−Z’座標系の中心点O’との間のオフセット量を(Xf,Yf,Zf)とすると、X−Y−Z座標系におけるマーカー302の位置(x2,y2,z2)は、(6)式のように算出される。
(x2,y2,z2)=(x2’+Xf,y2’+Yf,z2’+Zf) …(6)
(g3:衝突判定)
立体視表示されるオブジェクトの形状と算出されたマーカー302の位置との関係に基づいて、衝突判定が実行される。すなわち、上述の(2)式のように表されるオブジェクト200の表示位置と、上述の(6)式のように表されるマーカー302の位置との近接度合いを評価する。このような衝突判定の処理には、公知のアルゴリズムを用いることができる。
(g4:ゲーム処理の実行)
上述の衝突判定における判定結果に応じて、表示されるオブジェクトの位置などを変更する。例えば、飛び出して見えるオブジェクトの位置を変更したり、ユーザに当該オブジェクトを触っていることを知らせるエフェクトを発生したりする。この内容については、後述するように、適用される各アプリケーションの内容に応じて適宜変更される。
<H.撮像部>
次に、指示部材である位置検出用のマーカー302を撮像するための撮像部について説明する。
(h1:内側カメラ)
上述したように、基本的には、内側カメラ133(図1)によってマーカー302を含む領域を撮像し、その撮像により取得された画像に含まれるマーカー302に対応する領域を抽出する。すなわち、ゲーム装置1は、一方面に表示部である上側LCD110が設けられる上側ハウジング2を有しており、マーカーの位置算出に用いられる撮像部である内側カメラ133は、当該上側ハウジング2における表示部と同じ面に設けられる。このように、内側カメラ133を用いることで、ユーザ操作を適切に検出することができる。
但し、内側カメラ133の取り付け位置および/または仕様によっては、その視野範囲がオブジェクトの飛び出し量のすべてをカバーできない場合もある。このような場合には、以下に示すように、内側カメラ133にレンズを付加し、あるいは、代替のカメラを利用することで、その撮像範囲を拡大させることもできる。
(h2:全方位カメラ)
図14は、本実施の形態に従うゲーム装置1において全方位カメラを用いた構成例を示す図である。図15は、図14に示す全方位カメラにより取得される画像に対する画像処理の内容を説明するための図である。
図14には、上側ハウジング2に装着されている内側カメラ133の撮像面側に全方位レンズ190を装着した構成例を示す。全方位レンズ190は、撮像部である内側カメラ133に着脱可能に設けられ、内側カメラ133を中心とする全周囲の画像を内側カメラ133に導くためのレンズである。
より具体的には、全方位レンズ190は、双曲面ミラー190aを含み、全方位レンズ190の全周囲からの光が双曲面ミラー190aによって反射され、内側カメラ133のレンズ導かれる。これによって、全方位レンズ190の実質的に周囲360°にわたって撮像を行うことができる。すなわち、全方位レンズ190と内側カメラ133とを組み合わせることで、上側ハウジング2の周辺でユーザが行う操作を光学的に検出することができる。
このように、内側カメラ133に全方位レンズ190を装着することで、全方位カメラを構成する。なお、全方位レンズ190を単に装着しただけでは、その撮像される画像が歪むので、これを補正した上で、上述のような位置算出処理を行う必要がある。
より具体的には、図14の構成によれば、内側カメラ133では図15(A)に示すような全方位画像が取得される。このような円形状の全方位画像を展開して、図15(B)に示すようなパノラマ画像を生成する。さらに、所定の補間ロジックを含む画像処理を行うことで、図15(C)に示すような方形状の撮像画像が生成される。この図15(C)に示す撮像画像に対して、上述のようなマーカー位置の算出処理を行うことで、ユーザの操作を検知することができる。
なお、図14には、内側カメラ133に全方位レンズ190を装着して、全方位カメラを構成する例を示したが、内側カメラ133に代えて、全方位センサを上側ハウジング2に装着するようにしてもよい。
(h3:広角レンズ)
図14に示すような全方位カメラ(全方位レンズ)を用いることで、内側カメラ133の全周囲を撮像することが可能となるが、図15に示すように専用の画像処理が必要となる。そのため、内側カメラ133に広角レンズを装着することで、より簡素な構成で、より広い視野でユーザ操作を検出することができる。
図16は、本実施の形態に従うゲーム装置1において広角レンズを用いた構成例を示す図である。図16に示すゲーム装置1では、上側ハウジング2に装着された内側カメラ133に対して、広角レンズ192が着脱可能に構成される。このような広角レンズ192が内側カメラ133の前段に装着されことで、その視野範囲(画角)が拡大し(広角化し)、より広い範囲でユーザの操作を検知することできる。
広角レンズ192としては、上側ハウジング2に装着し易い、アタッチメントレンズが好ましい。このような広角レンズ192は、内側カメラ133の視野範囲(画角)を拡大できる光学系であれば任意のものを採用することができる。たとえば、いわゆる、広角レンズ、超広角レンズ、魚眼(フィッシュアイ)レンズなどを用いることができる。
(h4:反射光学系)
さらに、反射光学系を用いて、内側カメラ133の撮像範囲を可変にしてもよい。これにより、上側ハウジング2における内側カメラ133の装着位置にかかわらず、ユーザ操作を検出するために適切な範囲を撮像することができる。
図17は、本実施の形態に従うゲーム装置1において反射光学系を用いた構成例を示す図である。図17に示すゲーム装置1では、上側ハウジング2に装着された内側カメラ133に対して、反射光学系194が装着される。この反射光学系194は、上述の広角レンズ192(図16)と同様に、内側カメラ133に対して着脱可能に構成されることが好ましい。
より具体的には、反射光学系194は、1次反射ミラー194aと、2次反射ミラー194bとを含む。内側カメラ133の光軸は、1次反射ミラー194aで反射されて2次反射ミラー194bに入射し、さらに、2次反射ミラー194bで反射されてユーザ操作が行われる範囲に向けられる。なお、2次反射ミラー194bを凹面鏡とすることで、視野範囲(画角)を拡大することができる。
このように反射光学系194を装着することで、表示部のオブジェクト200の飛び出し可能範囲196の全般をカバーすることができる。すなわち、ユーザが飛び出して見えるオブジェクト200のいずれの部分を触ったとしても、そのユーザ操作を検知することができる。
(h5:外側カメラ)
上述の説明では、内側カメラ133を用いてユーザの操作を検知する方法について説明したが、外側カメラ131Lおよび131R(図3(A))を用いることもできる。すなわち、ゲーム装置1は、一方面に表示部である上側LCD110が設けられる上側ハウジング2を有しており、マーカーの位置算出に用いられる撮像部である外側カメラ131Lおよび131Rは、当該上側ハウジング2における表示部とは反対の面に設けられる。
図18は、本実施の形態に従うゲーム装置1において外側カメラ131L,131Rを用いる場合を示す図である。典型的には、図18に示すように、ゲーム装置1を台に置いた状態(あるいは、ユーザが把持した状態)で、ユーザは上側ハウジング2より奥側の位置でスタイラス300を操作する。このユーザによって操作されるスタイラス300およびそれに装着されているマーカー302を外側カメラ131L,131Rによって撮像することで、外側カメラ131L,131Rに対するマーカー302の位置を検出することができる。
特に、本実施の形態に従うゲーム装置1に装着されている外側カメラ131L,131Rは、ステレオカメラとして機能するので、上述したような計算ロジックを用いることなく、ステレオ撮像によりマーカー302の位置を直接的に算出することもできる。
図18に示す使用形態においては、マーカ302がユーザの目から直接見えない状態になるので、オブジェクトを間接的に操作しているような印象を受ける場合もあり得る。このような場合であっても、上側LCD110における表示を工夫することで、ユーザは、オブジェクトを操作することを楽しむことができる。
図19は、図18に示す構成において上側LCD110に表示される画面例を示す図である。図19に示すように、上側LCD110の表示面に対して、より奥行きのある立体感をユーザに与えることができる。さらに、ゲーム処理によって生成されるオブジェクト200と、外側カメラ131L,131Rによって撮像される画像とを合成して表示することで、拡張現実(Augmented Reality)のユーザインターフェイスを提供することができる。この場合には、図20に示すように、ユーザの指先にマーカー302を付した上で、ユーザが自身の指で操作するような形態で使用することもできる。
(h6:他ゲーム装置のカメラ)
上述の説明では、自ゲーム装置に搭載された撮像部を用いて、マーカー302の位置を算出する方法について例示したが、複数のゲーム装置1を用いて、マーカー302の位置を算出してもよい。
具体的には、2人のユーザがそれぞれゲーム装置1を把持した状態で、互いに対向しているとする。一方のゲーム装置1は、その搭載された撮像部(典型的には、外側カメラ131Lおよび131R)を用いて、他方のゲーム装置1を操作するユーザを撮像し、当該撮像によって得られる画像を他方のゲーム装置1へ送信する。他方のゲーム装置1についても同様に、一方のゲーム装置1を操作するユーザを撮像し、当該撮像によって得られる画像を一方のゲーム装置1へ送信する。また、対向して外側カメラ131Lおよび131Rを用いるだけでなく、2台の内側カメラ133を用いてもよい。互いの撮像可能な範囲を補えるような配置であれば、どのような配置で上記の処理を行ってもよい。
これにより、それぞれのゲーム装置1が自装置を操作しているユーザの操作を検知することができる。
このように、指示部材である位置検出用のマーカー302が存在する領域を撮像して、ユーザの操作を検出するための撮像部は、操作対象のゲーム装置1に必ずしも搭載されている必要はない。すなわち、本実施の形態に従うゲーム処理は、ゲーム装置1と、ゲーム装置1とは別体の撮像部とを組み合わせたゲームシステムとして実装することもできる。
<I.機能ブロック>
図21は、本実施の形態に従うゲーム装置1における機能ブロック図である。図21に示す各機能ブロックは、演算処理部100がゲームカード171などに格納されているアプリケーションプログラムやゲームプログラムを読み出して実行することで実現される。
図21を参照して、演算処理部100は、その機能として、指示位置算出モジュール1010と、ゲーム処理モジュール1012と、オブジェクト設定モジュール1014と、表示制御モジュール1016とを含む。
指示位置算出モジュール1010は、撮像部の撮像によって取得される撮像データを受け付けると、上述したような計算ロジックに従って、マーカー302の位置を算出する。すなわち、指示位置算出モジュール1010は、撮像部によって撮像される指示部材であるマーカー302の画像に基づいて、当該指示部材の撮像部に対する相対位置を算出する。さらに、指示位置算出モジュール1010は、表示部についての座標系における位置を算出することもできる。
オブジェクト設定モジュール1014は、オブジェクトの表示部に対する表示位置を設定するとともに、仮想空間内の対応する位置に当該オブジェクトを配置する。すなわち、オブジェクト設定モジュール1014は、ゲーム進行などに応じて、上側LCD110におけるオブジェクトの2次元位置に加えて、上側LCD110の奥行き方向における位置(飛び出し量/引き込み量)を設定する。さらに、オブジェクト設定モジュール1014は、設定した3次元の位置情報に基づいて、仮想空間上にオブジェクトを配置する。
ゲーム処理モジュール1012は、オブジェクト設定モジュール1014によって設定されるオブジェクトの表示位置と、指示位置算出モジュール1010によって算出されたマーカー302についての相対位置との関係に基づいて、ゲーム処理を行う。ゲーム処理モジュール1012によって提供されるゲーム処理(アプリケーション)の内容については、後述する。また、ゲーム処理モジュール1012は、タッチパネル122に対する入力に基づいて、ゲーム処理を行う。
表示制御モジュール1016は、オブジェクト設定モジュール1014によって設定される、表示部の奥行き方向におけるオブジェクトの表示位置に基づいて視差を設定し、表示部にオブジェクトを立体視表示させる。すなわち、表示制御モジュール1016は、ゲーム処理モジュール1012から表示すべきオブジェクトの画像を取得するとともに、表示面において表示させる位置および与える視差量の情報を取得して、上側LCD110に表示させる一対の画像(表示画像)を生成する。さらに、表示制御モジュール1016は、ゲーム処理モジュール1012からの指令に応じて、ユーザ操作によっていずれかのオブジェクトの表示位置を変更したり、オブジェクトの表示内容を変更したりする。
<J.処理手順>
図22は、本発明の実施の形態に従うゲーム装置1において実行される処理手順に係るフローチャートである。図28に示す各フローチャートの各ステップは、典型的には、演算処理部100がゲームカード171などに格納されているアプリケーションプログラムやゲームプログラムを読み出して実行することで提供される。なお、演算処理部100で実行されるプログラムは、単一でなくともよく、基本的なOS(Operating System)を提供するプログラム(あるいは、ファームウェア)とともに、一または複数のアプリケーションが実行されてもよい。さらに、以下に示す処理の全部または一部をハードウェアによって実現してもよい。
まず、演算処理部100は、上側LCD110および/または下側LCD120にメニュー画面を表示する(ステップS100)。続いて、演算処理部100は、ユーザなどからの入力操作を受け付ける入力手段(図2に示すタッチパネル122、十字ボタン161、ボタン群162)を介して、何らかの選択操作が行われたか否かを判断する(ステップS102)。何らの選択操作も行われなければ(ステップS102においてNO)、ステップS100以下の処理が繰返される。
一方、何らかの選択操作が行われると(ステップS102においてNO)、演算処理部100は、本実施の形態に従う立体視表示のアプリケーションが選択されたか否かを判断する(ステップS104)。立体視表示のアプリケーション以外のアプリケーションが選択されると(ステップS104においてNO)、演算処理部100は、当該選択されたアプリケーションに従う処理を実行する(ステップS106)。
一方、立体視表示のアプリケーションが選択されると(ステップS104においてYES)、演算処理部100は、選択されたアプリケーションの初期設定値を読出す(ステップS108)。そして、演算処理部100は、オブジェクトの表示部に対する初期の表示位置を設定する(ステップS108)とともに、仮想空間内の対応する位置に当該オブジェクトを配置する(ステップS110)。
さらに、演算処理部100は、上側LCD110の奥行き方向におけるオブジェクトの表示位置に基づいて視差を設定する(ステップS112)。さらに、演算処理部100は、設定した視差に応じた一対の画像を生成し、上側LCD110にオブジェクトを立体視表示させる(ステップS114)。このとき、演算処理部100は、立体視表示されるオブジェクトの表示位置(飛び出し量/引き込み量)の算出しているものとする。
続いて、演算処理部100は、撮像部(典型的には、内側カメラ133)によって撮像されるマーカー302の画像に基づいて、マーカー302の撮像部に対する相対位置を算出する(ステップS116)。すなわち、演算処理部100は、上述の(4)〜(6)式に従って、マーカー302の位置を算出する。
続いて、演算処理部100は、オブジェクトの表示位置と算出されたマーカー302の位置とに基づいて衝突判定を実行する(ステップS118)。すなわち、演算処理部100は、共通のX−Y−Z座標系において、算出したオブジェクトの表示位置とマーカー302の位置とについて、両者の間の距離および/または算出される表示位置の軌跡などを評価して、ユーザがオブジェクトを触るような操作を行ったか否かを判断する。そして、演算処理部100は、オブジェクトとマーカー302とが衝突状態であるか否かを判断する(ステップS120)。衝突状態でなければ(ステップS120においてNO)、処理はステップS130へ進む。
一方、衝突状態であれば(ステップS120においてYES)、演算処理部100は、オブジェクトとマーカー302とが衝突している位置を特定する(ステップS122)。続いて、演算処理部100は、ステップS122において特定された位置に応じて、対象のオブジェクトに対する変更内容を決定する(ステップS124)。より具体的には、演算処理部100は、対象のオブジェクトの移動量や変形量などを決定する。そして、演算処理部100は、決定した移動量に応じて、オブジェクトの表示部に対する表示位置を更新する(ステップS126)とともに、仮想空間内の対応する位置に、決定した変形量を反映した形状のオブジェクトを配置する(ステップS128)。そして、ステップS112以下の処理が実行される。
このように、演算処理部は、検出されたユーザ操作に応じて、ゲームを進行する。
ステップS130において、演算処理部100は、ユーザなどからの入力操作を受け付ける入力手段(図2に示すタッチパネル122、十字ボタン161、ボタン群162)を介して、アプリケーションの終了が指示されたか否かを判断する(ステップS130)。アプリケーションの終了が指示されていなければ(ステップS130においてNO)、ステップS116以下の処理が繰返される。
一方、アプリケーションの終了が指示されると(ステップS130においてYES)、演算処理部100は、アプリケーション(ゲーム処理)を終了する。
<K.フォースフィードバック機能>
本実施の形態に従うゲーム装置1によって提供されるアプリケーションについての説明に先立って、フォースフィードバック機能付きのスタイラス350について説明する。
図23は、本実施の形態に従うスタイラス350の外観図である。図24は、本実施の形態に従うスタイラス350における機能ブロック図である。
本明細書においてフォースフィードバック機能とは、ユーザが何らかの操作を行った場合に、その操作に対して、五感で感じることのできるフィードバックをユーザに与えるものである。このようにユーザに与えられるフィードバックとしては、振動、音声、光、電流発生、温度変化などが挙げられる。なお、図23および図24に示すスタイラス350には、複数の種類のフィードバックが可能に構成した例を示すが、これらのうち、特定の種類のフィードバックのみを可能としてもよい。たとえば、ゲーム進行に応じて、ユーザに振動だけを与えるような構成を採用することもできる。
図23を参照して、スタイラス350は、ペン形状となっており、主軸部352を中心として、第1フォース発生部354と、第2フォース発生部356と、点灯部358と、スイッチ360と、マーカー362とからなる。
主軸部352には、後述するように、各種の回路などが実装される。
第1フォース発生部354は、ユーザがスタイラス350を把持する際に、ユーザが人差し指および親指を押し付ける部分である。そこで、第1フォース発生部354では、(1)微弱電流による電気的ショック、および/または、(2)内部加熱による温度上昇などをユーザに与えることができる。たとえば、何らかのアプリケーションにおいて、ユーザが失敗すると、第1フォース発生部354に微弱電流を発生させてユーザに電気ショックを与え、あるいは、第1フォース発生部354を発熱させてユーザに温度変化を感じさせるような使用形態が想定される。
第2フォース発生部356は、ユーザがスタイラス350を把持する際に、ユーザの親指の付け根に接触する部分である。そこで、第2フォース発生部356では、(1)振動、および/または、(2)効果音などの音声をユーザに与えることができる。たとえば、何らかのアプリケーションにおいて、ユーザが失敗すると、第2フォース発生部356からユーザに振動を与え、あるいは、第2フォース発生部356からユーザに向けて音声を出力するような使用形態が想定される。
点灯部358は、ユーザがスタイラス350を把持した場合であっても、ユーザから見える部分である。そこで、点灯部358は、ゲーム装置1などからの指示に従って、点灯や点滅して、ゲーム進行に応じた光をフィードバックとしてユーザに与える。
スイッチ360は、スタイラス350の上部に設けられており、ユーザの押下に応じて、電源のON/OFFが行われる。
マーカー362は、図1に示すスタイラス300のマーカー302と同様に、その表面に現実世界に存在しないような色(典型的には、蛍光色)が塗布されている。但し、スタイラス350には電源が搭載されているので、マーカー302の位置検出精度を高めるために、赤外線LEDからの赤外域の光を発光させるようにしてもよい。
次に、図24を参照して、スタイラス350の具体的な内部の構成について説明する。図24を参照して、スタイラス350は、電池370と、スイッチ372と、無線モジュール374と、コントローラ376と、マーカー点灯用光源378と、発熱部380と、電流発生部382と、バイブレーションモータ384と、スピーカ386と、発光部388とを含む。
電池370は、典型的には、ボタン型電池などの比較的小型のものが採用される。電池370は、再充電可能な2次電池とすることが好ましい。電池370から供給される電力は、スイッチ372を介して図示しないケーブルを通じて各部位へ供給される。
スイッチ372は、図23に示すように、スタイラス350の上部に設けられており、ユーザ操作(押圧)に応じて、電池370から各部への電力供給をON/OFFする。
無線モジュール374は、ゲーム装置1の無線モジュール134(図5)と通信可能に構成されており、主として、ゲーム装置1から送信された無線信号をコントローラ376へ伝える。より具体的には、何らかのユーザ操作がなされると、ゲーム装置1でその操作内容を検知するとともに、その検知されたユーザ操作の内容に従ってゲーム処理を実行する。そして、ゲーム装置1は、ゲーム処理の実行結果の一部として、何らかのフォースフィードバックをユーザに与えるべきであると判断すると、無線信号を介して、対応する指示をスタイラス350へ伝送する。すると、コントローラ376がその指示に応答して、接続されているアクチュエータに対して対応する命令を与える。なお、無線モジュール374は、コントローラ376からの情報を無線信号に変調してゲーム装置1へ送信するようにしてもよい。この無線モジュール374としては、たとえばBluetooth(登録商標)等の専用プロトコルに従う無線通信、赤外線通信、および、無線LAN(802.11規格)などをサポートした構成を採用することができる。
マーカー点灯用光源378は、スタイラス350のマーカー362の内部に配置され、コントローラ376からの指令に従って点灯する。このマーカー点灯用光源378としては、典型的には、赤外線LEDなどが用いられる。
発熱部380は、第1フォース発生部354の表面と熱的に接続されており、コントローラ376からの指令に従って発熱する。発熱部380としては、典型的には、抵抗体などが用いられる。
電流発生部382は、第1フォース発生部354の表面と電気的に接続されており、コントローラ376からの指令に従って、微小電流を発生する。
バイブレーションモータ384は、スタイラス350の第2フォース発生部356に内蔵され、コントローラ376からの指令に従って回転することで、振動を発生する。このバイブレーションモータ384は、典型的には、偏心モータで構成される。
スピーカ386は、スタイラス350の第2フォース発生部356などに内蔵され、コントローラ376からの指令に従って、効果音などを発生する。
発光部388は、スタイラス350の点灯部358に内蔵され、コントローラ376からの指令に従って、点灯または点滅する。
このように、本実施の形態に従うゲーム装置1では、このようなフォースフィードバック機能付のスタイラス350を使用することで、視覚だけからではなく、触覚や聴覚などからも、仮想空間内のオブジェクトに直接触っているような感覚を得ることができる。
<L.アプリケーション>
次に、本実施の形態に従うゲーム装置1によって提供されるアプリケーションの例について説明する。以下に説明するアプリケーションは、基本的には、上述の図22に示すフローチャートに沿って実行される。
(l1:スキンシップゲーム)
図25および図26は、本実施の形態に従うゲーム装置1によって提供されるスキンシップゲームの一例を示す図である。図25に示すように、本実施の形態に従うゲーム装置1では、ペットを表すオブジェクト210を表示面から飛び出すように表示する。ユーザは、立体視表示されるオブジェクト210を視認する位置においてスタイラス350などで撫でるような操作を行うと、ペットを表すオブジェクト210が撫でられることに応じた表情をする。
上述の図22に示すフローチャートに沿って説明すれば、衝突判定処理によって、キャラクタのオブジェクトの表示位置と算出されたマーカー位置とが衝突していると判定されると、そのマーカー位置に対応するオブジェクト210の部分(例えば、頬や頭など)に応じた表情をするように、オブジェクト210の表示位置や表示内容を適宜更新する。
なお、上述したように、フォースフィードバック機能を搭載したスタイラス350を用いている場合には、上述の衝突判定処理によってオブジェクト210に触れていると判定されると、それに応答して、スタイラス350で振動が生じるようにしてもよい。この場合には、ゲーム装置1からスタイラス350に対して、振動の発生を指示する無線信号が与えられる。すなわち、ゲーム装置1(図21のゲーム処理モジュール1012)は、算出されたスタイラスの位置に基づいて、ゲーム処理を行うとともに、当該ゲーム処理の進行に対応してスタイラス350(バイブレーションモータ384)から振動を発生させる。
さらに、図26に示すように、このスキンシップゲームでは、スタイラス350に代えて、ユーザが指で操作するような形態がより直接触っているという感覚を得やすい。この場合には、ユーザが操作を行う指先に位置検出用のマーカー302を装着することで、スタイラス350の場合と同様の処理で対処できる。
但し、このようにユーザ自身の指で操作をする場合には、肌色検知技術などを用いて、その指先の位置を算出することもできる。すなわち、撮像部(典型的には、内側カメラ133)の撮像によって取得された画像内における肌色領域を抽出するとともに、その形状などから指先の位置を特定する。そして、その特定された指先の座標を指示部材の位置として算出する。
さらに、このような肌色検知技術を用いた場合には、複数の指に対して、それぞれ位置検出が可能となるので、ユーザが複数の指(右手および左手)でオブジェクト210に触れるような操作も可能となる。
(l2:シャボン玉運びゲーム)
図27は、本実施の形態に従うゲーム装置1によって提供されるシャボン玉運びゲームの一例を示す図である。図27に示すように、本実施の形態に従うゲーム装置1では、シャボン玉を表すオブジェクト220を表示面から飛び出すように表示する。ユーザは、立体視表示されるシャボン玉のオブジェクト220をスタイラス350などで触って、指定された目的値まで運ぶ。図27に示すシャボン玉や煙といった、現実世界においても触った感触がない物に対する操作はスタイラス350による操作に適している。
さらに、ユーザが無理に触ると割れるという判断処理を追加することで、ゲームの面白さを高めることができる。より具体的には、算出されるマーカー362の位置の時間的な変化を取得し、この時間的変化が所定のしきい値を超えた場合には、無理に触ったと判断することができる。
(l3:スケッチゲーム)
図28は、本実施の形態に従うゲーム装置1によって提供されるスケッチゲームの一例を示す図である。図28に示すように、本実施の形態に従うゲーム装置1では、ユーザのスタイラス350の操作に応じて、その軌跡を示すオブジェクト230が表示面から飛び出すように表示される。そして、ユーザ操作によって、このオブジェクト230が閉じられた途端に、空間上に描いたオブジェクト232が動き出すといったイフェクトが提供される。図28には、ユーザがイルカの絵を空間上に描くと、そのイルカが動き出すような演出がなされる例を示す。
(l4:鉄球運びゲーム)
図29および図30は、本実施の形態に従うゲーム装置1によって提供される鉄球運びゲームの一例を示す図である。図29に示すように、本実施の形態に従うゲーム装置1では、表示面の奥側からレールのオブジェクト240に沿って飛び出てくるように立体視表示された鉄球のオブジェクト242を、2つのスタイラス350−1および350−2を使ってつまんで運ぶようなゲームが提供される。すなわち、ユーザは、2つのスタイラスを「はし」のように使用してゲームを楽しむことができる。
このようなゲームにおいては、立体視ボリューム145(図2)の操作に連動して、飛び出てくるように立体視表示される鉄球のオブジェクト242の表示位置を、平面表示においてより奥側に変更してもよい。
すなわち、図30に示すように、ユーザが立体視ボリューム145を平面表示側に操作することで、上側LCD110に表示される画像に付与される視差量が実質的にゼロとなる。そのため、ユーザは、オブジェクトを立体視表示することができなくなる。これにともなって、レールのオブジェクト240に沿って表示されていた鉄球のオブジェクト242の表示位置(レールのオブジェクト240に対する相対的な位置)を、より奥側に視認できる位置に変更する。
このように、立体視表示に設定されていた立体視ボリューム145を平面表示の変更することで、ユーザは直前まで触れることのできた立体視表示されていたオブジェクトを触ることができなくなる。この感覚を視覚的にも感じ取れるように、立体視ボリューム145を平面表示に変更した場合には、鉄球のオブジェクト242自体の表示位置も、レールのオブジェクト240に沿ってより奥側に移動するように表示する。これにより、ユーザは、視覚的にも鉄球のオブジェクト242が画面の奥側にあり、触れることができないことを直感的に感じ取ることができる。
(l5:その他)
上述したアプリケーション以外にも、以下のようなアプリケーションが想定される。
(1)工作ゲーム
立体視表示される木のオブジェクトに対して、ユーザが彫刻の操作を行って像を彫り出すゲーム。あるいは、立体視表示される金属に対して、ユーザが打ち出す操作や、スプレーで塗装する操作を行い、所望する工芸品を作成するゲーム。
(2)料理ゲーム
目的の料理を作る過程で、ユーザが、素材を切る、混ぜる、包丁を使う、鍋をさばくといった操作をリアルに行えるゲーム。
(3)風船ゲーム
立体視表示される風船のオブジェクトに対してユーザがはじくような操作を行うことで、風船を高低差のある障害物を避けてゴールに導くゲーム。
(4)美容院ゲーム
立体視表示される頭のオブジェクトに対して、立体的な視点で、髪型をカットして揃え、洗髪し、ブローで髪型を整えることができるゲーム。
<M.変形例>
例えば、本発明は、上述したようなゲーム装置に内蔵された固定の(non-transitory)コンピュータ読取可能な記録媒体、あるいは、情報処理装置と着脱可能な固定のコンピュータ読取可能な記録媒体に格納されるゲームプログラム(命令セット)として具現化することもできる。
前者の場合には、立体視表示が可能な表示部を有するゲーム装置に当該ゲームプログラムが読み込まれて、その処理がコンピュータで実行される。すなわち、当該ゲームプログラムは、立体視表示が可能な表示部を有するゲーム装置で実行されることで、視差を利用してゲーム画像を立体視表示させる。
後者の場合には、立体視表示が可能な表示部を有するゲーム装置本体と、当該ゲーム装置本体にゲームプログラムを提供する記録媒体とを含むシステムとして構成される。
なお、いずれの場合であっても、コンピュータ読取可能な記録媒体に格納されるゲームプログラムは、上述したゲーム装置によって提供される処理に必要なゲームプログラムのすべてを含む必要はない。すなわち、ゲーム装置などの処理装置本体が本来的に有している命令セットやライブラリを利用して、上述したような本実施の形態に従うゲーム装置が提供する機能を実現してもよい。
さらに、上述の実施の形態においては、一連の処理が単一のゲーム装置において実行される場合を説明したが、上記一連の処理が複数の処理主体において分散的に実現されてもよい。例えば、ゲーム装置と、当該ゲーム装置とネットワークを介して通信可能なサーバ装置とを含むシステムにおいて、上記一連の処理のうち、一部の処理がサーバ装置によって実行されてもよい。
今回開示された実施の形態はすべての点で例示であって制限的なものではないと考えられるべきである。本発明の範囲は、上記した説明ではなく、特許請求の範囲によって示され、特許請求の範囲と均等の意味および範囲内でのすべての変更が含まれることが意図される。
1 ゲーム装置、2 上側ハウジング、3 下側ハウジング、4 ヒンジ、31,32 フック、100 演算処理部、102 CPU、106a,106b VRAM、110 上側LCD、111,121 LCDコントローラ、112,123 LCDパネル、112L 左目用画素群、112R 右目用画素群、113 バリア液晶、114 スリット、118,119 ガラス基板、120 下側LCD、122 タッチパネル、131L,131R 外側カメラ、133 内側カメラ、134,374 無線モジュール、136 不揮発性メモリ、138 メインメモリ、140 マイコン、141 リアルタイムカウンタ、142,142,162,162 ボタン群、142a セレクトボタン、142b HOMEボタン、142c スタートボタン、142d 電源ボタン、143 無線スイッチ、144 音量ボリューム、145 立体視ボリューム、146 電源管理IC、147 インジケータ群、147a 立体表示インジケータ、147b お知らせインジケータ、147c 無線インジケータ、147d 電源インジケータ、147e 充電インジケータ、148 加速度センサ、150 インターフェイス回路、151,386 スピーカ、151L,151R 音抜き孔、152 ヘッドホン用アンプ、153 マイク、153a マイク用孔、154 コントロールパッド、158 接続端子、161 十字ボタン、162A,162B,162X,162Y 操作ボタン、162L Lボタン、162R Rボタン、170 ゲームカードスロット、171 ゲームカード、172 メモリカードスロット、173 メモリカード、174 充電端子、176 収納部、178 赤外線モジュール、179 赤外線ポート、190 全方位レンズ、190a 双曲面ミラー、192 広角レンズ、194 反射光学系、194a 1次反射ミラー、194b 2次反射ミラー、196 飛び出し可能範囲、220L,220R 仮想カメラ、300,350 スタイラス、302,362 マーカー、352 主軸部、354 第1フォース発生部、356 第2フォース発生部、358 点灯部、360 スイッチ、370 電池、372 スイッチ、376 コントローラ、378 マーカー点灯用光源、380 発熱部、382 電流発生部、384 バイブレーションモータ、388 発光部、1010 指示位置算出モジュール、1012 ゲーム処理モジュール、1014 オブジェクト設定モジュール、1016 表示制御モジュール。

Claims (15)

  1. 視差を利用してゲーム画像を立体視表示するゲーム装置であって、
    前記立体視表示が可能な表示部と、
    撮像部と、
    オブジェクトの前記表示部に対する表示位置を設定するとともに、仮想空間内の対応する位置に当該オブジェクトを配置するオブジェクト設定部と、
    前記表示部の奥行き方向における前記オブジェクトの表示位置に基づいて視差を設定し、前記表示部に前記オブジェクトを立体視表示させる表示制御部と、
    前記撮像部によって撮像される所定の指示部材の画像に基づいて、当該指示部材の前記撮像部に対する相対位置を算出する指示位置算出部と、
    前記オブジェクトの表示位置と前記算出された相対位置との関係に基づいて、ゲーム処理を行うゲーム処理部とを備える、ゲーム装置。
  2. 一方面に前記表示部が設けられる第1のハウジングをさらに備え、
    前記撮像部は、前記第1のハウジングにおける前記表示部と同じ面に設けられる、請求項1に記載のゲーム装置。
  3. 一方面に前記表示部が設けられる第1のハウジングをさらに備え、
    前記撮像部は、前記第1のハウジングにおける前記表示部とは反対側の面に設けられる、請求項1に記載のゲーム装置。
  4. 前記表示制御部は、前記撮像部によって撮像される画像を前記オブジェクトの画像と共に前記表示部に表示させる、請求項3に記載のゲーム装置。
  5. 前記指示部材は、先端にマーカーを有するスタイラスであり、
    前記指示位置算出部は、前記撮像部によって撮像される画像内の前記マーカーを示す画像の大きさに基づいて、前記表示部の奥行き方向における前記スタイラスの位置を算出する、請求項1〜4のいずれか1項に記載のゲーム装置。
  6. 前記スタイラスは、振動を発生する振動発生部を含み、
    前記ゲーム処理部は、前記算出されたスタイラスの位置に基づいて、ゲーム処理を行うとともに、当該ゲーム処理の進行に対応して前記振動発生部から振動を発生させる、請求項5に記載のゲーム装置。
  7. 前記第1のハウジングと折り畳み可能に連結される第2のハウジングと、
    前記第2のハウジングに設けられるタッチパネルとをさらに備え、
    前記ゲーム処理部は、前記タッチパネルに対する入力に基づいて、さらにゲーム処理を行う、請求項2または3に記載のゲーム装置。
  8. 前記撮像部に着脱可能に設けられ、前記撮像部を中心とする全周囲の画像を前記撮像部に導くためのレンズをさらに備える、請求項2または3に記載のゲーム装置。
  9. 前記撮像部に着脱可能に設けられる広角レンズをさらに備える、請求項2または3に記載のゲーム装置。
  10. 前記撮像部に着脱可能に設けられ、前記撮像部の撮像範囲を可変とする反射光学系をさらに備える、請求項2または3に記載のゲーム装置。
  11. 立体視表示が可能な表示部を有するゲーム装置において、視差を利用してゲーム画像を立体視表示することを含むゲームを提供する方法であって、
    オブジェクトの前記表示部に対する表示位置を設定するとともに、仮想空間内の対応する位置に当該オブジェクトを配置するオブジェクト設定ステップと、
    前記表示部の奥行き方向における前記オブジェクトの表示位置に基づいて視差を設定し、前記表示部に前記オブジェクトを立体視表示させる表示制御ステップと、
    撮像部によって撮像される所定の指示部材の画像に基づいて、当該指示部材の前記撮像部に対する相対位置を算出する指示位置算出ステップと、
    前記オブジェクトの表示位置と前記算出された相対位置との関係に基づいて、ゲーム処理を行うゲーム処理ステップとを備える、ゲームを提供する方法。
  12. 前記表示制御ステップは、前記撮像部によって撮像される画像を前記オブジェクトの画像と共に前記表示部に表示させるステップを含む、請求項11に記載のゲームを提供する方法。
  13. 前記指示部材は、先端にマーカーを有するスタイラスであり、
    前記指示位置算出ステップは、前記撮像部によって撮像される画像内の前記マーカーを示す画像の大きさに基づいて、前記表示部の奥行き方向における前記スタイラスの位置を算出するステップを含む、請求項11または12に記載のゲームを提供する方法。
  14. 立体視表示が可能な表示部を有するゲーム装置で実行されることで、視差を利用してゲーム画像を立体視表示するゲームプログラムであって、前記ゲームプログラムは、前記ゲーム装置を、
    オブジェクトの前記表示部に対する表示位置を設定するとともに、仮想空間内の対応する位置に当該オブジェクトを配置するオブジェクト設定手段と、
    前記表示部の奥行き方向における前記オブジェクトの表示位置に基づいて視差を設定し、前記表示部に前記オブジェクトを立体視表示させる表示制御手段と、
    撮像部によって撮像される所定の指示部材の画像に基づいて、当該指示部材の前記撮像部に対する相対位置を算出する指示位置算出手段と、
    前記オブジェクトの表示位置と前記算出された相対位置との関係に基づいて、ゲーム処理を行うゲーム処理手段として機能させる、ゲームプログラム。
  15. 撮像部と、
    視差を利用してゲーム画像を立体視表示するゲーム装置とを備えるゲームシステムであって、
    前記ゲーム装置は、
    前記立体視表示が可能な表示部と、
    オブジェクトの前記表示部に対する表示位置を設定するとともに、仮想空間内の対応する位置に当該オブジェクトを配置するオブジェクト設定部と、
    前記表示部の奥行き方向における前記オブジェクトの表示位置に基づいて視差を設定し、前記表示部に前記オブジェクトを立体視表示させる表示制御部と、
    前記撮像部によって撮像される所定の指示部材の画像に基づいて、当該指示部材の前記撮像部に対する相対位置を算出する指示位置算出部と、
    前記オブジェクトの表示位置と前記算出された相対位置との関係に基づいて、ゲーム処理を行うゲーム処理部とを含む、ゲームシステム。
JP2010266940A 2010-11-30 2010-11-30 ゲーム装置、ゲームを提供する方法、ゲームプログラム、および、ゲームシステム Pending JP2012115414A (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2010266940A JP2012115414A (ja) 2010-11-30 2010-11-30 ゲーム装置、ゲームを提供する方法、ゲームプログラム、および、ゲームシステム
US13/267,233 US20120135803A1 (en) 2010-11-30 2011-10-06 Game device utilizing stereoscopic display, method of providing game, recording medium storing game program, and game system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010266940A JP2012115414A (ja) 2010-11-30 2010-11-30 ゲーム装置、ゲームを提供する方法、ゲームプログラム、および、ゲームシステム

Publications (1)

Publication Number Publication Date
JP2012115414A true JP2012115414A (ja) 2012-06-21

Family

ID=46127011

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010266940A Pending JP2012115414A (ja) 2010-11-30 2010-11-30 ゲーム装置、ゲームを提供する方法、ゲームプログラム、および、ゲームシステム

Country Status (2)

Country Link
US (1) US20120135803A1 (ja)
JP (1) JP2012115414A (ja)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013009748A (ja) * 2011-06-28 2013-01-17 Kyocera Corp 表示機器、制御システムおよび制御プログラム
US9143630B2 (en) 2012-08-27 2015-09-22 Fuji Xerox Co., Ltd. Photographing device with a mirror to photograph a display
US9275608B2 (en) 2011-06-28 2016-03-01 Kyocera Corporation Display device
US9619048B2 (en) 2011-05-27 2017-04-11 Kyocera Corporation Display device
JP2021532517A (ja) * 2018-08-13 2021-11-25 キム ジョン キルKIM, Jong Kil 箸型マウス

Families Citing this family (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5113775B2 (ja) * 2009-01-29 2013-01-09 株式会社コナミデジタルエンタテインメント ゲーム装置、操作評価方法、および、プログラム
AU2012393196A1 (en) 2012-10-22 2015-10-01 Realvision S.R.L. Network of devices for performing optical/optometric/ophthalmological tests, and method for controlling said network of devices
US9628783B2 (en) * 2013-03-15 2017-04-18 University Of Southern California Method for interacting with virtual environment using stereoscope attached to computing device and modifying view of virtual environment based on user input in order to be displayed on portion of display
US9293079B2 (en) 2013-03-15 2016-03-22 University Of Southern California Control of ambient and stray lighting in a head mounted display
US9645395B2 (en) 2013-03-15 2017-05-09 Mark Bolas Dynamic field of view throttling as a means of improving user experience in head mounted virtual environments
JP2014222488A (ja) * 2013-05-14 2014-11-27 株式会社東芝 描画装置及び描画システム
JP2014222492A (ja) * 2013-05-14 2014-11-27 株式会社東芝 描画装置及び描画システム
JP2015115682A (ja) * 2013-12-10 2015-06-22 セイコーエプソン株式会社 画像表示装置、プロジェクター、および画像表示装置の制御方法
JP2015118575A (ja) * 2013-12-18 2015-06-25 株式会社ソニー・コンピュータエンタテインメント シミュレーション装置
JP2015118576A (ja) 2013-12-18 2015-06-25 株式会社ソニー・コンピュータエンタテインメント シミュレーション装置
US9710156B2 (en) * 2014-09-25 2017-07-18 Disney Enterprises, Inc. Three-dimensional object sculpting and deformation on a mobile device
EP3012805A1 (en) * 2014-10-21 2016-04-27 The Procter and Gamble Company Synthesizing an image of fibers
US9888174B2 (en) * 2015-10-15 2018-02-06 Microsoft Technology Licensing, Llc Omnidirectional camera with movement detection
US10277858B2 (en) 2015-10-29 2019-04-30 Microsoft Technology Licensing, Llc Tracking object of interest in an omnidirectional video
US10606468B2 (en) 2015-11-20 2020-03-31 International Business Machines Corporation Dynamic image compensation for pre-touch localization on a reflective surface
US9823782B2 (en) * 2015-11-20 2017-11-21 International Business Machines Corporation Pre-touch localization on a reflective surface
US20170242498A1 (en) * 2016-02-23 2017-08-24 Motorola Mobility Llc Passive Chopsticks Stylus System for Capacitive Touch Screens

Citations (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1051711A (ja) * 1996-08-05 1998-02-20 Sony Corp 3次元仮想物体表示装置および方法
JP2000184398A (ja) * 1998-10-09 2000-06-30 Sony Corp 仮想画像立体合成装置、仮想画像立体合成方法、ゲ―ム装置及び記録媒体
JP2000276613A (ja) * 1999-03-29 2000-10-06 Sony Corp 情報処理装置および情報処理方法
JP2003085593A (ja) * 2001-09-13 2003-03-20 Nippon Hoso Kyokai <Nhk> 対話型映像操作装置及び映像コンテンツの表示方法
JP2004145448A (ja) * 2002-10-22 2004-05-20 Toshiba Corp 端末装置、サーバ装置および画像加工方法
JP2005020187A (ja) * 2003-06-24 2005-01-20 Sharp Corp 立体画像撮影装置、および立体画像撮影装置を備えた電子機器
JP2005107404A (ja) * 2003-10-01 2005-04-21 Matsushita Electric Ind Co Ltd 広角撮像光学系、並びにそれを備えた広角撮像装置、監視用撮像装置、車載用撮像装置及び投写装置
JP2006119287A (ja) * 2004-10-20 2006-05-11 D Link Corp 全方位撮影用アタッチメント
JP2008210359A (ja) * 2007-01-30 2008-09-11 Toyota Motor Corp 操作装置
JP2008219772A (ja) * 2007-03-07 2008-09-18 Toshiba Corp 立体映像表示システム
JP2010008689A (ja) * 2008-06-26 2010-01-14 Nikon Corp 補助光投影装置、閃光装置、およびカメラ
JP2010526391A (ja) * 2007-05-04 2010-07-29 ジェスチャー テック,インコーポレイテッド コンパクト・デバイスのためのカメラ・ベースのユーザ入力
JP2012058968A (ja) * 2010-09-08 2012-03-22 Namco Bandai Games Inc プログラム、情報記憶媒体及び画像生成システム
JP2012093934A (ja) * 2010-10-27 2012-05-17 Konami Digital Entertainment Co Ltd 画像表示装置、ゲームプログラム、ゲーム制御方法

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3007232B2 (ja) * 1992-10-19 2000-02-07 富士通株式会社 描画処理装置及び方法
US6720949B1 (en) * 1997-08-22 2004-04-13 Timothy R. Pryor Man machine interfaces and applications
US7371163B1 (en) * 2001-05-10 2008-05-13 Best Robert M 3D portable game system
JP2005092284A (ja) * 2003-09-12 2005-04-07 Nintendo Co Ltd 撮像画像合成装置および撮像画像合成プログラム
US7355561B1 (en) * 2003-09-15 2008-04-08 United States Of America As Represented By The Secretary Of The Army Systems and methods for providing images
US7643025B2 (en) * 2003-09-30 2010-01-05 Eric Belk Lange Method and apparatus for applying stereoscopic imagery to three-dimensionally defined substrates
US8267780B2 (en) * 2004-03-31 2012-09-18 Nintendo Co., Ltd. Game console and memory card
JP2008011497A (ja) * 2006-06-01 2008-01-17 Canon Inc カメラ装置
US9468846B2 (en) * 2009-01-30 2016-10-18 Performance Designed Products Llc Tactile feedback apparatus and method

Patent Citations (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1051711A (ja) * 1996-08-05 1998-02-20 Sony Corp 3次元仮想物体表示装置および方法
JP2000184398A (ja) * 1998-10-09 2000-06-30 Sony Corp 仮想画像立体合成装置、仮想画像立体合成方法、ゲ―ム装置及び記録媒体
JP2000276613A (ja) * 1999-03-29 2000-10-06 Sony Corp 情報処理装置および情報処理方法
JP2003085593A (ja) * 2001-09-13 2003-03-20 Nippon Hoso Kyokai <Nhk> 対話型映像操作装置及び映像コンテンツの表示方法
JP2004145448A (ja) * 2002-10-22 2004-05-20 Toshiba Corp 端末装置、サーバ装置および画像加工方法
JP2005020187A (ja) * 2003-06-24 2005-01-20 Sharp Corp 立体画像撮影装置、および立体画像撮影装置を備えた電子機器
JP2005107404A (ja) * 2003-10-01 2005-04-21 Matsushita Electric Ind Co Ltd 広角撮像光学系、並びにそれを備えた広角撮像装置、監視用撮像装置、車載用撮像装置及び投写装置
JP2006119287A (ja) * 2004-10-20 2006-05-11 D Link Corp 全方位撮影用アタッチメント
JP2008210359A (ja) * 2007-01-30 2008-09-11 Toyota Motor Corp 操作装置
JP2008219772A (ja) * 2007-03-07 2008-09-18 Toshiba Corp 立体映像表示システム
JP2010526391A (ja) * 2007-05-04 2010-07-29 ジェスチャー テック,インコーポレイテッド コンパクト・デバイスのためのカメラ・ベースのユーザ入力
JP2010008689A (ja) * 2008-06-26 2010-01-14 Nikon Corp 補助光投影装置、閃光装置、およびカメラ
JP2012058968A (ja) * 2010-09-08 2012-03-22 Namco Bandai Games Inc プログラム、情報記憶媒体及び画像生成システム
JP2012093934A (ja) * 2010-10-27 2012-05-17 Konami Digital Entertainment Co Ltd 画像表示装置、ゲームプログラム、ゲーム制御方法

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9619048B2 (en) 2011-05-27 2017-04-11 Kyocera Corporation Display device
JP2013009748A (ja) * 2011-06-28 2013-01-17 Kyocera Corp 表示機器、制御システムおよび制御プログラム
US9275608B2 (en) 2011-06-28 2016-03-01 Kyocera Corporation Display device
US9501204B2 (en) 2011-06-28 2016-11-22 Kyocera Corporation Display device
US9143630B2 (en) 2012-08-27 2015-09-22 Fuji Xerox Co., Ltd. Photographing device with a mirror to photograph a display
JP2021532517A (ja) * 2018-08-13 2021-11-25 キム ジョン キルKIM, Jong Kil 箸型マウス
JP7018548B2 (ja) 2018-08-13 2022-02-10 ジョン キル キム 箸型マウス

Also Published As

Publication number Publication date
US20120135803A1 (en) 2012-05-31

Similar Documents

Publication Publication Date Title
JP2012115414A (ja) ゲーム装置、ゲームを提供する方法、ゲームプログラム、および、ゲームシステム
US10764565B2 (en) Computer-readable storage medium having stored therein display control program, display control apparatus, display control system, and display control method
JP6139679B2 (ja) 情報処理端末およびゲーム装置
JP6240301B1 (ja) 仮想空間を介して通信するための方法、当該方法をコンピュータに実行させるためのプログラム、および当該プログラムを実行するための情報処理装置
JP5627973B2 (ja) ゲーム処理をするためのプログラム、装置、システムおよび方法
JP6355978B2 (ja) プログラムおよび画像生成装置
JP6397698B2 (ja) 情報処理端末、情報処理プログラム、情報処理端末システム、および情報処理方法
JP6629499B2 (ja) プログラムおよび画像生成装置
EP2475179B1 (en) Display Control Program, Display, Display System, and Display Control Method
JP6396070B2 (ja) 画像融合システム、情報処理装置、情報端末、および情報処理方法
JP5814532B2 (ja) 表示制御プログラム、表示制御装置、表示制御システム及び表示制御方法
US20190018479A1 (en) Program for providing virtual space, information processing apparatus for executing the program, and method for providing virtual space
JP6021296B2 (ja) 表示制御プログラム、表示制御装置、表示制御システム、および、表示制御方法
JP2012094102A (ja) 情報処理プログラム、情報処理装置、情報処理システム、および、情報処理方法
JP5738077B2 (ja) 表示制御プログラム、表示装置、表示システム、および、表示制御方法
GB2517008A (en) Head-mountable apparatus and systems
JP2017016706A (ja) 情報処理端末およびゲーム装置
JP7111848B2 (ja) プログラム、情報処理装置、および方法
JP2018014109A (ja) 仮想空間を提供する方法、仮想体験を提供する方法、プログラム、および記録媒体
JP6189495B1 (ja) 仮想空間を提供する方法、仮想体験を提供する方法、プログラム、および記録媒体
JP2019179423A (ja) プログラム、情報処理装置、および方法
JP2018106691A (ja) 仮想空間を介して通信するための方法、当該方法をコンピュータに実行させるためのプログラム、および当該プログラムを実行するための情報処理装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20131015

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20140704

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140708

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140812

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20140916