JP2016167811A - 携帯型情報処理装置、携帯型ゲーム装置 - Google Patents

携帯型情報処理装置、携帯型ゲーム装置 Download PDF

Info

Publication number
JP2016167811A
JP2016167811A JP2016043401A JP2016043401A JP2016167811A JP 2016167811 A JP2016167811 A JP 2016167811A JP 2016043401 A JP2016043401 A JP 2016043401A JP 2016043401 A JP2016043401 A JP 2016043401A JP 2016167811 A JP2016167811 A JP 2016167811A
Authority
JP
Japan
Prior art keywords
image
display device
image display
displayed
eye
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2016043401A
Other languages
English (en)
Inventor
秀樹 紺野
Hideki Konno
秀樹 紺野
隆二 梅津
Ryuji Umetsu
隆二 梅津
憲一 杉野
Kenichi Sugino
憲一 杉野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nintendo Co Ltd
Original Assignee
Nintendo Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nintendo Co Ltd filed Critical Nintendo Co Ltd
Publication of JP2016167811A publication Critical patent/JP2016167811A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/398Synchronisation thereof; Control thereof
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/0485Scrolling or panning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/128Adjusting depth or disparity
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/10Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals
    • A63F2300/1068Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals being specially adapted to detect the point of contact of the player on a surface, e.g. floor mat, touch pad
    • A63F2300/1075Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals being specially adapted to detect the point of contact of the player on a surface, e.g. floor mat, touch pad using a touch screen
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/20Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterised by details of the game platform
    • A63F2300/203Image generating hardware
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/20Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterised by details of the game platform
    • A63F2300/204Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterised by details of the game platform the platform being a handheld device
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/30Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by output arrangements for receiving control signals generated by the game device
    • A63F2300/301Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by output arrangements for receiving control signals generated by the game device using an additional display connected to the game console, e.g. on the controller
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04806Zoom, i.e. interaction techniques or interactors for controlling the zooming operation

Abstract

【課題】立体視画像を表示する立体画像表示部を備えた装置において、操作性や立体視画像の視認性に優れた携帯型の情報処理装置およびゲーム装置を提供する。
【解決手段】ゲーム装置は、裸眼で立体視可能な画像を表示する立体画像表示装置11と、平面画像を表示する平面画像表示装置12とを備える。平面画像表示装置12の画面にはタッチパネルが設けられる。平面画像表示装置12には、仮想空間のオブジェクト101をシルエット表示した画像が表示される。ゲーム装置は、平面画像表示装置12の画面に表示されたシルエット表示の画像に対するタッチ操作に応じて、仮想空間のオブジェクトを動作させて、立体画像表示装置11に当該オブジェクトを立体表示する。
【選択図】図23

Description

本発明は、立体視画像を表示可能な表示装置を備える携帯型情報処理装置および携帯型ゲーム装置に関する。
従来、2つの表示部を有し、一方の表示部に表示対象を表示しつつ、他方の表示部に操作用の画像を平面表示する携帯型の情報処理装置が存在する。例えば、特許文献1に記載のゲーム装置では、上画面にゲーム空間の一部を斜めから見た画像を表示するとともに、下画面には当該ゲーム空間の全体を上方から見た画像を表示している。そして、プレイヤは下画面に対して操作を行うことで、ゲームをプレイする。
特開2005−218779号公報
しかしながら、特許文献1に記載のゲーム装置では、2つの表示部は画像を平面的に表示するものであり、立体視画像を表示するものではない。よりリアルで立体感のある画像をユーザに提供するために、画像を立体視可能に表示する立体画像表示部を用いることが考えられるが、その場合、装置の操作性および立体視画像の視認性を損なうことなく、立体画像表示部を備える装置を構成する必要がある。
それ故、本発明の目的は、立体視画像を表示する立体画像表示部を備えた装置において、操作性や立体視画像の視認性に優れた携帯型の情報処理装置およびゲーム装置を提供することである。
本発明は、上記の課題を解決するために、以下の構成を採用した。
本発明は、携帯型の情報処理装置であって、立体画像表示部と、平面画像表示部と、タッチパネルと、制御手段とを備える。立体画像表示部は、右目用画像と左目用画像とを用いて裸眼で立体視可能な立体画像を表示する。平面画像表示部は、ユーザが上記情報処理装置に対する入力操作を行うための平面画像を表示する。タッチパネルは、上記平面画像表示部の画面上に設けられる。制御手段は、上記タッチパネルが検出したタッチ位置に基づいて、所定の処理を実行する。
また、本発明では、上記制御手段は、上記タッチパネルが検出したタッチ位置に基づいて、上記立体画像表示部に表示された立体画像を変化させてもよい。
また、本発明では、上記平面画像表示部は、仮想空間の仮想オブジェクトを操作するための平面画像を表示してもよい。上記制御手段は、上記タッチパネルが検出したタッチ位置に基づいて、上記仮想オブジェクトを変化させる。上記立体画像表示部は、上記制御手段によって変化された仮想オブジェクトを仮想ステレオカメラで撮像することによって得られる右目用画像と左目用画像とを用いて上記立体画像を表示する。
また、本発明では、上記立体画像表示部の画面上にはタッチパネルを設けない。
また、本発明では、上記立体画像表示部の立体表示のON/OFFを切り替えるスイッチを更に備えてもよい。上記立体画像表示部は、上記スイッチによって立体表示がONに切り替えられている場合のみ、上記立体画像を表示する。
また、本発明では、上記スイッチは、位置を調整可能なスライダであってもよい。上記情報処理装置は、上記スライダの位置に応じて、仮想空間に設定された仮想ステレオカメラの2つの仮想カメラ間の距離を設定する仮想カメラ設定手段を更に備える。上記立体画像表示部は、上記仮想カメラ設定手段によって設定された仮想ステレオカメラで上記仮想空間を撮像した右目用画像と左目用画像とを用いて上記立体画像を表示する。
また、本発明では、上記情報処理装置は、実空間を撮像した右目用実画像と左目用実画像とを用いる第1のモードと、仮想ステレオカメラで仮想空間を撮像した右目用画像と左目用画像とを用いる第2のモードとを選択するモード選択手段を更に備えてもよい。上記立体画像表示部は、上記モード選択手段で上記第1のモードが選択されている場合、上記実空間を撮像した右目用実画像と左目用実画像とを用いて上記立体画像を表示する。また、上記立体画像表示部は、上記モード選択手段で上記第2のモードが選択されている場合、上記仮想ステレオカメラで仮想空間を撮像した右目用画像と左目用画像とを用いて上記立体画像を表示する。
また、本発明では、情報処理装置は、実空間を撮像するステレオカメラを更に備えてもよい。上記立体画像表示部は、上記ステレオカメラで撮像された右目用実画像と左目用実画像とを用いて上記立体画像を表示する。
また、本発明では、上記平面画像表示部は、上記右目用実画像と上記左目用実画像との相対的な位置を調整するための調整バーを表示してもよい。上記制御手段は、上記タッチパネルが検出したタッチ位置に基づいて、上記調整バーのスライダの位置を設定するとともに、当該スライダの位置に応じて、上記右目用実画像と上記左目用実画像との相対的な位置を調整する。上記立体画像表示部は、上記制御手段によって調整された上記右目用実画像と上記左目用実画像とを用いて、上記立体画像を表示する。
また、本発明では、上記情報処理装置は、折り畳み可能な第1のハウジングと第2のハウジングとによって構成されてもよい。上記立体画像表示部は、上記第1のハウジングに設けられる。上記平面画像表示部は、上記第2のハウジングに設けられる。
また、本発明では、上記第1のハウジングは、上記第1のハウジングと上記第2のハウジングとが開かれた状態において、上記第2のハウジングよりも上側に配置されてもよい。
本発明によれば、立体視表示可能な立体画像表示部と、画面上にタッチパネルが設けられた平面画像表示部とを備えた情報処理装置を提供することができ、ユーザは平面画像表示部に表示された画像をタッチ操作することによって、情報処理装置に対する操作を容易に行うことができる。
本発明の一実施形態に係る携帯型の画像表示装置の外観図 上側ハウジング13aと下側ハウジング13bとを折り畳んだ状態で下側ハウジング13bを背面から見た図 画像表示装置10の内部構成を示すブロック図 画像表示装置10の機能構成を示すブロック図 立体画像表示装置11及び平面画像表示装置12の画面に表示される画像の一例を示した図 ユーザがスティック16を用いて位置調整バー54のスライダ55を調整する様子を示した図 位置調整バー54のスライダ55の調整によってユーザが感じる撮像対象画像62(52)及び撮像対象画像63(53)の位置が変化する様子を示した図 左目用画像51a及び右目用画像51bを重ね合わせた場合において、重なり合う部分と重なり合わない部分とを説明するための図 位置調整バー54を用いて左目用画像51a及び右目用画像51bの縦方向の位置を調整する様子を示した図 ズーム調整バー56を用いて立体画像61を拡大する様子を示した図 タッチ操作によって立体画像61がスクロールする様子を示した図 右目用画像51bを回転又は拡大させることによって立体画像を調整する様子を示した図 画像表示装置10のメインメモリ31のメモリマップを示す図 第1の実施形態に係る画像表示制御処理の詳細を示すメインフローチャート 位置調整処理(ステップS2)の詳細を示すフローチャート 回転、サイズ変更処理(ステップS3)の詳細を示すフローチャート ズーム処理(ステップS4)の詳細を示すフローチャート スクロール処理(ステップS5)の詳細を示すフローチャート 立体画像61がズーム及びスクロールされることに応じて、平面画像表示装置12に表示される左目用画像51a及び右目用画像51bがズーム及びスクロールされる様子を示す図 第2の実施形態に係る画像表示装置10のメインメモリ31のメモリマップを示す図 第2の実施形態に係る処理の詳細を示すメインフローチャート 第1のモードの処理の詳細を示すフローチャート 第3実施形態に係るゲームの実行中において、立体画像表示装置11および平面画像表示装置12の画面に表示されるゲーム画像の一例を示した図 仮想空間に存在する各オブジェクトを仮想ステレオカメラ100で撮像する様子を仮想空間の上方から見た図 ユーザが平面画像表示装置12に表示された子供オブジェクト画像121をタッチして所定の操作を行った場合に、立体画像表示装置11および平面画像表示装置12に表示される画像が変化する様子を示す図 カーソル160の表示の仕方を示す図であり、立体画像表示装置11に表示された子供オブジェクト101の一部位を拡大して正面から見た図 子供オブジェクト101の一部位を図26Aの矢印の方向から見た図 操作可能なオブジェクトが複数存在する場合において立体画像表示装置11および平面画像表示装置12の画面に表示される画像を示す図 第3実施形態に係るゲームにおいて、ユーザがアイテムを使用する場合について示す図 子供オブジェクト101にアイテム105を持たせた場合に立体画像表示装置11および平面画像表示装置12に表示される画像が変化する様子を示す図 ゲーム装置10のメインメモリ31のメモリマップを示す図 第3実施形態に係るゲーム処理の詳細を示すメインフローチャート 3次元タッチ位置判定処理(ステップS103)の詳細を示すフローチャート 平面画像表示処理(ステップS105)の詳細を示すフローチャート 平面画像表示装置12および立体画像表示装置11の画面に表示される画像の一例を示す図
(第1の実施形態)
図面を参照して、本発明の第1の実施形態に係る画像表示装置について説明する。図1は、本発明の一実施形態に係る携帯型の画像表示装置の外観図である。
(画像表示装置の説明)
図1において、画像表示装置10は、立体表示可能な立体画像表示装置11、および、2次元の平面画像を表示可能な平面画像表示装置12を含む。ハウジング13は上側ハウジング13aと下側ハウジング13bとによって構成されている。立体画像表示装置11は上側ハウジング13aに収納され、平面画像表示装置12は下側ハウジング13bに収納される。立体画像表示装置11および平面画像表示装置12の画面は同じ大きさであり、いずれも所定の解像度(例えば、256dot×192dot)を有している。なお、本実施形態では表示装置として液晶表示装置を用いているが、例えばEL(Electro Luminescence:電界発光)を利用した表示装置など、他の任意の表示装置を利用することができる。また、任意の解像度のものを利用することができる。
立体画像表示装置11は、裸眼で立体画像を表示可能な表示装置であり、レンチキュラー方式やパララックスバリア方式(視差バリア方式)のものが用いられる。本実施形態では、立体画像表示装置11は、パララックスバリア方式のものとする。立体画像表示装置11は、左目用画像と右目用画像とを用いて、立体感のある画像を表示する。すなわち、立体画像表示装置11は、視差バリアを用いてユーザの左目に左目用画像をユーザの右目に右目用画像を視認させることにより、ユーザにとって立体感のある立体画像を表示することができる。
平面画像表示装置12の画面上には、指示座標検出装置であるタッチパネル15が装着されている。タッチパネル15としては、例えば抵抗膜方式や光学式(赤外線方式)や静電容量結合式など、任意の方式のものを利用することができる。本実施形態では、タッチパネル15は、抵抗膜方式であるものとする。タッチパネル15は、ユーザがスティック16を用いて平面画像表示装置12の画面上を接触(タッチ)することにより、平面画像表示装置12の画面上の位置を検出する。タッチパネル15が検出する位置は、平面画像表示装置12の画面上の位置と対応している。なお、ユーザは、スティック16に限らず指で画面上の位置を指示することも可能である。本実施形態では、タッチパネル15として、平面画像表示装置12の解像度と同じ解像度(検出精度)のものを利用する。ただし、タッチパネル15の解像度と平面画像表示装置12の解像度とは、必ずしも一致している必要はない。
上側ハウジング13aには、後述するハードウェアスライダ14が配設されている。また、下側ハウジング13bの側面には、後述するステレオカメラ18で撮像対象を撮像するためのシャッターボタン17が設けられている。上側ハウジング13aと下側ハウジング13bとは、ヒンジ部19によって接続されている。上側ハウジング13aと下側ハウジング13bとは、当該ヒンジ部19によって開閉可能(折り畳み可能)に接続されている。
図2は、上側ハウジング13aと下側ハウジング13bとを折り畳んだ状態で下側ハウジング13bを背面から見た図である。図2に示すように、下側ハウジング13bの背面には、ステレオカメラ18が配設される。ステレオカメラ18は、左目画像撮像部18aと右目画像撮像部18bとを有する。左目画像撮像部18aと右目画像撮像部18bとの間隔は、例えば、平均的な人間の左右の目の間隔(例えば、65mm)に設定される。左目画像撮像部18a及び右目画像撮像部18bは、所定の解像度を有する撮像素子(例えば、CCDイメージセンサやCMOSイメージセンサ等)と、ズームレンズとを含む。左目画像撮像部18aは、左目用画像を撮像し、右目画像撮像部18bは、右目用画像を撮像する。左目画像撮像部18a及び右目画像撮像部18bは、ユーザによってシャッターボタン17が押されたことに応じて、それぞれ左目用画像及び右目用画像を撮像する。ユーザは、図1に示すように上側ハウジング13aと下側ハウジング13bとを開いた状態で立体画像表示装置11及び平面画像表示装置12の画面を見ながら、シャッターボタン17を押すことができる。すなわち、ステレオカメラ18で撮像対象を撮像した場合の左目用画像及び右目用画像が平面画像表示装置12の画面に表示され、そのときの立体画像が立体画像表示装置11に表示される。これにより、ユーザは画面に表示された画像を確認しながら、撮像対象を撮像することができる。
図3は、画像表示装置10の内部構成を示すブロック図である。図3に示すように、画像表示装置10は、上述の他、CPU30と、メインメモリ31と、ROM32と、メモリ制御回路33と、保存用データメモリ34と、通信モジュール35とを備えている。これらは電子部品として電子回路基板上に実装されて、下側ハウジング13b(または上側ハウジング13aでもよい)内に収納される。
CPU30は、所定のプログラムを実行するための情報処理手段である。本実施形態では、所定のプログラムが画像表示装置10のROM32に記憶されており、CPU30が、当該所定のプログラムを実行することによって、後述する表示制御処理を実行する。
CPU30には、メインメモリ31、ROM32、およびメモリ制御回路33が接続される。また、メモリ制御回路33には、保存用データメモリ34が接続される。メインメモリ31は、読み書き可能な半導体メモリである。メインメモリ31には、上記所定のプログラムを一時的に格納する領域、左目用画像及び右目用画像を一時的に格納する領域、CPU30のワーク領域やバッファ領域が設けられる。すなわち、メインメモリ31は、後述する表示制御処理に用いられる各種データを記憶したり、ROM32に記憶された上記所定のプログラムを記憶したりする。ROM32は、不揮発性のメモリであり、上記所定のプログラムを格納する。保存用データメモリ34は、左目画像撮像部18a及び右目画像撮像部18bによって撮像された画像のデータ等を記憶するための記憶手段である。保存用データメモリ34は、不揮発性の記憶媒体によって構成されており、例えば、NAND型フラッシュメモリが用いられる。メモリ制御回路33は、CPU30の指示に従って、保存用データメモリ34に対するデータの読み出しおよび書き込みを制御する回路である。
なお、CPU30によって実行されるプログラムは、ROM32に予め記憶されていてもよいし、保存用データメモリ34から取得されてもよいし、通信モジュール35を用いた通信によって他の機器から取得されてもよい。
通信モジュール35は、有線又は無線によって他の機器と通信するための機能を有する。通信モジュール35は、例えば、赤外線通信により他の機器と通信するための機能を有する。なお、通信モジュール35は、例えばIEEE802.11.b/gの規格に準拠した方式により、無線LANに接続する機能を有してもよし、Bluetooth(ブルートゥース)(登録商標)の技術を用いて、他の機器と通信する機能を有してもよい。また、通信モジュール35は、携帯電話等に用いられる通信方式により移動体通信網に接続する機能を有してもよい。
また、CPU30には、タッチパネル15が接続される。タッチパネル15は、図示しないインターフェイス回路に接続され、当該インターフェイス回路は、タッチパネル15からの信号に基づいて、所定の形式のタッチ位置データを生成し、CPU30に出力する。例えば、タッチ位置データは、タッチパネル15の入力面に対して入力が行われた位置の座標を示すデータである。なお、上記インターフェイス回路は、タッチパネル15からの信号の読み込み、および、タッチ位置データの生成を所定時間に1回の割合で行う。CPU30は、上記インターフェイス回路を介して、タッチ位置データを取得することにより、タッチパネル15に対して入力が行われた位置を知ることができる。
シャッターボタン17と、撮像装置(左目画像撮像部18a及び右目画像撮像部18b)とは、CPU30に接続される。CPU30は、シャッターボタン17が押されたことに応じて、左目画像撮像部18a及び右目画像撮像部18bに画像を撮像する命令を送信する。左目画像撮像部18a及び右目画像撮像部18bは、CPU30からの命令に応じて画像を撮像し、撮像した画像データをCPU30に出力する。
また、立体画像表示装置11及び平面画像表示装置12は、それぞれCPU30に接続される。立体画像表示装置11及び平面画像表示装置12は、それぞれCPU30の指示に従って画像を表示する。上述のように、立体画像表示装置11には立体画像が表示され、平面画像表示装置12には平面画像が表示される。
また、CPU30には、ハードウェアスライダ14が接続される。ハードウェアスライダ14は、スライドスイッチであり、横方向の任意の位置(又は所定の位置)に調整可能である。ハードウェアスライダ14は、その位置に応じた信号をCPU30に出力する。
次に、図4を用いて、画像表示装置10の機能構成について説明する。図4は、画像表示装置10の機能構成を示すブロック図である。図4に示すように、画像表示装置10は、メモリ31a及び31b、調整部40、入力制御部41、第1表示制御部42、及び、第2表示制御部43を含む。メモリ31a及び31bは、上述したメインメモリ31の記憶領域の一部である。また、調整部40、入力制御部41、第1表示制御部42、及び、第2表示制御部43は、CPU30が上記所定のプログラムを実行することにより実現される。
メモリ31a及び31bは、それぞれ左目画像撮像部18a及び右目画像撮像部18bによって撮像された画像を一時的に格納する。メモリ31aには、左目画像撮像部18aによって撮像された左目用画像が格納され、メモリ31bには、右目画像撮像部18bによって撮像された左目用画像が格納される。
調整部40は、入力制御部41からの出力信号に応じて、左目用画像と右目用画像とを表示装置に表示するときの両画像の相対的な位置、相対的な大きさ、相対的な回転を調整する。左目用画像及び右目用画像の位置は、それぞれの画像中心の座標値(内部的に設定されたXY座標系の座標値)として表される。XY座標系のX軸方向は、画面(立体画像表示装置11及び平面画像表示装置12の画面)の横方向に対応し、Y軸方向は、画面の縦方向に対応する。左目用画像と右目用画像との相対的な位置は、各画像の画像中心の横方向(X方向)及び/又は縦方向(Y方向)の座標値を変化させることにより、調整される。例えば、調整部40は、左目用画像及び/又は右目用画像を横方向に移動させることにより、左目用画像と右目用画像との相対的な位置を調整する。また、調整部40は、左目用画像及び/又は右目用画像の大きさを変化させることにより、左目用画像と右目用画像との相対的な大きさを調整する。例えば、調整部40は、左目用画像を拡大させることにより、左目用画像を右目用画像よりも相対的に大きくさせる。さらに、調整部40は、左目用画像及び/又は右目用画像をそれぞれの画像中心の周りに回転させることにより、左目用画像と右目用画像との相対的な回転(回転角度)を調整する。例えば、調整部40は、左目用画像を所定の角度だけ回転させることにより、左目用画像と右目用画像との相対的な回転を調整する。
入力制御部41は、タッチパネル15が検出する位置に応じて、調整部40に制御信号を出力する。すなわち、入力制御部41は、タッチパネル15が検出する位置に応じて、ユーザによって行われた左目用画像及び右目用画像に対する操作(後述する位置調整バー54(図5参照)に対する操作、左目用画像又は右目用画像に対する回転操作、拡大又は縮小操作等)を検出し、制御信号として調整部40に送信する。また、入力制御部41は、タッチパネル15が検出する位置に応じて、平面画像表示装置12に表示される位置調整バー54の位置、位置調整バー54のスライダ55の位置、及び、ズーム調整バー56のスライダ57の位置を調整する。また、入力制御部41は、タッチパネル15が検出する位置に応じて、立体画像表示装置11に表示される立体画像をスクロールさせたり、ズームさせたりする(詳細は後述する)。
第1表示制御部42は、立体画像表示装置11の表示制御を行う。第1表示制御部42は、調整部40によって調整された左目用画像及び右目用画像を合成することにより、立体画像表示装置11に立体画像を表示させる。例えば、調整部40によって左目用画像と右目用画像との位置が左右方向に所定の量ずらされた場合、第1表示制御部42は、左目用画像と右目用画像との位置を当該所定の量だけ左右方向にずらす。そして、第1表示制御部42は、ずらした2つの画像を合成して立体画像を生成する。例えば、第1表示制御部42は、ずらした2つの画像を画素を縦に並べた1ライン毎に短冊状に分割し、分割した短冊状の画像を交互に配置することにより、2つの画像を合成する。そして、合成した画像データを立体画像表示装置11に出力する。立体画像表示装置11は、表示した画像について、視差バリアを通して見ることによって、1ライン毎に交互に、右目にのみ見える表示と左目にのみ見える表示となるため、ユーザの右目に右目用画像、左目に左目用画像を視認させることができる。これにより、立体画像を立体画像表示装置11に表示させる。また、第1表示制御部42は、入力制御部41からの信号に基づいて、立体画像表示装置11に表示される立体画像をズームしたり、スクロールしたりする。
第2表示制御部43は、平面画像表示装置12の表示制御を行う。第2表示制御部43は、調整部40によって調整された左目用画像及び右目用画像を重ね合わせ、重ね合わせた平面画像を平面画像表示装置12に表示させる。例えば、調整部40によって左目用画像と右目用画像との位置が左右方向に所定の量ずらされた場合、第2表示制御部43は、左目用画像と右目用画像との位置を当該所定の量だけ左右方向にずらす。そして、第2表示制御部43は、ずらした2つの画像を半透明にして重ね合わせ、平面画像表示装置12に平面的に表示させる。従って、ユーザは、左目用画像及び右目用画像の両方を視認することができ、左目用画像及び右目用画像がどの程度ずれているかを容易に認識することができる。また、第2表示制御部43は、入力制御部41からの信号に基づいて、位置調整バー54、及び、ズーム調整バー56の表示を制御する。
(立体画像の調整操作)
次に、図5から図12を参照して、立体画像の調整について説明する。図5は、立体画像表示装置11及び平面画像表示装置12の画面に表示される画像の一例を示した図である。なお、図5から図12において、説明と関係しない部分については表示を省略しており、また、立体画像表示装置11及び平面画像表示装置12の画面を実際よりも相対的に大きく表示している。
図5に示すように、平面画像表示装置12の画面には、画像表示領域50が設けられる。画像表示領域50には、左目用画像51a及び右目用画像51bが表示されている。図5に示すように、画像表示領域50のアスペクト比(横方向の長さ(横幅)と縦方向の長さ(高さ)との比)における横幅の比率は、左目用画像51a及び右目用画像51bのアスペクト比における横幅の比率よりも大きい。すなわち、画像表示領域50は、左目用画像51a及び右目用画像51bよりも横長の領域である。
左目用画像51aは、左目画像撮像部18aによって撮像された画像であり、左目用画像51aには、撮像対象画像52a及び撮像対象画像53aが含まれている。撮像対象画像52a及び撮像対象画像53aは、実空間に存在する撮像対象52及び53を左目画像撮像部18aによって撮像した画像である。また、右目用画像51bは、右目画像撮像部18bによって撮像された画像であり、右目用画像51bには、撮像対象画像52b及び撮像対象画像53bが含まれている。撮像対象画像52b及び撮像対象画像53bは、実空間に存在する撮像対象52及び53を右目画像撮像部18bによって撮像した画像である。すなわち、撮像対象画像52a及び撮像対象画像52bは、同じ撮像対象52を撮像した画像である。しかし、左目用画像51a及び右目用画像51bには視差があるため、撮像対象画像52a及び撮像対象画像52bは完全に同一の画像ではない。同様に、撮像対象画像53a及び撮像対象画像53bは、同じ撮像対象53を撮像した画像であるが、左目用画像51a及び右目用画像51bには視差があるため、撮像対象画像53a及び撮像対象画像53bは完全に同一の画像ではない。
図5に示すように、平面画像表示装置12の画面に表示された左目用画像51a及び右目用画像51bは、半透明で重ね合わされて表示されている。また、平面画像表示装置12の画面には、位置調整バー54及びスライダ55が表示される。また、平面画像表示装置12の画面には、ズーム調整バー56及びスライダ57が表示される。
一方、立体画像表示装置11の画面には、立体画像61が表示されている。立体画像61は、左目用画像51aと右目用画像51bとが合成された画像であり、ユーザが立体画像61を見たときに立体的に見える画像である。立体画像61には、撮像対象画像62及び撮像対象画像63が含まれている。撮像対象画像62は、実空間に存在する撮像対象52を撮像した画像であり、図5に示すように、ユーザが立体的に見える画像である。撮像対象画像62は、左目用画像51aの撮像対象画像52aと右目用画像51bの撮像対象画像52bとが合成された画像である。同様に、撮像対象画像63は、実空間に存在する撮像対象53を撮像した画像であり、図5に示すように、ユーザが立体的に見える画像である。撮像対象画像63は、左目用画像51aの撮像対象画像53aと右目用画像51bの撮像対象画像53bとが合成された画像である。
位置調整バー54は、ユーザが左目用画像51a及び右目用画像51bの位置を画面の横方向及び縦方向に調整するためのユーザインターフェイスである。ユーザは、位置調整バー54のスライダ55をスティック16でタッチしたまま横方向にスライドさせることにより、左目用画像51a及び右目用画像51bの横方向のずれ量(相対位置)を調整することができる。また、ユーザはスティック16を用いて位置調整バー54の所定の位置をタッチすることにより、スライダ55を当該タッチ位置に移動させ、左目用画像51a及び右目用画像51bの横方向のずれ量(相対位置)を調整することができる。詳細は後述するが、この調整によって立体画像表示装置11に表示される立体画像の立体感が変化する。
なお、図5においては、説明のため左目用画像51aと右目用画像51bとが若干上下左右方向にずれて表示されているが、実際には、左目用画像51aと右目用画像51bとの位置は一致している(左目用画像51aの画像中心と左目用画像51aの画像中心とは一致している)。しかしながら、左目用画像51aに含まれる撮像対象画像52aと右目用画像51bに含まれる撮像対象画像52bとは、位置が異なる。具体的には、2つの画像の位置を一致させて半透明で重ね合わせた場合に、左目用画像51aに含まれる撮像対象画像52aは、右目用画像51bに含まれる撮像対象画像52bよりも右側にずれている。すなわち、左目用画像51aに含まれる撮像対象画像52aは相対的に右側に、右目用画像51bに含まれる撮像対象画像52bは相対的に左側に位置している。従って、立体画像表示装置11に表示される撮像対象画像62は、ユーザにとって立体画像表示装置11の画面よりも手前に位置しているように見える(後述する図7参照)。また、左目用画像51aに含まれる撮像対象画像53aは、右目用画像51bに含まれる撮像対象画像53bよりもさらに右側にずれている。すなわち、左目用画像51aに含まれる撮像対象画像53aは右側に、右目用画像51bに含まれる撮像対象画像53bは左側にずれている。撮像対象画像53aと撮像対象画像53bとのずれは、撮像対象画像52aと撮像対象画像52bとのずれよりも大きい。従って、立体画像表示装置11に表示される撮像対象画像63は、ユーザにとって撮像対象画像62よりもさらに手前に位置しているように見える(後述する図7参照)。
次に、図6を用いて左目用画像51a及び右目用画像51bの横方向の位置の調整について、説明する。図6は、ユーザがスティック16を用いて位置調整バー54のスライダ55を調整する様子を示した図である。図6において、破線によって示されるスライダ55’は、ユーザによって調整される(画面の右方向に移動される)前のものであり、実線によって示されるスライダ55は、ユーザによって調整された後のものである。スライダ55が位置P1から位置P2に移動されることに応じて、平面画像表示装置12の画像表示領域50に表示された左目用画像51a及び右目用画像51bはそれぞれ、画面の横方向に移動する。具体的には、左目用画像51aは画面の左方向に移動し、右目用画像51bは画面の右方向に移動する。すなわち、位置調整バー54のスライダ55が横方向に移動すると、左目用画像51a及び右目用画像51bがスライダ55の移動量に応じた量だけ、横方向に、互いに反対方向に移動し(ずれ)、左目用画像51aと右目用画像51bとの間のずれ量が変化する。なお、左目用画像51a及び右目用画像51bの何れか一方のみが、スライダ55の移動量に応じて移動することで、左目用画像51aと右目用画像51bとの間のずれ量を変化させても良い。
なお、位置調整バー54のスライダ55が所定の位置(例えば可動範囲の中心)に位置する場合、左目用画像51aと右目用画像51bとの間のずれ量はゼロとなる(左目用画像51aの画像中心の位置と右目用画像51bの画像中心の位置とが、一致する)。例えば、スライダ55が中心から右にスライドされるに従って左目用画像51aは左に、右目用画像51bは右に移動するように、画像同士のずれ量が大きくなる。これにより、後述するように、立体画像表示装置11に表示される撮像対象画像62及び撮像対象画像63は画面の奥方向に移動するように見える。逆に、スライダ55が中心から左にスライドされるに従って左目用画像51aは右に、右目用画像51bは左に移動するように、画像同士のずれ量の絶対値が大きくなる(この場合のずれ量は負の値となる)。これにより、後述するように、立体画像表示装置11に表示される撮像対象画像62及び撮像対象画像63は画面の手前方向に移動するように見える。
一方、立体画像表示装置11の画面に表示される立体画像61も、スライダ55の移動に応じて変化する。スライダ55が移動すると、立体画像表示装置11の画面に表示される、ユーザの左目に視認される左目用画像51aと、ユーザの右目に視認される右目用画像51bとの横方向の位置も変化する。すなわち、平面画像表示装置12に表示される左目用画像51a及び右目用画像51bと同様に、立体画像表示装置11に表示される左目用画像51a及び右目用画像51bもスライダ55の移動量に応じた量だけ横方向に移動する。その結果、スライダ55が移動した後(位置P2)の立体画像61をユーザが見ると、立体画像61に含まれる撮像対象画像62及び撮像対象画像63は、スライダ55が移動する前(位置P1)よりも、画面の奥方向に位置しているように見える。すなわち、スライダ55の移動によって、立体画像61に含まれる撮像対象画像62及び撮像対象画像63が、画面の奥方向に移動したように見える。
図7は、位置調整バー54のスライダ55の調整によってユーザが感じる撮像対象画像62(52)及び撮像対象画像63(53)の位置が変化する様子を示した図である。図7は、ユーザ、立体画像表示装置11、及び、2つの撮像対象52及び53(撮像対象画像62及び63)を上方から見た図であり、ユーザが感じるこれらの位置関係を示している。スライダ55が移動する前においては、ユーザは、撮像対象画像62及び撮像対象画像63は立体画像表示装置11の画面より手前(画面よりユーザ側)に位置していると感じる(62’及び63’の位置に存在しているように見える)。より具体的には、ユーザは、実空間に存在する撮像対象52と撮像対象53との位置関係と同様に、撮像対象画像63’が撮像対象画像62’よりも画面の手前方向の位置(ユーザに近い位置)に存在しているように感じる。一方、スライダ55が移動することに応じて、ユーザは、撮像対象画像62及び撮像対象画像63は立体画像表示装置11の画面の奥方向(画面に垂直な方向であってユーザの視線方向)に移動するように見える(言い換えると、立体画像表示装置11の画面がユーザに向かって移動するように見える)。より具体的には、スライダ55が移動した後においては、ユーザは、撮像対象画像62が画面の奥方向に位置しており、撮像対象画像63が画面近傍に位置していると感じる。このように、ユーザがスライダ55を平面画像表示装置12の画面の右方向に移動させた場合、立体画像61に含まれる撮像対象画像62(及び63)は、あたかも立体画像表示装置11の画面の奥方向に移動したように(画面の奥方向に遠ざかるように)見える。逆に、ユーザがスライダ55を左方向に移動させた場合、立体画像61に含まれる撮像対象画像62(及び63)は、あたかも画面の手前方向に移動したように(画面から飛び出したように)見える。つまり、ユーザが位置調整バー54のスライダ55を横方向に調整すると、ユーザにとっては立体画像61に含まれる撮像対象の位置が変化したように見える。従って、ユーザは、位置調整バー54のスライダ55を横方向に移動させることによって、立体画像61の見え方を変化させることができる。
また、ユーザは、位置調整バー54のスライダ55を横方向に移動させることによって、立体画像61に含まれる所望の撮像対象を自身にとって見やすく表示させることができる。例えば、図7の点線に示すように、スライダ55を移動させる前においては、ユーザが視認する撮像対象画像63の位置は、画面の手前であり、画面から所定距離だけ離れた位置(63’の位置)である。一方、ユーザによって視認される撮像対象画像62の位置は、画面の手前であり、画面近傍(62’の位置)である。この場合において、ユーザは、撮像対象画像62を立体的に視認することは容易であるが、撮像対象画像63を立体的に視認することは困難である。これは、実際に画像が表示されているのは画面上であるため、画像を見ようとするときに、ユーザは、目の焦点を画面上に合わせるためである。画面近傍に視認される移動前の撮像対象画像62’は、ユーザが認識する画面に垂直な方向の位置と目の焦点が合っている位置とが近いため、立体的に視認され易い。一方、移動前の撮像対象画像63’は、ユーザが認識する画面に垂直な方向の位置と目の焦点が合っている位置とが異なるため、立体的に視認され難い(目の焦点が画面上に合っている場合に、移動前の撮像対象画像63’を見ると、画像がぼやけて見えたり、立体として認識できなかったりする)。この場合において、ユーザは、スライダ55を横方向に移動させることによって、撮像対象画像63を画面の奥方向に移動させることができ、撮像対象画像63を画面近傍に移動させることができる。従って、ユーザは、スライダ55を横方向に移動させることによって、立体画像61に含まれる所望の撮像対象(撮像対象画像63)を自身にとって見やすく表示させることができる。
なお、図6に示す横方向のずれ(位置)を調整した後の立体画像61は、図5に示す調整する前の立体画像61の両端部分が削られたような画像となっている(図6参照)。このため、図6に示す撮像対象画像62の一部は表示されていない。これは、左目用画像51a及び右目用画像51bを横方向にずらしたことによって、2つの画像が重なり合わない部分が生じたためである。左目用画像51a及び右目用画像51bが重なり合わない部分(非重複領域)も含めて立体画像表示装置11の画面に立体画像を表示すると、立体画像の一部は立体感のある画像となり、他の一部は立体感のない画像となる。このときの表示は、視聴者にとっては、「見えているはずのものが見えない」または「見えないはずのものが見えている」といった状態である。このため、全体としてユーザにとって違和感のある画像となってしまう。従って、立体画像表示装置11の画面には、左目用画像51a及び右目用画像51bが重なり合う部分(重複領域)のみを合成して、表示させる。
ここで、2つの画像の「重なり合う部分」と「重なり合わない部分」について、図8を用いて説明する。図8は、左目用画像51a及び右目用画像51bを重ね合わせた場合において、重なり合う部分と重なり合わない部分とを説明するための図である。図8に示すように、左目用画像51aには、撮像対象画像52a、53a、及び、58aが含まれる。同様に、右目用画像51bには、撮像対象画像52b、53b、及び、58bが含まれる。これら2つの画像を横方向にずらして重ね合わせた場合、2つの画像が重なり合う部分(重複領域)と重なり合わない部分(非重複領域)とが生じる。上記重なり合う部分は、重ね合わせた画像の破線によって囲まれる領域Rである。重なり合わない部分は、重ね合わせた画像の領域R以外の領域である。立体画像表示装置11の画面には、領域Rのみが表示される。この場合において、ユーザが立体画像表示装置11の画面を見た場合、ユーザは左目で撮像対象画像58aを視認することができ、右目で撮像対象画像58bを視認することができる。その結果、ユーザは撮像対象画像58を立体的に認識することができる。また、右目用画像51bに含まれる撮像対象画像53bは、領域Rに含まれるため、立体画像表示装置11の画面に表示される。一方、左目用画像51aに含まれる撮像対象画像53aは、領域Rに含まれないため、立体画像表示装置11の画面には表示されない。従って、ユーザが立体画像表示装置11の画面を見た場合、ユーザは左目で撮像対象画像53aを視認することができず、右目で撮像対象画像53bを視認することができる。これは、ユーザにとっては自然な見え方である。すなわち、実空間をユーザが見た場合においても、右目と左目には視差があるため、ある物体を見た場合に片方の目にしか見えない場合がある。例えば、ユーザが窓から外の風景を見る場合においては、窓枠によって、例えば右目には見えない部分でも左目には見える部分が存在する。しかしながら、重なり合わない部分も含めて画面に表示すると、ユーザの目(図8の例では左目)に見えない部分(図8の53a)が見えてしまい、ユーザにとっては違和感のある画像となってしまう。従って、立体画像表示装置11には上記重なり合う部分のみを表示することにより、ユーザにとって違和感のない画像を表示することができる。
一方、平面画像表示装置12の画像表示領域50には、調整前後において、左目用画像51a及び右目用画像51bの全体が表示される。より具体的には、左目用画像51a及び右目用画像51bが重なり合う部分と重なり合わない部分とが、平面画像表示装置12の画像表示領域50に表示される。上述のように、立体画像表示装置11では、立体画像をユーザにとって違和感のないようにするために、2つの画像が重なり合う部分のみが表示される。一方、平面画像表示装置12に表示される左目用画像51a及び右目用画像51bは、それぞれユーザの両目で視認されるため、ユーザは、2つの画像を別々の画像として認識することができる。このため、2つの画像が重なり合う部分のみならず、重なり合わない部分が表示されてもユーザにとって違和感はない。むしろ、重なり合わない部分も含めて表示されることにより、ユーザは、2つの画像をそれぞれ別の画像として認識することができ、2つの画像の位置関係を容易に認識することができる。従って、ユーザは、2つの画像に含まれる撮像対象画像の位置を容易に認識することができる。また、重なり合わない部分も含めて平面画像表示装置12に表示されるため、ユーザは、重なり合わない部分に存在する撮像対象(当該撮像対象は立体画像表示装置11には表示されないか、立体画像表示装置11に表示されてもユーザの片目にのみ視認される)を視認することができる。例えば、図8に示す左目用画像51aに含まれる撮像対象画像53aは、重なり合わない部分に存在し、ユーザの左目には視認されない。このような撮像対象画像53aをユーザの左目で視認できるように左目用画像51aを移動させる場合、ユーザは、立体画像表示装置11に表示される立体画像61を見ながら調整することは困難である。すなわち、立体画像表示装置11には撮像対象画像53aが表示されないため、その位置を認識することができないからである。しかしながら、平面画像表示装置12には、重なり合わない部分も表示されるため、ユーザは、当該重なり合わない部分に含まれる撮像対象画像53aを視認しながら撮像対象画像53aの位置を調整することができる。このため、ユーザは、重なり合わない部分に存在する撮像対象の位置を調整することができ、所望の撮像対象を容易に立体的に表示させることができる。
また、ユーザは、立体画像表示装置11に表示された立体画像61を見ながら左目用画像51a及び右目用画像51bの位置を調整することができるため、ユーザは立体画像を容易に調整することができる。上述のように、ユーザが立体画像表示装置11に表示された立体画像61を見る場合、ユーザは図7に示す撮像対象画像63’を立体的に視認することが困難な場合がある。ユーザが撮像対象画像63’を立体的に視認できない場合、立体画像表示装置11を見るだけでは、左目用画像51a及び右目用画像51bをどの方向に調整したらいいのか判断することが困難である(撮像対象画像63’を画面に垂直な方向のどの位置に移動させればよいか判断ができない)。一方、平面画像表示装置12には、左目用画像51a及び右目用画像51bが半透明で重ね合わされて表示されている。これにより、ユーザは、平面画像表示装置12を見ることにより、2つの画像に含まれる撮像対象画像53a及び53bがどの程度離れているかを容易に認識することができる。従って、ユーザは、平面画像表示装置12に表示された左目用画像51a及び右目用画像51bを見ながら、撮像対象画像53aと53bとを近づけるように(撮像対象画像53a及び53bが重なり合うように)左目用画像51a及び右目用画像51bの位置を調整すればよい。
さらに、ユーザは、左目用画像51a及び右目用画像51bの双方の全体画像(上記重なり合う部分と重なり合わない部分とを含めた全体画像)を視認しながら、左目用画像51a及び右目用画像51bの位置(横方向のずれ)を調整することができる。従って、ユーザは2つの画像の位置関係を容易に認識することができるため、調整が容易である。例えば、ある撮像対象を立体的に視認するために2つの画像を調整した後、別の撮像対象を立体的に視認するために画像を調整する場合においても、ユーザは容易に画像を調整することができる。すなわち、左目用画像51a及び右目用画像51bの双方の全体画像が平面画像表示装置12に表示されるため、2つの画像の位置を調整した後においても、2つの画像の位置関係を容易に認識することができる。従って、調整が容易である。
以上のように、位置調整バー54のスライダ55を横方向に移動させることによって、立体画像表示装置11及び平面画像表示装置12に表示される画像が変化する。具体的には、左目用画像51a及び右目用画像51bの横方向の位置を調整することにより、ユーザは、立体画像に含まれる撮像対象を画面に対して垂直な方向に移動させるように表示させることができる。ユーザは、立体画像表示装置11に表示された立体画像61を見ながら、平面画像表示装置12に表示された左目用画像51a及び右目用画像51bの位置を調整することができる。これにより、ユーザは立体画像の見え方を容易に調整することができる。
次に、図9を参照して左目用画像51a及び右目用画像51bの縦方向の位置の調整について、説明する。図9は、位置調整バー54を用いて左目用画像51a及び右目用画像51bの縦方向の位置を調整する様子を示した図である。
図9に示すように、ユーザがスティック16を用いて位置調整バー54をタッチした状態で、平面画像表示装置12の画面の上方向にスティック16を移動させると、タッチ位置の移動に伴って位置調整バー54も上方向に移動する。位置調整バー54は、画面の縦方向(上下方向)に移動可能であり、位置調整バー54の可動範囲(位置調整バー54が移動する範囲)は、予め定められている。位置調整バー54の縦方向の可動範囲は、位置調整バー54のスライダ55の横方向の可動範囲よりも小さく設定される。
位置調整バー54が縦方向に移動すると、平面画像表示装置12の画像表示領域50に表示された左目用画像51a及び/又は右目用画像51bも縦方向(上下方向)に移動する。例えば、位置調整バー54が画面の上方向に移動されると、位置調整バー54の上方向への移動量に応じて、左目用画像51a(又は右目用画像51b)も画面の上方向に移動する。なお、位置調整バー54の縦方向の移動に応じて、画像表示領域50に表示された左目用画像51a及び右目用画像51bが縦方向に互いに反対方向に移動されてもよいし、スティック16によって選択された画像のみが縦方向に移動されてもよい。
一方、位置調整バー54の縦方向の移動に伴って、立体画像表示装置11の画面に表示される立体画像61の見え方も変化する。例えば、左目用画像51aと右目用画像51bとが画面の縦方向に大きくずれている場合、ユーザが立体画像61に含まれる撮像対象画像62を見ると、実際の撮像対象52の形状とは異なる形状に見えたり、立体画像として見え難くなったりする場合がある。しかしながら、左目用画像51aと右目用画像51bとの縦方向の位置のずれをユーザが調整することにより、ユーザにとって立体感のある、見易い画像を立体画像表示装置11に表示することができる。
以上のように、位置調整バー54を平面画像表示装置12の画面の縦方向(上下方向)に移動させることによって、左目用画像51a及び右目用画像51bの縦方向の位置のずれを調整することができる。この縦方向の位置のずれは、左目画像撮像部18a及び右目画像撮像部18bの物理的な位置のずれによって生じる。例えば、製造時の誤差等により左目画像撮像部18aが右目画像撮像部18bよりも僅かに縦方向にずれている場合(図2の上方向にずれている場合)、互いに縦方向に僅かにずれた画像が撮像される。ユーザは、このような左目用画像51a及び右目用画像51bの縦方向のずれを位置調整バー54によって調整することができる。
通常、左目用画像51a及び右目用画像51bの縦方向のずれは僅かであり、ユーザは、縦方向には微調整のみ行うことが多い。一方、ユーザは立体画像に含まれる撮像対象を画面の奥方向又は手前方向に移動させるため、スライダ55を横方向にスライドさせることによって、左目用画像51a及び右目用画像51bの横方向のずれを調整する。すなわち、通常、縦方向の調整量は、横方向の調整量よりも小さい。従って、本実施形態では、位置調整バー54の縦方向の可動範囲は、位置調整バー54のスライダ55の横方向の可動範囲よりも小さく設定される。このため、ユーザは、左目用画像51a及び右目用画像51bの横方向のずれを調整しやすく、縦方向のずれを微調整しやすい。すなわち、スライダ55は横方向に可動範囲が大きく、位置調整バー54は縦方向には可動範囲が小さいため、ユーザは横方向には大きく調整可能であり、縦方向には微調整のみ可能となる。また、横方向の調整ではスライダ55を横方向にスライドさせ、縦方向の調整では、位置調整バー54を縦方向に移動させるため、上記のような操作は、ユーザにとって直感的でわかりやすい操作であるといえる。なお、左目用画像51a及び右目用画像51bの縦方向の調整は、上記位置調整バー54とは異なる調整バーのスライダによって行われてもよい。
次に、図10を参照してズーム操作について説明する。図10は、ズーム調整バー56を用いて立体画像61を拡大する様子を示した図である。図10に示すように、ユーザがスティック16を用いてズーム調整バー56のスライダ57をタッチした状態で、平面画像表示装置12の画面の右方向にスティック16を移動させると、スライダ57は右方向に移動する。57’は移動前のスライダ57を示し、57は、移動後のスライダ57を示す。スライダ57が移動することに伴って、立体画像表示装置11に表示される立体画像61は、拡大される。図10において、立体画像61が拡大されたため、立体画像61に含まれる撮像対象画像62及び63も拡大されている。立体画像61は、立体画像表示装置11の画面よりも大きく拡大されたため、その一部のみが表示されている。
一方、平面画像表示装置12に表示された左目用画像51a及び右目用画像51bは、スライダ57が移動することに伴って拡大されない。平面画像表示装置12の画像表示領域50には、破線によって示される立体画像表示枠59が表示される。立体画像表示枠59は、立体画像表示装置11に表示される立体画像の領域に対応する領域を示す。このように、立体画像表示装置11に表示される立体画像が拡大されても、平面画像表示装置12に表示される左目用画像51a及び右目用画像51bは拡大されず、全体が表示される。このため、立体画像が拡大された場合でも、左目用画像51a及び右目用画像51bの位置の調整(位置調整バー54を用いた横方向及び縦方向の位置の調整)が容易である。すなわち、平面画像表示装置12には、左目用画像51a及び右目用画像51bの全体が表示されるため、ユーザは容易にこれらの画像の位置関係を把握することができる。
次に、図11を参照してスクロール操作について説明する。図11は、タッチ操作によって立体画像61がスクロールする様子を示した図である。図11に示すように、ユーザが平面画像表示装置12に表示された左目用画像51a又は右目用画像51bを、スティック16を用いてタッチしたまま画面上を移動させた場合、立体画像表示装置11の立体画像61はスクロールされる。例えば、ユーザがスティック16を用いて左目用画像51a又は右目用画像51bをタッチしたまま左方向に移動させると、立体画像61は右方向にスクロールされる(立体画像61に含まれる撮像対象画像62は、左方向に移動する)。図11の立体画像表示装置11の画面には、立体画像61がスクロールした後の画像が表示されている。立体画像61は、右方向にスクロールしたため、立体画像61に含まれる撮像対象画像62は画面の中央より左側に移動し、撮像対象画像63の一部は表示されていない。なお、スクロール操作によって、ユーザは、立体画像61を画面の任意の方向にスクロールさせることができる。
一方、平面画像表示装置12に表示された左目用画像51a及び右目用画像51bは、上記ユーザによるスクロール操作(タッチしたまま画面の右方向に移動させる操作)によって、スクロールしない。平面画像表示装置12の画像表示領域50には、上記立体画像表示枠59が表示される。このように、立体画像表示装置11に表示される立体画像がスクロールされても、平面画像表示装置12に表示される左目用画像51a及び右目用画像51bはスクロールされない。このため、左目用画像51a及び右目用画像51bの位置の調整(位置調整バー54を用いた横方向及び縦方向の位置の調整)が容易である。すなわち、平面画像表示装置12には、左目用画像51a及び右目用画像51bの全体が表示されるため、ユーザは容易にこれらの画像の位置関係を把握することができる。
次に、図12を参照して左目用画像51a又は右目用画像51bの回転及びサイズ変更について説明する。図12は、右目用画像51bを回転又は拡大させることによって立体画像を調整する様子を示した図である。ユーザが、平面画像表示装置12に表示された左目用画像51a又は右目用画像51bの所定の位置を、スティック16を用いてタッチしたまま移動させると、左目用画像51a又は右目用画像51bは回転する。例えば、図12に示すように、ユーザが右目用画像51bの頂点V1をタッチしたまま、右目用画像51bを回転させるように操作する(図12の矢印Aの方向に移動させる)と、右目用画像51bは回転する。また、例えば、ユーザが右目用画像51bの頂点V1をタッチしたまま、右目用画像51bの対角線方向にスティック16を移動させる(図12の矢印Bの方向に移動させる)と、右目用画像51bは拡大する。
一方、右目用画像51bの回転又は拡大に伴って、立体画像表示装置11の画面に表示される立体画像61の見え方も変化する。例えば、右目用画像51bが左目用画像51aに対して所定の角度だけ回転している場合(より正確には、右目用画像51bに含まれる撮像対象画像52bが、左目用画像51aに含まれる撮像対象画像52aに対して所定の角度だけ回転している場合)、ユーザが立体画像61に含まれる撮像対象画像62を見ると、実際の撮像対象52の形状とは異なる形状に見えたり、立体画像として見え難くなったりする場合がある。このような回転が発生する原因は、製造時の誤差等が考えられる。例えば、製造時に左目画像撮像部18aが所定の角度だけ回転されて配設される場合がある。このため、ユーザは、左目用画像51a又は右目用画像51bを回転させることにより、左目用画像51aと右目用画像51bの相対的な回転角を調整することができる。これにより、ユーザは、ユーザにとって立体感のある、見易い画像を立体画像表示装置11に表示させることができる。
また、例えば、右目用画像51bが左目用画像51aと比較して小さい場合(より正確には、右目用画像51bに含まれる撮像対象画像52bが、左目用画像51aに含まれる撮像対象画像52aより小さい場合)、ユーザが立体画像61に含まれる撮像対象画像62を見ると、実際の撮像対象52の形状とは異なる形状に見えたり、立体画像として見え難くなったりする場合がある。このような大きさの違いは、撮像時における状態(例えば、左目画像撮像部18a及び右目画像撮像部18bのズーム機構の動作の違い)によって生じる場合がある。ユーザは、上述した操作によって左目用画像51a又は右目用画像51bを拡大又は縮小することにより、左目用画像51aと右目用画像51bとの相対的な大きさを調整することができる。これにより、ユーザは、ユーザにとって立体感のある、見易い画像を立体画像表示装置11に表示させることができる。
(画像表示制御処理の詳細)
次に、図13から図18を参照して、本実施形態に係る画像表示制御処理の詳細について説明する。まず、画像表示制御処理の際にメインメモリ31に記憶される主なデータについて説明する。図13は、画像表示装置10のメインメモリ31のメモリマップを示す図である。図13に示されるように、メインメモリ31には、データ記憶領域70が設けられる。データ記憶領域70には、左目用画像位置データ71、右目用画像位置データ72、現在タッチ位置データ73、直前タッチ位置データ74、位置調整データ75、ズーム調整データ76、立体画像表示枠データ77等が記憶される。これらのデータの他、メインメモリ31には、上記画像表示制御処理を実行するプログラムや左目用画像データ、右目用画像データ、位置調整バーの画像データ、及び、ズーム調整バーの画像データ等が記憶される。
左目用画像位置データ71は、左目用画像51aの表示位置を示すデータであり、左目用画像51aの画像中心の座標値を示すデータである。右目用画像位置データ72は、右目用画像51bの表示位置を示すデータであり、右目用画像51bの画像中心の座標値を示すデータである。
現在タッチ位置データ73は、現在のフレームにおいてタッチパネル15が検出しているタッチ位置の座標値を示すデータである。現在のフレームにおいてタッチ位置が検出されていない場合、現在タッチ位置データ73には、タッチ位置が検出されていないことを示す値が格納される。直前タッチ位置データ74は、直前のフレームにおいてタッチパネル15が検出した座標値を示すデータである。直前のフレームにおいてタッチ位置が検出されなかった場合、直前タッチ位置データ74には、タッチ位置が検出されなかったことを示す値が格納される。
位置調整データ75は、位置調整バー54に関するデータである。具体的には、位置調整データ75は、位置調整バー54の表示位置の座標値を示すデータ、及び、位置調整バー54上のスライダ55の位置を示すデータを含む。
ズーム調整データ76は、ズーム調整バー56に関するデータであり、スライダ57のズーム調整バー56における位置を示すデータである。
立体画像表示枠データ77は、平面画像表示装置12に表示される上記立体画像表示枠59の位置及び大きさを示すデータである。
次に、画像表示制御処理の詳細について図14を参照して説明する。図14は、第1の実施形態に係る画像表示制御処理の詳細を示すメインフローチャートである。画像表示装置10の電源が投入されると、画像表示装置10のCPU30は、ROM32に記憶されている起動プログラムを実行し、これによってメインメモリ31等の各ユニットが初期化される。次に、ROM32に記憶された画像表示制御プログラムがメインメモリ31に読み込まれ、CPU30によって当該プログラムの実行が開始される。また、保存用データメモリ34に記憶された左目用画像51a及び右目用画像51bが、メインメモリ31に読み込まれる。図14に示すフローチャートは、以上の処理が完了した後に行われる処理を示すフローチャートである。なお、図14では、本発明に直接関連しない処理については記載を省略する。また、図14に示すステップS1〜ステップS8の処理ループは、1フレーム(例えば1/30秒。フレーム時間という)毎に繰り返し実行される。
まず、ステップS1において、CPU30は、タッチパネル15へのタッチを検出する。タッチパネル15へのタッチが行われている場合、CPU30は、検出したタッチ位置を現在タッチ位置データ73としてメインメモリ31に記憶し、次にステップS2の処理を実行する。一方、タッチパネル15へのタッチが行われていない場合、CPU30は、タッチ位置が検出されていないことを示す値を現在タッチ位置データ73としてメインメモリ31に記憶し、次にステップS6の処理を実行する。
ステップS2において、CPU30は、位置調整処理を実行する。ステップS2においては、検出したタッチ位置に基づいて、左目用画像51a及び右目用画像51bの位置を調整する。ステップS2における位置調整処理の詳細を、図15を参照して説明する。図15は、位置調整処理(ステップS2)の詳細を示すフローチャートである。
ステップS11において、CPU30は、現在のタッチ位置が位置調整バー54の表示領域内か否かを判定する。具体的には、CPU30は、メインメモリ31の現在タッチ位置データ73を参照して、現在のタッチ位置(今回の処理ループのステップS1で検出されたタッチ位置)を取得する。次に、CPU30は、位置調整データ75を参照して、取得した現在のタッチ位置が、位置調整バー54の表示領域(位置調整バー54が平面画像表示装置12の画面に表示される領域)内に存在するか否かを判定する。判定結果が肯定の場合、CPU30は、次にステップS12の処理を実行する。一方、判定結果が否定の場合、CPU30は、次にステップS14の処理を実行する。
ステップS12において、CPU30は、現在のタッチ位置に位置調整バー54のスライダ55を移動させる。ステップS12においては、位置調整バー54のスライダ55が位置調整バー54上を横方向に移動される。具体的には、CPU30は、現在のタッチ位置に対応する位置調整バー54上の位置を算出し、メインメモリ31の位置調整データ75に記憶する。次に、CPU30は、ステップS13の処理を実行する。
ステップS13において、CPU30は、横方向の位置のずれ量を設定する。具体的には、CPU30は、ステップS12で算出したスライダ55の位置調整バー54上の位置に基づいて、左目用画像51aと右目用画像51bとの横方向(画面の左右(X軸)方向)のずれ量を算出し、メインメモリ31に記憶する。CPU30は、スライダ55が位置調整バー54の左端から所定距離の位置に存在する場合、当該所定距離に応じて、上記横方向のずれ量を設定する。横方向のずれ量は、左目用画像51aの画像中心と右目用画像51bの画像中心とのX軸に関する座標値のずれ(X座標値の差分)である。例えば、CPU30は、スライダ55が位置調整バー54の位置P0(例えば、位置調整バー54の中心位置)に存在する場合の横方向のずれ量を0として、当該位置P0よりも右側にスライダ55が存在する場合、横方向のずれ量を正とする。一方、例えば、当該位置P0よりも左側にスライダ55が存在する場合、CPU30は、横方向のずれ量を負とする。なお、横方向のずれ量が正の場合、左目用画像51aは右目用画像51bよりも画面の左側に位置する。横方向のずれ量が負の場合、左目用画像51aは右目用画像51bよりも画面の右側に位置する。次に、CPU30は、位置調整処理を終了する。
一方、ステップS14において、CPU30は、直前のフレームにおけるタッチ位置が位置調整バー54の表示領域内か否かを判定する。直前のフレームにおけるタッチ位置とは、現在の処理ループの直前の処理ループにおいて、ステップS1で検出されたタッチ位置である。具体的には、CPU30は、メインメモリ31の直前タッチ位置データ74を参照して、直前のタッチ位置が位置調整バー54の表示領域内に存在するか否かを判定する。判定結果が肯定の場合、CPU30は、次にステップS15の処理を実行する。一方、判定結果が否定の場合、CPU30は、位置調整処理を終了する。
ステップS15において、CPU30は、現在のタッチ位置が位置調整バー54の可動範囲内か否かを判定する。位置調整バー54は、予め定められた範囲で画面の縦方向(上下方向)に移動可能である。従って、ステップS15においては、現在のタッチ位置がこの移動範囲内か否かが判定される。判定結果が肯定の場合、CPU30は、次にステップS16の処理を実行する。一方、判定結果が否定の場合、CPU30は、位置調整処理を終了する。
ステップS16において、CPU30は、現在のタッチ位置に位置調整バー54を移動させる。ステップS16においては、位置調整バー54が画面の縦方向(上下方向)に移動される。具体的には、CPU30は、現在タッチ位置データ73が示す現在のタッチ位置に基づいて、位置調整バー54の画面の縦(Y軸)方向への移動を示す移動ベクトルを算出する。例えば、CPU30は、現在のタッチ位置を通りY軸に平行な線分と位置調整バー54の表示領域との交点を算出し、算出した交点から現在のタッチ位置に向かうベクトルを上記移動ベクトルとして算出する。そして、CPU30は、位置調整データ75が示す位置調整バー54の表示位置を示す位置ベクトルに、算出した移動ベクトルを加えることによって、位置調整バー54の位置を算出する。CPU30は、算出した位置調整バー54の位置を位置調整データ75としてメインメモリ31に記憶する。次に、CPU30は、ステップS17の処理を実行する。
ステップS17において、CPU30は、縦方向の位置のずれ量を設定する。具体的には、CPU30は、ステップS16で算出した位置調整バー54の位置に基づいて、左目用画像51aと右目用画像51bとの縦方向(画面の上下(Y軸)方向)のずれ量を算出し、メインメモリ31に記憶する。より具体的には、CPU30は、位置調整バー54のY軸の座標値に応じて、縦方向の位置のずれ量を算出する。縦方向のずれ量は、左目用画像51aの画像中心と右目用画像51bの画像中心とのY軸に関する座標値のずれ(Y座標値の差分)である。例えば、CPU30は、位置調整バー54が所定位置(例えば、位置調整バー54の縦方向の可動範囲における中心)に存在する場合の縦方向のずれ量を0として、当該所定位置よりも上側に位置調整バー54が存在する場合、縦方向のずれ量を正とする。一方、例えば、当該所定位置よりも下側に位置調整バー54が存在する場合、CPU30は、縦方向のずれ量を負とする。なお、縦方向のずれ量が正の場合、左目用画像51aは右目用画像51bよりも画面の上側に位置する。縦方向のずれ量が負の場合、左目用画像51aは右目用画像51bよりも画面の下側に位置する。次に、CPU30は、位置調整処理を終了する。
図14に戻り、ステップS2の処理の後、CPU30は、次にステップS3の処理を実行する。
ステップS3において、CPU30は、回転、サイズ変更処理を実行する。ステップS3では、ステップS1で検出したタッチ位置に基づいて、左目用画像51a又は右目用画像51bを回転させたり、左目用画像51a又は右目用画像51bのサイズを変更したりする。ステップS3における回転、サイズ変更処理の詳細を、図16を用いて説明する。図16は、回転、サイズ変更処理(ステップS3)の詳細を示すフローチャートである。
ステップS21において、CPU30は、直前のフレームにおけるタッチ位置が左目用画像51a又は右目用画像51bの頂点か否かを判定する。具体的には、CPU30は、直前タッチ位置データ74を参照して、直前のタッチ位置が左目用画像51a又は右目用画像51bの頂点を含む所定の領域内か否かを判定する。判定結果が肯定である場合、CPU30は、次にステップS22の処理を実行する。一方、判定結果が否定である場合、CPU30は、回転、サイズ変更処理を終了する。
ステップS22において、CPU30は、直前のフレームにおけるタッチ位置から現在のタッチ位置へのベクトルを算出する。具体的には、CPU30は、現在タッチ位置データ73及び直前タッチ位置データ74を参照して、直前のタッチ位置を始点とし現在のタッチ位置を終点とするベクトルを算出し、メインメモリ31に記憶する。次に、CPU30は、ステップS23の処理を実行する。
ステップS23において、CPU30は、直前のフレームにおけるタッチ位置と現在のタッチ位置との距離は閾値以下か否かを判定する。ステップS23の処理によって、直前のタッチ位置によって選択された画像(左目用画像51a又は右目用画像51b)の回転量又はサイズを変更する量が制限される。具体的には、CPU30は、ステップS22で算出されたベクトルの大きさが所定の閾値以下か否かを判定する。判定結果が肯定である場合、次に、CPU30は、ステップS24の処理を実行する。一方、判定結果が否定である場合、CPU30は、回転、サイズ変更処理を終了する。
ステップS24において、CPU30は、算出したベクトルに応じて、右目用画像又は左目用画像を回転又はサイズ変更させる。具体的には、CPU30は、ステップS22で算出されたベクトルの方向と大きさとに基づいて、直前のタッチ位置によって選択された画像を回転させたり、選択された画像のサイズを変更したりする。例えば、CPU30は、算出されたベクトルの方向が選択された画像の対角線方向である場合(所定の角度以下である場合)、当該ベクトルの大きさに応じて、選択された画像を拡大する。ここで、対角線方向とは、選択された画像の画像中心から直前のタッチ位置によって指示された頂点に向かう方向を示す。例えば、CPU30は、算出されたベクトルの方向が上記対角線方向と反対の方向である場合、選択された画像を縮小する。また、CPU30は、例えば、算出されたベクトルの方向が上記対角線方向と垂直である場合(所定の角度の範囲である場合)、当該ベクトルの大きさに応じて、選択された画像を画像中心周りに回転させる。次に、CPU30は、回転、サイズ変更処理を終了する。
図14に戻り、ステップS3の処理の後、CPU30は、次にステップS4の処理を実行する。
ステップS4において、CPU30は、ズーム処理を実行する。ステップS4においては、ステップS1で検出したタッチ位置に基づいて、立体画像表示装置11に表示する立体画像61をズーム(拡大又は縮小)する。ステップS4におけるズーム処理の詳細を、図17を用いて説明する。図17は、ズーム処理(ステップS4)の詳細を示すフローチャートである。
ステップS31において、CPU30は、現在のタッチ位置がズーム調整バー56の表示領域内か否かを判定する。具体的には、CPU30は、メインメモリ31の現在タッチ位置データ73を参照して、現在のタッチ位置が、ズーム調整バー56の表示領域(ズーム調整バー56が平面画像表示装置12の画面に表示される領域)内に存在するか否かを判定する。判定結果が肯定の場合、CPU30は、次にステップS32の処理を実行する。一方、判定結果が否定の場合、CPU30は、ズーム処理を終了する。
ステップS32において、CPU30は、現在のタッチ位置にズーム調整バー56のスライダ57を移動させる。ステップS32においては、ズーム調整バー56のスライダ57がズーム調整バー56上を横方向に移動される。具体的には、CPU30は、現在のタッチ位置に対応するズーム調整バー56上の位置を算出し、メインメモリ31のズーム調整データ76に記憶する。次に、CPU30は、ステップS33の処理を実行する。
ステップS33において、CPU30は、立体画像61のズーム設定を行う。ステップS33の処理は、後述するステップS6において立体画像表示装置11に表示される立体画像61をズームするための設定処理である。具体的には、CPU30は、ズーム調整バー56のスライダ57の位置に応じて、左目用画像51a及び右目用画像51bの双方を拡大又は縮小する度合いを決定し、メインメモリ31に記憶する。次に、CPU30は、ステップS34の処理を実行する。
ステップS34において、CPU30は、立体画像表示枠59を設定する。具体的には、CPU30は、ステップS33での立体画像61のズーム設定に基づいて、立体画像表示装置11に表示される立体画像61の領域を算出する。すなわち、CPU30は、立体画像表示枠59の位置と大きさとを算出し、立体画像表示枠データ77としてメインメモリ31に記憶する。立体画像表示枠59は、平面画像表示装置12の画像表示領域50に表示される枠であり、立体画像表示装置11に表示される立体画像61の領域に対応する左目用画像51a及び右目用画像51bの領域を示す。立体画像61がズームにより拡大された場合、立体画像表示装置11には、左目用画像51a及び右目用画像51bの一部しか表示されないことがある。なお、立体画像61がズームにより拡大された場合でも、立体画像表示装置11に左目用画像51a及び右目用画像51bの全部が表示される場合は、立体画像表示枠59は表示されない。次に、CPU30は、ズーム処理を終了する。
図14に戻り、ステップS4の処理の後、CPU30は、次にステップS5の処理を実行する。
ステップS5において、CPU30は、スクロール処理を実行する。ステップS5においては、ステップS1で検出したタッチ位置に基づいて、立体画像表示装置11に表示する立体画像61をスクロールする。ステップS5におけるスクロール処理の詳細を、図18を用いて説明する。図18は、スクロール処理(ステップS5)の詳細を示すフローチャートである。
ステップS41において、CPU30は、直前のフレームにおけるタッチ位置が左目用画像51a又は右目用画像51bの表示領域内か否かを判定する。具体的には、CPU30は、直前タッチ位置データ74を参照して、直前のタッチ位置が左目用画像51a又は右目用画像51bの表示領域内か否かを判定する。判定結果が肯定である場合、CPU30は、次にステップS42の処理を実行する。一方、判定結果が否定である場合、CPU30は、スクロール処理を終了する。
ステップS42において、CPU30は、直前のフレームにおけるタッチ位置から現在のタッチ位置へのベクトルを算出する。具体的には、CPU30は、現在タッチ位置データ73及び直前タッチ位置データ74を参照して、直前のタッチ位置を始点とし現在のタッチ位置を終点とするベクトルを算出し、メインメモリ31に記憶する。次に、CPU30は、ステップS43の処理を実行する。
ステップS43において、CPU30は、直前のフレームにおけるタッチ位置と現在のタッチ位置との距離は閾値以下か否かを判定する。ステップS43の処理によって、立体画像61のスクロール量が制限される。具体的には、CPU30は、ステップS42で算出されたベクトルの大きさが所定の閾値以下か否かを判定する。判定結果が肯定である場合、次に、CPU30は、ステップS44の処理を実行する。一方、判定結果が否定である場合、CPU30は、スクロール処理を終了する。
ステップS44において、CPU30は、立体画像表示装置11に表示される立体画像61をスクロールさせる方向とスクロール量を設定する。具体的には、CPU30は、ステップS42で算出されたベクトルの方向と反対方向をスクロールさせる方向として決定し、メインメモリ31に記憶する。これにより、立体画像61に含まれる撮像対象画像は、ユーザがスティック16を移動させた方向に移動する。また、CPU30は、ステップS42で算出されたベクトルの大きさに応じて、スクロール量を決定し、メインメモリ31に記憶する。次に、CPU30は、ステップS45の処理を実行する。
ステップS45において、CPU30は、立体画像表示枠59を設定する。ステップS45の処理は、上述したステップS34の処理と同様である。具体的には、CPU30は、ステップS44での立体画像61のスクロール設定に基づいて、立体画像表示装置11に表示される立体画像61の領域を算出する。すなわち、CPU30は、立体画像表示枠59の位置を算出し、立体画像表示枠データ77としてメインメモリ31に記憶する。次に、CPU30は、スクロール処理を終了する。
図14に戻り、ステップS5の処理の後、CPU30は、次にステップS6の処理を実行する。
ステップS6において、CPU30は、立体画像表示装置11に立体画像61を表示させる。ステップS6においては、上記ステップS2からS5で調整された左目用画像51a及び右目用画像51bが立体画像表示装置11に表示されることにより、立体画像61が表示される。具体的には、CPU30は、左目用画像51a及び右目用画像51bの位置を、ステップS2の処理において設定された横方向及び縦方向の位置のずれ量でずらして、合成する。また、CPU30は、ステップS3において回転又はサイズ変更された画像(左目用画像51a又は右目用画像51b)を用いて、左目用画像51a及び右目用画像51bを合成する。より具体的には、CPU30は、ステップS2又はS3で調整された2つの画像を、画素を縦に並べた1ライン毎に短冊状に分割し、分割した短冊状の画像を交互に配置することにより、2つの画像を合成する。また、CPU30は、ステップS4のズーム処理で設定されたズーム設定、又は、ステップS5のスクロール処理で設定されたスクロール設定に基づいて、表示領域を設定する。例えば、CPU30は、ステップS4でズーム設定された場合、決定された拡大又は縮小の度合いに応じて、表示領域を設定し、当該表示領域に対応する左目用画像51a及び右目用画像51bの領域を拡大又は縮小(デジタルズーム)する。また、例えば、CPU30は、ステップS5でスクロール設定された場合、スクロール方向とスクロール量とに基づいて、表示領域を設定する。なお、ステップS2からS5で調整された左目用画像51aと右目用画像51bと重ね合わせた場合に、重なり合う領域のみが、表示領域として設定される。そして、CPU30は、合成された画像の上記表示領域を立体画像表示装置11に表示させることにより、立体画像を表示する。次に、CPU30は、ステップS7の処理を実行する。
ステップS7において、CPU30は、平面画像表示装置12に左目用画像51a及び右目用画像51bを表示させる。ステップS7においては、上記ステップS2からS5で調整された左目用画像51a及び右目用画像51bが平面画像表示装置12に表示される。具体的には、CPU30は、左目用画像51a及び右目用画像51bの位置を、ステップS2の処理において設定された横方向及び縦方向の位置のずれ量でずらし、2つの画像を半透明にして重ね合わせる。そして、CPU30は、重ね合わせた画像を平面画像表示装置12の画像表示領域50に表示させる。また、CPU30は、ステップS3において回転又はサイズ変更された画像(左目用画像51a又は右目用画像51b)を用いて、左目用画像51a及び右目用画像51bを半透明で重ね合わせる。そして、CPU30は、重ね合わせた画像を平面画像表示装置12に表示させる。ここで、平面画像表示装置12の画像表示領域50は、立体画像表示装置11の画面よりも小さい。従って、CPU30は、画像表示領域50と立体画像表示装置11の画面との大きさの比率に応じて、左目用画像51a及び右目用画像51bを縮小し、平面画像表示装置12に表示させる。また、CPU30は、ステップS4のズーム処理(S34)又はステップS5のスクロール処理(S45)で設定された立体画像表示枠59を平面画像表示装置12に表示させる。上述のように、立体画像表示装置11に表示される立体画像61がズーム又はスクロールされても、平面画像表示装置12に表示される画像はズーム又はスクロールされない。すなわち、ズーム又はスクロールによって立体画像61の全体が立体画像表示装置11に表示されない場合でも、平面画像表示装置12には、左目用画像51a及び右目用画像51bの全体が表示される。これにより、ズーム又はスクロールされた場合でも、ユーザは左目用画像51a及び右目用画像51bの全体を確認しながら、画像を調整することができる。次に、CPU30は、ステップS8の処理を実行する。
ステップS8において、CPU30は、調整終了か否かを判定する。CPU30は、例えば、ユーザによって所定の操作がなされたか否か(例えば、図示しない下側ハウジング13bに配設されたボタン等が押されたか否か)を判定する。判定結果が否定の場合、CPU30は、次にステップS1の処理を実行する。判定結果が肯定の場合、CPU30は、図14に示す処理を終了する。以上で本実施形態に係る画像表示制御処理は終了する。
なお、上述した処理の内容や処理の順番等は、単なる例示に過ぎない。すなわち、上記位置調整処理や回転、サイズ変更処理等は具体的な例示に過ぎず、左目用画像51a及び右目用画像51bの相対的な位置、大きさ、回転は、どのように調整されてもよい。また、上記処理の順番はどのような順番であってもよい。
以上のように、左目用画像51a及び右目用画像51bの位置や大きさ、回転を調整することにより、ユーザは立体画像61の見え方を調整することができる。
例えば、特開2003−264851号公報に記載の装置では、右目用画像と左目用画像とが重ね合わされて1つの画面に表示され、ユーザは、当該画面上に表示された2つの画像の位置や回転等を調整する。そして、ユーザは、2つの画像を調整した後、立体画像として表示させ、当該画像の立体感を確認する。しかしながら、当該文献に記載の装置では、ユーザは、画面に立体表示させながら同時に右目用画像と左目用画像との位置や回転等を調整することはできない。すなわち、当該文献に記載の装置では、ユーザは、画面に表示された平面的に重ね合わされた2つの画像の位置等を調整した後、当該2つの画像を立体表示させて画像の立体感を確認する。重ね合わされた2つの画像を調整する際には、立体表示した場合の画像の立体感を確認することができなかった。一方、画面に立体表示をさせた状態では、ユーザは、立体表示が見難い状態で調整しなければならず、また、2つの画像を個別に視認し難い。従って、画面に立体表示をさせたままでは、調整が困難であった。
しかしながら、本実施形態では、ユーザは、立体画像表示装置11に表示された立体画像61を見ながら、平面画像表示装置12の画面上で左目用画像51a及び右目用画像51bの位置、大きさ、回転を調整することができる。このため、ユーザは容易に立体画像61の見え方を調整することができる。
なお、他の機器で撮像された左目用画像51a及び右目用画像51bが保存用データメモリ34を介して画像表示装置10に読み込まれてもよい。また、他の機器で撮像された左目用画像51a及び右目用画像51bが、通信モジュール35を介して画像表示装置10に提供されてもよい。
また、上記ステップS2及びS3で調整された左目用画像51aと右目用画像51bとの位置、大きさ、回転の調整量を示す情報を、左目用画像51a及び右目用画像51bの画像データとともに保存用データメモリ34に記憶してもよい。当該情報は、左目用画像51a及び右目用画像51bの画像データの一部として記憶されてもよい。そして、上記画像表示装置10とは異なる他の装置に保存用データメモリ34が接続され、保存用データメモリ34に記憶された画像データと上記調整量を示す情報とを用いて、調整された立体画像が当該他の装置の画面に表示されてもよい。
また、上記実施形態では、立体画像がズーム又はスクロールされた場合においても、平面画像表示装置12に表示される平面画像(左目用画像51a及び右目用画像51b)は、ズーム又はスクロールされないこととした。他の実施形態では、立体画像がズーム又はスクロールされた場合、平面画像表示装置12に表示される平面画像もズーム又はスクロールされてもよい。すなわち、他の実施形態では、立体画像がズーム又はスクロールによって、平面画像表示装置12に表示される左目用画像51a及び右目用画像51bの一部が平面画像表示装置12に表示されてもよい(左目用画像51a及び右目用画像51bの全体画像が表示されなくてもよい)。
具体的には、図19に示すように、立体画像61がズーム及びスクロールされることによって、平面画像表示装置12に表示される左目用画像51a及び右目用画像51bもズーム及びスクロールされてもよい。図19は、立体画像61がズーム及びスクロールされることに応じて、平面画像表示装置12に表示される左目用画像51a及び右目用画像51bがズーム及びスクロールされる様子を示す図である。図19では、立体画像61がズーム及びスクロールされたことによって、左目用画像51a及び右目用画像51bの一部が半透明で重ね合わされて平面画像表示装置12に表示されている。具体的には、図19では、左目用画像51a及び右目用画像51bが重なり合う部分の一部と、重なり合わない部分の一部とが、平面画像表示装置12の画面に表示されている。また、左目用画像51a及び右目用画像51bが重なり合う部分の一部に対応する立体画像が、立体画像表示装置11の画面に表示されている。図19に示すように、平面画像表示装置12に表示される左目用画像51a及び右目用画像51bは、立体画像61の拡大比率と同じ比率で拡大される。なお、立体画像表示装置11の画面は平面画像表示装置12の画像表示領域50より大きいため、撮像対象画像63は、撮像対象画像53a及び53bよりも大きく表示されている。また、平面画像表示装置12に表示される左目用画像51a及び右目用画像51bは、立体画像61がスクロールされることに応じて、スクロールされる。すなわち、平面画像表示装置12に表示される画像は、立体画像表示装置11に表示される画像と同じ画像である。このように、立体画像表示装置11に表示される立体画像と同様に、平面画像表示装置12に表示される平面画像もズーム及び/又はスクロールすることによって、ユーザにとって立体画像と平面画像との対応が分かりやすくなる。
また、上記実施形態では、平面画像表示装置12には、左目用画像51a及び右目用画像51bを半透明で重ね合わせた画像が表示されることとした。他の実施形態では、左目用画像51a及び右目用画像51bのずれ(位置、大きさ、及び、回転に関するずれ)がユーザによって認識できるような態様であれば、どのように表示されてもよい。例えば、2つの画像の輪郭をユーザが認識できるように強調表示して、2つの画像を半透明にせずに重畳表示させてもよい。すなわち、一方の画像によって他方の画像の一部が完全に隠れるように表示されてもよい。
また、左目用画像51a及び/又は右目用画像51bは、上記操作に限らずどのような操作によって位置、大きさ、又は、回転を調整されてもよい。例えば、下側ハウジング13bにボタン(十字ボタン等)が配設されてもよく、当該ボタン操作によって左目用画像51a及び/又は右目用画像51bの位置が調整されてもよい。具体的には、例えば、スティック16を用いて移動させる画像が選択され、十字ボタンの右方向ボタンが押された場合は選択された画像を右方向に移動させ、左方向ボタンが押された場合は選択された画像を左方向に移動させてもよい。また、例えば、スティック16を用いて回転する画像が選択され、十字ボタンの右方向ボタンが押された場合は選択された画像を時計回りに回転させ、左方向ボタンが押された場合は選択された画像を反時計回りに回転させてもよい。また、例えば、スティック16を用いて拡大又は縮小する画像が選択され、十字ボタンの上方向ボタンが押された場合は選択された画像を拡大させ、下方向ボタンが押された場合は選択された画像を縮小させてもよい。
また、本実施形態では裸眼で立体表示可能なディスプレイを用いる場合について説明したが、時分割方式や偏向方式、アナグリフ方式(赤青眼鏡方式)などの眼鏡を用いて立体表示を行うような場合でも、本発明は適用可能である。
(第2の実施形態)
次に、第2の実施形態について、説明する。第2の実施形態では、上述した画像表示装置10がゲーム装置としても動作する。第2の実施形態に係る画像表示装置10の下側ハウジング13bには、ユーザによって操作される複数の操作ボタン(十字ボタンやその他のボタン)が設けられる。
第2の実施形態に係る画像表示装置10は、第1のモードと、第2のモードとで動作する。第1のモードは、上記第1の実施形態のように左目画像撮像部18a及び右目画像撮像部18bで撮像した画像を用いて、立体画像表示装置11に立体画像を表示するモードである。第2のモードは、仮想ステレオカメラで撮像した画像を用いて、立体画像表示装置11にリアルタイムで立体画像を表示するモードである。第2のモードでは、仮想ステレオカメラ(左目用仮想カメラと右目用仮想カメラ)で仮想空間を撮像した画像が立体画像表示装置11に表示される。第2のモードでは、仮想ステレオカメラが3次元の仮想空間を撮像することにより、所定の視差を有する左目用画像と右目用画像とが生成される。画像表示装置10は、仮想空間をリアルタイムで撮像した左目用画像と右目用画像と合成することにより、立体画像表示装置11にリアルタイムで立体画像を表示する。
第2のモードにおいては、例えば、ユーザによって操作されるプレイヤキャラクタが3次元の仮想空間内を探検しながらストーリーが進行するロールプレイングゲームが想定される。当該ロールプレイングゲームでは、様々なゲームシーン(例えば、プレイヤキャラクタが洞窟内を探検するシーンや、プレイヤキャラクタが森を探検するシーン等)が予め用意されている。仮想ステレオカメラは、様々なゲームシーンに応じて、設定(ズーム設定、焦点位置の設定、左目用仮想カメラと右目用仮想カメラとの距離の設定等)が予めなされる。例えば、洞窟を探検するシーンでは、左目用仮想カメラと右目用仮想カメラとの距離は予め第1の距離に設定され、森を探検するシーンでは、左目用仮想カメラと右目用仮想カメラとの距離は第2の距離に予め設定される。
2つの仮想カメラ(左目用仮想カメラ及び右目用仮想カメラ)間の距離は、3次元の仮想空間内に存在する様々な3次元オブジェクト(例えば、岩オブジェクトや木オブジェクト等)の奥行き方向の見え方に影響する。例えば、2つの仮想カメラ間の距離が比較的長い場合、3次元オブジェクトを撮像すると、当該3次元オブジェクトの奥行き方向がより長い立体画像が表示される。2つの仮想カメラ間の距離は、ゲームの各シーンに応じてゲームの設計者によって予め定められる。
ここで、第2の実施形態では、2つの仮想カメラ間の距離は、画像表示装置10のハードウェアスライダ14(図1参照)の位置に応じて調整される。すなわち、画像表示装置10のユーザは、自身にとってより見易い立体画像となるように、2つの仮想カメラ間の距離をハードウェアスライダ14を用いて調整することができる。具体的には、例えば、ハードウェアスライダ14の位置が可動範囲の中心に位置している場合、2つの仮想カメラ間の距離は、予め定められた値(デフォルト値)に設定される。また、例えば、ハードウェアスライダ14が右端に位置している場合、2つの仮想カメラ間の距離は、上記デフォルト値の125%に設定される。また、例えば、ハードウェアスライダ14が左端に位置している場合、2つの仮想カメラ間の距離は、上記デフォルト値の75%に設定される。
以上のように、第2の実施形態では、ユーザは、ハードウェアスライダ14を用いて、2つの仮想カメラ間の距離を調整することができる。これにより、立体画像の見え方を調整することができる。
なお、第1のモードでは、左目画像撮像部18aと右目画像撮像部18bとの距離は調整できないため、ハードウェアスライダ14は、立体画像表示装置11に立体画像を表示するか否かを切り替えるスイッチとして利用される。第1のモードでは、例えば、ハードウェアスライダ14の位置が右端の場合、立体画像表示装置11に立体画像を表示させ、ハードウェアスライダ14の位置が左端の場合、立体画像表示装置11に立体画像を表示させない。立体画像表示装置11に立体画像を表示させない場合、立体画像表示装置11には、画像は表示されなくてもよいし、平面画像が表示されてもよい。
次に、第2の実施形態に係る画像表示装置10において行われる処理の詳細について説明する。まず、当該処理の際にメインメモリ31に記憶される主なデータについて説明する。図20は、第2の実施形態に係る画像表示装置10のメインメモリ31のメモリマップを示す図である。図20に示されるように、メインメモリ31には、データ記憶領域80が設けられる。データ記憶領域80には、仮想カメラデータ81、操作データ82、キャラクタデータ83等が記憶される。これらのデータの他、メインメモリ31には、上記処理を実行するプログラムやゲームに登場する各種オブジェクトの画像データ等が記憶される。
仮想カメラデータ81は、ゲーム空間に存在する仮想ステレオカメラの設定に関するデータである。仮想ステレオカメラの設定には、仮想ステレオカメラの左目用仮想カメラと右目用仮想カメラとの距離、仮想ステレオカメラのズーム設定、及び、仮想ステレオカメラの注視点の位置等が含まれる。
操作データ82は、上記複数の操作ボタン(図示せず)への入力を示すデータである。ユーザによって各操作ボタンが押された場合、各操作ボタンが押されたことを示すデータがメインメモリ31に記憶される。
キャラクタデータ83は、ユーザによって操作される、ゲーム空間に存在するプレイヤキャラクタに関するデータであり、当該プレイヤキャラクタのゲーム空間における位置や当該プレイヤキャラクタの特性情報を含む。
次に、第2の実施形態に係る処理の詳細について図21を用いて説明する。図21は、第2の実施形態に係る処理の詳細を示すメインフローチャートである。画像表示装置10の電源が投入されると、画像表示装置10のCPU30は、ROM32に記憶されている起動プログラムを実行し、これによってメインメモリ31等の各ユニットが初期化される。次に、ROM32に記憶されたプログラムがメインメモリ31に読み込まれ、CPU30によって当該プログラムの実行が開始される。なお、当該プログラムは、保存用データメモリ34に記憶されてもよいし、通信モジュール35を介して画像表示装置10に提供されてもよい。図21に示すフローチャートは、以上の処理が完了した後に行われる処理を示すフローチャートである。なお、図21では、本発明に直接関連しない処理については記載を省略する。また、図21に示すステップS52〜ステップS56の処理ループは、1フレーム(例えば1/30秒。フレーム時間という)毎に繰り返し実行される。
まず、ステップS51において、CPU30は、第1のモードが選択されたか否かを判定する。具体的には、CPU30は、平面画像表示装置12にユーザに上記第1のモード又は上記第2のモードを選択させる画面を表示し、ユーザからの入力を検出する。ユーザによって第1のモードが選択された場合、CPU30は、次にステップS57の処理を実行する。一方、ユーザによって第2のモードが選択された場合、CPU30は、次にステップS52の処理を実行する。
ステップS52において、CPU30は、ハードウェアスライダ14の位置に応じて左目用仮想カメラと右目用仮想カメラとの間の距離を設定する。具体的には、CPU30は、ハードウェアスライダ14の位置を検出して、2つの仮想カメラ間の距離を算出し、仮想カメラデータ81としてメインメモリ31に記憶する。CPU30は、次にステップS53の処理を実行する。
ステップS53において、CPU30は、操作データを取得する。具体的には、CPU30は、メインメモリ31を参照して、複数の操作ボタンに関する操作データを取得する。CPU30は、次にステップS54の処理を実行する。
ステップS54において、CPU30は、ゲーム処理を実行する。具体的には、CPU30は、ステップS53で取得した操作データに基づいて、プレイヤキャラクタのゲーム空間における位置を更新したり、プレイヤキャラクタに所定の動作を実行させたりする。また、CPU30は、ゲーム空間に存在するプレイヤキャラクタ以外のオブジェクトに所定の動作を実行させたりする。また、CPU30は、仮想ステレオカメラの注視点の位置を更新したり、ズーム設定を更新したりする。CPU30は、次にステップS55の処理を実行する。
ステップS55において、CPU30は、立体画像表示装置11に立体画像を表示させる。具体的には、CPU30は、仮想ステレオカメラでゲーム空間を撮像し、左目用画像と右目用画像とを取得する。そして、CPU30は、左目用画像と右目用画像とを合成して立体画像データを生成し、立体画像表示装置11に立体画像を表示させる。CPU30は、次にステップS56の処理を実行する。
ステップS56において、CPU30は、ゲーム終了か否かを判定する。例えば、CPU30は、ユーザによってゲーム終了を指示するボタン(複数の操作ボタンのうちの1つのボタン)が押されたか否かを判定する。判定結果が否定の場合、CPU30は、再びステップS52の処理を実行する。判定結果が肯定の場合、CPU30は、図21に示す処理を終了する。
ステップS57において、CPU30は、第1のモードの処理を実行する。ステップS57の処理は、第1の実施形態における処理(図14のステップS1〜S8)と同様の処理であるが、図14におけるステップS5とステップS6との間において、図22に示すようにステップS58の判定処理が行われる。図22は、第1のモードの処理の詳細を示すフローチャートである。ステップS58において、CPU30は、ハードウェアスライダ14の位置が所定の位置(例えば、右端)か否かを判定する。判定結果が肯定の場合、CPU30は、次にステップS6の処理を実行する。判定結果が否定の場合、CPU30は、次にステップS7の処理を実行する。
以上のように、第2の実施形態では、画像表示装置10は、既に撮像された左目用画像と右目用画像とを用いて立体画像を表示する第1のモードと、仮想空間に存在する仮想ステレオカメラによって撮像された左目用画像と右目用画像とを用いて立体画像を表示する第2のモードとで、動作する。
第1のモードでは、左目用画像及び右目用画像は、ステレオカメラ18(左目画像撮像部18a及び右目画像撮像部18b)で撮像された画像であってもよいし、他のステレオカメラによって撮像された画像であってもよい。第1のモードでは、既に撮像された画像を用いるため、左目画像撮像部18aと右目画像撮像部18bとの距離によって生じる視差を変更することはできない。従って、第1のモードでは、ハードウェアスライダ14は、立体画像を表示させる/させないの切り替えを行うスイッチとして機能する。これにより、ユーザは、ハードウェアスライダ14を用いて立体表示のON/OFFを切り替えることができる。
一方、第2のモードでは、左目用画像及び右目用画像は、仮想ステレオカメラ(左目用仮想カメラ及び右目用仮想カメラ)によって撮像された画像であるため、左目用仮想カメラと右目用仮想カメラとの距離を任意に変更することができる。第2のモードでは、ハードウェアスライダ14を用いて、仮想カメラ間の距離(左目用仮想カメラと右目用仮想カメラとの距離)を変更する。従って、ユーザは、立体画像の見え方を調整することができる。また、ハードウェアスライダ14の位置に応じて仮想カメラ間の距離をデフォルト値から変更することができるため、ユーザはゲームのシーンに応じてハードウェアスライダ14を調整する必要がない。すなわち、各ゲームシーンで設定された仮想カメラ間の距離のデフォルト値は、設計者によって定められた値であり、そのような仮想カメラの設定で撮像された立体画像は、全てのユーザにとって違和感のない立体画像であるとは限らない。例えば、あるユーザにとっては、各ゲームシーンにおいて、デフォルト値の80%に仮想カメラ間の距離が設定された方が、より立体画像として見易い場合がある。従って、ハードウェアスライダ14の位置に応じて、仮想カメラ間の距離のデフォルト値に対する割合を設定することにより、各ゲームシーンにおいてハードウェアスライダ14の位置を調整する必要はない。
なお、第2のモードにおいて、ハードウェアスライダ14の位置に応じて、左目用画像及び右目用画像の横方向のずれが設定されてもよい。すなわち、仮想カメラ間の距離を調整する替わりに、ハードウェアスライダ14の位置に応じて左目用画像及び右目用画像の横方向のずれを調整してもよい。
また、第2のモードにおいても、第1の実施形態のように位置調整バー54を用いて左目用画像と右目用画像とのずれ(横方向のずれ)が調整されてもよい。これによって、ユーザは、ゲーム空間に存在する所定のオブジェクトを立体画像表示装置11の画面に対して垂直な方向に移動させることができる。
また、上記第1及び第2の実施形態では、立体画像表示装置11及び平面画像表示装置12の双方を備える携帯型の画像表示装置10を想定した。他の実施形態では、これらの装置は別々の装置として構成され、それらが接続されてもよい。例えば、立体表示可能な第1の表示装置と、平面表示のみを行う第2の表示装置と、上述した処理を行う制御装置とが、別々のハードウェアとして構成されてもよい。そして、これらの装置が、有線又は無線によって互いに接続されることによって、画像表示制御システムとして機能してもよい。
また、他の実施形態では、立体表示を行う立体表示領域と平面表示を行う平面表示領域とが同時に設定可能な表示装置が、上記立体画像表示装置11及び平面画像表示装置12として、用いられてもよい。すなわち、このような表示装置の立体表示領域が立体画像表示手段、平面表示領域が平面画像表示手段として、用いられてもよい。
また、他の実施形態では、表示装置とタッチパネルとを有する任意の情報処理装置(例えば、PDA(Personal Digital Assistant)、携帯電話等)や、マウス等のポインティングデバイスを備えたパーソナルコンピュータにも上記調整方法が適用されてもよい。
また、上記実施形態では、タッチパネルによる操作によって立体画像の調整(左目用画像と右目用画像の位置の調整)、立体画像のズームやスクロール等が行われた。他の実施形態では、マウス等のポインティングデバイスを操作することによって、立体画像の調整等が行われてもよい。例えば、画面に表示された位置調整バーのスライダが、マウス操作によって調整されてもよい。
また、上記実施形態においては、画像表示装置10のCPU30が所定のプログラムを実行することによって、上述したフローチャートによる処理が行われた。他の実施形態においては、上記処理の一部又は全部は、画像表示装置10が備える専用回路によって行われてもよい。例えば、立体画像表示装置11に表示する画像を生成する専用のGPU(Graphics Processing Unit)等が設けられてもよい。
(第3実施形態)
(ゲームの概要)
次に、図23から図29を参照して、第3実施形態に係るゲームの概要について説明する。第3実施形態では、上記画像表示装置10はゲーム装置として機能する。図23は、第3実施形態に係るゲームの実行中において、立体画像表示装置11および平面画像表示装置12の画面に表示されるゲーム画像の一例を示した図である。
図23に示すように、立体画像表示装置11の画面には、仮想空間に存在する子供を模した子供オブジェクト101および家具オブジェクト104が立体表示(立体視可能に表示)された子供オブジェクト画像111および家具オブジェクト画像114が表示されている。立体画像表示装置11の画面に表示される子供オブジェクト画像111および家具オブジェクト画像114は、例えば、32bitカラーで表示される。また、立体画像表示装置11の画面には、カーソル160が表示されている。カーソル160は、ユーザによるタッチパネル15(平面画像表示装置12の画面)へのタッチ位置に対応した仮想空間上の位置に配置され、立体画像表示装置11の画面上に表示される。
子供オブジェクト101および家具オブジェクト104を含む立体画像(立体画像表示装置11の画面に表示される画像)は、仮想ステレオカメラで仮想空間を撮像した画像であり、ユーザにとって立体感のある画像(立体視可能な画像)である。図24は、仮想空間に存在する各オブジェクトを仮想ステレオカメラ100で撮像する様子を仮想空間の上方から見た図である。図24に示すように、仮想ステレオカメラ100の左目用仮想カメラ100aによって左目用画像が撮像され、仮想ステレオカメラ100の右目用仮想カメラ100bによって右目用画像が撮像される。そして、撮像された左目用画像がユーザの左目に、撮像された右目用画像がユーザの右目に視認されることにより、ユーザは立体感のある画像を視認することができる。仮想ステレオカメラ100の左右の仮想カメラ(100aおよび100b)の撮像方向Aおよび撮像方向Bは、同じである。例えば、左目用仮想カメラ100aの撮像方向Aは、左目用仮想カメラ100aの画角を示す線21aと線22aとがなす角を2等分する直線の方向である。同様に、右目用仮想カメラ100bの撮像方向Bは、右目用仮想カメラ100bの画角を示す線23bと線24bとがなす角を2等分する直線の方向である。また、仮想ステレオカメラ100の視点はユーザの視点と一致する。図24に示すように、子供オブジェクト101は、家具オブジェクト104より仮想ステレオカメラに近い位置に存在している。従って、ユーザは、図23に示すように子供オブジェクト101がユーザ自身の手前に存在するように感じる。
一方、平面画像表示装置12の画面の中央部には、平面画像表示領域161が設けられる。平面画像表示装置12の画面の上部には操作ボタン162、下部にはアイテム選択ボタン163が表示されている。操作ボタン162は、ゲームの中断や終了等に用いられる。ゲームを終了する際に、ユーザはスティック16を用いて操作ボタン162をタッチすることにより、ゲームを中断したり終了したりする。アイテム選択ボタン163は、後述するアイテムを選択するために用いられる。
平面画像表示領域161には、子供オブジェクト画像121が表示されている。子供オブジェクト画像121は、子供オブジェクト101を平面表示した画像であり、立体画像表示装置11の画面に表示される子供オブジェクト101を単色(灰色)で表示した画像である。具体的には、子供オブジェクト画像121は、上記左目用仮想カメラ100aと右目用仮想カメラ100bとの中間に位置する仮想カメラ108を用いて、仮想空間に存在する子供オブジェクト101を撮像し、シルエット表示したものである。この場合において、仮想カメラ108の撮像方向は、上記仮想ステレオカメラ100の撮像方向と同じである(図24の撮像方向C)。また、仮想カメラ108の画角は、上記仮想ステレオカメラ100の画角と同じである。従って、平面画像表示領域161に表示される画像(子供オブジェクト101を含む仮想空間を撮像した画像)は、立体画像表示装置11に表示される画像(子供オブジェクト101と家具オブジェクト104とを含む仮想空間を撮像した画像)と略同じ大きさの画像であって、略同じ仮想空間の範囲を撮像した画像である。すなわち、平面画像表示装置12に表示される画像は、立体画像表示装置11の画面と平面画像表示領域161との大きさの比率に応じて、立体画像表示装置11に表示される画像を縮尺した画像(ここでは、画面の縦方向に所定比率だけ縮尺した画像)である。また、平面画像表示装置12に表示される画像の撮像範囲(当該画像に表示される仮想空間の範囲)は、立体画像表示装置11に表示される画像の撮像範囲と略同じである。
このため、平面画像表示装置12の画面に表示される子供オブジェクト画像121は、立体画像表示装置11に表示される子供オブジェクト画像111と略同じ大きさであり、仮想空間に存在する子供オブジェクト101を同じ方向から見たものである。
なお、平面画像表示領域161には、立体画像表示装置11に表示されている家具オブジェクト104は表示されない。第3実施形態では、ユーザによって操作が可能な操作対象(子供オブジェクト101)のみが平面画像表示装置12の画面(平面画像表示領域161)にシルエット表示される。家具オブジェクト104は、ユーザによって操作されるものではないため、平面画像表示装置12の画面にはシルエット表示されない。
ここで、仮想ステレオカメラ100によって撮像される画像と、仮想カメラ108によって撮像される画像の撮像範囲について説明する。図24に示すように、左目用仮想カメラ100aの撮像範囲(画角)は、子供オブジェクト101および家具オブジェクト104を含む、線21aと線22aとによって囲まれる領域である。また、右目用仮想カメラ100bの撮像範囲(画角)は、子供オブジェクト101および家具オブジェクト104を含む、線23bと線24bとによって囲まれる領域である。左目用仮想カメラ100aによって撮像された左目用画像と、右目用仮想カメラ100bによって撮像された右目用画像とを合成して立体画像表示装置11に表示することにより、ユーザにとって立体感のある立体画像を表示することができる。ここで、立体画像表示装置11には、子供オブジェクト101および家具オブジェクト104を含む、線22aと線23bとによって囲まれる領域のみが表示される。すなわち、立体画像表示装置11に表示される立体画像の範囲(仮想ステレオカメラ100の撮像範囲)は、左目用仮想カメラ100aの撮像範囲と右目用仮想カメラ100bの撮像範囲との重複領域である。このように重複領域のみを表示する理由は次の通りである。すなわち、非重複領域も含めて立体画像表示装置11の画面に立体画像を表示すると、立体画像の一部は立体感のある画像となり、他の一部は立体感のない画像となる。このときの表示は、ユーザにとっては、「見えているはずのものが見えない」または「見えないはずのものが見えている」といった状態である。従って、立体画像表示装置11の画面には、左右の仮想カメラ(100aおよび100b)の撮像範囲の重複領域を撮像した画像が表示される。
一方、図24に示すように、仮想カメラ108の撮像範囲は、子供オブジェクト101および家具オブジェクト104を含む、線25と線26とによって囲まれる領域である。仮想カメラ108の撮像範囲は、上記仮想ステレオカメラ100の撮像範囲(上記重複領域)を含む領域であり、仮想ステレオカメラ100の撮像範囲よりも大きい。しかしながら、仮想ステレオカメラ100の左右の仮想カメラ(100aおよび100b)は互いに近接しており、仮想ステレオカメラ100の撮像範囲と仮想カメラ108の撮像範囲とは、略同一である。従って、平面画像表示装置12に表示される画像は、立体画像表示装置11に表示される画像と略同一の仮想空間の範囲を撮像した画像である。なお、仮想カメラ108の撮像範囲は、仮想ステレオカメラ100の撮像範囲と全く同じであってもよい。
次に、ユーザは、スティック16を用いて子供オブジェクト画像121をタッチして所定の操作を行うことにより、仮想空間に存在する子供オブジェクト101に所定の動作を行わせる。
図25は、ユーザが平面画像表示装置12に表示された子供オブジェクト画像121をタッチして所定の操作を行った場合に、立体画像表示装置11および平面画像表示装置12に表示される画像が変化する様子を示す図である。図25に示すように、ユーザがスティック16を用いて子供オブジェクト画像121の胸をなでるようにしてスティック16を操作すると、立体画像表示装置11に表示される子供オブジェクト画像111は、変化する。具体的には、ユーザがスティック16を用いて子供オブジェクト画像121の胸の部分をタッチしたまま画面の上下方向(縦方向)にスティック16を移動させると、仮想空間に存在する子供オブジェクト101の表情が変化するとともに、子供オブジェクト101の両手部分の位置が変化する。子供オブジェクト101の変化に伴って、立体画像表示装置11に表示される子供オブジェクト画像111および平面画像表示装置12に表示される子供オブジェクト画像121も同様に変化する。
ユーザがスティック16を用いて子供オブジェクト画像121をタッチした場合、立体画像表示装置11の画面には、当該タッチ位置に応じた位置にカーソル160が表示される。例えば、ユーザが平面画像表示装置12の子供オブジェクト画像121の頭部をタッチした場合、カーソル160は立体画像表示装置11の子供オブジェクト101の頭部に表示される。また、ユーザがスティック16を用いて子供オブジェクト画像121をタッチした場合、カーソル160は、図23に示す矢印形状から図25に示す人の手の形状に変化する。
さらに、カーソル160は、子供オブジェクト101の表面上に沿うように表示される。図26Aは、カーソル160の表示の仕方を示す図であり、立体画像表示装置11に表示された子供オブジェクト101の一部位を拡大して正面から見た図である。図26Bは、子供オブジェクト101の一部位を図26Aの矢印の方向から見た図である。図26Aおよび図26Bにおいて、101aは子供オブジェクト101の一部位(例えば、腕の一部)を示す。部位101aは、説明のため単純な円柱形状とする。図26Aおよび図26Bに示すように、カーソル160(カーソル160aおよび160b)は、部位101aの表面に沿うように立体的に表示される。ユーザが立体画像表示装置11に表示された立体的な子供オブジェクト101(子供オブジェクト画像111)を見ると、その表面にカーソル160が存在しているように見える。これにより、ユーザは、立体画像表示装置11の画面を見ながら平面画像表示装置12の画面上をスティック16でなでるような操作をすることにより、子供オブジェクト101をなでるような感覚を得ることができる。
上述のように、第3実施形態に係るゲームでは、立体画像表示装置11の画面には、仮想空間に存在する子供オブジェクト101および家具オブジェクト104が立体表示される。また、平面画像表示装置12の画面には、ユーザによって操作可能な子供オブジェクト101のみがシルエット表示される(子供オブジェクト101をシルエット表示した子供オブジェクト画像121のみが表示される)。そして、ユーザは、平面画像表示装置12の画面に表示された子供オブジェクト画像121をスティック16を用いてタッチする。このように、平面画像表示装置12に子供オブジェクトのシルエットが表示され、当該シルエットをスティック16を用いてタッチする。これにより、ユーザは、立体画像表示装置11の画面を見ながら、容易にオブジェクトを操作することができ、当該オブジェクトを操作している感覚を得ることができる。
すなわち、立体画像表示装置11に表示されるオブジェクトは立体表示されているため、立体画像表示装置11の画面上を直接タッチして表示されたオブジェクトを操作することは困難である。ユーザは、立体表示されたオブジェクトが、例えば、画面の手前に位置するように感じたり、画面の奥に位置するように感じたりする。例えば、オブジェクトが画面の手前に見えている場合、立体表示されたオブジェクトを操作するため当該オブジェクトを直接タッチしようとすると、ユーザは、画面の手前の空間をスティック16を用いてタッチしようとする。従って、ユーザは、操作しようとするオブジェクトを操作することができない。また、画面の手前に見える立体表示されたオブジェクトを操作するため立体画像表示装置11の画面上をタッチすると、ユーザが感じる当該オブジェクトの表示位置と、タッチ位置とが異なるため、ユーザは当該オブジェクトを操作している感覚を得られない。つまり、ユーザが感じるオブジェクトの表示位置は画面の手前であり、ユーザがタッチする位置は画面上である。従って、ユーザは、オブジェクトを操作するために、画面に垂直な方向に異なる位置をタッチすることになるため、当該オブジェクトを直接操作している感覚が得られない。すなわち、例えば、オブジェクトが画面の手前に見えているときには、ユーザがスティック16で画面をタッチすると、スティック16が当該オブジェクトの内部に入り込んだ状態になる。また、オブジェクトが画面の奥行き方向の位置に見えているときには、画面より奥にスティックを移動することはできないので、ユーザは、画面の奥に存在しているように見えるオブジェクトを直接タッチすることができない。このため、見えているものと現実とに矛盾が生じ、操作感が損なわれる場合がある。しかしながら、上述のように、立体画像表示装置11にオブジェクトを立体表示し、平面画像表示装置12に当該オブジェクトのシルエットを表示することにより、ユーザは、立体画像表示装置11に表示されたオブジェクトを見ながら、平面画像表示装置12の画面をタッチして、当該オブジェクトを操作することができる。従って、ユーザは、当該オブジェクトを直接操作している感覚を得ることができる。
また、立体画像表示装置11の画面には、ユーザがタッチした平面画像表示装置12の画面上の位置に対応した位置に、カーソル160が表示される。従って、ユーザは、立体画像表示装置11の画面を直接タッチしなくても、立体画像表示装置11に表示されたオブジェクトを直接操作している感覚を得ることができる。
また、立体画像表示装置11の画面に表示されるオブジェクトは、32bitカラーで表示され、オブジェクトの各部位(例えば、子供オブジェクト101の頭や胴体、腕等)を認識できる精細な画像である。一方、平面画像表示装置12には、当該オブジェクトがシルエット表示されるため、立体画像表示装置11に表示されるオブジェクトと比較して、目立たない表示である。ユーザは、単色で目立たない画像よりカラーで美しい画像に注目する傾向にある。従って、ユーザは、立体画像表示装置11の画面に表示されたオブジェクトを注視しながら、平面画像表示装置12の画面上をスティック16を用いてタッチ操作しやすい。
また、平面画像表示装置12には、操作可能なオブジェクトのみが表示されるため、ユーザは操作可能なオブジェクトを容易に認識することができる。ユーザは、平面画像表示装置12の画面に表示されたシルエットを一見しただけで操作可能なオブジェクトを認識してタッチし、その後は、立体画像表示装置11の画面に表示された当該オブジェクトを見ながら操作することができる。すなわち、ユーザは、平面画像表示装置12の画面を見てオブジェクトのシルエットをタッチした後は、平面画像表示装置12の画面を見ることなく、立体画像表示装置11の画面を見て当該オブジェクトを操作することができる。
次に、操作可能なオブジェクトが複数存在する場合について、説明する。図27は、操作可能なオブジェクトが複数存在する場合において立体画像表示装置11および平面画像表示装置12の画面に表示される画像を示す図である。図27に示すように、立体画像表示装置11の画面には、子供オブジェクト101(子供オブジェクト画像111)、子供オブジェクト102(子供オブジェクト画像112)、子供オブジェクト103(子供オブジェクト画像113)および家具オブジェクト104(家具オブジェクト画像114)が表示されている。一方、平面画像表示装置12の画面(平面画像表示領域161)には、子供オブジェクト画像121、子供オブジェクト画像122および子供オブジェクト画像123が表示されている。子供オブジェクト画像121、子供オブジェクト画像122および子供オブジェクト画像123は、それぞれ子供オブジェクト101、子供オブジェクト102および子供オブジェクト103を平面表示した画像であり、これらをシルエット表示した画像である。子供オブジェクト画像121、子供オブジェクト画像122および子供オブジェクト画像123は、それぞれ表示態様が異なる。例えば、子供オブジェクト画像121は赤色で表示され、子供オブジェクト画像122は青色で表示され、子供オブジェクト画像123は黄色で表示される。
次に、図28および図29を参照して、アイテムを使用したゲームについて説明する。図28は、第3実施形態に係るゲームにおいて、ユーザがアイテムを使用する場合について示す図である。平面画像表示装置12の画面において、ユーザがスティック16を用いてアイテム選択ボタン163をタッチしたまま画面上を移動させると、立体画像表示装置11にはアイテム105(立体表示されたアイテム画像115)が出現し、アイテム105がカーソル160(手)で把持された様子が表示される。アイテム105は、ユーザによって操作可能なオブジェクトである。一方、平面画像表示装置12にも、アイテム画像125が表示される。アイテム画像125は、仮想空間に存在するアイテム105をシルエット表示した画像である。図28に示すように、アイテム画像125(アイテム105のシルエット)は、子供オブジェクト101の子供オブジェクト画像121とは異なる表示態様で表示される。例えば、アイテム画像125は、青色で表示され、子供オブジェクト画像121(子供オブジェクト101のシルエット)は灰色で表示される。
図29は、子供オブジェクト101にアイテム105を持たせた場合に立体画像表示装置11および平面画像表示装置12に表示される画像が変化する様子を示す図である。ユーザがアイテム画像125をタッチしたまま子供オブジェクト画像121の手の位置まで移動させると、立体画像表示装置11に表示される子供オブジェクト101はアイテム105を把持する。この場合において、立体画像表示装置11に表示される子供オブジェクト101の表情が変化し、子供オブジェクト101は両手を挙げるように変化する。同様に、平面画像表示装置12に表示される子供オブジェクト画像121も変化する。このように、ユーザは、アイテム選択ボタン163をタッチしてアイテム105を子供オブジェクト101に手渡すことで、子供オブジェクト101にアイテム105を使用して遊ばせる。これにより、子供オブジェクト101が喜ぶ様子が立体画像表示装置11に表示される。なお、ユーザにアイテム選択ボタン163をタッチさせて複数のアイテムの中から使用するアイテムを選択させてもよい。また、アイテム105は立体画像表示装置11の画面上の所定位置(仮想空間上の所定位置)に予め存在し、ユーザが、平面画像表示装置12に表示されたアイテム画像125をタッチして、子供オブジェクト101に手渡すようにしてもよい。
以上、図27から図29に示したように、平面画像表示装置12の画面において、操作可能な各オブジェクト(子供オブジェクト101〜103およびアイテム105)の表示態様を変化させる。これによりユーザは、立体画像表示装置11に表示された各オブジェクトと、平面画像表示装置12に表示された各オブジェクトとを一見して容易に対応付けることができる。例えば、平面画像表示装置12の画面において、操作可能な複数のオブジェクトが全て同じ色でシルエット表示されている場合、ユーザは、各オブジェクトを識別し難い場合がある。特に、各オブジェクトが互いに近接している場合では、ユーザは、各オブジェクトの境界を識別し難く、1つのオブジェクトをタッチして操作しようとする場合、平面画像表示装置12の画面を注視してしまうことがある。そうすると、ユーザは、立体画像表示装置11に表示された立体的なオブジェクトを見ながら操作することができず、立体表示されたオブジェクトを直接操作するという感覚を得ることができなくなる。しかしながら、平面画像表示装置12に表示される各オブジェクトの表示態様が異なることにより、ユーザは各オブジェクトを一見して容易に識別することができる。従って、ユーザは、立体画像表示装置11に表示された立体的なオブジェクトを見ながら操作することができ、立体表示されたオブジェクトを直接操作するという感覚を得ることができる。
以上のように、第3実施形態に係るゲームでは、子供オブジェクトを手でなでたりアイテムを使用して喜ばせたりすることにより、子供を育てたり子供と一緒に遊んだりする感覚をユーザに与えることができる。
(ゲーム処理の詳細)
次に、図30から図33を参照して、第3実施形態に係るゲーム処理の詳細について説明する。まず、ゲーム処理の際にメインメモリ31に記憶される主なデータについて説明する。図30は、ゲーム装置10のメインメモリ31のメモリマップを示す図である。図30に示されるように、メインメモリ31には、タッチ位置データ171、オブジェクト情報データ172、仮想カメラ設定データ173、およびカーソルデータ174等が記憶される。これらのデータの他、メインメモリ31には、上記ゲーム処理を実行する所定のプログラムや各オブジェクトの画像データ等が記憶される。
タッチ位置データ171には、タッチパネル15が検出したタッチ位置が格納される。具体的には、タッチ位置データ171は所定の長さの配列であり、当該配列の各要素には、タッチパネル15上(平面画像表示装置12の画面上)の位置を示す座標値(XY座標系)が格納される。タッチ位置データ171には、タッチパネル15が検出したタッチ位置を示す座標値が時系列に格納される。
オブジェクト情報データ172には、各オブジェクトの情報が格納される。具体的には、オブジェクト情報データ172は所定の長さの配列であり、当該配列の各要素には、1つのオブジェクトの情報が格納される。オブジェクトの情報は、当該オブジェクトの仮想空間における位置(xyz座標系)、当該オブジェクトが操作可能であるか否かを示すデータや当該オブジェクトの形状に関するデータ等である。例えば、当該配列の1つの要素には、子供オブジェクト101の仮想空間における位置、操作可能であることを示すデータ、および、子供オブジェクト101の各部位(頭部や胴体等)の形状データが格納される。子供オブジェクト101の各部位は、例えば、複数の球体によって表現され、これらの球体の位置や半径等が形状データとして当該配列の要素に格納される。
仮想カメラ設定データ173には、仮想ステレオカメラ100および仮想カメラ108の設定情報が格納される。具体的には、仮想ステレオカメラ100および仮想カメラ108の仮想空間における位置、撮像方向、撮像範囲(画角)等が格納される。仮想ステレオカメラ100の撮像方向と仮想カメラ108の撮像方向は、同じに設定される。また、仮想ステレオカメラ100の撮像範囲と仮想カメラ108の撮像範囲は、同じに設定される。
カーソルデータ174は、カーソル160の仮想空間における位置および姿勢が格納される。カーソルの位置は、ユーザによってタッチされたタッチパネル15上の位置に応じた3次元仮想空間の位置である。カーソル160の姿勢は、カーソル160の仮想空間における姿勢であり、カーソル160が子供オブジェクト101等の表面に表示される場合のカーソル160の姿勢である。
次に、ゲーム処理の詳細について図31から図33を参照して説明する。図31は、第3実施形態に係るゲーム処理の詳細を示すメインフローチャートである。ゲーム装置10の電源が投入されると、ゲーム装置10のCPU30は、ROM32に記憶されている起動プログラムを実行し、これによってメインメモリ31等の各ユニットが初期化される。次に、ROM32に記憶された所定のプログラムがメインメモリ31に読み込まれ、CPU30によって当該プログラムの実行が開始される。図31に示すフローチャートは、以上の処理が完了した後に行われる処理を示すフローチャートである。なお、図31では、本発明に直接関連しない処理については記載を省略する。また、図31に示すステップS101〜ステップS107の処理ループは、1フレーム(例えば1/30秒。フレーム時間という)毎に繰り返し実行される。
まず、ステップS101において、CPU30は、タッチパネル15がタッチを検出したか否かを判定する。タッチパネル15がタッチを検出した場合、CPU30は、当該タッチ位置を最新のタッチ位置としてタッチ位置データ171に格納し、次にステップS102の処理を実行する。一方、タッチパネル15がタッチを検出しなかった場合、CPU30は、次にステップS105の処理を実行する。
ステップS102において、CPU30は、ステップS101で検出したタッチ位置はシルエット(オブジェクト)の表示領域内か否かを判定する。具体的には、CPU30は、最新のタッチ位置が、直前のフレームのステップS105(後述する)で平面画像表示装置12の画面に表示したオブジェクト画像(121、122、123や125等)の表示領域内か否かを判定する。判定結果が肯定の場合、CPU30は、次にステップS103の処理を実行する。一方、判定結果が否定の場合、CPU30は、次にステップS105の処理を実行する。
ステップS103において、CPU30は、3次元タッチ位置判定処理を実行する。ステップS103の処理は、ステップS101で検出した最新のタッチ位置に応じた仮想空間におけるカーソル160の位置を判定する処理である。ステップS103における処理の詳細を、図32を参照して説明する。図32は、3次元タッチ位置判定処理(ステップS103)の詳細を示すフローチャートである。
ステップS111において、CPU30は、最新のタッチ位置から仮想カメラの撮像方向に伸びる3次元直線を算出する。CPU30は、最新のタッチ位置(ステップS101で検出したタッチ位置)と、仮想カメラ設定データ173に格納された仮想カメラ108の撮像方向とに基づいて、3次元直線を算出する。例えば、CPU30は、2次元で表される最新のタッチ位置(X,Y)に対応した3次元仮想空間における仮想平面上の位置(x,y,z)を座標変換により算出する。当該仮想平面は、仮想空間においてタッチパネル15を表す平面であり、ユーザの視点(仮想カメラ108の位置)を通り、仮想カメラ108の撮像方向と垂直な平面である。そして、CPU30は、当該3次元の位置(x,y,z)を通り、仮想カメラの撮像方向に伸びる直線を算出する。次に、CPU30は、ステップS112の処理を実行する。
ステップS112において、CPU30は、各オブジェクトの部位情報を取得する。具体的には、CPU30は、オブジェクト情報データ172を参照して、ステップS102でタッチされたオブジェクトの複数の部位のうち、1つの部位の形状データを取得する。次に、CPU30は、ステップS113の処理を実行する。
ステップS113において、CPU30は、ステップS111で算出した直線と、ステップS112で取得した部位とが接触するか否かを判定する。判定結果が肯定の場合、CPU30は、次にステップS114の処理を実行する。一方、判定結果が否定の場合、CPU30は、次にステップS116の処理を実行する。
ステップS114において、CPU30は、接触位置は仮想カメラとの最近接距離か否かを判定する。具体的には、CPU30は、ステップS111で算出した直線とステップS112で取得した部位との接触位置(算出した直線と取得した部位を示す球体との交点の座標)を算出する。次に、CPU30は、算出した接触位置と仮想カメラ108との距離を算出する。そして、CPU30は、メインメモリ31に記憶された(後述するステップS115で記憶された)最近接距離と、算出した距離とを比較する。接触位置が仮想カメラ108と最近接距離である場合、CPU30は、次にステップS115の処理を実行する。一方、接触位置が仮想カメラ108と最近接距離でない場合、CPU30は、次にステップS116の処理を実行する。
ステップS115において、CPU30は、ステップS114で算出した接触位置(直線と部位との交点)をカーソルデータ174に記憶する。また、CPU30は、ステップS114で算出した距離(接触位置と仮想カメラ108との距離)を最近接距離として、メインメモリ31に記憶する。次に、CPU30は、ステップS116の処理を実行する。
ステップS116において、CPU30は、全ての部位情報を取得したか否かを判定する。全ての部位情報が取得されていない場合、CPU30は、ステップS112の処理を再び実行する。ステップS112からステップS116の処理が繰り返し実行されることにより、タッチされたオブジェクトの全ての部位について、ステップS111で算出した直線との接触位置が算出される。そして、算出した接触位置のうち、仮想カメラ108と最も近い位置(ユーザに最も近い位置)がカーソルの位置として算出される。一方、全ての部位情報が取得された場合、CPU30は、3次元タッチ位置判定処理を終了する。
図31に戻り、CPU30は、次にステップS104の処理を実行する。ステップS104において、CPU30は、動作決定処理を実行する。ステップS104では、タッチされたオブジェクトに対する操作を判定し、その操作に応じて当該オブジェクトの動作が決定される。具体的には、CPU30は、タッチ位置データ171を参照して、タッチされたオブジェクトに対して行われた操作を判定する。より具体的には、CPU30は、タッチ位置データ171に時系列で格納された過去数フレームにおけるタッチ位置に基づいて、ユーザによって行われた操作を判定する。ステップS104では、ユーザによって行われた操作が、例えば図25に示すように子供オブジェクト101の胸を上下方向になでるような操作であるか否かが判定される。あるいは、ステップS104では、ユーザによって行われた操作が、例えば図28に示すアイテム105を把持して移動させる操作であるか否かが判定される。このように、ステップS104では、過去数フレームにおけるタッチ位置に基づいて、ユーザによって行われた操作の種類が判定される。そして、判定された操作の種類に応じて、タッチされたオブジェクトの動作が決定される。例えば、ユーザによって行われた操作が図25に示すように子供オブジェクト101の胸を上下方向になでるような操作である場合、CPU30は、子供オブジェクト101が表情を変化させて両手を挙げる動作を決定する。CPU30は、次にステップS105の処理を実行する。
ステップS105において、CPU30は、平面画像表示処理を実行する。ステップS105の処理は、平面画像表示装置12の画面にオブジェクトのシルエット等を表示する処理である。ステップS105における処理の詳細を、図33を参照して説明する。図33は、平面画像表示処理(ステップS105)の詳細を示すフローチャートである。
ステップS121において、CPU30は、操作可能なオブジェクトを判定する。具体的には、CPU30は、第1の判定と第2の判定とによって、画面に表示するオブジェクトを判定する。すなわち、CPU30は、第1の判定として、オブジェクトの種類がユーザによって操作されるオブジェクトか否かを判定する。また、CPU30は、第2の判定として、オブジェクトとユーザとの距離が所定の距離以下か否かを判定する。
具体的には、ステップS121の第1の判定では、CPU30は、各オブジェクトがユーザによって操作されるオブジェクトか否かを判定する。例えば、子供オブジェクト101〜103やアイテム105はユーザによって操作されるオブジェクトとして予め設定される。一方、家具オブジェクト104は、ユーザによって操作されないオブジェクトとして予め設定される。第1の判定では、CPU30は、各オブジェクトの種類によって、各オブジェクトがユーザによって操作されるオブジェクトか否かを判定する。
次に、ステップS121の第2の判定では、CPU30は、オブジェクトとユーザ(仮想ステレオカメラ100または仮想カメラ108)との距離が、所定の距離以下か否かを判定する。上記第1の判定と第2の判定とによって、CPU30は、操作可能なオブジェクトを判定する。すなわち、CPU30は、各オブジェクトについて第1の判定および第2の判定を行い、第1の判定結果が肯定であり、かつ、第2の判定結果が肯定であるオブジェクトを操作可能なオブジェクトとして設定する。そして、CPU30は、当該オブジェクトが操作可能であるか否かを示すデータをメインメモリ31に格納する(オブジェクト情報データ172を更新する)。
以上のように、操作可能なオブジェクトは、オブジェクトの種類のみならず、オブジェクトとユーザ(仮想ステレオカメラ100または仮想カメラ108)との距離によっても定められる。例えば、子供オブジェクト102がユーザから所定の距離よりも遠い位置に存在する場合、子供オブジェクト102は操作可能なオブジェクトとして設定されない。上述のように、第3実施形態に係るゲームでは、ユーザは立体画像表示装置11に表示された子供オブジェクトを見て所定の操作を行うことにより、ユーザは実際に子供に触れるような感覚を視覚的に得られる。しかしながら、ユーザの手が届かない位置に存在する子供オブジェクトをユーザが操作可能とすると、ユーザにとって違和感がある。従って、操作可能な種類のオブジェクトであっても、ユーザからの距離が所定距離よりも離れている場合、当該オブジェクトは操作不可能なオブジェクトとして設定される。
ステップS121の後、CPU30は、次にステップS122の処理を実行する。
ステップS122において、CPU30は、平面画像表示装置12の画面に表示するオブジェクトを選出する。具体的には、CPU30は、オブジェクト情報データ172を参照して、操作可能なオブジェクトを選出する。上述のようにオブジェクト情報データ172には、ステップS121の処理によって、各オブジェクトが操作可能であるか否かを示すデータが格納されている。CPU30は、操作可能であるオブジェクトを平面画像表示装置12の画面に表示するオブジェクトとして選出する。次に、CPU30は、ステップS123の処理を実行する。
ステップS123において、CPU30は、ステップS122で選出したオブジェクトの表示態様を決定する。具体的には、CPU30は、ステップS122で選出したオブジェクトが複数存在する場合、各オブジェクトの表示態様がそれぞれ異なるようにして、各オブジェクトの表示態様を決定する。例えば、選出したオブジェクトが子供オブジェクト101、子供オブジェクト103およびアイテム105である場合、CPU30は、子供オブジェクト101を灰色、子供オブジェクト103を青色、アイテム105を赤色にそれぞれ決定する。次に、CPU30は、ステップS124の処理を実行する。
ステップS124において、CPU30は、ステップS123で決定した表示態様で各オブジェクトを平面画像表示装置12の画面に表示する。具体的には、ステップS124において、CPU30は、ステップS122で選出したオブジェクト以外のオブジェクトを非表示とし、ステップS122で選出したオブジェクトをシルエット表示にして、仮想空間を仮想カメラ108で撮像する。これにより、CPU30は、平面画像表示装置12の画面に、選出した各オブジェクトをステップS123で決定した表示態様で表示する(選出した各オブジェクトをシルエット表示する)。
なお、ステップS124では、ステップS104で決定されたオブジェクトの動作に応じて、シルエット(オブジェクト)が動作する様子が表示される。また、CPU30は、操作ボタン162を画面の左上に、アイテム選択ボタン163を画面の右下にそれぞれ表示する。以上でCPU30は、平面画像表示処理を終了する。
図31に戻り、CPU30は、次にステップS106の処理を実行する。ステップS106において、CPU30は、立体画像表示処理を実行する。ステップS106では、CPU30は、仮想空間にカーソル160を配置し、仮想ステレオカメラ100で仮想空間を撮像して立体画像表示装置11の画面に立体画像を表示する。具体的には、CPU30は、カーソル160の姿勢を決定して、ステップS103で判定されたカーソル160の位置に手の形状のカーソル160を配置する(すなわち、タッチしたオブジェクトの表面にカーソル160を配置する)。具体的には、CPU30は、ステップS103で判定されたカーソル160の位置で接触するオブジェクトの部位に接する仮想空間上の平面をカーソル160の姿勢として決定して、カーソル160を仮想空間に配置する。一方、CPU30は、ステップS102の判定結果が否定の場合は、最新のタッチ位置に対応した仮想空間上の所定位置に矢印形状のカーソル160を配置する。次に、CPU30は、仮想ステレオカメラ100を用いて左目用画像と右目用画像とを撮像する。次に、CPU30は、撮像した左目用画像と右目用画像とをそれぞれ縦に短冊状に分割して合成する。例えば、CPU30は、左目用画像と右目用画像とを、画素を縦に並べた1ライン毎に短冊状に分割し、分割した短冊状の画像を交互に配置して合成する。そして、CPU30は、合成した画像を立体画像表示装置11に出力する。ユーザは、立体画像表示装置11の視差バリアを通して合成された画像を見ることで、ユーザの左目で左目用画像を、ユーザの右目で右目用画像を視認することができる。これにより、ユーザは立体感のある画像を見ることができる。なお、立体画像表示装置11の画面には、平面画像表示装置12の画面と同様、ステップS104で決定されたオブジェクトの動作に応じて、オブジェクトが動作する様子が表示される。
図34は、平面画像表示装置12および立体画像表示装置11の画面に表示される画像の一例を示す図である。図34に示すように、子供オブジェクト102はユーザからの距離が所定の距離より離れているため、ステップS121において操作可能なオブジェクトとは判定されない。また、家具オブジェクト104は、ユーザによって操作されるオブジェクトとして予め設定されていないため、操作可能なオブジェクトではない。このため、子供オブジェクト102および家具オブジェクト104は、平面画像表示装置12の画面には表示されない。また、子供オブジェクト101および子供オブジェクト103は、ユーザによって操作されるオブジェクトとして予め設定されており、かつ、ユーザからの距離が所定の距離以下であるため、平面画像表示装置12の画面に表示される。この場合、平面画像表示装置12の画面において、子供オブジェクト101と子供オブジェクト103とは、互いに異なる表示態様で表示される。例えば、平面画像表示装置12の画面では、子供オブジェクト101は赤色で、子供オブジェクト103は黄色で平面表示される。なお、子供オブジェクト102が移動してユーザとの距離が所定の距離以下となった場合、子供オブジェクト102は、平面画像表示装置12の画面に表示される。各子供オブジェクトは、仮想空間を所定の法則に従って移動する。CPU30は、例えば時間経過に応じて、各子供オブジェクトの位置を変化させたり、ユーザの操作に応じて各子供オブジェクトの位置を変化させたりする。子供オブジェクト102が、図34に示すようにユーザから所定の距離より離れた位置から図27に示すように所定の距離以下の位置に移動した場合、すなわち、子供オブジェクト102が近づいてきて、ユーザが触ることが可能な範囲に入ってきた場合、子供オブジェクト102は、平面画像表示装置12の画面に表示される。
次に、CPU30は、ステップS107の処理を実行する。
ステップS107において、CPU30は、ゲーム処理を終了するか否かを判定する。例えば、ユーザによって操作ボタン162が押された場合、CPU30は、ゲーム処理を終了する。ゲーム処理が終了しない場合、CPU30は、ステップS101の処理を再び実行する。以上で図31に示すフローチャートの説明を終了する。
以上のように、第3実施形態に係るゲームでは、立体画像表示装置11の画面には仮想空間の各オブジェクトが立体視可能に表示され、平面画像表示装置12の画面には同様の仮想空間の範囲を撮像した平面画像が表示される。
例えば、上記特許文献1(特開2005−218779号公報)に記載のゲーム装置では、下画面で操作した結果が上画面で表示されるものであって、ユーザに上画面に表示されたオブジェクトを直接操作しているような感覚を与えるには十分でない場合がある。すなわち、特許文献1に記載の装置では、ユーザは下画面に表示された操作用の画面を見ながら当該操作用画面を操作し、上画面にはその操作結果としてオブジェクトが動作する様子が表示される。このため、ユーザは、上画面に表示されたオブジェクトを直接操作しているという実感が得難い。
しかしながら、本実施形態では、平面画像表示装置12の画面には、操作可能なオブジェクトのみシルエット表示され、操作不可能なオブジェクトは表示されない。そして、立体画像表示装置11に表示された各オブジェクトに対する操作は、平面画像表示装置12の画面をタッチすることにより行われる。これにより、ユーザは、立体画像表示装置11の画面に表示された立体視可能な画像を見ながら、当該画像に含まれるオブジェクトを直接操作する感覚を得ることができる。
なお、上述したフローチャートによる処理の内容や処理の順番等は、単なる例示に過ぎない。例えば、ステップS103の処理は次のような処理に代替されてもよい。すなわち、表示結果(ステップS105の処理の結果)に仮想カメラ108の撮像方向の情報(撮像方向の位置情報)が埋め込まれ、当該情報からユーザによって指示されたタッチパネル15上の位置に対応する3次元仮想空間における位置が求められてもよい。
また、第3実施形態では、予め定められたユーザによって操作可能なオブジェクト(子供オブジェクト101〜103)であって、仮想カメラから所定距離以下にあるオブジェクトのみが平面画像表示装置12に表示された。他の実施形態では、ユーザによって操作可能なオブジェクトと操作不可能なオブジェクト(家具オブジェクト104)とを含む所定の条件を満たすオブジェクトが、平面画像表示装置12に表示されてもよい。ここで、所定の条件は、上述したように仮想カメラ(ユーザ)からの距離によって定められてもよいし、ゲーム進行上の様々な条件であってもよい。例えば、第1のゲームシーンにおいては、第1のオブジェクトは操作可能なオブジェクトとして設定され、平面画像表示装置12の画面にシルエット表示されてもよい。この場合において、第1のゲームシーンとは異なる第2のゲームシーンに移行した場合は、当該第1のオブジェクトは操作不可能なオブジェクトとして設定され、平面画像表示装置12の画面に表示されないようにしてもよい。例えば、戦闘シーンにおいてのみ武器オブジェクトが操作可能に設定されて、当該武器オブジェクトをユーザが操作することができるようにしてもよい。
また、第3実施形態では、操作可能なオブジェクトが複数存在する場合、平面画像表示装置12には、当該複数のオブジェクトをそれぞれ異なる色で表示した(子供オブジェクト101を赤、子供オブジェクト102を青、子供オブジェクト103を黄で表示した)。他の実施形態では、平面画像表示装置12の画面をユーザが見た場合に一見して各オブジェクトが識別できる態様であれば、どのような態様で各オブジェクトを表示してもよい。例えば、同じ色のオブジェクトが隣り合う場合(近接する場合)は、ユーザは、一見してこれらが異なるオブジェクトであることを識別し難い。従って、隣り合うオブジェクトの表示態様を変えて平面画像表示装置12に表示することにより、ユーザは、これらのオブジェクトを一見して識別することができる。例えば、図27において、子供オブジェクト102(子供オブジェクト画像122)が青色に、子供オブジェクト101(子供オブジェクト画像121)および103(123)が灰色に表示されてもよい。
また、第3実施形態では、ステップS122で選出されたオブジェクトのみが平面画像表示装置12の画面に表示され、それらが複数存在する場合は互いに異なる色で表示された。他の実施形態では、選出されたオブジェクトが他のオブジェクトとは異なる表示態様(色や塗りつぶしのパターン等)で表示されてもよい。例えば、立体画像表示装置11の画面に子供オブジェクト101〜103及び家具オブジェクト104が表示される場合において、子供オブジェクト101のみが操作可能であるとき(選出されたとき)、平面画像表示装置12の画面には子供オブジェクト101は赤色で表示され、他のオブジェクト(102、103、104)は灰色で表示されてもよい。
また、第3実施形態では、平面画像表示装置12には各オブジェクトがシルエット表示(単色表示)されたが、立体画像表示装置11に表示される画像と比較して目立たないものであれば、平面画像表示装置12に表示される各オブジェクトはどのような表示態様で表示されてもよい。例えば、他の実施形態では、各オブジェクトを減色して平面画像表示装置12に表示してもよい。例えば、立体画像表示装置11に表示されるオブジェクトの各部位が32bitカラーで表示される場合において、平面画像表示装置12に表示される当該オブジェクトの各部位を8bitカラーで表示してもよい。また、他の実施形態では、平面画像表示装置12において、オブジェクトの輪郭のみが表示されてもよい。また、他の実施形態では、平面画像表示装置12において、オブジェクトが線や点等のパターンで塗りつぶされて表示されてもよい。また、他の実施形態では、平面画像表示装置12において各オブジェクトの色の濃さ(明るさ)を変えることにより、各オブジェクトを識別可能に表示してもよい。また、他の実施形態では、平面画像表示装置12においてオブジェクトの各部位の色の濃さ(明るさ)を変えることにより、当該オブジェクトの各部位を識別可能に表示してもよい。
以上のように、他の実施形態では、平面画像表示装置12に表示されるオブジェクトを簡略表示してもよい。ここで簡略表示とは、オブジェクトの表示上の外郭(輪郭)の形状はそのままにして、上述したシルエット表示を含む減色表示や輪郭のみの表示態様、線や点のパターンで塗りつぶす表示態様、明るさを変える表示態様等、様々な表示態様をいう。すなわち、平面画像表示装置12に表示されるオブジェクトは、立体画像表示装置11に表示されるオブジェクトと比較して簡略された表示であれば、どのような表示態様で表示されてもよい。
さらに、他の実施形態では、立体画像表示装置11に表示されるオブジェクトと平面画像表示装置12に表示されるオブジェクトとは、前者が立体視画像で後者が平面画像であることを除いて、同様の表示態様(色、輪郭や塗りつぶしのパターン等が同じ)で表示されてもよい。すなわち、立体画像表示装置11にはオブジェクトが立体表示され、平面画像表示装置12には当該オブジェクトがシルエット表示されずに(簡略表示されずに)平面表示されてもよい。このように、立体画像表示装置11に立体視可能なオブジェクトの画像を表示し、これとは別の平面画像表示装置12に同じオブジェクトが同じ表示態様で平面表示されてもよい。そして、平面画像表示装置12の画面を指示して当該オブジェクトが操作されてもよい。これにより、ユーザは、立体画像表示装置11に表示されたオブジェクトを見ながら当該オブジェクトを容易に操作することができる。すなわち、立体画像表示装置11にオブジェクトを立体視可能に表示して、立体画像表示装置11の画面を直接指示すると、上述したように、画面の奥方向に関してユーザが感じるオブジェクトの位置と指示位置とにずれが生じるため、ユーザは当該オブジェクトを指示し難い。また、上述したように、立体画像表示装置11の画面を直接指示すると、ユーザはオブジェクトを直接操作している感覚を得ることができない。しかしながら、立体画像表示装置11にオブジェクトを立体表示して、これとは別の画面に同じオブジェクトを平面表示してユーザに指示させることにより、ユーザは容易に当該オブジェクトを指示して操作することができ、また、当該オブジェクトを直接操作している感覚を得ることができる。
また、第3実施形態では、仮想ステレオカメラ100によって撮像された画像(第1画像)が立体画像表示装置11に表示され、仮想ステレオカメラ100の左右の仮想カメラ100a及び100bの中間に設定された仮想カメラ108によって撮像された画像(第2画像)が平面画像表示装置12に表示された。他の実施形態では、上記第2画像は、仮想ステレオカメラ100の左右の仮想カメラ100a及び100bのどちらかによって撮像されてもよい。また、上記第2画像は、左右の仮想カメラ100a及び100bの間の任意の位置に設定された仮想カメラによって撮像されてもよい。すなわち、上記第1画像を撮像する仮想カメラの位置と略同一の位置に設定された仮想カメラによって、上記第2画像が撮像されてもよい。
また、第3実施形態では、立体画像表示装置11に表示される画像(オブジェクトを含む画像)と平面画像表示装置12(平面画像表示領域161)に表示される画像とは、略同じ大きさの画像であるとした。ここで、「略同じ大きさの画像」とは、一方の画像に対して他方の画像が所定の比率で拡大された画像であってもよい。例えば、平面画像表示装置12に表示される画像の縦方向(又は/及び横方向)の長さが、立体画像表示装置11に表示される画像の縦方向(又は/及び横方向)の長さの70%に設定されてもよい。
また、第3実施形態では、立体画像表示装置11に表示される画像と平面画像表示装置12に表示される画像とは、略同一の仮想空間の範囲を撮像した画像であるとした。ここで、「略同一の仮想空間の範囲を撮像した画像」とは、略同一の撮像範囲の画像であり、一方の画像の撮像範囲は他方の画像の撮像範囲に対して所定の比率だけ広くてもよい。例えば、平面画像表示装置12に表示される画像の撮像範囲(当該画像に表示される仮想空間の範囲)は、立体画像表示装置11に表示される画像の撮像範囲に対して(縦及び/又は横方向に関して)70%に設定されてもよい。このように、第3実施形態では、平面画像表示装置12に表示される画像の撮像範囲は、立体画像表示装置11に表示される画像の撮像範囲と略同一であるため、ユーザは、平面画像表示装置12の画面を見ずに、立体画像表示装置11の画面を見ながらオブジェクトを操作することができる。すなわち、2つの画像の撮像範囲が同じであるため、例えば、立体画像表示装置11の画面の右側に子供オブジェクトが表示される場合は、平面画像表示装置12の画面の右側にも同じオブジェクトが表示される。従って、ユーザは、平面画像表示装置12の画面を確認することなく、立体画像表示装置11の画面を見ながら、平面画像表示装置12の画面上でオブジェクトを操作することができる。
また、2つの画像に含まれるオブジェクトが略同じ大きさ(一方の画像のオブジェクトが他方の画像のオブジェクトに対して(縦及び/又は横方向に関して)30%程度大きくてもよい)となるように、平面画像表示装置12に表示される画像の大きさや撮像範囲が調整されてもよい。例えば、平面画像表示装置12に表示される画像の撮像範囲が狭く設定されて表示された場合、当該画像に含まれるオブジェクトは拡大して表示される(ズームされる)。平面画像表示装置12に表示される画像に含まれるオブジェクトは、画像自体(画面自体)の大きさによっても定められるし、撮像範囲によっても定められる。従って、ユーザが立体画像表示装置11の画面に含まれるオブジェクトを見ながら平面画像表示装置12の画面をタッチ操作するのに違和感がない程度に、平面画像表示装置12に表示される画像の大きさや撮像範囲が調整されてもよい。
さらに、2つの画面に表示されるオブジェクトの大きさは、必ずしも略同じである必要はない。例えば、立体画像表示装置11の画面が、平面画像表示装置12の画面よりも数倍大きい場合においても、ユーザは、立体画像表示装置11の画面を見ながら違和感なく平面画像表示装置12の画面を操作することも可能である。すなわち、2つの画面に表示される画像に含まれるオブジェクトが同じ方向から撮像されることによって、当該オブジェクトの見え方が同じ(当該オブジェクトを見る方向が同じ)であればよい。これにより、ユーザは、画面の大きさの違いに関係なく、一方の画面を見ながら他方の画面上を指示して当該オブジェクトを容易に操作することができる。
また、第3実施形態では、一方の画面は立体表示可能な画面(立体画像表示装置11)であり、他方の画面は平面表示する画面(平面画像表示装置12)であるとした。他の実施形態では、例えば、一方の画面が高解像度の画面で、他の画面が低解像度の画面であってもよい。すなわち、一方の画面は他方の画面と異なる表示方式(立体表示可能な画面と平面表示の画面、高解像度の画面と低解像度の画面等)のものであってもよい。
また、第3実施形態では、仮想ステレオカメラ100の左右の仮想カメラの撮像方向は同じであり、仮想カメラ108の撮像方向も同じであるとした。他の実施形態では、これらの撮像方向は必ずしも完全に一致している必要はなく、略同じであればよい。例えば、図24において、左目用仮想カメラ100aの撮像方向Aを子供オブジェクト101と左目用仮想カメラ100aとを結ぶ直線の方向にし、右目用仮想カメラ100bの撮像方向Bを子供オブジェクト101と右目用仮想カメラ100bとを結ぶ直線の方向にしてもよい。このように左右の仮想カメラの撮像方向が設定されると、立体画像表示装置11に表示されるオブジェクト(子供オブジェクト101および家具オブジェクト104)の立体感が変わる。また、仮想カメラ108の撮像方向も、左目用仮想カメラ100a又は右目用仮想カメラ100bの撮像方向に対して所定の角度(数度〜10数度程度)だけ異なってもよい。このように仮想カメラ108の撮像方向が仮想ステレオカメラ100の撮像方向と所定の角度だけ異なるように設定されても、平面画像表示装置12の画面には、立体画像表示装置11に表示される立体的なオブジェクトを略同じ方向から平面的に見た画像が表示される。従って、ユーザは、立体画像表示装置11に表示される立体的なオブジェクトを見ながら、平面画像表示装置12に表示される当該オブジェクトを指示して操作することができる。
また、第3実施形態では、立体画像表示装置11に立体画像(立体視可能な画像)を、平面画像表示装置12に平面画像を表示した。他の実施形態では、表示方式が同じ2つの表示領域に、オブジェクトを略同じ方向から見た画像が同時に表示されてもよい。例えば、他の実施形態では、第1の表示領域にオブジェクトを含む第1画像を平面表示し、第2の表示領域に当該オブジェクトを含む、第1画像と同様の第2画像を平面表示してもよい。
以上のように、第1の表示領域に表示される第1画像は、所定の表示対象を所定の方向から見た画像であり、第2の表示領域に表示される第2画像は、当該所定の表示対象を上記所定の方向と略同じ方向から見た画像であってもよい。そして、ユーザが第2の表示領域上の位置を指示することによって、第1の表示領域および第2の表示領域に表示される所定の表示対象を操作してもよい。このように、2つの表示領域に所定の表示対象を略同じ方向から見た画像が表示されることによって、ユーザは、第1の表示領域に表示された画像に含まれる所定の表示対象を見ながら、第2の表示領域に表示された画像に含まれる所定の表示対象を指示することができる。これにより、ユーザは、所定の表示対象を操作することができる。
また、第3実施形態では裸眼で立体視可能なディスプレイを用いる場合について説明したが、時分割方式や偏向方式、アナグリフ方式(赤青眼鏡方式)などの眼鏡を用いて立体表示を行うような場合でも、本発明は適用可能である。
また、第3実施形態では、仮想空間に存在するオブジェクトを操作するゲームであるとした。他の実施形態では、実空間をステレオカメラで撮像した画像を立体画像表示装置11に表示し、同様の画像を平面画像表示装置12に表示してもよい。そして、平面画像表示装置12に表示された画像を指示して操作することで、立体画像表示装置11に表示された画像を変化させてもよい。例えば、平面画像表示装置12に表示された画像を操作して、立体画像表示装置11に表示された画像を伸縮させたり、修正したりしてもよい。
また、上記実施形態では、立体画像表示装置11及び平面画像表示装置12の双方を備える携帯型のゲーム装置10を想定した。他の実施形態では、例えば、立体表示可能な第1の表示装置と、平面表示のみを行う第2の表示装置と、上述した処理を行う制御装置とが、別々のハードウェアとして構成されてもよい。そして、これらの要素が有線又は無線によって互いに接続されることによって、表示制御システムとして機能してもよい。すなわち、当該表示制御システムは、上記実施形態のように1つの装置によって構成されてもよいし、複数の装置によって構成されてもよい。
また、他の実施形態では、立体表示を行う立体表示領域と平面表示を行う平面表示領域とが1つの画面上で設定可能な表示装置が、上記立体画像表示装置11及び平面画像表示装置12として、用いられてもよい。すなわち、同一画面上に異なる2つの表示領域が設定可能な表示装置が用いられてもよい。
また、他の実施形態では、表示装置と指示位置検出装置とを有する任意の情報処理装置(例えば、PDA(Personal Digital Assistant)、携帯電話等)にも上記表示制御方法が適用されてもよい。
また、上記実施形態においては、ゲーム装置10のCPU30が所定のプログラムを実行することによって、上述したフローチャートによる処理が行われた。他の実施形態においては、上記処理の一部又は全部は、ゲーム装置10が備える専用回路によって行われてもよい。例えば、立体画像表示装置11および平面画像表示装置12に表示する画像を生成する専用のGPU(Graphics Processing Unit)等が設けられてもよい。
以上のように、上述の各実施形態によって示される構成を以下に示す。
本発明の一構成では、携帯型の情報処理装置であって、右目用画像と左目用画像とを用いて裸眼で立体視可能な立体画像を表示する立体画像表示部(立体画像表示装置11)と、ユーザが上記情報処理装置に対する入力操作を行うための平面画像を表示する平面画像表示部(平面画像表示装置12)と、上記平面画像表示部の画面上に設けられたタッチパネル(タッチパネル15)と、上記タッチパネルが検出したタッチ位置に基づいて、所定の処理を実行する制御手段(CPU30)とを備える。
上記構成において、平面画像表示部には、例えば、上記調整バー(54、56)やボタン画像(162、163)等のユーザインターフェイス用の画像が表示され、ユーザによって当該画像がタッチされることによって、情報処理装置に対する操作が行われてもよい。あるいは、平面画像表示部には、仮想オブジェクトのシルエット画像(121等)が表示され、当該画像がユーザによってタッチされることによって、仮想オブジェクトに対する操作が行われてもよい。
また、他の構成では、上記制御手段は、上記タッチパネルが検出したタッチ位置に基づいて、上記立体画像表示部に表示された立体画像を変化させる。
上記構成においては、例えば、右目用画像と左目用画像との位置の調整を平面画像表示部に表示された画像をタッチすることによって行い、立体画像表示部に調整された画像を表示することによって、立体画像を変化させてもよい。また、例えば、平面画像表示部に対するタッチ操作によって、立体画像表示部に表示されたオブジェクトの位置や姿勢を変化させてもよい。
また、他の構成では、上記平面画像表示部は、仮想空間の仮想オブジェクトを操作するための平面画像を表示する。上記制御手段は、上記タッチパネルが検出したタッチ位置に基づいて、上記仮想オブジェクトを変化させる。上記立体画像表示部は、上記制御手段によって変化された仮想オブジェクトを仮想ステレオカメラで撮像することによって得られる右目用画像と左目用画像とを用いて上記立体画像を表示する。
また、他の構成では、上記立体画像表示部の画面上にはタッチパネルを設けない。
また、他の構成では、情報処理装置は、上記立体画像表示部の立体表示のON/OFFを切り替えるスイッチを更に備える。上記立体画像表示部は、上記スイッチによって立体表示がONに切り替えられている場合のみ、上記立体画像を表示する。
また、他の構成では、上記スイッチは、位置を調整可能なスライダである。情報処理装置は、上記スライダの位置に応じて、仮想空間に設定された仮想ステレオカメラの2つの仮想カメラ間の距離を設定する仮想カメラ設定手段を更に備える。上記立体画像表示部は、上記仮想カメラ設定手段によって設定された仮想ステレオカメラで上記仮想空間を撮像した右目用画像と左目用画像とを用いて上記立体画像を表示する。
また、他の構成では、情報処理装置は、実空間を撮像した右目用実画像と左目用実画像とを用いる第1のモードと、仮想ステレオカメラで仮想空間を撮像した右目用画像と左目用画像とを用いる第2のモードとを選択するモード選択手段を更に備える。上記立体画像表示部は、上記モード選択手段で上記第1のモードが選択されている場合、上記実空間を撮像した右目用実画像と左目用実画像とを用いて上記立体画像を表示し、上記モード選択手段で上記第2のモードが選択されている場合、上記仮想ステレオカメラで仮想空間を撮像した右目用画像と左目用画像とを用いて上記立体画像を表示する。
また、他の構成では、情報処理装置は、実空間を撮像するステレオカメラを更に備える。上記立体画像表示部は、上記ステレオカメラで撮像された右目用実画像と左目用実画像とを用いて上記立体画像を表示する。
また、他の構成では、上記平面画像表示部は、上記右目用実画像と上記左目用実画像との相対的な位置を調整するための調整バーを表示する。上記制御手段は、上記タッチパネルが検出したタッチ位置に基づいて、上記調整バーのスライダの位置を設定するとともに、当該スライダの位置に応じて、上記右目用実画像と上記左目用実画像との相対的な位置を調整する。上記立体画像表示部は、上記制御手段によって調整された上記右目用実画像と上記左目用実画像とを用いて、上記立体画像を表示する。
また、他の構成では、上記情報処理装置は、折り畳み可能な第1のハウジングと第2のハウジングとによって構成される。上記立体画像表示部は、上記第1のハウジングに設けられる。上記平面画像表示部は、上記第2のハウジングに設けられる。
また、他の構成では、上記第1のハウジングは、上記第1のハウジングと上記第2のハウジングとが開かれた状態において、上記第2のハウジングよりも上側に配置される。
10 画像表示装置
11 立体画像表示装置
12 平面画像表示装置
13 ハウジング
13a 上側ハウジング
13b 下側ハウジング
14 ハードウェアスライダ
15 タッチパネル
16 スティック
17 シャッターボタン
18 ステレオカメラ
18a 左目画像撮像部
18b 右目画像撮像部
30 CPU
31 メインメモリ
32 ROM
33 メモリ制御回路
34 保存用データメモリ
35 通信モジュール
40 調整部
41 入力制御部
42 第1表示制御部
43 第2表示制御部
50画像表示領域
51a 左目用画像
51b 右目用画像
54 位置調整バー
55 スライダ
56 ズーム調整バー
57 スライダ
59 立体画像表示枠
100 仮想ステレオカメラ
100a 左目用仮想カメラ
100b 右目用仮想カメラ
101、102、103 子供オブジェクト
104 家具オブジェクト
105 アイテム
108 仮想カメラ
160 カーソル
161 平面画像表示領域
162 操作ボタン
163 アイテム選択ボタン

Claims (1)

  1. 携帯型の情報処理装置であって、
    右目用画像と左目用画像とを用いて裸眼で立体視可能な立体画像を表示する立体画像表示部と、
    ユーザが前記情報処理装置に対する入力操作を行うための平面画像を表示する平面画像表示部と、
    前記平面画像表示部の画面上に設けられたタッチパネルと、
    前記タッチパネルが検出したタッチ位置に基づいて、所定の処理を実行する制御手段とを備える、情報処理装置。
JP2016043401A 2010-01-14 2016-03-07 携帯型情報処理装置、携帯型ゲーム装置 Pending JP2016167811A (ja)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP2010005955 2010-01-14
JP2010005955 2010-01-14
JP2010056513 2010-03-12
JP2010056513 2010-03-12

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2010294096A Division JP5898842B2 (ja) 2010-01-14 2010-12-28 携帯型情報処理装置、携帯型ゲーム装置

Publications (1)

Publication Number Publication Date
JP2016167811A true JP2016167811A (ja) 2016-09-15

Family

ID=44942229

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2010294096A Active JP5898842B2 (ja) 2010-01-14 2010-12-28 携帯型情報処理装置、携帯型ゲーム装置
JP2016043401A Pending JP2016167811A (ja) 2010-01-14 2016-03-07 携帯型情報処理装置、携帯型ゲーム装置

Family Applications Before (1)

Application Number Title Priority Date Filing Date
JP2010294096A Active JP5898842B2 (ja) 2010-01-14 2010-12-28 携帯型情報処理装置、携帯型ゲーム装置

Country Status (2)

Country Link
US (1) US8894486B2 (ja)
JP (2) JP5898842B2 (ja)

Families Citing this family (27)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2355526A3 (en) 2010-01-14 2012-10-31 Nintendo Co., Ltd. Computer-readable storage medium having stored therein display control program, display control apparatus, display control system, and display control method
JP5800501B2 (ja) 2010-03-12 2015-10-28 任天堂株式会社 表示制御プログラム、表示制御装置、表示制御システム、及び、表示制御方法
EP2696588B1 (en) * 2011-04-01 2019-09-04 Panasonic Corporation Three-dimensional image output device and method of outputting three-dimensional image
JP5501474B2 (ja) * 2011-06-10 2014-05-21 パナソニック株式会社 立体画像生成装置および立体画像生成方法
JP5367034B2 (ja) * 2011-08-24 2013-12-11 株式会社ソニー・コンピュータエンタテインメント 画像処理装置および画像処理方法
DE102011112448A1 (de) * 2011-09-03 2013-03-07 Volkswagen Aktiengesellschaft Verfahren und Vorrichtung zum Bereitstellen einer Nutzerschnittstelle, insbesondere in einem Fahrzeug
WO2013042311A1 (ja) * 2011-09-20 2013-03-28 パナソニック株式会社 立体映像処理装置及び立体映像処理方法
JP5437415B2 (ja) * 2012-02-24 2014-03-12 株式会社スクウェア・エニックス 立体ゲーム装置
JP5456820B2 (ja) * 2012-03-28 2014-04-02 株式会社スクウェア・エニックス ゲーム装置
JP5902346B2 (ja) * 2012-03-29 2016-04-13 インテル コーポレイション ジェスチャーを用いた3次元グラフィックスの作成
US20150212647A1 (en) 2012-10-10 2015-07-30 Samsung Electronics Co., Ltd. Head mounted display apparatus and method for displaying a content
KR102063952B1 (ko) * 2012-10-10 2020-01-08 삼성전자주식회사 멀티 디스플레이 장치 및 멀티 디스플레이 방법
JP6721285B2 (ja) 2013-08-21 2020-07-15 任天堂株式会社 情報処理装置、情報処理システム、情報処理プログラムおよび情報処理方法
US9986225B2 (en) * 2014-02-14 2018-05-29 Autodesk, Inc. Techniques for cut-away stereo content in a stereoscopic display
US20150317956A1 (en) * 2014-04-30 2015-11-05 International Business Machines Corporation Head mounted display utilizing compressed imagery in the visual periphery
US9582185B2 (en) * 2014-06-05 2017-02-28 Good Will Instrument Co., Ltd. Method for scale adjustment of touch-based measurement equipment
JP6397698B2 (ja) 2014-08-28 2018-09-26 任天堂株式会社 情報処理端末、情報処理プログラム、情報処理端末システム、および情報処理方法
JP6345627B2 (ja) * 2015-05-20 2018-06-20 株式会社ソニー・インタラクティブエンタテインメント 情報処理装置および情報処理方法
US11252399B2 (en) * 2015-05-28 2022-02-15 Microsoft Technology Licensing, Llc Determining inter-pupillary distance
JP2017211694A (ja) * 2016-05-23 2017-11-30 ソニー株式会社 情報処理装置、情報処理方法、及びプログラム
US10742964B2 (en) * 2017-04-04 2020-08-11 Nextvr Inc. Methods and apparatus for displaying images
JP6452014B1 (ja) * 2018-03-09 2019-01-16 株式会社コナミデジタルエンタテインメント 表示システム、表示制御装置、及びプログラム
JP6439132B1 (ja) * 2018-03-09 2018-12-19 株式会社コナミデジタルエンタテインメント 表示システム、表示制御装置、及びプログラム
US11366319B1 (en) * 2021-02-28 2022-06-21 Douglas Labs, Inc. Immersive viewing experience
CN111246012B (zh) * 2020-01-06 2022-09-16 北京小米移动软件有限公司 应用界面显示方法、装置及存储介质
WO2021171346A1 (ja) * 2020-02-25 2021-09-02 三菱電機株式会社 表示制御装置、ヘッドアップディスプレイ、及び表示制御方法
US11789259B2 (en) * 2020-12-28 2023-10-17 Passion Light Inc. Vision inspection and correction method, together with the system apparatus thereof

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009278456A (ja) * 2008-05-15 2009-11-26 Hitachi Ltd 映像表示装置

Family Cites Families (118)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04180180A (ja) 1990-11-15 1992-06-26 Yokogawa Hewlett Packard Ltd 3次元位置入力方法及び装置
JPH06339155A (ja) 1993-05-28 1994-12-06 Sharp Corp 3次元画像撮影システム
KR0180026B1 (ko) 1994-05-13 1999-05-01 마츠모도 세이야 입체표시방법 및 장치
KR100414629B1 (ko) 1995-03-29 2004-05-03 산요덴키가부시키가이샤 3차원표시화상생성방법,깊이정보를이용한화상처리방법,깊이정보생성방법
JP3579162B2 (ja) 1995-06-29 2004-10-20 松下電器産業株式会社 立体cg画像生成装置
US5964830A (en) 1995-08-22 1999-10-12 Durrett; Charles M. User portal device for the world wide web to communicate with a website server
WO1997015150A1 (fr) 1995-10-19 1997-04-24 Sony Corporation Procede et dispositif de formation d'images en trois dimensions
JP3525970B2 (ja) 1996-01-19 2004-05-10 株式会社タイトー 立体視を体験できるゲーム機の視差調節装置
JP3575902B2 (ja) 1996-01-24 2004-10-13 株式会社タイトー 二眼式立体映像を表示するゲーム機の両眼映像入射位置および輻輳点の調整装置
JP3558104B2 (ja) 1996-08-05 2004-08-25 ソニー株式会社 3次元仮想物体表示装置および方法
US6342900B1 (en) 1996-12-06 2002-01-29 Nikon Corporation Information processing apparatus
JPH10174127A (ja) * 1996-12-13 1998-06-26 Sanyo Electric Co Ltd 立体表示方法および立体表示装置
JP3771989B2 (ja) 1997-03-24 2006-05-10 オリンパス株式会社 画像音声通信システムおよびテレビ電話送受信方法
US6057833A (en) 1997-04-07 2000-05-02 Shoreline Studios Method and apparatus for providing real time enhancements and animations over a video image
US6252624B1 (en) 1997-07-18 2001-06-26 Idemitsu Kosan Co., Ltd. Three dimensional display
US20020036617A1 (en) * 1998-08-21 2002-03-28 Timothy R. Pryor Novel man machine interfaces and applications
US8202094B2 (en) 1998-02-18 2012-06-19 Radmila Solutions, L.L.C. System and method for training users with audible answers to spoken questions
JP2000069404A (ja) 1998-08-25 2000-03-03 Konami Co Ltd 画像プリント作成装置
EP0984385B1 (en) 1998-08-31 2013-02-20 Sony Corporation Two-dimensional code recognition processing
JP3786167B2 (ja) 1998-08-31 2006-06-14 ソニー株式会社 2次元コード認識処理方法、2次元コード認識処理装置、および2次元コード認識処理プログラム格納媒体
US6504710B2 (en) 1998-11-27 2003-01-07 Xplore Technologies Corp. Method of interconnecting of a hand-held auxiliary unit, a portable computer and a peripheral device
JP2001165144A (ja) 1999-12-07 2001-06-19 Fujitsu Ltd 折りたたみ型携帯電話機
JP3392801B2 (ja) 2000-03-03 2003-03-31 三洋電機株式会社 折り畳み式携帯電話機
KR100419927B1 (ko) 2000-03-03 2004-02-25 산요덴키가부시키가이샤 폴더형 휴대전화기
JP3459606B2 (ja) 2000-03-03 2003-10-20 三洋電機株式会社 折り畳み式携帯電話機
JP2001251399A (ja) 2000-03-03 2001-09-14 Sanyo Electric Co Ltd 折り畳み式携帯電話機
US6474819B2 (en) 2000-03-21 2002-11-05 Texas Instruments Incorporated Combination overhead projector and electronic display device
JP2001326947A (ja) 2000-05-12 2001-11-22 Sony Corp 立体画像表示装置
WO2001097531A2 (en) 2000-06-12 2001-12-20 Vrex, Inc. Electronic stereoscopic media delivery system
JP3625184B2 (ja) 2000-09-25 2005-03-02 コナミ株式会社 ゲーム用3次元画像処理方法、装置、ゲーム用3次元画像処理プログラムを記録した可読記録媒体及びビデオゲーム装置
US7391420B1 (en) 2000-09-28 2008-06-24 At&T Corp. Graphical user interface graphics-based interpolated animation performance
US6820056B1 (en) 2000-11-21 2004-11-16 International Business Machines Corporation Recognizing non-verbal sound commands in an interactive computer controlled speech word recognition display system
JP2002223458A (ja) 2001-01-26 2002-08-09 Nippon Hoso Kyokai <Nhk> 立体映像作成装置
JP3398796B2 (ja) 2001-01-31 2003-04-21 飛島建設株式会社 複合現実感を利用した3次元測量支援用画像システム
JP4624582B2 (ja) 2001-03-21 2011-02-02 株式会社バンダイナムコゲームス 画像生成装置、プログラム及び情報記憶媒体
JP2003107603A (ja) 2001-09-28 2003-04-09 Namco Ltd 立体視画像生成装置、立体視画像生成情報および情報記憶媒体
DE60316738T2 (de) 2002-03-08 2008-07-24 Topcon Corp. Vorrichtung und Verfahren zur stereoskopischen Bildwiedergabe
JP3691444B2 (ja) 2002-03-11 2005-09-07 三洋電機株式会社 立体画像撮像装置
JP2003348621A (ja) 2002-05-27 2003-12-05 Canon Inc 二視点カメラの設定手段
JP2004007214A (ja) 2002-05-31 2004-01-08 Canon Inc 撮像装置
WO2003105450A1 (ja) 2002-06-07 2003-12-18 松下電器産業株式会社 折畳式携帯電話機
JP2003067784A (ja) * 2002-07-30 2003-03-07 Canon Inc 情報処理装置
JP2004109330A (ja) 2002-09-17 2004-04-08 Sharp Corp 2d(2次元)及び3d(3次元)表示機能を備える電子機器
EP1403759A3 (en) 2002-09-17 2007-04-04 Sharp Kabushiki Kaisha Electronic equipment with two and three dimensional display functions
AU2002355052A1 (en) 2002-11-28 2004-06-18 Seijiro Tomita Three-dimensional image signal producing circuit and three-dimensional image display apparatus
JP2004287902A (ja) 2003-03-24 2004-10-14 Olympus Corp 複合現実感画像提示装置
CN101841728B (zh) 2003-04-17 2012-08-08 夏普株式会社 三维图像处理装置
JP4378118B2 (ja) 2003-06-27 2009-12-02 学校法人早稲田大学 立体映像呈示装置
JP2005073038A (ja) * 2003-08-26 2005-03-17 Casio Comput Co Ltd 立体的表示機能付電子機器
JP4251952B2 (ja) * 2003-10-01 2009-04-08 シャープ株式会社 立体画像表示装置および立体画像表示方法
JP4347017B2 (ja) * 2003-10-17 2009-10-21 キヤノン株式会社 情報処理方法及び画像処理方法
JP4338500B2 (ja) 2003-11-14 2009-10-07 富士フイルム株式会社 撮像装置
JP2005165776A (ja) 2003-12-03 2005-06-23 Canon Inc 画像処理方法、画像処理装置
JP2005204754A (ja) 2004-01-20 2005-08-04 Nintendo Co Ltd タッチパネル入力を用いたゲームシステム
JP4376650B2 (ja) 2004-02-09 2009-12-02 任天堂株式会社 ゲーム装置およびゲームプログラム
JP2005250950A (ja) 2004-03-05 2005-09-15 Nippon Telegr & Teleph Corp <Ntt> マーカ提示用携帯端末および拡張現実感システムならびにその動作方法
JP2005286714A (ja) 2004-03-30 2005-10-13 Nec Corp 携帯電話機
JP4537104B2 (ja) 2004-03-31 2010-09-01 キヤノン株式会社 マーカ検出方法、マーカ検出装置、位置姿勢推定方法、及び複合現実空間提示方法
JP2005353047A (ja) 2004-05-13 2005-12-22 Sanyo Electric Co Ltd 立体画像処理方法および立体画像処理装置
US7671916B2 (en) 2004-06-04 2010-03-02 Electronic Arts Inc. Motion sensor using dual camera inputs
JP2006024175A (ja) 2004-06-11 2006-01-26 Doshisha 携帯端末およびアダプタ
JP4771671B2 (ja) 2004-07-16 2011-09-14 シャープ株式会社 撮影装置及び撮影表示装置
US8547401B2 (en) 2004-08-19 2013-10-01 Sony Computer Entertainment Inc. Portable augmented reality device and method
JP2006060516A (ja) 2004-08-20 2006-03-02 Sharp Corp 折り畳み式携帯電話機
JP3841806B2 (ja) 2004-09-01 2006-11-08 株式会社ソニー・コンピュータエンタテインメント 画像処理装置および画像処理方法
WO2006025137A1 (ja) 2004-09-01 2006-03-09 Sony Computer Entertainment Inc. 画像処理装置、ゲーム装置および画像処理方法
JP4587166B2 (ja) 2004-09-14 2010-11-24 キヤノン株式会社 移動体追跡システム、撮影装置及び撮影方法
JP4302024B2 (ja) 2004-09-17 2009-07-22 株式会社ソニー・コンピュータエンタテインメント ボタン構造、携帯型電子装置
KR100832355B1 (ko) * 2004-10-12 2008-05-26 니폰 덴신 덴와 가부시끼가이샤 3차원 포인팅 방법, 3차원 표시제어방법, 3차원 포인팅장치, 3차원 표시 제어장치, 3차원 포인팅 프로그램, 및3차원 표시제어 프로그램
JP4688473B2 (ja) 2004-11-02 2011-05-25 株式会社バンダイナムコゲームス プログラム、情報記憶媒体及びゲーム装置
WO2006056622A1 (es) 2004-11-19 2006-06-01 Daem Interactive, Sl Dispositivo personal con funciones de adquirir imágenes, para aplicación de recursos de realidad aumentada y método
JP2006165795A (ja) 2004-12-03 2006-06-22 Canon Inc 画像形成装置およびその方法
EP1851726B1 (en) 2005-01-27 2018-11-28 Leica Biosystems Imaging, Inc. Systems and methods for viewing three dimensional virtual slides
JP2006271663A (ja) 2005-03-29 2006-10-12 Namco Bandai Games Inc プログラム、情報記憶媒体及び画像撮像表示装置
ATE428154T1 (de) 2005-05-03 2009-04-15 Seac02 S R L Augmented-reality-system mit identifizierung der realen markierung des objekts
KR100662845B1 (ko) 2005-06-30 2007-01-02 삼성전자주식회사 메모리 카드 슬롯의 개폐장치 및 이를 구비한 디지털모바일기기
JP4358181B2 (ja) 2005-11-11 2009-11-04 任天堂株式会社 ゲームプログラムおよびゲーム装置
US8189038B2 (en) 2005-12-21 2012-05-29 International Business Machines Corporation Stereographic projection apparatus with passive eyewear utilizing a continuously variable polarizing element
KR100713220B1 (ko) 2006-07-28 2007-05-02 (주)블루비스 입체 영상 편집 장치 및 방법
US8277316B2 (en) 2006-09-14 2012-10-02 Nintendo Co., Ltd. Method and apparatus for using a common pointing input to control 3D viewpoint and object targeting
US20080071559A1 (en) 2006-09-19 2008-03-20 Juha Arrasvuori Augmented reality assisted shopping
JP4796926B2 (ja) 2006-09-21 2011-10-19 株式会社ソニー・コンピュータエンタテインメント 電子機器用筐体及び電子機器
RU2479012C2 (ru) 2006-09-29 2013-04-10 Конинклейке Филипс Электроникс Н.В. Трехмерный теневой указатель мыши
JP2008146109A (ja) 2006-12-05 2008-06-26 Canon Inc 画像処理方法、画像処理装置
JP4757812B2 (ja) 2007-02-20 2011-08-24 富士フイルム株式会社 立体撮影装置および方法並びにプログラム
KR101345303B1 (ko) 2007-03-29 2013-12-27 삼성전자주식회사 스테레오 또는 다시점 영상의 입체감 조정 방법 및 장치
JP2007256960A (ja) 2007-04-12 2007-10-04 Olympus Corp 頭部装着型映像表示装置
US8305428B2 (en) 2007-04-18 2012-11-06 Inlife-Handnet Co., Ltd Stereo video shooting and viewing device
EP2009868B1 (en) 2007-06-29 2016-09-07 Alcatel Lucent Method and system for improving the appearance of a person on the RTP stream coming from a media terminal
US20090027330A1 (en) 2007-07-26 2009-01-29 Konami Gaming, Incorporated Device for using virtual mouse and gaming machine
JP4260215B1 (ja) 2007-08-29 2009-04-30 任天堂株式会社 撮像装置
US8177441B2 (en) 2007-08-29 2012-05-15 Nintendo Co., Ltd. Imaging apparatus
US8917985B2 (en) 2007-08-29 2014-12-23 Nintendo Co., Ltd. Imaging apparatus
EP2039398B1 (en) 2007-08-29 2016-05-04 Nintendo Co., Ltd. Imaging apparatus
JP2009205556A (ja) 2008-02-28 2009-09-10 Panasonic Corp ユーザインタフェース装置
US20090275366A1 (en) * 2008-05-05 2009-11-05 Schilling Donald L Personal portable communication devices with deployable display systems for three dimensional visual representations and/or privacy and methods of use
JP5045559B2 (ja) * 2008-06-02 2012-10-10 富士通モバイルコミュニケーションズ株式会社 携帯端末
US8237807B2 (en) 2008-07-24 2012-08-07 Apple Inc. Image capturing device with touch screen for adjusting camera settings
EP2157545A1 (en) 2008-08-19 2010-02-24 Sony Computer Entertainment Europe Limited Entertainment device, system and method
US20100048290A1 (en) 2008-08-19 2010-02-25 Sony Computer Entertainment Europe Ltd. Image combining method, system and apparatus
JP5358152B2 (ja) 2008-10-03 2013-12-04 任天堂株式会社 手持ち型情報処理装置
KR20100050103A (ko) 2008-11-05 2010-05-13 엘지전자 주식회사 맵 상에서의 3차원 개체 제어방법과 이를 이용한 이동 단말기
KR20100053349A (ko) 2008-11-12 2010-05-20 엘지전자 주식회사 터치 모듈, 그 터치 모듈의 제조 방법 및 그 터치 모듈을 갖는 휴대 단말기
WO2010061689A1 (ja) 2008-11-26 2010-06-03 日本電気株式会社 表示装置、端末装置および表示方法
JP4653212B2 (ja) 2008-12-25 2011-03-16 富士通株式会社 折りたたみ型携帯電話機
JP4834116B2 (ja) 2009-01-22 2011-12-14 株式会社コナミデジタルエンタテインメント 拡張現実表示装置、拡張現実表示方法、ならびに、プログラム
JP5320133B2 (ja) 2009-03-31 2013-10-23 株式会社エヌ・ティ・ティ・ドコモ 情報提示システム、情報提示サーバ、通信端末、および情報提示方法
US8325181B1 (en) 2009-04-01 2012-12-04 Perceptive Pixel Inc. Constraining motion in 2D and 3D manipulation
US20100257252A1 (en) 2009-04-01 2010-10-07 Microsoft Corporation Augmented Reality Cloud Computing
JP4864117B2 (ja) * 2009-05-22 2012-02-01 株式会社スクウェア・エニックス 画像生成装置及び方法、プログラム、並びに記録媒体
US8715031B2 (en) 2009-08-06 2014-05-06 Peter Sui Lun Fong Interactive device with sound-based action synchronization
TWI459796B (zh) 2009-12-29 2014-11-01 Ind Tech Res Inst 產生多視角三維立體影像的方法及其裝置
JP2011145609A (ja) 2010-01-18 2011-07-28 Clarion Co Ltd 地図表示装置および地図表示方法
US20110185299A1 (en) 2010-01-28 2011-07-28 Microsoft Corporation Stamp Gestures
US8751970B2 (en) 2010-02-25 2014-06-10 Microsoft Corporation Multi-screen synchronous slide gesture
US9454304B2 (en) 2010-02-25 2016-09-27 Microsoft Technology Licensing, Llc Multi-screen dual tap gesture
US8384770B2 (en) * 2010-06-02 2013-02-26 Nintendo Co., Ltd. Image display system, image display apparatus, and image display method
JP5647819B2 (ja) * 2010-06-11 2015-01-07 任天堂株式会社 携帯型電子機器

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009278456A (ja) * 2008-05-15 2009-11-26 Hitachi Ltd 映像表示装置

Also Published As

Publication number Publication date
US8894486B2 (en) 2014-11-25
US20120108328A1 (en) 2012-05-03
JP5898842B2 (ja) 2016-04-06
JP2011211685A (ja) 2011-10-20

Similar Documents

Publication Publication Date Title
JP5898842B2 (ja) 携帯型情報処理装置、携帯型ゲーム装置
JP2011166754A (ja) 表示制御プログラム、表示制御装置、表示制御システム、及び、表示制御方法
US10764565B2 (en) Computer-readable storage medium having stored therein display control program, display control apparatus, display control system, and display control method
JP5689707B2 (ja) 表示制御プログラム、表示制御装置、表示制御システム、および、表示制御方法
JP5718603B2 (ja) 表示制御プログラム、表示制御装置、表示制御方法および表示制御システム
JP5541974B2 (ja) 画像表示プログラム、装置、システムおよび方法
JP5814532B2 (ja) 表示制御プログラム、表示制御装置、表示制御システム及び表示制御方法
JP2012068964A (ja) 画像処理プログラム、画像処理装置、画像処理システム、および、画像処理方法
US20130057574A1 (en) Storage medium recorded with program, information processing apparatus, information processing system, and information processing method
JP5725902B2 (ja) 画像処理プログラム、画像処理装置、画像処理方法および画像処理システム
JP6757404B2 (ja) シースルー・グラス用の補助アイテム選択
JP2011172253A (ja) 表示制御プログラム、表示制御装置、表示制御システム、及び、表示制御方法
JP2022183213A (ja) ヘッドマウントディスプレイ
JP5602702B2 (ja) 画像処理プログラム、画像処理装置、画像処理システム、および、画像処理方法
CN113498531A (zh) 头戴式信息处理装置以及头戴式显示系统
JP2023065528A (ja) ヘッドマウント情報処理装置およびヘッドマウントディスプレイシステム
JP5770018B2 (ja) 表示制御プログラム、表示制御装置、表示制御方法及び表示制御システム
JP5439460B2 (ja) 表示制御プログラム、表示制御装置、表示制御システム、及び、表示制御方法
JP5095704B2 (ja) ゲーム装置及びゲームプログラム
CN117940964A (en) Hand-made augmented reality experience
CN113170077A (zh) 显示装置

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20170309

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170406

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20180112