JP2006146556A - 画像表示処理プログラムおよび画像表示処理装置 - Google Patents

画像表示処理プログラムおよび画像表示処理装置 Download PDF

Info

Publication number
JP2006146556A
JP2006146556A JP2004335747A JP2004335747A JP2006146556A JP 2006146556 A JP2006146556 A JP 2006146556A JP 2004335747 A JP2004335747 A JP 2004335747A JP 2004335747 A JP2004335747 A JP 2004335747A JP 2006146556 A JP2006146556 A JP 2006146556A
Authority
JP
Japan
Prior art keywords
display
image
area
touch
display area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2004335747A
Other languages
English (en)
Inventor
Keizo Ota
敬三 太田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nintendo Co Ltd
Original Assignee
Nintendo Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nintendo Co Ltd filed Critical Nintendo Co Ltd
Priority to JP2004335747A priority Critical patent/JP2006146556A/ja
Priority to US11/274,259 priority patent/US20060109259A1/en
Publication of JP2006146556A publication Critical patent/JP2006146556A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/0485Scrolling or panning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04886Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures by partitioning the display area of the touch-screen or the surface of the digitising tablet into independently controllable areas, e.g. virtual keyboards or menus
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/10Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals
    • A63F2300/1068Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals being specially adapted to detect the point of contact of the player on a surface, e.g. floor mat, touch pad
    • A63F2300/1075Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals being specially adapted to detect the point of contact of the player on a surface, e.g. floor mat, touch pad using a touch screen
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/30Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by output arrangements for receiving control signals generated by the game device
    • A63F2300/301Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by output arrangements for receiving control signals generated by the game device using an additional display connected to the game console, e.g. on the controller
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • G06F3/1423Digital output to display device ; Cooperation and interconnection of the display device with other functional units controlling a plurality of local displays, e.g. CRT and flat panel display
    • G06F3/1438Digital output to display device ; Cooperation and interconnection of the display device with other functional units controlling a plurality of local displays, e.g. CRT and flat panel display using more than one graphics controller

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)
  • Processing Or Creating Images (AREA)
  • Controls And Circuits For Display Device (AREA)

Abstract

【構成】 ゲーム装置10はLCD14を含み、LCD14に関連してタッチパネル22が設けられる。LCD14には、パズルゲームのようなゲームの画面が表示される。ただし、パズル(仮想空間)の一部領域がLCD14に表示される。ゲーム中では、ユーザは、スティック24を用いて、タッチパネル22の第1操作領域上でタッチ入力して、ゲームの画面上で、文字を入力したり、所望のアイコンを指示したり、所望のアイコンを移動したりする。また、ユーザは、スティック24を用いて、タッチパネル22の第2操作領域をタッチオンし、さらにドラッグ操作すると、LCD14に表示された画面がそのドラッグ方向にスクロールされる。
【効果】 操作が簡単であり、しかも、所望の方向に画面をスクロールさせることができる。
【選択図】 図1

Description

この発明は画像表示処理プログラムおよび画像表示処理装置に関し、特にたとえば、操作入力に応じて、画像を描画しまたは表示された画像に対して予め設定された所定の処理を行う、画像表示処理プログラムおよび画像表示処理装置に関する。
従来の画像表示処理装置の一例が特許文献1に開示される。この特許文献1によれば、タッチパネルの周囲エリアをタッチしたときに表示画像がスクロールされる。
特許第3228584号
しかし、この従来技術では、左、右、上、下、左上、右上、左下および右下の8方向のいずれかに画面をスクロールさせることができるだけであり、ユーザによって任意にスクロール方向を決定することができなかった。また、この従来技術では、タッチする度に所定量だけ画面をスクロールさせるため、タッチし続ける操作(リピート入力)を許容しない場合には、長い距離をスクロールさせるために何度もタッチする必要がある。また、リピート入力を許容する場合であっても、所定量だけ画面をスクロールさせるようにしてあるため、スクロール量を調整するのが困難である。つまり、操作性が良いとは言えなかった。
それゆえに、この発明の主たる目的は、新規な、画像表示処理プログラムおよび画像表示処理装置を提供することである。
この発明の他の目的は、操作性を向上できる、画像表示処理プログラムおよび画像表示処理装置を提供することである。
請求項1の発明は、仮想空間の一部領域を表示する表示器を備え、操作入力に応じて、画像を描画しまたは表示された画像に対して予め設定された所定の処理を行う画像表示処理装置の画像表示処理プログラムであって、画像表示処理装置のプロセサに、操作位置検出ステップ、判定ステップ、画像処理ステップ、および表示領域移動ステップを実行させる。操作位置検出ステップは、操作入力に基づいて表示器の画面上の操作位置を検出する。判定ステップは、操作位置検出ステップによって検出された操作位置が表示器の表示領域に含まれる第1表示領域および第2表示領域のいずれに含まれるかを判定する。画像処理ステップは、判定ステップによって操作位置が第1表示領域に含まれると判定されたとき、当該操作位置に基づいて画像を描画し、または当該操作位置に対応する画像に対して予め設定された所定の処理を行う。そして、表示領域移動ステップは、判定ステップによって操作位置が第2表示領域に含まれると判定されたとき、当該操作位置の移動に従って、仮想空間のうち表示領域に表示される領域を移動させる。
請求項1の発明では、画像表示処理装置(10:実施例で相当する参照符号。以下、同じ。)は、仮想空間(200)の一部領域を表示する表示器(14)を備える。この画像表示処理装置は、ユーザの操作入力に応じて、画像を描画し、または、表示された画像に対して予め設定された所定の処理を実行する。画像表示処理プログラムは、この画像表示処理装置のプロセサ(42)に以下のステップを実行させる。操作位置検出ステップ(S7)は、操作入力に基づいて表示器の画面上の操作位置を検出する。ここで、操作入力には、任意のポインティングデバイスを用いることができる。たとえば、コンピュータマウスを用いる場合には、マウスポインタを画面表示し、当該マウスポインタをコンピュータマウスの移動に従って画面上で移動させ、クリック操作があったとき(クリックオン時)に、操作入力があると判断して、そのときの操作位置を検出する。また、タッチパネルを用いる場合には、タッチ入力があったとき(タッチオン時)に、操作入力があると判断して、タッチ位置(タッチ座標)に対応する操作位置を検出する。判定ステップ(S13)は、操作位置検出ステップによって検出された操作位置が第1表示領域(102)および第2表示領域(104)のいずれに含まれるかを判定する。画像処理ステップ(S15,S25)は、操作位置が第1表示領域に含まれるとき、当該操作位置に基づいて、画像を描画し、または表示された画像に対して予め設定された所定の処理を実行する。また、表示領域移動ステップ(S23)は、操作位置が第2表示領域に含まれるとき、操作位置の移動に従って、つまりユーザのドラッグ操作に従って、仮想空間のうち表示器の表示領域(102,104)に表示される領域を移動させる。
請求項1の発明によれば、ユーザのドラッグ操作に従って表示領域に表示される領域を移動させることができるので、面倒な操作が不要であり、簡単に操作を行うことができる。つまり、操作性を向上させることができる。
請求項2の発明は請求項1に従属し、表示領域移動ステップは、操作位置の移動量に応じて表示領域に表示される領域の移動量を決定する。
請求項2の発明では、表示領域移動ステップは、操作位置の移動量、すなわちドラッグ操作の長さに応じて、表示領域に表示される領域の移動量を決定する。したがって、たとえば、表示領域移動ステップが表示領域に表示される画像(画面)をスクロールさせる場合には、そのスクロール量がドラッグ操作の距離に応じて決定される。たとえば、スクロール量は、ドラッグ操作の距離と同じにすることができ、また、所定の比率を当該距離に掛けることにより、当該距離よりも長くしたり、短くしたりすることもできる。
請求項2の発明によれば、ユーザのドラッグ操作の距離に従って表示領域に表示される領域を移動させることができる。
請求項3の発明は請求項1または2に従属し、表示領域移動ステップは、操作位置の移動方向とは逆向きに表示領域に表示される領域を移動させる。
請求項3の発明では、表示領域移動ステップは、操作位置の移動方向すなわちドラッグ操作の方向とは逆向きに表示領域に表示される領域を移動させる。たとえば、表示領域移動ステップが表示領域に表示される画像(画面)をスクロールさせる場合には、そのスクロール方向がドラッグ操作の方向に応じて決定される。
請求項3の発明によれば、ユーザのドラッグ操作の方向に応じて表示領域に表示される領域を移動させることができる。
請求項4の発明は請求項1ないし3のいずれかに従属し、表示領域移動ステップは、操作入力の開始時点における操作位置が第2表示領域に含まれるときのみ、操作位置の移動に従って表示領域に表示される領域を移動させる。
請求項4の発明では、表示領域移動ステップは、操作入力の開始時点の位置座標が第2表示領域に含まれるときのみ、ドラッグ操作に従って表示領域に表示される領域を移動させる。ここで、操作入力の開始時点とは、コンピュータマウスを用いる場合には、クリックオフの状態からクリックオンの状態になったときをいい、タッチパネルを用いる場合には、タッチオフの状態からタッチオンの状態になったときをいう。したがって、たとえば、操作入力の開始時点の操作位置が第1表示領域に含まれる場合や操作位置が第1表示領域から第2表示領域に移動するような場合には、表示器の表示領域に表示される領域が移動されることはない。
請求項4の発明によれば、操作入力の開始時点の操作位置が第2表示領域に含まれるときのみ、ドラッグ操作に従って表示領域に表示される領域を移動させるので、ユーザが意図しない画面が表示されてしまうような不都合がない。
請求項5の発明は請求項4に従属し、表示領域移動ステップは、操作入力が有りの状態が継続している間では、操作位置が第1表示領域に含まれる場合であっても、操作位置の移動に従って表示領域に表示される領域の移動を継続する。
請求項5の発明では、表示領域移動ステップは、操作入力が有りの状態が継続している間では、つまりドラッグ操作が継続している間では、操作位置が第1表示領域に含まれる場合であっても、ドラッグ操作に従って表示領域に表示される領域を移動させる。つまり、操作入力の開始時点における操作位置が第2表示領域に含まれる場合には、操作入力が終了(クリックオフまたはタッチオフ)されるまで、ドラッグ操作による画面のスクロールが継続される。
請求項5の発明によれば、請求項4の発明と同様に、ユーザが意図しない画像が表示されることがない。
請求項6の発明は請求項1ないし5のいずれかに従属し、第1表示領域には、画像処理に関する画面が変化可能に表示され、第2表示領域には、特定の画像が固定的に表示される。
請求項6の発明では、第1表示領域には、画像処理に関する画面が変化可能に表示される。つまり、画像処理に関する画面をスクロールすることができる。一方、第2表示領域には、特定の画像が固定的に表示される。たとえば、単一色の画像が表示されるので、ユーザは、ドラッグ操作を開始するために操作入力(指示)すべき第2表示領域を視認可能である。
請求項6の発明によれば、第2表示領域に特定の画像を表示するので、誤操作を防止することができる。
請求項7の発明は請求項1ないし5のいずれかに従属し、第1表示領域および第2表示領域には、画像処理に関する画面が変化可能に表示され、第2表示領域には、特定の画面が半透明表示される。
請求項7の発明では、第1表示領域および第2表示領域には、画像処理に関する画面が変化可能に表示される。ただし、第2表示領域では、特定の画面が半透明表示される。
請求項7の発明では、表示器の表示面を有効に使用することができ、また、第2表示領域では画面を半透明表示するので、ユーザの誤操作を防止することもできる。
請求項8の発明は請求項1ないし7のいずれかに従属し、第1表示領域は表示器の表示面の中心を含む一定範囲に設定され、第2表示領域は第1表示領域を囲むように設定される。
請求項8の発明では、第1表示領域は表示器の表示面の中心を含む一定範囲に設定される。また、第2表示領域は、その第1表示領域を囲むように設定される。したがって、操作入力の開始時点の操作位置が画面中央である場合には、画像処理を実行させることができ、操作入力の開始時点の操作位置がそれ以外の部分である場合には、表示領域移動処理を実行させることができる。
請求項8の発明によれば、操作入力の開始時点の操作位置を変化させるだけで、異なる操作を実行できるので、操作性を向上させることができる。
請求項9の発明は請求項1ないし8のいずれかに従属し、画像表示処理装置は、表示器に関連して設けられるタッチパネルをさらに備え、操作位置検出ステップは、タッチパネルからの出力に基づいて検出されるタッチ座標に対応する操作位置を検出する。
請求項9の発明では、画像表示処理装置は、表示器に関連して設けられるタッチパネル(22)をさらに備える。したがって、操作位置検出ステップは、タッチパネルからの出力に基づいて検出されるタッチ座標(タッチ位置)に対応する操作位置を検出する。つまり、ユーザはタッチ操作(タッチ入力)で、操作することができるのである。
請求項9の発明によれば、タッチ入力により画像を描画したり、画面をスクロールさせたりできるので、操作性を向上させることができる。
請求項10の発明は請求項9に従属し、タッチパネルには、第1表示領域に対応して第1操作領域が固定的に設定され、第2表示領域に対応して第2操作領域が固定的に設定され、判定ステップは、第1操作領域へのタッチ入力があるとき、操作位置が第1表示領域に含まれると判定し、第2操作領域へのタッチ入力があるとき、操作位置が第2表示領域に含まれると判定する。
請求項10の発明では、タッチパネルには、第1表示領域に対応して第1操作領域(120)が固定的に設定され、第2表示領域に対応して第2操作領域(122)が固定的に設定される。したがって、判定ステップは、タッチ座標が第1操作領域に含まれるとき、操作位置が第1表示領域に含まれると判定する。一方、タッチ座標が第2操作領域に含まれるとき、判定ステップは、操作位置が第2表示領域に含まれると判定する。
請求項10の発明によれば、第1操作領域および第2操作領域はタッチパネルに対して固定的に設定されるので、画像の表示内容に拘わらず、同様の操作が可能である。つまり、操作性を向上させることができる。
請求項11の発明は、仮想空間の一部領域を表示する表示器および当該表示器に関連して設けられるタッチパネルを備え、タッチ入力に応じて、画像を描画しまたは表示された画像に対して予め設定された所定の処理を行う画像表示処理装置の画像表示処理プログラムである。この画像表示処理プログラムは、画像表示処理装置のプロセサに、タッチ座標検出ステップ、判定ステップ、画像処理ステップ、および表示領域移動ステップを実行させる。タッチ座標検出ステップは、タッチパネルからの出力に基づいてタッチ座標を検出する。判定ステップは、タッチ座標検出ステップによって検出されたタッチ座標がタッチパネルに設定される第1操作領域および第2操作領域のいずれに含まれるかを判定する。画像処理ステップは、判定ステップによってタッチ座標が第1操作領域に含まれると判定されたとき、当該タッチ座標に基づいて画像を描画し、または当該タッチ座標に対応する画像に対して予め設定された所定の処理を行う。そして、表示領域移動ステップは、判定ステップによってタッチ座標が第2操作領域に含まれると判定されたとき、当該タッチ座標の移動に従って、仮想空間のうち表示器の表示領域に表示される領域を移動させる。
請求項11の発明においても、請求項9の発明と同様に、操作性を向上させることができる。
請求項12の発明は、仮想空間の一部領域を表示する表示器および当該表示器に関連して設けられるタッチパネルを備え、タッチ入力に応じて、当該仮想空間上で画像を描画しまたは当該仮想空間上の画像に対して予め設定された所定の処理を行う画像表示処理装置の画像表示処理プログラムである。この画像表示処理プログラムは、画像表示処理装置のプロセサに、第1データ記憶更新ステップ、表示データ出力ステップ、表示制御ステップ、タッチ座標検出ステップ、判定ステップ、画像処理ステップ、および表示領域移動ステップを実行させる。第1データ記憶更新ステップは、仮想空間のうち表示器に表示する範囲を規定する第1データを記憶または更新する。表示データ出力ステップは、仮想空間を表示するための画像データおよび第1データに基づいて、仮想空間の一部領域を表示するための表示データを出力する。表示制御ステップは、表示データ出力ステップによって出力された表示データに基づいて、仮想空間の一部領域を表示器に表示する。タッチ座標検出ステップは、タッチパネルからの出力に基づいてタッチ座標を検出する。判定ステップは、タッチ座標検出ステップによって検出されたタッチ座標がタッチパネルに設定される第1操作領域および第2操作領域のいずれに含まれるかを判定する。画像処理ステップは、判定ステップによってタッチ座標が第1操作領域に含まれると判定されたとき、当該タッチ座標に基づいて、仮想空間を表示するための画像データを更新することにより当該仮想空間に画像を描画し、または、当該タッチ座標に対応する仮想空間内の画像に対して予め設定された所定の処理を行う。そして、表示領域移動ステップは、判定ステップによってタッチ座標が第2操作領域に含まれると判定されたとき、当該タッチ座標の移動に従って、第1データ記憶更新ステップが第1データを更新することにより、仮想空間のうち表示器に表示される一部領域を移動させる。
請求項12の発明では、画像表示処理装置(10)は、仮想空間(200)の一部領域を表示する表示器(14)およびこの表示器に関連して設けられるタッチパネル(22)を備える。この画像表示処理装置は、タッチ入力に応じて、画像を描画し、または、表示された画像に対して予め設定された所定の処理を実行する。画像表示処理プログラムは、この画用表示処理装置のプロセサ(42)に以下のステップを実行させる。第1データ記憶更新ステップ(S43,S53)は、仮想空間のうち表示器に表示する範囲を規定する第1データ(482g)を記憶または更新する。第1データは、たとえば、仮想空間に設けられる仮想カメラの注視点についてのデータ(座標データ)である。表示データ出力ステップ(S27)は、仮想空間を表示するための画像データ(482c)および第1データに基づいて、仮想空間の一部領域を表示するための表示データを出力する。表示制御ステップ(S29)は、表示データステップによって出力された表示データに基づいて、仮想空間の一部領域を表示器に表示する。タッチ座標検出ステップ(S7)は、タッチパネルからの出力に基づいてタッチ座標を検出する。判定ステップ(S13)は、タッチ座標検出ステップによって検出されたタッチ座標がタッチパネルに設定される第1操作領域(120)および第2操作領域(122)のいずれに含まれるかを判定する。画像処理ステップ(S15,S25)は、判定ステップによってタッチ座標が第1操作領域に含まれると判定されたとき、当該タッチ座標に基づいて、仮想空間に画像を描画し、または、当該タッチ座標に対応する仮想空間内の画像に対して予め設定された所定の処理を行う。そして、表示領域移動ステップ(S23)は、判定ステップによってタッチ座標が第2操作領域に含まれると判定されたとき、当該タッチ座標の移動に従って第1データ記憶更新ステップが第1データを更新することにより、つまり仮想カメラの注視点を更新することにより、仮想空間のうち表示器に表示される一部領域を移動させる。
請求項12の発明においても、請求項1の発明と同様に、操作性を向上させることができる。
請求項13の発明は、少なくとも第1対象物と第2対象物とが配置される仮想空間の一部を画面表示する表示器および当該表示器に関連して設けられるタッチパネルを備え、タッチ入力に応じて、画像を描画しまたは表示された画像に対して予め設定された所定の処理を行う画像表示処理装置の画像表示処理プログラムである。この画像表示処理プログラムは、画像表示処理装置のプロセサに、タッチ座標検出ステップ、判定ステップ、画像処理ステップおよび表示領域移動ステップを実行させる。タッチ座標検出ステップは、タッチパネルからの出力に基づいてタッチ座標を検出する。判定ステップは、タッチ座標検出ステップによって検出されたタッチ座標が、第1対象物が配置される第1操作領域および第2対象物が配置される第2操作領域のいずれに含まれるかを判定する。画像処理ステップは、判定ステップによってタッチ座標が第1操作領域に含まれると判定されたとき、当該タッチ座標に基づいて画像を描画し、または表示された画像に対して予め設定された所定の処理を行う。そして、表示領域移動ステップは、判定ステップによってタッチ座標が第2操作領域に含まれると判定されたとき、タッチ座標の移動に従って、仮想空間のうち表示器の表示領域に表示される領域を移動させる。
請求項13の発明では、請求項11,12の発明とは異なり、タッチ座標が仮想空間のいずれの領域に含まれるかに応じて、画像処理または表示領域移動処理が実行される。具体的には、仮想空間に第1オブジェクト(202)および第2オブジェクト(204)が配置される。判定ステップは、タッチ入力検出ステップによって検出されたタッチ入力が示すタッチ座標が、第1オブジェクトの配置領域および第2オブジェクトの配置領域のいずれに含まれるかを判定する。画像処理ステップは、タッチ座標が第1操作領域に含まれるとき、当該タッチ座標に基づいて、画像を描画し、または表示された画像に対して予め設定された所定の処理を実行する。また、表示領域移動ステップは、タッチ座標が第2操作領域に含まれるとき、タッチ座標の移動に従って、つまりユーザのドラッグ操作に従って、仮想空間のうち表示器の表示領域に表示される領域を移動させる。
請求項13の発明においても、請求項1の発明と同様に、操作性を向上することができる。
請求項14の発明は、仮想空間の一部領域を表示する表示器を備え、操作入力に応じて、画像を描画しまたは表示された画像に対して予め設定された所定の処理を行う画像表示処理装置である。画像表示処理装置は、操作位置検出手段、判定手段、画像処理手段、および表示領域移動手段を備える。操作位置検出手段は、操作入力に基づいて表示器の画面上の操作位置を検出する。判定手段は、操作位置検出手段によって検出された操作位置が表示器の表示領域に含まれる第1表示領域および第2表示領域のいずれに含まれるかを判定する。画像処理手段は、判定手段によって操作位置が第1表示領域に含まれると判定されたとき、当該操作位置に基づいて画像を描画し、または当該操作位置に対応する画像に対して予め設定された所定の処理を行う。そして、表示領域移動手段は、判定手段によって操作位置が第2表示領域に含まれると判定されたとき、当該操作位置の移動に従って、仮想空間のうち表示領域に表示される領域を移動させる。
請求項24の発明は、仮想空間の一部領域を表示する表示器および当該表示器に関連して設けられるタッチパネルを備え、タッチ入力に応じて、画像を描画しまたは表示された画像に対して予め設定された所定の処理を行う画像表示処理装置である。画像表示処理装置は、タッチ座標検出手段、判定手段、画像処理手段、および表示領域移動手段を備える。タッチ座標検出手段は、タッチパネルからの出力に基づいてタッチ座標を検出する。判定手段は、タッチ座標検出手段によって検出されたタッチ座標がタッチパネルに設定される第1操作領域および第2操作領域のいずれに含まれるかを判定する。画像処理手段は、判定手段によってタッチ座標が第1操作領域に含まれると判定されたとき、当該タッチ座標に基づいて画像を描画し、または当該タッチ座標に対応する画像に対して予め設定された所定の処理を行う。そして、表示領域移動手段は、判定手段によってタッチ座標が第2操作領域に含まれると判定されたとき、当該タッチ座標の移動に従って、仮想空間のうち表示器の表示領域に表示される領域を移動させる。
請求項25の発明は、仮想空間の一部領域を表示する表示器および当該表示器に関連して設けられるタッチパネルを備え、タッチ入力に応じて、当該仮想空間上で画像を描画しまたは当該仮想空間上の画像に対して予め設定された所定の処理を行う画像表示処理装置である。この画像表示処理装置は、第1データ記憶更新手段、表示データ出力手段、表示制御手段、タッチ座標検出手段、判定手段、画像処理手段、および表示領域移動手段を備える。第1データ記憶更新手段は、仮想空間のうち表示器に表示する範囲を規定する第1データを記憶または更新する。表示データ出力手段は、仮想空間を表示するための画像データおよび第1データに基づいて、仮想空間の一部領域を表示するための表示データを出力する。表示制御手段は、表示データ出力手段によって出力された表示データに基づいて、仮想空間の一部領域を表示器に表示する。タッチ座標検出手段は、タッチパネルからの出力に基づいてタッチ座標を検出する。判定手段は、タッチ座標検出手段によって検出されたタッチ座標がタッチパネルに設定される第1操作領域および第2操作領域のいずれに含まれるかを判定する。画像処理手段は、判定手段によってタッチ座標が第1操作領域に含まれると判定されたとき、当該タッチ座標に基づいて、仮想空間を表示するための画像データを更新することにより当該仮想空間に画像を描画し、または、当該タッチ座標に対応する仮想空間内の画像に対して予め設定された所定の処理を行う。そして、表示領域移動手段は、判定手段によってタッチ座標が第2操作領域に含まれると判定されたとき、当該タッチ座標の移動に従って、第1データ記憶更新ステップが第1データを更新することにより、仮想空間のうち表示器に表示される一部領域を移動させる。
請求項26の発明は、少なくとも第1対象物と第2対象物とが配置される仮想空間の一部を画面表示する表示器および当該表示器に関連して設けられるタッチパネルを備え、タッチ入力に応じて、画像を描画しまたは表示された画像に対して予め設定された所定の処理を行う画像表示処理装置である。この画像表示処理装置は、タッチ座標検出手段、判定手段、画像処理手段、および表示領域移動手段を備える。タッチ座標検出手段は、タッチパネルからの出力に基づいてタッチ座標を検出する。判定手段は、タッチ座標検出手段によって検出されたタッチ座標が、第1対象物が配置される第1表示領域および第2対象物が配置される第2表示領域のいずれに含まれるかを判定する。画像処理手段は、判定手段によってタッチ座標が第1表示領域に含まれると判定されたとき、当該タッチ座標に基づいて画像を描画し、または当該タッチ座標に対応する画像に対して予め設定された所定の処理を行う。そして、表示領域移動手段は、判定手段によってタッチ座標が第2表示領域に含まれると判定されたとき、当該タッチ座標の移動に従って、仮想空間のうち表示器の表示領域に表示される領域を移動させる。
請求項14および請求項24−26の発明においても、請求項1の発明と同様に、操作性を向上させることができる。
この発明によれば、ドラッグ操作に従って表示領域に表示される領域を移動させるので、ユーザのタッチ入力に応じた画面表示が可能である。すなわち、操作性を向上させることができる。
この発明の上述の目的,その他の目的,特徴および利点は、図面を参照して行う以下の実施例の詳細な説明から一層明らかとなろう。
図1を参照して、この発明の一実施例であるゲーム装置10は、後述するように、画像表示処理プログラムを記憶し、画像表示処理装置として機能する。このゲーム装置10は、第1の液晶表示器(LCD)12および第2のLCD14を含み、LCD12およびLCD14は、所定の配置位置となるようにハウジング16に収納される。この実施例では、ハウジング16は、上側ハウジング16aと下側ハウジング16bとによって構成され、LCD12は上側ハウジング16aに収納され、LCD14は下側ハウジング16bに収納される。したがって、LCD12とLCD14とは縦(上下)に並ぶように近接して配置される。
なお、この実施例では、表示器としてLCDを用いるようにしてあるが、LCDに代えて、EL(Electronic Luminescence)ディスプレイやプラズマディスプレイを用いるようにしてもよい。
図1からも分かるように、上側ハウジング16aは、LCD12の平面形状よりも少し大きな平面形状を有し、一方主面からLCD12の表示面を露出するように開口部が形成される。一方、下側ハウジング16bは、その平面形状が上側ハウジング16aよりも横長に選ばれ、横方向の略中央部にLCD14の表示面を露出するように開口部が形成される。また、下側ハウジング16bには、音抜き孔18が形成されるとともに、操作スイッチ20(20a,20b,20c,20d,20e,20Lおよび20R)が設けられる。
また、上側ハウジング16aと下側ハウジング16bとは、上側ハウジング16aの下辺(下端)と下側ハウジング16bの上辺(上端)の一部とが回動可能に連結されている。したがって、たとえば、ゲームをプレイしない場合には、LCD12の表示面とLCD14の表示面とが対面するように、上側ハウジング16aを回動させて折りたたんでおけば、LCD12の表示面およびLCD14の表示面に傷がつくなどの破損を防止することができる。ただし、上側ハウジング16aと下側ハウジング16bとは、回動可能に連結せずに、それらを一体的(固定的)に設けたハウジング16を形成するようにしてもよい。
操作スイッチ20は、方向指示スイッチ(十字スイッチ)20a,スタートスイッチ20b、セレクトスイッチ20c、動作スイッチ(Aボタン)20d、動作スイッチ(Bボタン)20e、動作スイッチ(Lボタン)20Lおよび動作スイッチ(Rボタン)20Rを含む。スイッチ20a,20bおよび20cは、下側ハウジング16bの一方主面であり、LCD14の左側に配置される。また、スイッチ20dおよび20eは、下側ハウジング16bの一方主面であり、LCD14の右側に配置される。さらに、スイッチ20Lおよびスイッチ20Rは、それぞれ、下側ハウジング16bの上端(天面)の一部であり、上側ハウジング16aとの連結部以外に当該連結部を挟むように、左右に配置される。
方向指示スイッチ20aは、ディジタルジョイスティックとして機能し、4つの押圧部の1つを操作することによって、ユーザによって操作可能なプレイヤキャラクタ(またはプレイヤオブジェクト)の移動方向を指示したり、カーソルの移動方向を指示したりする等に用いられる。スタートスイッチ20bは、プッシュボタンで構成され、ゲームを開始(再開)したり、一時停止したりする等に用いられる。セレクトスイッチ20cは、プッシュボタンで構成され、ゲームモードの選択等に用いられる。
動作スイッチ20dすなわちAボタンは、プッシュボタンで構成され、方向指示以外の動作、すなわち、プレイヤキャラクタに打つ(パンチ)、投げる、つかむ(取得)、乗る、ジャンプするなどの任意のアクションをさせることができる。たとえば、アクションゲームにおいては、ジャンプ、パンチ、武器を動かす等を指示することができる。また、ロールプレイングゲーム(RPG)やシミュレーションRPGにおいては、アイテムの取得、武器やコマンドの選択および決定等を指示することができる。動作スイッチ20eすなわちBボタンは、プッシュボタンで構成され、セレクトスイッチ20cで選択したゲームモードの変更やAボタン20dで決定したアクションの取り消し等のために用いられる。
動作スイッチ(Lボタン)20Lおよび動作スイッチ(Rボタン)20Rは、プッシュボタンで構成され、Lボタン20LおよびRボタン20Rは、Aボタン20dおよびBボタン20eと同様の操作に用いることができ、また、Aボタン20dおよびBボタン20eの補助的な操作に用いることができる。
また、LCD14の上面には、タッチパネル22が装着される。タッチパネル22としては、たとえば、抵抗膜方式、光学式(赤外線方式)および静電容量結合式のいずれかの種類のものを用いることができる。また、タッチパネル22は、その上面をスティック24ないしはペン(スタイラスペン)或いは指(以下、これらを「スティック24等」という場合がある。)で、押圧したり、撫でたり、触れたりすることにより操作(タッチ操作)すると、タッチ操作(タッチ入力)についての位置の座標(タッチ座標)を検出して、検出したタッチ座標に対応する座標データを出力する。
この実施例では、LCD14(LCD12も同じ、または略同じ。)の表示面の解像度は256dot×192dotであり、タッチパネル22の検出面の検出精度もその解像度に対応して256dot×192dotとしてある。ただし、タッチパネル22の検出精度は、LCD14の表示面の解像度よりも低くてもよく、高くてもよい。
LCD12およびLCD14には異なるゲーム画像(ゲーム画面)を表示することができる。たとえば、レースゲームでは一方のLCDに運転席からの視点による画面を表示し、他方のLCDにレース(コース)全体の画面を表示することができる。また、RPGでは、一方のLCDにマップやプレイヤキャラクタ等のキャラクタを表示し、他方のLCDにプレイヤキャラクタが所有するアイテムを表示することができる。さらに、パズルゲームでは、一方のLCD(たとえば、LCD12)にパズル全体(仮想空間全体)を表示し、他方のLCD(たとえば、LCD14)には、仮想空間の一部を表示することができる。たとえば、仮想空間の一部を表示した画面では、文字や図形等の画像を描画したり、表示画像(アイコン)等を移動させたりすることができる。さらには、2つのLCD12およびLCD14を合わせて1つの画面として用いることにより、プレイヤキャラクタが倒さなければならない巨大な怪物(敵キャラクタ)を表示することもできる。
したがって、ユーザはスティック24等でタッチパネル22を操作することにより、LCD14に表示されるプレイヤキャラクタ、敵キャラクタ、アイテムキャラクタ、文字情報、アイコン等のキャラクタ画像を指示(指定)したり、移動させたり、コマンドを選択したり、さらには、文字や図形(画像)を描画したりすることができる。また、2次元ゲーム空間に設けられる仮想カメラ(視点)の方向を変化させたり、ゲーム画面(ゲームマップ等)をスクロール(徐々に移動表示)させたりすることもできる。
このように、ゲーム装置10は、2画面分の表示部となるLCD12およびLCD14を有し、いずれか一方(この実施例では、LCD14)の上面にタッチパネル22が設けられるので、2画面(12,14)と2系統の操作部(20,22)とを有する構成になっている。
また、この実施例では、スティック24は、たとえば上側ハウジング16aの側面(右側面)近傍に設けられる収納部(収納穴)26に収納することができ、必要に応じて取り出される。ただし、スティック24を設けない場合には、収納部26を設ける必要がない。
さらに、ゲーム装置10はメモリカード(またはゲームカートリッジ)28を含み、このメモリカード28は着脱自在であり、下側ハウジング16bの裏面ないしは下端(底面)に設けられる挿入口30から挿入される。図1では省略するが、挿入口30の奥部には、メモリカード28の挿入方向先端部に設けられるコネクタ(図示せず)と接合するためのコネクタ46(図2参照)が設けられており、したがって、メモリカード28が挿入口30に挿入されると、コネクタ同士が接合され、ゲーム装置10のCPUコア42(図2参照)がメモリカード28にアクセス可能となる。
なお、図1では表現できないが、下側ハウジング16bの音抜き孔18と対応する位置であり、この下側ハウジング16bの内部にはスピーカ32(図2参照)が設けられる。
また、図1では省略するが、たとえば、下側ハウジング16bの裏面側には、電池収容ボックスが設けられ、また、下側ハウジング16bの底面側には、電源スイッチ、音量スイッチ、外部拡張コネクタおよびイヤフォンジャックなどが設けられる。
図2はゲーム装置10の電気的な構成を示すブロック図である。図2を参照して、ゲーム装置10は電子回路基板40を含み、この電子回路基板40にはCPUコア42等の回路コンポーネントが実装される。CPUコア42は、バス44を介してコネクタ46に接続されるととともに、RAM48、第1のグラフィック処理ユニット(GPU)50、第2のGPU52、入出カインターフエース回路(以下、「I/F回路」という。)54およびLCDコントローラ60が接続される。
コネコタ46には、上述したように、メモリカード28が着脱自在に接続される。メモリカード28は、ROM28aおよびRAM28bを含み、図示は省略するが、ROM28aおよびRAM28bは、互いにバスで接続され、さらに、コネクタ46と接合されるコネクタ(図示せず)に接続される。したがって、上述したように、CPUコア42は、ROM28aおよびRAM28bにアクセスすることができるのである。
ROM28aは、ゲーム装置10で実行すべきゲーム(仮想ゲーム)のためのゲームプログラム、画像(キャラクタ画像、背景画像、アイテム画像、アイコン(ボタン)画像、メッセージ画像など)データおよびゲームに必要な音(音楽)のデータ(音データ)等を予め記憶する。RAM(バックアップRAM)28bは、そのゲームの途中データやゲームの結果データを記憶(セーブ)する。
RAM48は、バッファメモリないしはワーキングメモリとして使用される。つまり、CPUコア42は、メモリカード28のROM28aに記憶されたゲームプログラム、画像データおよび音データ等をRAM48にロードし、ロードしたゲームプログラムを実行する。また、CPUコア42は、ゲームの進行に応じて一時的に発生するデータ(ゲームデータやフラグデータ)をRAM48に記憶しつつゲーム処理を実行する。
なお、ゲームプログラム、画像データおよび音データ等は、ROM28aから一度に全部、または部分的かつ順次的に読み出され、RAM48に記憶(ロード)される。
GPU50およびGPU52は、それぞれ、描画手段の一部を形成し、たとえばシングルチップASICで構成され、CPUコア42からのグラフィックスコマンド(graphics command :作画命令)を受け、そのグラフィックスコマンドに従ってゲーム画像データを生成する。ただし、CPUコア42は、グラフィックスコマンドに加えて、ゲーム画像データの生成に必要な画像生成プログラム(ゲームプログラムに含まれる。)をGPU50およびGPU52のそれぞれに与える。
また、GPU50には、第1のビデオRAM(以下、「VRAM」という。)56が接続され、GPU52には、第2のVRAM58が接続される。GPU50およびGPU52が作画コマンドを実行するにあたって必要なデータ(画像データ:キャラクタデータやテクスチャ等のデータ)は、GPU50およびGPU52が、それぞれ、第1のVRAM56および第2のVRAM58にアクセスして取得する。なお、CPUコア42は、描画に必要な画像データをGPU50およびGPU52を介して第1のVRAM56および第2のVRAM58に書き込む。GPU50はVRAM56にアクセスして描画のためのゲーム画像データを作成し、GPU52はVRAM58にアクセスして描画のためのゲーム画像データを作成する。
VRAM56およびVRAM58は、LCDコントローラ60に接続される。LCDコントローラ60はレジスタ62を含み、レジスタ62はたとえば1ビットで構成され、CPUコア42の指示によって「0」または「1」の値(データ値)を記憶する。LCDコントローラ60は、レジスタ62のデータ値が「0」である場合には、GPU50によって作成されたゲーム画像データをLCD12に出力し、GPU52によって作成されたゲーム画像データをLCD14に出力する。また、LCDコントローラ60は、レジスタ62のデータ値が「1」である場合には、GPU50によって作成されたゲーム画像データをLCD14に出力し、GPU52によって作成されたゲーム画像データをLCD12に出力する。
なお、LCDコントローラ60は、VRAM56およびVRAM58から直接ゲーム画像データを読み出したり、GPU50およびGPU52を介してVRAM56およびVRAM58からゲーム画像データを読み出したりする。
I/F回路54には、操作スイッチ20、タッチパネル22およびスピーカ32が接続される。ここで、操作スイッチ20は、上述したスイッチ20a,20b,20c,20d,20e,20Lおよび20Rであり、操作スイッチ20が操作されると、対応する操作信号(操作データ)がI/F回路54を介してCPUコア42に入力される。また、タッチパネル22からの座標データがI/F回路54を介してCPUコア42に入力される。さらに、CPUコア42は、ゲーム音楽(BGM)、効果音またはゲームキャラクタの音声(擬制音)などのゲームに必要な音データをRAM48から読み出し、I/F回路54を介してスピーカ32から出力する。
図3(A)はLCD14に表示されるゲーム画面の一例を示す図解図である。このゲーム画面100には、文字や線画(以下、「文字等」ということがある。)を表示するための領域(作業領域)102が設けられる。この作業領域102は、LCD14の表示面の中心を含む一定範囲に設定される。
なお、RAM48には、作業領域(第1表示領域)102よりも広い領域の画像データ(全体画像データ482c:図7参照。)が記憶される。そして、その画像データの一部が第1のVRAM56または第2のVRAM58に読み出されて作業領域102に表示される。
図3(A)〜図3(C)では省略するが、上述したように、LCD14上にはタッチパネル22が設けられ、このタッチパネル22では、図4に示すように、作業領域102に対応して第1操作領域120が設定される。この第1操作領域120にタッチオン(タッチ入力)すると、つまりタッチ操作の開始時点に作業領域102を指示すると、文字等を入力するモード(入力モード)が設定され、そのタッチ操作(タッチオン)に続けてスティック24をスライドさせると、つまりドラッグ操作すると、当該ドラッグ操作に従って文字等を入力(描画)することができる。
たとえば、ユーザは、タッチパネル22の第1操作領域120を、スティック24等により撫でるように操作(ドラッグ操作)すると、当該ドラッグ操作に応じた座標点群がタッチパネル22で検出される。タッチパネル22は、各座標点に対応する座標データを入力する。CPUコア42は、タッチパネル22への入力の有無を一定時間(1フレーム:画面更新単位時間(1/60秒))毎に検出する。つまり、CPUコア42は、タッチ座標すなわちタッチパネル22から座標データが入力されるか否かを1フレーム毎に検出する。タッチパネル22から座標データが入力されない場合には、画面が更新されても、表示内容が変化されることはない。一方、タッチパネル22から座標データが入力された場合には、当該座標データが示すLCD14の座標位置すなわちドットと、前回の座標データが示すLCD14のドットとを結ぶ線(座標(ドット)群)に所定の色を付す(表示する)。したがって、図3(A)に示すように、文字等がLCD14に描画される。
この実施例では、作業領域102よりも広い仮想空間で文字等の描画が可能であり、上述したように、RAM48には作業領域102よりも広い仮想空間の画像データ(全体画像データ482c)を記憶可能である。また、タッチパネル22から入力された座標データに基づくドット群データ(座標データ群)はRAM48に記憶される。具体的には、CPU42により、タッチパネル22から入力された座標データが仮想空間の中での座標データに変換され、変換後の座標データに基づくドット群データがRAM48に記憶される。そして、RAM48に記憶された全体画像データ482cのうち、一部領域についての画像データ(以下、「一部画像データ」ということがある。)がVRAM56上またはVRAM58上に読み出されて、LCD14に表示される。具体的には、CPUコア42が1フレーム毎にGPU52に画像生成の指示および画像生成プログラムを与えることにより、GPU52がRAM48上の一部領域のドット群データをVRAM56またはVRAM58上に読み出し、CPUコア42の指示の下、LCDコントローラ60によって当該一部領域のドット群データに対応する画像がLCD14に表示される。
また、描画される文字等の色は、ユーザが任意に選択可能である。図示は省略するが、色を選択するためのメニュー画面を表示し、当該メニュー画面で描画する文字等の色を決定することができる。
上述したように、この実施例は、作業領域102に文字等を描画することにより、作業領域102よりも広い仮想空間上で文字等を描画できるようにしたものである。ただし、他の実施例として、アイコン(ボタン)の画像を含む仮想空間の画像データをRAM48に記憶しておき、その仮想空間の一部領域を作業領域102に表示し、作業領域102に表示された当該アイコン画像が指示(タッチオン)されると、予めアイコン画像に設定される所定の処理を実行したり、当該アイコン画像を移動させたりすることもできる。所定の処理としては、プレイヤキャラクタ(図示せず)に任意のアクションをさせたり、画面を更新したりするなどゲームの種類に応じて様々である。また、プレイヤキャラクタや敵キャラクタ等の移動オブジェクトを含む仮想空間の一部領域を作業領域102に表示し、作業領域102に表示されたプレイヤキャラクタや敵キャラクタをタッチすることにより、予め定める処理を実行するようにしても良い。
また、図3(A)〜図3(C)に示すように、ゲーム画面100には、作業領域102を囲むように、スクロール開始領域(第2表示領域)104が設けられる。このスクロール開始領域104に対応して、図4に示すように、タッチパネル22に第2操作領域122が設定される。スクロール開始領域104は、文字等を入力するモード(入力モード)から、作業領域102に表示される画像(画面)を変化(この実施例では、スクロール)させるための操作に移行するための領域である。また、スクロール開始領域104は、作業領域102に表示される画面とは異なり、LCD14(ゲーム画面100)において所定の画像(たとえば、黒色の画像)が固定的に表示され、スクロールされることはない。つまり、スクロール開始領域104は、ユーザによって視認可能である。
なお、この実施例では、作業領域102、第1操作領域120を矩形領域にし、それを囲むようにスクロール開始領域104、第2操作領域122を配置した。しかし、他の例では、作業領域102,第1操作領域120を円形領域や楕円形領域にし、それを囲むようにスクロール開始領域104、第2操作領域122を配置するようにしてもよい。
たとえば、タッチ入力していない(タッチオフの)状態で、スクロール開始領域104すなわち第2操作領域122をタッチ入力する(タッチオン)と、ゲーム画面100をスクロールするモード(スクロールモード)が設定される。つまり、入力モードからスクロールモードに変化される。具体的には、図3(B)に示すように、作業領域102すなわち第2操作領域122をタッチオンすると、スクロールモードが設定される。そして、タッチオンに続いて、図3(C)の白抜き矢印で示すように、スティック24をスライドさせると、つまりドラッグ操作すると、このドラッグ操作に従ってゲーム画面100(厳密には、作業領域102に表示される画面)がスクロールされる。具体的には、RAM48に記憶される仮想空間(全領域)の画像データすなわち全体画像データ482cの中で作業領域102に表示される表示領域の位置がドラッグ操作に従って移動する。この実施例では、スクロール方向は、ドラッグ操作によるスティック24の移動方向(ドラッグ方向)と同じ向きである。また、スクロール量は、ドラッグ操作の長さ(距離)と同じまたは所定の比率を掛けた長さ(距離)である。図示は省略するが、ドラッグ操作を終了すると、つまりタッチオフすると、スクロールモードから入力モードに変化される。
ただし、一旦スクロールモードが設定されると、解除(タッチオフ)されるまでは、作業領域102上をドラッグ操作したとしても、文字等が入力(表示)されることはなく、スクロールが実行(継続)される。
また、入力モードで文字等を描画しているときに、作業領域102からスクロール開始領域104に侵入してしまった場合には、スクロールモードに変化されることはなく、入力モードが維持される。つまり、上述したように、タッチオフの状態で、スクロール開始領域104をタッチオンした場合にのみ、スクロールモードが設定されるのである。
なお、入力モードで文字等を描画しているときに、作業領域102からスクロール開始領域104に侵入して、一定時間スクロール開始領域104にとどまっている場合には、スクロールモードに変化させるようにしてもよい。
また、この実施例では、RAM48に記憶された全体画像データ482cの一部(一部画像データ)を作業領域102にのみ表示するようにし、作業領域102に表示された一部画像データをスクロールさせるようにした。ただし、他の実施例として、RAM48に記憶された全体画像データ482cの一部画像データを作業領域102とスクロール開始領域104とをあわせた領域(LCD14の表示領域)に表示するようにし、スクロール開始領域104(第2操作領域122)をタッチオンしてドラッグ操作したときに、作業領域102とスクロール開始領域104とをあわせた領域すなわち表示領域に表示された一部画像データをスクロールさせるようにしてもよい。この場合、スクロール開始領域104には半透明の画像(半透明画像)を固定的に表示するようにし、スクロール開始領域104では、その半透明画像を透過して、一部画像データを表示されるようにすることができる。そうすることにより、一部画像データが表示される領域を狭くすることなく、スクロール開始領域104を設定することができる。つまり、LCD14の表示領域(表示面)を効果的に使用することができる。
たとえば、この実施例のゲーム装置10では、クロスワードのようなパズルゲームをプレイすることができる。ただし、パズルゲームは、クロスワードに限らず、他のゲームであってもよく、たとえば、株式会社ニコリがWebページ(http://www.nikoli.co.jp/puzzle/)で提供するパズルゲームなどをプレイすることが可能である。図5(A)に示すように、パズルゲームについての仮想空間200には、複数(ここでは、18個)の文字入力領域202および背景オブジェクト204が設けられる。たとえば、図5(A)の斜線を付した四角枠(LCD14の表示範囲(表示領域))で示す仮想空間200の一部の領域(一部領域)が、図5(B)に示すように、ゲーム画面100としてLCD14に表示される。ただし、図5(B)においては、簡単のため、作業領域102およびスクロール開始領域104は省略してあるが、図3(A)および図3(B)に示したように、固定的に設けられる。また、一部領域の大きさ(範囲)は、LCD14の表示面の大きさによって、予めゲーム開発者やプログラマによって設定される。
なお、図5(A)に示すような仮想空間200の全体をLCD12に表示するようにしておけば、ユーザは仮想空間200、たとえばパズル全体を見て所望の方向にLCD14に表示されたゲーム画面100をスクロールさせて、所望の画面を作業領域102に表示させることができる。かかる場合には、全体画像データ482cが縮小されて(間引かれて)、VRAM56上またはVRAM58上に読み出され、LCD12に表示される。
上述したように、ユーザがスティック24を用いて、第1操作領域120(作業領域102)をタッチオンした場合には、タッチオンから連続するドラッグ操作により、文字等を描画することができる。具体的には、第1操作領域120(文字入力領域202)内でタッチオンした場合には、文字等を描画することができる。図5(B)では、ユーザが、或る文字入力領域202に文字(ここでは、アルファベットの「A」)を描画した状態のゲーム画面100が示される。
なお、第1操作領域120内をタッチオンした場合であってもその位置に背景オブジェクト204が表示されている場合には、文字等を描画することはできない。
また、ユーザがスティック24を用いて、第2操作領域122(スクロール開始領域104)をタッチオンした場合には、タッチオンから連続するドラッグ操作により、ゲーム画面100すなわち作業領域102をスクロールさせることができる。つまり、仮想空間200のうちLCD14に表示される一部領域を移動させることができる。図6(A)は、ユーザのドラッグ操作を、仮想空間200上に表した概念図である。また、図6(B)は、図6(A)に示すようなドラッグ操作に応じて、仮想空間200に設けられる仮想カメラ(図示せず)の注視点が移動される様子を示す図解図である。ユーザが、スティック24を用いて、第2操作領域122(スクロール開始領域104)にタッチオンし、図6(A)に示すように、右斜め下方向にドラッグ操作すると、これに従って、図6(B)に示すように、仮想カメラの注視点が、ドラッグ方向とは逆向き、すなわち左斜め上方に移動(変化)される。ただし、上述したように、スクロール量はドラッグ操作の距離(長さ)と同じ距離または所定の比率を掛けた距離であるため、注視点の移動量はドラッグの長さ(距離)と同じ距離または所定の比率を掛けた距離である。
なお、図示は省略するが、ゲーム開始時点では、たとえば、注視点は仮想空間200の中心位置に設定され、LCD14には、仮想空間200の中心を含む一部領域がゲーム画面100として表示される。
上述したように、座標データは1フレーム毎に検出されるため、ドラッグ操作は1フレーム毎に検出可能である。また、ゲーム画面100は、1フレーム毎に検出される。したがって、ドラッグ操作に従う画面のスクロールも1フレーム毎に実行する必要がある。
たとえば、ドラッグ操作の開始時点(タッチオン時)のタッチ座標をP1(x1,y1)とし、タッチオフされる(ドラッグ操作終了する)までの間に、1フレーム毎に検出されるタッチ座標をP2(x2,y2)とすると、開始時点を基準(始点)とするドラッグ操作のベクトルP12/(「/」はベクトルを意味する。)は、数1に従って算出することができる。
[数1]
P12/=(x2−x1,y2−y1)
このベクトルP12/の方向と逆の方向が、カメラ基準点を始点とし移動後の注視点を終点とするベクトルの方向である。ここで、カメラ基準点とは、スクロールが開始された時点における仮想カメラの注視点である。また、移動後の注視点の位置は、カメラ基準点からベクトルP12/とは逆向きの方向に、当該ベクトルP12/のスカラ或いはそのスカラに所定の比率を掛けた長さだけ移動した点に決定される。具体的には、カメラ基準点からの移動量D(X軸方向の移動量Dx,Y軸方向の移動量Dy)は、数2に従って算出される。
[数2]
D=√{(Dx)+(Dy)}
Dx=−(x2−x1)×α
Dy=−(y2−y1)×α
ただし、αは上述した所定の比率である。したがって、比率αを1に設定すれば、注視点の移動量Dは、ドラッグ操作の長さと同じ距離に設定される。また、比率αを1よりも大きい値に設定すれば、注視点の移動量Dは、ドラッグ操作の長さよりも長い距離に設定される。さらに、比率αを1よりも小さい値(ただし、α>0)に設定すれば、注視点の移動量Dは、ドラッグ操作の長さよりも短い距離に設定される。この比率αの値は、ゲーム(この実施例では、パズルゲーム)のプログラマないし開発者が予め設定することができ、また、ユーザがメニュー画面等で自由に設定(変更)することもできる。
このように、ユーザのドラッグ操作に従って、注視点を更新するので、ドラッグ操作の方向および距離に対応して、LCD14に表示されるゲーム画面100すなわち作業領域102に表示される画面がスクロールされるのである。
なお、この実施例では、仮想カメラの注視点を変更することにより、作業領域102に表示される画面がスクロールされるようにしたが、RAM48に記憶される全体画像データ482cのうち作業領域102に表示する一部領域の基準座標(例えば、作業領域102の左上隅の位置)を変更することにより、作業領域102に表示される一部領域すなわち画面がスクロールするようにしてもよい。
また、この実施例では、タッチオン時のタッチ座標P1(x1,y1)からその後のタッチ座標P2(x2,y2)に向かうベクトルP12/に基づき、カメラの注視点を、タッチオン時におけるカメラの注視点の位置を基準として、ベクトルP12/とは逆の方向に移動するようにした。しかしながら、他の実施例として、或るフレームnで検出されたタッチ座標から次のフレームn+1で検出されたタッチ座標に向かうベクトルP12/´に基づき、カメラの注視点を、フレームnにおけるカメラの注視点の位置を基準として、ベクトルP12/´とは逆の方向に移動するようにしてもよい。
図7は図2に示したRAM48のメモリマップの一例を示す図解図である。この図7を参照して、RAM48は、プログラム記憶領域480およびデータ記憶領域482を含む。プログラム記憶領域480は、ゲームプログラム(画像表示処理プログラムを含む。)を記憶し、このゲームプログラムは、メイン処理プログラム480a、タッチ入力検出プログラム480b、タッチ位置検出プログラム480c、入力操作判定プログラム480d、画像生成プログラム480e、画像表示プログラム480fおよびスクロールプログラム480gなどによって構成される。
メイン処理プログラム480aは、仮想ゲームのメインルーチンを処理するためのプログラムである。タッチ入力検出プログラム480bは、一定時間(1フレーム)毎に、タッチ入力の有無を検出し、後述するタッチ入力フラグ482hのオン(成立)/オフ(不成立)を設定するためのプログラムである。また、タッチ入力検出プログラム480bは、タッチ入力が有る場合には、そのタッチ入力に応じてタッチパネル22から入力される座標データを後述する座標バッファ482dに記憶(一時記憶)するためのプログラムでもある。ただし、タッチ入力の有無は、タッチパネル22から座標データが入力されるか否かで判断される。
タッチ位置検出プログラム480cは、タッチ入力検出プログラム480bに従って検出された座標データが示すタッチ座標(タッチ位置)が第1操作領域120および第2操作領域122のいずれに含まれるかを検出するためのプログラムである。具体的には、CPUコア42は、後述する領域データ482bを参照して、タッチ座標が第1操作領域120または第2操作領域122のいずれに含まれるかを検出する。
入力操作判定プログラム480dは、ユーザによるタッチ入力がスクロール操作であるか否かを判定するためのプログラムである。上述したように、入力モードにおいて、タッチオフの状態からタッチオンの状態となり、このときのタッチ座標が第2操作領域122に含まれる場合には、スクロール操作が開始したと判定され、スクロールモードが設定される。スクロールモードは、タッチオンの状態からタッチオフの状態になると、解除される。つまり、入力モードが設定される。
画像生成プログラム480eは、後述するオブジェクトデータ482aを用いて、背景オブジェクトやキャラクタ(アイコン、文字、図形、記号など)の画像を生成(描画)したり、ユーザが描画する文字等を含む画像を生成(描画)したりするためのプログラムである。画像表示プログラム480fは、画像生成プログラム480eに従って生成された画像をLCD12またはLCD14に表示するためのプログラムである。スクロールプログラム480gは、作業領域102に表示される画面をスクロールするためのプログラムである。
なお、図示は省略するが、プログラム記憶領域480には、音再生プログラムやバックアッププログラムなども記憶される。音再生プログラムは、仮想ゲームに必要な音(音楽)を再生するためのプログラムである。バックアッププログラムは、仮想ゲームの進行に従って発生する途中データまたは結果データをメモリカード28のRAM28bに記憶(セーブ)するためのプログラムである
データ記憶領域482には、オブジェクデータ482a、領域データ482bおよび全体画像データ482cが記憶される。オブジェクトデータ482aは、背景オブジェクトやキャラクタの画像を生成するためのデータ(ポリゴンデータ、テクスチャデータなど)である。領域データ482bは、タッチパネル22に対して設定される第1操作領域120および第2操作領域122に含まれる複数の座標(ドット)についての座標データ群である。領域データ482bは、第1操作領域120の座標データ群と第2操作領域122の座標データ群とに分けて記憶される。ただし、この実施例では、タッチパネル22の検出面を、第1操作領域120および第2操作領域122の2つの領域に分割するようにしているため、第1操作領域120の座標データ群および第2操作領域122の座標データ群のいずれか一方のみを記憶しておけば、当該一方に含まれない座標データは他方に含まれることが分かる。なお、領域データ482bは、タッチパネル22の座標がどの領域に属するかを判定するための数式データ等であってもよい。全体画像データ482cは、上述したような仮想空間200の全体に対応する画像データであり、仮想空間200の全体をLCD12に表示(縮小表示)したり、その一部領域をゲーム画面100としてLCD14に表示したりするために用いられる。
また、データ記憶領域482には、座標バッファ482dが設けられ、座標バッファ482dには、タッチ入力検出プログラム480bに従って検出された座標データが記憶(一時記憶)される。さらに、データ記憶領域482には、ドラッグ開始点の座標データ(開始点データ)482e、カメラ基準点の座標データ(基準点データ)482fおよびカメラ注視点の座標データ(注視点データ)482gが記憶される。開始点データ482eは、座標バッファ482dに記憶された座標データのうち、スクロール開始と判断された時点にタッチパネル22から入力された座標データであり、この座標データがコピーされる。基準点データ482fは、スクロール開始と判断された時点における仮想カメラの注視点についての座標データである。注視点データ482gは、仮想カメラの現在の注視点についての座標データである。
さらに、データ記憶領域482には、タッチ入力フラグ482hおよびスクロール処理フラグ482iが記憶される。タッチ入力フラグ482hは、上述したように、タッチ入力検出プログラム480bに従って、オン/オフが設定されるフラグであり、タッチ入力が有る(タッチオン)場合に、当該フラグ482hはオンされ、タッチ入力が無い(タッチオフ)場合に、当該フラグ482hはオフされる。たとえば、タッチ入力フラグ482hは、1ビットのレジスタで構成され、当該フラグ482hがオンされる場合には、レジスタにデータ値「1」が設定され、当該フラグ482hがオフされる場合には、レジスタにデータ値「0」が設定される。また、スクロール処理フラグ482iは、スクロール中か否かを判定するためのフラグであり、後述するタッチパネル判定処理(図8参照)において、オン/オフされる。スクロール中では、スクロール処理フラグ482iはオンされ、スクロール中でない場合には、当該フラグ482iはオフされる。このスクロール処理フラグ482iもまた、1ビットのレジスタによって構成され、当該フラグ482iがオンされる場合には、レジスタにデータ値「1」が設定され、当該フラグ482iがオフされる場合には、レジスタにデータ値「0」が設定される。
なお、図示は省略するが、データ記憶領域482には、音(音楽)データやゲームデータ(途中データ、結果データ)等の他のデータやイベントフラグ等の他のフラグも記憶される。
上述したような動作を、図2に示したCPUコア42は、図8に示すフロー図に従って処理する。この図8に示すフロー図は、画像表示処理を示し、この処理とは別に、ゲームメイン処理(図示せず)が実行される。ゲームメイン処理とは、例えば、文字入力領域202に描画された文字が正解の文字かどうかを判定したり、それに応じて得点を与えたりする処理などである。
図8を参照して、CPUコア42は画像表示処理を開始すると、ステップS1で、タッチパネル22への入力があるかどうかを判断する。ステップS1で“NO”であれば、つまりタッチパネル22への入力がなければ、タッチオフであると判断して、ステップS3で、タッチ入力フラグ482hをオフし、ステップS5で、スクロール処理フラグ482iをオフして、画像表示処理を終了する。なお、図示は省略するが、スクロール処理フラグ482iがオフされると、スクロールモードから入力モードに変化される。
しかし、ステップS1で“YES”であれば、つまりタッチパネル22への入力があれば、タッチオンであると判断して、ステップS7で、タッチ座標を取得する。つまり、検出した座標データを座標バッファ482dに一時記憶する。次のステップS9では、タッチ入力フラグ482hがオフであるかどうかを判断する。具体的には、このステップS9では、タッチオンの状態が継続しているか、またはタッチオフの状態からタッチオンの状態に変化したかどうかを判断しているのである。ステップS9で“NO”であれば、つまりタッチ入力フラグ482hがオンであれば、タッチオンの状態が継続していると判断して、そのままステップS21に進む。一方、ステップS9で“YES”であれば、つまりタッチ入力フラグ482hがオフであれば、タッチオフの状態からタッチオンの状態に変化したと判断し、ステップS11で、タッチ入力フラグ482hをオンする。
続いて、ステップS13では、タッチ座標が第2操作領域122内であるかどうかを判断する。具体的には、このステップS13では、領域データ482bを参照して、ステップS7で検出された座標データが示すタッチ座標が第2操作領域122に含まれるかどうかにより、スクロール操作であるか否かを判断する。ステップS13で“NO”であれば、つまりタッチ座標が第1操作領域120内である場合には、スクロール操作でないと判断して、ステップS15で、他の処理の初期化処理を実行し、ステップS21に進む。この実施例では、ステップS15において、入力モードにおける初期化処理が実行される。具体的には、描画座標(変数)を、現在のタッチ座標で初期化する。つまり、現在のタッチ座標を描画座標(以下、説明の都合上、「現在の描画画像」という。)に代入する。
しかし、ステップS13で“YES”であれば、つまりタッチ座標が第2操作領域122内である場合には、スクロール操作を開始したと判断して、ステップS17で、スクロール処理フラグ482iをオンし、ステップS19で、後述するスクロール処理の初期化処理(図9参照)を実行して、ステップS21に進む。つまり、ステップS17では、スクロールモードが設定される。
ステップS21では、スクロール処理中であるかどうかを判断する。つまり、スクロール処理フラグ482iがオンであるかどうかを判断する。スクロール処理フラグ482iがオンであれば、ステップS21で“YES”となり、ステップS23で、後述するスクロール処理(図10参照)を実行して、ステップS27に進む。しかし、スクロール処理フラグ482iがオフであれば、ステップS25で、他の処理を実行して、ステップS27に進む。具体的には、ステップS25では、前回の(1フレーム前の)描画座標を保存し、最新のタッチ座標を現在の描画座標として取得する。つまり、現在の描画座標および前回の描画座標を更新する。そして、前回の描画座標から現在の描画画像までを直線で結ぶ。ただし、厳密に言うと、前回の描画座標から現在の描画画像までを直線で結ぶ処理は、GPU50がVRAM56上で実行し、または、GPU52がVRAM58上で実行し、CPUコア42は、その処理の指示を与えるだけである。
ステップS27では、表示する画像の範囲を設定する。つまり、仮想空間200(全体画像データ482c)のうち、仮想カメラの注視点を中心とする所定範囲すなわち一部領域(一部画像データ)を、VRAM56上またはVRAM58上に読み出す。このとき、上述したように、他の処理25によって、文字等が入力されたり、アイコン等が指示または移動されたりすれば、その内容も反映される。そして、ステップS29では、画像表示制御を実行して、画像表示処理を終了する。具体的には、ステップS29では、LCDコントローラ60に画像表示の指示を与え、これに応じて、LCDコントローラ60が、ステップS27でVRAM56上またはVRAM58上に読み出された一部画像データをLCD14に出力する。したがって、ゲーム画面100が表示される。
なお、図8に示す画像表示処理は、1フレーム毎に実行され、したがって、ステップS27,S29の処理により、1フレーム毎に更新されるゲーム画面100に、文字等の入力や画面のスクロールが反映される。
図9はスクロール処理の初期化処理を示すフロー図である。図9を参照して、CPUコア42は、スクロール初期化処理を開始すると、ステップS41で、タッチ座標をドラッグ開始点として保存する。つまり、ステップS7で座標バッファ482dに記憶された座標データを、開始点データ482eとして、データ記憶領域482に記憶(コピー)する。続くステップS43では、仮想カメラの注視点の座標(注視点座標)を、カメラ基準点として保存して、スクロール処理の初期化処理をリターンする。つまり、ステップS43では、注視点データ482gを、基準点データ482fとして記憶(コピー)する。
図10はスクロール処理を示すフロー図である。図10を参照して、CPUコア42は、スクロール処理を開始すると、ステップS51で、ドラッグ開始点から現タッチ座標へのベクトルを算出する。つまり、開始点データ482eが示す座標を始点とし、現在のタッチ座標を終点とするベクトルを算出する。ただし、スクロールが開始された当初では、ドラッグ開始点と現タッチ座標とは一致するため、ステップS51の処理によって、ベクトルは算出されない。続くステップS53で、カメラ基準点からドラッグ方向とは逆方向に移動させた点を仮想カメラの注視点(カメラ注視点)に設定して、スクロール処理をリターンする。つまり、ステップS53では、ステップS51で数1に算出したベクトルの方向とは逆向きで、当該ベクトルのスカラと同じ大きさ(距離)または所定の比率を掛けた大きさ(距離)だけカメラ注視点を移動させる。ただし、カメラ注視点の移動量Dは、数2に従って算出される。すなわち、ステップS53では、注視点データ482gが更新される。したがって、仮想カメラで撮影される仮想空間200の範囲(領域)が変化され、これにより、作業領域102に表示される画面がドラッグ方向にスクロールされる。
この実施例によれば、ユーザのドラッグ操作の方向に画面がスクロールされるので、任意の方向にスクロールさせることができる。また、スクロール開始領域をタッチオンした場合には、スクロールを開始し、作業領域をタッチオンした場合には、文字等の入力を実行できるので、タッチ操作が簡単である。すなわち、操作性を向上させることができる。
なお、上述の実施例では、スクロール開始領域に対応してタッチパネル上に固定的に第2操作領域を設定して、スクロール処理を実行するかどうかを判断するようにしたが、タッチオンしたオブジェクトの種類によって、スクロール処理を実行するかどうかを判断するようにしてもよい。たとえば、図11に示すように、仮想空間200において、文字入力領域202以外の領域すなわち背景オブジェクト204が配置される領域をスクロールの開始領域に設定し、当該領域204がタッチオンされた場合に、ドラッグ操作に従って仮想カメラの注視点を移動させ、作業領域102をスクロールさせることもできる。この場合、背景オブジェクト204はスクロールに従って移動されるため、スクロール開始領域も移動されることになる。ただし、背景オブジェクト204が配置される領域以外でタッチオンした場合には、作業領域102はスクロールされない。
また、上述の実施例では、仮想空間が2次元の空間であったが、他の例では、仮想空間が3次元の空間であってもよい。この場合、タッチ座標に対応する仮想空間の地点の3次元座標に基づいて、注視点を移動させる方向およびその移動量を算出することができる。
また、上述の実施例では、入力装置としてタッチパネルを用いるようにし、作業領域およびスクロール開始領域に対応して、当該タッチパネルに第1操作領域および第2操作領域を設定したため、タッチ座標が第1操作領域および第2操作領域のいずれに含まれるかを判断することにより、作業領域またはスクロール開始領域がタッチオンされたかどうかを判断するようにした。ただし、タッチ座標をLCD14の表示座標に変換して、第1操作領域および第2操作領域のいずれを指示しているかを直接的に検出するようにしてもよい。かかる場合には、図8に示したステップS13において、タッチ座標(操作位置)がスクロール開始領域に含まれるか否かが判断される。
さらに、上述の実施例では、入力装置として、タッチパネル22を用いた場合について説明したが、他の入力装置を用いるようにしてもよい。たとえば、コンピュータマウスを用いることもできる。かかる場合には、図示は省略するが、コンピュータマウスがゲーム装置10に接続される。また、たとえば、図12に示すように、LCD14に表示されるゲーム画面100に、いわゆるマウスポインタ106が表示される。周知のとおり、このマウスポインタ106がコンピュータマウスの操作に従ってゲーム画面100上で移動される。ただし、図12のゲーム画面100の例では、マウスポインタ106の移動に従って文字等が入力(描画)される様子を示してある。
たとえば、コンピュータマウスを用いる場合には、マウスポインタ106が作業領域102内を指示しているときに、ユーザが入力操作を開始すると、つまりクリックオフの状態からクリックオンの状態になると、入力モードが設定され、クリックオンに継続するドラッグ操作により、文字等を入力することができる。また、マウスポインタ106がスクロール開始領域104内を指示しているときに、ユーザが入力操作を開始すると、スクロールモードが設定され、クリックオンに継続するドラッグ操作により、作業領域102に表示される画面がスクロールされる。コンピュータマウスがクリックオフされると、スクロールモードから入力モードに移行される。図示は省略するが、文字等の入力方法やスクロール方法は、上述した実施例の場合と同じである。
このように、操作入力の開始時点(クリックオフの状態からクリックオンの状態に変化する時点)において、マウスポインタ106が示すLCD14上の位置(操作位置)が作業領域102およびスクロール開始領域104のいずれに含まれるかを判断するようにしても、その判断結果に応じて、入力モードを設定したり、スクロールモードを設定したりすることができるのである。
なお、マウスポインタ106のような指示画像を表示して、これを移動させることにより、画面操作を行う場合には、タッチパネル22およびスティック24をゲーム装置10に設ける必要はない。
また、上述の実施例(図1)に示すような携帯型のゲーム装置10では、コンピュータマウスを用いずに、十字スイッチ20aとAボタン20dとを用いて、マウスポインタ106を移動(十字スイッチ20aの少なくとも一方向のボタンをオン)させたり、クリック(Aボタン20dのオン/オフ)したり、ドラッグ(十字スイッチ20aの少なくとも一方向のボタンをオンするとともに、Aボタン20dを押し(オン)つづける。)したりするようにしてもよい。
さらにまた、上述の実施例では、2つのLCDを設けて2つのゲーム画面を表示する場合について説明したが、1つのLCDを設けて、これに対応してタッチパネルを設けておき、当該LCDに1つのゲーム画面を表示するようにしてもよい。
また、上述の実施例では、2つのLCDを設けたゲーム装置について説明したが、1つのLCDの作業領域を2つに分割し、少なくともいずれか一方の作業領域に対応してタッチパネルを設けるようにしてもよい。この場合、縦長のLCDを設ける場合には、縦に2つ作業領域が並ぶようにLCDの作業領域を分割し、横長のLCDを設ける場合には、横に2つの作業領域が並ぶようにLCDの作業領域を分割するようにすればよい。
図1はこの発明のゲーム装置の一例を示す図解図である。 図2は図1に示すゲーム装置の電気的な構成を示すブロック図である。 図3はゲーム画面の例およびタッチ操作の例を示す図解図である。 図4はタッチパネルに設定される第1操作領域および第2操作領域の一例を示す図解図である。 図5は仮想空間におけるLCDの表示範囲およびLCDの表示範囲に対応するゲーム画面の他の例を示す図解図である。 図6は仮想空間上にドラッグ操作を表した概念図およびドラッグ操作に応じた注視点の移動を示す図解図である。 図7は図2に示すゲーム装置に内蔵されるRAMのメモリマップを示す図解図である。 図8は図2に示すCPUコアの画像表示処理を示すフロー図である。 図9は図2に示すCPUコアのスクロール処理の初期化処理を示すフロー図である。 図10は図2に示すCPUコアのスクロール処理を示すフロー図である。 図11は仮想空間座標系でスクロールの開始を判定する場合の判定領域を示す図解図である。 図12はLCDに表示されるゲーム画面のその他の例を示す図解図である。
符号の説明
10 …ゲーム装置
12,14 …LCD
16,16a,16b …ハウジング
20 …操作スイッチ
22 …タッチパネル
24 …スティック
28 …メモリカード
28a …ROM
28b,48 …RAM
40 …電子回路基板
42 CPUコア
50,52 …GPU
54 …I/F回路
56,58 …VRAM
60 …LCDコントローラ

Claims (26)

  1. 仮想空間の一部領域を表示する表示器を備え、操作入力に応じて、画像を描画しまたは表示された画像に対して予め設定された所定の処理を行う画像表示処理装置の画像表示処理プログラムであって、
    前記画像表示処理装置のプロセサに、
    前記操作入力に基づいて前記表示器の画面上の操作位置を検出する操作位置検出ステップ、
    前記操作位置検出ステップによって検出された操作位置が前記表示器の表示領域に含まれる第1表示領域および第2表示領域のいずれに含まれるかを判定する判定ステップ、
    前記判定ステップによって前記操作位置が前記第1表示領域に含まれると判定されたとき、当該操作位置に基づいて画像を描画し、または当該操作位置に対応する画像に対して予め設定された所定の処理を行う画像処理ステップ、および
    前記判定ステップによって前記操作位置が前記第2表示領域に含まれると判定されたとき、当該操作位置の移動に従って、前記仮想空間のうち前記表示領域に表示される領域を移動させる表示領域移動ステップを実行させる、画像表示処理プログラム。
  2. 前記表示領域移動ステップは、前記操作位置の移動量に応じて前記表示領域に表示される領域の移動量を決定する、請求項1記載の画像表示処理プログラム。
  3. 前記表示領域移動ステップは、前記操作位置の移動方向とは逆向きに前記表示領域に表示される領域を移動させる、請求項1または2記載の画像表示処理プログラム。
  4. 前記表示領域移動ステップは、前記操作入力の開始時点における操作位置が前記第2表示領域に含まれるときのみ、前記操作位置の移動に従って前記表示領域に表示される領域を移動させる、請求項1ないし3のいずれかに記載の画像表示処理プログラム。
  5. 前記表示領域移動ステップは、前記操作入力が有りの状態が継続している間では、前記操作位置が前記第1表示領域に含まれる場合であっても、前記操作位置の移動に従って前記表示領域に表示される領域の移動を継続する、請求項4記載の画像表示処理プログラム。
  6. 前記第1表示領域には、画像処理に関する画面が変化可能に表示され、
    前記第2表示領域には、特定の画像が固定的に表示される、請求項1ないし5のいずれかに記載の画像表示処理プログラム。
  7. 前記第1表示領域および前記第2表示領域には、画像処理に関する画面が変化可能に表示され、
    前記第2表示領域には、特定の画像が半透明表示される、請求項1ないし5のいずれかに記載の画像表示処理プログラム。
  8. 前記第1表示領域は前記表示器の表示面の中心を含む一定範囲に設定され、前記第2表示領域は前記第1表示領域を囲むように設定される、請求項1ないし7のいずれかに記載の画像表示処理プログラム。
  9. 前記画像表示処理装置は、前記表示器に関連して設けられるタッチパネルをさらに備え、
    前記操作位置検出ステップは、前記タッチパネルからの出力に基づいて検出されるタッチ座標に対応する前記操作位置を検出する、請求項1ないし8のいずれかに記載の画像表示処理プログラム。
  10. 前記タッチパネルには、前記第1表示領域に対応して第1操作領域が固定的に設定され、前記第2表示領域に対応して第2操作領域が固定的に設定され、
    前記判定ステップは、前記タッチ座標が前記第1操作領域に含まれるとき、前記操作位置が前記第1表示領域に含まれると判定し、前記タッチ座標が前記第2操作領域に含まれるとき、前記操作位置が前記第2表示領域に含まれると判定する、請求項9記載の画像表示処理プログラム。
  11. 仮想空間の一部領域を表示する表示器および当該表示器に関連して設けられるタッチパネルを備え、タッチ入力に応じて、画像を描画しまたは表示された画像に対して予め設定された所定の処理を行う画像表示処理装置の画像表示処理プログラムであって、
    前記画像表示処理装置のプロセサに、
    前記タッチパネルからの出力に基づいてタッチ座標を検出するタッチ座標検出ステップ、
    前記タッチ座標検出ステップによって検出されたタッチ座標が前記タッチパネルに設定される第1操作領域および第2操作領域のいずれに含まれるかを判定する判定ステップ、
    前記判定ステップによって前記タッチ座標が前記第1操作領域に含まれると判定されたとき、当該タッチ座標に基づいて画像を描画し、または当該タッチ座標に対応する画像に対して予め設定された所定の処理を行う画像処理ステップ、および
    前記判定ステップによって前記タッチ座標が前記第2操作領域に含まれると判定されたとき、当該タッチ座標の移動に従って、前記仮想空間のうち前記表示器の表示領域に表示される領域を移動させる表示領域移動ステップを実行させる、画像表示処理プログラム。
  12. 仮想空間の一部領域を表示する表示器および当該表示器に関連して設けられるタッチパネルを備え、タッチ入力に応じて、当該仮想空間上で画像を描画しまたは当該仮想空間上の画像に対して予め設定された所定の処理を行う画像表示処理装置の画像表示処理プログラムであって、
    前記画像表示処理装置のプロセサに、
    前記仮想空間のうち前記表示器に表示する範囲を規定する第1データを記憶または更新する第1データ記憶更新ステップ、
    前記仮想空間を表示するための画像データおよび前記第1データに基づいて、前記仮想空間の一部領域を表示するための表示データを出力する表示データ出力ステップ、
    前記表示データ出力ステップによって出力された表示データに基づいて、前記仮想空間の一部領域を前記表示器に表示する表示制御ステップ、
    前記タッチパネルからの出力に基づいてタッチ座標を検出するタッチ座標検出ステップ、
    前記タッチ座標検出ステップによって検出されたタッチ座標が前記タッチパネルに設定される第1操作領域および第2操作領域のいずれに含まれるかを判定する判定ステップ、
    前記判定ステップによって前記タッチ座標が前記第1操作領域に含まれると判定されたとき、当該タッチ座標に基づいて、前記仮想空間を表示するための画像データを更新することにより当該仮想空間に画像を描画し、または、当該タッチ座標に対応する前記仮想空間内の画像に対して予め設定された所定の処理を行う画像処理ステップ、および
    前記判定ステップによって前記タッチ座標が前記第2操作領域に含まれると判定されたとき、当該タッチ座標の移動に従って、前記第1データ記憶更新ステップが前記第1データを更新することにより、前記仮想空間のうち前記表示器に表示される前記一部領域を移動させる表示領域移動ステップを実行させる、画像表示処理プログラム。
  13. 少なくとも第1対象物と第2対象物とが配置される仮想空間の一部を画面表示する表示器および当該表示器に関連して設けられるタッチパネルを備え、タッチ入力に応じて、画像を描画しまたは表示された画像に対して予め設定された所定の処理を行う画像表示処理装置の画像表示処理プログラムであって、
    前記画像表示処理装置のプロセサに、
    前記タッチパネルからの出力に基づいてタッチ座標を検出するタッチ座標検出ステップ、
    前記タッチ座標検出ステップによって検出されたタッチ座標が、前記第1対象物が配置される第1操作領域および前記第2対象物が配置される第2操作領域のいずれに含まれるかを判定する判定ステップ、
    前記判定ステップによって前記タッチ座標が前記第1操作領域に含まれると判定されたとき、当該タッチ座標に基づいて画像を描画し、または当該タッチ座標に対応する画像に対して予め設定された所定の処理を行う画像処理ステップ、および
    前記判定ステップによって前記タッチ座標が前記第2操作領域に含まれると判定されたとき、当該タッチ座標の移動に従って、前記仮想空間のうち前記表示器の表示領域に表示される領域を移動させる表示領域移動ステップを実行させる、画像表示処理プログラム。
  14. 仮想空間の一部領域を表示する表示器を備え、操作入力に応じて、画像を描画しまたは表示された画像に対して予め設定された所定の処理を行う画像表示処理装置であって、
    前記操作入力に基づいて前記表示器の画面上の操作位置を検出する操作位置検出手段、
    前記操作位置検出手段によって検出された操作位置が前記表示器の表示領域に含まれる第1表示領域および第2表示領域のいずれに含まれるかを判定する判定手段、
    前記判定手段によって前記操作位置が前記第1表示領域に含まれると判定されたとき、当該操作位置に基づいて画像を描画し、または当該操作位置に対応する画像に対して予め設定された所定の処理を行う画像処理手段、および
    前記判定手段によって前記操作位置が前記第2表示領域に含まれると判定されたとき、当該操作位置の移動に従って、前記仮想空間のうち前記表示領域に表示される領域を移動させる表示領域移動手段を備える、画像表示処理装置。
  15. 前記表示領域移動手段は、前記操作位置の移動量に応じて前記表示領域に表示される領域の移動量を決定する、請求項14記載の画像表示処理装置。
  16. 前記表示領域移動手段は、前記操作位置の移動方向とは逆向きに前記表示領域に表示される領域を移動させる、請求項14または15記載の画像表示処理装置。
  17. 前記表示領域移動手段は、前記操作入力の開始時点における操作位置が前記第2表示領域に含まれるときのみ、前記操作位置の移動に従って前記表示領域に表示される領域を移動させる、請求項14ないし16のいずれかに記載の画像表示処理装置。
  18. 前記表示領域移動手段は、前記操作入力が有りの状態が継続している間では、前記操作位置が前記第1表示領域に含まれる場合であっても、前記操作位置の移動に従って前記表示領域に表示される領域の移動を継続する、請求項17記載の画像表示処理装置。
  19. 前記第1表示領域には、画像処理に関する画面が変化可能に表示され、
    前記第2表示領域には、特定の画像が固定的に表示される、請求項14ないし18のいずれかに記載の画像表示処理装置。
  20. 前記第1表示領域および前記第2表示領域には、画像処理に関する画面が変化可能に表示され、
    前記第2表示領域には、特定の画面が半透明表示される、請求項14ないし18のいずれかに記載の画像表示処理装置。
  21. 前記第1表示領域は前記表示器の表示面の中心を含む一定範囲に設定され、前記第2表示領域は前記第1表示領域を囲むように設定される、請求項14ないし20のいずれかに記載の画像表示処理プログラム。
  22. 前記表示器に関連して設けられるタッチパネルをさらに備え、
    前記操作位置検出手段は、前記タッチパネルからの出力に基づいて検出されるタッチ座標に対応する前記操作位置を検出する、請求項14ないし21のいずれかに記載の画像表示処理装置。
  23. 前記タッチパネルには、前記第1表示領域に対応して第1操作領域が固定的に設定され、前記第2表示領域に対応して第2操作領域が固定的に設定され、
    前記判定手段は、前記タッチ座標が前記第1操作領域に含まれるとき、前記操作位置が前記第1表示領域に含まれると判定し、前記タッチ座標が前記第2操作領域に含まれるとき、前記操作位置が前記第2表示領域に含まれると判定する、請求項22記載の画像表示処理装置。
  24. 仮想空間の一部領域を表示する表示器および当該表示器に関連して設けられるタッチパネルを備え、タッチ入力に応じて、画像を描画しまたは表示された画像に対して予め設定された所定の処理を行う画像表示処理装置であって、
    前記タッチパネルからの出力に基づいてタッチ座標を検出するタッチ座標検出手段、
    前記タッチ座標検出手段によって検出されたタッチ座標が前記タッチパネルに設定される第1操作領域および第2操作領域のいずれに含まれるかを判定する判定手段、
    前記判定手段によって前記タッチ座標が前記第1操作領域に含まれると判定されたとき、当該タッチ座標に基づいて画像を描画し、または当該タッチ座標に対応する画像に対して予め設定された所定の処理を行う画像処理手段、および
    前記判定手段によって前記タッチ座標が前記第2操作領域に含まれると判定されたとき、当該タッチ座標の移動に従って、前記仮想空間のうち前記表示器の表示領域に表示される領域を移動させる表示領域移動手段を備える、画像表示処理装置。
  25. 仮想空間の一部領域を表示する表示器および当該表示器に関連して設けられるタッチパネルを備え、タッチ入力に応じて、当該仮想空間上で画像を描画しまたは当該仮想空間上の画像に対して予め設定された所定の処理を行う画像表示処理装置であって、
    前記仮想空間のうち前記表示器に表示する範囲を規定する第1データを記憶または更新する第1データ記憶更新手段、
    前記仮想空間を表示するための画像データおよび前記第1データに基づいて、前記仮想空間の一部領域を表示するための表示データを出力する表示データ出力手段、
    前記表示データ出力手段によって出力された表示データに基づいて、前記仮想空間の一部領域を前記表示器に表示する表示制御手段、
    前記タッチパネルからの出力に基づいてタッチ座標を検出するタッチ座標検出手段、
    前記タッチ座標検出手段によって検出されたタッチ座標が前記タッチパネルに設定される第1操作領域および第2操作領域のいずれに含まれるかを判定する判定手段、
    前記判定手段によって前記タッチ座標が前記第1操作領域に含まれると判定されたとき、当該タッチ座標に基づいて、前記仮想空間を表示するための画像データを更新することにより当該仮想空間に画像を描画し、または、当該タッチ座標に対応する前記仮想空間内の画像に対して予め設定された所定の処理を行う画像処理手段、および
    前記判定手段によって前記タッチ座標が前記第2操作領域に含まれると判定されたとき、当該タッチ座標の移動に従って、前記第1データ記憶更新ステップが前記第1データを更新することにより、前記仮想空間のうち前記表示器に表示される前記一部領域を移動させる表示領域移動手段を備える、画像表示処理装置。
  26. 少なくとも第1対象物と第2対象物とが配置される仮想空間の一部を画面表示する表示器および当該表示器に関連して設けられるタッチパネルを備え、タッチ入力に応じて、画像を描画しまたは表示された画像に対して予め設定された所定の処理を行う画像表示処理装置であって、
    前記タッチパネルからの出力に基づいてタッチ座標を検出するタッチ座標検出手段、
    前記タッチ座標検出手段によって検出されたタッチ座標が、前記第1対象物が配置される第1表示領域および前記第2対象物が配置される第2表示領域のいずれに含まれるかを判定する判定手段、
    前記判定手段によって前記タッチ座標が前記第1表示領域に含まれると判定されたとき、当該タッチ座標に基づいて画像を描画し、または当該タッチ座標に対応する画像に対して予め設定された所定の処理を行う画像処理手段、および
    前記判定手段によって前記タッチ座標が前記第2表示領域に含まれると判定されたとき、当該タッチ座標の移動に従って、前記仮想空間のうち前記表示器の表示領域に表示される領域を移動させる表示領域移動手段を備える、画像表示処理装置。
JP2004335747A 2004-11-19 2004-11-19 画像表示処理プログラムおよび画像表示処理装置 Pending JP2006146556A (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2004335747A JP2006146556A (ja) 2004-11-19 2004-11-19 画像表示処理プログラムおよび画像表示処理装置
US11/274,259 US20060109259A1 (en) 2004-11-19 2005-11-16 Storage medium storing image display program, image display processing apparatus and image display method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004335747A JP2006146556A (ja) 2004-11-19 2004-11-19 画像表示処理プログラムおよび画像表示処理装置

Publications (1)

Publication Number Publication Date
JP2006146556A true JP2006146556A (ja) 2006-06-08

Family

ID=36460511

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004335747A Pending JP2006146556A (ja) 2004-11-19 2004-11-19 画像表示処理プログラムおよび画像表示処理装置

Country Status (2)

Country Link
US (1) US20060109259A1 (ja)
JP (1) JP2006146556A (ja)

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009075909A (ja) * 2007-09-21 2009-04-09 Panasonic Corp 電子機器におけるマークの位置あわせ方法
JP2011034512A (ja) * 2009-08-05 2011-02-17 Canon Inc 表示制御装置及び表示制御方法
WO2011055451A1 (ja) * 2009-11-06 2011-05-12 パイオニア株式会社 情報処理装置、その方法、および、表示装置
JP2011138355A (ja) * 2009-12-28 2011-07-14 Nintendo Co Ltd 情報処理プログラム、情報処理装置および情報処理方法
JP2013210944A (ja) * 2012-03-30 2013-10-10 Hitachi Solutions Ltd 画面操作機能を有する装置
JP2015508203A (ja) * 2012-02-10 2015-03-16 ノキア コーポレイション リモート・ユーザ・インタラクションを提供する装置及び方法
JP2015125565A (ja) * 2013-12-26 2015-07-06 日本電信電話株式会社 表示領域移動装置、表示領域移動方法、および表示領域移動プログラム
US10402080B2 (en) 2014-12-09 2019-09-03 Canon Kabushiki Kaisha Information processing apparatus recognizing instruction by touch input, control method thereof, and storage medium
JP2019207714A (ja) * 2017-05-12 2019-12-05 株式会社コロプラ 情報処理方法、コンピュータ及びプログラム
US10580249B2 (en) 2006-07-10 2020-03-03 Universal Entertainment Corporation Gaming apparatus and method of controlling image display of gaming apparatus
JP2023179072A (ja) * 2022-06-07 2023-12-19 レノボ・シンガポール・プライベート・リミテッド 情報処理装置、及び制御方法

Families Citing this family (51)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3734819B1 (ja) * 2004-07-26 2006-01-11 任天堂株式会社 ゲームプログラム、ゲーム装置、および入力装置
JP4471761B2 (ja) * 2004-07-26 2010-06-02 任天堂株式会社 ゲームプログラム、ゲーム装置、および入力装置
JP4583893B2 (ja) * 2004-11-19 2010-11-17 任天堂株式会社 ゲームプログラムおよびゲーム装置
US7564449B2 (en) * 2006-06-16 2009-07-21 Cirque Corporation Method of scrolling that is activated by touchdown in a predefined location on a touchpad that recognizes gestures for controlling scrolling functions
EP1884863A1 (en) * 2006-08-02 2008-02-06 Research In Motion Limited System and method for adjusting presentation of text and images on an electronic device according to an orientation of the device
KR101445196B1 (ko) 2007-11-23 2014-09-29 삼성전자주식회사 터치 스크린을 가지는 휴대 단말기의 문자 입력 방법 및장치
JP4662495B2 (ja) * 2007-11-30 2011-03-30 株式会社スクウェア・エニックス 画像生成装置、画像生成プログラム、画像生成プログラム記録媒体及び画像生成方法
US8947460B2 (en) 2008-04-22 2015-02-03 Htc Corporation Method and apparatus for operating graphic menu bar and recording medium using the same
TW200945165A (en) * 2008-04-22 2009-11-01 Htc Corp Method and apparatus for operating graphic menu bar and recording medium using the same
TWI361377B (en) * 2008-04-24 2012-04-01 Htc Corp Method for switching user interface, electronic device and recording medium using the same
JP2009276829A (ja) 2008-05-12 2009-11-26 Nintendo Co Ltd 情報処理プログラムおよび情報処理装置
US8619041B2 (en) * 2008-10-07 2013-12-31 Blackberry Limited Portable electronic device and method of controlling same
EP2175353A1 (en) * 2008-10-07 2010-04-14 Research In Motion Limited Portable electronic device and method of controlling same
US20100107116A1 (en) * 2008-10-27 2010-04-29 Nokia Corporation Input on touch user interfaces
EP2184671B1 (en) * 2008-10-29 2011-05-04 Giga-Byte Communications, Inc. Method and apparatus for switching touch screen of handheld electronic apparatus
KR101503850B1 (ko) * 2008-12-24 2015-03-19 삼성전자 주식회사 디스플레이장치 및 그 제어방법
JP2010157047A (ja) * 2008-12-26 2010-07-15 Brother Ind Ltd 入力装置
JP5374170B2 (ja) * 2009-01-22 2013-12-25 任天堂株式会社 情報処理プログラム、情報処理装置、情報処理システムおよび情報処理方法
US9141268B2 (en) * 2009-01-30 2015-09-22 Brother Kogyo Kabushiki Kaisha Inputting apparatus and storage medium storing program
US9143640B2 (en) * 2009-09-30 2015-09-22 Brother Kogyo Kabushiki Kaisha Display apparatus and input apparatus
KR20110074166A (ko) 2009-12-24 2011-06-30 삼성전자주식회사 디지털 컨텐츠 생성방법
EP2520076A1 (en) * 2009-12-29 2012-11-07 Nokia Corp. An apparatus, method, computer program and user interface
US11068149B2 (en) * 2010-06-09 2021-07-20 Microsoft Technology Licensing, Llc Indirect user interaction with desktop using touch-sensitive control surface
KR20120019603A (ko) * 2010-08-26 2012-03-07 삼성전자주식회사 터치 기반 입력 인터페이스를 가지는 터치 디바이스의 컨택트 리스트 제공 방법 및 장치
JP5514683B2 (ja) * 2010-09-24 2014-06-04 任天堂株式会社 情報処理プログラム、情報処理装置、情報処理システム、及び情報処理方法
JP5160680B1 (ja) * 2011-10-26 2013-03-13 株式会社コナミデジタルエンタテインメント 画像処理装置、画像処理装置の制御方法、及びプログラム
JP2013127683A (ja) * 2011-12-16 2013-06-27 Namco Bandai Games Inc プログラム、情報記憶媒体、端末、サーバ及びネットワークシステム
WO2014208691A1 (ja) * 2013-06-26 2014-12-31 京セラ株式会社 携帯機器、携帯機器の制御方法
US20150062057A1 (en) * 2013-08-30 2015-03-05 Nokia Corporation Method and Apparatus for Apparatus Input
US9524139B2 (en) 2013-10-29 2016-12-20 Dell Products, Lp System and method for positioning an application window based on usage context for dual screen display device
US9727134B2 (en) 2013-10-29 2017-08-08 Dell Products, Lp System and method for display power management for dual screen display device
US9606664B2 (en) * 2013-11-13 2017-03-28 Dell Products, Lp Dynamic hover sensitivity and gesture adaptation in a dual display system
US9613202B2 (en) 2013-12-10 2017-04-04 Dell Products, Lp System and method for motion gesture access to an application and limited resources of an information handling system
AU2015214262A1 (en) * 2014-02-04 2016-08-18 Tactual Labs Co. Low-latency visual response to input via pre-generation of alternative graphical representations of application elements and input handling on a graphical processing unit
KR20150109688A (ko) * 2014-03-20 2015-10-02 삼성전자주식회사 터치 패드를 포함하는 제어 장치와 연동하는 디스플레이 장치 및 방법
US20150268827A1 (en) * 2014-03-24 2015-09-24 Hideep Inc. Method for controlling moving direction of display object and a terminal thereof
TWD166896S (zh) * 2014-04-01 2015-04-01 緯創資通股份有限公司 可攜式電子裝置之部分
US9274620B2 (en) * 2014-04-09 2016-03-01 Wei-Chih Cheng Operating system with shortcut touch panel having shortcut function
US10521074B2 (en) 2014-07-31 2019-12-31 Dell Products, Lp System and method for a back stack in a multi-application environment
US9619008B2 (en) 2014-08-15 2017-04-11 Dell Products, Lp System and method for dynamic thermal management in passively cooled device with a plurality of display surfaces
US10101772B2 (en) 2014-09-24 2018-10-16 Dell Products, Lp Protective cover and display position detection for a flexible display screen
US9996108B2 (en) 2014-09-25 2018-06-12 Dell Products, Lp Bi-stable hinge
JP5735696B1 (ja) * 2014-11-05 2015-06-17 株式会社 ディー・エヌ・エー ゲームプログラム、及び、情報処理装置
US10317934B2 (en) 2015-02-04 2019-06-11 Dell Products, Lp Gearing solution for an external flexible substrate on a multi-use product
US10599325B2 (en) * 2015-04-14 2020-03-24 Flying Wisdom Studios Navigating virtual environments
US10824315B2 (en) * 2015-05-29 2020-11-03 Canon Medical Systems Corporation Medical image processing apparatus, magnetic resonance imaging apparatus and medical image processing method
EP3608002A4 (en) * 2017-05-22 2020-11-04 Nintendo Co., Ltd. GAME PROGRAM, INFORMATION PROCESSING DEVICE, INFORMATION PROCESSING SYSTEM AND GAME PROCESSING METHOD
CN110662587B (zh) 2017-05-22 2024-01-23 任天堂株式会社 游戏程序、信息处理装置、信息处理系统以及游戏处理方法
EP3441120A4 (en) 2017-05-22 2020-01-22 Nintendo Co., Ltd. GAME PROGRAM, INFORMATION PROCESSING DEVICE, INFORMATION PROCESSING SYSTEM, AND GAME PROCESSING METHOD
JP7052652B2 (ja) * 2018-09-06 2022-04-12 トヨタ自動車株式会社 移動ロボット、遠隔端末、移動ロボットの制御プログラム、および遠隔端末の制御プログラム
CN113633975B (zh) * 2021-08-19 2023-10-20 腾讯科技(深圳)有限公司 虚拟环境画面的显示方法、装置、终端及存储介质

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07168664A (ja) * 1994-11-24 1995-07-04 Sanyo Electric Co Ltd イメージ入力装置の入力制御方法
JPH10198517A (ja) * 1997-01-10 1998-07-31 Tokyo Noukou Univ 表示装置の表示内容制御方法
JP2004271439A (ja) * 2003-03-11 2004-09-30 Denso Corp 操作システム及びカーソル制御装置

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6377236B1 (en) * 1999-07-29 2002-04-23 Hewlett-Packard Company Method of illuminating a light valve with improved light throughput and color balance correction
JP3811128B2 (ja) * 2003-01-31 2006-08-16 株式会社東芝 情報処理装置およびポインタの操作方法
JP4457051B2 (ja) * 2005-07-19 2010-04-28 任天堂株式会社 オブジェクト移動制御プログラムおよび情報処理装置

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07168664A (ja) * 1994-11-24 1995-07-04 Sanyo Electric Co Ltd イメージ入力装置の入力制御方法
JPH10198517A (ja) * 1997-01-10 1998-07-31 Tokyo Noukou Univ 表示装置の表示内容制御方法
JP2004271439A (ja) * 2003-03-11 2004-09-30 Denso Corp 操作システム及びカーソル制御装置

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10580249B2 (en) 2006-07-10 2020-03-03 Universal Entertainment Corporation Gaming apparatus and method of controlling image display of gaming apparatus
JP2009075909A (ja) * 2007-09-21 2009-04-09 Panasonic Corp 電子機器におけるマークの位置あわせ方法
JP2011034512A (ja) * 2009-08-05 2011-02-17 Canon Inc 表示制御装置及び表示制御方法
WO2011055451A1 (ja) * 2009-11-06 2011-05-12 パイオニア株式会社 情報処理装置、その方法、および、表示装置
JP2011138355A (ja) * 2009-12-28 2011-07-14 Nintendo Co Ltd 情報処理プログラム、情報処理装置および情報処理方法
JP2015508203A (ja) * 2012-02-10 2015-03-16 ノキア コーポレイション リモート・ユーザ・インタラクションを提供する装置及び方法
JP2013210944A (ja) * 2012-03-30 2013-10-10 Hitachi Solutions Ltd 画面操作機能を有する装置
JP2015125565A (ja) * 2013-12-26 2015-07-06 日本電信電話株式会社 表示領域移動装置、表示領域移動方法、および表示領域移動プログラム
US10402080B2 (en) 2014-12-09 2019-09-03 Canon Kabushiki Kaisha Information processing apparatus recognizing instruction by touch input, control method thereof, and storage medium
JP2019207714A (ja) * 2017-05-12 2019-12-05 株式会社コロプラ 情報処理方法、コンピュータ及びプログラム
JP2023179072A (ja) * 2022-06-07 2023-12-19 レノボ・シンガポール・プライベート・リミテッド 情報処理装置、及び制御方法

Also Published As

Publication number Publication date
US20060109259A1 (en) 2006-05-25

Similar Documents

Publication Publication Date Title
JP2006146556A (ja) 画像表示処理プログラムおよび画像表示処理装置
US8113954B2 (en) Game apparatus, storage medium storing game program and game controlling method for touch input monitoring
US7825904B2 (en) Information processing apparatus and storage medium storing item selecting program
JP4134008B2 (ja) 画像処理装置および画像処理プログラム
JP4405430B2 (ja) ゲームプログラムおよびゲーム装置
US8711101B2 (en) Information processing apparatus and storage medium for storing information processing program
US8910075B2 (en) Storage medium storing information processing program, information processing apparatus and information processing method for configuring multiple objects for proper display
JP3833228B2 (ja) ゲーム装置およびゲームプログラム
US20060238498A1 (en) Storage medium having stored therein game program and game device
JP2007026129A (ja) オブジェクト移動制御プログラムおよび情報処理装置
JP5143503B2 (ja) プログラム、情報処理装置、情報処理システムおよび情報処理方法
JP4731149B2 (ja) 情報処理装置および情報入力プログラム
US8072434B2 (en) Apparatus and method for information processing and storage medium therefor
JP4555667B2 (ja) ゲームプログラムおよびゲーム装置
JP2007021022A5 (ja)
US8926427B2 (en) Video game with screen flip and dual sets of collision data
JP2006068387A (ja) ゲームプログラム、ゲーム装置、および入力装置
JP4863526B2 (ja) ゲームプログラムおよびゲーム装置
JP2009131693A (ja) ゲームプログラムおよびゲーム装置
JP4925228B2 (ja) ゲームプログラム、ゲーム装置、ゲーム処理方法およびゲームシステム
JP4979779B2 (ja) 情報処理装置および情報入力プログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20071113

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20100218

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100223

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20100706