WO2005091117A1 - 情報処理装置、情報処理プログラム、情報処理プログラムを記憶した記憶媒体およびウインドウ制御方法 - Google Patents

情報処理装置、情報処理プログラム、情報処理プログラムを記憶した記憶媒体およびウインドウ制御方法 Download PDF

Info

Publication number
WO2005091117A1
WO2005091117A1 PCT/JP2005/003560 JP2005003560W WO2005091117A1 WO 2005091117 A1 WO2005091117 A1 WO 2005091117A1 JP 2005003560 W JP2005003560 W JP 2005003560W WO 2005091117 A1 WO2005091117 A1 WO 2005091117A1
Authority
WO
WIPO (PCT)
Prior art keywords
window
displayed
display
display area
area
Prior art date
Application number
PCT/JP2005/003560
Other languages
English (en)
French (fr)
Inventor
Kazuyoshi Toriyama
Original Assignee
Nintendo Co., Ltd.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nintendo Co., Ltd. filed Critical Nintendo Co., Ltd.
Priority to JP2006511145A priority Critical patent/JP4719672B2/ja
Priority to EP05710783A priority patent/EP1729204A4/en
Priority to US10/593,828 priority patent/US20070198948A1/en
Publication of WO2005091117A1 publication Critical patent/WO2005091117A1/ja
Priority to US13/164,041 priority patent/US9454302B2/en

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/25Output arrangements for video game devices
    • A63F13/26Output arrangements for video game devices having at least one additional display device, e.g. on the game controller or outside a game booth
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/40Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment
    • A63F13/42Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle
    • A63F13/426Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle involving on-screen location information, e.g. screen coordinates of an area at which the player is aiming with a light gun
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/80Special adaptations for executing a specific game genre or game mode
    • A63F13/843Special adaptations for executing a specific game genre or game mode involving concurrently two or more players on the same game device, e.g. requiring the use of a plurality of controllers or of a specific view of game data for each player
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/90Constructional details or arrangements of video game devices not provided for in groups A63F13/20 or A63F13/25, e.g. housing, wiring, connections or cabinets
    • A63F13/92Video game devices specially adapted to be hand-held while playing
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/90Constructional details or arrangements of video game devices not provided for in groups A63F13/20 or A63F13/25, e.g. housing, wiring, connections or cabinets
    • A63F13/95Storage media specially adapted for storing game information, e.g. video game cartridges
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/90Constructional details or arrangements of video game devices not provided for in groups A63F13/20 or A63F13/25, e.g. housing, wiring, connections or cabinets
    • A63F13/98Accessories, i.e. detachable arrangements optional for the use of the video game device, e.g. grip supports of game controllers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04886Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures by partitioning the display area of the touch-screen or the surface of the digitising tablet into independently controllable areas, e.g. virtual keyboards or menus
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/214Input arrangements for video game devices characterised by their sensors, purposes or types for locating contacts on a surface, e.g. floor mats or touch pads
    • A63F13/2145Input arrangements for video game devices characterised by their sensors, purposes or types for locating contacts on a surface, e.g. floor mats or touch pads the surface being also a display device, e.g. touch screens
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/10Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals
    • A63F2300/1068Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals being specially adapted to detect the point of contact of the player on a surface, e.g. floor mat, touch pad
    • A63F2300/1075Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals being specially adapted to detect the point of contact of the player on a surface, e.g. floor mat, touch pad using a touch screen
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/20Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterised by details of the game platform
    • A63F2300/203Image generating hardware
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/20Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterised by details of the game platform
    • A63F2300/206Game information storage, e.g. cartridges, CD ROM's, DVD's, smart cards
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/30Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by output arrangements for receiving control signals generated by the game device
    • A63F2300/301Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by output arrangements for receiving control signals generated by the game device using an additional display connected to the game console, e.g. on the controller
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/80Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game specially adapted for executing a specific type of game
    • A63F2300/8088Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game specially adapted for executing a specific type of game involving concurrently several players in a non-networked game, e.g. on the same game console

Definitions

  • Information processing apparatus information processing program, storage medium storing information processing program, and window control method
  • the present invention relates to an information processing apparatus, an information processing program, a storage medium storing the information processing program, and a window control method, and more particularly, for example, an information processing apparatus that displays a plurality of windows in a first display area and a second display area
  • the present invention relates to an information processing program, a storage medium storing the information processing program, and a window control method.
  • Conventional technology
  • the selected window is displayed on another specified display device from among the multiple windows displayed superimposed on one display device. Can be improved.
  • each display device Since each mouse must be used to input the screen the operation was troublesome. That is, it is possible to display one of the plurality of windows displayed on the first display device on the second display device by operating the mouse or the like provided on the first display device. In order to input to the window displayed on the second display device, the mouse provided on the second display device must be operated. Further, even if a mouse or the like provided on the second display device is operated, it is impossible to display the window displayed on the first display device on the second display device.
  • a main object of the present invention is to provide a novel information processing apparatus, information processing program, storage medium storing the information processing program, and a window control method.
  • Another object of the present invention is to provide an information processing apparatus, an information processing program, a storage medium storing the information processing program, and a window control method capable of improving operability for window control between a plurality of display areas. .
  • An information processing apparatus includes storage means, display means, detection means, and first display control means.
  • the storage means stores data for displaying a plurality of selection areas associated with each of the plurality of windows and a window for displaying the plurality of windows.
  • the display means includes a first display area in which only a predetermined window among a plurality of windows is displayed or a plurality of windows are superimposed and a second display area in which a plurality of selection areas are displayed.
  • the detection means detects an input to the display position of the plurality of selection areas. When the first display control means determines that the first predetermined input is received by the detection means in the selection area associated with the window displayed in the first display area or the window displayed in the forefront. The window corresponding to the selected area is displayed in the second display area.
  • the information processing apparatus includes storage means (2 8 a, 4 8) and stores The means stores data for displaying a plurality of windows and data for displaying a plurality of selection areas associated with each of the plurality of windows.
  • window image data, upper screen window tab number data, lower screen window tab number data, tab data, and tab position data are stored.
  • the display means (12, 14) includes a first display area (12) and a second display area (14).
  • a predetermined window for example, the depth is the earliest
  • a plurality of windows (1 1 0, 1 1 4, 1 1 8)
  • a plurality of windows are superimposed and displayed. Is done.
  • Multiple selection areas (1 1 2, 1 1 6, 1 2 0) are displayed in the second display area. It is.
  • Detection means (42, S5, S7, S131, S133, S135, S137, S143, S145, S161, S163, S189, S211, S213, S227) Detects input to the display position of multiple selection areas.
  • the first display control means (42, 50, 52, 60, S181, S183, S241, S243) is displayed by the detection means on the window displayed in the first display area or in the forefront.
  • the window corresponding to the selection area is displayed in the second display area.
  • the predetermined input is input by a 1-click operation, a 2-click operation, or a downward slide operation.
  • the storage means may include table storage means (80) for storing table data (event data) that associates each selected area with each window.
  • the first display control means determines a window corresponding to the selected area having a predetermined input based on the table storage means, and displays the window in the second display area.
  • the storage means stores identification information storage means (80) for storing identification information (tab number) given to each window, and identification information of the window to be displayed in the second display area.
  • Second display area identification information storage means (84) may be included.
  • the first display control means stores the identification information of the window corresponding to the selected area in the second display area identification information storage means (S 18 1, S 241), the window with the stored identification information is displayed in the second display area (S 185, S 243).
  • the user since the plurality of selection areas associated with the plurality of windows are displayed in the second display area, the user inputs the first predetermined input to the selection area of the second display area.
  • the window displayed in the first display area or the window displayed in the forefront can be displayed in the second display area.
  • This makes it possible to operate and input the window using, for example, an input means.
  • the window is displayed in the second display area by moving or copying by performing a predetermined operation in the selection area of the second display area. In this way, it is possible to improve the operability.
  • the information processing apparatus superimposes on the window that is not displayed in either the first display area or the second display area or the window that is displayed first in the first display area.
  • the window corresponding to the selection area is displayed in the first display area or in the first display area.
  • Second display control means for displaying in front is further provided. Specifically, the second display control means (4 2, 50, 52, 60, S 1 85, S 1 8 7) can detect either the first display area or the second display area by the detection means.
  • the window corresponding to the selected area is displayed in the first display area or displayed in the forefront in the first display area.
  • the first predetermined input is an input by a one-click operation in the embodiment.
  • the user can temporarily display the inactive window in the first display area or the first display area in the first display area by the first predetermined input. It can be confirmed in the display area. After the confirmation, the window can be displayed in the second display area by performing a predetermined input operation as necessary. Therefore, operability can be improved.
  • the information processing apparatus superimposes on the window that is not displayed in either the first display area or the second display area or the window that is displayed first in the first display area by the detection unit.
  • Third display control means for displaying the window corresponding to the selected area in the second display area when it is determined that the second predetermined input has been received in the selected area associated with the partially hidden window. Is further provided.
  • the third display control means (4 2, 50, 52, 60, S 2 4 1, S 2 4 3) can detect either the first display area or the second display area by the detection means.
  • the window corresponding to the selected area is displayed in the second display area.
  • the second predetermined input is an input by a two-click operation or a downward slide operation.
  • the non-active window can be directly displayed in the second display area by the second predetermined input different from the first predetermined input for displaying the active window in the second display area.
  • the window can be brought into a state where operation input is possible, and quick input is possible. For example, it is extremely useful when it is not necessary to check the contents of the inactive window. Therefore, operability can be improved.
  • the user can change the display control of the inactive window by properly using the input operation for the selection area associated with the inactive window. For example, when it is desired to confirm the contents of an inactive window, the inactive window can be temporarily displayed in the first display area by the first predetermined input.
  • An information processing apparatus comprises storage means, display means, detection means, And a first display control means.
  • the storage means stores data for displaying a plurality of windows and data for displaying a plurality of selection areas associated with each of the plurality of windows.
  • the display means includes a first display area in which only a predetermined window among a plurality of windows is displayed or a plurality of windows are superimposed and a second display area in which a plurality of selection areas are displayed.
  • the detection means detects an input to the display position of the plurality of selection areas.
  • the third display control means is hidden by the detection means by superimposing a window that is not displayed in either the first display area or the second display area or a window that is displayed in front of the first display area. When it is determined that there is a second predetermined input for the display position of the selection area associated with the selected window, the window corresponding to the selection area is displayed in the second display area.
  • the information processing apparatus of the second invention is the same as the information processing apparatus of the first invention except that the operation of the display control means is different, and a duplicate description is omitted.
  • the third display control means in the second invention corresponds to the third display control means in the first invention, and is not displayed in either the first display area or the second display area.
  • This second predetermined input may be an input by a one-click operation, a two-click operation, or a downward slide operation.
  • the user directly displays the inactive window in the second display area by performing the second predetermined input in the selection area corresponding to the inactive window. Because the window can be held in a state where operation input is possible, quick input is possible. For example, it is extremely useful when there is no need to check the contents of the inactive window. Therefore, even if it is an inactive window, by performing a predetermined operation in the selection area of the second display area, the window can be displayed in the second display area and can be input. Operability can be improved.
  • the information processing apparatus uses the first predetermined input in the selection area associated with the window displayed in the first display area or the window displayed in the forefront by the detecting means.
  • the first display control means for displaying a window corresponding to the selected area in the second display area when it is determined that there is a hit.
  • This first display control means corresponds to the first display control means in the first invention, and the first predetermined input is received by the detection means in the selection area associated with the active window of the first display area.
  • the window corresponding to the selected area is displayed in the second display area.
  • the first predetermined input is different from the second predetermined input.
  • the first predetermined input is an input by a one-click operation
  • the second predetermined input is an input by a two-click operation or a downward slide operation.
  • the window is moved to the second display area by performing a first predetermined operation different from the second predetermined input.
  • it can be displayed by copying or the like.
  • the detection unit detects an input to an arbitrary position in the second display area.
  • the information processing apparatus sets the input from the detection means to a state in which the window can be input.
  • Setting means (42, S181, S183, S241, S243) is further provided.
  • the window is set in an inputable state. Is done. Therefore, it is possible to perform an input operation on the window displayed in the second display area by performing a predetermined input in the selected area.
  • the information processing apparatus determines that a predetermined input has been received in the selection area associated with the window displayed in the second display area, the information processing apparatus displays a window corresponding to the selection area. It further comprises fourth display control means for displaying in the forefront in the first display area.
  • the fourth display control means (42, 50, 52, 60, S 185, .S 187 ′, S 215, S 217) is based on the coordinate data detected by the coordinate detection means.
  • the window corresponding to the selection area is displayed in the first display area first.
  • the window can be moved from the second display area to the first display area. Can be improved.
  • the information processing apparatus when the information processing apparatus displays a window in the second display area, and determines that another window is displayed in the second display area, the information processing apparatus displays the other window in the first display area. Further, a fifth display control means for displaying in the forefront in the display area is further provided.
  • the fifth display control means (42, 50, 52, 60, S 165, S 167, S 175, S 223, S 225, S 235) is the first display control means or the third display control means.
  • the storage means First display area identification information storage means (82) for storing identification information of a window to be displayed in the first display area may be included.
  • the fifth display control means displays the identification information of the other window as the first display area identification information.
  • the information is stored in the storage means (S167, S225), and the window with the stored identification information is displayed in the first display area (S175, S235).
  • the window from which input operation is to be performed and the window that has been the input operation target can be replaced by only predetermined input, so that operability can be improved.
  • the detecting means detects a predetermined input based on input data from an evening panel (22) that is not provided in the first display area and is mounted on the second display area.
  • operation can be performed as if the selected area of the second display area is directly touched, and the window displayed in the second display area can be directly touched as well. Can be operated. Therefore, the window can be controlled by an intuitive operation.
  • the evening panel is an input means
  • the operation target window can be displayed in the second display area that can be touched by the user, that is, within the reach of the user's hand. . Therefore, the operability can be further improved.
  • the storage means further stores data for displaying the basic input window displayed in the second display area (input window image data), and the information processing device includes: 2 Basic display control means (42, 50, 52, 60, S 189, S 191, S 193, S 213, S 219) to display the basic input window in the second display area when there is no window to be displayed in the display area , S 221 S 277, S 279, S 2 81). Therefore, even if there is no window that should be displayed in the second display area among the multiple windows, the basic input window is displayed in the second display area. It is possible to respond to input operations necessary for progress, and smooth input operations can be performed without delaying the user's input operations.
  • 2 Basic display control means 42, 50, 52, 60, S 189, S 191, S 193, S 213, S 219
  • the information processing apparatus receives data for displaying a new window and a new selection area when a predetermined coordinate input is input to the window displayed in the second display area. And generating the data for displaying the data, storing the generated data in association with each other in the storage means, and displaying the selection area generated by the generation means in the second display area Selection area display control means is further provided. Specifically, the generation means (42, S49, S51, S101, S103, S105, SI07, SI09) is set to a predetermined position with respect to the window displayed in the second display area. Data to display new window and new selection when input is entered Data for displaying the area is generated, and the generated data is associated with each other and stored in the storage means.
  • the dictionary window image data describing the word and the evening number and tab corresponding to the window are displayed.
  • the evening image data is generated, and the evening data associated with these is stored in the tab data evening storage area 80.
  • the selection area display control means (4 2, 50, 52, 60, S 1 15, S 1 17) displays the generated selection area in the second display area. Accordingly, since a new window and a selection area can be created by an input operation on the window, display of the new window can be controlled by a predetermined input on the selection area, and operability can be improved.
  • an information processing program for storing data for displaying a plurality of windows and data for displaying a plurality of selection areas associated with each of the plurality of windows. And a display means including a first display area in which only a predetermined window is displayed or a plurality of windows are overlapped and a second display area in which a plurality of selection areas are displayed.
  • An information processing program of an information processing apparatus provided.
  • the information processing program causes the processor of the information processing device to execute the detection step and the first display control step.
  • the detection step detects an input to the display position of the plurality of selection areas.
  • the detection step determines that the first predetermined input has been made in the selection area associated with the window displayed in the first display area or the window displayed in the forefront. When this occurs, the window corresponding to the selected area is displayed in the second display area.
  • the storage medium storing the information processing program of the fourth invention displays data for displaying a plurality of windows and a plurality of selection areas associated with each of the plurality of windows.
  • Storage means for storing data, a first display area in which only a predetermined window is displayed or a plurality of windows are displayed in a superimposed manner, and a second display area in which a plurality of selection areas are displayed Is a storage medium that stores an information processing program of an information processing apparatus including display means.
  • the information processing program of this storage medium causes the processor of the information processing device to execute the detection step and the first display control step.
  • the detection step detects an input to the display position of the plurality of selection areas.
  • the first display control step when it is determined by the detection step that the first predetermined input has been made in the selection area associated with the window displayed in the first display area or the window displayed in the forefront, The window corresponding to the selected area is displayed in the second display area.
  • a window control method displays a plurality of windows.
  • Storage means for storing data for displaying a plurality of selected areas associated with each of the plurality of windows and a plurality of windows, and only a predetermined window is displayed or the plurality of windows is displayed.
  • This is a window control method in an information processing apparatus comprising display means including a first display area in which is displayed in a superimposed manner and a second display area in which a plurality of selection areas are displayed.
  • This window control method includes a detection step and a first display control step. The detection step detects an input to the display position of the plurality of selection areas.
  • the detection step determines that the first predetermined input has been made in the window displayed in the first display area or the selection area associated with the window displayed in the forefront. When this is done, the window corresponding to the selected area is displayed in the second display area.
  • an information processing program for storing data for displaying a plurality of windows and data for displaying a plurality of selection areas associated with each of the plurality of windows. And a display means including a first display area in which only a predetermined window of the plurality of windows is displayed or a plurality of windows are superimposed and a second display area in which a plurality of selection areas are displayed.
  • An information processing program for an information processing device which causes a processor of the information processing device to execute a detection step and a third display control step. The detection step detects an input to the display position of the plurality of selection areas.
  • the detection step overlaps the window that is not displayed in either the first display area or the second display area or the window that is displayed in front of the first display area.
  • the window corresponding to the selection area is displayed in the second display area.
  • a storage medium storing an information processing program according to a seventh aspect of the present invention displays a display for a plurality of windows and a plurality of selection areas associated with each of the plurality of windows.
  • a storage medium storing an information processing program of an information processing apparatus including display means including an area.
  • the information processing program on this storage medium causes the processor of the information processing device to execute the detection step and the third display control step.
  • the detection step detects an input to the display position of the plurality of selection areas.
  • a part of the third display control step is hidden by being overlapped with a window that is not displayed in either the first display area or the second display area or a window that is displayed in front of the first display area.
  • a window control method comprising: storage means for storing data for displaying a plurality of windows and data for displaying a plurality of selection areas associated with each of the plurality of windows; And a display means including a first display area in which only a predetermined window of the plurality of windows is displayed or a plurality of windows are superimposed and a second display area in which a plurality of selection areas are displayed.
  • This window control method includes a detection step and a third display control step.
  • the detection step detects an input to the display position of the plurality of selection areas.
  • the detection step overlaps the window that is not displayed in either the first display area or the second display area or the window that is displayed in front of the first display area.
  • the window corresponding to the selection area is displayed in the second display area.
  • An information processing apparatus includes storage means, display means, detection means, and first display control means.
  • the storage means stores data for displaying a plurality of windows and data for displaying a plurality of selection areas associated with each of the plurality of windows.
  • the display means includes a first display area in which only a predetermined window among a plurality of windows is displayed or a plurality of windows are superimposed and a second display area in which a plurality of selection areas are displayed.
  • the detection means detects an input to the display position of the plurality of selection areas.
  • the first display control means displays a window corresponding to the selected area in the second display area when it is determined by the detecting means that a predetermined input is received in the selected area.
  • the window displayed in the first display area, the window displayed in the forefront in the first display area, the first display area, and the second display By performing a predetermined operation in a selection area corresponding to a window that is not displayed in any of the areas, or a window that is partially overlaid on the window displayed in the forefront in the first display area, etc.
  • a window corresponding to the selected area can be displayed in the second display area, and operability can be improved.
  • a plurality of selection areas associated with a plurality of windows are displayed in the second display area, and a predetermined input with respect to the display position of the selection area is detected.
  • the corresponding window can be controlled. Specifically, it is displayed in the first display area by making a predetermined input in the selection area of the second display area. Even if the window is an inactive window or an inactive window, it can be displayed in the second display area so that it can be input, so that the operability can be improved.
  • FIG. 1 is an external view showing an example of an information processing apparatus according to an embodiment of the present invention.
  • FIG. 2 is a block diagram showing an electrical configuration of the information processing apparatus of FIG. 1 embodiment.
  • FIG. 3 is an illustrative view showing one example of a memory map of R A M 48 shown in FIG.
  • FIG. 4 is an illustrative view showing an example of the contents of the window image storage area.
  • FIG. 5 is an illustrative view showing an example of the contents of window image data.
  • FIG. 6 is an illustrative view showing an example of the contents of the tag data storage area.
  • FIG. 7 is an illustrative view showing an example of a display screen when a search candidate window is generated by inputting characters in the input window by handwriting.
  • FIG. 8 is an illustrative view showing one example of a display screen when a search candidate window is generated by completing character input after FIG. 7 and selecting a search button.
  • FIG. 9 is an illustrative view showing one example of a display screen when the tab corresponding to the search candidate window in FIG. 8 is selected.
  • FIG. 10 is an illustrative view showing one example of a display screen when a word in the search candidate window is selected in FIG. 9 and a dictionary window is generated.
  • FIG. 11 is an illustrative view showing one example of a display screen when the tab corresponding to the dictionary window is selected in FIG.
  • FIG. 12 is an illustrative view showing that the dictionary window and the search candidate window are switched when the tab corresponding to the dictionary window in FIG. 10 is selected.
  • Fig. 13 is an illustrative view showing an example of the display screen when the tab corresponding to the dictionary window in Fig. 11 is selected.
  • FIG. 14 is an illustrative view showing one example of a display screen when a word in the dictionary window is selected in FIG. 11 and another dictionary window is generated.
  • FIG. 15 is an illustrative view showing the concept of window control in the information processing apparatus of FIG. 1 embodiment.
  • FIG. 16 is an illustrative view showing an example of an outline of window control according to a difference in operation when an evening window corresponding to a non-active window is selected when an input window is displayed on the lower screen.
  • Figure 17 shows inactivity when the move window is displayed on the lower screen. It is an illustration figure which shows an example of the outline of window control according to the difference in operation when the tab corresponding to a window is selected.
  • Fig. 18 is an illustrative view showing an example of the outline of window control when the window corresponding to the active window on the upper screen is selected when the input window is displayed on the lower screen.
  • 8 (A) shows the case where the inactive window is activated on the upper screen
  • Fig. 18 (B) shows the case where the background image is displayed on the upper screen.
  • m 19 is an illustrative view showing one example of an outline of window control when a window corresponding to a window on the lower screen is selected when a moving window is displayed on the lower screen.
  • Fig. 20 is an illustrative view showing an example of the outline of selection by the gesture operation on the tab.
  • Fig. 20 (A) shows the downward sliding operation
  • Fig. 20 (B) shows the left or right direction.
  • An example of the slide operation is shown.
  • Figure 21 is an illustrative view showing an example of an outline of window control when there is an operation to delete the active window on the upper screen.
  • FIG. 22 is a flowchart showing an example of the operation of the information processing apparatus of FIG. 1 embodiment.
  • FIG. 23 is a flowchart showing an example of the search processing operation of FIG.
  • FIG. 24 is a flowchart showing an example of the operation of the search candidate window generation process of FIG.
  • FIG. 25 is a flowchart showing an example of the operation of the dictionary window generation process of FIG.
  • FIG. 26 is a flowchart showing an example of the operation of the window display process of FIG.
  • FIG. 27 is a flowchart showing a part of an example of the operation of the one-click process in FIG.
  • FIG. 28 is a flowchart showing the continuation of FIG.
  • FIG. 29 is a flowchart showing a part of an example of the operation of the two-click process of FIG.
  • FIG. 30 is a flowchart showing the continuation of FIG.
  • FIG. 31 is a flowchart showing a part of an example of the operation of the erasing process of FIG.
  • FIG. 32 is a flowchart showing the continuation of FIG.
  • Figure 33 is an illustrative view showing a modification of the display screen in which multiple windows are displayed simultaneously on the upper screen.
  • an information processing apparatus 10 is realized in the form of a game apparatus as an example.
  • the information processing apparatus 10 may be a personal computer or another portable computer such as PDA.
  • This game apparatus 10 includes a first liquid crystal display (LCD) 1 2 and a second LCD 1 Includes 44. .
  • the LL CCDD 1122 and the LLCCDD 1144 here are stored and accommodated in the housing 1166 so as to have a predetermined arrangement position.
  • the Hahauji Jingu 1166 is divided into an upper upper Hahau Jinging 11 66 aa and a lower lower Hahau Jinging 1166 bb.
  • the LL CCDD 1122 is stored in the upper upper housing 11 66 aa
  • the LLCCDD 1144 is stored in the lower lower housing. Stored and stored in Jingingu 1166 bb. .
  • LLCCDD 1122 and LLCCDD 1144 are placed in close proximity so that they are lined up in the vertical and vertical direction ((upper, lower, upper, lower)).
  • the LL CCDD is used as a table display device.
  • EELL ((EElleeccttrroonniicc LLuummiinneesscceennccee))
  • Etc. may be used.
  • the upper housing 16a has a planar shape slightly larger than the planar shape of the LCD 12, and an opening is formed so as to expose the display surface of the LCD 12 from the main surface.
  • the planar shape of the lower housing 16b is selected to be longer than that of the upper housing 16a, and an opening is formed so as to expose the display surface of the LCD 14 at a substantially central portion in the horizontal direction.
  • the lower housing 16 b is formed with a sound release hole 18 and an operation switch 20 (20 a, 20 b, 20 c, 2.0 d and 20 e, 20 L, 20 R).
  • the upper eight housing 16a and the lower housing 16b are rotatably connected to the lower side (lower end) of the upper housing 16a and a part of the upper side (upper end) of the lower housing 16b. . Therefore, for example, when not playing a game or using an application, the upper housing 16a can be rotated and folded so that the display surface of the LCD 12 and the display surface of the LCD ⁇ 4 face each other. Damage to the 12 display screens and the LCD 14 display surface can be prevented.
  • the upper housing 16a and the lower housing 16b may be formed as a housing 16 in which they are integrally (fixed) provided without being rotatably connected.
  • Operation switch 20 consists of direction indicator switch (cross switch) 20 a, start switch 20 b, select switch 20 c, operation switch (A button) 20 d, operation switch (B button) 20 e, operation switch (L button) ) Includes 20 L and operation switch (R button) 20 R.
  • the switches 20a, 20b and 20c are arranged on the left side of the LCD 14 on one main surface of the lower housing 16b.
  • switch 20 one switch 206 is arranged on the one main surface of lower housing 16 b on the right side of LCD 14.
  • switch 20 L and switch 20 R are respectively provided on lower housing 16 b. In the portion other than the connecting portion with the upper housing 16a which is a part of the upper end (top surface) of the housing, it is arranged on the left and right sides with the connecting portion interposed therebetween.
  • the direction indicating switch 20a functions as a digital joystick. By operating at least one of the four pressing parts, it is possible to indicate the direction of movement of the player character (or player object) that can be operated by the player, It is possible to instruct the movement direction.
  • the start switch 20b is composed of a push button and is used for starting (resuming) or pausing the game.
  • the select switch 20 c is composed of push buttons and is used for selecting a game mode.
  • the motion switch 20 d or A button is composed of a push button, and performs actions other than direction indications, that is, an arbitrary action such as hitting (punching), throwing, grabbing (obtaining), riding, jumping, etc. be able to. For example, in an action game, you can instruct to jump, punch, move a weapon, and so on. In role-playing games (RPG) and simulation RPGs, it is possible to instruct items acquisition, weapon or command selection and determination, and so on.
  • the operation switch 20e, ie, the B button is composed of a push button, and is used for changing the game mode selected by the select switch 20c or canceling the action determined by the A button 20d.
  • Operation switch 20 L left push button
  • operation switch 20 R right push button
  • L button left push button
  • R button right push button
  • a button It can be used for the same operation as 20 d and B button 20 e, and can be used for auxiliary operation of A button 20 d and B button 20 e.
  • a touch panel 22 is mounted on the upper surface of the LCD 14.
  • the touch panel 22 for example, a resistive film type, an optical type (infrared type), or a capacitive coupling type can be used.
  • the touch panel 22 can be pressed or stroked (touched) with the stick 24 or pen (stylus pen) or finger (hereinafter sometimes referred to as “stick 24 etc.”).
  • stick 24 the coordinates of the position operated by the stick 24 or the like (ie, the position shifted) are detected, and coordinate data corresponding to the detected coordinates (detected coordinates) is output.
  • the evening panel 22 functions as an input means in this embodiment, and is used by the user (player) to input input data for indicating an arbitrary position on the screen of the LCD 14 (or LCD 12). It is.
  • the resolution of the display surface of LCD 14 (LCD 12 is the same or substantially the same) is 256 d o t X 19 : 2 dots, and the detection accuracy of the latch panel 22 also corresponds to the display screen. 256 dots X 192 dots.
  • the size of the display panel 22 and the operation surface of the touch panel 22 are shown in FIG. The size is the same size.
  • the detection accuracy of the touch panel 22 may be lower or higher than the resolution of the display screen.
  • a screen for showing to the player is displayed on the LCD 12, and the LCD 14 provided on the evening panel 22 is connected to the screen of the LCD 12 so as to show and operate the player. Is displayed.
  • the screen displayed on the LCD 14 includes objects, icons, tabs, character information, and the like that can be operated (touched) with the stick 24 or the like.
  • the touch panel 22 By operating the touch panel 22 so that the object or the like displayed on the LCD 14 is directly touched with the stick 24 or the like, the player can select or operate the object or give a coordinate input instruction, for example.
  • Various other input instructions can be given depending on the type of game or application. For example, select commands based on text information and icons displayed on the display screen of the LCD 14, indicate the direction of scrolling (gradual movement display) of the game screen (map) displayed on the LCD 12, or You can enter handwritten characters.
  • the game apparatus 10 includes the L CD 12 and the LCD 14 which are display units for two screens, and the touch panel 22 is provided on the display screen of either one (LCD 14 in this embodiment). Therefore, it has a configuration having two screens (LCD 12, 14) and two operation units (20, 22).
  • the stick 24 can be stored in, for example, a storage portion (storage hole) 26 provided on the side surface (right side surface) of the upper housing 16a, and is taken out as necessary. However, if the stick 24 is not provided, it is not necessary to provide the storage part 26.
  • the game apparatus 10 includes a memory card (or game cartridge) 28 as an example of an information storage medium.
  • the memory card 28 is detachable and is provided on the back surface or the lower end (bottom surface) of the lower housing 16 b. It is inserted from the entrance 30.
  • a connector 46 for joining to a connector (not shown) provided at the front end of the memory card 28 is provided at the back of the inlet 30. Therefore, when the memory card 28 is inserted into the inlet 30, the connectors are joined together, and the CPU core 42 (see FIG. 2) of the game apparatus 10 can access the memory card 28.
  • a spin force 32 (see FIG. 2) is provided in the lower housing 16b at a position corresponding to the sound release hole 18 of the lower housing 16b.
  • FIG. 2 is a block diagram showing an electrical configuration of the game apparatus 10.
  • game device 10 includes an electronic circuit board 40 on which circuit components such as CPU core 42 are mounted.
  • the CPU core 42 is connected to the connector 46 via the bus 44, and includes a RAM 48, a first graphics processing unit (GFU) 50, a second GPU 52, an input / output interface circuit (hereinafter, “ It is connected to 54 and L CD controller 60.
  • GFU graphics processing unit
  • GPU 52 an input / output interface circuit
  • the memory force pad 28 is detachably connected to the connector 46.
  • the memory card 28 includes a ROM 28 a and a RAM 28 b.
  • the ROM 28 a and the RAM 28 b are connected to each other via a bus, and are connected to a connector (not shown) joined to the connector 46. Connected. Therefore, as described above, the CPU core 42 can access the ROM 28a and the RAM 28b.
  • the ROM 28a stores in advance an information processing program for causing the game apparatus 10 to function as the information processing apparatus according to the present invention.
  • the information processing program is a program of an application to be executed. For example, when a game (virtual game) is executed, the information processing program is a game program. Also, images (character images, background images, item images, message images, etc.) necessary for execution of the application, etc., and sound or music data (sound data), etc., are recorded in advance.
  • the RAM (backup RAM) 28 b stores (saves) intermediate data and result data of the application or game.
  • the RAM 48 is used as a buffer memory or a working memory. That is, the CPU core 42 loads the information processing program stored in the ROM 28a of the memory card 28 and data such as image data and sound data into the RAM 48, and executes the loaded information processing program. Further, the CPU core 42 executes information processing according to the information processing program while storing data generated (generated) temporarily in accordance with the progress of the processing in a work area or a predetermined area of the RAM 48.
  • the information processing program, image data, and sound data are read from the ROM 28a all at once, or partially and sequentially as necessary, and stored in the RAM 48.
  • GPU50 and GPU52 each form part of the drawing means, for example, consist of single chip AS IC, receive graphics command (graphics command) from CPU core 42, and follow the graphics command Generate image data for display. However, in addition to the graphics command, the CPU core 42 sends the image generation program (included in the information processing program) necessary for generating image data to be displayed to each of the GPU 50 and GPU 52. give.
  • the data (image data: data such as polygons and textures) necessary for the GPU 50 and the GPU 52 to execute the drawing command is obtained by the GPU 50 and the GPU 52 accessing the RAM 48, respectively.
  • the GPU 50 and the GP U 52 may store the created data in the RAM 48.
  • VRAMJ first video RAM
  • VRAMJ first video RAM
  • VRAMJ second VRAM 58
  • the GPU 50 stores VRAM image data to be displayed.
  • the GPU 52 draws image data to be displayed on the VRAM 58.
  • the VRAM 56 and the VRAM 58 are, for example, line buffers, or a frame buffer may be adopted.
  • the LCD controller 60 includes a register 62.
  • the register 62 is configured by 1 bit, for example, and stores a value (data value) of “0” or “1” according to an instruction from the CPU core 42.
  • the LCD controller 60 outputs the image data of the VRAM 56 to the LCD 12, and outputs the image data of the VRAM 58 to the LCD 14.
  • the LCD controller 60 outputs the image data of the VRAM 56 to the LCD 14 and the image data of the VRAM 58 to the LCD 12. To do.
  • the LCD controller 60 can read the image data directly from the VRAM 56 and the VRAM 58, or can read the image data from the VRAM 56 and the VRAM 58 via the GPU 50 and the GPU 52. Further, the VRAM 56 and the VRAM 58 may be provided in the RAM 48.
  • the operation switch 20, the evening switch panel 22 and the speaker 32 are connected to the circuit 54.
  • the operation switch 20 is the above-described switches 20 a, 20 b, 20 c, 20 d, 20 e, 20 L, and 20 R.
  • operation data When the operation switch 20 is operated, a corresponding operation signal (operation data) is displayed.
  • operation input data (coordinate data) output from the control panel 22 is input to the CPU core 42 via the IZF circuit 54.
  • the CPU core 42 reads out sound data necessary for the game, such as game music (BGM), sound effects or game character sound (pseudo-sound), from the RAM 48, and from the speaker 32 via the circuit 54. The sound is output.
  • FIG. 3 shows an example of a RAM48 memory map.
  • the memory map includes a program storage area 70 and a data storage area 72.
  • the program storage area 70 is loaded with an information processing program from the ROM 28 a of the memory card 28.
  • the CPU core 42 operates according to this information processing program, and the game device 10 is The information processing apparatus 10 is caused to function.
  • Data storage area 7 2 data generated or acquired in accordance with the operation of the R O M 28 8 a data copy CPU core 42 is stored.
  • Data storage area 7 2 is an input data storage area 7 4, coordinate point sequence storage area 7 6, window image storage area 7 8, tab data storage area 80, upper screen window tab number storage area 8 2, lower screen Includes window tab number storage area 84, evening position data evening storage area 86, dictionary data evening storage area 88, and the like.
  • FIG. 3 shows a part of the stored data, and other data necessary for information processing is also stored.
  • the evening input data storage area 74 the evening input data from the touch panel 22 acquired via the I / F circuit 54 is stored. Specifically, the coordinate data indicating the position indicated by the operation on the touch panel 22 detected from the acquired data is stored.
  • the storage area 74 stores coordinate data of a predetermined number of frames (one frame is 160 seconds).
  • the coordinate point sequence storage area 76 stores a history of coordinate data detected when handwritten input is made in the input window, that is, an input coordinate point sequence or locus.
  • the input window is a window for the user to input the word by hand using a stick 24 or the like when searching for the word with the dictionary application of this embodiment. Based on the coordinate point sequence data, recognition of characters input by handwriting is performed.
  • window image storage area 78 data relating to the window image is stored. For example, as shown in FIG. 4, each window image data is stored in association with data indicating the head address of the data. Each window is displayed based on the data in this window image storage area 78.
  • a mineral water window image, an inorganic salt window image, and the like are stored as an example of an input window image, a search candidate window image, and a dictionary window image.
  • the input window image data includes a search button provided in the input window, an all erase button, and position data indicating the display position or area of the handwriting input area. It also includes image data for each button and input area, and image data based on the input coordinate point sequence when handwritten.
  • the data for displaying the initial state of the window is stored in advance in ROM 28a.
  • the search candidate window is a window for displaying words (dictionary items or headwords) that match the characters entered in the input window as search candidates. When multiple search candidate windows are generated, multiple search candidate window image data are stored.
  • the search candidate window image data includes position data (coordinate data) indicating the display position or range '(region) of each search candidate, together with image data for each search candidate.
  • the dictionary window is a window for displaying explanations or explanations of reading, meaning, etymology, examples, etc. for the items selected in the search candidate window.
  • a plurality of dictionary windows are generated, a plurality of dictionary window image data are stored.
  • the dictionary window image data includes position data indicating the display position or range of each word used in the description, as well as the image data of the description or explanation.
  • the tab data storage area 80 stores data related to tabs associated with the search candidate window and the dictionary window. Tabs are created and displayed in L C D 14 when the window is created.
  • the tab is an image for selecting the corresponding window.
  • the corresponding window can be selected by operating the tab display position or area.
  • the input window is a special window displayed in the initial state of the lower screen, and no tab corresponding to the input window is provided.
  • title image data As shown in FIG. 6, in the tab data storage area, title image data, the head address of the window image, and the like are stored in association with the tab number.
  • the tab number is set sequentially, for example from 1 every time a new window is created. Also, when a window is deleted, only the remaining windows are updated so that they are numbered consecutively. Since tabs and windows have a one-to-one correspondence, this tab number is not only a tab identification number but also a window identification number.
  • the title image data is image data for displaying the name of the tab during the evening.
  • tab number 1 is a tab corresponding to the search candidate window, and image data indicating search candidates as characters is stored as title image data.
  • Tab number 2 is a tab corresponding to a word dictionary window called mineral water, and image data indicating the word as characters is stored as title image data.
  • Tab number 3 is a tab corresponding to the dictionary window of the word “inorganic salts”, and image data indicating the word as characters is stored as title image data.
  • the title image data for each word is obtained from the dictionary data.
  • the search candidate title image data may be stored in the ROM 28a in advance.
  • the data indicating the head address of the window image is the head address of the window image data corresponding to the tab, and the window corresponding to the evening can be specified based on this data.
  • the tab number of the tab corresponding to the window displayed in the active state on the upper screen that is, the LCD 12 is stored in the upper screen window tab number storage area 82.
  • the active window is displayed on the LCD 12 and no inactive window is displayed.
  • the LCD panel 12 of this embodiment is not provided with the latch panel 2'2 as an input means, the active state on the upper screen means that the window is displayed at the forefront. Na For example, 0 (zero) or NULL is stored as the initial value. In this case, the window is not displayed on the LCD 12 and the background image is displayed.
  • the lower screen window tab number storage area 84 stores the tab number of the tab corresponding to the lower screen, that is, the window displayed on the LCD 14.
  • L CD 14 shows only the active window and does not display the inactive window.
  • the active state on the lower screen is displayed in front of the window, and input or operation by the evening panel 2 2 is possible. It means that it is set to the state. For example, 0 (zero) or NULL is stored as an initial value, and in this case, an input window is displayed on LCD14.
  • the tab position data storage area 86 stores position data (coordinate data) indicating the display position or range of the generated tab. By referring to the data in the storage area 86, the tab selected by the user can be specified.
  • the tab display position or range may be fixedly determined in advance according to the number of tabs, for example, or may be set as appropriate according to the number of generated tabs or the number of characters in the title image. May be.
  • the number of tabs that can be displayed may be limited to a predetermined number. In this case, when the number of windows exceeding the limit value is to be created, a message indicating that the number of windows is too large to be created may be displayed. Also, as the number of tabs increases, the tab display area (width) decreases, and the number of characters in the title displayed on the tab decreases. Therefore, if there are not enough title characters on the tab, the title is displayed by adding an ellipsis to the first few characters of the title.
  • the dictionary data storage area 88 stores dictionary data for the dictionary application of this embodiment.
  • each word (item) is associated with each data (text data, etc.) such as reading and explanation.
  • window control between a plurality of display areas (in this embodiment, two screens L CD 1 2 and L CD 1 4) is executed according to the operation of the window control user.
  • a case where the window system according to the present invention is applied to the execution of a dictionary application will be described. However, it can also be applied when multiple applications are started simultaneously to control each window corresponding to each application.
  • Figure 7 shows an example of the display screen when characters for searching the dictionary are entered.
  • input window 1 0 0 is displayed in an active state.
  • the upper screen displayed on LCD 1 2 is the back in the initial state. A scene image is displayed.
  • a character input area 10 0 2 In the input window, a character input area 10 0 2, a search button 10 4, and an all deletion button 10 6 are provided at predetermined positions.
  • the character input area 102 is an area for the user to manually input a word to be searched using the stick 24 or the like.
  • the input data for character input area 1 0 2 is stored in coordinate point sequence storage area 76.
  • the position corresponding to the user's evening operation that is, the pixel corresponding to the stored coordinate point sequence is drawn in a color different from that of the character input area 10 2.
  • “Minaru” is entered.
  • the search button 1 0 4 is used to instruct the search for the input character.
  • the all erasure button 1 0 6 is a button for erasing characters drawn in the character input area 1 0 2.
  • a window generally refers to a specific display area divided by a frame, but in FIG. 7, lines indicating the frame are omitted from the input window 100.
  • the window frame does not necessarily have to be displayed on the screen.
  • input buttons 1 0 8 are provided at predetermined positions.
  • the input button 10 8 is for displaying the input window 1 0 0 in the forefront on the lower screen, that is, for making it active.
  • the characters entered so far are automatically recognized. For example, when there is no input for a certain period of time (when a certain period of time has passed without detecting an evening switch after detecting the evening switch off), it is determined that the input is the next character.
  • a search candidate window 110 for displaying search candidates corresponding to the recognition result is displayed on the upper screen in an active state.
  • the word “mineral” is searched from the dictionary data as a search candidate and displayed in the search candidate window 100.
  • a tab 1 1 2 corresponding to the generated search candidate window 1 1 0 is displayed on the lower screen, for example, above the input window 1 100.
  • the user can select the search candidate window 110 by performing a predetermined operation with the stick 24 or the like on the tab 1 1 2 on which the title of “search candidate” is displayed.
  • the word “search candidate” is displayed to indicate that the search candidate window 1 1 0 is displayed at the center of the top edge of the background image. The message “You can move to the bottom screen” is displayed.
  • search candidate window image data (see FIGS. 4 and 5) including search candidate words is generated.
  • tab data of tab 1 1 2 (see FIG. 6) and tab position data corresponding to the generated search candidate window 1 1 0 are generated.
  • the upper screen window In the tab number storage area 8 2 the tab number corresponding to the generated search candidate window 110 is stored. In this way, the search candidate window 1 1 0 is displayed on the upper screen, and the search candidate tab 1 1 2 is displayed on the lower screen together with the input window 1 100 and the like.
  • FIG. 8 shows an example of the display screen when the character input is completed after FIG. 7 and the search button 10 4 is selected.
  • the search button 1 0 4 is selected, recognition of the input character is started, and search candidates corresponding to the result are displayed in the search candidate window 1 1 0.
  • the search button 1 0 4 was selected by entering "Mineru Uoichiichi", so the search candidate window 1 1 0 with the word "mineral water” added as a search candidate is generated. Displayed on the upper screen in an active state.
  • FIG. 9 shows an example of a display screen when the search candidate tab 1 1 2 is selected in FIG. If the search candidate window 1 1 0 is displayed in the active state on the upper screen and the search candidate window 1 1 2 is selected with the stick 2 4 etc., the search candidate window 1 1 0 is displayed on the lower screen. Displayed in an active state. Specifically, when it is determined that the display position of the search candidate tab 1 1 2 is instructed by one click, for example, based on the detected latch input data, the lower screen window tab number storage area 8 4 The tab number of the search candidate tab 1 1 2 is stored in, and the corresponding search candidate window 1 1 0 is displayed on the lower screen.
  • the event 1 1 2 corresponding to the search candidate window 1 1 0 is displayed in a state in which the form such as size and color is changed from the case where the lower screen is not displayed. This indicates that the corresponding window is active and displayed on the bottom screen.
  • the size of the tab 1 1 2 is increased, and the tab 1 1 2 is displayed so as to touch the search candidate window 1 1 0.
  • the upper screen window number storage area 8 2 is cleared, for example, a background image that contains the sentence "Return to the upper screen when you switch back to the tab" Is displayed.
  • the search candidate window 1 1 0 When the search candidate window 1 1 0 is displayed on the lower screen, the search candidate window 1 1 0 can be input or operated by the evening panel 2 2. In this embodiment, by touching a search candidate word in the search candidate window 110 with a stick 24 or the like, the word can be examined. Therefore, the user can select the tab 1 1 2 corresponding to the search candidate window 1 1 0 to operate the search candidate window 1 1 0.
  • FIG. 10 shows an example of a display screen when the word in the search candidate window 110 in FIG. 9 is selected.
  • a dictionary window 1414 displaying an explanation or explanation of the word is displayed on the upper screen in an active state.
  • “Mineral War Yuichi” was selected, so “Mineral War A dictionary window that includes explanations for “water”, for example, “natural water to be used as drinking water containing relatively large amounts of inorganic salts such as calcium and magnesium 'ground water. Natural water artificially added with inorganic salts.” 1 1 4 is displayed.
  • the sentence “You can move to the lower screen if you switch to a tab” is displayed again.
  • tabs 1 1 6 corresponding to the generated dictionary window 1 1 4 are displayed on the lower screen.
  • tab 1 1 6 corresponds to the dictionary window 1 1 4 for the word “mineral water”, so the title “Mineral War Yuichi” is displayed in the evening 1 1 6.
  • the dictionary window image data including the description of the word based on the dictionary data are generated.
  • tab data (see FIG. 6) and tab position data to which data related to tabs 1 1 6 corresponding to the generated dictionary window 1 1 4 are added are generated.
  • the tab number corresponding to the generated dictionary window 1 1 4 is stored in the upper screen window tab number storage area 8 2.
  • the dictionary window 1 1 4 is displayed on the upper screen, and the search candidate window 1 1 0 and the search candidate tab 1 1 2 etc. are displayed on the lower screen, and the mineral water tab 1 1 6 Is displayed.
  • FIG. 11 shows an example of a display screen when tab 1 1 6 corresponding to dictionary window 1 1 4 is selected in FIG.
  • the dictionary window 1 1 4 is displayed in the active state on the upper screen and the search candidate window 1 1 0 is displayed in the active state on the lower screen
  • the tab 1 1 corresponding to the dictionary window 1 1 4 When 6 is selected, the windows are switched between the upper and lower screens. That is, the search candidate window 1 1 0 is displayed in the active state on the upper screen, and the selected dictionary window 1 1 4 is displayed in the active state on the lower screen.
  • the tab 1 1 6 corresponding to the selected dictionary window 1 1 6 is displayed in a form indicating an active state.
  • the window When the active window is switched between the upper and lower screens, the window may be displayed so as to gradually move to the next display position as shown in FIG. In Fig. 12, the dictionary window 1 1 4 on the upper screen gradually moves to the display position on the lower screen, and the search candidate window 1 1 0 on the lower screen gradually moves to the display position on the upper screen. It is shown. If the windows overlap, either one of the windows (in this embodiment, the window that was active on the upper screen) is displayed on the front. Similarly, when moving the selected window from the upper screen to the lower screen (see Fig. 9) or moving from the lower screen to the upper screen (see Fig. 13), You may display so that it may move to a display position gradually. By performing an effect that gradually moves in this way, the window moves between the upper and lower screens. Can be given to the user as if they were really moving.
  • the dictionary window 1 1 4 When the dictionary window 1 1 4 is displayed on the lower screen in the active state as shown in FIG. 11, the dictionary window 1 1 4 can be input or operated by the latch panel 2 2. In this embodiment, the word can be examined by touching the word in the explanatory text in the dictionary window 1 1 4 with a stick 2 4 or the like. Therefore, when the user wants to operate the dictionary window 1 14, the user can select the tab 1 1 6 corresponding to the dictionary window 1 1 4 in FIG.
  • the corresponding screen is displayed on the upper screen as shown in Fig. 13.
  • the dictionary window 1 1 4 is displayed.
  • the search candidate window 1 1 0 displayed on the upper screen is deactivated.
  • An input window 1 0 0 is displayed on the lower screen.
  • FIG. 14 shows an example of a display screen when a word in the dictionary window 1 1 4 is selected in FIG.
  • the dictionary window 1 1 8 for that word is displayed in an active state on the upper screen.
  • the search candidate window 110 displayed on the upper screen is made inactive.
  • the word “inorganic salts” was selected, so the explanation for “inorganic salts”, for example, “Salts formed by substituting hydrogen of inorganic acids with metals. Sodium chloride ⁇ calcium carbonate, etc.”
  • a dictionary window 1 1 8 containing "" is generated.
  • a tab 1 2 0 corresponding to the generated dictionary window 1 1 8 is displayed on the lower screen.
  • tab 1 2 0 corresponds to the dictionary window 1 1 8 for the word “inorganic salts”, so the title “inorganic salts” is displayed on tab 1 2 0.
  • the dictionary window image data including the explanation or explanation of the word based on the dictionary data. (See Figure 4 and Figure 5).
  • an evening table (see FIG. 6) and tab position data to which a tab 1 2 0 table corresponding to the generated dictionary window 1 1 8 is added are generated.
  • the tab number corresponding to the generated dictionary window 1 1 8 is recorded in the upper screen window tab number storage area 8 2.
  • the upper window displays the dictionary window 1 1 8
  • the lower screen includes the dictionary window 1 1 4, search candidate tabs 1 1 2, mineral water tabs 1 1 6, etc., and inorganic
  • the salt tab 1 2 0 is displayed.
  • FIG. 15 shows a conceptual diagram of the window control of this embodiment. Multiple windows are created on the upper screen (first display area or first display section). On the top screen, only one window is activated (ie, displayed) and the other windows are deactivated. In this example, the active window Will be displayed on the screen, and non-active windows will not be displayed on the screen.
  • the displayed window is a predetermined window, such as the one with the depth at the forefront.
  • the input window is the default window on the lower screen and does not move to the upper screen, so there is no corresponding tab.
  • a tab is a selection area for selecting an associated window.
  • the user can select a corresponding window by performing a predetermined input operation on the tab using a pointing device, and can control movement and display of the window.
  • the selection area is expressed so that the association can be easily grasped by using a tab connected to the window, but it may be a button, an icon, or the like.
  • the selected window is moved to the lower screen and displayed.
  • the window moved to this lower screen is expressed as a moving window.
  • the moving window In the lower screen, if there is a moving window, the moving window is displayed in an active state, and if there is no moving window, the input window is displayed in an active state.
  • the other window moves to the upper screen and is displayed as an upper-screen activity window. It is.
  • the window when the window moves from the upper screen to the lower screen, if the input window is displayed on the lower screen, the window corresponding to the largest tab number among the inactive windows is activated in the upper screen. Displayed. That is, the last window created is displayed.
  • a tab corresponding to an inactive window when a tab corresponding to an inactive window is selected, different controls are performed according to the operation.
  • a tab corresponding to an inactive window is selected, for example, with a single click, the selected window is made active and displayed on the upper screen.
  • the tab is selected by, for example, a two-click operation, the selected 'window is displayed in the active state on the lower screen.
  • the selected window moves to the upper screen and is displayed in the active state.
  • an input window as a basic input window is displayed on the lower screen. Therefore, it is displayed on the lower screen among multiple windows. Even if there is no window to be displayed, an input window is displayed on the lower screen. For example, it is possible to prompt the user for input or to respond to input operations required for the progress of applications, etc. become. Moreover, the user can perform a smooth input operation without delaying the user's input operation.
  • the outline of window control in response to such tab selection is shown more specifically in FIGS. 16 to 19. Fig.
  • FIG. 16 shows an outline of control when a tab corresponding to a non-active window is selected when an input window is displayed on the lower screen.
  • window 2 When an evening corresponding to non-active window 2 is selected by one-click operation (one click), window 2 is activated and displayed on the upper screen, and window 1 is inactive. To be.
  • the window 2 tab is further selected by 1 or 2 clicks, the window 2 is moved to the lower screen and displayed in the active state, and the upper screen is displayed with the window 1 in the active state. Is done.
  • a tab corresponding to the window that is displayed on the upper screen is selected by one or two clicks, it is determined that the window has become an operation target, and the window is displayed on the lower screen. Operation input is enabled.
  • the route to the operation to the window 2 can be changed.
  • the user can display window 2 once on the upper screen by selecting the tab with one click, and check the contents of window 2 in advance to determine whether or not an operation is necessary.
  • select the tab with two clicks to display window 2 directly on the lower screen and immediately The operation can be started. Therefore, operability can be improved.
  • Fig. 17 shows an outline of control when a tab corresponding to a non-active window is selected when moving window 1 is displayed on the lower screen, unlike Fig. 16.
  • window 2 is activated and displayed on the upper screen, and active window 3 is deactivated. Is done. after that, When the window 2 tab is selected by one or two clicks, the window 2 is moved to the lower screen and displayed in an active state. Window 1 displayed on the lower screen is moved and displayed on the upper screen.
  • Fig. 18 shows the outline of control when the tab corresponding to the active window on the upper screen is selected when the input window is displayed on the lower screen.
  • Fig. 18 (A) shows the case where multiple windows 1-3 are created on the upper screen. If the tab corresponding to active window 1 on the upper screen is selected with one or two clicks, it is determined that window 1 has become the target of operation, and it moves to the lower screen and is displayed in an active state. On the other hand, the window corresponding to the tab with the highest tab number among the inactive windows (window 3 in Fig. 18 (A)) is displayed in the active state.
  • FIG. 18 (B) shows the case where only one window 1 is created on the upper screen.
  • the tab corresponding to window 1 is selected with one or two clicks, it is determined that window 1 has become an operation target, and the window moves to the lower screen and is displayed in an active state.
  • a background image is displayed on the upper screen.
  • the moving window is displayed on the lower screen, when the active window on the upper screen is selected, the window displayed on the lower screen is moved and displayed on the upper screen (See the flow from upper right to lower right in Figure 17).
  • Figure 19 shows an outline of the control when the tab corresponding to the active window (moving window) on the lower screen is selected.
  • the tab corresponding to moving window 1 on the lower screen is selected with 1 or 2 clicks, it is determined that window 1 is no longer the operation target, and the window is moved to the upper screen and displayed in an active state.
  • an input window is displayed on the lower screen.
  • FIG. 19 the case where windows 2 and 3 exist on the upper screen is shown, but the same applies even if a background image is displayed on the upper screen.
  • FIG. 20 shows an example of a gesture operation on a tab.
  • Fig. 20 (A) there is a scene where the stick 2 4 etc. is slid down on the touch panel 2 2. Indicated.
  • the same processing as that in the case of two continuous touches (two clicks) is executed.
  • the corresponding window is displayed as in the case of the two-click operation shown in FIG. 16 and FIG. Is displayed on the screen at a stretch. Therefore, as with the one-click and two-click operations described above, the movement and display of windows can be controlled with a simple gesture operation, improving operability.
  • FIG. 20 (B) shows a scene in which the stick 24 or the like is slid leftward or rightward on the evening panel 22.
  • a process of deleting (closing) the corresponding window is executed. Therefore, in this case as well, in the same manner as in the above-described operations, the window can be erased with a simple gesture operation, and the operability can be improved.
  • predetermined operations such as sliding operation in the left-right direction
  • correspondence of these predetermined operations to the window control process are as follows. This is an example, and may be changed as appropriate to other operations or other associations.
  • the corresponding window may be deleted when a tab is pressed for a certain period of time.
  • Figure 21 shows the outline of window control when deleting an active window on the upper screen.
  • an operation to instruct deletion is performed on the tab corresponding to window 1 that is active on the upper screen
  • that window 1 and the corresponding tab are deleted.
  • the window 1 data is deleted from the window image storage area 78
  • the tab data is deleted from the tab data storage area 80. Since there is a possibility that a tab number that is a serial number may be missing, the tab number is reset as necessary, and the tab data is updated. As a result, the tab number of the newly created window will be given the highest tab number. Specifically, when there is a tab number larger than the deleted tab number, the tab number is reset by subtracting 1 from the corresponding tab number.
  • window 1 with tab number 1 is deleted, so window 3 with tab number 3 has been changed to window 2 with tab number 2, and window 2 with tab number 2 has been tabbed.
  • window 1 with number 1 is deleted, so window 3 with tab number 3 has been changed to window 2 with tab number 2, and window 2 with tab number 2 has been tabbed.
  • the inactive window having the maximum tab number is detected, and the maximum tab number is stored in the upper screen window tab number storage area 82.
  • the window corresponding to the maximum tab number is displayed on the upper screen.
  • the tab position data is also updated, and in the lower screen, the updated display position corresponds to the remaining windows.
  • a tab is displayed. If the maximum tab number cannot be detected, that is, if no inactive windows remain, a background image is displayed on the upper screen.
  • the lower window window tab number storage area 84 is cleared and an input window is displayed on the lower screen.
  • the display on the upper screen remains the same.
  • the window image data, tab data, and tab position data are updated, and the upper screen window tab number storage area 82 is updated as necessary.
  • the window corresponding to the maximum tab number, that is, the last generated window is displayed.
  • the history data of the window display may be recorded and the window displayed immediately before that may be displayed.
  • FIG. 22 shows an example of the operation of the information processing apparatus 10.
  • the CPU core 42 displays an input window on the lower screen in step S1.
  • the CPU core 42 uses the GPU 50 (or GPU 52) to display the image data of the input window in the VRAM 56 (or VRAM 58) based on the input window image data in the initial state of the window image storage area 78.
  • the LCD controller 60 outputs the image data stored in the VRAM 56 (or VRAM 58) to the LCD 14 and displays the image on the LCD 14.
  • the CPU core 42 displays a background image on the upper screen.
  • the CPU core 42 generates image data of the background image in the VRAM 58 (or VRAM 56) using the GPU 52 (or GPU 50) based on the data for displaying the background image of the data storage area. Then, the background image is displayed on the L CD 12 using the LCD controller 60. '
  • step S5 the CPU core 42 detects a continuous latch input. Specifically, C PU core 42 stores evening to Tutsi input data storage area 7 4 coordinate data output from the evening Tsuchipaneru 22 via the I / "F circuit 54. A predetermined number of frames, for example successive (1 Coordinate data for 1 frame 60 seconds) is detected and stored in the storage area 74. Subsequently, in step S7, the CPU core 42 determines whether or not there is an input to the tab based on the touch input data and the tab position data. That is, it is determined whether or not the coordinates of the evening input data are included in the coordinates indicating the display position or range of the tab of the evening position data. If “YES” in the step S 7, the CPU core 42 executes a window display process in a step S 9. The operation of this window display process is shown in detail in FIG.
  • the CPU core 42 determines whether or not there is another input based on the latch input data in a step S11. If “YES” in the step S 11, that is, if there is a latch input other than the tab position, the CPU core 42 executes a search process in the step S 13. The operation of this search process is shown in detail in FIG.
  • step S11 If “NO” in the step S11, that is, if there is no evening input, the process proceeds to a step S15 as it is. When step S9 or step S13 is completed, the process proceeds to step S15.
  • step S15 the CPU core 42 determines whether or not to end the processing based on, for example, evening input data. If “NO” in the step S 15, the process returns to the step S 5, and if “YES”, the process is ended.
  • FIG. 23 shows an example of the search processing operation of step S 13 ('FIG. 22).
  • the CPU core 42 compares the coordinates of the input and the coordinates of the window displayed on the lower screen. Specifically, based on the data in the lower screen window tab number storage area 84, the window displayed on the lower screen is specified, and the coordinates to be compared included in the window image data of the window are referenced.
  • search button position data all erase button position data, handwritten input, and force position data, and it is determined whether or not the indicated coordinates indicated by the input data are included.
  • search candidate window it is determined whether or not the coordinates indicated by the touch input data are included with reference to each search candidate position data.
  • each word position data is referred to and it is determined whether or not the coordinates indicated by the input data are included in these.
  • step S 33 the CPU core 42 determines whether or not the designated coordinates are the coordinates of the all delete button 106. If “YES” in the step S 33, the CPU core 42 clears the coordinate point sequence storage area 76 in the step S 35 and clears the input character image data from the input window image data. Clears the display of input characters. If "NO” in the step S33, or when the step S35 is ended, the process proceeds to a step S37.
  • step S37 the CPU core 42 determines that the indicated coordinates are the coordinates of the search button 104. If it is “YES”, the process proceeds to step S 45.
  • the CPU core 42 determines whether or not the indicated coordinates are the coordinates of the handwriting input area 102 in a step S 39. If “YES” in the step S 39, the CPU core 42 records a coordinate point sequence in a step S 41. Specifically, the coordinate data of the handwriting input area 102 stored in the evening input data storage area 74 is stored in the coordinate point sequence storage area 76 and output from the evening panel 22 via the I / F circuit 54. Coordinate data to be acquired is acquired and additionally stored in the coordinate point sequence storage area 76. Although omitted in FIG.
  • the input window image data is updated by changing the color data of the corresponding coordinates of the handwritten input area 102 of the input window based on the recorded coordinate point sequence data, and the lower screen To display the image of the incoming window.
  • the handwritten input character 102 is displayed in the handwritten input area 102.
  • step S43 the CPU core 42 determines whether or not the next character has been input.
  • a user When entering a character by handwriting, a user generally has a tendency that a certain amount of time elapses after writing one character until the next character is written. For this reason, for example, based on the stored coordinate point sequence data, it is determined whether or not a predetermined time has elapsed from when the sunset is turned off until when the sunset is turned on. Alternatively, the start of the next character input may be determined by the end of the current character input. Specifically, based on the coordinate point sequence data, it may be determined whether or not a predetermined time has passed since the sunset was turned off. If "NO" in step S43, step S41 Return to.
  • step S43 the .CPU core 42 performs a character recognition process from the recorded coordinate point sequence in a step S45. Specifically, for example, a character input by pattern matching is recognized based on the coordinate point sequence data.
  • step S 47 the CPU core 42 executes search candidate window generation processing to create a search candidate window that displays the recognized word as a search candidate. The operation of this search candidate window generation process is shown in FIG. If step S47 ends or if “NO” in the step S39, the process proceeds to a step S49.
  • step S49 the CPU core 42 determines whether or not the indicated coordinates are the coordinates of a search candidate word. Alternatively, the CPU core 42 determines whether or not the indicated coordinate is a word coordinate in the dictionary.
  • step 49 the CPU core 42 executes a dictionary window generation process in a step S51 to create a dictionary window that displays an explanation of the instructed word.
  • the operation of this dictionary window generation process is shown in FIG. If step S51 ends or if “NO” in step S49, the process proceeds to step S53.
  • step S53 the CPU core 42 determines that the indicated coordinate is the coordinate of the input button 108. Judge whether there is. If “YES” in the step S 53, the CPU core 42 clears the lower screen window tab number data storage area 84 in a step S 55 and writes an initial value such as 0 or NULL. Subsequently, in step S57, the CPU core 42 displays an input window on the lower screen. Specifically, the CPU core 42 displays the input window image on the LCD 14 using the GPU 50 (or GPU 52), the LCD controller 62, etc., as described above, based on the incoming image data.
  • Step S57 is ended, or if “NO” in the step S53, this search processing is ended, and the processing returns to the step S15 in FIG.
  • FIG. 24 shows an example of the operation of search candidate window generation processing in step S 47 (FIG. 23).
  • the CPU core 42 determines whether or not to create a new search candidate window. For example, in the case of the first character recognition after the all deletion button 106 is pressed and the coordinate point sequence data is once cleared, it is determined that a new window is created.
  • step S 71 the CPU core 42 generates word search candidate window image data obtained by character recognition in step S 73. For example, the word corresponding to the recognition result is read from the dictionary data, the display position of the word is determined, and the search candidate position data is generated. In this way, data for displaying the search candidate window image including the word is generated and stored in the window image storage area 78.
  • step S75 the CPU core 42 reads the title image data (image data indicating “search candidate”) in the tab of the search candidate window from the ROM 28a to the RAM 48.
  • step S 77 the CPU core 42 generates a new tab number. Specifically, when tab data is stored in the tab data storage area 80, a new tab number is generated by adding 1 to the maximum tab number. If tab data is not stored in the tab data storage area 80 (ie, no window is created), 1 is set as the new tab number.
  • step S 79 the CPU core 42 generates the evening data and stores it in the tab data storage area 80. Specifically, the title image data read in step S75 and the head address of the window image data generated in step S73 are stored in association with the tab number generated in step S77 (see FIG. 6). .
  • step S 81 the CPU core 42 stores the tab number generated in step S 77 in the upper screen window tab number data storage area 82.
  • step S 83 the CPU core 42 determines whether the GPU 50 (or Displays the search candidate window on the LCD 12 using the GPU 52) and the LCD controller 62. In this way, for example, as shown in FIG. 7, the newly created search candidate window 110 is displayed on the upper screen.
  • step S 85 the CPU core 42 generates tab position data and stores it in the tab position data storage area 86. For example, if the evening position data is not stored in the evening position data evening storage area 86, the predetermined display position or range for the first tab is read, and the new tab generated in step S77 is read. Store it in association with the number. On the other hand, if tab position data is stored, the display position or range of the new tab is set based on the number of characters in the title image of each tab and the size of the tab display area, etc. Add and remember. In addition, the display position or range of the existing evening is updated as necessary so that the entire evening fits in the tab display area.
  • step S 87 the CPU core 42 displays a tab corresponding to the search candidate window on the LCD 14 using the GPU 52 (or GPU 50) and the LCD controller 60 based on the tab data and the tab position data. If the display position of the existing tab is updated in step S85, the existing tab is displayed at the updated position.
  • step S71 the CPU core 42 updates search candidate window image data in step S89. Specifically, similarly to step S 73, data for displaying a search candidate window image including a word obtained by further character recognition is generated and stored in the window image storage area 78.
  • step S 91 the CPU core 42 displays a search candidate window on the LCD 12 using the GPU 50 (or GPU 52) and the LCD controller 60 based on the updated search candidate window image data. .
  • the updated search candidate window 110 is displayed on the upper screen.
  • FIG. 25 shows an example of the operation of the dictionary window generation process in step S 51 (FIG. 23).
  • the CPU core 42 reads the explanation data corresponding to the selected search candidate or the word in the explanation text from the dictionary data storage area 88 to the work area of the RAM 48.
  • the CPU core 42 determines the heading position of the word, the display position of the explanatory text (display position of each word), etc. based on the read description data, etc.
  • the dictionary window image data for displaying is generated and stored in the window image storage area 78.
  • step S105 CPU core 42 is selected in step S105. To display the title image of the tab corresponding to the search candidate or the word in the description.
  • step S107 the CPU core 42 sets a tab number corresponding to the created dictionary window by referring to the tab data storage area 80 and adding 1 to the maximum tab number.
  • step S109 the CPU core 42 generates tab data by associating the tab number in step S107, the title image data in step S105, and the head address of the dictionary window image data in step S103, and stores tab data. Store in area 80.
  • step S 1 1 the CPU core 42 stores the tab number newly set in step S 107 in the upper screen window tab number data storage area 82.
  • step S 1 13 the CPU core 42 creates a dictionary window on the LCD 12 using the GPU 50 (or GPU 52) and the LCD controller 60 based on the dictionary window image data generated in step S 103. indicate. In this way, the newly created dictionary window is displayed on the upper screen, as shown in Fig. 10 or Fig. 14, for example.
  • step S 115 the CPU core 42 updates the tab position data and stores it in the evening position data storage area 86. Specifically, as in step S85, a new tab display position or range is newly set and associated with the new tab number, and if necessary, the existing tab display position or range is set. Update range.
  • step S117 the CPU core 42 uses the GPU 52 (or GPU 50) and the L CD controller 60 based on the tab data and the tab position data to display the tab corresponding to the new dictionary window on the LCD 14. Is displayed. If the display position of the existing tab is updated in step S 1 15, the existing tab is displayed at the updated position. When step S 1 17 ends, this dictionary window generation processing ends, and the process proceeds to step S 53 in FIG.
  • FIG. 26 shows an example of the window display processing operation in step S 9 (FIG. 22).
  • the CPU core 42 determines whether or not a one-click operation has been performed based on the evening input data. For example, if a touch-on is detected from the state of an evening touch-off, and then an evening touch-off is detected, it is determined that one click operation has been performed.
  • step S 131 the CPU core 42 detects the data output from the touch panel 22 via the I ZF circuit 54 and stores it in the touch input data storage area 74 in a step S 133. . Then, in step S135, the CPU core 42, based on the coordinate data detected in step S135 and the tab position data, It is determined whether or not the same tab is selected again. That is, it is determined whether or not the instruction coordinates indicated by the input data correspond to the display coordinates of the same tab as the tab designated in step S7. If “NO” in the step S 135, the CPU core 42 determines whether or not a predetermined time has elapsed after detecting the evening switch off from the evening switch on in the determination of the step S 1 31. If “NO” in the step S 137, the process returns to the step S 133.
  • step S137 determines that step S Execute one-click processing at 139.
  • the operation of this one-click process is shown in FIGS. 27 and 28 described later.
  • step S 135 If “YES” in step S 135, that is, if the same tab display position is indicated again after a certain period of time has elapsed since the first click was detected, the tab is displayed. It can be determined that a 2-click operation was performed. Therefore, the CPU core 42 executes a two-click process in step S141. The operation of this two-click process is shown in FIGS. 29 and 30 described later.
  • step S 131 the CPU core 42 determines whether or not a downward sliding operation has been performed based on the latch input data in a step S 1 43. If “YE S” in step S143, that is, if, for example, the history of the detected point coordinates shows a continuous trajectory in the downward direction, the CPU core 42 is set to 2 in step S141. Perform click processing.
  • the CPU core 42 determines whether or not a slide operation to the right or a slide operation to the left has been performed based on the touch input data in the step S145. Judging. If “YES” in the step S145, that is, if, for example, the history of the designated coordinates indicates a continuous trajectory in the right or left direction, the CPU core 42 executes the erasing process in the step S147. . This erasure processing operation is shown in FIGS. 31 and 32 described later.
  • step S145 If “NO” in the step S145, that is, if the operation on the tab cannot be determined, the window display process is ended, and the process proceeds to the step S15 in FIG. The same applies when step S139, step S141 or step S147 is completed. '
  • FIG. 27 shows an example of the one-click processing operation in step S139.
  • the CPU core 42 detects the tab number of the selected tab based on the input data and the tab position data.
  • the CPU core 42 determines whether or not the tab number of the selected tab is the same as the value of the upper screen window tab number storage area 82. "YES" in step S163
  • the CPU core 42 sets the lower screen window tab number data to the clear value in step S165. Judge whether there is.
  • step S165 determines the tab number of the lower screen window tab number data storage area 84 in the step S167. Is read and stored in the upper screen window tab number data storage area 82. As a result, the moving window that was displayed on the lower screen will be displayed actively on the upper screen.
  • Fig. 27 the operation when the active window on the upper screen is moved to the lower screen is shown, but when the active window on the upper screen is copied to the lower screen, the tab number data on the upper screen window is displayed. Leave storage area 8 2 as is.
  • step S 169 the CPU core 42 is the maximum not set in the tab number data area. Detect the tab number. In other words, the tab number stored in the tab data storage area 80 is detected except for the tab number stored in the upper screen window tab number storage area 82. If a window other than the active window is created on the upper screen, the maximum evening number is detected, otherwise the maximum tab number is not detected. Then, the CPU core 42 determines whether or not there is no detection in step S171. If “NO” in the step S 171, the CPU core 42 stores the detected maximum tab number in the upper screen window tab number data storage area 82 in a step S 173. As a result, the window having the largest tab number among the inactive windows is displayed actively on the upper screen.
  • step S 167 or step S 173 the CPU core 42 displays a window corresponding to the upper screen window tab number on the upper screen in step S 175. Specifically, the CPU core 42 refers to the upper screen window tab number data and tab display data, and acquires the top address of the window image corresponding to the upper screen window tab number. Then, the CPU core 42 displays the window image on the LCD 12 using the GPU 50 (or GPU 52) and the LCD controller 60 based on the corresponding window image data in the window image storage area 78. If “YE S” in step S 171, that is, if there is no inactive window, the CPU core 42 clears the upper screen window tab number data storage area 82 in step S 177.
  • step S179 the CPU core 42 displays the background image on the L CD 12 using the GPU 50 (or GPU 52) and the L CD controller 60 based on the background image data.
  • step S 1 75 or step S 1 79 the CPU core 42 stores the tab number of the selected tab in the lower screen window tap number data storage area 84 in step S 18 1 3 ⁇ 4.
  • step S183 the CPU core 42 displays a window corresponding to the lower screen window tab number on the lower screen.
  • the C? 11 core 42 refers to the lower screen window tab number data and tab data, and acquires the head address of the window image corresponding to the lower screen window tab number.
  • the CPU core 42 displays the window image on the LCD 14 using the GPU 52 (or GPU 50) and the LCD controller 60 based on the corresponding window image data in the window image storage area 78.
  • the window corresponding to the tab number stored in the lower screen window tab number storage area 84 is determined so that the input operation by the evening panel 22 is possible.
  • the window is set in a state where input is possible.
  • a data storage area that indicates whether or not input can be performed with the latch panel 22 for the lower screen window is provided and input to this storage area.
  • the state of input to the window displayed on the lower screen may be controlled.
  • the lower screen displays the active window of the upper screen selected with one click in an active state (in an input enabled state).
  • step S183 ends, the one-click process ends. .
  • step S 1 63 that is, if the tab corresponding to the inactive window or the moving window on the lower screen is selected with one click, the process proceeds to step S 18 5 in FIG. Proceed to
  • step S 1 85 of FIG. 28 the CPU core 42 stores the tab number of the selected tab in the upper screen window tab number data storage area 82.
  • step S 1 87 the CPU core 42 displays the window corresponding to the upper screen window tab number on the upper screen in the same manner as in step S 1 75. In this way, a non-active window corresponding to the selected tab or a moving window on the lower screen is actively displayed on the upper screen.
  • step S 189 the CPU core 42 determines whether or not the tab number of the selected tab is the same as the value in the lower screen window tab number storage area 84. If “YES” in step S 189, that is, if the evening corresponding to the moving window on the lower screen is selected, the CPU core 42 stores the lower window window tab number data in step S 19 1. Clear area 84. And in step S 1 93, C The PU core 42 displays the input window on the lower screen. In this way, when the tab corresponding to the moving window on the lower screen is selected with a single click, the input window is displayed on the lower screen.
  • step S 189 that is, if the tab corresponding to the inactive window is selected by one click, the one-click process is ended as it is. Therefore, in this case, the display on the lower screen is not changed.
  • FIG. 29 shows an example of the operation of the two-click process in step S 141 (FIG. 26).
  • the CPU core 42 detects the tab number of the selected tab based on the input data and the tab position data.
  • the CPU core 42 determines whether or not the tab number of the selected tab is the same as the value in the lower screen window tab number storage area 84.
  • step S213 If “YES” is selected in step S213, that is, if the evening corresponding to the moving window on the lower screen is selected with a two-click operation (or a downward sliding operation), CPU core 42 In S 215, the tab number of the selected tab is stored in the upper screen window tab number data storage area 84. In step S 217, the CPU core 42 displays a window corresponding to the upper screen window tab number on the upper screen. In this way, the lower window moving window corresponding to the selected tab is actively displayed on the upper screen, as in the case of being selected with one click.
  • step S 219 the CPU core 42 clears the lower screen window tab number data storage area 84.
  • step S 21 1 the CPU core 42 displays an input window on the lower screen. In this way, when the tab corresponding to the moving window on the lower screen is selected by a 2-click operation, etc., the input window is displayed on the lower screen as in the case of the 1-click operation. Become.
  • step S 221 ends, the two-click process ends.
  • step S213 that is, if the tab corresponding to the active window or inactive window on the upper screen is selected by a two-click operation, etc., the process proceeds to step S in FIG. Proceed to 223.
  • step S223 of FIG. 30 the CPU core 42 determines whether or not the lower screen window tab number data is a clear value. If “NO” in the step S223, that is, if the moving window is displayed on the lower screen, the CPU core 42 sets the tab number of the lower screen window tab number data storage area 84 in the step S225. Read out and store in upper screen window tab number data storage area 82. As a result, the moving window displayed on the lower screen is displayed as active on the upper screen. On the other hand, if “YE S” in step S223, that is, if the input window is displayed on the lower screen, the CPU core 42 determines that the tab number of the selected tab is higher in step S227.
  • step S227 determines whether or not the value is the same as the value in the screen window tab number storage area 82. If “YE S” in step S227, that is, if the active window on the upper screen has been selected by a 2-click operation, etc., CPU core 42 is in step S229, step S169 ( Figure In the same way as in 27), the maximum tab number not set in the tab number data area is detected. Then, the CPU core 42 determines whether or not the maximum tab number is not detected in step S231. If “NO” in step S 2 3 1, that is, if there is an inactive window, in step S 233, the CPU core 42 stores the detected maximum tab number in the upper window window tab number data storage. Store in area 82. As a result, the window having the largest tab number among the inactive windows is displayed on the upper screen in an active manner.
  • step S225 or step S233 the CPU user 42 displays a window corresponding to the upper screen window tab number on the upper screen in step S235.
  • step S 23 1 If “YE S” in step S 23 1, that is, if there is no inactive window, the CPU core 42 clears the upper screen window tab number data storage area 82 in step S 2 37, and In step S 23 9, the background image is displayed on the LCD 12.
  • step S227 If “NO” in the step S227, that is, if the evening corresponding to the inactive window is selected by a two-click operation or the like, the upper screen is displayed as it is, and the processing is performed in the step S241. Proceed to When step S235 or step S239 is completed, the process proceeds to step S241.
  • step S241 the CPU core 42 stores the tab number of the selected tab in the lower screen window tab number data storage area 84. Then, in step S243, the CPU core 42 displays the window corresponding to the lower screen window tab number on the lower screen in the same manner as in step S183 (Fig. 27), and allows operation input to the window. To. In this way, on the lower screen, the active window or the “inactive window” of the upper screen selected by the two-click operation or the like is displayed in the active state. When step S243 is completed, the two-click process ends.
  • FIG. 31 shows an example of the erase processing operation in step S 147 (FIG. 26).
  • the CPU 42 detects the tab number of the tab selected by the erasing operation based on the latch input data and the tab position data.
  • the CPU core 42 determines whether or not the tab number of the selected tab is the same as the value in the upper screen window tab number storage area 82.
  • step S263 determines that the tab number data in step S265.
  • the maximum tab number that is not set in the area is detected. That is, except for the tab numbers stored in the upper screen window tab number storage area 82 and the lower screen window tab number storage area 84, the maximum tab number among the tab numbers stored in the tab data storage area 80 is set. To detect.
  • step S267 the CPU core 42 determines whether or not the maximum tab number is not detected. If “NO” in step S 267, that is, if there is an inactive window, CPU core 42 determines that the upper tab number upper screen window tab number data storage area 82 detected in step S 269.
  • step S 27 the CPU core 42 displays a window corresponding to the upper screen window tab number on the upper screen.
  • the window corresponding to the maximum tab number is displayed actively on the upper screen.
  • step S 263 determines whether or not the evening corresponding to the inactive window or the moving window on the lower screen is selected by the erasing operation. If “NO” in step S 263, that is, if the evening corresponding to the inactive window or the moving window on the lower screen is selected by the erasing operation, the CPU core 42 determines whether or not the step S 27 7 Then, it is determined whether or not the tab number of the selected tab is the same as the value in the lower screen window number storage area 84. If “YES” in the step S 277, that is, if the tab corresponding to the moving window on the lower screen is instructed by the erasing operation, the CPU core 42 selects the lower screen window tab number in the step S 279. Memory area 84 is cleared and the input window is displayed on the lower screen in step S 28 1.
  • step S 277 If “NO” in step S 277, that is, if the tab corresponding to the inactive window is selected by the delete operation, the inactive window is not displayed on the screen in this embodiment. Therefore, the display of the window is left as it is, and the process proceeds to step S283. Further, when step S 27 1, step S 275 or step S 28 1 is finished, the process proceeds to step S 283.
  • step S 283 the CPU core 42; acquires the tab data and window image data corresponding to the tab number of the selected tab, the tab data storage area 80 and the window data. Erase each from the image storage area 78.
  • step S283 ends, the process proceeds to step S285 in FIG.
  • step S 285 of FIG. 32 the CPU core 42 determines whether or not a tab number larger than the tab number of the tab selected by the erasing operation exists in the tab data storage area 80. If “YE S” in step S 285, the CPU core 42 resets the tab number by subtracting 1 from the corresponding tab number in step S 287. In step S 289, the CPU core 42 sets the reset evening number to the evening memory area 80 for the tab number that is larger than the tab number of the selected tab. Overwrite and update tab data.
  • step S291 the CPU core 42 resets the upper screen window tab number data storage area 82 when a tab number larger than the tab number of the selected tab is stored. Update to the tab number.
  • step S293 the CPU core 42 resets the lower window window evening number data storage area 84 if an evening number larger than the evening number of the selected tab is stored. Update the tab number.
  • step S 285 If “NO” in the step S 285, there is no need to reset the tab number, and the process proceeds to a step S 295 as it is.
  • step S295 the CPU core 42 updates the tab position data storage area 86. Specifically, the display position data corresponding to the tab number of the tab selected by the “delete operation” is deleted. If there is a tab number larger than the tab number of the selected tab, the corresponding tab number is decremented by 1 and the tab number is updated. In addition, reset the display position as necessary on the tabs that remain without being erased.
  • step S297 the CPU core 42 updates the evening display based on the tab position data.
  • the CPU core 42 uses the GPU 52 (or GPU 50) and the LCD controller 60 based on the title image data or the like to display each tab position data at each display position when tab-related data exists in the tab position data. Display the tab image. If no tab display position data exists in the tab position data storage area 86, a background image is displayed in the tab display area on the lower screen.
  • step S297 is completed, the erasing process is ended.
  • the user can use the evening panel 22 to select a predetermined display position or range of the tab of the LCD 14.
  • the window corresponding to the tab can be controlled.
  • the window (active window) displayed in front of the LCD 12 can be displayed on the LCD 14 by performing a predetermined input on the tab of the L CD 14. This makes it possible to operate and input the window using the evening panel 22. in this way, Even a window displayed on the LCD 12 can be displayed on the LCD 14 and made ready for input, so that operability can be improved.
  • the user can change the display control of a non-atypical window that is not displayed on the LCD 12, for example, by properly using the input operation according to the purpose.
  • a non-active window can be displayed in the forefront with LCD 12 by inputting the first predetermined input with a single click.
  • the window can be displayed on the LCD 14 by performing a one-click operation or the like.
  • an inactive window can be displayed directly on the LCD 14 by performing a second predetermined input by a 2-click operation or a downward sliding operation. Because it is possible, you can bring the window into a state where you can input and operate quickly. Therefore, operability can be improved.
  • the window can be displayed on the LCD 12 in the forefront.
  • the window can be moved from the LCD 14 to the LCD 12, so that the operability can be improved.
  • the touch panel 22 mounted on the LCD 14 when the touch panel 22 mounted on the LCD 14 is applied as input means, the touch panel 22 can be operated as if directly touching the tab of the LCD 14. Furthermore, it is possible to operate the window displayed on the LCD 14 as if it were directly touched. Therefore, the window can be controlled by an intuitive operation using the evening panel 22. In addition, since the evening panel 22 is an input means, an operation target window can be displayed on the L CD 14 that can be touched by the user, that is, within the reach of the user's hand. . Therefore, the operability can be further improved.
  • only one window among a plurality of windows is displayed on the upper screen.
  • multiple windows including non-active windows are superimposed on the upper screen and displayed simultaneously.
  • the window corresponding to the tab number stored in the upper screen window tab number storage area 82 is activated, that is, displayed so as to be positioned in the foreground.
  • the window corresponding to the tab number not stored in the upper screen window tab number storage area 82 is in an inactive state in a state where a part of the window is hidden by being superimposed on the window displayed in the forefront of the upper screen. Is displayed. When overlapping and displaying simultaneously in this way, multiple windows will have information about the depth indicating the display order on the screen.
  • tab numbers may be used as this display order information.
  • the display order of inactive windows in L CD 12 may be set so that, for example, the tab numbers are arranged in the descending order.
  • the window that was displayed in the foreground in the past may be set to be displayed on the back side.
  • a plurality of windows are superimposed and displayed only on the upper screen, or only the foremost window among the plurality of windows is displayed, and one window ( (Moving window) was only displayed. Since the input window is displayed in the initial state of the lower screen and is not moved to the upper screen, it is not included in the window controlled between a plurality of display areas targeted by the present invention.
  • a plurality of windows may be superimposed on the lower screen as in the case of the upper screen, or only the foremost window among the plurality of windows may be displayed.
  • the window previously displayed on the LCD 12 is displayed on the LCD 14
  • another window for example, the window corresponding to the maximum tab number
  • the window was expressed as if it was moved from LCD 12 to LCD 14.
  • the window may remain displayed on the LCD 12 and displayed on the LCD 14. That is, the window may be expressed as if it was copied from LCD 12 to LCD 14.
  • the first LCD 12 and the second LCD 14 are arranged side by side in the vertical direction, but the arrangement of the two LCDs can be changed as appropriate.
  • the first LCD 12 and the second LCD 14 may be arranged side by side in the horizontal direction.
  • two LCDs each displaying two screens are provided.
  • the number of LCDs as a display unit can be changed as appropriate.
  • a vertically long LCD is provided, and an evening panel 22 is provided on at least one side of the display area divided into the upper and lower sides, and two images or screens are displayed. It may be displayed in each display area, or horizontally long
  • a single LCD may be provided, and a latch panel 22 may be provided on at least one of the left and right display areas to display two images or screens in the respective display areas.
  • the first display area may be divided into a plurality of areas and a plurality of windows may be displayed simultaneously.
  • the first display area 12 is divided into a left half area and a right half area, a window is displayed in the left half area, and another window is displayed in the right half area.
  • the upper screen window tab number storage area 8 2 may include a left area window tab number storage area 8 2 a and a right area window tab number storage area 8 2 b.
  • the deepest window can be displayed in the left half area
  • the second highest window can be displayed in the right half area, or any two windows can be selected by the user for each area. It may be displayed.
  • the corresponding window may be displayed in the second display area.
  • the second display area may be divided into a plurality of areas and a plurality of windows may be displayed simultaneously.
  • the first display area and the second display area may be divided into three or more areas, and three or more windows may be displayed simultaneously.
  • the window is displayed in a part of the display area 12 or 14. However, the window is displayed in the entire display area 12 or 14 (full screen). May be.
  • the input means for designating an arbitrary position of the second display area is the touch panel 22.
  • other pointing devices such as a computer mouse, a touch pad, and a tablet are used. You may make it use.
  • an image such as a mouse pointer or cursor indicating the user's designated position is displayed in the second display area.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)
  • Stored Programmes (AREA)
  • Signal Processing For Digital Recording And Reproducing (AREA)
  • Digital Computer Display Output (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Debugging And Monitoring (AREA)

Abstract

情報処理装置(10)は、第1表示領域としてのLCD(12)および第2表示領域としてのLCD(14)を含み、第2表示領域には入力手段としてたとえばタッチパネル(22)が設けられる。第1表示領域には複数のウインドウが重畳してまたは最前のウインドウのみが表示され、第2表示領域には複数のウインドウに対応付けられた複数のタブが表示される。タッチパネルの操作に応じて検出された座標データに基づいて、タブ上で所定の入力があったと判定されたとき、当該タブに対応付けられた第1表示領域で最前に表示されていたウインドウが第2表示領域に表示される。あるいは、当該タブに対応付けられた非アクティブなウインドウが第2表示領域に表示される。

Description

明細書
情報処理装置、 情報処理プログラム、 情報処理プログラムを記憶した記憶媒体およ びウインドウ制御方法 技術分野
この発明は、 情報処理装置、 情報処理プログラム、 情報処理プログラムを記憶し た記憶媒体およびウィンドウ制御方法に関し、 特にたとえば、 第 1表示領域および 第 2表示領域に複数のウィンドウを表示する、情報処理装置、情報処理プログラム、 情報処理プログラムを記憶した記憶媒体およびウインドウ制御方法に関する。 従来技術
複数のウィンドウの制御技術の一例が、 1 9 9 3年 8月 1 3日に出願公開された 文献 1 (特開平 5—,2 0 4 5 8 1号公報) に開示されている。 この文献 1に記載の ウィンドウ表示方式では、 画面上に複数のウィンドウが重なりあって表示されると ともに、 同じ画面上に複数のアイコンが表示される。 そして、 マウス入力のあった アイコンに対応するウィンドウがァクティブな状態で一番前に表示される。
また、 複数のウィンドウの制御技術の他の例が、 1 9 9 6年 3月 2 6日に出願公 開された文献 2 (特開平 8 _ 8 '3 1 6 0号公報) に開示されている。 この文献 2に 記載のマルチウィンドウ表示方式では、 複数の表示装置のうちのある表示装置 (第 1の表示装置) に複数のウィンドウが重畳して表示される。 複数の表示装置のそれ ぞれには、 マウスおよび操作キー (再生先キー、 移動先キーまたは複写先キー) が 設けられている。 そして、 第 1の表示装置に設けられた操作キーで第 2の表示装置 が指定されるとともにマウスでウインドウが選択されると、 当該選択されたウイン ドウが、 指定された第 2の表示装置に再生、 移動または複写によって表示される。 文献 1に記載の技術では、 アイコンがマウスで選択されることによって対応する ウィンドウがァクティブ状態で表示されるので、 上に重なっているウィンドウを移 動させるといった煩雑な操作をする必要がない。しかし、文献 1に記載の技術では、 1つの画面上に重畳された複数のウィンドウのうちアクティブにするウィンドウが、 同じ画面上のアイコンで選択されるに過ぎない。 また、 選択されたウィンドウは単 に同じ画面上の同じ位置のままで最前に表示されるだけである。 この文献 1には、 複数のウインドウを複数の表示領域または複数の表示画面間で制御する技術は何ら 開示されていない。
また、 文献 2に記載の技術では、 1つの表示装置に重畳して表示された複数のゥ インドウのうち選択されたウィンドウが、 指定された他の表示装置に表示されるの で、 視認性を向上することができる。 しかし、 文献 2に記載の技術では、 各表示装 置の画面に対する入力のためにはそれぞれのマウス等を用いなければならないので、 操作が面倒であった。 つまり、 第 1の表示装置に表示された複数のウィンドウのう ちの 1つを、 第 1の表示装置に設けられるマウス等の操作によって、 第 2の表示装 置に表示することは可能であるが、 第 2の表示装置に表示されたウィンドウに対し て入力をするためには第 2の表示装置に設けられたマウス等を操作しなければなら ない。 また、 第 2の表示装置に設けられたマウス等を操作しても、 第 1の表示装置 に表示されているウィンドウを第 2の表示装置に表示することは不可能である。 発明の概要
それゆえに、 この発明の主たる目的は、 新規な、 情報処理装置、 情報処理プログ ラム、 情報処理プログラムを記憶した記憶媒体およびウィンドウ制御方法を提供す ることである。
この発明の他の目的は、 複数の表示領域間でのウインドウ制御に対する操作性を 向上できる、 情報処理装置、 情報処理プログラム、 情報処理プログラムを記憶した 記憶媒体およびウインドウ制御方法を提供することである。
この発明に従った第 1の発明の情報処理装置は、記憶手段、表示手段、検出手段、 および第 1表示制御手段を備える。 記憶手段は、 複数のウィンドウを表示するため のデ一夕と複数のウィンドウのそれぞれに対応付けられた複数の選択領域を表示す るためのデータを記憶する。 表示手段は、 複数のウィンドウのうち所定のウィンド ゥのみが表示されまたは複数のウィンドウが重畳して表示される第 1表示領域と複 数の選択領域が表示される第 2表示領域とを含む。 検出手段は、 複数の選択領域の 表示位置に対する入力を検出する。 第 1表示制御手段は、 検出手段によって、 第 1 表示領域に表示されているウィンドウまたは最前に表示されているウィンドウに対 応付けられた選択領域で第 1の所定入力があつたと判定されるとき、 当該選択領域 に対応するウィンドウを第 2表示領域に表示する。
具体的には、 第 1の発明の情報処理装置 (1 0 :後述される好ましい実施例で相 当する参照符号。以下同じ。) は、記憶手段(2 8 a、 4 8 ) を含み、記憶手段には、 複数のウインドウを表示するためのデータと、 複数のウインドウのそれぞれに対応 付けられた複数の選択領域を表示するためのデータが記憶される。 実施例では、 ゥ インドウ画像データ、 上画面ウィンドウタブ番号データ、 下画面ウィンドウタブ番 号データ、 タブデータ、 およびタブ位置デ一夕等が記憶される。 表示手段 (1 2、 1 4 ) は、 第 1表示領域 (1 2 ) および第 2表示領域 (1 4 ) を含む。 第 1表示領 域には複数のウィンドウ (1 1 0、 1 1 4、 1 1 8 ) のうち所定の (たとえば深度 が最前の) のウィンドウのみが表示され、 または複数のウィンドウが重畳して表示 される。 第 2表示領域には、 複数の選択領域 (1 1 2、 1 1 6、 1 2 0 ) が表示さ れる。 検出手段 (42、 S 5、 S 7、 S 131、 S 133、 S 135、 S 137、 S 143、 S 145、 S 161、 S 163 , S 189、 S 21 1、 S 213、 S 2 27) は、 複数の選択領域の表示位置に対する入力を検出する。 そして、 第 1表示 制御手段 (42、 50、 52、 60、 S 181、 S 183、 S 241、 S 243) は、 検出手段によって、 第 1表示領域に表示されているウィンドウまたは最前に表 示されているウィンドウに対応付けられた選択領域で第 1の所定入力があつたと判 定されるとき、 当該選択領域に対応するウィンドウを第 2表示領域に表示する。 所 定の入力は、 実施例では、 1クリック操作、 2クリック操作、 もしくは下方向への スライド操作等による入力である。
より詳細には、 たとえば、 記憶手段は、 各選択領域と各ウィンドウとを関連付け るテーブルデータ (夕プデータ) を記憶するテーブル記憶手段 (80) を含んでよ い。 第 1表示制御手段は、 テーブル記憶手段に基づいて所定入力のあった選択領域 に対応するウィンドウを決定して、 当該ウィンドウを第 2表示領域に表示する。 さ らに詳しくは、 記憶手段は、 各ウィンドウに付与される識別情報 (タブ番号) を記 憶する識別情報記憶手段(80)、および第 2表示領域に表示すべきウィンドウの識 別情報を記憶する第 2表示領域識別情報記憶手段 (84) を含んでよい。 第 1表示 制御手段は、 選択領域で所定入力があつたと判定されるとき、 当該選択領域に対応 するウィンドウの識別情報を、 '第 2表示領域識別情報記憶手段に記憶して (S 18 1、 S 241)、 当該記憶された識別情報の付与されたウィンドウを第 2表示領域に 表示する (S 185、 S 243)。
この情報処理装置によれば、 複数のウィンドウに対応付けられた複数の選択領域 が第 2表示領域に表示されるので、 ユーザは、 第 2表示領域の選択領域に対して第 1の所定入力を行うことによって、 第 1表示領域に表示されているウィンドウまた は最前に表示されているウィンドウ (アクティブなウィンドウ) を第 2表示領域に 表示することができる。 これによつて、 当該ウィンドウに対してたとえば入力手段 を用いて操作し入力することが可能になる。 このように、 第 1表示領域に表示され ていたウィンドウであっても、 第 2表示領域の選択領域で所定の操作を行うことに よって、 当該ウィンドウを第 2表示領域に移動または複写等によって表示して入力 可能な状態にすることができるので、 操作性を向上することができる。
ある局面では、 情報処理装置ば、 検出手段によって、 第 1表示領域と第 2表示領 域のいずれにも表示されていないウインドウまたは第 1表示領域で最前に表示され ているウィンドウに重畳して一部が隠れているウインドウに対応付けられた選択領 域で第 1の所定入力があつたと判定されるとき、 当該選択領域に対応するウィンド ゥを第 1表示領域に表示しまたは第 1表示領域で最前に表示する第 2表示制御手段 をさらに備える。 具体的には、 第 2表示制御手段 (4 2、 5 0、 5 2、 6 0、 S 1 8 5、 S 1 8 7 ) は、 検出手段によって、 第 1表示領域と第 2表示領域のいずれにも表示されていな いウインドウまたは第 1表示領域で最前に表示されているウインドウに重畳して一 部が隠れているウィンドウ (非アクティブなウィンドウ) に対応付けられた選択領 域で第 1の所定入力があつたと判定されるとき、 当該選択領域に対応するウィンド ゥを第 1表示領域に表示しまたは第 1表示領域で最前に表示する。 第 1の所定入力 は、 実施例では 1クリック操作による入力である。 この場合には、 ユーザは、 第 1 の所定入力によって非アクティブなウィンドウを一旦第 1表示領域に表示しまたは 第 1表示領域で最前に表示することができるので、 たとえば当該ウィンドウの内容 を第 1表示領域で確認することができる。 そして、 その確認後、 必要に応じて所定 入力の操作を行うことによって当該ウィンドウを第 2表示領域に表示することがで きる。 したがって、 操作性を向上することができる。
別の局面では、 情報処理装置は、 検出手段によって、 第 1表示領域と第 2表示領 域のいずれにも表示されていないウィンドウまたは第 1表示領域で最前に表示され ているウインドウに重畳して一部が隠れているウインドウに対応付けられた選択領 域で第 2の所定入力があつたと判定されるとき、 当該選択領域に対応するウィンド ゥを第 2表示領域に表示する第 3表示制御手段をさらに備える。
具体的には、 第 3表示制御手段 (4 2、 5 0、 5 2、 6 0、 S 2 4 1、 S 2 4 3 ) は、 検出手段によって、 第 1表示領域と第 2表示領域のいずれにも表示されていな いウィンドウまたは第 1表示領域で最前に表示されているウインドウに重畳して一 部が隠れているウィンドウ (非アクティブなウィンドウ) に対応付けられた選択領 域で第 2の所定入力があつたと判定されるとき、 当該選択領域に対応するウィンド ゥを第 2表示領域に表示する。 第 2の所定入力は、 実施例では 2クリック操作また は下方向へのスライド操作による入力である。 この場合には、 アクティブなウィン ドウを第 2表示領域に表示させる第 1の所定入力とは異なる第 2の所定入力によつ て、 非ァクティブなウィンドウを直接第 2表示領域に表示することができるので、 当該ウィンドウを操作入力可能な状態に一気に持っていくことができ、 素早い入力 が可能になる。 たとえば当該非アクティブなウィンドウの内容を確認する必要が無 い場合等に極めて有益である。したがって、操作性を向上することができる。また、 ユーザは、 非ァクティブなウィン'ドウに対応付けられた選択領域に対する入力操作 を使い分けることによって、 非アクティブなウィンドウの表示制御を異ならせるこ とができる。 たとえば非アクティブなウィンドウの内容を確認したい場合には、 第 1の所定入力によって当該非ァクティブなウィンドウを一旦第 1表示領域で最前に 表示することができる。
この発明に従った第 2の発明の情報処理装置は、記憶手段、表示手段、検出手段、 および第 1表示制御手段を備える。 記憶手段は、 複数のウィンドウを表示するため のデータと複数のウインドウのそれぞれに対応付けられた複数の選択領域を表示す るためのデータを記憶する。 表示手段は、 複数のウィンドウのうち所定のウィンド ゥのみが表示されまたは複数のウィンドウが重畳して表示される第 1表示領域と複 数の選択領域が表示される第 2表示領域とを含む。 検出手段は、 複数の選択領域の 表示位置に対する入力を検出する。 第 3表示制御手段は、 検出手段によって、 第 1 表示領域と第 2表示領域のいずれにも表示されていないウィンドウまたは第 1表示 領域の最前に表示されているウィンドウに重畳して一部が隠れているウインドウに 対応付けられた選択領域の表示位置に対する第 2の所定入力があつたと判定される とき、 当該選択領域に対応するウィンドウを第 2表示領域に表示する。
具体的には、 第 2の発明の情報処理装置は、 上述の第 1の発明の情報処理装置と は表示制御手段の作用が異なる以外は同様であり、重複する説明は省略する。また、 第 2の発明における第 3表示制御手段は、 第 1の発明における第 3表示制御手段に 相当し、 第 1表示領域と第 2表示領域のいずれにも表示されていない.ウインドウま たは第 1表示領域の最前に表示されているウィンドウに重畳して一部が隠れている ウィンドウ (非アクティブなウィンドウ) に対応付けられた選択領域の表示位置に 対して、 第 2の所定入力があつたと判定されるときに、 当該選択領域に対応するゥ インドウを第 2表示領域に表示する。 この第 2の所定入力は、 1クリック操作、 2 クリック^ Ϊ作、 もしくは下方向へのスライド操作等による入力であってよい。 この 第 2の発明の情報処理装置によれば、 ユーザは、 非ァクティブなウィンドウに対応 する選択領域で第 2の所定入力を行うことによって、 非アクティブなウィンドウを 直接第 2表示領域に表示して、 当該ウィンドウを操作入力可能な状態に一気に持つ ていくことができるので、 素早い入力が可能になる。 たとえば当該非アクティブな ウィンドウの内容を確認する必要が無い場合等に極めて有益である。 したがって、 非アクティブなウィンドウであっても、 第 2表示領域の選択領域で所定の操作を行 うことによって、 当該ウィンドウを第 2表示領域に表示して入力可能な状態にする ことができるので、 操作性を向上することができる。
ある局面では、 第 2の発明の情報処理装置は、 検出手段によって、 第 1表示領域 に表示されているウインドウまたは最前に表示されているウインドウに対応付けら れた選択領域で第 1の所定入力があつたと判定されるとき、 当該選択領域に対応す るウィンドウを第 2表示領域に表示する第 1表示制御手段をさらに備える。 この第 1表示制御手段は、 第 1の発明における第 1表示制御手段に相当し、 検出手段によ つて、 第 1表示領域のァクティブなウインドウに対応付けられた選択領域で第 1の 所定入力があつたと判定されるとき、 当該選択領域に対応するウィンドウを第 2表 示領域に表示する。 第 1の所定入力は、 たとえば第 2の所定入力とは異なるものに 設定され、 実施例では、 第 1の所定入力は 1クリック操作による入力であり、 第 2 の所定入力は 2クリック操作もしくは下方向のスライド操作等による入力である。 この場合には、第 1表示領域に表示されていたウインドウに対応する選択領域では、 第 2の所定入力とは異なる第 1の所定の操作を行うことによって、 当該ウィンドウ を第 2表示領域に移動または複写等によって表示することができる。
また、 上述の第 1および第 2の発明において、 ある局面では、 検出手段は、 第 2 表示領域の任意の位置に対する入力を検出する。 情報処理装置は、 第 1表示制御手 段または第 3表示制御手段によって、 ウィンドウが第 2表示領域に表示されたとき に、 当該ウィンドウに対して検出手段からの入力を入力可能な状態に設定する設定 手段 (42、 S 181、 S 183、 S 241、 S 243 ) をさらに備える。 実施例 では、 たとえば、 下画面ウィンドウタブ記憶領域 84にタブ番号が記憶されて、 当 該記憶されたタブ番号に対応付けられたウインドウが表示されると、 当該ウインド ゥが入力可能な状態に設定される。 したがって、 選択領域に対して所定の入力を行 うことによって、 第 2表示領域に表示させたウィンドウに対して入力.操作を行うこ とが可能になる。
他の局面では、 情報処理装置は、 検出手段によって、 第 2表示領域に表示されて いるウィンドウに対応付けられた選択領域で所定入力があつたと判定されるとき、 当該選択領域に対応するウインドウを第 1表示領域で最前に表示する第 4表示制御 手段をさらに備える。
具体的には、 第 4表示制御手段 (42、 50、 52、 60、 S 185、.S 187'、 S 215、 S 217)は、座標検出手段によって検出された座標データに基づいて、 第 2表示領域に表示されているウィンドウに対応付けられた選択領域で所定入力が あつたと判定されるとき、 当該選択領域に対応するウィンドウを第 1表示領域で最 前に表示する。 この場合には、 たとえば第 2表示領域に表示されていたウィンドウ に対して入力操作の必要がなくなった場合、 当該ウィンドウを第 2表示領域から第 1表示領域へ移動させることができるので、 操作性を向上することができる。
さらに他の局面では、 情報処理装置は、 ウィンドウを第 2表示領域に表示する場 合において、 第 2表示領域に他のウインドウが表示されていると判定されるとき、 当該他のウインドウを第 1表示領域で最前に表示する第 5表示制御手段をさらに備 える。
具体的には、 第 5表示制御手段 (42、 50、 52、 60、 S 165, S 167、 S 175、 S 223、 S 225、 S 235) は、 第 1表示制御手段または第 3表示 制御手段によってウィンドウを第 2表示領域に表示しょうとする場合において、 第 2表示領域に他のウィンドウが表示されていると判定されるとき、 当該他のウィン ドウを第 1表示領域で最前に表示する。 さらに詳しくは、 たとえば、 記憶手段は、 第 1表示領域に表示すべきウインドウの識別情報を記憶する第 1表示領域識別情報 記憶手段 (82) を含んでよい。 第 5表示制御手段は、 第 2表示領域に他のウィン ドウが表示されていると判定されるとき (S 165、 S 223)、 当該他のウィンド ゥの識別情報を、第 1表示領域識別情報記憶手段に記憶して(S 167、S 225)、 当該記憶された識別情報の付与されたウィンドウを第 1表示領域に表示する (S 1 75、 S 235)。 この場合には、 これから入力操作を行おうとするウィンドウとそ れまで入力操作対象であったウィンドウとを所定入力のみによって入れ替えること ができるので、 操作性を向上することができる。
ある実施例では、 検出手段は、 第 1表示領域には設けられず第 2表示領域上に装 着された夕ツチパネル (22) からの入力データに基づいて所定入力を検出する。 この場合には, 第 2表示領域の選択領域に直接触れているかのようにして操作する ことができ、 さらに第 2表示領域に表示されたウィンドウに対しても同様に直接触 れるかのようにして操作することが可能になる。 したがって、 直感的な操作によつ てウィンドウを制御することができる。また、夕ツチパネルが入力手段であるので、 ユーザが触れることの可能な、 つまり、 ュ一ザの手の届くような範囲にある第 2表 示領域に、 操作対象のウィンドウを表示することができる。 したがって、 操作性を より向上することができる。
さらに別の局面では、 記憶手段は、 第 2表示領域に表示される基本入力ウィンド ゥを表示するためのデ一夕 (入力ウィンドウ画像デ一夕) をさらに記憶し、 情報処 理装置は、 第 2表示領域に表示すべきウィンドウがない場合に基本入力ウィンドウ を第 2表示領域に表示する基本表示制御手段(42、 50、 52、 60、 S 189, S 191、 S 193、 S 213、 S 219、 S 221 S 277、 S 279、 S 2 81) をさらに備える。 したがって、 複数のウィンドウのうち第 2表示領域に表示 すべきウィンドウがない場合であっても、 第 2表示領域に基本入力ウィンドウが表 示されるので、 たとえば、 ユーザに入力を促したり、 アプリケーション等の進行に 必要な入力操作に対応したりすることができ、 また、 ュ一ザの入力操作を滞らせる ことなく円滑な入力操作を行わしめることができる。
さらにまた、 他の局面では、 情報処理装置は、 第 2表示領域に表示されたウィン ドウに対して所定の座標入力があつたときに、 新規なウィンドウを表示するための データと新規な選択領域を表示するためのデータとを生成して、 当該生成されたデ —夕どうしを対応付けて記憶手段に記憶する生成手段、 および生成手段によって生 成された選択領域を第 2表示領域に表示する選択領域表示制御手段をさらに備える。 具体的には、 生成手段 (42、 S 49、 S 51、 S 1 01、 S 103、 S 105、 S I 07、 S I 09) は、 第 2表示領域に表示されたウィンドウに対して所定の座 檫入力があつたときに、 新規なウィンドウを表示するためのデータと新規な選択領 域を表示するためのデータとを生成して、 当該生成されたデータどうしを対応付け て記憶手段に記憶する。 実施例では、 検索候補ウィンドウの単語または辞書ウィン ドウの単語の表示位置に対する入力があつたと判定されたとき、 当該単語を説明す る辞書ウィンドウ画像デー夕と当該ウィンドウに対応する夕プ番号およびタブの夕 イトル画像デ一夕が生成され、 これらを対応付けた夕ブデータがタブデー夕記憶領 域 8 0に記憶される。 選択領域表示制御手段 (4 2、 5 0、 5 2、 6 0、 S 1 1 5、 S 1 1 7 ) は、 生成された選択領域を第 2表示領域に表示する。 したがって、 ウイ ンドウに対する入力操作によって新規ウィンドウおよび選択領域を作成することが できるので、 当該新規ウィンドウの表示を当該選択領域に対する所定入力によって 制御することができ、 操作性を向上できる。
この発明に従った第 3の発明の情報処理プログラムは、 複数のウィンドウを表示 するためのデータと複数のウィンドウのそれぞれに対応付けられた複数の選択領域 を表示するためのデータを記憶する記憶手段、 および複数のウィンドウのうち所定 のウィンドウのみが表示されまたは複数のウィンドウが重畳して表示.される第 1表 示領域と複数の選択領域が表示される第 2表示領域とを含む表示手段を備える情報 処理装置の情報処理プログラムである。 この情報処理プログラムは、 情報処理装置 のプロセサに、 検出ステップ、 および第 1表示制御ステップを実行させる。 検出ス テツプは、 複数の選択領域の表示位置に対する入力を検出する。 第 1表示制御ステ ップは、 検出ステップによって、 第 1表示領域に表示されているウィンドウまたは 最前に表示されているウィンドウに対応付けられた選択領域で第 1の所定入力があ つたと判定されるとき、 当該選択領域に対応するウィンドウを第 2表示領域に表示 する。
この発明に従った第 4の発明の情報処理プログラムを記憶した記憶媒体は、 複数 のウインドウを表示するためのデータと複数のウインドウのそれぞれに対応付けら れた複数の選択領域を表示するためのデータを記憶する記憶手段、 および複数のゥ ィンドウのうち所定のウインドウのみが表示されまたは複数のウインドウが重畳し て表示される第 1表示領域と複数の選択領域が表示される第 2表示領域とを含む表 示手段を備える情報処理装置の情報処理プログラムを記憶した記憶媒体である。 こ の記憶媒体の情報処理プログラムは情報処理装置のプロセサに、 検出ステップ、 お よび第 1表示制御ステップを実行させる。 検出ステップは、 複数の選択領域の表示 位置に対する入力を検出する。 第 1表示制御ステップは、 検出ステップによって、 第 1表示領域に表示されているウィンドウまたは最前に表示されているウィンドウ に対応付けられた選択領域で第 1の所定入力があつたと判定されるとき、 当該選択 領域に対応するウィンドウを第 2表示領域に表示する。
この発明に従った第 5の発明のウィンドウ制御方法は、 複数のウィンドウを表示 するためのデ一夕と複数のウィンドウのそれぞれに対応付けられた複数の選択領域 を表示するためのデータを記憶する記憶手段、 および複数のウィンドウのうち所定 のウィンドウのみが表示されまたは複数のウィンドウが重畳して表示される第 1表 示領域と複数の選択領域が表示される第 2表示領域とを含む表示手段を備える情報 処理装置におけるウィンドウ制御方法である。 このウィンドウ制御方法は、 検出ス テツプ、 および第 1表示制御ステップを含む。 検出ステップは、 複数の選択領域の 表示位置に対する入力を検出する。 第 1表示制御ステップは、 検出ステップによつ て、 第 1表示領域に表示されているウインドウまたは最前に表示されているウイン ドウに対応付けられた選択領域で第 1の所定入力があつたと判定されるとき、 当該 選択領域に対応するウィンドウを第 2表示領域に表示する。
この発明に従った第 6の発明の情報処理プログラムは、 複数のウィンドウを表示 するためのデータと複数のウィンドウのそれぞれに対応付けられた複数の選択領域 を表示するためのデータを記憶する記憶手段、 および複数のウィンドウのうち所定 のウィンドウのみが表示されまたは複数のウィンドウが重畳して表示される第 1表 示領域と複数の選択領域が表示される第 2表示領域とを含む表示手段を備える情報 処理装置の情報処理プログラムであって、 情報処理装置のプロセサに、 検出ステツ プ、 および第 3表示制御ステップを実行させる。 検出ステップは、 複数の選択領域 の表示位置に対する入力を検出する。 第 3表示制御ステップは、 検出ステップによ つて、 第 1表示領域と第 2表示領域のいずれにも表示されていないウィンドウまた は第 1表示領域の最前に表示されているウィンドウに重畳して一部が隠れているゥ インドウに対応付けられた選択領域の表示位置に対する第 2の所定入力があつたと 判定されるとき、 当該選択領域に対応するウィンドウを第 2表示領域に表示する。 この発明に従つた第 7の発明の情報処理プログラムを記憶した記憶媒体は、 複数 のウィンドウを表示するためのデ一夕と複数のウィンドウのそれぞれに対応付けら れた複数の選択領域を表示するためのデータを記憶する記憶手段、 および複数のゥ ィンドウのうち所定のウインドウのみが表示されまたは複数のウインドウが重畳し て表示される第 1表示領域と複数の選択領域が表示される第 2表示領域とを含む表 示手段を備える情報処理装置の情報処理プログラムを記憶した記憶媒体である。 こ の記憶媒体の情報処理プログラムは情報処理装置のプロセサに、 検出ステップ、 お ょぴ第 3表示制御ステップを実行させる。 検出ステップは、 複数の選択領域の表示 位置に対する入力を検出する。 第 3表示制御ステップは、 検出ステップによって、 第 1表示領域と第 2表示領域のいずれにも表示されていないウィンドウまたは第 1 表示領域の最前に表示されているウィンドウに重畳して一部が隠れているウィンド ゥに対応付けられた選択領域の表示位置に対する第 2の所定入力があつたと判定さ れるとき、 当該選択領域に対応するウィンドウを第 2表示領域に表示する。 この発明に従った第 8の発明のウインドウ制御方法は、 複数のウインドウを表示 するためのデータと複数のウィンドウのそれぞれに対応付けられた複数の選択領域 を表示するためのデータを記憶する記憶手段、 および複数のウィンドウのうち所定 のウィンドウのみが表示されまたは複数のウィンドウが重畳して表示される第 1表 示領域と複数の選択領域が表示される第 2表示領域とを含む表示手段を備える情報 処理装置におけるウィンドウ制御方法である。 このウィンドウ制御方法は、 検出ス テツプ、 および第 3表示制御ステップを含む。 検出ステップは、 複数の選択領域の 表示位置に対する入力を検出する。 第 3表示制御ステップは、 検出ステップによつ て、 第 1表示領域と第 2表示領域のいずれにも表示されていないウィンドウまたは 第 1表示領域の最前に表示されているウィンドウに重畳して一部が隠れているウイ ンドウに対応付けられた選択領域の表示位置に対する第 2の所定入力があつたと判 定されるとき、 当該選択領域に対応するウィンドウを第 2表示領域に表示する。 これら情報処理プログラム、 情報処理プログラムを記憶した記憶媒体、 およびゥ インドウ制御方法によっても、 上述の第 1または第 2の発明の情報処理装置と同様 な効果を奏することができる。
この発明に従った第 9の発明の情報処理装置は、記憶手段、表示手段、検出手段、 および第 1表示制御手段を備える。 記憶手段は、 複数のウィンドウを表示するため のデータと複数のウィンドウのそれぞれに対応付けられた複数の選択領域を表示す るた.めのデータを記憶する。 表示手段は、 複数のウィンドウのうち所定のウィンド ゥのみが表示されまたは複数のゥィンドウが重畳して表示される第 1表示領域と複 数の選択領域が表示される第 2表示領域とを含む。 検出手段は、 複数の選択領域の 表示位置に対する入力を検出する。 第 1表示制御手段は、 検出手段によって、 選択 領域で所定入力があつたと判定されるとき、 当該選択領域に対応するウィンドウを 第 2表示領域に表示する。 この情報処理装置でも、 上述の第 1または第 2の発明と 同様に、 第 1表示領域に表示されるウィンドウ、 第 1表示領域で最前に表示されて いるウィンドウ、 第 1表示領域および第 2表示領域のいずれにも表示されないウイ ンドウ、 あるいは、 第 1表示領域で最前に表示されているウィンドウに重畳して一 部が隠れているウィンドウ等に対応する選択領域で所定の操作を行うことによって、 当該選択領域に対応するウィンドウを第 2表示領域に表示することができ、 操作性 を向上することができる。 '
この発明によれば、 複数のウィンドウに対応付けられた複数の選択領域が第 2表 示領域に表示され、 選択領域の表示位置に対する所定入力が検出されるので、 ユー ザは、 たとえば入力手段を用いて第 2表示領域の選択領域の位置で所定入力を行う ことによって、 対応するウィンドウを制御することができる。 具体的には、 第 2表 示領域の選択領域で所定の入力をすることによって、 第 1表示領域に表示されてい たウィンドウであっても、 あるいは、 非アクティブなウィンドウであっても、 第 2 表示領域に表示して入力可能な状態にすることができるので、 操作性を向上するこ とができる。
この発明の上述の目的, その他の目的, 特徴および利点は、 図面を参照して行う 以下の実施例の詳細な説明から一層明らかとなろう。 図面の簡単な説明
図 1はこの発明の一実施例の情報処理装置の一例を示す外観図である。
図 2は図 1実施例の情報処理装置の電気的な構成を示すプロック図である。 図 3は図 2に示す R A M 4 8のメモリマップの一例を示す図解図である。
図 4はウィンドウ画像記憶領域の内容の一例を示す図解図である。
図 5はウインドウ画像データの内容の一例を示す図解図である。
図 6はタグデータ記憶領域の内容の一例を示す図解図である。
図 7は入力ウインドウに文字が手書き入力されて検索候補ウインドウが生成され た場合の表示画面の一例を示す図解図である。
図 8は図 7の後で文字入力が完了され検索ポタンが選択されることによって検索 候補ウインドウが生成された場合の表示画面の一例を示す図解図である。
図 9は図 8で検索候補ウインドウに対応するタブが選択された場合の表示画面の 一例を示す図解図である。
図 1 0は図 9で検索候補ウィンドウの単語が選択されて辞書ウィンドウが生成さ れた場合の表示画面の一例を示す図解図である。
図 1 1は図 1 0で辞書ウインドウに対応するタブが選択された場合の表示画面の 一例を示す図解図である。
図 1 2は図 1 0で辞書ウィンドウに対応するタブが選択された場合に辞書ウィン ドウと検索候補ウィンドウが入れ替わる様子を示す図解図である。
図 1 3は図 1 1で辞書ウィンドウに対応するタブが選択された場合の表示画面の 一例を示す図解図である。
図 1 4は図 1 1で辞書ウインドウ内の単語が選択されて別の辞書ウインドウが生 成された場合の表示画面の一例を示す図解図である。
図 1 5は図 1実施例の情報処 a装置におけるウインドウ制御の概念を示す図解図 である。
図 1 6は下画面に入力ウインドウが表示されている場合において非ァクティブの ウィンドウに対応する夕ブが選択されたときの操作の違いに応じたウィンドウ制御 の概略の一例を示す図解図である。
図 1 7は下画面に移動ウィンドウが表示されている場合において非アクティブの ウィンドウに対応するタブが選択されたときの操作の違いに応じたウィンドウ制御 の概略の一例を示す図解図である。
図 1 8は下画面に入力ウインドウが表示されている場合 おいて上画面のァクテ イブのウィンドウに対応する夕ブが選択されたときのウィンドウ制御の概略の一例 を示す図解図であり、 図 1 8 (A) は非アクティブだったウィンドウが上画面でァ クティブにされる場合を示し、 図 1 8 ( B ) は上画面に背景画像が表示される場合 を示す。
m 1 9は下画面に移動ウィンドウが表示されている場合において下画面のウイン ドゥに対応する夕プが選択されたときのウィンドウ制御の概略の一例を示す図解図 である。
図 2 0はタブ上でのジエスチヤ操作による選択の概略の一例を示す図解図であり、 図 2 0 (A) は下方向へのスライド操作を示し、 図 2 0 ( B ) は左または右方向へ のスライド操作の一例を示す。
図 2 1は、 上画面のアクティブのウィンドウを消去する操作があった場合におけ るウィンドウ制御の概略の一例を示す図解図である。
図 2 2は図 1実施例の情報処理装置の動作の一例を示すフロー図である。
図 2 3は図 2 2の検索処理の動作の一例を示すフロ一図である。
図 2 4は図 2 3の検索候補ヴインドウ生成処理の動作の一例を示すフロー図であ る。
図 2 5は図 2 3の辞書ウィンドウ生成処理の動作の一例を示すフロー図である。 図 2 6は図 2 2のウィンドウ表示処理の動作の一例を示すフロー図である。
図 2 7は図 2 6の 1クリック処理の動作の一例の一部を示すフロー図である。 図 2 8は図 2 7の続きを示すフロー図である。
図 2 9は図 2 6の 2クリック処理の動作の一例の一部を示すフロー図である。 図 3 0は図 2 9の続きを示すフロー図である。
図 3 1は図 2 6の消去処理の動作の一例の一部を示すフロー図である。
図 3 2は図 3 1の続きを示すフロー図である。
図 3 3は複数のウィンドウが上画面に同時に表示される表示画面の変形例を示す 図解図である。 発明を実施するための最良の形態
図 1を参照して、 この発明の一実施例である情報処理装置 1 0は、 一例としてゲ ーム装置の形態で実現される。 ただし、 情報処理装置 1 0はパーソナルコンビユー タ、 あるいは P D Aのような他の携帯型コンピュータ等であってもよい。
このゲーム装置 1 0は、 第 1の液晶表示器 (L C D) 1 2および第 2の L C D 1 44をを含含むむ。。 ここのの LL CCDD 1122おおよよびび LLCCDD 1144はは、、 所所定定のの配配置置位位置置ととななるるよよううににハハウウ ジジンンググ 1166にに収収納納さされれるる。。 ここのの実実施施例例でではは、、 ハハウウジジンンググ 1166はは、、 上上側側ハハウウジジンンググ 11 66 aaとと下下側側ハハウウジジンンググ 1166 bbととにによよっってて構構成成さされれ、、 LL CCDD 1122はは上上側側ハハウウジジンンググ 11 66 aaにに収収納納さされれ、、 LLCCDD 1144はは下下側側ハハウウジジンンググ 1166 bbにに収収納納さされれるる。。 ししたたががっってて、、 LLCCDD 1122とと LLCCDD 1144ととはは縦縦 ((上上下下)) にに並並ぶぶよよううにに近近接接ししてて配配置置さされれるる。。 '' ななおお、、 ここのの実実施施例例でではは、、 表表示示器器ととししてて LL CCDDをを用用いいるるよよううににししててああるるがが、、 LLCCDD にに代代ええてて、、 EELL ((EElleeccttrroonniicc LLuummiinneesscceennccee)) デディィススププ
Figure imgf000015_0001
等を用いるようにしてもよい。
図 1から分かるように、 上側ハウジング 16 aは、 L CD 12の平面形状よりも 少し大きな平面形状を有し、 一方主面から LCD 12の表示面を露出するように開 口部が形成される。 一方、 下側ハウジング 16 bは、 その平面形状が上側ハウジン グ 16 aよりも横長に選ばれ、 横方向の略中央部に L CD 14の表示面を露出する ように開口部が形成される。 また、 下側ハウジング 16 bには、 音抜き孔 18が形 成されるとともに、 操作スィッチ 20 (20 a, 20 b, 20 c, 2.0 dおよび 2 0 e, 20 L, 20R) が設けられる。
また、 上側八ウジング 16 aと下側ハウジング 16 bとは、 上側ハウジング 16 aの下辺 (下端) と下側ハウジング 16 bの上辺 (上端) の一部とが回動可能に連 結されている。 したがって、 たとえばゲームのプレイやアプリケーションの使用を しない場合には、 LCD 12の表示面と LCD Γ 4の表示面とが対面するように、 上側ハウジング 16 aを回動させて折りたたんでおけば、 LCD 12の表示面およ び LCD 14の表示面に傷がつくなどの破損を防止することができる。 ただし、 上 側ハウジング 16 aと下側ハウジング 16 bとは、 回動可能に連結せずに、 それら を一体的 (固定的) に設けたハウジング 16を形成するようにしてもよい。
操作スィッチ 20は、 方向指示スィッチ (十字スィッチ) 20 a, スタートスィ ツチ 20 b、 セレクトスィッチ 20 c、 動作スィッチ (Aボタン) 20 d、 動作ス イッチ (Bポタン) 20 e、 動作スィッチ (Lポタン) 20 Lおよび動作スィッチ (Rポタン) 20 Rを含む。 スィッチ 20 a, 20 bおよび 20 cは、 下側ハウジ ング 16 bの一方主面において、 LCD 14の左側に配置される。 また、 スィッチ 20 (1ぉょび206は、 下側ハウジング 16 bの一方主面において、 LCD 14の 右側に配置される。 さらに、 スィッチ 20 Lおよびスィッチ 20 Rは、 それぞれ、 下側ハウジング 16 bの上端 (天面) の一部であり上側ハウジング 16 aとの連結 部以外の部分において、 当該連結部を挟むようにして左右に配置される。
方向指示スィッチ 20 aは、 ディジタルジョイスティックとして機能する。 4つ の押圧部の少なくとも 1つを操作することによって、 プレイヤによって操作可能な プレイヤキャラクタ(またはプレイヤオブジェクト)の移動方向の指示や、 力一ソル の移動方向の指示等をすることが可能である。 スタ一トスイッチ 20 bは、 プッシ ュポタンで構成され、 ゲームの開始 (再開) や一時停止 (Pause) 等のために用いら れる。 セレクトスィッチ 20 cは、 プッシュポタンで構成され、 ゲームモードの選 択等のために用いられる。
動作スィッチ 20 dすなわち Aポタンは、 プッシュポタンで構成され、 方向指示 以外の動作、 すなわち、 プレイヤキャラクタに打つ (パンチ)、 投げる、 つかむ (取 得)、乗る、ジャンプするなどの任意のアクションをさせることができる。たとえば、 アクションゲームにおいては、 ジャンプ、 パンチ、 武器を動かす等を指示すること ができる。 また、 ロールプレイングゲーム (RPG) やシミュレーション RPGに おいては、 アイテムの取得、 武器またはコマンドの選択および決定等を指示するこ とができる。動作スィツチ 20 eすなわち Bボタンは、プッシュボタンで構成され、 セレクトスィツチ 20 cで選択したゲームモードの変更や Aポタン 20 dで決定し たアクションの取り消し等のために用いられる。
動作スィツチ 20 L (左押しポタン) および動作スィツチ 20 R (右押しボタン) は、 プッシュボタンで構成され、 左押しポタン (Lポタン) 20Lおよび右押しポ タン (Rポタン) 2 ORは、 Aポタン 20 dおよび Bポタン 20 eと同様の操作に 用いることができ、 また、 Aポタン 20 dおよび Bポタン 20 eの補助的な操作に 用いることができる。
また、 LCD 14の上面には、 タツチパネル 22が装着される。 タツチパネル 2 2としては、 たとえば、 抵抗膜方式、 光学式 (赤外線方式) および静電容量結合式 のいずれかの種類のものを用いることができる。 また、 夕ツチパネル 22は、 その 上面をスティック 24ないしはペン (スタイラスペン) 或いは指 (以下、 これらを 「スティック 24等」 という場合がある。) で、 押圧したり撫でたり (触れたり) す ることにより操作すると、 スティック 24等によって操作された (すなわち夕ツチ された) 位置の座標を検出して、 検出した座標 (検出座標) に対応する座標データ を出力する。 つまり、 この夕ツチパネル 22は、 この実施例の入力手段として機能 し、 LCD 14 (または LCD 12) の画面上の任意の位置を指示するための入力 データをユーザ (プレイヤ) が入力するためのものである。
なお、 この実施例では、 LCD 14 (LCD 12も同じ、 または略同じ。) の表示 面の解像度は 256 d ο t X 19:2 d o tであり、 夕ツチパネル 22の検出精度も 表示画面に対応して 256 d o t X 192 d o tとしてある。 ただし、 図 1では、 夕ツチパネル 22を分かり易く示すために、 夕ツチパネル 22を L CD 14と異な る大きさで示してあるが、 L CD 14の表示画面の大きさとタツチパネル 22の操 作面の大きさとは同じ大きさである。 タツチパネル 22の検出精度は表示画面の解 像度よりも低くてもよく、 高くてもよい。 この実施例では、 たとえば、 L CD 12にはプレイヤに見せるための画面が表示 され、 夕ツチパネル 22の設けられる LCD 14には、 LCD 12の画面に閧連し て、 プレイヤに見せかつ操作させるための画面が表示される。 LCD 14に表示さ れる画面には、 スティック 24等で操作 (タツチ) 可能なたとえばオブジェクト、 アイコン、 タブ、 文字情報等が含まれる。 プレイヤは LCD 14に表示されたォブ ジェクト等をスティック 24等で直接触れるようにしてタツチパネル 22上を操作 することにより、 たとえばそのオブジェクト等の選択または操作、 座標入力指示等 を行うことができる。 また、 ゲームやアプリケーションの種類に応じてその他各種 の入力指示を行うことができる。 たとえば LCD 14の表示画面に表示される文字 情報やアイコン等によるコマンドを選択したり、 L CD 12に表示されるゲーム画 面 (マップ) のスクロール (徐々に移動表示) 方向を指示したり、 あるいは、 手書 き文字入力したりすることができる。
このように、 ゲーム装置 10は、 2画面分の表示部となる L CD 12および L C D 14を有し、 いずれか一方 (この実施例では、 LCD 14) の表示画面上にタツ チパネル 22が設けられるので、 2画面(LCD 12, 14 ) と 2系統の操作部( 2 0, 22) を有する構成となるのである。
また、 この実施例では、 スティック 24は、 たとえば上側ハウジング 16 aの側 面 (右側面) に設けられる収納部 (収納穴) 26に収納することができ、 必要に応 じて取り出される。 ただし、 スティック 24を設けない場合には、 収納部 26を設 ける必要もない。
さらに、 ゲーム装置 10は、 情報記憶媒体の一例としてのメモリカード (または ゲームカートリッジ) 28を含み、 このメモリカード 28は着脱自在であり、 下側 ハウジング 16 bの裏面ないしは下端 (底面) に設けられる揷入口 30から揷入さ れる。 図 1では省略するが、 揷入口 30の奥部には、 メモリカード 28の揷入方向 先端部に設けられるコネクタ (図示せず) と接合するためのコネクタ 46 (図 2参 照) が設けられており、 したがって、 メモリカード 28が揷入口 30に挿入される と、 コネクタ同士が接合され、 ゲーム装置 10の CPUコア 42 (図 2参照) がメ モリカード 28にアクセス可能となる。
なお、 図 1では表現できないが、 下側ハウジング 16 bの内部において、 この下 側ハウジング 16 bの音抜き孔 18と対応する位置には、スピ一力 32 (図 2参照) が設けられる。
また、 図 1では省略するが、 たとえば、 下側ハウジング 16 bの裏面側には、 電 池収容ボックスが設けられ、 また、 下側ハウジング 16 bの底面側には、 電源スィ ツチ、 音量調節つまみ、 外部拡張コネクタおよびィャフォンジャックなどが設けら れる。 図 2はゲーム装置 10の電気的な構成を示すプロック図である。図 2を参照して、 ゲーム装置 10は電子回路基板 40を含み、 この電子回路基板 40には CPUコア 42等の回路コンポーネントが実装される。 CPUコア 42は、 バス 44を介して コネクタ 46に接続されるととともに、 RAM48、 第 1のグラフィック処理ュニ ット (GFU) 50、 第 2の GPU52、 入出力イン夕フェース回路 (以下、 「 Iノ F回路」 という。) 54および L CDコントローラ 60に接続される。
コネクタ 46には、上述したように、メモリ力一ド 28が着脱自在に接続される。 メモリカード 28は、 ROM 28 aおよび RAM 28 bを含み、図示は省略するが、 ROM 28 aおよび RAM 28 bは互いにバスで接続され、 さらに、 コネクタ 46 と接合されるコネクタ (図示せず) に接続される。 したがって、 上述したように、 C PUコア 42は、 ROM28 aおよび RAM28 bにアクセスすることができる のである。
ROM 28 aは、 ゲーム装置 10をこの発明にかかる情報処理装置として機能さ せるための情報処理プログラムを予め記憶する。 情報処理プログラムは、 実行され るアプリケーションのプログラムであり、 たとえばゲーム (仮想ゲーム) が実行さ れる場合にはゲームプログラムである。 また、 当該アプリケーション等の実行に必 要な、 画像 (キャラクタ画像、 背景画像、 アイテム画像、 メッセージ画像など) デ 一夕および音ないし音楽のデータ (音データ) 等を予め記' I意する。 RAM (バック アップ RAM) 28 bは、 そのアプリケーションやゲーム等の途中データや結果デ 一夕を記憶 (セーブ) する。
RAM48は、 バッファメモリないしはワーキングメモリとして使用される。 つ まり、 CPUコア 42は、 メモリカード 28の ROM28 aに記憶された情報処理 プログラム、 および画像データ、 音データ等のデータを RAM48にロードし、 口 —ドした情報処理プログラムを実行する。 また、 CPUコア 42は、 情報処理プロ グラムに従って、 処理の進行に応じて一時的に発生 (生成) するデータを RAM4 8のワークエリアや所定領域に記憶しつつ情報処理を実行する。
なお、 情報処理プログラム、 画像データおょぴ音データ等は、 ROM28 aから 一度に全部、 または必要に応じて部分的かつ順次的に読み出され、 RAM48に記 憶される。
GPU50および GPU52は'、 それぞれ、 描画手段の一部を形成し、 たとえば シングルチップ AS I Cで構成され、 CPUコア 42からのグラフィックスコマン ド(graphics command :作画命令) を受け、そのグラフィックスコマンドに従って、 表示するための画像データを生成する。 ただし、 CPUコア 42は、 グラフィック スコマンドに加えて、 表示するための画像データの生成に必要な画像生成プロダラ ム(情報処理プログラムに含まれる。) を GPU 50および GPU 52のそれぞれに 与える。
なお、 GPU 50および GPU 52が作画コマンドを実行するにあたって必要な データ (画像データ :ポリゴンやテクスチャ等のデータ) は、 GPU50および G PU 52がそれぞれ、 RAM 48にアクセスして取得する。 GPU50および GP U52は、 作成したデータを RAM 48に記憶するようにしてもよい。
また、 GPU50には、 第 1のビデオ RAM (以下、 「VRAMJ という。) 56 が接続され、 GPU52には、 第 2の VRAM 58が接続される。 G P U 50は表 示するための画像データを VRAM 56に描画し、 GPU52は表示するための画 像データを VRAM 58に描画する。 VRAM 56および VRAM 58はたとえば ラインバッファであり、 あるいはフレームバッファが採用されてもよい。
VRAM56および VRAM58は、 L C Dコントローラ 60に接続される。 L CDコントローラ 60はレジスタ 62を含み、 レジスタ 62はたとえば 1ビットで 構成され、 C PUコア 42の指示によって 「0」 または 「1」 の値 (データ値) を 記憶する。 LCDコントローラ 60は、 レジスタ 62のデータ値が 「0」 である場 合には、 VRAM 56の画像データを L CD 12に出力し、 VRAM 58の画像デ —夕を LCD 14に出力する。 また、 LCDコント口一ラ 60は、 レジスタ 62の データ値が 「1」 である場合には、 VRAM 56の画像デ一夕を LCD 14に出力 し、 VRAM 58の画像データを L CD 12に出力する。
なお、 LCDコントローラ 60は、 VRAM56および VRAM58から直接画 像データを読み出すことができるし、 あるいは GPU 50および GPU 52を介し て VRAM56および VRAM58から画像データを読み出すこともできる。また、 VRAM 56および VRAM 58は RAM 48に設けられてもよい。
1 回路54には、 操作スィッチ 20, 夕ツチパネル 22およびスピーカ 32 が接続される。 ここで、 操作スィッチ 20は、 上述したスィッチ 20 a, 20 b, 20 c, 20 d, 20 e, 20 Lおよび 20 Rであり、 操作スィッチ 20が操作さ れると、 対応する操作信号 (操作データ) が IZF回路 54を介して CPUコア 4 2に入力される。 また、 夕ツチパネル 22から出力される操作入力データ (座標デ 一夕) が IZF回路 54を介して CPUコア 42に入力される。 さらに、 CPUコ ァ 42は、 ゲ一ム音楽 (BGM)、 効果音またはゲームキャラクタの音声 (擬制音) などのゲームに必要な音データを' RAM48から読み出し、 1 回路54を介し てスピーカ 32からその音を出力する。
図 3には RAM48のメモリマツプの一例が示される。 メモリマツプはプログラ ム記憶領域 70およびデータ記憶領域 72を含む。 プログラム記憶領域 70にはメ モリカード 28の ROM 28 aから情報処理プログラムがロードされる。 この情報 処理プログラムに従って CPUコア 42は動作し、 ゲーム装置 10をこの発明にか かる情報処理装置 1 0として機能させる。
デ一夕記憶領域 7 2には、 R O M 2 8 aのデータおょぴ C P Uコア 4 2の動作に 応じて生成または取得されたデータが記憶される。 データ記憶領域 7 2は、 夕ツチ 入力データ記憶領域 7 4、 座標点列記憶領域 7 6、 ウィンドウ画像記憶領域 7 8 、 タブデータ記憶領域 8 0、 上画面ウィンドウタブ番号記憶領域 8 2、 下画面ウィン ドウタブ番号記憶領域 8 4、 夕ブ位置デー夕記憶領域 8 6、 および辞書デー夕記憶 領域 8 8等を含む。 なお、 図 3では記憶されるデータの一部が示されており、 情報 処理に必要なその他のデータも記憶されている。
夕ツチ入力データ記憶領域 7 4には、 I / F回路 5 4を介して取得したタツチパ ネル 2 2からの夕ツチ入力データが記憶される。 具体的には、 取得したデータから 検出したタツチパネル 2 2上の操作による指示位置を示す座標デ一夕が記憶される。 この記憶領域 7 4は、 所定数のフレーム ( 1フレームは 1 6 0秒) の座標データ を記憶する。
座標点列記憶領域 7 6には、 入力ウィンドウで手書き入力されるときに検出され た座標データの履歴、 すなわち、 入力された座標点列ないし軌跡が記憶される。 入 カウィンドウは、 この実施例の辞書アプリケーションで単語を検索する際に、 ユー ザがスティック 2 4等を用いた手書きで当該単語を入力するためのウィンドウであ る。 この座標点列データに基づいて手書き入力された文字の認識が行われる。
ウインドウ画像記憶領域 7 8には、ウインドウ画像に関するデータが記憶される。 たとえば、 図 4に示すように、 各ウィンドウ画像データが、 当該データの先頭アド レスを示すデータに対応付けて記憶される。 各ウィンドウは、 このウィンドウ画像 記憶領域 7 8のデータに基づいて表示される。 図 4では、 入力ウィンドウ画像、 検 索候補ウィンドウ画像、 辞書ウィンドウ画像の一例としてミネラルウォーターウイ ンドウ画像および無機塩類ウインドウ画像等が記憶されている。
図 5に示すように、 入力ウィンドウ画像データは、 入力ウィンドウ内に設けられ る検索ポタン、 全消去ポタンおよび手書き入力エリアの表示位置ないし領域を示す 位置データを含む。 また、 各ポタンおよび入力エリアのための画像データと、 手書 き入力されたときは当該入力された座標点列に基づく画像データも含む。 なお、 ゥ インドウの初期状態を表示するためのデータは R O M 2 8 aに予め記憶されている。 検索候補ウィンドウは、 入力ウ ンドウで入力された文字に適合する単語 (辞書 の項目もしくは見出し語) を検索候補として表示するためのウィンドウである。 複 数の検索候補ウインドウが生成された場合は複数の検索候補ウインドウ画像データ が記憶される。 検索候補ウィンドウ画像データは、 各検索候補のための画像データ とともに、 各検索候補の表示位置ないし範囲 ' (領域) を示す位置データ (座標デー タ) を含む。 辞書ウィンドウは、 検索候補ウィンドウで選択された項目について、 読み方、 意 味、 語源、 用例等の解説ま.たは説明を表示するためのウィンドウである。 複数の辞 書ウインドウが生成された場合は複数の辞書ウインドウ画像データが記憶される。 辞書ウィンドウ画像データは、 解説または説明の画像データとともに、 解説中に用 いられている各単語の表示位置ないし範囲等を示す位置データを含む。
図 3に戻って、 タブデータ記憶領域 8 0には、 検索候補ウィンドウおよび辞書ゥ インドウのそれぞれに対応付けられるタブに関するデータが記憶される。 タブは、 ウィンドウが生成されるときに生成されて L C D 1 4に表示される。 タブは、 対応 するウィンドウを選択するための画像である。 つまり、 タブの表示位置ないし領域 が夕ツチ操作されることによって、 対応するウィンドウを選択することができる。 なお、 この実施例では、 入力ウィンドウは下画面の初期状態で表示される特殊なゥ インドウであり、 入力ウィンドウに対応するタブは設けられない。
図 6に示すように、 タブデータ記憶領域には、 タブ番号に対応付けて、 タイトル 画像データおよびウィンドウ画像の先頭アドレス等が記憶される。 タブ番号は、 ゥ インドウが新しく生成されるごとに、連番でたとえば 1から順に設定される。また、 ウインドウが消去されたとき、 残ったウインドウだけで連番となるように更新され る。 タブとウィンドウとは 1対 1で対応するので、 このタブ番号は、 タブの識別番 号であるとともに、 ウィンドウの識別番号に相当する。 タイトル画像データは、 夕 ブ中に当該タブの名前を表示するための画像データである。 図 6の例では、 タブ番 号 1は検索候補ウィンドウに対応するタブであり、 タイトル画像データとして検索 候補を文字で示す画像データが記憶される。 タブ番号 2は、 ミネラルウォーターと いう単語の辞書ウィンドウに対応するタブであり、 タイトル画像データとして当該 単語を文字で示す画像データが記憶される。 タブ番号 3は、 無機塩類という単語の 辞書ウィンドウに対応するタブであり、 タイトル画像データとして当該単語を文字 で示す画像データが記憶される。 各単語のタイトル画像データは辞書データから取 得される。 なお、 検索候補のタイトル画像データは予め R OM 2 8 aに記憶されて いてよい。 また、 ウィンドウ画像の先頭アドレスを示すデータは、 当該タブに対応 するウィンドウ画像データの先頭アドレスであり、 このデータに基づいて、 当該夕 ブに対応するウィンドウを特定することができる。
図 3に戻って、 上画面ウィンドウタブ番号記憶領域 8 2には、 上画面すなわち L C D 1 2にァクティブ状態で表示されるウインドウに対応するタブのタブ番号が記 憶される。 この実施例では、 L C D 1 2にはアクティブ状態のウィンドウのみが表 示され、 非アクティブ状態のウィンドウは表示されない。 また、 この実施例の L C D 1 2には入力手段としての夕ツチパネル 2' 2は設けられていないので、 上画面で のアクティブ状態は、 当該ウィンドウが最前に表示されていることを意味する。 な お、 初期値としてたとえば 0 (ゼロ) もしくは N U L L等が記憶され、 この場合に は L C D 1 2にウィンドウは表示されず、 背景画像が表示される。
下画面ウインドウタブ番号記憶領域 8 4には、 下画面すなわち L C D 1 4に表示 されるウィンドウに対応するタブのタブ番号が記憶される。 この実施例では、 L C D 1 4にはアクティブ状態のウィンドウのみが表示され、 非アクティブ状態のウイ ンドウは表示されない。 また、 L C D 1 4には入力手段としての夕ツチパネル 2 2 が設けられるので、 下画面でのアクティブ状態は、 当該ウィンドウが最前に表示さ れ、 かつ、 夕ツチパネル 2 2による入力もしくは操作が可能な状態に設定されてい ることを意味する。 なお、 初期値としてたとえば 0 (ゼロ) もしくは N U L L等が 記憶され、 この場合には L C D 1 4に入力ウィンドウが表示される。
タブ位置データ記憶領域 8 6には、 生成されたタブの表示位置ないし範囲等を示 す位置データ (座標データ) が記憶される。 この記憶領域 8 6のデータを参照する ことによって、 ユーザに選択されたタブを特定することができる。 なお、 タブの表 示位置ないし範囲等は、 たとえばタブの数に応じて予め固定的に決められていても よいし、 生成されたタブの数またはタイトル画像の文字数等に応じて適宜に設定さ れてもよい。
また、 表示可能なタブの個数 (すなわち生成可能なウィンドウの数) は、 所定数 に制限されていてもよい。 この場合、 制限値以上の数のウィンドウが作成されよう としたときには、 ウィンドウが多くて作成不可能である旨のメッセージを表示する ようにしてよい。 また、 タブの数が増えるほど、 タブの表示領域 (幅) は小さくな り、 タブに表示されるタイトルの文字数は少なくなる。 したがって、 タブにタイト ルの文字が入りきらない場合には、 たとえばタイトルの最初の数文字に省略記号 …」 等) を付すことでタイトルが表示される。
辞書データ記憶領域 8 8には、 この実施例の辞書アプリケーションのための辞書 データが記憶される。 辞書データでは、 各単語 (項目) に対応付けられて、 たとえ ば、 読み方、 説明等の各データ (テキストデータ等) が記憶される。
この情報処理装置 1 0では、 ウィンドウ制御ユーザの操作に応じて、 複数の表示 領域 (この実施例では L C D 1 2と L C D 1 4の 2つの画面) 間でのウィンドウ制 御が実行される。 この実施例では、 一例として辞書アプリケーションの実行におい てこの発明にかかるウィンドウ制 が適用された場合を説明する。 ただし、 複数の アプリケーションを同時に起動して各アプリケーションに対応する各ウィンドウを 制御する場合にも適用することが可能である。
図 7には、 辞書で検索するための文字が入力されているときの表示画面の一例が 示される。 L C D 1 4に表示される下画面には、 入力ウィンドウ 1 0 0がァクティ ブ状態で表示される。 一方、 L C D 1 2に表示される上画面には、 初期状態では背 景画像が表示される。
入力ウィンドウには、 文字入力エリア 1 0 2、 検索ポタン 1 0 4および全消去ポ タン 1 0 6が所定の位置に設けられる。 文字入力エリア 1 0 2は、 ユーザがスティ ック 2 4等を用いて、 検索したい単語を手書きで入力するための領域である。 文字 入力エリア 1 0 2に対する夕ツチ入力データは、 座標点列記憶領域 7 6に記憶され る。 文字入力エリア 1 0 2では、 ユーザの夕ツチ操作した位置すなわち記憶された 座標点列に対応する画素が文字入力エリア 1 0 2と異なる色で描画される。 図 7で は、 「みねらる」 と入力されている。検索ポタン 1 0 4は、 入力された文字の検索を 指示するためのものである。 全消去ポタン 1 0 6は、 文字入力エリア 1 0 2に入力 されて描画された文字を消去するためのポタンである。
なお、 ウィンドウは、 一般的に枠によって区切られた特定の表示領域のことをい うが、 図 7では、 入力ウィンドウ 1 0 0にはその枠を示す線が省略されている。 ま た、 ウインドウの枠は必ずしも画面上に表示されなくてもよい。
また、 下画面には入力ポタン 1 0 8が所定の位置に設けられる。 入力ポタン 1 0 8は、 入力ウィンドウ 1 0 0を下画面で最前に表示する、 すなわちアクティブ状態 にするためのものである。
入力ウィンドウ 1 0 0の文字入力エリア 1 0 2で、 文字が入力され、 次の文字の 入力が開始されると、それまでに入力された文字が自動的に認識される。たとえば、 入力が一定時間なかった場合 (夕ツチオフを検出してから夕ツチオンを検出するこ となく一定時間経過した場合) に、 次の文字の入力であると判断される。
そして、 認識結果に対応する検索候補を表示するための検索候補ウィンドウ 1 1 0がアクティブ状態で上画面に表示される。図 7では、 「ミネラル」 という単語が検 索候補として辞書データから検索されて、 検索候補ウィンドウ 1 0 0内に表示され ている。 また'、 生成した検索候補ウィンドウ 1 1 0に対応するタブ 1 1 2が下画面 のたとえば入力ウィンドウ 1 0 0の上側に表示される。 ユーザは、 この 「検索候補」 のタイトルが表示されたタブ 1 1 2にスティック 2 4等で所定の操作を行うことに よって、 検索候補ウィンドウ 1 1 0を選択することができる。 なお、 上画面では、 背景画像の上端部中央に検索候補ウインドウ 1 1 0が表示されていることを示す 「検索候補」 という文字が表示され、 背景画像の下端部にたとえば 「タブに夕ツチ すると下画面へ移動できます」 という文が表示される。
具体的には、 次の文字の入力であると判定されると、 記録した座標点列から文字 認識が行われ、 認識結果に対応する単語が辞書データから検索される。 そして、 検 索候補の単語を含む検索候補ウィンドウ画像データ (図 4および図 5参照) が生成 される。 また、 生成した検索候補ウィンドウ 1 1 0に対応する夕プ 1 1 2のタブデ 一夕 (図 6参照) およびタブ位置データが生成される。 そして、 上画面ウィンドウ タブ番号記憶領域 8 2に、 生成した検索候補ウィンドウ 1 1 0に対応するタブ番号 を記憶する。 このようにして、 上画面には検索候補ウィンドウ 1 1 0が表示され、 下画面には入力ウィンドウ 1 0 0等とともに検索候補のタブ 1 1 2が表示される。 図 8には、 図 7の後で文字入力が完了されて検索ボタン 1 0 4が選択されたとき の表示画面の一例が示される。 検索ポタン 1 0 4が選択されると、 入力した文字の 認識が開始され、 その結果に対応する検索候補が検索候補ウィンドウ 1 1 0内に表 示される。図 8では、 「みねらるうお一た一」 と入力されて検索ポタン 1 0 4が選択 されたので、 「ミネラルウォーター」という単語が検索候補として追加された検索候 補ウィンドウ 1 1 0が生成されて、 上画面にアクティブ状態で表示される。
図 9には、 図 8で検索候補のタブ 1 1 2が選択された場合の表示画面の一例が示 される。 検索候補ウィンドウ 1 1 0が上画面でアクティブ状態に表示されている場 合において検索候補の夕プ 1 1 2がスティック 2 4等で選択されると、 検索候補ゥ インドウ 1 1 0が下画面にアクティブ状態で表示される。 具体的には、 検出された 夕ツチ入力データに基づいて、 検索候補のタブ 1 1 2の表示位置がたとえば 1クリ ックで指示されたと判定されたとき、 下画面ウィンドウタブ番号記憶領域 8 4に検 索候補のタブ 1 1 2のタブ番号が記憶され、 これによつて対応する検索候補ウィン ドウ 1 1 0が下画面に表示される。
なお、 検索候補ウィンドウ 1 1 0に対応する夕プ 1 1 2は、 下画面非表示の場合 とは大きさや色等の形態が変化された状態で表示される。 これによつて、 対応する ウィンドウがアクティブ状態で下画面に表示されていることが示される。 図 9の例 では、 タブ 1 1 2のサイズが大きくされ、 タブ 1 1 2は検索候補ウィンドウ 1 1 0 に接するように表示される。
一方、 上画面には、 非アクティブウィンドウがないので、 上画面ウィンドウ夕プ 番号記憶領域 8 2がクリアされて、 たとえば 「タブに再度夕ツチすると上画面へ戻 ります」 という文を含む背景画像が表示される。
検索候補ウィンドウ 1 1 0が下画面に表示されると、 検索候補ウィンドウ 1 1 0 に対して夕ツチパネル 2 2による入力ないし操作が可能になる。 この実施例では、 検索候補ウィンドウ 1 1 0内の検索候補の単語をスティック 2 4等でタツチするこ とによって、 当該単語を調べることができる。 したがって、 ユーザは、 検索候補ゥ インドウ 1 1 0内を操作したい場 には、 当該検索候補ウィンドウ 1 1 0に対応す るタブ 1 1 2を選択すればよい。
図 1 0には、 図 9で検索候補ウィンドウ 1 1 0の単語が選択された場合の表示画 面の一例が示される。 検索候補ウィンドウ 1 1 0で単語が選択されると、 上画面に は、 当該単語の解説ないし説明を表示する辞書ウィンドウ 1 1 4がアクティブ状態 で表示される。 図 1 0では、 「ミネラルウォー夕一」 が選択されたので、 「ミネラル ウォーター」 の解説文、 たとえば 「カルシウム ·マグネシウムなどの無機塩類を比 較的多量に含んだ、 飲料となる天然水 '地下水。 また人工的に無機塩類を添加した 天然水。」 を含む辞書ウィンドウ 1 1 4が表示される。 なお、 上画面の背景画像には たとえば「タブに夕ツチすると下画面へ移動できます」という文が再び表示される。 一方、 下画面には、 生成された辞書ウィンドウ 1 1 4に対応するタブ 1 1 6が表示 される。 図 1 0では、 タブ 1 1 6は単語 「ミネラルウォーター」 の辞書ウィンドウ 1 1 4に対応するので、 夕プ 1 1 6には 「ミネラルウォー夕一」 というタイトルが 表示される。
具体的には、 タツチ入力データと検索候補位置データとに基づいて検索候補の単 語が選択されたことが判定されると、 辞書データに基づいて当該単語の説明を含む 辞書ウィンドウ画像データ (図 4および図 5参照) が生成される。 また、 生成した 辞書ウィンドウ 1 1 4に対応するタブ 1 1 6に関するデータを追加したタブデータ (図 6参照) およびタブ位置データが生成される。 そして、 上画面ウィンドウタブ 番号記憶領域 8 2に、 生成した辞書ウインドウ 1 1 4に対応するタブ番号を記憶す る。 このようにして、 上画面には辞書ウィンドウ 1 1 4が表示され、 下画面には検 索候補ウィンドウ 1 1 0および検索候補のタブ 1 1 2等に加えて、 ミネラルウォー ターのタブ 1 1 6が表示される。
図 1 1には、 図 1 0で辞書ウィンドウ 1 1 4に対応するタブ 1 1 6が選択された 場合の表示画面の一例が示される。 上画面に辞書ウィンドウ 1 1 4がアクティブ状 態で表示され、 かつ、 下画面に検索候補ウィンドウ 1 1 0がアクティブ状態で表示 されている場合において、 当該辞書ウィンドウ 1 1 4に対応するタブ 1 1 6が選択 されると、 上画面と下画面とでウィンドウが入れ替えられる。 つまり、 上画面には 検索候補ウィンドウ 1 1 0がアクティブ状態で表示され、 下画面には選択された辞 書ウィンドウ 1 1 4がアクティブ状態で表示される。 また、 選択された辞書ウィン ドウ 1 1 6に対応するタブ 1 1 6は、 アクティブ状態を示す形態で表示される。 なお、 上下画面間でアクティブ状態のウィンドウを入れ替える場合には、 図 1 2 に示すように、ウインドウが次の表示位置へ徐々に移動するように表示してもよい。 図 1 2では、 上画面の辞書ウィンドウ 1 1 4が下画面における表示位置へ徐々に移 動し、 かつ、 下画面の検索候補ウィンドウ 1 1 0が上画面における表示位置へ徐々 に移動する様子が示されている。 ウィンドウどうしが重なる場合には、 いずれか一 方のウィンドウ (この実施例では上画面でアクティブ状態だったウィンドウ) が前 面に表示される。 また、 選択されたウィンドウを上画面から下画面へ移動する場合 (図 9参照)、 あるいは下画面から上画面へ移動する場合 (図 1 3参照) にも、 同様 にして、 当該ウィンドウが次の表示位置に徐々に移動するように表示してよい。 こ のように徐々に移動するような演出を行うことによって、 ウィンドウが上下画面間 を本当に移動しているかのような感覚をユーザに与えることができる。
図 1 1のように辞書ウィンドウ 1 1 4がアクティブ状態で下画面に表示されると、 辞書ウィンドウ 1 1 4に対して夕ツチパネル 2 2による入力ないし操作が 能にな る。 この実施例では、 辞書ウィンドウ 1 1 4内の解説文における単語をスティック 2 4等でタツチすることによって、 当該単語を調べることができる。 したがって、 ユーザは、 辞書ウィンドウ 1 1 4内を操作したい場合には、 図 1 0で当該辞書ウイ ンドウ 1 1 4に対応するタブ 1 1 6を選択すればよい。
なお、 図 1 1の状態で、 下画面にアクティブ状態で表示された辞書ウィンドウ 1 1 4に対応するタブ 1 1 6を選択した場合には、 図 1 3に示すように、 上画面に、 当該辞書ウィンドウ 1 1 4が表示される。 上画面に表示されていた検索候補ウィン ドウ 1 1 0は非アクティブ状態にされる。 また、 下画面には入力ウィンドウ 1 0 0 が表示される。
図 1 4には、 図 1 1で辞書ウィンドウ 1 1 4内の単語が選択された場合の表示画 面の一例が示される。 辞書ウィンドウ 1 1 4の説明文における単語がスティック 2 4等で選択されると、 当該単語の辞書ウィンドウ 1 1 8が上画面にアクティブ状態 で表示される。 なお、 上画面に表示されていた検索候補ウィンドウ 1 1 0は非ァク ティブ状態にされる。 図 1 4では、 「無機塩類」 という単語が選択されたので、 「無 機塩類」 の解説文、 たとえば 「無機酸の水素を金属で置換してできる塩。 塩化ナト' リウム ·炭酸カルシウムなど。」 を含む辞書ウィンドウ 1 1 8が生成される。 一方、 下画面には、生成された辞書ウィンドウ 1 1 8に対応するタブ 1 2 0が表示される。 図 1 4では、 タブ 1 2 0は単語 「無機塩類」 の辞書ウィンドウ 1 1 8に対応するの で、 タブ 1 2 0には 「無機塩類」 のタイトルが表示される。
具体的には、 夕ツチ入力データと単語位置データとに基づいて説明文内の単語が 選択されたことが判定されると、 辞書データに基づいて当該単語の説明ないし解説 を含む辞書ウィンドウ画像データ (図 4および図 5参照) が生成される。 また、 生 成した辞書ウインドウ 1 1 8に対応するタブ 1 2 0に関するデ一夕を追加した夕プ デ一夕 (図 6参照) およびタブ位置データが生成される。 そして、 上画面ウィンド ゥタブ番号記憶領域 8 2に、 生成した辞書ウィンドウ 1 1 8に対応するタブ番号を 記慷する。 このようにして、 上画面には辞書ウィンドウ 1 1 8が表示され、 下画面 には、 辞書ウィンドウ 1 1 4、 検索候補のタブ 1 1 2およびミネラルウォーターの タブ 1 1 6等に加えて、 無機塩類のタブ 1 2 0が表示される。
図 1 5には、 この実施例のウィンドウ制御の概念図が示される。 上画面 (第 1表 示領域または第 1表示部) には複数のウィンドウが作成される。 上画面では、 1つ のウィンドウのみがアクティブ状態にされ(すなわち表示され)、他のウィンドウは 非アクティブ状態にされる。 なお、 この実施例では、 アクティブ状態のウィンドウ のみが画面上に表示され、 非ァクティブ状態のウィンドウは画面上には表示されな レ 。 表示されるウィンドウは、 たとえば深度が最前であるもののような所定のウイ ンドウである。
一方、 タツチパネル 2 2のようなポインティングデバイスで位置を入力指定する ことが可能な下画面 (第 2表示領域または第 2表示部) には、 各ウィンドウに対応 付けられたタブが設けられる。 ただし、 入力ウィンドウは、 下画面のデフォルトの ウィンドウであり、 上画面に移動することがないので、 対応するタブは設けられな い。
タブは、 対応付けられたウィンドウを選択するための選択領域である。 ユーザは ポインティングデバイスを用いてタブ上で所定の入力操作を行うことによって、 対 応するウィンドウを選択し、 当該ウィンドウの移動および表示等を制御することが できる。 なお、 この実施例では、 選択領域は、 ウィンドウにつながるタブを用いる ことによって対応付けが容易に把握可能なように表現しているが、 ポタンやアイコ ン等であってもよい。
上画面のアクティブウィンドウに対応するタブが選択されると、 当該選択された ウインドウは下画面に移動して表示される。 この下画面に移動したウインドウは移 動ウィンドウと表現される。 下画面では、 移動ウィンドウがある場合には当該移動 ウィンドウがァクティブ状態で表示され、 移動ウィンドウがない場合には入力ウイ ンドウがァクティブ状態で表示される。 上画面から下画面へウインドウが移動する 場合において、 下画面に既に別の移動ウィンドウが表示されていたときには、 当該 別のウインドウが上画面に移動して、 上画面のァクティプウインドウとして表示さ れる。 一方、 上画面から下画面へウィンドウが移動する場合において、 下画面に入 カウィンドウが表示されていたときには、 上画面には、 非アクティブウィンドウの うち最大のタブ番号に対応するウィンドウがァクティブ状態にされて表示される。 つまり、 最後に生成されたウィンドウが表示される。
また、 非アクティブウィンドウに対応するタブが選択された場合には、 操作に応 じて異なる制御が行われる。 非アクティブウィンドウに対応するタブが、 たとえば 1クリック操作で選択されたときには、 当該選択され ウインドウがァクティブ状 態にされて上画面に表示される。 一方、 当該タブがたとえば 2クリック操作で選択 されたときには、 当該選択された'ウィンドウは下画面にアクティブ状態で表示され る。
また、 下画面の移動ウィンドウに対応するタブが選択されると、 当該選択された ウィンドウは上画面に移動してアクティブ状態で表示される。 このように、 下画面 に表示すべきウィンドウがない場合には、 下画面には基本入力ウィンドウとしての 入力ウィンドウが表示される。 したがって、 複数のウィンドウのうち下画面に表示 すべきウィンドウがない場合であっても、 下画面には入力ウインドウが表示される ので、 たとえば、 ユーザに入力を促したり、 アプリケーション等の進行に必要な入 力操作に対応したりすることが可能になる。 また、 ユーザの入力操作を滞らせるこ となく、 ユーザに円滑な入力操作を行わしめることができる。 このようなタブ選 択に応じたウィンドウ制御の概略は、図 1 6から図 1 9に、より具体的に示される。 図 1 6には、 下画面に入力ウィンドウが表示されている場合において非ァクティ ブウインドウに対応するタブが選択されるときの制御の概略が示される。 非ァクテ イブのウィンドウ 2に対応する夕ブが 1夕ツチ ( 1クリック) 操作で選択されたと きには、 当該ウィンドウ 2が上画面でアクティブ状態にされて表示され、 ウィンド ゥ 1は非アクティブ状態にされる。 その後、 さらに当該ウィンドウ 2のタブが 1ま たは 2クリック操作で選択されたときには、 当該ウィンドウ 2が下画面に移動され てァクティブ状態で表示され、 上画面ではウインドウ 1がァクティブ状態にされて 表示される。 つまり、 上画面で最前に表示されているウィンドウに対応するタブが 1または 2クリック操作で選択されたときには、 当該ウィンドウが操作対象になつ たと判断して、 当該ウィンドウが下画面に表示されて、 操作入力可能にされる。 一方、非アクティブのウィンドウ 2に対応するタブが 2連続タツチ(2クリック) 操作で選択されたときには、 当該ウィンドウが操作対象になつたと判断して、 当該 ウィンドウ 2がー気に下画面に移動されて表示され、 操作入力可能にされる。 上画 面の表示はアクティブのウィンドウ 1のまま ある。 このように、 非アクティブの ウィンドウ 2に対応するタブに簡単な所定の操作 (たとえば 2クリック) をするこ とによって当該ウィンドウを一気に下画面にァクティブ状態で表示することができ る。
この場合、 非ァクティブのウィンドウ 2に対応するタブの選択操作を使い分ける ことによって、 当該ウインドウ 2への操作までの経路を変化させることができる。 たとえば、 ユーザは、 当該タブを 1クリックで選択することによって、 上画面にゥ インドウ 2を一旦表示して、 予めウィンドウ 2の内容を確認して操作が必要か否か を判 I することができる。 一方、 ウィンドウ 2への操作前にその内容を確認する必 要がない場合等には、 当該タブを 2クリックで選択することによって、 下画面に直 接ウィンドウ 2を表示して、 直ちにウィンドウ 2に対する操作を開始することがで きる。 したがって、 操作性を向上 ることができる。 '
図 1 7には、 図 1 6とは異なり下画面に移動ウィンドウ 1が表示されている場合 において、 非ァクティブウインドウに対応するタブが選択されるときの制御の概略 が示される。非アクティブのウィンドウ 2に対応する夕ブが 1夕ツチ( 1クリック) 操作で選択されたときには、 当該ウィンドウ 2が上画面でアクティブ状態にされて 表示され、 アクティブだったウィンドウ 3は非アクティブ状態にされる。 その後、 さらに当該ウインドウ 2のタブが 1または 2クリック操作で選択されたときには、 当該ウィンドウ 2が下画面に移動されてァクティブ状態で表示される。上画面には、 下画面に表示されていたウィンドウ 1が移動されて表示される。
一方、非アクティブのウィンドウ 2に対応するタブが 2連続夕ツチ(2クリック) 操作で選択されたときには、 当該ウィンドウ 2がー気に下画面に移動されて表示さ れる。 上画面には、 下画面に表示されていたウィンドウ 1がアクティブ状態にされ て表示される。 このように、 非アクティブのウィンドウ 2に対応するタブに簡単な 所定の操作 (たとえば 2クリック) をすることによって、 当該ウィンドウを一気に 下画面の移動ウィンドウと入れ替えて表示することができる。 したがって、 図 1 6 と同様に、 操作性を向上できる。
図 1 8には、 下画面に入力ウィンドウが表示されている場合において、 上画面の アクティブウィンドウに対応するタブが選択されるときの制御の概略が示される。 図 1 8 (A) には、 上画面に複数のウィンドウ 1— 3が作成されている場合が示さ れる。 上画面のァクティブのウインドウ 1に対応するタブが 1または.2クリックで 選択されると、 当該ウィンドウ 1が操作対象になつたと判断されて、 下画面に移動 してアクティブ状態で表示される。 一方、 上画面には、 非アクティブのウィンドウ のうち、 最大のタブ番号のタブに対応するウィンドウ (図 1 8 (A) ではウィンド ゥ 3 ) がアクティブ状態にされて表示される。
また、 図 1 8 ( B ) には、 上画面に 1つのウィンドウ 1のみ作成されている場合 が示されている。 当該ウィンドウ 1に対応するタブが 1または 2クリックで選択さ れると、 当該ウィンドウ 1が操作対象になつたと判断されて、 下画面に移動してァ クティブ状態で表示される。 一方、 上画面に関しては非アクティブのウィンドウが 存在しないので、 上画面には背景画像が表示される。 なお、 下画面に移動ウィンド ゥが表示されている場合においては、 上画面のァクティブウインドウが選択される と、 上画面には、 下画面に表示されていたウィンドウが移動して表示される (図 1 7の右上から右下への流れを参照)。
図 1 9には、 下画面のアクティブウィンドウ (移動ウィンドウ) に対応するタブ が選択されるときの制御の概略が示される。 下画面の移動ウィンドウ 1に対応する タブが 1または 2クリックで選択されると、 当該ウィンドウ 1が操作対象ではなく なったと判断されて、 上画面に移 ¾して、 アクティブ状態で表示される。 一方、 下 画面には入力ウィンドウが表示される。 なお、 図 1 9では、 上画面にウィンドウ 2 および 3が存在する場合が示されるが、 上画面に背景画像が表示されていても同様 である。
図 2 0には、 タブ上におけるジエスチヤ操作の一例が示される。 図 2 0 (A) に は、 スティック 2 4等がタツチパネル 2 2上で下方向へスライド操作される場面が 示される。この下方向へのスライド操作がタブ上で行われたと判定されるときには、 この実施例では、 2連続タツチ (2クリック) の場合と同じ処理が実行されること になる。 したがって、 たとえば、 非アクティブのウィンドウに対応するタブ上で、 下方向へのスライド操作が行われると、 図 1 6および図 1 7に示した 2クリック操 作の場合と同様にように、 当該ウィンドウが一気に下画面に表示される。 したがつ て、 上述の 1クリックや 2クリック操作の場合と同様に、 簡単なジエスチヤ操作で ウィンドウの移動や表示を制御することができ、 操作性を向上できる。
また、 図 2 0 ( B ) には、 スティック 2 4等が夕ツチパネル 2 2上で左方向また は右方向ヘスライド操作される場面が示される。 この左または右方向へのスライド 操作がタブ上で行われたと判定されるときには、 この実施例では、 対応するウィン ドウを消去する (閉じる) 処理が実行されることになる。 したがって、 この場合に も、 上述の各操作の場合と同様に、 簡単なジエスチヤ操作でウィンドウの消去を制 御することができ、 操作性を向上できる。
なお、 上述の 1クリック操作、 2クリック操作、 下方向へのスライ.ド操作、 左右 方向へのスライド操作のような所定の操作、 ならびに、 これら所定の操作のウィン ドウ制御処理への対応付けは、 一例であり、 他の操作や他の対応付けに適宜変更さ れてよい。 たとえば、 タブが一定時間以上押し続けられたときに、 対応するウィン ドウを消去するようにしてもよい。
図 2 1には、 上画面でァクティブ状態のウィンドウを消去する場合のウィンドウ 制御の概略が示される。 上画面でアクティブ状態のウィンドウ 1に対応するタブ上 で、 消去を指示する操作 (この実施例では左または右方向へのスライド操作) が行 われると、 当該ウィンドウ 1および対応するタブが消去される。 具体的には、 ウイ ンドウ画像記憶領域 7 8から当該ウィンドウ 1のデータが削除され、 タブデータ記 憶領域 8 0から当該タブのデータが削除される。 そして、 連番であるタブ番号に欠 番が出る可能性があるので、 タブ番号の再設定が必要に応じて行われて、 タブデー 夕が更新される。 これによつて、 その後新たに生成されるウィンドウのタブ番号に は、 最大のタブ番号が付されることとなる。 具体的には、 消去されたタブ番号より も大きいタブ番号が存在するとき、 該当するタブ番号を 1だけ減算することによつ てタブ番号を再設定する。 図 2 1では、 タブ番号 1であったウィンドウ 1が消去さ れるので、 タブ番号 3であったウ ンドウ 3がタブ番号 2のウィンドウ 2に改めら れ、 タブ番号 2であったウィンドウ 2がタブ番号 1のウィンドウ 1に改められる。 そして、 非アクティブウィンドウのうち最大のタブ番号のものを検出し、 当該最大 タブ番号を上画面ウィンドウタブ番号記憶領域 8 2に記憶する。 これによつて、 最 大タブ番号に対応するウィンドウが上画面に表示される。 また、 タブ位置データも 更新され、 下画面において、 更新された表示位置に、 残りのウィンドウに対応する タブが表示される。 なお、 最大タブ番号を検出できない場合、 つまり、 非ァクティ ブウィンドウが残つていない場合には、 上画面には背景画像が表示される。
なお、 図示はしていないが、 非アクティブのウィンドウに対応するタブ上で消去 操作がなされた場合には、上画面にはアクティブウィンドウがそのまま表示される。 ただし、 ウィンドウ画像データ、 タブデータおよびタブ位置データは、 上述と同様 にして更新される。 上画面のァクティブウインドウのタブ番号が再設定された場合 には、 当該再設定されたタブ番号が上画面ウインドウタブ番号記憶領域 82に書き 込まれる。
また、下画面の移動ウインドウに対応する夕ブ上で消去操作がなされた場合には、 下画面ウィンドウタブ番号記憶領域 84がクリアされ、 下画面には入力ウィンドウ が表示される。 上画面の表示はそのままである。 なお、 上述と同様にして、 ウィン ドウ画像データ、 タブデータ、 タブ位置データが更新され、 必要に応じて上画面ゥ インドウタブ番号記憶領域 82も 新される。
なお、 この実施例では、 アクティブウィンドウが消去されたときに.、 最大タブ番 号に対応するウインドウすなわち最後に生成されたウインドウを表示するようにし ている。 しかし、 アクティブウィンドウが消去されたときには、 ウィンドウ表示の 履歴データを記録しておいて、 その直前に表示されていたウィンドウを表示するよ うにしてもよい。
図 22には、この情報処理装置 10の動作の一例が示される。処理を開始すると、 CPUコア 42は、 ステップ S 1で下画面に入力ウィンドウを表示する。 具体的に は、 CPUコア 42は、 GPU50 (または GPU52) を用いてウィンドウ画像 記憶領域 78の初期状態の入力ウィンドウ画像データに基づいて VRAM 56 (ま たは VRAM58) に当該入力ウィンドウの画像デ一タを生成する。 LCDコント ローラ 60は、 CPUコア 42の指示の下、 VRAM56 (または VRAM58) に記憶された画像データを LCD 14に出力し、 LCD 14に当該画像を表示する。 また、ステップ S 3で CPUコア 42は上画面に背景画像を表示する。具体的には、 CPUコア 42は、 データ記憶領域の背景画像を表示するためのデータに基づいて GPU 52 (または GPU50) を用いて VRAM58 (または VRAM56) に 当該背景画像の画像デ一タを生成し、 LCDコントローラ 60を用いて当該背景画 像を L CD 12に表示する。 '
次に、 ステップ S 5で、 CPUコア 42は連続した夕ツチ入力を検出する。 具体 的には、 C PUコア 42は I /"F回路 54を介して夕ツチパネル 22の出力する座 標データを夕ツチ入力データ記憶領域 74に記憶する。 たとえば連続する所定数の フレーム (1フレームは 1ノ 60秒) の座標データを検出して記憶領域 74に記憶 する。 続いて、 ステップ S 7で、 CPUコア 42は、 タツチ入力データとタブ位置デ一 夕に基づいてタブに対する入力があるか否かを判定する。 つまり、 夕ツチ入力デ一 夕の座標が、 夕プ位置データのタブの表示位置ないし範囲を示す座標に含まれるか 否かを判定する。 ステップ S 7で "YES" であれば、 ステップ S 9で CPUコア 42はウィンドウ表示処理を実行する。 このウィンドウ表示処理の動作は後述する 図 26に詳細に示される。
一方、 ステップ S 7で "NO" であれば、 ステップ S 11で C PUコア 42は夕 ツチ入力データに基づいてその他の入力があるか否かを判定する。 ステップ S 1 1 で "YES" であれば、 つまり、 タブ位置以外の夕ツチ入力がある場合には、 ステ ップ S 13で CPUコア 42は検索処理を実行する。 この検索処理の動作は後述す る図 23に詳細に示される。
また、 ステップ S 11で "NO"であれば、 つまり、 夕ツチ入力が無い場合には、 処理はそのままステップ S 15に進む。 また、 ステップ S 9またはステップ S 13 を終了すると、 処理はステップ S 15へ進む。
ステップ S 15では、 C PUコア 42はたとえば夕ツチ入力データに基づいて処 理を終了するか否かを判定する。 ステップ S 15で "NO" であれば処理はステツ プ S 5へ戻り、 "YES" であれば処理を終了する。
図 23にはステップ S 13 ('図 22) の検索処理の動作の一例が示される。 図 2 3の最初のステップ S 31で、 CPUコア 42は、 夕ツチ入力座標と下画面に表示 するウィンドウの座標とを比較する。 具体的には、 下画面ウィンドウタブ番号記憶 領域 84のデータに基づいて、 下画面に表示されているウィンドウを特定し、 当該 ウィンドウのウィンドゥ画像デー夕に含まれる比較対象となる座標を参照する。 入 カウィンドウの場合、 検索ポタン位置データ、 全消去ポタン位置データ、 手書き入 , 力位置データを参照し、 夕ツチ入力データの示す指示座標がこれらに含まれるか否 か判定する。 検索候補ウィンドウの場合、 各検索候補位置データを参照して、 タツ チ入力データの示す座標がこれらに含まれるか否かを判定する。 辞書ウィンドウの 場合、 各単語位置データを参照して、 夕ツチ入力データの示す座標がこれらに含ま れるか否かを判定する。
ステップ S 33では、 CPUコア 42は、 指示座標が全消去ボタン 106の座標 であるか否かを判定する。 ステップ S 33で "YES" であれば、 ステップ S 35 で CPUコア 42は座標点列記憶領域 76をクリアするとともに、 入力ウィンドウ 画像データから入力文字の画像データをクリアして、 文字入力エリア 102の入力 文字の表示を消去する。 ステップ S 33で "NO" である場合、 またはステップ S 35を終了すると、 処理はステップ S 37へ進む。
ステップ S 37では、 CPUコア 42は、 指示座標が検索ポタン 104の座標で あるか否かを判定し、 "YES" であれば、 処理はステップ S 45へ進む。
一方、 ステップ S 37で "NO" であれば、 CPUコア 42はステップ S 39で 指示座標が手書き入力エリア 102の座標であるか否かを判定する。 ステップ S 3 9で" YES"であれば、 CPUコア 42はステップ S 41で座標点列を記録する。 具体的には、 夕ツチ入力データ記憶領域 74に記憶されている手書き入力エリア 1 02の座標データを座標点列記憶領域 76に記憶するとともに、 I /F回路 54を 介して夕ツチパネル 22の出力する座標データを取得して、 座標点列記憶領域 76 に追加的に記憶する。 なお、 図 23では省略されるが、 記録した座標点列データに 基づいて、 入力ウインドウの手書き入力エリァ 102の対応する座標の色データを 変更することによって、 入力ウィンドウ画像データを更新し、 下画面にその入カウ インドウ画像を表示する。 これによつて、 手書き入力エリア 102には手書き入力 された文字が表示されることとなる。
続いて、 ステップ S 43で、 CPUコア 42は、 次の文字が入力されたか否かを 判断する。 手書きで文字を入力する際には、 一般的にュ一ザはある文字を書き終え てから次の文字を書くまでに一定時間経過する傾向がある。 このため、 たとえば、 記憶された座標点列デー夕に基づいて、 夕ツチオフになつてから夕ツチオンになる までに所定時間経過したか否かを判断する。 あるいは、 次の文字の入力の開始は、 現文字の入力の終了によって判定してもよい。 具体的には、 座標点列データに基づ いて夕ツチオフになつてから所定時間が経過したか否かを判定するようにしてもよ レ^ ステップ S 43で " NO" であればステップ S 41に戻る。
ステップ S 43で "YES" であれば、 .C PUコア 42は、 ステップ S 45で、 記録した座標点列から文字認識処理を行う。 具体的には、 座標点列データに基づい て、 たとえばパターンマッチングによって入力された文字を認識する。 そして、 ス テツプ S 47で、 CPUコア 42は、 検索候補ウィンドウ生成処理を実行して、 認 識された単語を検索候補として表示する検索候補ウィンドウを作成する。 この検索 候補ウィンドウ生成処理の動作は後述する図 24に示される。 ステップ S 47を終 了し、 または、 ステップ S 39で "NO"であれば、 処理はステップ S 49へ進む。 ステップ S 49では、 CPUコア 42は、 指示座標が検索候補の単語の座標であ るか否かを判定する。 または CPUコア 42は、 指示座標が辞書内の単語の座標で あるか否かを判定する。ステップ 49で" YES"であれば、 CPUコア 42は、 ステップ S 51で辞書ウィンドウ生成処理を実行して、 指示された単語の解説を表 示する辞書ウィンドウを作成する。 この辞書ウィンドウ生成処理の動作は後述する 図 25に示される。 ステップ S 51を終了し、 または、 ステップ S49で "N〇" であれば、 処理はステップ S 53に進む。
ステップ S 53では、 CPUコア 42は、 指示座標が入力ポタン 108の座標で あるか否かを判断する。ステップ S 53で" YES"であれば、 CPUコア 42は、 ステップ S 55で下画面ウィンドウタブ番号データ記憶領域 84をクリアし、 0ま たは NULL等の初期値を書き込む。 続いて、 ステップ S 57で、 CPUコア 42 は、 下画面に入力ウィンドウを表示する。 具体的には、 CPUコア 42は、 入カウ インドウ画像データに基づいて、 上述のように GPU50 (または GPU52) お ょぴ LCDコントローラ 62等を用いて入力ウィンドウ画像を LCD 14に表示す る。
ステップ S 57を終了し、 または、 ステップ S 53で " NO" であれば、 この検 索処理を終了して、 処理は図 22のステップ S 1 5へ戻る。
図 24には、 ステップ S 47 (図 23) の検索候補ウィンドウ生成処理の動作の 一例が示される。 図 24の最初のステップ S 71で、 CPUコア 42は、 新規の検 索候補ウィンドウを作成するか否かを判断する。 たとえば、 全消去ポタン 106が 押され座標点列デー夕を一旦クリアした後の最初の文字認識である場合には新規ゥ インドウ作成であると判断する。
ステップ S 71で " YE S" であれば、 C PUコア 42は、 ステップ S 73で文 字認識により得られた単語の検索候補ウィンドウ画像データを生成する。たとえば、 認識結果に該当する単語を辞書データから読み出し、 当該単語の表示位置を決定し てその検索候補位置デ一夕を生成する。 このようにして当該単語を含む検索候補ゥ インドゥ画像を表示するためのデータを生成してウィンドゥ画像記憶領域 78に記 憶する。
ステップ S 75では、 CPUコア 42は、 検索候補ウィンドウのタブのタイトル 画像データ (「検索候補」 を示す画像データ) を ROM28 aから RAM48に読み 出す。
ステップ S 77では、 CPUコア 42は新規タブ番号を生成する。 具体的には、 タブデータ記憶領域 80にタブデータが記憶されている場合、 最大のタブ番号に 1 を加算することによって、 新規タブ番号を生成する。 なお、 タブデータ記憶領域 8 0にタブデータが記憶されていない場合 (すなわちウインドウが作成されていない 場合) には、 新規タブ番号として 1を設定する。
ステップ S 79では、 CPUコア 42は夕ブデ一夕を生成してタブデータ記憶領 域 80に記憶する。具体的には、ステップ S 77で生成したタブ番号に対応付けて、 ステップ S 75で読み出したタイトル画像データ、 およびステップ S 73で生成し たウインドウ画像データの先頭ァドレスを記憶する (図 6参照)。
ステップ S 81では、 CPUコア 42は、 ステップ S 77で生成したタブ番号を 上画面ウィンドウタブ番号データ記憶領域 82に記憶する。 ステップ S 83では、 CPUコア 42は、 検索候補ウィンドウ画像データに基づいて、 GPU50 (また は GPU52) および LCDコントローラ 62を用いて LCD 12に検索候補ウイ ンドウを表示する。 このようにして、 たとえば図 7に示したように、 新規作成され た検索候補ウィンドウ 110が上画面に表示される。
また、 ステップ S 85では、 CPUコア 42はタブ位置データを生成して、 タブ 位置デ一夕記憶領域 86に記憶する。 たとえば、 夕ブ位置デー夕記憶領域 86に夕 ブ位置デー夕が記憶されていない場合には、 最初のタブのための所定の表示位置な いし範囲を読み出して、 ステップ S 77で生成した新規タブ番号に対応付けて記憶 する。 一方、 タブ位置データが記憶されている場合には、 各タブのタイトル画像の 文字数およびタブの表示エリアの大きさ等に基づいて、 新規タブの表示位置ないし 範囲を設定し、 新規タブ番号に対応付けて記憶する。 また、 タブの表示エリアにす ベての夕プが収まるように、 必要に応じて既存の夕ブの表示位置ないし範囲を更新 する。
そして、 ステップ S 87で、 CPUコア 42は、 タブデータおよびタブ位置デー 夕に基づいて、 GPU52 (または GPU50) および L C Dコントローラ 60を 用いて、 LCD 14に検索候補ウィンドウに対応するタブを表示する。 なお、 ステ ップ S 85で既存のタブの表示位置を更新した場合には、 既存のタブを更新された 位置に表示する。
一方、 ステップ S 71で " N'〇" であれば、 CPUコア 42は、 ステップ S 89 で、 検索候補ウィンドウ画像データを更新する。 具体的には、 ステップ S 73と同 様にして、 さらなる文字認識により得られた単語を含む検索候補ウィンドウ画像を 表示するためのデータを生成してウィンドウ画像記憶領域 78に記憶する。
そして、 ステップ S 91で、 CPUコア 42は、 更新された検索候補ウィンドウ 画像データに基づいて、 GPU 50 (または GPU52) および LCDコント口一 ラ 60を用いて、 LCD 12に検索候補ウィンドウを表示する。 こうして、 たとえ ば図 8に示すように、更新された検索候補ウィンドウ 110が上画面に表示される。 ステップ S 87またはステップ S 91を終了すると、 この検索候補ウィンドウ生成 処理を終了し、 処理は図 23のステップ S 49へ進む。
図 25には、 ステップ S 51 (図 23) の辞書ウィンドウ生成処理の動作の一例 が示される。 図 25の最初のステップ S 101で、 CPUコア 42は、 選択された 検索候補または説明文内の単語に'対応する説明デ一夕を、 辞書データ記憶領域 88 から RAM48のワークエリアに読み出す。 そして、 ステップ S 103で、 CPU コア 42は、 読み出した説明データ等に基づいて、 単語の見出し位置、 説明文の表 示位置 (各単語の表示位置) 等を決定して、 当該単語と説明文を表示するための辞 書ウィンドウ画像デ一夕を生成してウインドウ画像記憶領域 78に記憶する。
また、 ステップ S 105で、 CPUコア 42は、 ステップ S 105で、 選択され た検索候補または説明内の単語に対応するタブのタイトル画像を表示するためのデ
—タを、 辞書データ記憶領域 88から RAM 48のワークエリアに読み出す。 ステップ S 107では、 CPUコア 42は、タブデータ記憶領域 80を参照して、 最大タブ番号に 1を加算することによって、 作成された辞書ウィンドウに対応する タブ番号を設定する。
ステップ S 109では、 CPUコア 42は、 ステップ S 107のタブ番号、 ステ ップ S 105のタイトル画像データおよびステップ S 103の辞書ウインドウ画像 データの先頭ァドレスを対応付けてタブデータを生成しタブデータ記憶領域 80に 記憶する。
ステップ S 1 1 1では、 CPUコア 42は、 ステップ S 107で新たに設定した タブ番号を上画面ウィンドウタブ番号データ記憶領域 82に記憶する。 そして、 ス テツプ S 1 13で、 CPUコア 42は、 ステップ S 103で生成した辞書ウィンド ゥ画像データに基づいて、 GPU50 (または GPU52) および LCDコント口 ーラ 60を用いて LCD 12に辞書ウィンドウを表示する。 このよう.にして、 たと えば図 10または図 14に示したように、 新たに作成した辞書ウィンドウが上画面 に表示される。
また、 ステップ S 1 15で、 CPUコア 42は、 タブ位置データを更新して、 夕 プ位置データ記憶領域 86に記憶する。 具体的には、 ステップ S 85と同様に、 新 規タブの表示位置ないし範囲を新たに設定して新規タブ番号に対応付けて記' I意し、 必要に応じて既存のタブの表示位置ないし範囲を更新する。
そして、 ステップ S 117で、 CPUコア 42は、 タブデ一タおよびタブ位置デ 一夕に基づいて、 GPU52 (または GPU 50) および L CDコントローラ 60 を用いて、 LCD 14に新規辞書ウィンドウに対応するタブを表示する。 なお、 ス テツプ S 1 15で既存のタブの表示位置を更新した場合には、 既存のタブを更新さ れた位置に表示する。 ステップ S 1 17を終了すると、 この辞書ウィンドウ生成処 理を終了し、 処理は図 23のステップ S 53に進む。
図 26には、 ステップ S 9 (図 22) のウィンドウ表示処理の動作の一例が示さ れる。 図 26の最初のステップ S 131で、 CPUコア 42は、 夕ツチ入力データ に基づいて 1クリック操作が行われたか否かを判定する。 たとえば、 夕ツチオフの 状態からタツチオンが検出されその後夕ツチオフが検出された場合には、 1クリツ ク操作が行われたと判定される。
ステップ S 131で "YES" であれば、 ステップ S 133で、 CPUコア 42 は、 I ZF回路 54を介して夕ツチパネル 22の出力するデータを検出して、 タツ チ入力データ記憶領域 74に記憶する。 そして、 ステップ S 135で、 CPUコア 42は、 ステップ S 135で検出した座標データとタブ位置データとに基づいて、 再度同じタブが選択されたか否かを判定する。 つまり、 夕ツチ入力データの示す指 示座標が、 ステップ S 7で指示されたタブと同じタブの表示座標に相当する否かを 判定する。 ステップ S 135で " NO" であれば、 CPUコア 42は、 ステップ S 1 31の判定で夕ツチオンから夕ツチオフを検出した後に一定時間が経過したか否 かを判定する。 ステップ S 137で "NO" であれば、 処理はステップ S 133へ 戻る。
一方、 ステップ S 137で " YE S" であれば、 つまり、 1クリック操作を検出 してから再度同じ夕ブが選択されることなく一定時間が経過した場合には、 CPU コア 42は、 ステップ S 139で 1クリック処理を実行する。 この 1クリック処理 の動作は後述する図 27および図 28に示される。
また、 ステップ S 135で "YES" であれば、 つまり、 1クリック目の夕ツチ オフを検出してから一定時間が経過する前に再度同じタブの表示位置が指示された 場合には、 そのタブに 2クリック操作が行われたと判定できる。 したがって、 CP Uコア 42は、 ステップ S 141で 2クリック処理を実行する。 この 2クリック処 理の動作は後述する図 29および図 30に示される。
また、 ステップ S 131で " NO" であれば、 CPUコア 42は、 ステップ S 1 43で夕ツチ入力データに基づいて下方向へのスライド操作が行われたか否かを判 定する。 ステップ S 143で " YE S" であれば、 つまり、 たとえば検出された指 示座標の履歴が、 下方向への連続的な軌跡を示している場合には、 CPUコア 42 はステップ S 141で 2クリック処理を実行する。
また、 ステップ S 143で " NO" であれば、 CPUコア 42は、 ステップ S 1 45で、 タツチ入力データに基づいて右方向へのスライド操作または左方向へのス ライド操作が行われたか否かを判断する。ステップ S 145で" YES "であれば、 つまり、 たとえば指示座標の履歴が右または左方向への連続的な軌跡を示している 場合には、 CPUコア 42はステップ S 147で消去処理を実行する。 この消去処 理の動作は後述する図 31および図 32に示される。
また、 ステップ S 145で "NO" であれば、 つまり、 タブに対する操作が判別 できない場合にはこのウィンドウ表示処理を終了して、 処理は図 22のステップ S 1 5に進む。 また、 ステップ S 139、 ステップ S 141またはステップ S 147 を終了したときも同様である。 '
図 27には、 ステップ S 139の 1クリック処理の動作の一例が示される。 図 2 7の最初のステップ S 161で、 CPUコア 42は、 夕ツチ入力データとタブ位置 データとに基づいて選択されたタブのタブ番号を検出する。 次に、 ステップ S 16 3で、 CPUコア 42は、 選択されたタブのタブ番号が上画面ウィンドウタブ番号 記憶領域 82の値と同じであるか否かを判断する。 ステップ S 163で " YES" であれば、 つまり、 上画面でアクティブであるウィンドウに対応するタブが 1クリ ック操作で選択された場合には、 CPUコア 42は、 ステップ S 165で下画面ゥ インドウタブ番号データがクリア値であるか否かを判断する。 ステップ S 165で "NO" であれば、 つまり、 下画面に移動ウィンドウが表示されている場合には、 ステップ S 167で、 CPUコア 42は、 下画面ウィンドウタブ番号データ記憶領 域 84のタブ番号を読み出して、 上画面ウィンドウタブ番号データ記憶領域 82に 記憶する。 これによつて、 下画面に表示されていた移動ウィンドウが、 上画面にァ クティブで表示されることとなる。 なお、 この図 27では上画面のアクティブウイ ンドウが下画面に移動される場合の動作が示されるが、 上画面のァクティブウィン ドウを下画面にコピーする場合には、 上画面ウィンドウタブ番号データ記憶領域 8 2をそのままにしておく。
一方、 ステップ S 165で "YES" であれば、 つまり、 下画面に入力ウィンド ゥが表示されている場合には、 ステップ S 169で、 CPUコア 42は、 タブ番号 データ領域に設定されていない最大のタブ番号を検出する。 つまり、 上画面ウィン ドウタブ番号記憶領域 82に記憶されているタブ番号を除いて、 タブデータ記憶領 域 80に記憶されているタブ番号のうち最大のタブ番号を検出する。 上画面にァク ティブで表示されているウインドウ以外のウィンドウが作成されている場合には、 最大夕ブ番号が検出されるが、 そうでない場合には最大タブ番号は検出されない。 そして、 CPUコア 42はステップ S 171で検出なしであるか否かを判断する。 ステップ S 171で "NO" であれば、 ステップ S 173で、 CPUコア 42は、 検出された最大タブ番号を上画面ウインドウタブ番号データ記憶領域 82に記憶す る。 これによつて、 非アクティブウィンドウの中で最大のタブ番号を有するウィン ドウが上画面にァクティブで表示されることとなる。
ステップ S 167またはステップ S 173を終了すると、 CPUコア 42は、 ス テツプ S 175で、 上画面ウィンドウタブ番号に対応するウィンドウを上画面に表 示する。 具体的には、 CPUコア 42は、 上画面ウィンドウタブ番号データとタブ デ一夕とを参照して、 上画面ウィンドウ夕ブ番号に対応するウィンドウ画像の先頭 アドレスを取得する。 そして、 CPUコア 42は、 ウィンドウ画像記憶領域 78の 該当するウィンドウ画像データに基づいて、 GPU50 (または GPU52) およ び LCDコントローラ 60を用いてそのウィンドウ画像を LCD 12に表示する。 また、 ステップ S 171で " YE S" であれば、 つまり、 非アクティブウィンド ゥが無い場合には、 ステップ S 177で、 CPUコア 42は、 上画面ウィンドウタ ブ番号データ記憶領域 82をクリアする。 そして、 ステップ S 179で、 CPUコ ァ 42は、 背景画像データに基づいて、 GPU50 (または GPU52) および L CDコントローラ 60を用いて背景画像を L CD 12に表示する。 ステップ S 1 7 5またはステップ S 1 79を終了すると、 CPUコア 42は、 ス テツプ S 18 1で、 選択されたタブのタブ番号を下画面ウィンドウタプ番号データ 記憶領域 84に記憶す ¾。 そして、 ステップ S 183で、 CPUコア 42は、 下画 面ウィンドウタブ番号に対応するウィンドウを下画面に表示する。 具体的には、 C ?11コァ42は、 下画面ウィンドウタブ番号データとタブデータとを参照して、 下 画面ウィンドウタブ番号に対応するウィンドウ画像の先頭ァドレスを取得する。 そ して、 CPUコア 42は、 ウィンドウ画像記憶領域 78の該当するウィンドウ画像 データに基づいて、 GPU52 (または GPU50) および L C Dコントローラ 6 0を用いて、そのウィンドウ画像を LCD 14に表示する。なお、 この実施例では、 下画面ウィンドウタブ番号記憶領域 84に記憶されたタブ番号に対応するウィンド ゥは、 夕ツチパネル 22による入力操作が可能であるように決められており、 つま り、 下画面ウィンドウタブ番号記憶領域 84にタブ番号が記憶されて対応するウイ ンドウが下画面に表示されることによって、 当該ウィンドウが入力可能な状態に設 定される。 また、 下画面に表示されるウィンドウを示す下画面ウィンドウタブ番号 記憶領域 84とは別に、 下画面のウィンドウに対する夕ツチパネル 22による入力 の可否状態を示すデータ記憶領域を設けて、 この記憶領域に入力可能な状態または 入力不可能な状態を示すデータを記憶することによって、 下画面に表示されるウイ ンドウに対する入力の^否状態を制御するようにしてもよい。 このようにして、 下 画面には、 1クリックで選択された上画面のアクティブウィンドウが、 アクティブ 状態で (入力可能な状態で) 表示されることとなる。 ステップ S 183を終了する と、 この 1クリック処理を終了する。 .
一方、 ステップ S 1 63で "NO" であれば、 つまり、 非アクティブウィンドウ または下画面の移動ウインドウに対応するタブが 1クリック操作で選択された場合 には、 処理は図 28のステップ S 18 5へ進む。
図 28のステップ S 1 85では、 C P Uコア 42は、 選択されたタブのタブ番号 を上画面ゥインドウタブ番号デー夕記憶領域 82に記憶する。 そして、 ステップ S 1 87で、 CPUコア 42は、 ステップ S 1 75と同様にして、 上画面ウィンドウ タブ番号に対応するウインドウを上画面に表示する。このようにして、上画面には、 選択されたタブに対応する非ァクティブウィンドウまたは下画面の移動ウィンドウ がアクティブに表示されることと'なる。
また、 ステップ S 18 9で、 CPUコア 42は、 選択されたタブのタブ番号が下 画面ウィンドウタブ番号記憶領域 84の値と同じであるか否かを判断する。 ステツ プ S 189で "YES" であれば、 つまり、 下画面の移動ウィンドウに対応する夕 ブが選択された場合には、 ステップ S 19 1で、 CPUコア 42は、 下画面ウィン ドウタブ番号データ記憶領域 84をクリアする。 そして、 ステップ S 1 93で、 C PUコア 42は入力ウィンドウを下画面に表示する。 このようにして、 下画面の移 動ウインドウに対応するタブが 1クリック操作で選択された場合には、 下画面には 入力ウィンドウが表示されることとなる。
また、 ステップ S 189で "NO" であれば、 つまり、 非アクティブウィンドウ に対応するタブが 1クリックで選択された場合には、 そのままこの 1クリック処理 を終了する。 したがって、 この場合には下画面の表示は変更されない。
図 29には、 ステップ S 141 (図 26) の 2クリック処理の動作の一例が示さ れる。 図 29の最初のステップ S 211で、 CPUコア 42は、 夕ツチ入力データ とタブ位置データとに基づいて、 選択されたタブのタブ番号を検出する。 次に、 ス テツプ S 213で、 C PUコア 42は、 選択されたタブのタブ番号が下画面ウィン ドウタブ番号記憶領域 84の値と同じであるか否かを判断する。
ステップ S 213で " YE S" であれば、 つまり、 下画面の移動ウィンドウに対 応する夕ブが 2クリック操作(または下方向スライド操作)で選択された場合には、 CPUコア 42は、 ステップ S 21 5で、 選択されたタブのタブ番号を上画面ウイ ンドウタブ番号デ一夕記憶領域 84に記憶する。 そして、 ステップ S 217で、 C PUコア 42は、 上画面ウィンドウタブ番号に対応するウィンドウを上画面に表示 する。 このようにして、 1クリックで選択された場合と同様に、 上画面には、 選択 されたタブに対応する下画面の移動ウインドウがァクティブに表示されることとな る。
また、 ステップ S 219で、 CPUコア 42は、 下画面ウィンドウタブ番号デ一 夕記憶領域 84をクリアする。 そして、 ステップ S 21 1で、 CPUコア 42は入 カウィンドウを下画面に表示する。 このようにして、 下画面の移動ウィンドウに対 応するタブが 2クリック操作等で選択された場合には、 1クリック操作の場合と同 様に、 下画面には入力ウィンドウが表示されることとなる。 ステップ S 221を終 了するとこの 2クリック処理を終了する。
一方、 ステップ S 213で " NO" であれば、 つまり、 上画面のアクティブウイ ンドウまたは非アクティブウィンドウに対応するタブが 2クリック操作等で選択さ れた場合には、 処理は図 30のステップ S 223に進む。
図 30のステップ S 223では、 CPUコア 42は、 下画面ウィンドウタブ番号 データがクリァ値であるか否かを判断する。ステップ S 223で" NO"であれば、 つまり、下画面に移動ウィンドウが表示されている場合には、ステップ S 225で、 CPUコア 42は、 下画面ウィンドウタブ番号データ記憶領域 84のタブ番号を読 み出して、 上画面ウィンドウタブ番号データ記憶領域 82に記憶する。 これによつ て、 下画面に表示されていた移動ウィンドウが、 上画面にアクティブで表示される こととなる。 一方、 ステップ S 223で " YE S" であれば、 つまり、 下画面に入力ウィンド ゥが表示されている場合には、 CPUコア 42は、 ステップ S 227で、 選択され たタブのタブ番号が上画面ウィンドウタブ番号記憶領域 82の値と同じであるか否 かを判断する。 ステップ S 227で " YE S" であれば、 つまり、 上画面のァクテ イブウィンドウが 2クリック操作等で選択された場合には、 CPUコア 42は、 ス テツプ S 229で、 ステップ S 1 69 (図 27) と同様にして、 タブ番号データ領 域に設定されていない最大のタブ番号を検出する。 そして、 CPUコア 42はステ ップ S 23 1で最大タブ番号の検出なしであるか否かを判断する。 ステップ S 2 3 1で "NO" であれば、 つまり、 非アクティブウィンドウが存在する場合には、 ス テツプ S 233で、 CPUコア 42は、 検出された最大タブ番号を上画面ウィンド ゥタブ番号データ記憶領域 82に記憶する。 これによつて、 非アクティブウィンド ゥの中で最大のタブ番号を有するウィンドウが上画面にァクティブで表示されるこ ととなる。
ステップ S 225またはステップ S 23 3を終了すると、 CPUユア 42は、 ス テツプ S 235で、 上画面ウィンドウタブ番号に対応するウィンドウを上画面に表 示する。
また、 ステップ S 23 1で " YE S" であれば、 つまり、 非アクティブウィンド ゥが無い場合には、 CPUコア 42は、 ステップ S 2 37で上画面ウィンドウタブ 番号データ記憶領域 82をクリアし、 ステップ S 23 9で背景画像を LCD 12に 表示する。
また、 ステップ S 227で " NO" であれば、 つまり、 非アクティブウィンドウ に対応する夕ブが 2クリック操作等で選択された場合には、 上画面の表示はそのま まで、 処理はステップ S 241に進む。 また、 ステップ S 235またはステップ S 239を終了すると処理はステップ S 241へ進む。
ステップ S 241では、 C PUコア 42は、 選択されたタブのタブ番号を下画面 ウィンドウタブ番号データ記憶領域 84に記憶する。そして、ステップ S 243で、 C PUコア 42は、 ステップ S 183 (図 27) と同様にして、 下画面ウィンドウ タブ番号に対応するウィンドウを下画面に表示して、 当該ウィンドウへの操作入力 を可能にする。 このようにして、 下画面には、 2クリック操作等で選択された上画 面のアクティブウィンドウまたは'非アクティブウィンドウが、 アクティブ状態で表 示されることとなる。 ステップ S 243を終了すると、 この 2クリック処理を終了 する。
図 3 1には、 ステップ S 147 (図 26) の消去処理の動作の一例が示される。 図 3 1の最初のステップ S 26 1で、 CPU ア 42は、 夕ツチ入力データとタブ 位置データとに基づいて、消去操作によって選択されたタブのタブ番号を検出する。 次に、 ステップ S 263で、 CPUコア 42は、 選択されたタブのタブ番号が上画 面ウインドウタブ番号記憶領域 82の値と同じであるか否かを判断する。
ステップ S 263で " YE S" であれば、 つまり、 上画面でアクティブであるゥ インドウに対応するタブが消去操作によって指示された場合には、 CPUコア 42 は、 ステップ S 265で、 タブ番号データ領域に設定されていない最大のタブ番号 を検出する。 つまり、 上画面ウィンドウタブ番号記憶領域 82および下画面ウィン ドウタブ番号記憶領域 84に記憶されているタブ番号を除いて、 タブデータ記憶領 域 80に記憶されているタブ番号のうち最大のタブ番号を検出する。 そして、 ステ ップ S 267で、 CPUコア 42は、 最大タブ番号の検出なしであるか否かを判断 する。 ステップ S 267で " N〇" であれば、 つまり.、 非アクティブウィンドウが 存在する場合には、 CPUコア 42は、 ステップ S 269で検出された最大タブ番 号上画面ウィンドウタブ番号データ記憶領域 82に記憶する。 そして、 ステップ S 27 1で、 CPUコア 42は上画面ウィンドウタブ番号に対応するウィンドウを上 画面に表示する。 このようにして、 上画面のアクティブウィンドウに対応するタブ が消去操作によって選択された場合において、 非アクティブウィンドウが存在する ときには、最大タブ番号に対応するウインドウが上画面にァクティブで表示される。 一方、 ステップ S 267で " YE S" であれば、 つまり、 非アクティブウィンド ゥが存在しない場合には、 CPUコア 42は、 ステップ S 27 3で上画面ウィンド ゥタブ番号データ記憶領域 82をクリアし、 ステップ S 27 5で上画面に背景画像 を表示する。
また、 ステップ S 263で " NO" であれば、 つまり、 非アクティブウィンドウ または下画面の移動ウインドウに対応する夕ブが消去操作によつて選択された場合 には、 CPUコア 42はステップ S 27 7で、 選択されたタブのタブ番号が下画面 ウィンドウ夕ブ番号記憶領域 84の値と同じであるか否かを判断する。 ステップ S 277で " YES" であれば、 つまり、 下画面の移動ウィンドウに対応するタブが 消去操作によって指示された場合には、 CPUコア 42は、 ステップ S 279で下 画面ウインドウタブ番号デ一夕記憶領域 84をクリアし、 ステップ S 28 1で入力 ウインドウを下画面に表示する。
また、 ステップ S 277で " NO" であれば、 つまり、 非アクティブウィンドウ に対応するタブが消去操作によって選択された場合には、 この実施例では非ァクテ ィブウインドウは画面上に表示されていないので、 ウィンドウの表示はそのままに して処理はステップ S 283へ進む。 また、 ステップ S 27 1、 ステップ S 27 5 またはステップ S 28 1を終了すると、 処理はステップ S 283に進む。
ステップ S 283では、 C PUコア 42は; 選択されたタブのタブ番号に対応す るタブデータおよびウィンドウ画像データを、 タブデータ記憶領域 80およびウイ ンドウ画像記憶領域 78からそれぞれ消去する。 ステップ S 283を終了すると、 処理は次の図 32のステップ S 285へ進む。
図 32のステップ S 285では、 CPUコア 42は、 消去操作によって選択され たタブのタブ番号よりも大きいタブ番号がタブデータ記憶領域 80に存在するか否 かを判断する。 ステップ S 285で " YE S" であれば、 CPUコア 42は、 ステ ップ S 287で、 該当するタブ番号を 1減算してタブ番号を再設定する。 そして、 ステップ S 289で、 CPUコア 42は、 選択されたタブのタブ番号よりも大きい 夕ブ番号であつたタブデ一夕について、 再設定された夕ブ番号を夕ブデ一夕記憶領 域 80に上書きして、 タブデータを更新する。 また、 ステップ S 291で、 CPU コア 42は、 選択されたタブのタブ番号よりも大きいタブ番号が記憶されていた場 合には、 上画面ウィンドウタブ番号デ一タ記憶領域 82を再設定されたタブ番号に 更新する。 また、 ステップ S 293では、 CPUコア 42は、 選択されたタブの夕 ブ番号よりも大きい夕ブ番号が記憶されていた場合には、 下画面ウインドウ夕ブ番 号データ記憶領域 84を再設定されたタブ番号に更新する。
なお、 ステップ S 285で "NO" であれば、 タブ番号を再設定する必要がない ので処理はそのままステップ S 295へ進む。
ステップ S 295では、 CPUコア 42は、 タブ位置データ記憶領域 86を更新 する。 具体的には、 消去操作に'よって選択されたタブのタブ番号に対応する表示位 置データを消去する。 また、 選択されたタブのタブ番号よりも大きいタブ番号が存 在する場合には、 該当するタブ番号を 1減算して、 タブ番号を更新する。 また、 消 去されずに残ったタブで必要に応じて表示位置の再設定を行う。
そして、 ステップ S 297で、 CPUコア 42は、 タブ位置データに基づいて夕 ブの表示を更新する。 つまり、 CPUコア 42は、 タブ位置データにタブに関する データが存在する場合、 タイトル画像データ等に基づいて、 GPU52 (または G PU50) および LCDコントローラ 60を用いて、 タブ位置データの各表示位置 に各タブの画像を表示する。 なお、 タブ位置デ一タ記憶領域 86にタブの表示位置 データが存在しない場合には、 下画面のタブを表示するエリアには背景画像が表示 される。 ステップ S 297を終了するとこの消去処理を終了する。
この実施例によれば、 複数のウィンドウに対応付けられた複数のタブが LCD 1 4に表示されるので、 ユーザは、 夕ツチパネル 22を用いて L CD 14のタブの表 示位置ないし範囲で所定の操作入力を行うことによって、 当該タブに対応するウイ ンドウを制御することができる。 具体的には、 L CD 14のタブ上で所定の入力を することによって、 LCD 12の最前に表示されているウィンドウ (アクティブゥ インドウ) を LCD 14に表示することができる。 これによつて、 当該ウィンドウ に対して夕ツチパネル 22を用いて操作し入力することが可能になる。このように、 LCD 12に表示されていたウィンドウであっても、 LCD 14に表示して入力可 能な状態にすることができるので、 操作性を向上することができる。
また、 ユーザは、 たとえば目的に応じて入力操作を使い分けることによって、 L CD 12に表示されていない非ァクティプなウィンドウの表示制御を異ならせるこ とができる。 たとえば 1クリック操作で第 1の所定入力をすることによって非ァク ティブなウインドウを一旦 L CD 12で最前に表示することができるので、 たとえ ば当該ウィンドウの内容を予め確認して、 その確認後、 必要に応じて 1クリック操 作等を行うことによって当該ウィンドウを LCD 14に表示することができる。 一 方、 たとえば当該ウィンドウの内容を確認する必要が無い場合には、 2クリック操 作または下方向スライド操作で第 2の所定入力をすることによって非アクティブな ウィンドウを直接 LCD 14に表示することができるので、 当該ウィンドウを操作 入力可能な状態に一気に持っていくことができ、 素早い入力が可能になる。 したが つて、 操作性を向上することができる。
さらに、 LCD 14に表示されているウィンドウに対応付けられたタブ上で所定 'の入力を行うことによって、 当該ウィンドウを LCD 12で最前に表示することが できる。 この場合には、 たとえば LCD 14に表示されていたウィンドウに対して 入力操作の必要がなくなった場合、 当該ウィンドウを LCD 14から LCD 12へ 移動させることができるので、 操作性を向上することができる。
また、 LCD 14にウィンドウを表示しょうとする際に、 LCD 14に既に他の ウィンドウ (移動ウィンドウ) が表示されている場合には、 当該他のウィンドウを L CD 12に表示するようにした。 この場合には、 これから入力操作を行おうとす るウィンドウと、 それまで入力操作対象であったウィンドウとを、 所定の入力だけ で表示領域を入れ替えて表示することができるので、 操作性を向上することができ る。
また、 この実施例のように、 入力手段として L CD 14上に装着されたタツチパ ネル 22を適用する場合には、 LCD 14のタブに直接触れているかのようにして 操作することができる。 さらに LCD 14に表示されたウィンドウに対しても同様 に直接触れるかのようにして操作することが可能になる。 したがって、 夕ツチパネ ル 22を用いた直感的な操作によってウィンドウを制御することができる。 また、 夕ツチパネル 22が入力手段であ'るので、 ユーザが触れることの可能な、 つまり、 ユーザの手の届くような範囲にある L CD 14に、 操作対象のウィンドウを表示す ることができる。 したがって、 操作性をより向上することができる。
なお、 この実施例では、 上画面には複数のウィンドウのうち 1つのウィンドウの みを表示するようにしていた。 しかし、 図 33に示すように、 上画面には非ァクテ ィプのウインドウを含めて複数のウインドウを重畳して同時に表示するようにして もよい。 この場合には、 上画面ウィンドウタブ番号記憶領域 82に記憶されたタブ 番号に対応するウィンドウがアクティブ状態にされ、 つまり、 最前面に位置するよ うにして表示される。 また、 上画面ウィンドウタブ番号記憶領域 82に記憶されて いないタブ番号に対応するウィンドウは、 非アクティブ状態にされ、 上画面の最前 に表示されているウィンドウに重畳して一部が隠れた状態で表示される。 なお、 こ のように重畳して同時に表示する場合、 複数のウインドウは画面への表示順序を示 す深度に関する情報を有することとなり、 たとえばタブ番号がこの表示順序情報と して利用されてもよい。 つまり、 非アクティブウィンドウの L CD 12における表 示順序は、 たとえばタブ番号の大きい順に前面になるように設定されてよい。 ある いは、 最前面に表示されたのがより過去であったウィンドウほど背面側に表示され るように設定されてもよい。
また、上述の各実施例では、上画面にだけ、複数のウインドウを重畳して表示し、 または複数のウインドウのうち最前のウィンドウのみを表示するようにしており、 下画面には 1つのウィンドウ (移動ウィンドウ) のみを表示するよう.にしていた。 なお、 入力ウィンドウは下画面の初期状態で表示されるものであって上画面に移動 されないので、 本発明の対象とする複数の表示領域間で制御されるウィンドウには 含まれない。 しかし、 他の実施例では、 上画面と同様にして、 下画面にも複数のゥ インドウを重畳して表示しまたは複数のウィンドウのうち最前のウィンドウのみを 表示するようにしてもよい。
また、 上述の各実施例では、 たとえば LCD 12に最前に表示されていたウィン ドウを LCD 14に表示する際には、 LCD 12には、 別のウィンドウ (たとえば 最大タブ番号に対応するウィンドウ) を最前に表示し、 または背景画像を表示する ようにしていた。 つまり、 当該ウィンドウが LCD 12から LCD 14に移動され たように表現されていた。 しかしながら、 他の実施例では、 当該ウィンドウを LC D 12に表示したままで、 LCD 14に表示するようにしてよい。 つまり、 当該ゥ インドウが LCD 12から LCD 14に複写されたように表現されてもよい。 また、 上述の各実施例では、 第 1の LCD 12と第 2の LCD 14とを縦方向に 並べて配置するようにしていたが、 2つの L CDの配置は適宜に変更され得る。 た とえば他の実施例の情報処理装置 10では、 第 1の LCD 12と第 2の LCD 14 とを横方向に並べて配置するよう'にしてもよい。
また、 上述の各実施例では、 2画面をそれぞれ表示する 2つの LCDを設けるよ うにしていたが、 表示部としての L CDの数は適宜変更され得る。 たとえば他の実 施例の情報処理装置 10では、 縦長形状の 1つの LCDを設けて、 その上下に分け た表示領域の少なくともいずれか一方側に夕ツチパネル 22を設け、 2つの画像な いし画面をそれぞれの表示領域に表示するようにしてもよいし、 あるいは、 横長形 状の 1つの L C Dを設けて、 その左右に分けた表示領域の少なくともいずれか一方 側に夕ツチパネル 2 2を設け、 2つの画像ないし画面をそれぞれの表示領域に表示 するようにしてもよい。
さらにまた、 第 1表示領域を複数の領域に分割して、 同時に複数のウィンドウを 表示するようにしても良い。 たとえば、 第 1表示領域 1 2を左半分の領域と右半分 の領域に分割し、 左半分の領域にはあるウィンドウを表示し、 右半分の領域には別 のウィンドウを表示する。 このとき、 上画面ウィンドウタブ番号記憶領域 8 2が、 左領域ウインドウタブ番号記憶領域 8 2 aと右領域ウインドウタブ番号記憶領域 8 2 bを含むようにすればよい。 例えば、 深度が一番高いウィンドウを左半分の領域 に表示し、 2番目に高いウィンドウを右半分の領域に表示しても良いし、 任意の 2 つのウィンドウをそれぞれの領域にユーザが選択して表示できるようにしても良い。 この場合、 左領域か右領域かにかかわらず、 第 1表示領域に表示されたウィンドウ に対応するタブを夕ツチすると、 対応するウインドウが第 2表示領域に表示される ようにしてもよい。 また、 表示されていないウィンドウに対応する夕プをタツチす ると、 対応するウィンドウが左領域かお領域のいずれかの領域に表示されるように してもよい。 また、 第 2表示領域を複数の領域に分割して、 同時に複数のウィンド ゥを表示するようにしてもよい。 もちろん、 第 1表示領域や第 2表示領域を 3っ以 上の領域に分割して、 同時に 3つ以上のウィンドウを表示するようにしても良い。 また、 上述の各実施例では、 表示領域 1 2または 1 4の一部にウィンドウを表示 するようにしているが、 表示領域 1 2や 1 4の全体 (全画面) にウインドウを表示 するようにしてもよい。
また、 上述の各実施例では、 第 2表示領域の任意の位置を指示する入力手段は夕 ツチパネル 2 2であったが、 たとえばコンピュータマウス、 タツチパッド、 タブレ ッ卜のような他のボインティングデバイスを用いるようにしてもよい。 この場合に は、 第 2表示領域にユーザの指示位置を示すマウスポインタやカーソルのような画 像を表示する。
この発明が詳細に説明され図示されたが、 それは単なる図解および一例として用 いたものであり、 限定であると解されるべきではないことは明らかであり、 この発 明の精神および範囲は添付されたクレームの文言によつてのみ限定される。

Claims

請求の範囲
1 . 複数のウィンドウを表示するためのデータと前記複数のウインドウのそれぞ れに対応付けられた複数の選択領域を表示するためのデータを記憶する記憶手段、 複数のウインドウのうち所定のウインドウのみが表示されまたは複数のウインド ゥが重畳して表示される第 1表示領域と前記複数の選択領域が表示される第 2表示 領域とを含む表示手段、
前記複数の選択領域の表示位置に対する入力を検出する検出手段、 および 前記検出手段によって、 前記第 1表示領域に表示されているウィンドウまたは最 前に表示されているウィンドウに対応付けられた選択領域で第 1の所定入力があつ たと判定されるとき、 当該選択領域に対応するウインドウを前記第 2表示領域に表 示する第 1表示制御手段を備える、 情報処理装置。
2 . 前記検出手段によって、 前記第 1表示領域と前記第 2表示領域のいずれにも 表示されていないウインドウまたは前記第 1表示領域の最前に表示されているウイ ンドウに重畳して一部が隠れているウィンドウに対応付けられた選択領域で第 1の 所定入力があつたと判定されるとき、 当該選択領域に対応するウィンドウを前記第 1表示領域に表示しまたは前記第 1表示領域で最前に表示する第 2表示制御手段を さらに備える、 請求項 1記載の情報処理装置。
3 . 前記検出手段によって、 前記第 1表示領域と前記第 2表示領域のいずれにも 表示されていないウインドウまたは前記第 1表示領域の最前に表示されているウイ ンドウに重畳して一部が隠れているウィンドウに対応付けられた選択領域で第 2の 所定入力があつたと判定されるとき、 当該選択領域に対応するウィンドウを前記第 2表示領域に表示する第 3表示制御手段をさらに備える、 請求項 1または 2に記載 の情報処理装置。
4 . 複数のウインドウを表示するためのデータと前記複数のウインドウのそれぞ れに対応付けられた複数の選択領域を表示するためのデータを記憶する記憶手段、 複数のウインドウのうち所定のウインドウのみが表示されまたは複数のウインド ゥが重畳して表示される第 1表示領域と前記複数の選択領域が表示される第 2表示 領域とを含む表示手段、
前記複数の選択領域の表示位置に対する入力を検出する検出手段、 および 前記検出手段によって、 前記第' 1表示領域と前記第 2表示領域のいずれにも表示 されていないウィンドウまたは前記第 1表示領域の最前に表示されているウインド ゥに重畳して一部が隠れているウィンドウに対応付けられた選択領域の表示位置に 対する第 2の所定入力があつたと判定されると'き、 当該選択領域に対応するウィン ドウを前記第 2表示領域に表示する第 3表示制御手段を備える、 情報処理装置。
5 . 前記検出手段によって、 前記第 1表示領域に表示されているウィンドウまた は最前に表示されているウインドウに対応付けられた選択領域で第 1の所定入力が あつたと判定されるとき、 当該選択領域に対応するウィンドウを前記第 2表示領域 に表示する第 1表示制御手段をさらに備える、 請求項 4に記載の情報処理装置。
6 . 前記検出手段は、 前記第 2表示領域の任意の位置に対する入力を検出し、 前記第 1表示制御手段または前記第 3表示制御手段によって、 ウィンドウが前記 第 2表示領域に表示されたときに、 当該ウィンドウに対して前記検出手段からの入 力を入力可能な状態に設定する設定手段をさらに備える、 請求項 1ないし 5のいず れかに記載の情報処理装置。
7 . 前記検出手段によって、 前記第 2表示領域に表示されているウィンドウに対 応付けられた選択領域で所定入力があつたと判定されるとき、 当該選択領域に対応 するウインドウを前記第 1表示領域で最前に表示する第 4表示制御手段をさらに備 える、 請求項 1ないし 6のいずれかに記載の情報処理装置。
8 . 前記ウィンドウを前記第 2表示領域に表示する場合において、 前記第 2表示 領域に他のウインドウが表示されていると判定されるとき、 当該他のウインドウを 前記第 1表示領域で最前に表示する第 5表示制御手段をさらに備える、 請求項 1な いし 7のいずれかに記載の情報処理装置。
9 . 前記検出手段は、 前記第 1表示領域には設けられず前記第 2表示領域上に装 着された夕ツチパネルからの入力デ一夕に基づいて前記所定入力を検出する、 請求 項 1ないし 8のいずれかに記載の情報処理装置。
1 0 . 前記記憶手段は、 前記第 2表示領域に表示される基本入力ウィンドウを表 示するためのデ一夕をさらに記憶し、
前記第 2表示領域に表示すべき前記ウィンドウがない場合に前記基本入力ウィン ドウを前記第 2表示領域に表示する基本表示制御手段をさらに備える、 請求項 1な いし 9のいずれかに記載の情報処理装置。
1 1 . 前記第 2表示領域に表示された前記ウィンドウに対して所定の座標入力が あつたときに、 新規なウィンドウを表示するためのデータと新規な選択領域を表示 するためのデータとを生成して、 当該生成されたデータどうしを対応付けて前記記 憶手段に記憶する生成手段、 および
前記生成手段によって生成された前記選択領域を前記第 2表示領域に表示する選 択領域表示制御手段をさらに備える、 請求項 1ないし 1 0のいずれかに記載の情報 処理装置。
1 2 . 複数のウィンドウを表示するためのデ一夕と前記複数のウィンドウのそれ ぞれに対応付けられた複数の選択領域を表示するためのデータを記憶する記憶手段、 および複数のウィンドウのうち所定のウィンドウのみが表示されまたは複数のウイ ンドウが重畳して表示される第 1表示領域と前記複数の選択領域が表示される第 2 表示領域とを含む表示手段を備える情報処理装置の情報処理プログラムであって、 前記情報処理装置のプロセサに、
前記複数の選択領域の表示位置に対する入力を検出する検出ステップ、 および 前記検出ステップによって、 前記第 1表示領域に表示されているウィンドウま たは最前に表示されているウィンドウに対応付けられた選択領域で第 1の所定入力 があったと判定されるとき、 当該選択領域に対応するウィンドウを前記第 2表示領 域に表示する第 1表示制御ステップを実行させる、 情報処理プログラム。
1 3 . 複数のウィンドウを表示するためのデータと前記複数のウィンドウのそれ ぞれに対応付けられた複数の選択領域を表示するためのデータを記憶する記憶手段、 および複数のウィンドウのうち所定ウィンドウのみが表示されまたは複数のウィン ドウが重畳して表示される第 1表示領域と前記複数の選択領域が表示される第 2表 示領域とを含む表示手段を備える情報処理装置の情報処理プログラムを記憶した記 憶媒体であって、
前記情報処理プログラムは前記情報処理装置のプロセサに、
前記複数の選択領域の表示位置に対する入力を検出する検出ステップ、 および 前記検出ステップによって、 前記第 1表示領域に表示されているウィンドウま たは最前に表示されているウィンドウに対応付けられた選択領域で第 1の所定入力 があったと判定されるとき、 当該選択領域に対応するウィンドウを前記第 2表示領 域に表示する第 1表示制御ステップを実行させる、 情報処理プログラムを記憶した 記憶媒体。 .
1 4 . 複数のウィンドウを表示するためのデータと前記複数のウィンドウのそれ ぞれに対応付けられた複数の選択領域を表示するためのデータを記憶する記憶手段、 および複数のウィンドウのうち所定のウィンドウのみが表示されまたは複数のウイ ンドウが重畳して表示される第 1表示領域と前記複数の選択領域が表示される第 2 表示領域とを含む表示手段を備える情報処理装置におけるウィンドウ制御方法であ つて、
前記複数の選択領域の表示位置に対する入力を検出する検出ステップ、 および 前記検出ステップによって、 前記第 1表示領域に表示されているウィンドウまた は最前に表示されているウィンドウに対応付けられた選択領域で第 1の所定入力が あつたと判定されるとき、 当該選 ¾ 領域に対応するウィンドウを前記第 2表示領域 に表示する第 1表示制御ステツプを含む、 ウィンドゥ制御方法。
1 5 . 複数のウィンドウを表示するためのデータと前記複数のウィンドウのそれ ぞれに対応付けられた複数の選択領域を表示するためのデータを記憶する記憶手段、 および複数のウインドウのうち所定のウィンドウのみが表示されまたは複数のウイ ンドウが重畳して表示される第 1表示領域と前記複数の選択領域が表示される第 2 表示領域とを含む表示手段を備える情報処理装置の情報処理プログラムであって、 前記情報処理装置のプロセサに、
前記複数の選択領域の表示位置に対する入力を検出する検出ステップ、 および 前記検出ステップによって、 前記第 1表示領域と前記第 2表示領域のいずれに も表示されていないウインドウまたは前記第 1表示領域の最前に表示されているゥ インドウに重畳して一部が隠れているウィンドウに対応付けられた選択領域の表示 位置に対する第 2の所定入力があつたと判定されるとき、 当該選択領域に対応する ウィンドウを前記第 2表示領域に表示する第 3表示制御ステップを実行させる、 情 報処理プログラム。
1 6 . 複数のウィンドウを表示するためのデ一夕と前記複数のウィンドウのそれ ぞれに対応付けられた複数の選択領域を表示するためのデータを記憶する記憶手段、 および複数のウィンドウのうち所定のウィンドウのみが表示されまたは複数のウイ ンドウが重畳して表示される第 1表示領域と前記複数の選択領域が表示される第 2 表示領域とを含む表示手段を備える情報処理装置の情報処理プログラムを記憶した 記憶媒体であって、
前記情報処理プログラムは前記情報処理装置のプロセサに、
前記複数の選択領域の表示位置に対する入力を検出する検出ステップ、 および 前記検出ステップによって、 前記第 1表示領域と前記第 2表示領域のいずれに も表示されていないウィンドウまたは前記第 1表示領域の最前に表示されているゥ インドウに重畳して一部が隠れているウインドウに対応付けられた選択領域の表示 位置に対する第 2の所定入力があつたと判定されるとき、 当該選択領域に対応する ウィンドウを前記第 2表示領域に表示する第 3表示制御ステツプを実行させる、 情 報処理プログラムを記憶した記憶媒体。
1 7 . 複数のウィンドウを表示するためのデータと前記複数のウィンドウのそれ ぞれに対応付けられた複数の選択領域を表示するためのデータを記憶する記憶手段、 および複数のウィンドウのうち所定のウィンドウのみが表示されまたは複数のウイ ンドウが重畳して表示される第 1表示領域と前記複数の選択領域が表示される第 2 表示領域とを含む表示手段を備える情報処理装置におけるウィンドウ制御方法であ つて、
前記複数の選択領域の表示位置に対する入力を検出する検出ステップ、 および 前記検出ステップによって、 前記第 1表示領域と前記第 2表示領域のいずれにも 表示されていないウィンドウまたは前記第 1表示領域の最前に表示されているウイ ンドウに重畳して一部が隠れているウィンドウに対応付けられた選択領域の表示位 置に対する第 2の所定入力があつたと判定されるとき、 当該選択領域に対応するゥ インドウを前記第 2表示領域に表示する第 3表示制御ステップを含む、 ウィンドウ 制御方法。
1 8 . 複数のウィンドウを表示するためのデータと前記複数のウィンドウのそれぞ れに対応付けられた複数の選択領域を表示するためのデータを記憶する記憶手段、 複数のウインドウのうち所定のウインドウのみが表示されまたは複数のウィンド ゥが重畳して表示される第 1表示領域と前記複数の選択領域が表示される第 2表示 領域とを含む表示手段、
前記複数の選択領域の表示位置に対する入力を検出する検出手段、 および 前記検出手段によって、 前記選択領域で所定入力があつたと判定されるとき、 当 該選択領域に対応するウインドウを前記第 2表示領域に表示する第 1表示制御手段 を備える、 情報処理装置。
PCT/JP2005/003560 2004-03-22 2005-02-24 情報処理装置、情報処理プログラム、情報処理プログラムを記憶した記憶媒体およびウインドウ制御方法 WO2005091117A1 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2006511145A JP4719672B2 (ja) 2004-03-22 2005-02-24 情報処理装置、情報処理プログラム、情報処理プログラムを記憶した記憶媒体およびウインドウ制御方法
EP05710783A EP1729204A4 (en) 2004-03-22 2005-02-24 INFORMATION PROCESSOR, INFORMATION PROCESSING PROGRAM, RECORDING MEDIUM WITH INFORMATION PROCESSING PROGRAM STORED THEREIN AND METHOD OF CONTROLLING WINDOWS
US10/593,828 US20070198948A1 (en) 2004-03-22 2005-02-24 Information processing apparatus, information processing program, storage medium storing an information processing program and window controlling method
US13/164,041 US9454302B2 (en) 2004-03-22 2011-06-20 Information processing apparatus, system and method for controlling display of windows

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2004083248 2004-03-22
JP2004-083248 2004-03-22

Related Child Applications (2)

Application Number Title Priority Date Filing Date
US10/593,828 A-371-Of-International US20070198948A1 (en) 2004-03-22 2005-02-24 Information processing apparatus, information processing program, storage medium storing an information processing program and window controlling method
US13/164,041 Continuation US9454302B2 (en) 2004-03-22 2011-06-20 Information processing apparatus, system and method for controlling display of windows

Publications (1)

Publication Number Publication Date
WO2005091117A1 true WO2005091117A1 (ja) 2005-09-29

Family

ID=34993478

Family Applications (2)

Application Number Title Priority Date Filing Date
PCT/JP2005/003561 WO2005089895A1 (ja) 2004-03-22 2005-02-24 ゲーム装置、ゲームプログラム、ゲームプログラムを記憶した記憶媒体およびゲーム制御方法
PCT/JP2005/003560 WO2005091117A1 (ja) 2004-03-22 2005-02-24 情報処理装置、情報処理プログラム、情報処理プログラムを記憶した記憶媒体およびウインドウ制御方法

Family Applications Before (1)

Application Number Title Priority Date Filing Date
PCT/JP2005/003561 WO2005089895A1 (ja) 2004-03-22 2005-02-24 ゲーム装置、ゲームプログラム、ゲームプログラムを記憶した記憶媒体およびゲーム制御方法

Country Status (7)

Country Link
US (3) US20070198948A1 (ja)
EP (2) EP1747806B1 (ja)
JP (2) JP4719672B2 (ja)
CN (1) CN1933883B (ja)
AT (1) ATE502685T1 (ja)
DE (1) DE602005027066D1 (ja)
WO (2) WO2005089895A1 (ja)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010123082A (ja) * 2008-11-21 2010-06-03 Sharp Corp 表示装置、表示装置の制御方法、表示装置制御プログラムおよび該プログラムを記録したコンピュータ読み取り可能な記録媒体
JP2010152696A (ja) * 2008-12-25 2010-07-08 Sharp Corp 電子機器、画面切替方法および画面切替プログラム
JP2010250510A (ja) * 2009-04-14 2010-11-04 Sony Corp 表示制御装置、表示制御方法およびコンピュータプログラム
JP2011003012A (ja) * 2009-06-18 2011-01-06 Toppan Printing Co Ltd 携帯端末装置、携帯端末表示方法、携帯端末表示システムおよびプログラム
CN102099777A (zh) * 2008-07-25 2011-06-15 日本电气株式会社 信息处理装置、信息处理程序和显示控制方法
US8491383B2 (en) 2011-03-03 2013-07-23 Nintendo Co., Ltd. Storage medium, game apparatus, game system and game controlling method
JP2014232546A (ja) * 2014-08-01 2014-12-11 京セラ株式会社 携帯端末
JP2022009606A (ja) * 2018-11-30 2022-01-14 キヤノン株式会社 情報処理装置、情報処理方法およびプログラム

Families Citing this family (72)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8698751B2 (en) * 2010-10-01 2014-04-15 Z124 Gravity drop rules and keyboard display on a multiple screen device
US9182937B2 (en) 2010-10-01 2015-11-10 Z124 Desktop reveal by moving a logical display stack with gestures
JP4628178B2 (ja) * 2005-05-16 2011-02-09 任天堂株式会社 情報処理装置および項目選択処理プログラム
JP5084125B2 (ja) * 2005-10-04 2012-11-28 任天堂株式会社 ゲームプログラム、ゲーム装置、ゲームシステムおよびゲーム処理方法
TWI369130B (en) * 2006-07-07 2012-07-21 Au Optronics Corp Method of image display and display thereof
DE102007002933B4 (de) * 2007-01-19 2020-03-12 Novomatic Ag Elektronischer Spiel- und/oder Wettautomat
TW200907882A (en) * 2007-08-08 2009-02-16 Hi Touch Imaging Tech Co Ltd Display apparatus for displaying digital images
US9613487B2 (en) 2007-11-02 2017-04-04 Bally Gaming, Inc. Game related systems, methods, and articles that combine virtual and physical elements
US8327071B1 (en) * 2007-11-13 2012-12-04 Nvidia Corporation Interprocessor direct cache writes
JP5411425B2 (ja) * 2007-12-25 2014-02-12 任天堂株式会社 ゲームプログラム、ゲーム装置、ゲームシステム、およびゲーム処理方法
US8996376B2 (en) 2008-04-05 2015-03-31 Apple Inc. Intelligent text-to-speech conversion
US8721431B2 (en) 2008-04-30 2014-05-13 Bally Gaming, Inc. Systems, methods, and devices for providing instances of a secondary game
JP5185745B2 (ja) * 2008-09-08 2013-04-17 株式会社エヌ・ティ・ティ・ドコモ 情報処理装置及びプログラム
KR101548958B1 (ko) * 2008-09-18 2015-09-01 삼성전자주식회사 휴대단말기의 터치스크린 동작 제어 방법 및 장치
US8266213B2 (en) 2008-11-14 2012-09-11 Bally Gaming, Inc. Apparatus, method, and system to provide a multiple processor architecture for server-based gaming
US8869070B2 (en) * 2008-12-30 2014-10-21 T-Mobile Usa, Inc. Handwriting manipulation for conducting a search over multiple databases
US8799806B2 (en) * 2008-12-31 2014-08-05 Verizon Patent And Licensing Inc. Tabbed content view on a touch-screen device
JP5157971B2 (ja) * 2009-03-09 2013-03-06 ソニー株式会社 情報処理装置、情報処理方法およびプログラム
KR101721535B1 (ko) * 2009-12-01 2017-03-31 삼성전자주식회사 팝업 표시 방법 및 장치
KR20110092826A (ko) 2010-02-10 2011-08-18 삼성전자주식회사 복수의 터치스크린을 구비하는 휴대 단말기의 화면 제어 방법 및 장치
JP5557316B2 (ja) * 2010-05-07 2014-07-23 Necカシオモバイルコミュニケーションズ株式会社 情報処理装置、情報生成方法及びプログラム
US20110296333A1 (en) * 2010-05-25 2011-12-01 Bateman Steven S User interaction gestures with virtual keyboard
JP2012069065A (ja) * 2010-09-27 2012-04-05 Nintendo Co Ltd 情報処理プログラム、情報処理装置および方法
JP5677001B2 (ja) 2010-09-28 2015-02-25 任天堂株式会社 情報処理装置および情報処理システム
US9430122B2 (en) 2010-10-01 2016-08-30 Z124 Secondary single screen mode activation through off-screen gesture area activation
US9733665B2 (en) * 2010-10-01 2017-08-15 Z124 Windows position control for phone applications
US20120218202A1 (en) 2010-10-01 2012-08-30 Sanjiv Sirpal Windows position control for phone applications
US20120225694A1 (en) 2010-10-01 2012-09-06 Sanjiv Sirpal Windows position control for phone applications
US9588545B2 (en) 2010-10-01 2017-03-07 Z124 Windows position control for phone applications
US20120225693A1 (en) 2010-10-01 2012-09-06 Sanjiv Sirpal Windows position control for phone applications
US20120220340A1 (en) * 2010-10-01 2012-08-30 Sanjiv Sirpal Windows position control for phone applications
US9372618B2 (en) 2010-10-01 2016-06-21 Z124 Gesture based application management
US9436217B2 (en) 2010-10-01 2016-09-06 Z124 Windows position control for phone applications
US9189018B2 (en) 2010-10-01 2015-11-17 Z124 Windows position control for phone applications
KR102006740B1 (ko) 2010-10-20 2019-08-02 삼성전자 주식회사 휴대 단말기의 화면 표시 방법 및 장치
JP5652432B2 (ja) * 2011-06-29 2015-01-14 トヨタ自動車株式会社 車両用操作装置
EP2565751A1 (en) * 2011-08-31 2013-03-06 Z124 Multi-screen display control
JP5602115B2 (ja) * 2011-09-09 2014-10-08 株式会社ソニー・コンピュータエンタテインメント ゲーム装置、ゲーム制御方法、及びゲーム制御プログラム
US8804148B2 (en) * 2011-09-26 2014-08-12 Brother Kogyo Kabushiki Kaisha Image forming apparatus and non-transitory computer readable medium storing a program for controlling the same
US8878794B2 (en) 2011-09-27 2014-11-04 Z124 State of screen info: easel
US20130212517A1 (en) * 2012-02-13 2013-08-15 Lenovo (Beijing) Co., Ltd. Electronic Device and Display Processing Method
TW201334843A (zh) * 2012-02-20 2013-09-01 Fu Li Ye Internat Corp 具有觸控面板媒體的遊戲控制方法及該遊戲媒體
GB201215283D0 (en) * 2012-08-28 2012-10-10 Microsoft Corp Searching at a user device
JP6027373B2 (ja) * 2012-09-11 2016-11-16 任天堂株式会社 情報処理プログラム、表示制御装置、表示制御システム及び表示方法
US10019066B2 (en) 2012-09-28 2018-07-10 Tesla, Inc. Method of launching an application and selecting the application target window
US20140095023A1 (en) 2012-09-28 2014-04-03 Tesla Motors, Inc. Vehicle Air Suspension Control System
US9008961B2 (en) 2012-11-30 2015-04-14 Google Inc. Determining and displaying auto drive lanes in an autonomous vehicle
CN105103116B (zh) * 2013-03-05 2018-09-21 日本电气株式会社 移动终端设备、图像生成方法和存储程序的非暂时性计算机可读介质
JP5769765B2 (ja) * 2013-07-11 2015-08-26 株式会社スクウェア・エニックス タッチパネル式ディスプレイを持った携帯型ゲーム装置
JP2015053020A (ja) * 2013-09-09 2015-03-19 株式会社リコー 情報表示装置、情報表示方法およびプログラム
TWI540864B (zh) * 2014-03-20 2016-07-01 緯創資通股份有限公司 資訊傳輸方法與無線顯示系統
KR101632008B1 (ko) * 2014-04-30 2016-07-01 엘지전자 주식회사 이동단말기 및 그 제어방법
CN106716402B (zh) * 2014-05-12 2020-08-11 销售力网络公司 以实体为中心的知识发现
USD759051S1 (en) * 2014-06-09 2016-06-14 Pooch Technologies Limited Portion of a display screen with an icon
CN104182195A (zh) * 2014-08-25 2014-12-03 网易(杭州)网络有限公司 一种游戏对象的显示方法和设备
JP6488653B2 (ja) * 2014-11-07 2019-03-27 セイコーエプソン株式会社 表示装置、表示制御方法および表示システム
CN104601603B (zh) * 2015-02-26 2018-07-24 网易(杭州)网络有限公司 一种游戏资源处理方法和设备
TWI553508B (zh) * 2015-03-03 2016-10-11 緯創資通股份有限公司 物件感測裝置與方法
JP6204414B2 (ja) * 2015-06-23 2017-09-27 株式会社スクウェア・エニックス ゲーム装置及びプログラム
CN106250079B (zh) * 2016-07-28 2020-07-07 海信视像科技股份有限公司 图像显示方法及装置
CN107185244A (zh) * 2017-05-24 2017-09-22 上海悦游网络信息科技股份有限公司 一种控制游戏特定场景内宠物战斗系统
WO2018226888A1 (en) 2017-06-06 2018-12-13 Diffeo, Inc. Knowledge operating system
GB201709199D0 (en) * 2017-06-09 2017-07-26 Delamont Dean Lindsay IR mixed reality and augmented reality gaming system
US10599289B1 (en) 2017-11-13 2020-03-24 Snap Inc. Interface to display animated icon
CN108176047A (zh) * 2017-12-28 2018-06-19 努比亚技术有限公司 一种游戏控制方法、终端及计算机可读存储介质
JP6679659B2 (ja) * 2018-06-06 2020-04-15 株式会社スクウェア・エニックス プログラム、記録媒体及び制御方法
US11520469B2 (en) * 2019-05-01 2022-12-06 Google Llc Interface for multiple simultaneous interactive views
EP4287006A3 (en) 2019-05-01 2024-02-21 Google LLC Interface for multiple simultaneous interactive views
US11385785B2 (en) 2019-05-01 2022-07-12 Google Llc Interface for multiple simultaneous interactive views
US11127321B2 (en) * 2019-10-01 2021-09-21 Microsoft Technology Licensing, Llc User interface transitions and optimizations for foldable computing devices
CN112965642A (zh) * 2019-11-27 2021-06-15 中兴通讯股份有限公司 电子设备及其驱动方法、驱动模块、计算机可读存储介质
TWI832061B (zh) * 2021-06-08 2024-02-11 宏正自動科技股份有限公司 影像控制裝置及影像控制方法

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000137555A (ja) * 1998-11-02 2000-05-16 Sony Corp 情報処理装置及び方法並びに記録媒体
JP2002182893A (ja) * 2000-12-14 2002-06-28 Matsushita Electric Ind Co Ltd マルチディスプレイシステム
JP2003157066A (ja) * 2001-11-21 2003-05-30 Canon Inc 複数画面付装置及びその制御方法

Family Cites Families (29)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS58116377A (ja) * 1981-12-28 1983-07-11 任天堂株式会社 手持形ゲ−ム装置
JPH04369027A (ja) 1991-06-18 1992-12-21 Fujitsu Ltd 二画面付携帯型情報処理装置
JPH05204581A (ja) 1992-01-29 1993-08-13 Hitachi Ltd ウィンドウ表示方式
JPH06285259A (ja) * 1993-03-31 1994-10-11 Sega Enterp Ltd 液晶コントローラ
JPH0751467A (ja) 1993-08-13 1995-02-28 Ii C S:Kk ゲーム機用の携帯型操作装置
JPH0883160A (ja) 1994-09-14 1996-03-26 Toshiba Corp マルチウインドウ表示方式
EP0717344B1 (en) * 1994-12-13 2001-10-31 Microsoft Corporation Taskbar with start menu
US5712995A (en) * 1995-09-20 1998-01-27 Galileo Frames, Inc. Non-overlapping tiling apparatus and method for multiple window displays
US5892511A (en) * 1996-09-30 1999-04-06 Intel Corporation Method for assisting window selection in a graphical user interface
US5910802A (en) * 1997-06-11 1999-06-08 Microsoft Corporation Operating system for handheld computing device having taskbar auto hide
US6369803B2 (en) * 1998-06-12 2002-04-09 Nortel Networks Limited Active edge user interface
JP2000035847A (ja) * 1998-07-17 2000-02-02 Sharp Corp 多画面制御可能な情報処理装置
JP3469479B2 (ja) 1998-10-26 2003-11-25 パイオニア株式会社 映像表示機の操作装置
JP2001070647A (ja) 1999-09-08 2001-03-21 Samii Kk 遊技装置
JP2001321571A (ja) * 2000-02-04 2001-11-20 Sega Corp データの発行方法、情報表示システム及び課金方法
JP2002191861A (ja) * 2000-12-22 2002-07-10 Konami Computer Entertainment Osaka:Kk 育成ゲームプログラムを記録したコンピュータ読み取り可能な記録媒体、育成ゲーム制御装置および方法
CN2494008Y (zh) * 2001-04-20 2002-05-29 刘建国 折叠式双显示屏电子处理器
JP4889887B2 (ja) * 2001-08-06 2012-03-07 任天堂株式会社 通信麻雀ゲームシステム
JP2003208263A (ja) * 2002-01-12 2003-07-25 Sega Corp コントロール装置及びその取付け体を有する画像処理装置
US7010755B2 (en) * 2002-04-05 2006-03-07 Microsoft Corporation Virtual desktop manager
JP3910890B2 (ja) * 2002-08-21 2007-04-25 株式会社バンダイナムコゲームス ゲームシステム、プログラム及び情報記憶媒体
US7913183B2 (en) * 2002-10-08 2011-03-22 Microsoft Corporation System and method for managing software applications in a graphical user interface
US8276095B2 (en) * 2004-02-20 2012-09-25 Advanced Intellectual Property Group, Llc System for and method of generating and navigating within a workspace of a computer application
JP4627052B2 (ja) * 2006-07-06 2011-02-09 株式会社ソニー・コンピュータエンタテインメント 画像に連携した音声出力方法および装置
US8549415B2 (en) * 2007-05-04 2013-10-01 Apple Inc. Automatically adjusting media display in a personal display system
US8684805B2 (en) * 2007-08-03 2014-04-01 Konami Digital Entertainment Co., Ltd. Game apparatus, game control method and game control program
TW201233414A (en) * 2007-09-28 2012-08-16 Konami Digital Entertainment Game device, communication system and information recording medium
US8142283B2 (en) * 2008-08-20 2012-03-27 Cfph, Llc Game of chance processing apparatus
JP5437726B2 (ja) * 2009-07-29 2014-03-12 任天堂株式会社 情報処理プログラム、情報処理装置、情報処理システム、および座標算出方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000137555A (ja) * 1998-11-02 2000-05-16 Sony Corp 情報処理装置及び方法並びに記録媒体
JP2002182893A (ja) * 2000-12-14 2002-06-28 Matsushita Electric Ind Co Ltd マルチディスプレイシステム
JP2003157066A (ja) * 2001-11-21 2003-05-30 Canon Inc 複数画面付装置及びその制御方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
"UltraMon Features- Smart Taskbar.", 3 August 2002 (2002-08-03), XP003010394, Retrieved from the Internet <URL:http://web.archive.org/web/20020803185317/http://realtimesoft.com/ultramon/tour/smart_taskbar.asp> [retrieved on 20050704] *

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102099777A (zh) * 2008-07-25 2011-06-15 日本电气株式会社 信息处理装置、信息处理程序和显示控制方法
US8451243B2 (en) 2008-07-25 2013-05-28 Nec Corporation Information processing device, information processing program, and display control method
JP2010123082A (ja) * 2008-11-21 2010-06-03 Sharp Corp 表示装置、表示装置の制御方法、表示装置制御プログラムおよび該プログラムを記録したコンピュータ読み取り可能な記録媒体
JP2010152696A (ja) * 2008-12-25 2010-07-08 Sharp Corp 電子機器、画面切替方法および画面切替プログラム
JP2010250510A (ja) * 2009-04-14 2010-11-04 Sony Corp 表示制御装置、表示制御方法およびコンピュータプログラム
JP2011003012A (ja) * 2009-06-18 2011-01-06 Toppan Printing Co Ltd 携帯端末装置、携帯端末表示方法、携帯端末表示システムおよびプログラム
US8491383B2 (en) 2011-03-03 2013-07-23 Nintendo Co., Ltd. Storage medium, game apparatus, game system and game controlling method
JP2014232546A (ja) * 2014-08-01 2014-12-11 京セラ株式会社 携帯端末
JP2022009606A (ja) * 2018-11-30 2022-01-14 キヤノン株式会社 情報処理装置、情報処理方法およびプログラム
JP7279133B2 (ja) 2018-11-30 2023-05-22 キヤノン株式会社 情報処理装置、情報処理方法およびプログラム

Also Published As

Publication number Publication date
ATE502685T1 (de) 2011-04-15
JPWO2005089895A1 (ja) 2007-08-30
JP4012933B2 (ja) 2007-11-28
EP1747806B1 (en) 2011-03-23
JP4719672B2 (ja) 2011-07-06
WO2005089895A1 (ja) 2005-09-29
EP1747806A1 (en) 2007-01-31
CN1933883A (zh) 2007-03-21
US20110246933A1 (en) 2011-10-06
US20080113793A1 (en) 2008-05-15
EP1729204A4 (en) 2007-05-30
JPWO2005091117A1 (ja) 2008-02-07
EP1747806A4 (en) 2007-05-30
US7938721B2 (en) 2011-05-10
DE602005027066D1 (de) 2011-05-05
US9454302B2 (en) 2016-09-27
CN1933883B (zh) 2010-05-05
EP1729204A1 (en) 2006-12-06
US20070198948A1 (en) 2007-08-23

Similar Documents

Publication Publication Date Title
JP4719672B2 (ja) 情報処理装置、情報処理プログラム、情報処理プログラムを記憶した記憶媒体およびウインドウ制御方法
US11029775B2 (en) Pointer display device, pointer display detection method, pointer display detection program and information apparatus
US8577149B2 (en) Storage medium storing program and information processing apparatus
JP4134008B2 (ja) 画像処理装置および画像処理プログラム
JP3865141B2 (ja) 情報処理プログラム及び情報処理装置
CN109643210B (zh) 使用悬停的设备操纵
JP4602166B2 (ja) 手書き情報入力装置。
US20100017732A1 (en) Computer-readable storage medium having object display order changing program stored therein and apparatus
EP2357556A1 (en) Automatically displaying and hiding an on-screen keyboard
US20100041474A1 (en) Game apparatus and storage medium storing game program
US20090271723A1 (en) Object display order changing program and apparatus
US20110283212A1 (en) User Interface
JP2006146556A (ja) 画像表示処理プログラムおよび画像表示処理装置
TW201617845A (zh) 用於呼叫電子手寫或書寫界面之系統、方法和電腦可讀媒體
CN109375865A (zh) 跳转、复选标记和删除手势
US20060197751A1 (en) Display control apparatus and control method thereof
JP4922797B2 (ja) 情報処理装置およびそのプログラム
JP4731149B2 (ja) 情報処理装置および情報入力プログラム
JP2011036424A (ja) ゲーム装置、ゲーム制御プログラム、及びゲーム制御方法
JP4743602B2 (ja) 画像処理装置、画像処理プログラム、ゲーム装置およびゲームプログラム
JP2011242897A (ja) 情報処理装置及びプログラム
US20090253505A1 (en) Method for controlling selection of multiple objects displayed on a display device
JP2006351027A (ja) 情報処理プログラム及び情報処理装置
JP4971908B2 (ja) 情報処理プログラムおよび情報処理装置
EP2712433B1 (en) User interface for drawing with electronic devices

Legal Events

Date Code Title Description
AK Designated states

Kind code of ref document: A1

Designated state(s): AE AG AL AM AT AU AZ BA BB BG BR BW BY BZ CA CH CN CO CR CU CZ DE DK DM DZ EC EE EG ES FI GB GD GE GH GM HR HU ID IL IN IS JP KE KG KP KR KZ LC LK LR LS LT LU LV MA MD MG MK MN MW MX MZ NA NI NO NZ OM PG PH PL PT RO RU SC SD SE SG SK SL SM SY TJ TM TN TR TT TZ UA UG US UZ VC VN YU ZA ZM ZW

AL Designated countries for regional patents

Kind code of ref document: A1

Designated state(s): BW GH GM KE LS MW MZ NA SD SL SZ TZ UG ZM ZW AM AZ BY KG KZ MD RU TJ TM AT BE BG CH CY CZ DE DK EE ES FI FR GB GR HU IE IS IT LT LU MC NL PL PT RO SE SI SK TR BF BJ CF CG CI CM GA GN GQ GW ML MR NE SN TD TG

121 Ep: the epo has been informed by wipo that ep was designated in this application
WWE Wipo information: entry into national phase

Ref document number: 2006511145

Country of ref document: JP

WWE Wipo information: entry into national phase

Ref document number: 2005710783

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 10593828

Country of ref document: US

Ref document number: 2007198948

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: DE

WWW Wipo information: withdrawn in national office

Ref document number: DE

WWP Wipo information: published in national office

Ref document number: 2005710783

Country of ref document: EP

WWP Wipo information: published in national office

Ref document number: 10593828

Country of ref document: US