WO2010038296A1 - 情報処理装置、情報処理システム、ならびに起動用プログラムおよびそれを記憶した記憶媒体 - Google Patents

情報処理装置、情報処理システム、ならびに起動用プログラムおよびそれを記憶した記憶媒体 Download PDF

Info

Publication number
WO2010038296A1
WO2010038296A1 PCT/JP2008/067864 JP2008067864W WO2010038296A1 WO 2010038296 A1 WO2010038296 A1 WO 2010038296A1 JP 2008067864 W JP2008067864 W JP 2008067864W WO 2010038296 A1 WO2010038296 A1 WO 2010038296A1
Authority
WO
WIPO (PCT)
Prior art keywords
information processing
image
program
processing apparatus
imaging
Prior art date
Application number
PCT/JP2008/067864
Other languages
English (en)
French (fr)
Inventor
桑原 雅人
和則 輿石
唯 江原
亮 深澤
正弘 今泉
愛祐 松島
祐貴 小野沢
河野 裕之
祥宏 岩佐
川瀬 智広
祐亮 秋房
智久 斎藤
Original Assignee
任天堂株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 任天堂株式会社 filed Critical 任天堂株式会社
Priority to PCT/JP2008/067864 priority Critical patent/WO2010038296A1/ja
Priority to US12/531,586 priority patent/US8848100B2/en
Priority to JP2009508025A priority patent/JPWO2010038296A1/ja
Publication of WO2010038296A1 publication Critical patent/WO2010038296A1/ja
Priority to US13/954,509 priority patent/US20130314578A1/en
Priority to US13/954,491 priority patent/US20130314570A1/en
Priority to US14/466,614 priority patent/US9630099B2/en
Priority to US14/478,803 priority patent/US10525334B2/en
Priority to US14/478,779 priority patent/US10124247B2/en

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/213Input arrangements for video game devices characterised by their sensors, purposes or types comprising photodetecting means, e.g. cameras, photodiodes or infrared cells
    • A63F13/10
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/215Input arrangements for video game devices characterised by their sensors, purposes or types comprising means for detecting acoustic signals, e.g. using a microphone
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/45Controlling the progress of the video game
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1615Constructional details or arrangements for portable computers with several enclosures having relative motions, each enclosure supporting at least one I/O or computing function
    • G06F1/1616Constructional details or arrangements for portable computers with several enclosures having relative motions, each enclosure supporting at least one I/O or computing function with folding flat displays, e.g. laptop computers or notebooks having a clamshell configuration, with body parts pivoting to an open position around an axis parallel to the plane they define in closed position
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1637Details related to the display arrangement, including those related to the mounting of the display in the housing
    • G06F1/1643Details related to the display arrangement, including those related to the mounting of the display in the housing the display being associated to a digitizer, e.g. laptops that can be used as penpads
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1637Details related to the display arrangement, including those related to the mounting of the display in the housing
    • G06F1/1647Details related to the display arrangement, including those related to the mounting of the display in the housing including at least an additional display
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1656Details related to functional adaptations of the enclosure, e.g. to provide protection against EMI, shock, water, or to host detachable peripherals like a mouse or removable expansions units like PCMCIA cards, or to provide access to internal components for maintenance or to removable storage supports like CDs or DVDs, or to mechanically mount accessories
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1675Miscellaneous details related to the relative movement between the different enclosures or enclosure parts
    • G06F1/1677Miscellaneous details related to the relative movement between the different enclosures or enclosure parts for detecting open or closed state or particular intermediate positions assumed by movable parts of the enclosure, e.g. detection of display lid position with respect to main body in a laptop, detection of opening of the cover of battery compartment
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1684Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675
    • G06F1/1686Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675 the I/O peripheral being an integrated camera
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1684Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675
    • G06F1/169Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675 the I/O peripheral being an integrated pointing device, e.g. trackball in the palm rest area, mini-joystick integrated between keyboard keys, touch pads or touch stripes
    • G06F1/1692Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675 the I/O peripheral being an integrated pointing device, e.g. trackball in the palm rest area, mini-joystick integrated between keyboard keys, touch pads or touch stripes the I/O peripheral being a secondary touch screen used as control interface, e.g. virtual buttons or sliders
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0354Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
    • G06F3/03545Pens or stylus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/167Audio in a user interface, e.g. using voice commands for navigating, audio feedback
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04BTRANSMISSION
    • H04B5/00Near-field transmission systems, e.g. inductive or capacitive transmission systems
    • H04B5/70Near-field transmission systems, e.g. inductive or capacitive transmission systems specially adapted for specific purposes
    • H04B5/72Near-field transmission systems, e.g. inductive or capacitive transmission systems specially adapted for specific purposes for local intradevice communication
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/00962Input arrangements for operating instructions or parameters, e.g. updating internal software
    • H04N1/00965Input arrangements for operating instructions or parameters, e.g. updating internal software using a plug-in memory module, e.g. memory card, memory stick
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/21Intermediate information storage
    • H04N1/2104Intermediate information storage for one or a few pictures
    • H04N1/2112Intermediate information storage for one or a few pictures using still video cameras
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/21Intermediate information storage
    • H04N1/2104Intermediate information storage for one or a few pictures
    • H04N1/2112Intermediate information storage for one or a few pictures using still video cameras
    • H04N1/2129Recording in, or reproducing from, a specific memory area or areas, or recording or reproducing at a specific moment
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/21Intermediate information storage
    • H04N1/2104Intermediate information storage for one or a few pictures
    • H04N1/2158Intermediate information storage for one or a few pictures using a detachable storage unit
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/50Constructional details
    • H04N23/51Housings
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/62Control of parameters via user interfaces
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • H04N23/631Graphical user interfaces [GUI] specially adapted for controlling image capture or setting capture parameters
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/95Computational photography systems, e.g. light-field imaging systems
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/214Input arrangements for video game devices characterised by their sensors, purposes or types for locating contacts on a surface, e.g. floor mats or touch pads
    • A63F13/2145Input arrangements for video game devices characterised by their sensors, purposes or types for locating contacts on a surface, e.g. floor mats or touch pads the surface being also a display device, e.g. touch screens
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/25Output arrangements for video game devices
    • A63F13/26Output arrangements for video game devices having at least one additional display device, e.g. on the game controller or outside a game booth
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/90Constructional details or arrangements of video game devices not provided for in groups A63F13/20 or A63F13/25, e.g. housing, wiring, connections or cabinets
    • A63F13/95Storage media specially adapted for storing game information, e.g. video game cartridges
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/10Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals
    • A63F2300/1081Input via voice recognition
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/10Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals
    • A63F2300/1087Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals comprising photodetecting means, e.g. a camera
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/20Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterised by details of the game platform
    • A63F2300/204Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterised by details of the game platform the platform being a handheld device
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/30Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by output arrangements for receiving control signals generated by the game device
    • A63F2300/301Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by output arrangements for receiving control signals generated by the game device using an additional display connected to the game console, e.g. on the controller
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2200/00Indexing scheme relating to G06F1/04 - G06F1/32
    • G06F2200/16Indexing scheme relating to G06F1/16 - G06F1/18
    • G06F2200/163Indexing scheme relating to constructional details of the computer
    • G06F2200/1632Pen holder integrated in the computer
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04BTRANSMISSION
    • H04B5/00Near-field transmission systems, e.g. inductive or capacitive transmission systems
    • H04B5/20Near-field transmission systems, e.g. inductive or capacitive transmission systems characterised by the transmission technique; characterised by the transmission medium
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/00127Connection or combination of a still picture apparatus with another apparatus, e.g. for storage, processing or transmission of still picture signals or of information associated with a still picture
    • H04N1/00204Connection or combination of a still picture apparatus with another apparatus, e.g. for storage, processing or transmission of still picture signals or of information associated with a still picture with a digital computer or a digital computer system, e.g. an internet server
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N2101/00Still video cameras
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N2201/00Indexing scheme relating to scanning, transmission or reproduction of documents or the like, and to details thereof
    • H04N2201/0077Types of the still picture apparatus
    • H04N2201/0084Digital still camera
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N2201/00Indexing scheme relating to scanning, transmission or reproduction of documents or the like, and to details thereof
    • H04N2201/21Intermediate information storage
    • H04N2201/216Arrangements for recording on different types of storage medium, e.g. IC card or magnetic tape; Recording on a plurality of storage media
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N2201/00Indexing scheme relating to scanning, transmission or reproduction of documents or the like, and to details thereof
    • H04N2201/32Circuits or arrangements for control or supervision between transmitter and receiver or between image input and image output device, e.g. between a still-image camera and its memory or between a still-image camera and a printer device
    • H04N2201/3201Display, printing, storage or transmission of additional information, e.g. ID code, date and time or title
    • H04N2201/3261Display, printing, storage or transmission of additional information, e.g. ID code, date and time or title of multimedia information, e.g. a sound signal
    • H04N2201/3264Display, printing, storage or transmission of additional information, e.g. ID code, date and time or title of multimedia information, e.g. a sound signal of sound signals

Definitions

  • the present invention relates to an information processing apparatus, an information processing system, a startup program, and a storage medium storing the program. More specifically, the present invention relates to a configuration capable of providing a shooting function and / or a sound acquisition function.
  • Patent Document 1 discloses a mobile phone.
  • This cellular phone employs a folding configuration and has one display screen on each of the inner surfaces of the two housings.
  • one camera as an imaging unit is provided on each of the outer surface and the inner surface of the upper housing.
  • Patent Document 2 Japanese Patent Application Laid-Open No. 2004-274304
  • Patent Document 2 has a configuration in which a camera and a microphone are provided, and screens are provided on two surfaces of a housing (housing).
  • Patent Document 3 discloses an information processing apparatus in which two housings are connected so as to be foldable. Has been. This information processing apparatus has one (two in total) display screens on the inner side surface (the inner surface when folded) of each housing.
  • Patent Document 4 discloses an information device having a built-in camera.
  • This information device has a configuration in which a main unit and a display unit are rotatably connected by a hinge block.
  • a camera is disposed in the hinge block.
  • Patent Document 1 Japanese Patent Application Laid-Open No. 2006-311224 (Patent Document 1) and Japanese Patent Application Laid-Open No. 2004-274304 (Patent Document 2)
  • the camera as the imaging unit and the microphone as the voice input unit are respectively It was not placed at a position suitable for the shooting function and the sound acquisition function.
  • Patent Document 3 Japanese Patent Application Laid-Open No. 2007-195830
  • Patent Document 4 Japanese Patent Application Laid-Open No. 2001-142564
  • a first object of the present invention is to provide an information processing apparatus having a structure suitable for a photographing function and / or a sound acquisition function.
  • a second object of the present invention is to provide an information processing system capable of executing a program stored in a storage medium built in the main body and a storage medium attached from the outside in cooperation with each other. is there.
  • a third object of the present invention is to provide a startup program suitable for an information processing apparatus equipped with a photographing function and a storage medium storing the program.
  • the present invention employs the following configuration in order to solve the above problems.
  • reference numerals in parentheses, step numbers, supplementary explanations, and the like in this column indicate correspondence with embodiments described later in order to help understanding of the present invention, and limit the present invention in any way. It is not a thing.
  • an information processing apparatus (10) that can be opened and closed by a plurality of housings (11, 21) is provided.
  • the information processing apparatus (10) uses the imaging means (23) and the voice input means (21C, 42), the storage means (34), and the imaging means provided in the connecting portions of the plurality of housings to capture the imaging data.
  • Voice data acquisition means (31, SD171) to perform, and voice data storage control means (33, SD173) to store the voice data acquired by the voice data acquisition means in the storage means.
  • the imaging data includes still images and moving images.
  • mold in addition to the folding type
  • the information processing apparatus of the present application can be configured to change between a state in which a predetermined surface of at least one housing is hidden by the other housing and an exposed state by folding, sliding, and rotating.
  • the display portion when a display portion is provided on the predetermined surface, the display portion may be changed between a hidden state and an exposed state by folding, sliding, and rotating.
  • the imaging means (23) and the voice input means (21C, 42) are provided at the connecting portion of the plurality of housings (11, 21), so that the opening / closing angle between the housings is not affected. Substantially the same positional relationship can be maintained. Accordingly, the relative positional relationship between the imaging unit (23) and the voice input unit (21C, 42) with respect to the user is maintained substantially constant regardless of the usage form of the information processing apparatus. // Voice acquisition operation becomes possible.
  • the image pickup means (23) and the voice input means (21C, 42) are arranged at the connecting portion, the user can hold only one of the plurality of housings (11, 21) with one hand. It is also possible to perform a shooting operation and / or a voice acquisition operation by gripping with both, and hold both housings (11, 21) with both hands to perform a shooting operation and / or a voice acquisition operation more stably. It is also possible. Thereby, it can use in the form according to the condition which image
  • the information processing apparatus (10) further includes imaging data reproduction means (31, SA41) for reproducing imaging data stored in the storage means. Thereby, the imaging data obtained by imaging can be confirmed immediately.
  • imaging data reproduction means 31, SA41
  • the information processing apparatus (10) further includes imaging data editing means (31, SA58) for editing imaging data stored in the storage means.
  • imaging data editing means 31, SA58 for editing imaging data stored in the storage means.
  • the user can enjoy by performing desired editing operation with respect to the imaging data obtained by imaging.
  • the information processing apparatus (10) further includes audio data reproduction means (31, SD76 #) for reproducing audio data stored in the storage means. Thereby, the acquired voice data can be confirmed immediately.
  • audio data reproduction means 31, SD76 #
  • the information processing apparatus (10) further includes voice data editing means (31, SD262) for editing voice data stored in the storage means.
  • voice data editing means 31, SD262
  • the information processing apparatus (10) transmits the imaging data stored in the short-range wireless communication means (38) and the storage means to another information processing apparatus using the short-range wireless communication means.
  • imaging data obtained by imaging between users having the same type of information processing apparatus.
  • the same imaging data can be shared and enjoyed within the group, or imaging data obtained by imaging can be distributed to other users and enjoyed.
  • the information processing apparatus (10) further includes an opening / closing detection means (50) for detecting opening / closing, and the imaging data reproducing means captures an image stored in the storage means each time the opening / closing detection means detects the opening / closing.
  • a captured image is displayed based on different captured data among the data (SA73). The captured image is displayed on a display unit that changes between a hidden state and an exposed state by folding, sliding, and rotating.
  • the displayed image data changes whenever the information processing apparatus is opened and closed, so that the user can enjoy when opening the information processing apparatus.
  • the storage means causes the computer of the information processing apparatus to function as the imaging data acquisition means and the imaging data storage control means, and the imaging data acquisition program (53) and the computer of the information processing apparatus as audio data acquisition means and audio data.
  • An audio data acquisition program (57) that functions as storage control means is further stored. Then, when the information processing apparatus (10) starts up the information processing apparatus, at least one of the imaging data acquisition program or the audio data acquisition program is selected, and an activation control unit that activates the selected program (31, SA5 to SA13), and the activation control means has a function (31, SA10) for acquiring imaging data using the imaging means and storing it in the storage means.
  • the user can execute a desired program by the activation control means (31, SA5 to SA13). It can be easily selected and executed.
  • the imaging data acquisition program (53) can be directly started during execution of the imaging function by the imaging processing means. That is, since the shooting function provided by the shooting data acquisition program (53) can be easily activated from the shooting function provided by the shooting processing means, the user who is in contact with the shooting function provided by the shooting processing means can be used. The user can be guided to use the imaging function provided by the imaging data acquisition program (53).
  • the information processing device (10) is provided on the upper surface of the other one of the plurality of housings on the side where one of the plurality of housings exists when the information processing device is opened.
  • the imaging data recording means further includes first operation means (14I, 14J), and when the first operation means is operated, the imaging data is acquired using the imaging means and stored in the storage means.
  • the user can perform the acquisition operation of the imaging data by operating the first operation means (14I, 14J) with the hand holding the information processing apparatus. That is, since the imaging data acquisition operation can be performed while the information processing apparatus is held, the imaging operation can be easily performed. For this reason, the structure suitable for a more portable information processing apparatus can be provided.
  • the imaging means and the voice input means are provided near the center of the connecting portion.
  • the relative positional relationship between the information processing device and the user is substantially the same between when the user grips the information processing device with only the right hand and when the user grips the information processing device with only the left hand. it can.
  • the imaging means is provided at the center of the connecting portion, and the voice input means is provided at a position offset from the center of the connecting portion.
  • the imaging range of the imaging means is determined centering on the position passing therethrough, whereas the voice acquisition range of the voice input means is relatively wide, so the imaging means should be preferentially provided at the center of the connecting portion. This makes it possible to shoot in a more appropriate situation.
  • the information processing apparatus (10) further includes display means (12, 22) provided in each housing. Thereby, the image etc. which were imaged by the imaging means can also be displayed.
  • the housing is a horizontally long housing.
  • the configuration is suitable for the movement of the user's eyes.
  • the information processing apparatus (10) includes a first and second operating means (14A to 14E) disposed on the left and right of the display means in one of the plurality of housings, and the plurality of housings.
  • Another housing includes first and second audio output means (21D, 45, 47) arranged on the left and right sides of the display means, respectively.
  • the information processing apparatus (10) further includes connection means (36, 37) for detachably mounting the memory card (28, 29).
  • connection means 36, 37
  • the degree of freedom and expansion of the information processing apparatus can be dramatically increased.
  • the imaging data storage control means can selectively store imaging data in the storage means and the memory card.
  • the audio data storage control means can selectively store the audio data in the storage means and the memory card.
  • imaging data and / or audio data can be stored in an arbitrary storage medium according to the number, type, size, etc., so that the degree of freedom of the user can be increased. Further, by storing the imaging data and / or audio data in the memory card, the imaging data and / or audio data can be output to a device different from the information processing device.
  • the information processing apparatus can store a program that causes the computer of the information processing apparatus to function as an imaging data acquisition unit and an imaging data storage control unit in a built-in storage unit, and cause the computer of the information processing apparatus to execute the program.
  • the information processing apparatus can provide the user with a photographing function alone without attaching a memory or the like from the outside.
  • the application program stored in the memory card can be read out and executed by the computer of the information processing apparatus.
  • the information processing apparatus can selectively execute various application programs regardless of the capacity limitation of the built-in storage means.
  • An information processing system stores the above information processing device and a program that causes the computer of the information processing device to function as an imaging data acquisition unit and an imaging data storage control unit as an application program, and stores data
  • the imaging data storage control unit can selectively store the imaging data in either the storage unit or the memory card.
  • the user can selectively store the imaging data in the built-in storage means and the memory card attached from the outside, and therefore a storage medium can be used depending on the situation.
  • An information processing system causes the information processing apparatus and the computer of the information processing apparatus to function as an imaging data utilization processing unit that uses imaging data stored in a storage unit as an application program. And a memory card for storing the program.
  • An information processing system provides an imaging data utilization processing unit that uses the information processing apparatus and the computer of the information processing apparatus as an application program and uses the imaging data stored in the storage unit and the memory card. And a memory card that stores a program that functions as a memory card.
  • An information processing system stores the above information processing apparatus and a program that causes the computer of the information processing apparatus to function as voice data acquisition means and voice data storage control means as an application program.
  • the audio data storage control means can selectively store the audio data in either the storage means or the memory card.
  • the user can selectively store the voice data in the built-in storage means and the memory card attached from the outside, so that a storage medium can be used depending on the situation.
  • An information processing system causes the information processing apparatus and the computer of the information processing apparatus to function as sound data use processing means that uses sound data stored in a storage means, as an application program. And a memory card for storing the program.
  • an information processing system that uses the information processing apparatus and a computer of the information processing apparatus as an application program, and a voice data utilization processing unit that uses voice data stored in a memory unit and a memory card. And a memory card that stores a program that functions as a memory card.
  • the information processing apparatus (10) preferably includes a plurality of connection means for detachably mounting the memory card. As a result, a plurality of various memory cards can be simultaneously loaded, and the user can select and execute a desired program from a larger number of application programs.
  • connection means includes a first connection means for detachably mounting a general-purpose standard memory card (28) and a second connection for detachably mounting a dedicated standard memory card (29). Connecting means.
  • the user can easily exchange imaging data and / or audio data with another user or easily move it to another device via a general-purpose standard memory card.
  • a general-purpose standard memory card On the other hand, by storing various application programs in a dedicated standard memory card, unauthorized operations can be prevented.
  • imaging data and / or audio data in a dedicated standard memory card it is also possible to store information unique to the information device according to the present invention and display various effects and information. It becomes.
  • the imaging data storage control means can selectively store imaging data in the storage means, a general-purpose standard memory card, and a dedicated standard memory card.
  • the audio data storage control means can selectively store the audio data in the storage means, a general-purpose standard memory card, and a dedicated standard memory card.
  • the user can store the acquired imaging data and / or audio data in a more appropriate memory card according to the contents thereof.
  • An information processing system causes the information processing apparatus and the computer of the information processing apparatus to function as a second imaging data acquisition unit and a second imaging data storage control unit as an application program. And a dedicated standard memory card for storing programs.
  • the second imaging data storage control unit can selectively store the imaging data in at least one of a storage unit, a general-purpose standard memory card, and a dedicated standard memory card.
  • An information processing system causes the information processing apparatus and the computer of the information processing apparatus to function as a second sound data acquisition unit and a second sound data storage control unit as the application program. And a second audio data storage control unit that selectively selects the audio data as at least one of a storage unit, a general-purpose standard memory card, and a dedicated standard memory card. Can be memorized.
  • the user can selectively store imaging data and / or audio data in a built-in storage means and a general-purpose memory card and a dedicated-standard memory card that are mounted from the outside.
  • a storage medium can be used.
  • an information processing system includes the above-described information processing apparatus and, as an application program, a computer of the information processing apparatus that is stored in storage means, a general-purpose standard memory card, and a dedicated standard memory card. And a dedicated standard memory card that stores a program that functions as imaging data utilization processing means that utilizes data.
  • An information processing system includes a memory card (28, 29) and an information processing apparatus (10) capable of reading an application program stored in the memory card and executing processing.
  • the information processing apparatus (10) includes an imaging unit (23), a built-in storage unit (34), a connection unit (36, 37) for detachably mounting a memory card, and a built-in program storage unit (901). 908)
  • the built-in program storage means includes first imaging data acquisition means for acquiring imaging data using the imaging means, and imaging data acquired by the imaging data acquisition means. Is stored in a built-in storage means, and a memory card stores an image processing data as an application program by using a computer of an information processing apparatus as an application program. Second imaging data acquisition means and imaging data acquired by imaging data acquisition means are stored in a built-in storage means 2 imaging data storage control means stores a program to function as a.
  • An information processing system includes a memory card (28, 29) and an information processing apparatus capable of reading an application program stored in the memory card and executing processing.
  • the information processing apparatus (10) includes an imaging unit (23), a built-in storage unit (34), a connection unit (36, 37) for detachably mounting a memory card, and a built-in program storage unit (901). 908), the built-in program storage means includes first imaging data acquisition means for acquiring imaging data using the imaging means, and imaging data acquired by the imaging data acquisition means. Is stored in a built-in storage unit, and a memory card stores an image data stored in the built-in storage unit as an application program. Stores a program that functions as an imaging data utilization processing unit that uses.
  • the image processing unit (23) has an imaging unit (23) and is executed in a computer of the information processing apparatus (10) capable of storing a plurality of application programs.
  • An activation program (51) for selectively activating a desired application program is provided.
  • the activation program (51) includes a first activation operation accepting means (SA6, SA11) for accepting a first activation operation for selectively activating a plurality of application programs, and a plurality of applications when the first activation operation is performed.
  • a first activation unit (SA12) that reads an application program selected by the first activation operation among the programs into a predetermined storage unit for storing a program executed by the computer, and activates the application program;
  • the computer In response to a predetermined photographing operation, the computer is caused to function as photographing processing means (SA10) that performs photographing processing for storing an image captured by the photographing means in the storage means.
  • the user can select the application program to be executed from among the plurality of application programs by the first activation operation, and can also acquire the captured image by the imaging unit by the predetermined imaging operation. Therefore, the user can easily and quickly use the photographing function even in a state before the application program is started. Further, the photographing processing means can be activated during the execution of the photographing function provided by the activation program.
  • the photographing processing unit has a photographing function for storing the image captured by the imaging unit in the storage unit, and does not have a function for editing an image photographed by the photographing function.
  • the photographing processing means has a photographing function for storing an image captured by the imaging means in the storage means, and does not have a function for arbitrarily browsing from images photographed by the photographing function.
  • the imaging processing means provided by the activation program does not provide image editing and / or image browsing functions, so that the user wants to use the imaging application program having these functions. become. As a result, the user can be guided to use the photographing application program from the photographing processing means.
  • the information processing apparatus (10) stores, as an application program, a shooting application program (53) having a shooting function for storing a captured image by the imaging unit in the storage unit.
  • a shooting application program having a shooting function for storing a captured image by the imaging unit in the storage unit.
  • the user desires to use a shooting application program with higher functionality, and can guide the user to use the shooting application program.
  • the shooting application program further has a function of editing a shot image.
  • the shooting application program further has a function of browsing arbitrarily from the shot images.
  • the photographing application program stores the photographed image in the storage means.
  • the activation program can exchange the captured image stored in the storage unit with another information processing apparatus.
  • the photographing application program stores the photographed image in the storage unit in accordance with the photographing operation.
  • the captured image stored in the storage means is displayed together with images for selectively starting a plurality of application programs (SA5).
  • SA5 application programs
  • the photographing application program can provide the user with more advanced functions than the photographing processing means provided by the activation program, and thus the attractiveness of the photographing application program can be enhanced.
  • a storage medium storing any one of the above-described startup programs is provided.
  • an information processing apparatus having a structure suitable for a photographing function and / or a sound acquisition function. Further, it is possible to provide an information processing system capable of executing programs stored in a storage medium built in the main body and a storage medium attached from the outside in cooperation with each other. Furthermore, it is possible to provide a startup program suitable for an information processing apparatus equipped with a photographing function and a storage medium storing the program.
  • FIG. 2 is a cross-sectional view taken along the line A-A ′ of the lower housing shown in FIG. 1.
  • FIG. 3 is a B-B ′ cross-sectional view of the upper housing shown in FIG. 1.
  • the block diagram which shows the internal structure of the game device according to this embodiment. It is a figure for demonstrating the starting method of each application program in the game device according to this embodiment. It is a figure which shows the main data memorize
  • FIG. 1 It is a figure which shows an example of the menu screen in the launcher process of the game device according to this embodiment. It is a figure which shows an example of the image displayed in the imaging
  • FIG. 31 is a flowchart showing a flow of a photographic display mode process of the flowchart shown in FIG. 30.
  • FIG. 33 is a flowchart showing a flow of shooting mode processing shown in FIG. 32.
  • FIG. It is a figure which shows an example of the image displayed in the imaging
  • FIG. It is a flowchart which shows the flow of the edit process shown in FIG. It is a figure which shows an example of the image displayed at the time of the pen mode of the edit process shown in FIG. It is a figure which shows an example of the image displayed at the time of the seal
  • FIG. 58 is a flowchart showing a subroutine showing detailed operations of the image transmission processing shown in FIG. 57.
  • 58 is a flowchart showing a subroutine showing detailed operations of the image reception processing shown in FIG. 57.
  • FIG. 67 is a flowchart for describing a subroutine process of a selection function mode transition process in FIG. 66. It is a flowchart explaining the subroutine process in music reproduction mode. It is a flowchart explaining the subroutine process of the folder search process in an SD card. It is a flowchart explaining the subroutine process of folder list generation. It is a flowchart explaining the subroutine process of a folder name determination process.
  • the game apparatus 10 has an imaging means (camera) and functions as an imaging apparatus.
  • the game apparatus 10 captures an image of a subject by the imaging unit, displays the image on an image screen obtained by imaging, stores data of the captured image, and captures an image with another apparatus. It is possible to send and receive image data.
  • the game apparatus 10 is typically provided as a computer including a calculation unit such as a CPU and a memory, and can execute various application programs related to image processing and information processing. By executing such a program, the game apparatus 10 also functions as an image processing apparatus or an information processing apparatus. As a matter of course, the game apparatus 10 according to the present embodiment can also execute various game programs.
  • the program according to the present invention can be executed by any computer system, but in the present embodiment, a configuration in which the program according to the present invention is executed by the game apparatus 10 will be exemplified. A part or all of the functions provided by the program according to the present invention may be realized by a hardware circuit.
  • imaging acquiring image data from an imaging means (camera)
  • imaging storing captured image data
  • imaging storing captured image data
  • FIG. 1 is a plan view showing the appearance of the game apparatus 10 according to the present embodiment
  • FIG. 2 is a perspective view showing the back side of the game apparatus 10 according to the present embodiment.
  • game device 10 is typically a foldable portable game device.
  • FIG. 1 shows a state in which the game apparatus 10 is opened (open state).
  • the user normally uses the game apparatus 10 in the open state, and stores the game apparatus 10 in the closed state when the game apparatus 10 is not used. Therefore, it is preferable that the game apparatus 10 is configured to have a size that allows the user to hold it with both hands or one hand even in an open state.
  • the game apparatus 10 has two housings, a lower housing 11 and an upper housing 21.
  • the lower housing 11 and the upper housing 21 are connected so as to be openable and closable (foldable). That is, the shaft portion 11A shown in FIG. 1 is provided at both ends with respect to the left and right direction (the y direction in the drawing) of the upper side (the side on the positive side of the x axis in the drawing) of the lower housing 11 (the shaft portion 11A is connected to the lower housing 11). Structurally integrated). Further, a shaft portion 21A shown in FIG.
  • the shaft portion 11A and the shaft portion 21A are connected so as to be rotatable about the left-right direction as an axis by a hinge provided inside. Thereby, the lower housing 11 and the upper housing 21 are connected so as to be rotatable about the left-right direction.
  • both the housings 11 and 21 have a horizontally long shape (that is, each housing has a longer horizontal dimension than a vertical dimension), and typically has a rectangular shape.
  • Each of the housings 11 and 21 has a flat plate shape (that is, the thickness direction is shorter than the vertical and horizontal directions).
  • the upper housing 21 and the lower housing 11 are thin flat plate shapes. Further, the thickness of the upper housing 21 is preferably smaller than the thickness of the lower housing 11. The lower housing 11 and the upper housing 21 are rotatably connected to each other at their long sides.
  • the game apparatus 10 may be configured with a single housing instead of the folding type.
  • the game apparatus 10 includes two display devices, an upper LCD (Liquid Crystal Display) 22 and a lower LCD 12.
  • the upper LCD 22 is attached to the inner surface of the upper housing 21 (the inner surface when the game apparatus 10 is closed), and the lower LCD 12 is attached to the inner surface of the lower housing 11.
  • an LCD is used as a display device.
  • any other display device such as a display device using EL (Electro Luminescence) may be used.
  • the game apparatus 10 can use a display device having an arbitrary resolution. In the present embodiment, the game apparatus 10 is described as an example having two display devices. However, in an alternative embodiment, the number of display devices included in the game apparatus is not particularly limited.
  • the game apparatus 10 has the lower LCD 12.
  • the lower LCD 12 has a horizontally long shape, and is arranged such that the long side direction coincides with the long side direction of the lower housing 11.
  • the lower LCD 12 is housed in the lower housing 11.
  • the lower LCD 12 is provided on the inner surface of the lower housing 11. Therefore, when the game apparatus 10 is not used, it is possible to prevent the screen of the lower LCD 12 from becoming dirty or damaged by keeping the game apparatus 10 closed.
  • the inner surface of the lower housing 11 is formed in a substantially flat shape.
  • an opening 11B for exposing the lower LCD 12 is formed in the center of the inner side surface.
  • An opening 11C is formed on the left side of the opening 11B (the y-axis negative side in the drawing), and an opening 11D is formed on the right side of the opening 11B.
  • the openings 11C and 11D are for exposing the key tops (the upper surfaces of the buttons 14A to 14E).
  • the screen of the lower LCD 12 housed in the lower housing 11 is exposed from the opening 11B, and the key tops are exposed from the openings 11C and 11D.
  • the inner surface of the lower housing 11 corresponds to the non-screen areas (dotted line areas A1 and A2 shown in FIG. 1) on the left and right sides of the opening 11B for the lower LCD 12 provided in the center.
  • Each of the button arrangement regions is designed so that the dimension in the horizontal direction (y direction in the drawing) is at least 15 mm or more (preferably 20 mm or more, more preferably about 30 mm to 40 mm).
  • the lower housing 11 is provided with buttons 14A to 14K and a touch panel 13 as input devices. As shown in FIG. 1, among the buttons 14A to 14K, the direction input button 14A, button 14B, button 14C, button 14D, button 14E, power button 14F, start button 14G, and select button 14H are provided on the lower housing. 11 is provided on the inner surface. The inner side surface means the inner side when the upper housing 21 and the lower housing 11 are folded.
  • the direction input button 14A is used for, for example, a selection operation
  • the buttons 14B to 14E, the start button 14G, and the select button 14H are used for, for example, a determination operation or a cancel operation.
  • the power button 14F is used for turning on / off the power of the game apparatus 10.
  • the direction input button 14A and the power button 14F are provided on one side (the left side in FIG. 1) with respect to the lower LCD 12 provided near the center of the lower housing 11, and the buttons 14B to 14E. Is provided on the other side (the right side in FIG. 1) with respect to the lower LCD 12.
  • the power button 14F may be provided on the right side surface of the lower housing 11 as shown in FIGS. 16 and 17C.
  • the direction input button 14A has a cross shape, and the length and width are both about 20 mm.
  • the center of the direction input button 14 ⁇ / b> A is provided at a position about 20 mm from the left end of the lower housing 11 and about 40 mm from the lower end of the lower housing 11.
  • the power button 14F has a circular shape, and the center thereof is provided at a position about 25 mm from the left end of the lower housing 11 and about 10 mm from the lower end of the lower housing 11.
  • Each of the buttons 14B to 14E has a circular shape and a radius of about 5 mm.
  • the center of the button 14 ⁇ / b> B is provided at a position about 10 mm from the right end of the lower housing 11 and about 40 mm from the lower end of the lower housing 11.
  • the center of the button 14 ⁇ / b> C is provided at a position about 20 mm from the right end of the lower housing 11 and about 40 mm from the lower end of the lower housing 11.
  • the center of the button 14 ⁇ / b> D is provided at a position about 20 mm from the right end of the lower housing 11 and about 50 mm from the lower end of the lower housing 11.
  • the center of the button 14 ⁇ / b> E is provided at a position about 25 mm from the right end of the lower housing 11 and about 45 mm from the lower end of the lower housing 11.
  • the direction input button 14A and the buttons 14B to 14E are used to perform various operations (described later) on the game apparatus 10.
  • the L button 14I is provided at the left end portion of the upper side surface of the lower housing 11, and the R button 14J is provided at the right end portion of the upper side surface of the lower housing 11.
  • the L button 14I and the R button 14J are used, for example, for performing a shooting instruction operation (shutter operation).
  • volume button 14K is provided on the left side surface of the lower housing 11.
  • the volume button 14K is used to adjust the volume of a speaker provided in the game apparatus 10. Further, in the present embodiment, the volume button 14K is used to adjust the brightness of the upper LCD 22 and the lower LCD 12 by being operated together with the select button 14H. These operations will be described later.
  • the game apparatus 10 further includes a touch panel 13 as an input device different from the operation buttons 14A to 14I.
  • the touch panel 13 is mounted on the screen of the lower LCD 12.
  • an arbitrary system such as a resistive film system, an optical system (infrared system), and a capacitive coupling system can be used.
  • the touch panel 13 having the same resolution (detection accuracy) as that of the lower LCD 12 is used.
  • the resolution of the touch panel 13 and the resolution of the lower LCD 12 do not necessarily match.
  • the touch panel as used in the present embodiment may be detected by any principle as long as it is a device that can detect contact coordinates on the screen.
  • an insertion port 17 is provided on the right side surface of the lower housing 11.
  • the insertion slot 17 can accommodate a touch pen 27 used for performing an operation on the touch panel 13.
  • the input with respect to the touch panel 13 is normally performed using the touch pen 27, it is also possible to operate the touch panel 13 not only with the touch pen 27 but with a user's finger.
  • an insertion slot for storing the memory card 28 is provided on the right side surface of the lower housing 11.
  • a connector (not shown) for electrically connecting the game apparatus 10 and the memory card 28 is provided inside the insertion slot.
  • the memory card 28 is detachably attached to this connector.
  • the memory card 28 is based on a general-purpose standard whose specifications are defined by any standard organization, and typically includes an SD (Secure Digital) memory card.
  • the memory card 28 has a built-in nonvolatile rewritable memory.
  • the memory card 28 stores (saves) an image captured by the game device 10 or reads an image generated by another device into the game device 10. It is used to hang up.
  • the memory card 28 stores a music file, which is music data, in advance, and the reproduction process can be executed by reading the music file into the game apparatus 10. Note that some program may be stored in the memory card 28 by a personal computer or the like, but such a program cannot be executed by the game apparatus 10.
  • an insertion slot (indicated by a one-dot chain line in FIG. 1) for storing the memory card 29 is provided.
  • a connector (not shown) for electrically connecting the game apparatus 10 and the memory card 29 is also provided inside the insertion slot.
  • the memory card 29 is preferably based on a dedicated standard for the game apparatus 10 according to the present embodiment. That is, the memory card 29 is designed to have a size different from that of the general-purpose standard memory card.
  • the memory card 29 is a storage medium that stores an image communication program, a game program, and the like, and is detachably attached to an insertion port provided in the lower housing 11.
  • the memory card 29 can also store a selected application program to be described later.
  • the application program stored in the memory card 29 is read into the main memory 32 and executed by the CPU 31 when the execution is selected by a method described later with reference to FIG.
  • the memory card 29 may have a built-in ROM and store a program in the ROM. However, the memory card 29 has a built-in rewritable non-volatile memory so that data can be written by the game apparatus 10. Good.
  • three LEDs 15A to 15C are attached to the left portion of the shaft portion 11A of the lower housing 11 (or the right portion as shown in FIG. 15). The lighting operation of these LEDs 15A to 15C will be described later.
  • the upper housing 21 is provided with a configuration (camera) for capturing an image and a configuration (display device) for displaying the captured image.
  • a configuration for capturing an image
  • a configuration for displaying the captured image.
  • the game apparatus 10 has an upper LCD 22.
  • the upper LCD 22 is housed in the upper housing 21.
  • the upper LCD 22 has a horizontally long shape and is arranged such that the long side direction coincides with the long side direction of the upper housing 21.
  • the upper LCD 22 is provided on the inner surface of the upper housing 21 (the surface that becomes the inner side when the game apparatus 10 is closed). Therefore, when the game apparatus 10 is not used, the screen of the upper LCD 22 can be prevented from becoming dirty or damaged by keeping the game apparatus 10 closed.
  • a display device having any other method and any resolution may be used.
  • the upper LCD 22 mainly displays an image related to the imaging operation such as an image explaining how to operate the user.
  • a touch panel may also be provided on the upper LCD 22.
  • the game apparatus 10 has two cameras 23 and 25 as imaging means. Both cameras 23 and 25 are housed in the upper housing 21. As shown in FIG. 1, the inner camera 23 is attached to the inner surface of the upper housing 21. On the other hand, as shown in FIG. 2, the outer camera 25 is the surface opposite to the surface to which the inner camera 23 is attached, that is, the outer surface of the upper housing 21 (outside when the game apparatus 10 is closed). Surface).
  • the game apparatus 10 including two cameras as imaging means will be described as an example.
  • the game apparatus may include one camera or three or more cameras.
  • the position where the camera is attached may be any position.
  • the fourth LED 26 is attached to the outer surface of the upper housing 21.
  • the fourth LED 26 is attached to the periphery of the outer camera 25 (in this embodiment, the right side of the outer camera 25. In the example shown in FIG. 17B, the upper side of the outer camera 25 in the open state).
  • the fourth LED 26 is turned on at the time when photographing is performed by the inner camera 23 or the outer camera 25 (the shutter button is pressed). Further, it is lit while a moving image is shot by the inner camera 23 or the outer camera 25.
  • an audio external output terminal 19 for inserting a plug provided in a device for example, a headphone, an earphone, a bone conduction headphone, etc.
  • a device for example, a headphone, an earphone, a bone conduction headphone, etc.
  • a jack 62 is provided inside the audio external output terminal 19, for electrically connecting the game apparatus 1 and a device for external audio output.
  • the device that outputs audio externally may be for both ears such as headphones, or it may be for one ear such as earphones, and the plug of the device that externally outputs audio is detachable from the jack. It is attached to.
  • a case of a headphone will be described as a representative example of a device that performs external output of sound, but a device such as an earphone can also be used.
  • the game apparatus 10 includes a microphone (a microphone 43 shown in FIG. 18) as a voice input device.
  • the microphone 43 is housed inside the upper housing 21.
  • the microphone 43 is disposed in the shaft portion 21 ⁇ / b> A of the upper housing 21. More specifically, it is attached to the periphery of the inner camera 23 (the side of the y axis in the figure), and more specifically, the side that is 10 mm away from the inner camera 23 (the side of the positive side of the y axis in the figure). ).
  • a microphone hole 21 ⁇ / b> C is provided on the inner side surface of the upper housing 21 so that the microphone can detect sound outside the game apparatus 10.
  • the microphone hole 21 ⁇ / b> C is provided in the shaft portion 21 ⁇ / b> A of the upper housing 21.
  • the microphone hole 21 ⁇ / b> C is provided in the connecting portion between the lower housing 11 and the upper housing 21, it is preferably provided at a position offset from the center by a predetermined distance.
  • the microphone may be housed in the lower housing 11 as shown in FIG.
  • the microphone hole 16 is provided on the inner side surface of the lower housing 11, specifically, the lower left portion of the inner side surface of the lower housing 11 (button arrangement region corresponding to the dotted line region A ⁇ b> 1).
  • the microphone is arranged in the vicinity of the microphone hole 16 in the lower housing 11.
  • the microphone 43 is accommodated in the lower housing 11, and the lower housing corresponds to the accommodation position of the microphone 43. 11 may be provided with a microphone hole 16.
  • the microphone hole 16 may be provided adjacent to the external output terminal 19 for inserting a plug provided in the headphones.
  • FIG. 3 is a diagram illustrating the lighting operation of the LEDs 15A to 15C of the game apparatus 10 according to the present embodiment.
  • the game apparatus 10 can perform wireless communication with other devices as will be described later, and the first LED 15A is lit when the wireless communication is established. To do. Specifically, the first LED 15A is always lit if it can communicate with other devices. The first LED 15A blinks during communication with other devices (or during data transmission).
  • the second LED 15B is lit while the game apparatus 10 is being charged.
  • the third LED 15C is lit when the power of the game apparatus 10 is on. Furthermore, the lighting state of the third LED 15 ⁇ / b> C changes according to the state of charge of a battery (battery pack) mounted on the game apparatus 10. Specifically, the third LED 15C lights in blue when the remaining battery level is relatively high, and lights in red when the remaining battery level is relatively low. Further, when the remaining battery level is low, the third LED 15C blinks red.
  • the three LEDs 15A to 15C can notify the user of the communication state of the game apparatus 10, the charging state, the remaining battery level, the power on / off state, and the like.
  • FIG. 4 is a diagram for explaining the operation of the volume button 14K of the game apparatus 10 according to the present embodiment.
  • the volume can be set in a plurality of levels (for example, 5 levels). As shown in FIG. 4A, the volume is increased each time the “+” (plus) side of the volume button 14K is pressed. Increase by one step. On the other hand, each time the “ ⁇ ” (minus) side of the volume button 14K is pressed, the volume decreases by one level.
  • the sound effect (shutter sound) output from the speaker when the inner camera 23 or the outer camera 25 is photographed (the shutter button is pressed) is constant regardless of the volume setting. It is preferable that the volume is reached.
  • the game apparatus 100 when the game apparatus 100 is in a sleep state, which will be described later, it is preferable that only the volume reduction is permitted by the operation of the volume button 14K.
  • the volume button 14K when the volume button 14K is operated while the select button 14H is pressed, the brightness of the upper LCD 22 and the lower LCD 12 is changed. That is, each time the “+” (plus) side of the volume button 14K is pressed while the select button 14H is pressed, the display on the upper LCD 22 and the lower LCD 12 becomes brighter by one level. On the other hand, each time the “ ⁇ ” (minus) side of the volume button 14K is pressed in a state where the select button 14H is pressed, the display on the upper LCD 22 and the lower LCD 12 becomes darker by one level.
  • FIG. 5 shows a side view of the game apparatus 10 in an open state (open state)
  • FIG. 6 shows a four-side view of the game apparatus 10 in a closed state (closed state).
  • 6A shows a left side view of the game apparatus 10 in the closed state
  • FIG. 6B shows a front view of the game apparatus 10
  • FIG. 6C shows a right side of the game apparatus 10.
  • FIG. 6D shows a rear view of the game apparatus 10.
  • the game apparatus 10 has a small size that can be held with both hands or one hand in an open state.
  • the game apparatus 10 is, for example, a size such that (closed) 50 mm to 100 mm ⁇ (horizontal)) 100 mm to 200 mm ⁇ (thickness) 10 mm to 40 mm in the closed state, while in the open state, (Vertical)
  • the size can be about 100 mm to 200 mm.
  • the “vertical” direction corresponds to the x direction in the figure
  • the “lateral” direction corresponds to the y direction in the figure
  • the “thickness” direction corresponds to the z direction in the figure.
  • the size in the closed state, is 60 mm to 90 mm ⁇ (width) 100 mm to 150 mm ⁇ (thickness) 15 mm to 30 mm, and in the opened state, the size is about 120 mm to 160 mm (vertical). Can do.
  • the size in the closed state, can be (vertical) 70 mm to 80 mm ⁇ (horizontal) 100 mm to 150 mm ⁇ (thickness) 15 mm to 25 mm, and in the open state (vertical) 135 mm to 155 mm.
  • the thickness of the lower housing 11 is preferably larger than the thickness of the upper housing 21.
  • the game apparatus 10 may be configured such that the vertical length and the horizontal length in the opened state are substantially the same. Further, it is desirable that the vertical dimension of the lower housing 11 be such that the second joint of the index finger is positioned near the upper corner when the lower corner of the lower housing 11 is supported at the center of the palm. .
  • FIG. 7 shows a cross-sectional view of the lower housing shown in FIG. 1 taken along the line A-A ′
  • FIG. 8 shows a cross-sectional view of the upper housing shown in FIG. 1 taken along the line B-B ′.
  • the lower housing 11 is provided so as to protrude in a direction perpendicular to the inner side surface.
  • a shaft portion 11A is provided (typically, the shaft portion 11A is structurally integrated with the lower housing).
  • 11 A of shaft parts are provided in the position of both ends regarding the left-right direction (illustration y direction) (refer FIG. 1).
  • the shaft portion 11 ⁇ / b> A may be provided at a position slightly inside from both ends in the left-right direction.
  • a shaft portion 21 ⁇ / b> A provided to protrude in a direction perpendicular to the lower surface is provided on the lower surface of the upper housing 21 (the side surface on the x-axis negative side in the drawing) (the shaft portion 21 ⁇ / b> A).
  • the shaft portion 21A is provided so as to project in a direction perpendicular to the lower side surface, and also project in a direction perpendicular to the inner side surface of the upper housing 21 (the surface that becomes the inner side when the game apparatus 10 is closed). It is done.
  • the shaft portion 21A is provided at the center of the lower end of the upper housing 21 in the left-right direction (see FIG. 1).
  • the shaft portion 11A and the shaft portion 21A are rotatably connected by a hinge provided inside to form an integral protrusion.
  • the shaft portion 11A is provided so as to protrude from the inner surface of the lower housing 11, and the shaft portion 21A is provided so as to protrude below the upper housing 21, the two housings 11 and 21 are connected. Then, there is a step between the outer surface of the lower housing 11 (the outer surface when the game apparatus 10 is closed) and the outer surface of the upper housing 21 by the thickness of the lower housing 11. (See FIG. 5).
  • the upper housing 21 is rotatably supported by a part of the upper side of the lower housing 11.
  • the game apparatus 10 is in a closed state (state in which the angle between the lower housing 11 and the upper housing 21 is about 0 ° (see FIG. 5)) and an open state (in the lower housing 11 and the upper housing 21).
  • a state in which the angle formed is about 180 ° (see FIG. 1).
  • not only the closed state and the open state, but also the angle formed by the lower housing 11 and the upper housing 21 occurs at the hinge at an arbitrary angle between the closed state and the open state.
  • the opening / closing angle can be maintained by the frictional force that is generated. That is, the upper housing 21 can be made stationary with respect to the lower housing 11 at an arbitrary angle.
  • the hinge may have a mechanism for temporarily fixing with a click feeling at a predetermined angle smaller than 180 °. That is, the upper housing 21 and the lower housing 11 may be temporarily fixed with a click feeling at the predetermined angle in a state where the upper housing 21 and the lower housing 11 are opened at a predetermined angle smaller than 180 °.
  • the predetermined angle is, for example, an angle in a range of 150 ° to 175 °, and is 160 ° in the present embodiment.
  • the housings 11 and 21 can be opened up to 180 °. In an alternative embodiment, it may be opened only up to the predetermined angle, or may be opened 180 ° or more.
  • the volume button 14 ⁇ / b> K is provided on the left side surface of the lower housing 11.
  • the volume button 14K is used to adjust the volume of a speaker provided in the game apparatus 10.
  • the button 14 ⁇ / b> J is provided at the right end portion of the upper surface of the lower housing 11.
  • the button 14I is provided at the left end portion of the upper surface of the lower housing 11.
  • the right end of the button 14J preferably extends to the right end of the lower housing 11, but this need not be the case. In the former case, the right side surface of the button 14J and the right side surface of the lower housing 11 are preferably designed to be substantially flush with each other.
  • the back end of the button 14J extends to the back end of the lower housing 11, it may not be so. In the former case, it is preferable to design the back surface of the button 14J and the back surface of the lower housing 11 to be substantially flush with each other. The same applies to the button 14I.
  • buttons 14J and 14I have a length in the left-right direction of about 20 mm and a width (a length in the thickness direction, that is, a length in the z direction in the drawing) of about 10 mm.
  • the buttons 14I and 14J are used to perform, for example, a shooting instruction operation (shutter operation) on the game apparatus 10.
  • the widths of the buttons 14J and 14I are preferably 50% or more of the thickness of the lower housing 11.
  • Both buttons 14I and 14H may function as shutter buttons.
  • a right-handed user can use the button 14J
  • a left-handed user can use the button 14I, which is convenient for any user.
  • the game apparatus 10 may always make each button 14I and 14J effective as a shutter button, or set right-handed or left-handed (by allowing the user to input settings through a menu program or the like) Data is stored), only the button 14J may be valid when the right-handed setting is set, and only the button 14I may be enabled when the left-handed setting is set. Furthermore, in an alternative embodiment, only one button for performing a shooting instruction operation may be provided on the upper surface of the lower housing 11.
  • a cover portion that can be opened and closed is provided on the right side surface of the lower housing 11. Inside the cover portion, a connector (not shown) for connecting the memory card 28 is provided.
  • the lower housing 11 is provided with an input device (touch panel 13 and buttons 14A to 14I) for performing operation input to the game apparatus 10. Therefore, when using the game apparatus 10, the user can hold the lower housing 11 and operate the game apparatus 10.
  • an input device touch panel 13 and buttons 14A to 14I
  • FIG. 9 is a diagram illustrating a state where the user holds the game apparatus 10 with both hands.
  • the user can use the palm and middle finger of both hands, the ring finger and the little finger on the side and outer surfaces of the lower housing 11 (on the opposite side of the inner surface). Grip the surface).
  • the user can operate the buttons 14A to 14E with the thumb while holding the lower housing 11, and can operate the buttons 14I and 14J with the index finger.
  • the lower housing 11 is configured to be horizontally long, and the buttons are provided on both the left and right sides of the lower LCD 12, so that the image pickup apparatus can be easily held and operated. Further, as described above, since the horizontal dimension of the button arrangement area (dotted line area A1 and A2 shown in FIG. 1) is at least 15 mm, the thumb is applied to the lower LCD 12 when the lower housing 11 is gripped. Can be prevented.
  • FIG. 10 is a diagram illustrating a state where the user holds the game apparatus 10 with one hand.
  • Input to the touch panel 13 can be performed with one hand. Also in this case, the thumb holding the lower housing 11 can be prevented from being applied to the lower LCD 12.
  • input to the touch panel 13 can be performed with the thumb of one hand (the right-handed user is the thumb of the right hand) while holding the lower housing 11 with both hands. Also in this case, the thumb of the other hand holding the lower housing 11 (a right-handed user's left thumb) can be prevented from being applied to the touch panel 13.
  • the inner camera 23 is attached to the inner surface of the upper housing 21 (see FIG. 1).
  • the outer camera 25 is attached to the surface opposite to the surface to which the inner camera 23 is attached, that is, the outer surface of the upper housing 21 (the surface that becomes the outer side when the game apparatus 10 is closed) (see FIG. 2 and FIG. 6 (b)).
  • the inner camera 23 can capture an image in the direction in which the inner surface of the upper housing 21 faces, and the outer camera 25 has a direction opposite to the image capturing direction of the inner camera 23, that is, the outer surface of the upper housing 21. It is possible to image the direction in which it faces.
  • the two cameras 23 and 25 are provided so that the respective imaging directions are opposite to each other. Therefore, the user can image two different directions without changing the game apparatus 10. For example, the user can shoot a scene viewed from the game apparatus 10 with the inner camera 23 and shoot a scene viewed from the game apparatus 10 in the direction opposite to the user with the outer camera 25. Can do.
  • the shooting direction of the outer camera 25 and the direction of the display screen of the upper LCD 22 are opposite directions (directions different by 180 °), and the shooting direction of the inner camera 23 and the direction of the display screen of the upper LCD 22 are Are in the same direction. Therefore, when an image captured by the outer camera 25 is displayed on the upper LCD 22, the viewing direction of the user viewing the display screen of the upper LCD 22 and the photographing direction of the outer camera 25 are substantially the same direction. The shooting direction is easy to understand. Further, when an image photographed by the inner camera 23 is displayed on the upper LCD 22, the viewing direction of the user viewing the display screen of the upper LCD 22 and the photographing direction of the inner camera 23 are almost opposite to each other. The shooting direction is easy to understand.
  • the inner camera 23 is attached to the center of the shaft portion 21A formed at the lower center portion of the upper housing 21. That is, the inner camera 23 is attached to the center of the portion where the two housings 11 and 21 are connected.
  • the inner camera 23 is placed between the two LCDs 12 and 22 (see FIG. 1). In other words, the inner camera 23 is arranged near the center of the game apparatus 10.
  • the center of the game device 10 means the center of the operation surface of the game device 10 (the surface formed by the inner surfaces of the housings 11 and 21 in the open state).
  • the inner camera 23 is arranged near the center in the horizontal direction of the LCDs 12 and 22.
  • the shaft portion 21A is integrated with the upper housing 21, and the inner camera 23 is fixedly disposed inside the shaft portion 21A.
  • the shooting direction of 23 is changed. This makes it possible to change the shooting direction without providing an additional mechanism for changing the shooting direction of the camera.
  • the inner camera 23 is disposed on the inner surface of the second housing (the same side as the inner surface of the second housing in the shaft portion 21A), the inner camera 23 is moved to the lower side by the closing operation of the upper housing 21. The orientation is opposite to the housing 11. Therefore, the inner camera 23 can be automatically protected by closing the game apparatus 10.
  • the inner camera 23 is provided on the shaft portion 21A so as to be disposed near the center of the operation surface of the game apparatus 10.
  • the inner camera 23 may be provided at a position other than the shaft portion of the lower housing 11 or the upper housing 21.
  • the inner camera 23 may be provided between the shaft portion 21 ⁇ / b> A and the upper LCD 22 on the inner surface of the upper housing 21. Note that if the inner camera 23 is provided approximately in the center with respect to the left-right direction of the operation surface of the game apparatus 10, the user can easily adjust the position of the game apparatus 10 at least in the left-right direction, for example, in a situation of photographing himself. Can do.
  • the inner camera 23 is disposed at the end of the operation surface of the game apparatus 10 (for example, the upper end of the inner surface of the upper housing 21).
  • the user When operating a portable device such as the game apparatus 10, the user usually holds the game apparatus 10 at a position facing the game apparatus 10 so that the screen is easy to see.
  • the imaging range of the inner camera 23 is determined with the game apparatus 10 held at a normal holding position (a position where the user faces the game apparatus 10). Users will not fit well. For example, when the inner camera 23 is disposed at the upper end of the operation surface, if the game apparatus 10 is held at the normal gripping position, the imaging range is slightly above the user, and the user's face does not fit well within the imaging range. .
  • the user when the inner camera 23 is disposed at the end of the operation surface of the game apparatus 10, the user must move the game apparatus 10 from the normal gripping position so that the user is well within the imaging range.
  • the inner camera 23 when the game apparatus 10 is opened, the inner camera 23 is disposed near the center of the game apparatus 10, so that the user photographs the user himself / herself with the inner camera 23.
  • the user only needs to hold the game apparatus 10 at a position facing the game apparatus 10. That is, if the imaging apparatus is gripped at the normal gripping position, the user is positioned near the center of the imaging range, and the user can easily be within the imaging range.
  • the inner camera 23 by disposing the inner camera 23 at a position near the center of the game apparatus 10 when viewed from the user, it becomes easy for the user to photograph the user himself / herself so as to be well within the imaging range.
  • the outer camera 25 is located on the upper side of the upper housing 21 (away from the lower housing 11 (more than the center of the upper housing 21)) when the game apparatus 10 is opened. Part). This is because the user grips the lower housing 11 when using the game apparatus 10, so if the outer camera 25 is arranged on the side close to the lower housing 11, the user's hand enters the imaging range of the outer camera 25. This is because there is a risk of it.
  • the outer camera 25 is provided at a position where the center is about 20 mm from the right end of the upper housing 21 and about 20 mm from the upper end of the upper housing 21 when the game apparatus 10 is opened. It should be noted that the outer camera 25 does not take a picture of the user who holds the game apparatus 10, so that it is less necessary to provide the outer camera 25 at the center of the game apparatus 10. Further, since the user basically holds the lower housing 11, the lower housing 11 is easier to hold when the thickness is appropriate, whereas the lower housing 11 is more portable when the thickness is smaller when folded. 21 is preferably as thin as possible.
  • the upper LCD 22 is arranged in the center of the upper housing 21 in consideration of visibility, and the outer camera 25 avoids the arrangement position of the upper LCD 22 (that is, the non-screen area shown in FIG. 1). It was decided to be placed on top of the upper housing 21 (in the area on the back side of B2).
  • the outer camera 25 is provided on the upper housing 21 side to prevent a finger holding the lower housing 11 from entering the imaging range of the outer camera 25. be able to.
  • the inner side surface of the upper housing 21 is formed in a substantially flat shape. As shown in FIG. 1, an opening 21B for exposing the upper LCD 22 is formed in the center of the inner side surface. The screen of the upper LCD 22 housed in the upper housing 21 is exposed from the opening 21B. Further, one sound release hole 21D is formed on each of the left and right sides of the opening 21B. A speaker (not shown) is housed in the upper housing 21 behind the sound release hole 21D as sound output means. The sound release hole 21D is a hole for emitting sound from the speaker to the outside. These sound release holes 21 ⁇ / b> D are provided on both the left and right sides of the upper LCD 22.
  • non-screen areas (dotted line areas B1 and B2 shown in FIG. 1; specifically, speakers are arranged on both the left and right sides of the opening 21B for the upper LCD 22 provided in the center. Area for carrying out; a speaker arrangement area).
  • the length (width) of the lower housing 11 and the upper housing 21 in the left-right direction is the same. Furthermore, the width of the lower LCD 12 and the upper LCD 22 in the left-right direction is the same, and is disposed at the same position in the left-right direction. For this reason, the speaker arrangement area is provided so that the position in the left-right direction coincides with the button arrangement area. Similar to the button arrangement area, the speaker arrangement area is designed to have a horizontal dimension of at least 15 mm or more (preferably 20 mm or more, more preferably about 30 mm to 40 mm. In this embodiment, 32 mm).
  • the two sound release holes 21D are arranged near the center in the left-right direction of each speaker arrangement region in the left-right direction. Moreover, about the up-down direction, it arrange
  • region As shown in FIG. 15, the speaker and the sound release hole 21 ⁇ / b> D may be arranged slightly above FIG. 1. As shown in FIG. 15, a plurality (six in FIG. 15) of sound release holes 21D may be provided for one speaker.
  • the lower housing 11 and the upper housing 21 are each provided with the non-screen area at the same position in the left-right direction. Accordingly, the game apparatus 10 is not only held horizontally as shown in FIG. 9, but also held vertically (the game apparatus 10 is rotated 90 degrees counterclockwise or clockwise from the state shown in FIG. 9). It is easy to hold even when gripped by the
  • FIG. 11 and FIG. 12 are diagrams showing a state where the user holds the game apparatus 10 while holding it vertically.
  • 11 shows a state where the game apparatus 10 is held with the left hand
  • FIG. 12 shows a state where the game apparatus 10 is held with the right hand.
  • the right-handed user may rotate the game apparatus 10 90 degrees counterclockwise from the state shown in FIG. 9 and hold the game apparatus 10 with his left hand as shown in FIG.
  • the left-handed user may rotate the game apparatus 10 90 degrees clockwise from the state shown in FIG. 9 and hold the game apparatus 10 on the right as shown in FIG.
  • the user can hold the game apparatus 10 by bringing the thumb into contact with the protrusions (the shaft portions 11A and 21A) and bringing the index finger into contact with the upper side surface of the lower housing 11. .
  • the apparatus 10 can be gripped stably. Further, the shutter button (button 14I or 14J) can be easily pressed with a dominant hand that does not hold the game apparatus 10.
  • the non-screen areas are provided on both sides of the LCDs 12 and 22, a thumb may be put on the screen even when the game apparatus 10 is held vertically with any hand. Absent. That is, the game apparatus 10 is easy to hold even when held vertically, and the visibility of the screen and the operability of the touch panel are ensured.
  • the protruding portion protrudes from the key top of each button 14A to 14E (direction input button 14A in FIG. 7) with respect to the lower housing 11.
  • the vertical dimension of the game apparatus 10 in the open state is 100 mm to 200 mm, even when the game apparatus 10 is held vertically, the game apparatus 10 has a sufficient width as the width of the game apparatus 10 when held horizontally and is difficult to hold. There is nothing.
  • the opening / closing angle of the housing may be set to the predetermined angle smaller than 180 °.
  • the opening / closing angle of the housing By setting the opening / closing angle of the housing to be slightly smaller than 180 °, the outer surfaces of the housings 11 and 21 are fitted to the shape of the hand, and the game apparatus 10 is more easily held.
  • the cameras 23 and 25 are provided in the upper housing 21.
  • the live image captured by the camera 23 or 25 can be displayed on the lower LCD 12 provided in the lower housing 11. According to this configuration, even when the game apparatus 10 is gripped and used, or when the game apparatus 10 is placed on a desk or the like, an editing operation is performed on the live image while appropriately changing the shooting direction. It becomes very easy.
  • FIG. 13 is a diagram illustrating a state in which the game apparatus 10 is gripped and used.
  • the user grips the lower housing 11 with one hand (left hand in FIG. 13) as shown in FIG. Since the live image is displayed on the lower LCD 12, the user performs an editing operation on the live image using the touch pen 27 with the other hand.
  • the angle of the lower housing 11 and the angle of the upper housing 21 can be changed separately, the user touches the lower housing 11 with the touch panel while directing the camera 23 or 25 of the upper housing 21 toward the imaging target.
  • the game apparatus 10 can be gripped at an angle at which the above operation can be easily performed.
  • the user since the user holds the lower housing 11 with one hand, the user can stably perform editing operations using the touch panel 13. As described above, when the game apparatus 10 is gripped and used, an editing operation for a live image is very easy to perform.
  • the game apparatus 10 is suitable not only for taking a picture while being held by a user, but also for taking a picture while being placed on a table or the like.
  • FIG. 14 is a diagram showing a state in which the game apparatus 10 is placed and used. As shown in FIG. 14, even when the game apparatus 10 is held on a desk or the like and used, a live image is displayed on the lower LCD 12, so that the user can easily operate the touch panel 13.
  • the user places the lower housing 11 on the placement surface, and adjusts the opening / closing angles of the two housings 11 and 21 so that the upper housing 21 has a desired angle with respect to the lower housing 11. It is also possible. Thereby, even when the user places the game apparatus 10, the upper housing 21 (camera shooting direction) can be shot at an arbitrary angle. In this way, even when the game apparatus 10 is placed and used, editing operations on live images are very easy to perform.
  • the game apparatus 10 since the game apparatus 10 includes two cameras 23 and 25, by switching the camera that performs shooting between the inner camera 23 and the outer camera 25, the game apparatus 10 placed on the table is not moved. Different directions can be taken. In either case of shooting with any camera, the shooting direction can be changed by adjusting the opening and closing angles of the two housings 11 and 21.
  • the game apparatus 10 may have a self-timer function in which shooting is performed after a predetermined time from pressing the shutter button. When shooting using the self-timer function, since the user does not hold the game apparatus 10, it is particularly convenient to adjust the shooting direction of the camera in any direction as in this embodiment.
  • the two cameras 23 and 25 that image different directions are both provided in the upper housing 21. Therefore, even when the game apparatus 10 is placed and shooting is performed, both the two cameras 23 and 25 can be used.
  • the lower housing 11 is configured horizontally, a sense of stability when the game apparatus 10 is placed is increased, and the game apparatus 10 can be prevented from falling over.
  • the game apparatus 10 can switch the LCD that displays a real-time image (live image) captured by the camera 23 or 25 between the upper LCD 22 and the lower LCD 12 according to a user switching instruction, for example. May be.
  • a user switching instruction for example. May be.
  • switching may be performed so that a real-time image is displayed on the lower LCD 12.
  • the captured image may be displayed on the upper LCD 22. Since the lower housing 11 is provided with an input device (touch panel 13 and buttons 14A to 14I) for performing an operation input to the game apparatus 10, when using the game apparatus 10, the user can enter the upper LCD 22 While viewing the displayed captured image (image captured by the camera), the input to the input device can be performed by holding the lower housing 11.
  • an input device touch panel 13 and buttons 14A to 14I
  • the game apparatus 10 since the game apparatus 10 includes both buttons and a touch panel as input devices, the game apparatus 10 determines the input device to be used for the input operation as the type (characteristics) of the input operation. ) Can be determined by selecting the appropriate one. For example, for the shutter operation, for example, it is preferable that the user actually feels that the operation has been performed, and it is preferable that the operation has a certain stroke, so that the shutter operation is performed using a button. Also good. Moreover, it is preferable to perform operation using the touch panel about operation in the edit process mentioned later.
  • the game apparatus 10 is configured to be foldable when the lower housing 11 and the upper housing 12 are rotatably connected (coupled).
  • the lower housing 11 and the upper housing 12 may be coupled by other configurations and schemes.
  • a configuration in which two flat housings are connected so that one housing can slide or rotate with respect to the other in a parallel state may be employed. This also allows the two housings to be in both the open state and the closed state, as in the above embodiment.
  • the camera can be easily directed in the direction of the user's line of sight or in the opposite direction.
  • the imaging device 110 shown in FIGS. 15 to 17 is obtained by changing the arrangement, number, shape, or the like of some components of the game device 10 according to the present embodiment. The same.
  • FIG. 18 is a block diagram showing an internal configuration of the game apparatus 10 according to the present embodiment.
  • the game apparatus 10 includes a CPU 31, a main memory 32, a memory control circuit 33, a storage data memory 34, a preset data memory 35, and a memory card interface (memory card I / F). 36 and 37, a wireless communication module 38, a local communication module 39, a real-time clock (RTC) 40, a power supply circuit 41, an interface circuit (I / F circuit) 42, a folding position detection sensor 50, and the like. Equipped with electronic components. These electronic components are mounted on an electronic circuit board and housed in the lower housing 11 (or the upper housing 21).
  • the weight of the lower housing 11 is heavier than the weight of the upper housing 21. It is preferable to be designed. Specifically, the lower housing 11 is preferably 100 to 200 g, and the upper housing 21 is preferably 50 to 100 g. Further, it is more preferable that the lower housing 11 is 130 to 150 g, and the upper housing 21 is 70 to 90 g.
  • the lower housing 11 is about 150 g, and the upper housing is about 75 g.
  • a battery, a circuit board on which a CPU is mounted, a card connector, and the like are preferably housed in the lower housing 11.
  • the upper housing 21 accommodates minimum parts such as an LCD unit (upper LCD 22 and the like), an imaging unit (each camera 23 and 25 and the like), a speaker unit, and the like.
  • the game apparatus 10 is unlikely to fall over when placed on a table or the like. Also, by making the lower housing 11 gripped by the user heavier than the upper housing 21, a sense of stability when the game apparatus 10 is gripped is increased, and camera shake during shooting can be prevented.
  • the CPU 31 is information processing means for executing various programs (including a startup program and a selected application program described later).
  • various programs are recorded in a built-in memory (for example, the storage data memory 34) and the memory cards 28 and / or 29, and the CPU 31 reads and executes a necessary program.
  • the program executed by the CPU 31 may be recorded in advance in a memory in the game apparatus 10, may be acquired from the memory card 28 and / or 29, or may be acquired by communication with other devices. It may be acquired from the device.
  • the program according to the present invention may be supplied not only to the computer including the game apparatus 10 through an external storage medium such as the memory card 29 but also to the computer through a wired or wireless communication line.
  • the program according to the present invention may be stored in advance in a nonvolatile storage device inside the computer.
  • a computer-readable storage medium for storing such a program a CD-ROM, a DVD, or an optical disk medium similar to them may be used in addition to the nonvolatile storage device described above.
  • a main memory 32, a memory control circuit 33, and a preset data memory 35 are connected to the CPU 31.
  • a storage data memory 34 is connected to the memory control circuit 33.
  • the main memory 32 is a storage means used as a work area or buffer area for the CPU 31. That is, the main memory 32 stores programs read from the outside (memory card 28, other devices, etc.), holds a work memory necessary for executing various processes in a nonvolatile manner, and is necessary for various information processing. Store various data.
  • a PSRAM Pseudo-SRAM
  • the storage data memory 34 is a non-volatile storage means for storing a program executed by the CPU 31, data of an image captured by the camera 23 or 25, and the like.
  • the storage data memory 34 is composed of, for example, a NAND flash memory.
  • the memory control circuit 33 is a circuit that controls reading and writing of data to the storage data memory 34 in accordance with instructions from the CPU 31.
  • the preset data memory 35 is a storage means for storing data (preset data) such as various parameters set in advance in the game apparatus 10.
  • data preset data
  • a flash memory connected to the CPU 31 via an SPI (Serial Peripheral Interface) bus can be used as the preset data memory 35.
  • an image obtained by imaging by the camera 23 or 25 can be selectively stored in the storage data memory 34, the memory card 28, the memory card 29, or the like.
  • the memory card I / F 36 is connected to the CPU 31.
  • the memory card I / F 36 reads and writes data to and from the memory card 28 attached to the connector according to instructions from the CPU 31.
  • image data captured by the cameras 23 and 25 is written to the memory card 28, or image data stored in the memory card 28 is read from the memory card 28 and stored in the storage data memory 34.
  • a music file that is music data stored in the memory card 28 is read from the memory card 28 and stored in the main memory 32 or the storage data memory 34.
  • the cartridge I / F 37 is connected to the CPU 31.
  • the cartridge I / F 37 reads and writes data from and to the memory card 29 attached to the connector according to instructions from the CPU 31.
  • an application program that can be executed by the game apparatus 10 is read from the memory card 29 and executed by the CPU 31, or data (for example, an application) related to the application program (including a selected application program described later).
  • the program is a game program, game save data or the like is written into the memory card 29.
  • the wireless communication module 38 is, for example, IEEE 802.11. It has a function of connecting to a wireless LAN by a method compliant with the b / g standard.
  • the local communication module 39 has a function of performing wireless communication with the same type of game apparatus 10 (or a computer or the like) by a predetermined communication method.
  • the wireless communication module 38 and the local communication module 39 are connected to the CPU 31.
  • the CPU 31 transmits / receives data (data of captured images, application programs, etc.) to / from other devices via the Internet using the wireless communication module 38, or other imaging devices of the same type using the local communication module 39. Data can be sent to and received from the.
  • the RTC 40 and the power supply circuit 41 are connected to the CPU 31.
  • the RTC 40 counts the time and outputs it to the CPU 31.
  • the CPU 31 calculates the current time (date) based on the time counted by the RTC 40.
  • the power supply circuit 41 controls power from a power source (battery; housed in the lower housing 11) of the game apparatus 10 and supplies power to each component of the game apparatus 10.
  • a folding position detection sensor 50 is connected to the CPU 31.
  • the folding position detection sensor 50 detects the angle formed by the lower housing 11 and the upper housing 21 and outputs a determination signal indicating whether the closed state or the open state to the CPU 31 based on the detection result. Specifically, if the angle formed by the lower housing 11 and the upper housing 21 is less than a predetermined threshold value, it is determined as a closed state and a determination signal indicating the closed state is output. On the other hand, if the angle formed by the lower housing 11 and the upper housing 21 is equal to or greater than a predetermined threshold value, the open state is determined and a determination signal indicating the open state is output.
  • the CPU 31 receives a determination signal indicating the closed state output from the folding position detection sensor 50.
  • the CPU 31 when the game apparatus 1 is operating, that is, when music data reproduction processing is being performed, the CPU 31 performs predetermined processing. In response to the detection of the connection with the external output device, the operation of the reproduction process is stopped, and a so-called sleep state in which the data of the operation state is stored is set. For example, display processing other than the reproduction processing is stopped and set to a sleep state regardless of detection of connection with a predetermined external output device.
  • the CPU 31 receives a determination signal indicating an open state output from the folding position detection sensor 50 after the game apparatus 1 enters the sleep state, and then enters the sleep state based on the stored operation state data. Execute the process to return to the original state. With this processing, the function set in the sleep state can be directly set in the active state and operated.
  • the folding position detection sensor 50 detects the angle between the lower housing 11 and the upper housing 21 and outputs a determination signal.
  • the folding position detection sensor 50 detects the open / closed state by magnetic force. It is also possible.
  • the magnetic force generated from a speaker provided in the upper housing can be measured by a sensor for measuring the magnetic force provided in the lower housing, and the open / closed state can be detected by the strength of the magnetic force.
  • the game apparatus 10 includes a microphone 43 and amplifiers 44 and 46.
  • the microphone 43 and the amplifiers 44 and 46 are connected to the I / F circuit 42, respectively.
  • the microphone 43 detects the voice of the user uttered toward the game apparatus 10 and outputs a voice signal indicating the voice to the I / F circuit 42.
  • the amplifier 44 amplifies the audio signal from the I / F circuit 42 and outputs it from the right speaker 45.
  • the amplifier 46 amplifies the audio signal from the I / F circuit 42 and outputs it from the left speaker 47.
  • the I / F circuit 42 is connected to the CPU 31.
  • the game apparatus 10 includes a headphone amplifier 48 and a jack 49. The headphone amplifier 48 and the jack 49 are connected to the I / F circuit 42, respectively.
  • the headphone amplifier 48 amplifies the audio signal from the I / F circuit 42 and outputs it from the headphones via a plug of headphones (not shown) connected to the jack 49.
  • the I / F circuit 42 detects that a mechanical switch is turned on when a headphone plug is inserted into the jack 49, and detects that a headphone plug is inserted into the jack.
  • the I / F circuit 42 controls the output of the audio signal to the audio input control circuit 42 b that receives the input of the audio signal from the microphone 43, and the amplifiers 44 and 46 (the right speaker 45 and the left speaker 47) or the headphone amplifier 48.
  • the audio output control circuit 42c to be performed, the touch panel control circuit 42a to control the touch panel 13, and the amplifiers 44 and 46 (the right speaker 45 and the left speaker 47) or the headphone amplifier 48 (headphone) by the audio output control circuit 42c.
  • An output level detection circuit 42d for detecting the output level of the audio signal to be output and a headphone detection circuit 42e for detecting the wearing of the headphones are included.
  • the audio input control circuit 42b detects the input level of the audio signal from the microphone 43, performs A / D conversion on the audio signal, or converts the audio signal into audio data of a predetermined format.
  • the headphone detection circuit 42e is turned on when a headphone plug is inserted into the jack 49, or becomes electrically conductive when a headphone plug is inserted into the jack 49. This is detected, and it is detected that the headphone plug is inserted into the jack. Then, the detection result is output to the CPU 31, and the CPU 31 receives the signal indicating the detection result from the headphone detection circuit 42e and determines that the headphones are attached. Note that it is only necessary to detect the insertion of the plug of the headphones, and the detection method is not limited.
  • the audio output control circuit 42c When the headphone plug is inserted into the jack and the headphone detection circuit 42e detects the attachment of the headphone, the audio output control circuit 42c outputs an audio signal from the amplifiers 44 and 46 to the headphone amplifier 48 in accordance with an instruction from the CPU 31. While switching the output, the audio signal output to the headphone amplifier 48 is adjusted according to the stereo setting or monaural setting of the output signal. In the present embodiment, only one headphone amplifier 48 is shown in FIG. 18 in this embodiment, but since it is possible to listen to stereo settings with headphones for both ears, it corresponds to each ear. It is assumed that a headphone amplifier is provided.
  • the touch panel 13 is connected to the I / F circuit 42.
  • the touch panel control circuit 42 a generates touch position data in a predetermined format based on a signal from the touch panel 13 and outputs it to the CPU 31.
  • the touch position data indicates the coordinates of the position where the input is performed on the input surface of the touch panel 13.
  • the touch panel control circuit reads signals from the touch panel 13 and generates touch position data at a rate of once per predetermined time.
  • the CPU 31 can know the position where the input has been performed on the touch panel 13 by acquiring the touch position data.
  • the operation button group 14 includes the operation buttons 14A to 14K and is connected to the CPU 31. From the operation button group 14 to the CPU 31, operation data indicating the input status (whether or not it has been pressed) for each of the operation buttons 14A to 14K is output. The CPU 31 executes the process according to the input to the operation button group 14 by acquiring operation data from the operation button group 14.
  • the inner camera 23 and the outer camera 25 are each connected to the CPU 31.
  • the inner camera 23 and the outer camera 25 capture an image in accordance with an instruction from the CPU 31 and output the captured image data to the CPU 31.
  • the CPU 31 issues an imaging instruction to one of the inner camera 23 and the outer camera 25, and the camera that receives the imaging instruction captures an image and sends the image data to the CPU 31.
  • the lower LCD 12 and the upper LCD 22 are connected to the CPU 31, respectively.
  • the lower LCD 12 and the upper LCD 22 display images according to instructions from the CPU 31, respectively.
  • the CPU 31 displays an image acquired from either the inner camera 23 or the outer camera 25 on one of the lower LCD 12 and the upper LCD 22, and displays an operation explanation screen generated by a predetermined process on the lower LCD 12 and the upper LCD 22. Is displayed on the other side.
  • the game apparatus 10 may have a vibration function that vibrates itself.
  • the vibration function is used for the purpose of, for example, notifying the user of some kind (for example, notifying the user of an operation error or a memory capacity over).
  • a device that realizes a vibration function for example, a vibrator such as a vibration motor or a solenoid
  • the vibration can be transmitted to the user's hand holding the game apparatus 10 (lower housing 11).
  • the game apparatus 100 can execute a plurality of application programs as will be described later.
  • the game device 100 has a launcher function so that the user can easily select such a plurality of application programs.
  • the game apparatus 100 can provide a relatively simple shooting function on a screen that provides the launcher function.
  • FIG. 19 is a diagram for explaining a method of starting each application program in the game apparatus 10.
  • the game apparatus 10 selectively activates an application program desired by the user from among a plurality of application programs 53-57. Note that the application programs 53 to 57 that are selectively activated in the game apparatus 10 are also referred to as selected application programs.
  • the plurality of selected application programs include a photographing application program 53.
  • the shooting application program 53 is an application program for shooting with the camera 23 or 25.
  • the photographing application program 53 is typically stored in advance (preinstalled) in the game apparatus 10.
  • the plurality of selected application programs include application programs having various functions in addition to the shooting application program 53. 19, for example, a setting application program 54 for performing various settings of the game apparatus 10, a communication application program 55 for allowing the game apparatus 10 to communicate with an external device, and a game application program 56 for performing a predetermined game. , And a sound application program 57 for performing music reproduction, voice recording, and the like.
  • the photographing application program 53 and the communication application program 55 are configured as an integrated program.
  • various selected application programs may be stored.
  • the selected application programs may not be preinstalled in the game apparatus 10.
  • the selected application program may be downloaded from another device via a network such as the Internet, or may be downloaded from the removable storage medium such as the memory card 28 or the memory card 29. It may be read into internal memory.
  • the process of selectively starting these selected application programs 53 to 57 is executed by the start function program 51.
  • the activation function program 51 is a program for selecting a selected application program to be activated from a plurality of selected application programs 53 to 57. That is, the activation function program 51 is a program called a so-called launcher.
  • the activation function program 51 is one of the programs included in the activation program according to the present embodiment (the activation program 61 shown in FIG. 20).
  • the selected application programs 53 to 57 are targets of a selection operation that can be performed by the user by executing the activation function program 51, and are executed by being selected by the selection operation.
  • the game apparatus 10 has, as control structures, (a) first activation operation accepting means, (b) first activation means, (c) photographing processing means, (d) photographable operation accepting means, (e) A photographing operation receiving means, (f) a second starting operation receiving means, and (g) a second starting means.
  • these means are realized by causing a program (startup program 61) executed by the computer (CPU 31) of the game apparatus 10 to function as the means.
  • the first activation operation accepting means accepts a first activation operation for selectively activating the plurality of application programs (steps SA6 and SA11 described later). Thereby, the user can select and start a selected application program to be started (executed). Since the first activation operation is an operation for selectively activating the selected application program, the first activation operation is also referred to as “selective activation operation” below.
  • the state in which the first activation operation is accepted (the first activation operation is possible) is also referred to as “activation acceptance state” (FIG. 19).
  • (B) First starting means When the first starting operation is performed, the first starting means starts the application program selected by the first starting operation among the plurality of application programs (step SA12 described later). ). That is, for example, when the photographing application program 53 is selected by the first activation operation, the photographing application program 53 is activated.
  • the activation acceptance state corresponds to a state in which a so-called menu screen is displayed, and is activated first after the game apparatus 10 is activated (except when it is activated for the first time) (the power is turned on). It will be in the acceptance state.
  • a menu screen (FIG. 23) displaying icons representing the selected application programs 53 to 57 is displayed on the lower LCD 12 in the activation acceptance state. The user can activate the selected application program by performing an operation on the touch panel 13 to touch the position of the icon as the first activation operation.
  • Imaging processing means executes imaging processing (step SA10 described later).
  • the imaging process is a process of saving an image captured by the camera 23 or 25 in a storage unit of the information processing apparatus in accordance with a predetermined imaging operation.
  • the photographing operation is an operation of pressing a predetermined button (more specifically, the L button 14I or the R button 14J).
  • the photographing processing means is means realized by the activation program 61 according to the present invention being executed by the CPU 31 of the game apparatus 10 and is different from the means realized by the photographing application program 53.
  • the photographing processing unit only needs to have at least a function of performing a photographing process (a function of saving an image captured by the camera 23 or 25 in the storage unit of the game apparatus 10), but other functions related to photographing (for example, , A function for displaying or editing a stored image).
  • the activation program 61 according to the present invention includes a shooting function program 52 shown in FIG.
  • the photographing processing means is realized by the photographing function program 52 being executed by the CPU 31 of the game apparatus 10. That is, the game apparatus 10 according to the present embodiment stores two types of programs for performing shooting processing, that is, the shooting function program 52 and the shooting application program 53.
  • the startup program 61 includes two types of programs, that is, a startup function program 51 and a shooting function program 52.
  • the startup function program 51 and the shooting function program 52 are integrated programs. Also good.
  • the startup program 61 (the startup function program 51 and the shooting function program 52) is preinstalled in the game apparatus 10.
  • the function of the photographing processing means is different from the function that is enabled by executing the photographing application program 53.
  • the photographing processing means has only a part of the functions of the photographing application program 53.
  • the photographing processing unit may have a function that the photographing application program 53 does not have.
  • the photographable operation accepting means accepts a photographable operation for setting the photographable state (the state of the game apparatus 10) in the activation acceptance state (steps SA6 and SA9 described later).
  • the shootable state is a state in which a shooting process by the shooting processing unit according to the shooting operation is possible (a state in which a shooting enabled operation is accepted). That is, in the activation acceptance state, the user can activate the selected application programs 53 to 57 by the first activation operation, and can activate the photographing function by the photographing processing means by the photographing enable operation (FIG. 19).
  • the photographing enabled operation is an operation of pressing a predetermined button (more specifically, the L button 14I or the R button 14J).
  • the photographing enabled operation is an operation having a different operation method from the first activation operation.
  • the first activation operation is an input operation on the touch panel 13, while the photographing enabled operation is a predetermined button (more specifically, the L button 14I or the R button 14J). Is an operation of pressing.
  • the operation method is different means not only that the input device to be operated is different but also the meaning that the operation performed on the same input device is different.
  • the first activation operation and the shootable operation may be an operation of touching different positions on the touch panel 13 or an operation of inputting different trajectories to the touch panel 13.
  • an operation of pressing a different button may be used.
  • the shootable operation is simple, such as an operation of simply pressing a predetermined button, so that the shooting function (starting of the shooting function program 52) can be easily and quickly performed by the shooting processing means. It is preferable that the operation is simple.
  • the shooting operation receiving unit receives a shooting operation when the above-described shooting-capable operation is performed (steps SA24 and SA25 described later). That is, when an operation capable of shooting is performed, the state of the game apparatus 10 becomes a shooting enabled state (FIG. 19). In this manner, the user can take a picture (perform the game apparatus 10 to perform a shooting process) by performing a shooting operation after performing a shooting enabled operation.
  • the activation acceptance state and the photographing enabled state are in an exclusive relationship, and the game apparatus 10 alternatively takes one of the activation acceptance state and the photographing enabled state. To do. That is, in the activation accepting state, the photographing operation (in the photographing enabled state) is not accepted, and in the photographing capable state, the first activation operation (in the activation accepting state) is not accepted.
  • the activation acceptance state and the photographing enabled state do not have to be exclusive, and the game apparatus 10 is in the activation acceptance state and is in the photographing enabled state. It may be possible to take For example, the game apparatus 10 may accept the first activation operation in the photographing enabled state.
  • (F) Second activation operation accepting means accepts a second activation operation for activating the imaging application program 53 in the above-described imaging enabled state (steps SA24 and SA29 described later). Therefore, in the photographing enabled state, the user can perform the second activation operation in addition to the photographing operation.
  • the second activation operation is an operation for directly activating the imaging application program 53 from the imaging enabled state without returning to the activation accepting state, and therefore the second activation operation is also referred to as a “shortcut activation operation” below.
  • an image captured by the camera 23 or 24 is displayed on the lower LCD 12 and a button image for performing the second activation operation (button image 78 shown in FIG. 24) in the photographing enabled state.
  • a button image for performing the second activation operation is displayed on the lower LCD 12 (FIG. 24).
  • the user can perform the second activation operation by touching the button image.
  • the second activation operation is preferably a simple operation so that the imaging application program 53 can be activated easily and quickly.
  • (G) Second activation means The second activation means activates the photographing application program 53 when the second activation operation is performed (step SA30 described later). In this way, the user can start the shooting application program 53 both in the start accepting state and in the shooting enabled state.
  • the imaging application program 53 is activated (executed) both by the first activation operation in the activation acceptance state and by the second activation operation in the imaging enabled state.
  • the user in the activation accepting state, the user can activate the selected application programs 53 to 57 by the selective activation operation (first activation operation), and can also perform the imaging by the photographing enable operation.
  • the photographing function by the processing means can be executed.
  • the photographing application program 53 in a state where photographing is possible with the photographing function, the photographing application program 53 can be activated by a shortcut activation operation (second activation operation). Therefore, the user can start the shooting application program 53 easily and quickly by a shortcut start operation even during shooting by the shooting processing means. That is, according to the present embodiment, even when the user wants to use a function (of the shooting application program 53) that is not provided in the shooting processing unit during shooting by the shooting processing unit, the user can activate the shortcut.
  • the function can be used easily and quickly by operation.
  • FIG. 20 is a diagram showing main data stored in the main memory 32 of the game apparatus 10. As shown in FIG. 20, the main memory 32 is provided with a program storage area 60 and a data storage area 64.
  • various programs executed by the CPU 31 are stored. Specifically, a startup program 61, a photographing application program 53, and other selected application programs 62 are stored. These programs are read from the storage data memory 34, the memory card 28, or the memory card 29 and stored in the main memory 32 at an appropriate timing after the game device 10 is started (for example, when the program is started). Is done.
  • the startup program 61 is a program for performing main processing in the game apparatus 10.
  • the activation program 61 is read into the main memory and executed after the game apparatus 10 is activated.
  • the startup program 61 includes the startup function program 51 and the shooting function program 52.
  • the activation function program 51 is a program for selecting a selected application program to be activated as described above.
  • the photographing function program 52 is not a selected application program but a program for performing photographing processing.
  • the shooting function program 52 has only a part of the functions of the shooting application program 53.
  • the shooting function program 52 is a shooting process program with a relatively simple function
  • the shooting application program 53 is a relatively multi-functional shooting process program.
  • the data size of the shooting function program 52 is smaller than the data size of the shooting application program 53. Since the programs 52 and 53 have a common function, a part of the data may be stored in common.
  • the shooting function program 52 that is a relatively simple function is also referred to as a “simple shooting program 52”
  • the relatively multifunctional shooting application program 53 is also referred to as a “multifunctional shooting application program 53”.
  • (relatively) simple function includes both (relatively) less functions and (relatively) less functioning.
  • “(relatively) multi-functional” includes (relatively) many functions as well as (relatively) high functions. That is, while the simple shooting program 52 has a relatively low function (for example, shooting with a low number of pixels, and few types of stamps that can be used when editing a captured image).
  • the multi-function shooting application program 53 may have a relatively high function (for example, shooting with a high number of pixels, or many types of stamps that can be used when editing a captured image). .
  • the simple shooting program 52 has a relatively small function (for example, adjustment of exposure and white balance is impossible, and a predetermined editing operation cannot be performed on a captured image).
  • 53 may be relatively multifunctional (for example, exposure and white balance can be adjusted, and a predetermined editing operation can be performed on a captured image).
  • the other selected application programs 62 are selected application programs other than the multi-function photographing application program 53, and the setting application program 54, the communication application program 55, the game application program 56, and the music playback and sound described above.
  • a sound application program 57 for recording is included.
  • the selected application program (including the multi-function photographing application program 53) is stored in the storage data memory 34 or the memory card 28, and is read into the main memory 32 when the program is activated. Note that the selected application program may be stored in the storage data memory 34 by being acquired (downloaded) by communication from an external device.
  • the data storage area 64 stores various data used for processing in the game apparatus 10.
  • Display image data 65 is data indicating a display image.
  • the display image data 65 represents a file name of the display image.
  • the setting data 66 is data indicating setting information used in each program for photographing (the simple photographing program 52 and the multi-function photographing application program 53).
  • the setting data 66 is passed as an argument to each of the programs 52 and 53 when the programs 52 and 53 for shooting are started.
  • the setting data 66 includes camera switching data 67 and storage destination data 68.
  • the camera switching data 67 indicates a camera that performs imaging among the inner camera 23 and the outer camera 25. That is, the camera switching data 67 is data indicating either the inner camera 23 or the outer camera 25.
  • the storage destination data 68 indicates a storage destination of a captured image (referred to as a stored image) stored (stored) by a shooting operation.
  • the captured image saved (stored) by the shooting operation is saved in the saving data memory 34 or the memory card 28. Accordingly, the storage destination data 68 indicates either the storage data memory 34 or the memory card 28.
  • the user can set some of the stored images as “favorites” (step SA46 described later).
  • the stored image set as a favorite is referred to as a “favorite image”.
  • Information indicating that it is “favorite” is added to the favorite image data.
  • information indicating any one of the first to third groups is added to the favorite image data. That is, in the present embodiment, favorite images can be managed by being divided into three groups of first to third groups (FIG. 29).
  • FIG. 21 is a main flowchart showing the flow of launcher processing in the game apparatus 10.
  • the CPU 31 of the game apparatus 10 starts executing the startup program 61 after initializing the main memory 32 and the like.
  • the processing of subsequent steps SA1 to SA13 is started.
  • step SA1 the CPU 31 determines whether or not the game apparatus 10 has been activated for the first time.
  • the determination in step SA1 can be performed by storing the date and time when the game apparatus 10 was last activated, for example. That is, if the date and time of the last activation are stored, it can be determined that the current activation of the game apparatus 10 is not the first activation, while the date and time of the last activation is not stored. It can be determined that the game apparatus 10 is activated for the first time.
  • step SA1 determines whether the determination result in step SA1 is Yes. If the determination result in step SA1 is Yes, the process in step SA2 is executed. On the other hand, if the determination result of step SA1 is No, the process of step SA2 is skipped and the process of step SA3 is executed.
  • step SA2 the CPU 31 executes a shooting guidance process.
  • the shooting guidance process is a process for guiding the user to experience a shooting operation with a simple function. That is, in the shooting guidance process, when the user selects whether to perform the shooting process using the simple shooting program 52 and the user selects to perform the shooting process, the simple shooting program 52 performs a simple process. Let users experience shooting operations.
  • the imaging guidance process will be described in detail later with reference to FIG.
  • the CPU 31 executes the process of step SA3 after step SA2.
  • step SA3 the CPU 31 randomly selects a display image from the favorite images. Specifically, the CPU 31 randomly selects one of the favorite images stored in the storage data memory 34 and displays data indicating information (for example, a file name) for specifying the selected favorite image.
  • the image data 65 is stored in the main memory 32.
  • step SA4 the process of step SA4 is executed.
  • step SA4 the CPU 31 activates the activation function program 51. That is, the CPU 31 reads the activation function program 51 from the storage data memory 34, stores it in the main memory 32, and executes the activation function program 51.
  • the processing after step SA5 is performed by the CPU 31 executing the activation function program 51.
  • the CPU 31 reads the simple photographing program 52 into the main memory 32 together with the activation function program 51 at the timing when the activation function program 51 is read.
  • the simple photographing program 52 may be read into the main memory 32 at a timing when a simple photographing process (step SA11) described later is executed. Following step SA4, the process of step SA5 is executed.
  • step SA5 the CPU 31 displays a menu screen.
  • the menu screen is a screen (image) for allowing the user to select a selected application program to be activated from the selected application programs.
  • the activation acceptance state shown in FIG. 19 is a state in which this menu screen is displayed.
  • the menu screen in the present embodiment will be described with reference to FIG.
  • FIG. 23 is a diagram showing an example of a menu screen. As shown in FIG. 23, in step SA5, an image for causing the user to select a selected application program to be started is displayed on the lower LCD 12. Specifically, icon images 71a to 71c, a scroll bar 72, a marker 73, and scroll buttons 74a and 74b are displayed on the lower LCD 12.
  • the icon image 71 is an image representing the selected application program.
  • the icon image 71 is an icon for starting an application program in the memory card 29. If the memory card 29 is not installed, an icon indicating that the card is not installed is displayed together with a message “Card is not installed”.
  • the user can activate the selected application program represented by the touched icon image by performing an operation of touching the icon image 71 displayed in the center of the screen (in the horizontal direction) as the first activation operation. it can.
  • a predetermined number of icon images (four icon images in FIG. 23) among the icon images corresponding to each of the plurality of application programs are displayed on the screen.
  • the displayed icon image (type) is changed according to the operation of scrolling the screen. That is, an icon image representing a selected application program other than the currently selected selected application program is not displayed in FIG. 23, but is displayed by scrolling the screen of lower LCD 12.
  • Scrolling the screen of the lower LCD 12 can be performed by touching an icon image other than the icon image displayed at the center of the screen, or touching the marker 73 or the scroll button 74a or 74b. That is, when the user touches an icon image other than the icon image displayed at the center of the screen (the icon image 71a or 71c in FIG. 23), the screen of the lower LCD 12 scrolls and the touched icon image is displayed on the screen. Displayed in the center.
  • the user can move the marker 73 on the scroll bar 72 by moving the touch position left and right on the scroll bar 72 while touching the marker 73, and the screen of the lower LCD 12 can be moved to the marker. It can be scrolled according to the movement of 73.
  • the screen of the lower LCD 12 can be scrolled to the left by touching the scroll button 74a on the left side of the scroll bar 72, and the operation of the lower LCD 12 can be scrolled by touching the scroll button 74b on the right side of the scroll bar 72.
  • the screen can be scrolled to the right.
  • the user can change the icon image displayed at the center of the screen and touch the icon image displayed at the center of the screen by scrolling the screen while the menu screen is displayed.
  • the selected application program represented by the icon image can be activated by the operation.
  • not all of the plurality of selected application programs are displayed at the same time, but a part of the plurality of selected application programs is displayed in a list, and the remaining portions are displayed by replacement by scrolling or the like. I tried to do it.
  • all of the plurality of selected application programs may be displayed simultaneously.
  • the selected application programs (its icon images) displayed as a list may be displayed in a line as in the present embodiment, or may be displayed in a matrix of 2 ⁇ 2 or more.
  • step SA5 the upper LCD 22 displays a display image 75 and shooting button images 76a and 76b.
  • the display image 75 is a saved image indicated by the display image data 65 stored in the main memory 32, and is an image selected in step SA3 or the like.
  • images captured in the past are displayed on the menu screen.
  • step SA3 since the display image 75 is selected at random, the user cannot designate any image as the display image 75 from among the images stored in the storage data memory 34.
  • the multi-function shooting application program 53 has a favorite image setting function, but the activation function program and the simple shooting program 52 do not have a favorite image setting function.
  • the photographing button images 76a and 76b are images representing an operation for making a transition to a state where photographing can be performed by the simple photographing program 52 (the photographing possible state shown in FIG. 19), that is, the photographing-capable operation. .
  • the simple photographing program can be performed from the menu screen (without selecting the selected application program). It is possible to present to the user in an easy-to-understand manner that shooting can be performed by the user 52.
  • the photographing enabled operation is an operation of pressing the L button 14I or the R button 14J. Therefore, the user can enter a state where photographing can be performed by the simple photographing program 52 only by pressing the button (L button 14I or R button 14J) once in the activation acceptance state.
  • the menu screen is displayed first after the game apparatus 10 is activated, except at the first activation (in the case of Yes in step SA1). That is, in the present embodiment, the game apparatus 10 sets the initial state after the game apparatus 10 is activated to the activation acceptance state. Therefore, the user can start the simple photographing program 52 immediately after starting.
  • step SA6 the process of step SA6 is executed after step SA5.
  • the CPU 31 receives an input to each input device. That is, operation data is acquired from the operation button group 14 and input position data is acquired from the touch panel 13. The acquired operation data and input position data are stored in the main memory 32.
  • the process of step SA6 is executed once every predetermined time (for example, one frame time (1/60 seconds)).
  • step SA7 the process of step SA7 is executed.
  • step SA7 the CPU 31 determines whether or not an operation for scrolling the screen of the lower LCD 12 has been performed.
  • the determination in step SA7 can be made by referring to the input position data stored in the main memory 32 in step SA6. That is, in the determination process of step SA7, the CPU 31 determines whether or not an input for touching the marker 73 or the area where the scroll button 74a or 74b is displayed has been performed.
  • step SA7 If the determination result in step SA7 is Yes, the process in step SA8 is executed. On the other hand, when the determination result of step SA7 is No, a process of step SA9 described later is executed.
  • step SA8 the CPU 31 scrolls the icon image display (the screen of the lower LCD 12). That is, when touch input is performed on the scroll button 74a, the icon image is scrolled to the left, and when touch input is performed on the scroll button 74b, the icon image is scrolled to the right. Thereby, an icon image that has not been displayed so far can be displayed on the screen of the lower LCD 12.
  • step SA8 the process of step SA5 is executed again.
  • step SA9 the CPU 31 determines whether or not a photographing enabled operation has been performed.
  • the determination at step SA9 can be made by referring to the operation data stored in the main memory 32 at step SA6. That is, in the determination process in step SA9, the CPU 31 determines whether or not the L button 14I or the R button 14J is pressed.
  • step SA9 If the determination result in step SA9 is Yes, the process in step SA10 is executed. On the other hand, when the determination result of step SA9 is No, the process of step SA11 described later is executed.
  • step SA10 the CPU 31 executes a simple photographing process.
  • the simple photographing process is a process for causing the user to perform photographing with a simple function by the simple photographing program 52.
  • the details of the simple photographing process will be described with reference to FIG.
  • FIG. 22 is a flowchart showing the flow of the simple photographing process (step SA10) shown in FIG.
  • step SA21 the CPU 31 activates the simple photographing program 52.
  • the simple shooting program 52 is read into the main memory 32 together with the activation function program 51, the CPU 31 starts executing the simple shooting program 52.
  • the data 67 and 68 included in the setting data 66 stored in the main memory 32 are input (set) to the simple photographing program 52 as arguments.
  • the processes in steps SA22 to SA29 after step SA21 are performed using the simple photographing program 52 (by executing the simple photographing program 52).
  • step SA22 the CPU 31 acquires data of an image captured by the inner camera 23 or the outer camera 25.
  • an image is captured only by one of the cameras 23 and 25, and the CPU 31 acquires image data only from the one camera. Note that which of the cameras 23 and 25 is used for imaging is determined according to the contents of the camera switching data 67 passed as an argument when the simple photographing program 52 is started (step SA21).
  • step SA23 the process of step SA23 is executed.
  • step SA23 the CPU 31 performs display processing.
  • step SA23 which is a photographing enabled state, an image captured by the camera 23 or 24 is displayed.
  • an image displayed in the photographing enabled state will be described with reference to FIG.
  • FIG. 24 is a diagram illustrating an example of an image displayed in a shootable state.
  • step SA23 the captured image 77 obtained by the camera 23 or 24 acquired in step SA22 is displayed on the lower LCD 12.
  • Steps SA22 and SA23 are repeatedly executed at a rate of once every predetermined time (for example, 1/60 seconds).
  • a real-time image captured by the camera 23 or 24 is displayed on the lower LCD 12.
  • the real-time image may be displayed on the upper LCD 22.
  • an image saved by the photographing operation may be further displayed on the lower LCD 12.
  • a button image 78 for performing an operation for executing the multi-function photographing application program 53 (second activation operation described above) is displayed.
  • the button image 78 is fixedly displayed at a predetermined position on the screen (the upper right position in FIG. 24).
  • the display image 75 and the shooting button images 76a and 76b are displayed on the upper LCD 22 as in FIG.
  • the shooting operation is an operation of pressing the L button 14I or the R button 14J, similar to the shooting enabled operation (see the shooting button images 76a and 76b shown in FIG. 24).
  • the shooting operation may not be the same as the shooting enabled operation.
  • a button image for performing a shooting operation is displayed on the lower LCD 12, and an operation of touching the button image is shot. It is good also as operation.
  • the game apparatus 10 may accept both an operation of pressing the L button 14I or the R button 14J and an operation of touching the button image as shooting operations.
  • step SA24 the CPU 31 receives an input to each input device.
  • the process at step SA24 is the same as the process at step SA6.
  • step SA25 the process of step SA25 is executed.
  • step SA25 the CPU 31 determines whether or not a photographing operation has been performed.
  • the determination at step SA25 can be made by referring to the operation data stored in the main memory 32 at step SA24.
  • the process in step SA25 can be performed in the same manner as in step SA9.
  • step SA25 If the determination result in step SA25 is Yes, the process in step SA26 is executed. On the other hand, when the determination result of step SA25 is No, a process of step SA29 described later is executed.
  • FIG. 25 is a diagram illustrating an example of an image displayed after a shooting operation is performed.
  • the captured image 77 acquired by step SA22 is displayed on the lower LCD 12 as the captured image 77 by the camera 23 or 24.
  • the lower LCD 12 has an operation for saving the captured image.
  • a button image for performing the operation (“hozon”) and a button image for performing an operation for performing the photographing again (“retry”) are displayed.
  • step SA26 the CPU 31 determines whether or not a save operation has been performed. The determination in step SA26 can be made by referring to the operation data stored in the main memory 32 in step SA24, as in step SA25.
  • step SA26 If the determination result in step SA26 is Yes (if “touch” in FIG. 25 is touched), the process in step SA27 is executed. On the other hand, when the determination result of step SA26 is No (when “retry” in FIG. 25 is touched), the process of step SA22 described above is executed again. The determination at step SA26 may be omitted, and the process may move to step SA27 after step SA25.
  • step SA27 the CPU 31 stores the captured image. That is, the captured image acquired in step SA22 is stored (stored) in the storage data memory 34 or the memory card 28.
  • the storage location of the captured image is determined according to the content of the storage location data 68 passed as an argument when the simple imaging program 52 is started (step SA21). Note that the storage location of the captured image can be changed by the user in the multi-function shooting process by the multi-function shooting application program 53 described later.
  • step SA28 the process of step SA28 is executed.
  • step SA28 the CPU 31 selects the saved image saved in the previous step SA27 as the display image. Specifically, the CPU 31 stores data indicating the saved image saved in the immediately preceding step SA 27 in the main memory 32 as display image data 65. After the process of step SA28, the CPU 31 ends the execution of the simple shooting program 52 and ends the simple shooting process. Thereafter, the process of step SA4 shown in FIG. 21 is executed again.
  • FIG. 26 is a diagram illustrating an example of an image displayed after execution of the simple photographing process.
  • the captured image acquired in the simple photographing process is displayed on the upper LCD 22 as a new display image 75. That is, when the image shown in FIG. 22 is compared with the image shown in FIG. 26, it can be seen that the display image displayed on the upper LCD 22 is updated.
  • the simple shooting process in response to a shooting operation being performed in the shooting enabled state (simple shooting process), the simple shooting process ends and the state shifts from the shooting enabled state to the activation acceptance state. That is, when one captured image is stored in the simple shooting process, the screen display of the game apparatus 10 returns to the menu screen, so even a novice user who has not seen the manual or the like naturally enters the start acceptance state. It is possible to return (after step SA25, when the process proceeds to step SA27, the screen returns to the menu screen when the user performs one shooting operation in the simple shooting process).
  • the transition from the start acceptance state to the photographing ready state and the transition from the photographable state to the start acceptance state are performed by the same operation. be able to. Therefore, even if the user accidentally presses the L button 14I or the R button 14J or presses the button without understanding the operation, the user is not changed. If the button is pressed, the original state (starting acceptance state) can be restored. Therefore, it is possible to provide the game apparatus 10 that is easy for a novice user to operate.
  • the state of the game apparatus 10 transitions to the activation acceptance state. Therefore, the image stored in the process of step SA26 is a simple shooting. Without being displayed by the program 52, a transition to the activation acceptance state occurs. Therefore, in the present embodiment, in the process of step SA27, the CPU 31 sets the image stored in the process of step SA26 as the display image after transitioning to the activation acceptance state. Thereby, the stored image photographed by the simple photographing program 52 is displayed as a display image immediately after the transition to the activation acceptance state. Therefore, according to the present embodiment, although the transition to the activation acceptance state is performed when the photographing operation is performed, the user can immediately confirm the image photographed by the simple photographing program 52.
  • step SA29 the CPU 31 determines whether or not the second activation operation has been performed.
  • the determination in step SA29 can be made by referring to the input position data stored in the main memory 32 in step SA24. That is, in the determination process of step SA29, the CPU 31 determines whether or not an input for touching an area where the button image 78 for performing the second activation operation is displayed has been performed. If the decision result in the step SA29 is Yes, a multi-function shooting process (FIG. 30) described later is executed. On the other hand, when the determination result of step SA29 is No, the process of step SA22 is executed again. Above, description of the simple imaging
  • step SA11 the CPU 31 determines whether or not the first activation operation has been performed.
  • the determination at step SA11 can be made by referring to the input position data stored in the main memory 32 at step SA6. That is, in the determination process in step SA11, the CPU 31 determines whether or not an input for touching an area where an icon image is displayed has been performed. If the determination result of step SA11 is Yes, the process of step SA12 is executed. On the other hand, when the determination result of step SA11 is No, the process of step SA13 described later is executed.
  • step SA12 the CPU 31 performs execution processing of the selected application program. That is, the selected application program corresponding to the icon image selected by the first activation operation is read into the main memory 32 and the selected application program is executed. Thereby, the selected application program is started, and the user can use the selected application program.
  • the process of step SA12 ends when the selected application program ends, and the process of step SA3 is executed again after step SA12.
  • FIG. 30 is a flowchart showing a flow of processing (multifunctional photographing processing) by the multifunction photographing application program 53.
  • step SA30 the CPU 31 activates the multi-function shooting application program 53. That is, the multi-function photographing application program 53 is read into the main memory 32 and execution is started. At this time, the data 67 and 68 included in the setting data 66 stored in the main memory 32 are input (set) to the simple photographing program 52 as arguments.
  • step SA31 the process of step SA31 is executed. The processes of steps SA31 to SA39 after step SA30 are performed using the multi-function shooting application program 53 (by executing the multi-function shooting application program 53).
  • step SA31 the CPU 31 performs display processing.
  • a shooting mode in which shooting is performed using an imaging unit
  • a photo display mode in which images (stored images) shot in the past are displayed.
  • the display process of step SA31 in order to set an image for allowing the user to select two modes (photo display mode and shooting mode) in the multi-function shooting process, and a save destination of the captured image saved by the shooting operation.
  • two modes photo display mode and shooting mode
  • a save destination of the captured image saved by the shooting operation are displayed on at least one of the two LCDs 12 and 22.
  • FIG. 31 is a diagram showing an example of an image displayed in the multi-function shooting process.
  • a button image 101 for instructing selection of a shooting mode and a button image 102 for instructing selection of a photo display mode are displayed on the lower LCD 12, respectively.
  • the button image 101 includes a display of the number of images that can be captured (for example, the remaining OO images) according to the remaining capacity of the storage location of the current captured image.
  • the button image 102 includes a display of the number of stored captured images (for example, a total of OO) at the storage destination of the current captured image.
  • button images 103 and 104 for instructing to change the storage destination of the captured image are also displayed on the lower LCD 12.
  • the built-in nonvolatile memory built-in memory; storage data memory 34
  • a removable memory card card memory; memory card 28
  • the display mode of the button image 103 changes.
  • the display mode of the button image 104 changes.
  • the mode is switched to the photographing mode or the photo display mode at the timing of the touch.
  • the user when the multi-function photographing application is activated, the user can select either the built-in memory or the card memory, and the selection is not confirmed at the timing of the selection.
  • the user can select either the shooting mode or the photo display mode on the same screen. Then, at the timing when the shooting mode and the photo display mode are selected, the selection of the built-in memory and the card memory is confirmed, and the mode shifts to the shooting mode or the photo display mode. That is, when the shooting mode is selected while the built-in memory is selected, the shooting mode is activated, and an image shot in the subsequent shooting mode is stored in the built-in memory.
  • the shooting mode is activated, and images shot in the subsequent shooting mode are stored in the card memory.
  • the photo display mode is activated, and the captured image stored in the internal memory is displayed in the subsequent photo display mode. Further, when the photo display mode is selected while the card memory is selected, the photo display mode is activated, and the captured image stored in the card memory in the subsequent photo display mode is displayed.
  • the end button 105 is a button image for performing an operation to end the multi-function shooting process. That is, when a touch input is made to the end button 105, the multi-function shooting process ends, and the process by the CPU 31 returns to the process of step SA4.
  • the calendar button 106 is a button image for performing an operation for starting a calendar function described later. That is, when a touch input is made to the calendar button 106, a calendar function described later is executed.
  • the other button 107 is a button image for performing various settings.
  • step SA32 the CPU 31 receives an input to each input device.
  • the process at step SA32 is the same as the process at step SA6.
  • step SA33 the process of step SA33 is executed.
  • step SA33 the CPU 31 determines whether or not the photo display mode is selected.
  • the determination in step SA33 can be made by referring to the input position data stored in the main memory 32 in step SA32. That is, in the determination process of step SA33, as shown in FIG. 31, the CPU 31 determines whether or not an input for touching an area where the image 102 representing the photo display mode is displayed has been performed.
  • step SA33 If the determination result in step SA33 is Yes, the process in step SA34 is executed. On the other hand, when the determination result of step SA33 is No, a process of step SA35 described later is executed.
  • step SA34 the CPU 31 executes processing to be executed in the photo display mode (photo display mode processing). Details of the photo display mode process will be described below with reference to FIG.
  • FIG. 32 is a flowchart showing the flow of the photo display mode process (step SA34) shown in FIG.
  • step SA41 the CPU 31 performs a display process.
  • step SA41 in the photo display mode a saved image taken in the past is displayed.
  • FIG. 33 an image displayed in the photo display mode will be described.
  • FIG. 33 is a diagram showing an example of an image displayed in the photograph display mode. As shown in FIG. 33, in step SA41, a plurality (three in the figure) of stored images 181 to 183, a cursor 184, scroll buttons 185 and 186, a setting button 187, and an end button 188 are arranged on the lower side. It is displayed on the LCD 12.
  • saved images 181 to 183 are (part of) saved images saved in the saving data memory 34 or the memory card 28.
  • a saved image 182 surrounded by the cursor 184 is an image currently selected by the cursor 184.
  • the scroll buttons 185 and 186 are buttons for scrolling the stored images 181 to 183 to the left and right. That is, when touch input is performed on the scroll button 185 on the right side of the screen, the stored images 181 to 183 scroll to the right side, and when touch input is performed on the scroll button 186 on the left side of the screen, the stored image 181 is displayed. ⁇ 183 scrolls to the left. As a result of the scrolling of the saved image to the left and right, the saved image displayed on the lower LCD 12 is changed and the saved image selected by the cursor 184 is changed.
  • the captured image saved in either the simple shooting process or the multi-function shooting process is displayed.
  • both the saved image saved in the simple shooting process and the saved image saved in the multi-function shooting process are saved without distinction.
  • the file name of the file name of the saved image data file for example, the date and time of shooting, the total number of images shot by the game apparatus 10, etc.
  • Appendix is the same.
  • the setting button 187 is a button image for performing an operation for newly setting a saved image selected by the cursor 184 as a favorite image. That is, when a touch input is made to the setting button 187, the saved image selected by the cursor 184 is set as a favorite image.
  • the end button 188 is a button image for performing an operation to end the photo display mode. That is, when a touch input is made to the end button 188, the photo display mode ends, and the process by the CPU 31 returns to the process of step SA31.
  • step SA41 some information may be displayed on the upper LCD 22 or may not be displayed.
  • the CPU 31 displays the saved image selected by the cursor 184 on the upper LCD 22.
  • step SA42 the process of step SA42 is executed after step SA41.
  • step SA42 the CPU 31 receives an input to each input device.
  • the process of step SA42 is the same as the process of step SA6.
  • step SA43 the process of step SA43 is executed.
  • step SA43 the CPU 31 determines whether or not an operation for scrolling the stored image displayed on the lower LCD 12 has been performed.
  • the determination in step SA43 can be made by referring to the input position data stored in the main memory 32 in step SA42. That is, in the determination process of step SA43, the CPU 31 determines whether or not an input for touching the area where the scroll button 185 or 186 is displayed has been performed.
  • step SA43 If the determination result in step SA43 is Yes, the process in step SA44 is executed. On the other hand, when the determination result of step SA43 is No, a process of step SA45 described later is executed.
  • step SA44 the CPU 31 scrolls the stored image displayed on the lower LCD 12. That is, when a touch input is made to the scroll button 185, the saved image is scrolled to the right, and when a touch input is made to the scroll button 186, the saved image is scrolled to the left. As a result, the saved image that has not been displayed so far is displayed on the screen of the lower LCD 12. Following step SA44, the process of step SA41 is executed again.
  • step SA45 the CPU 31 determines whether or not an operation for setting a saved image as a favorite image has been performed.
  • the determination in step SA45 can be made by referring to the input position data stored in the main memory 32 in step SA42. That is, in the determination process in step SA45, the CPU 31 determines whether or not an input for touching the area where the setting button 187 is displayed has been performed. If the determination result of step SA45 is Yes, the process of step SA46 is executed. On the other hand, when the determination result of step SA45 is No, the process of step SA41 is executed again.
  • step SA46 the CPU 31 sets the saved image currently selected by the cursor 184 as a favorite image. Specifically, information indicating that the image is a favorite image is added to the data of the stored image stored in the storage data memory 34 or the memory card 28. Further, in the present embodiment, the CPU 31 causes the user to select which of the first group to the third group to set the stored image in step SA46. Therefore, information indicating the group selected by the user among the first to third groups is added to the data of the stored image.
  • step SA47 the process of step SA47 is executed.
  • step SA47 the CPU 31 determines whether or not to end the photo display mode.
  • the determination in step SA47 can be made by referring to the input position data stored in the main memory 32 in step SA42. That is, in the determination process in step SA47, the CPU 31 determines whether or not an input for touching the area where the end button 188 is displayed has been performed. If the determination result in step SA47 is Yes, the CPU 31 ends the photo display mode process shown in FIG. On the other hand, if the determination result of step SA47 is No, the process of step SA41 is executed again.
  • the user can browse saved images taken in the past and set the saved images as favorite images.
  • the display image (display image 75 shown in FIG. 23) displayed on the menu screen is selected from the favorite images. Therefore, the user can select an image to be displayed as a display image by himself / herself.
  • step SA31 when the process of step SA34 is completed, the process of step SA31 is executed again. Therefore, when the photo display mode ends, a screen that allows the user to select either the photo display mode or the shooting mode is displayed again (step SA31).
  • step SA35 the CPU 31 determines whether or not the shooting mode is selected.
  • the determination in step SA35 can be made by referring to the input position data stored in the main memory 32 in step SA32. That is, in the determination process of step SA35, as shown in FIG. 31, the CPU 31 determines whether or not an input for touching an area where the image 101 representing the shooting mode is displayed has been performed. If the determination result of step SA35 is Yes, the process of step SA36 is executed. On the other hand, when the determination result of step SA35 is No, a process of step SA37 described later is executed.
  • step SA36 the CPU 31 executes a process to be executed in the shooting mode (shooting mode process).
  • shooting mode process the details of the photographing mode process will be described with reference to FIG.
  • FIG. 34 is a flowchart showing the flow of the shooting mode process (step SA36) shown in FIG.
  • step SA50 the CPU 31 acquires data of an image captured by the inner camera 23 or the outer camera 25.
  • the process at step SA50 is the same as the process at step SA22 (FIG. 22).
  • step SA51 the process of step SA51 is executed.
  • step SA51 the CPU 31 performs display processing.
  • step SA51 which is a shooting mode, an image captured by the camera 23 or 24 is displayed.
  • an image displayed in the shooting mode will be described with reference to FIG.
  • FIG. 35A is a diagram illustrating an example of an image displayed in the shooting mode.
  • various buttons 91 to 99 are displayed on the lower LCD 12 in addition to the captured image 77 similar to that in FIG.
  • Each button 91 to 99 is an image for giving an instruction to the game apparatus 10 when the user performs a touch input on the position of the image.
  • the buttons 91 to 99 will be described.
  • the shooting button 91 is a button image for performing a shooting operation. That is, when a touch input is performed on the shooting button 91, a captured image saving process is performed.
  • the photographing button 91 is displayed at substantially the center (with respect to the left-right direction) of the lower housing 11 so that the user can easily operate the camera with either the right hand or the left hand.
  • the camera switching button 92 is an image for performing a camera switching operation. That is, when touch input is performed on the camera switching button 92, the camera that performs imaging is switched between the inner camera 23 and the outer camera 25.
  • the end button 93 is a button image for performing an operation to end the shooting mode. That is, when a touch input is made to the end button 93, the shooting mode ends, and the process by the CPU 31 returns to the process of step SA31.
  • the buttons 94 to 99 are button images for giving instructions in the editing process.
  • the pen mode button 94, the eraser mode button 95, and the stamp mode button 96 are button images for performing an operation for changing the editing mode.
  • three modes, a pen mode, a stamp mode, and an eraser mode are prepared in advance.
  • the pen mode an image of the input locus input to the touch panel 13 can be added to the captured image.
  • the stamp mode a stamp image prepared in advance can be added to the captured image.
  • an image added in the pen mode or the stamp mode can be erased.
  • the pen mode button 94 is an image for giving an instruction to change the edit mode to the pen mode.
  • the eraser mode button 95 is an image for giving an instruction to change the edit mode to the eraser mode.
  • the stamp mode button 96 is an image for giving an instruction to change the edit mode to the stamp mode.
  • the thickness change button 97 is an image for giving an instruction to change the thickness of a line input in the pen mode.
  • the color change button 98 is an image for giving an instruction to change the color of a line input in the pen mode.
  • the all erase button 99 is an image for instructing to erase all the images added in the pen mode or the stamp mode.
  • FIG. 35A shows an image when there is no image input by the user in the editing process described later.
  • the upper LCD 22 displays an image that explains to the user how to operate in the shooting mode.
  • step SA52 the CPU 31 receives an input to each input device.
  • the process at step SA52 is the same as the process at step SA6.
  • step SA33 the process of step SA33 is executed.
  • step SA53 the CPU 31 determines whether or not a shooting operation has been performed.
  • the determination in step SA53 can be made by referring to the operation data and input position data stored in the main memory 32 in step SA52. That is, in the determination process of step SA53, the CPU 31 determines whether the L button 14I or the R button 14J is pressed or an input for touching an area where the shooting button 91 is displayed is performed.
  • step SA53 the process of step SA54 is executed. On the other hand, if the determination result of step SA53 is No, a process of step SA55 described later is executed.
  • the photographing processing function which is a function shared by the simple photographing program 52 and the multi-function photographing application program 53, is the same operation (L button 14I or R button 14J).
  • the operation is performed in response to the operation of pressing. Since the same operation can be performed for the same function even if the program changes, an operation system that is easy for the user to use can be provided.
  • step SA54 the CPU 31 stores the captured image.
  • the process in step SA54 is the same as the process in step SA26 in the simple photographing process. Therefore, in the present embodiment, the process for saving the captured image is executed in the same way in the simple imaging process and the multifunctional imaging process. Specifically, the determination method of the camera used for imaging and the determination method of the storage destination are performed by the same method in the simple imaging process and the multifunctional imaging process. Following step SA54, the process of step SA59 described later is executed.
  • step SA55 the CPU 31 determines whether a camera switching operation has been performed.
  • the determination in step SA55 can be made by referring to the input position data stored in the main memory 32 in step SA52. That is, in the determination process of step SA55, the CPU 31 determines whether or not an input for touching an area where the camera switching button 92 is displayed has been performed. If the determination result of step SA55 is Yes, the process of step SA56 is executed. On the other hand, if the determination result of step SA55 is No, a process of step SA57 described later is executed.
  • step SA56 the CPU 31 switches the camera that captures an image. That is, when the camera that captures an image is the inner camera 23, the camera that captures an image is changed to the outer camera 25, and when the camera that captures an image is the outer camera 25, The camera that performs imaging is changed to the inner camera 23. Specifically, the CPU 31 gives an instruction to stop the operation to one of the cameras 23 and 25 that is capturing an image, and also captures the other camera. To that effect.
  • step SA50 to be performed next image data captured by the camera after switching is acquired by the CPU 31, and in step SA51 to be performed next, it is captured by the camera after switching. An image is displayed on the lower LCD 12.
  • step SA ⁇ b> 56 the CPU 31 stores data indicating the camera after switching in the main memory 32 as camera switching data 67. As a result, when the multi-function shooting process is executed next time and when the simple shooting process is executed, imaging is performed by the switched camera. Following step SA56, the process of step SA59 described later is executed.
  • step SA57 the CPU 31 determines whether an editing operation has been performed.
  • the determination in step SA57 can be made by referring to the input position data stored in the main memory 32 in step SA52. That is, in the determination process in step SA57, the CPU 31 determines whether or not an input for touching an area where the buttons 94 to 99 are displayed or an area where the captured image 77 is displayed is performed. If the determination result of step SA57 is Yes, the process of step SA58 is executed. On the other hand, if the determination result of step SA57 is No, a process of step SA59 described later is executed.
  • step SA58 the CPU 31 performs various editing processes according to the touch input made by the user. For example, when the buttons 94 to 98 are touched, the CPU 31 changes the settings (editing mode and settings related to line thickness or color) according to the touched buttons.
  • the area of the captured image 77 is touched, processing corresponding to the editing mode is performed on the touched position. That is, when the edit mode is the pen mode, an image of the locus by the touch input is added to the captured image 77, and when the edit mode is the stamp mode, the stamp image prepared in advance is set to the touch position with respect to the captured image 77.
  • the eraser mode the image added in the pen mode or the stamp mode is erased from the touched position.
  • the all erase button 99 is touched, all images added to the captured image 77 in the pen mode or the stamp mode are erased. Details of the processing according to the editing mode in step SA58 will be described later.
  • step SA59 the CPU 31 determines whether or not to end the shooting mode.
  • the determination in step SA59 can be made by referring to the input position data stored in the main memory 32 in step SA452. That is, in the determination process of step SA59, the CPU 31 determines whether or not an input for touching the area where the end button 93 is displayed has been performed. If the determination result in step SA59 is Yes, the CPU 31 ends the shooting mode process shown in FIG. On the other hand, if the determination result of step SA59 is No, the process of step SA50 is executed again. Above, description of the imaging
  • the above-described multi-function photographing application program 53 may have a function of performing other types of editing operations and presentation operations on the captured image 77 in addition to the editing functions described above. In such a case, it is preferable to display a menu screen for selecting a function that the user wants to use prior to the display process in step SA51.
  • a menu screen displayed in the shooting mode will be described with reference to FIG.
  • FIG. 35B is a diagram illustrating an example of a menu screen displayed in the shooting mode.
  • a button group 150 and various buttons 152, 154, 156, and 158 are displayed on the lower LCD 12 in addition to the captured image 77 similar to that in FIG.
  • Each icon image included in the button group 150 is an image for instructing the game apparatus 10 to select a corresponding function included in the multi-function shooting application program 53.
  • each button 152,154,156,158 is demonstrated.
  • Scroll buttons 152 and 154 are button images for selecting each icon image included in the button group 150, respectively. That is, when a touch input is made to scroll button 152 or 154, among the icon images included in button group 150, the selected state (active) is sequentially changed.
  • the end button 156 is a button image for performing an operation to end the shooting mode. That is, when a touch input is made to the end button 152, the shooting mode ends, and the process by the CPU 31 returns to the process of step SA31.
  • the start button 158 is a button image for performing an operation for instructing execution of a selected function among the functions included in the multi-function shooting application program. That is, when any one of the icon images included in the button group 150 is selected and touch input is performed on the start button 158, a function corresponding to the currently selected icon image is executed.
  • step SA31 when the process of step SA36 is completed, the process of step SA31 is executed again. Therefore, when the shooting mode ends, a screen that allows the user to select either the photo display mode or the shooting mode is displayed again (step SA31).
  • step SA37 the CPU 31 determines whether or not an operation for changing the storage destination of the stored image has been performed.
  • the determination in step SA37 can be made by referring to the input position data stored in the main memory 32 in step SA32. That is, in the determination process in step SA37, the CPU 31 determines whether or not an input for touching an area in which an image representing an instruction to change the storage destination of a captured image is displayed. If the determination result of step SA37 is Yes, the process of step SA38 is executed. On the other hand, when the determination result of step SA37 is No, a process of step SA39 described later is executed.
  • step SA38 the CPU 31 changes the storage location of the captured image. That is, when the current storage destination is the storage data memory 34, the storage destination is changed to the memory card 28, and when the current storage destination is the memory card 28, the storage destination is the storage data memory. Change to 34. Specifically, the CPU 31 stores data indicating the changed storage destination in the main memory 32 as the storage destination data 68. Following step SA38, the process of step SA31 is executed again.
  • step SA39 the CPU 31 determines whether or not to end the multi-function photographing process. This determination is made based on whether or not the user has given an instruction to end the multi-function photographing process.
  • the instruction to end the multi-function shooting process is performed, for example, by displaying a button image for performing an operation to end the multi-function shooting process in the display process in step SA31 and touching the button image. Also good. The instruction may be performed by pressing a predetermined button. If the determination result of step SA39 is No, the process of step SA31 is executed again. On the other hand, if the determination result in step SA39 is Yes, the CPU 31 ends the execution of the multi-function shooting application program 53, and ends the multi-function shooting process. Thereafter, the process of step SA3 shown in FIG. 21 is executed again.
  • step SA13 the CPU 31 determines whether or not to end the processing in the game apparatus 10. The determination in step SA13 is made based on, for example, whether or not the user has performed a predetermined end instruction operation (specifically, an operation of pressing the power button 14F or the like). If the determination result of step SA13 is No, the process of step SA5 is executed again. On the other hand, if the determination result of step SA13 is Yes, the CPU 31 ends the process shown in FIG.
  • a predetermined end instruction operation specifically, an operation of pressing the power button 14F or the like.
  • the game apparatus 10 accepts the first starting operation for starting the selected application program.
  • a photographing enabling operation for starting the simple photographing program 52 is accepted (steps SA9 and SA10). Therefore, since the simple photographing program 52 can be started immediately by the photographing enabled operation from the state in which the menu screen is displayed, the user can easily start the simple photographing program 52.
  • the user in order to activate a desired selected application program, the user must perform the first activation operation after performing the scroll operation as necessary, whereas the simplified imaging is performed. In order to start the program 52, the user only needs to perform an operation capable of shooting. Therefore, in this embodiment, the simple photographing program 52 can be started more easily than the selected application program.
  • the CPU 31 accepts a second activation operation for activating the photographing application program 53 (step SA29). ).
  • the multi-function shooting application program 53 can be started by the second starting operation. Therefore, even when the user wants to use the function of the multi-function shooting application program 53 that the simple shooting program 52 does not have during shooting by the simple shooting program 52, the user performs the second activation operation.
  • the function can be used easily and quickly.
  • the simple photographing program 52 which is a relatively simple function, can be quickly activated from the menu screen, and the multi-function photographing application program 53 having more functions can be used as the simple photographing program. It is possible to start immediately during execution of 52.
  • the game apparatus 10 is operated by a shooting program having a simple function, and then various shooting functions of the game apparatus 10 are used by a more versatile shooting program”.
  • the game device 10 can be used by the user in the usage mode, and can be used so that the user gradually gets used to the operation of the game device 10.
  • the simple photographing program 52 can be regarded as an introduction (trial version) of the multi-function photographing application program 53, and from the provider side of the game apparatus 10, the simple photographing program 52 is quickly activated from the menu screen. By making it possible, the use of the multifunctional imaging application program 53 by the user can be promoted.
  • the function of the simple shooting program 52 is a part of the function of the multi-function shooting application program 53, so the data size of the simple shooting program 52 is larger than the data size of the multi-function shooting application program 53. Small. Therefore, the shooting program can be quickly started from the menu screen by using the simple shooting program 52 having the smaller data size as the program that is started from the menu screen by the above-described shooting enabled operation.
  • FIG. 27 is a flowchart showing the flow of the imaging guidance process (step SA2) shown in FIG.
  • the CPU 31 displays a selection screen that allows the user to select whether or not to perform shooting (that is, whether or not to change the state of the game apparatus 10 to the shooting enabled state).
  • a button image for giving an instruction to take a picture and a button image for giving an instruction not to take a picture are displayed on the lower LCD 12 together with a message “Would you like to take a picture?”.
  • step SA62 the process of step SA62 is executed.
  • step SA62 the CPU 31 receives an input to each input device.
  • the process at step SA62 is the same as the process at step SA6.
  • step SA63 the process of step SA63 is executed.
  • step SA63 the CPU 31 determines whether or not an instruction to perform shooting has been selected.
  • the determination in step SA63 can be made by referring to the input position data stored in the main memory 32 in step SA62. That is, in the determination process in step SA63, the CPU 31 determines whether or not an input for touching an area where a button image for instructing shooting is displayed is performed. If the determination result of step SA63 is Yes, the process of step SA64 is executed. On the other hand, when the determination result of step SA63 is No, a process of step SA65 described later is executed.
  • step SA64 the CPU 31 executes a simple photographing process. Since this simple photographing process is the same as step SA10 described above, a detailed description thereof is omitted. However, since this simple photographing process enables photographing, the user can perform a photographing operation. After the simple photographing process in step SA64 is finished, the CPU 31 finishes the photographing guiding process shown in FIG. In the present embodiment, since the process in step SA64 is the same as the process in step SA10, the multi-function shooting application program 53 is activated during the simple shooting process in the simple shooting process in step SA64 as well as in step SA10. Is possible. However, in an alternative embodiment, in the simple photographing process of step SA64, the button image 78 for performing the second activation operation is not displayed, and the multifunctional photographing application program 53 cannot be activated. Also good.
  • step SA65 the CPU 31 displays an image for introducing the photographing function.
  • an image or the like explaining functions related to the simple photographing program 52 and the multi-function photographing application program 53 is displayed on each LCD 12 and 22.
  • step SA65 the CPU 31 ends the imaging guidance process shown in FIG.
  • the game apparatus 10 determines whether or not the game apparatus 10 is activated for the first time (step SA1), and when the game apparatus 10 is activated for the first time (in step SA1). In (Yes), a display for allowing the user to select whether or not to change the state of the game apparatus 10 to the photographing enabled state is performed (step SA61). When the user selects to perform shooting (Yes in step SA63), the user actually experiences the shooting operation (step SA64).
  • the user can be guided to experience the shooting operation in the game apparatus 10 first. That is, the shooting guidance process allows a user who uses the game apparatus 10 for the first time to perform a shooting operation first, so that the user can get used to the shooting operation.
  • the shooting guidance process allows a user who uses the game apparatus 10 for the first time to perform a shooting operation first, so that the user can get used to the shooting operation.
  • the user experiences a simple photographing operation by the simple photographing program 52 in step SA64 the user can easily perform the photographing operation by the multifunction photographing application program 53 first. Shooting operation can be performed.
  • the user can first introduce the shooting function of the game apparatus 10 in an easy-to-understand manner by having the user actually experience a simple shooting operation.
  • step SA61 the user is allowed to select whether or not to shift to the photographing enabled state.
  • the user is not allowed to select in the photographing guidance process.
  • the state may be changed to a photographing enabled state. That is, the shooting process by the shooting program 52 or 53 may be executed without causing the user to select.
  • the game apparatus 10 changes the content of the display image on the menu screen at a predetermined timing (automatically regardless of a user instruction). As a result, the menu screen can be changed so that the user is not bored.
  • the predetermined timing includes a timing at which the game apparatus 10 is activated and a timing at which the selected application program is terminated. That is, as described above, when the game apparatus 10 is activated and when the selected application program is terminated, the display process of step SA5 is executed after the process of step SA3 is executed. The display image on the screen is changed. That is, the display image is changed every time the game apparatus 10 is activated and each time the selected application program is executed.
  • the user since the user can enjoy at the time of starting and at the end of execution of the selected application program ("which image is displayed"), for the provider side of the game apparatus 10, the user can There is an effect that it is possible to promote starting 10 or executing the selected application program (that is, using the game apparatus 10).
  • the predetermined timing includes a timing at which the folding game apparatus 10 is opened.
  • the “game device 10 in the closed state (sleep mode)” is displayed at the “timing when the game device 10 is activated”. It can be said that the timing of “opening (restarting from sleep mode)” is included.
  • the CPU 31 changes the display image before and after the game apparatus 10 is closed.
  • the user can enjoy when opening the game apparatus 10, so that the provider of the game apparatus 10 can promote the use of the game apparatus 10 by the user by opening the game apparatus 10. effective.
  • the display screen is not changed at random, but is changed according to a predetermined order.
  • FIG. 28 is a flowchart showing details of a process (open / close process) executed when the game apparatus 10 is opened / closed. The process shown in FIG. 28 is started in response to the closing of the game apparatus 10 at an arbitrary timing during the process shown in FIG.
  • step SA71 the CPU 31 shifts the game apparatus 10 to the sleep mode. Specifically, the CPU 31 stops image display on the LCDs 12 and 22 or temporarily stops processing in the application program being executed. Following step SA71, the process of step SA72 is executed.
  • step SA72 the CPU 31 determines whether or not the game apparatus 10 has been opened. If the determination result of step SA72 is Yes, the process of step SA73 is executed. On the other hand, if the determination result of step SA72 is No, the process of step SA72 is executed again. That is, the CPU 31 waits until the game apparatus 10 is in an open state.
  • step SA73 the CPU 31 changes the display image from the state before the opening / closing process is started.
  • step SA73 the display image is changed by sequentially selecting the display image from the favorite images in a predetermined order.
  • a display image changing method will be described with reference to FIG.
  • FIG. 29 is a diagram showing a display image changing method in step SA73.
  • FIG. 29 shows an example where the first group includes three favorite images, the second group includes two favorite images, and the third group includes four favorite images.
  • favorite images included in each group are managed side by side in a predetermined order.
  • the predetermined order may be, for example, the order of shooting (storing) date / time, the order of date / time set as a favorite image, or the order set by the user.
  • the favorite images are sequentially changed according to this order. That is, the CPU 31 sets the favorite image in the next order of the display image before the change (before the opening / closing process is started) as the display image after the change.
  • step SA73 the display image is changed according to the order of the arrows shown in FIG. After step SA73, the CPU 31 ends the opening / closing process and returns to the state immediately before the opening / closing process is started.
  • each time the game apparatus 10 is opened the display image is switched in a predetermined order.
  • the user can enjoy changing the display image one after another by an operation of opening and closing the game apparatus 10.
  • the user creates a four-frame cartoon whose picture (display image) changes each time the game apparatus 10 is opened, or continuously sees a series of photographs arranged in time series by repeatedly opening and closing the game apparatus 10. can do.
  • the CPU 31 may select a display image at random from the top favorite images of each group. Thereby, all the images included in each group can be continuously displayed in a predetermined order.
  • the game apparatus 10 may switch display images in a predetermined order according to a predetermined operation (for example, an operation of pressing a predetermined button). That is, the predetermined timing may be a timing at which a predetermined operation is performed.
  • predetermined information is used in common between the simple photographing program 52 and the multi-function photographing application program 53.
  • the two programs 52 and 53 commonly use information about a camera that performs imaging and information about a storage destination of a stored image.
  • the two programs 52 and 53 may use other information in common. For example, if the file name of the stored image is determined based on the total number taken by the game apparatus 10, the information on the total number may be used in common.
  • the game apparatus 10 is configured such that the multi-function photographing application program 53 is activated when the multi-function photographing application program 53 is activated in the photographing-capable state (Yes in step SA29).
  • the content of the argument to be passed to the multi-function photographing application program 53 may be different depending on the case of activation (in the case of Yes in step SA11).
  • information indicating a mode at the start of execution of the multi-function photographing application program 53 may be used as the argument. That is, the mode at the start of the execution of the multi-function photographing application program 53 is different between when the multi-function photographing application program 53 is activated in the photographing enabled state and when the multifunction photographing application program 53 is activated in the activation accepting state. It may be different.
  • the mode at the start of execution is set to a mode for selecting the shooting mode and the photo display mode, as in the above embodiment.
  • the mode at the start of execution may be set to the shooting mode.
  • the multi-function photographing application program 53 When the multi-function photographing application program 53 is activated in the photographing enabled state, it may be assumed that the user has activated the multi-functional photographing application program 53 in order to perform photographing with a function that the simple photographing program 52 does not have. Because it can.
  • the mode at the start of execution is set to the photo display mode, and the display image displayed in the shooting enabled state is displayed.
  • a favorite image in the same group as the display image or an image taken on the same day as the display image may be displayed.
  • buttons image 78 shown in FIG. 24 there is one button image (button image 78 shown in FIG. 24) for starting the multi-function shooting application program 53 in the shooting enabled state.
  • One button image may be displayed.
  • one of the two button images is a button for starting the multi-function shooting application program 53 with the mode at the start of execution of the multi-function shooting application program 53 as a shooting mode, and the other is at the start of execution.
  • This is a button for starting the multi-function photographing application program 53 with the mode in FIG.
  • the game apparatus 10 prepares a plurality of types of second activation operations, and the mode at the start of execution (of the multi-function imaging application program 53) depending on the type of the second activation operation performed. May be different.
  • the simple photographing program 52 is a program different from the activation function program 51 and is activated by the activation program separately from the activation function program 51.
  • the simple imaging program 52 may be configured as a part of the activation function program 51 (that is, the activation function program 51 and the simplified imaging program 52 are one in the activation program 61). May be a program).
  • the activation function program 51 may activate the simple imaging program 52.
  • the simple photographing program 52 and the multi-function photographing application program 53 may be activated by the same program or may be activated by different programs as long as instructions (operations) for activation are different.
  • FIG. 36 is a flowchart showing a flow of shooting processing (part 1) in the multi-function shooting application in the game apparatus 10. Note that the processing loop of steps SB1 to SB11 shown in FIG. 36 is executed once every predetermined time (for example, 1/60 seconds) (except when the processing of steps SB8 to SB10 is executed).
  • predetermined time for example, 1/60 seconds
  • step SB1 shown in FIG. 36 the CPU 31 acquires data of an image captured by the inner camera 23 or the outer camera 25.
  • an image is captured only by one of the cameras 23 and 25.
  • step SB1 the CPU 31 acquires image data only from the one camera.
  • the camera that captures an image is set to the outer camera 25 at the start of the shooting process.
  • step SB2 the process of step SB2 is executed.
  • FIG. 37 is a diagram illustrating an example of images displayed on the LCDs 12 and 22. Note that FIG. 37 shows an image in the case where there is no image input by the user in the input image generation processing described later.
  • the CPU 31 displays a real-time image (captured image) 52 captured by the camera 23 or 25 on the lower LCD 12.
  • the upper LCD 22 displays an image 252 that explains how to operate the user.
  • the CPU 31 displays various button images 253 to 261 on the lower LCD 12 together with the captured image 252.
  • Each of the button images 253 to 261 is an image for giving an instruction to the game apparatus 10 when the user performs a touch input on the position of the image.
  • the button images 253 to 261 will be described.
  • Pen mode image 253, eraser mode image 254, and seal mode image 255 are images for changing the edit mode.
  • three modes, a pen mode, a seal mode, and an eraser mode are prepared in advance.
  • the pen mode an image of the input locus input to the touch panel 13 can be added to the captured image.
  • the seal mode a seal image prepared in advance can be added to the captured image.
  • an image added in the pen mode or the seal mode can be erased.
  • the pen mode image 253 is an image for giving an instruction to change the editing mode to the pen mode.
  • the eraser mode image 254 is an image for giving an instruction to change the edit mode to the eraser mode.
  • the seal mode image 255 is an image for giving an instruction to change the edit mode to the seal mode.
  • the thickness change image 256 is an image for giving an instruction to change the thickness of a line input in the pen mode.
  • the color change image 257 is an image for giving an instruction to change the color of a line input in the pen mode.
  • the all erased image 258 is an image for instructing to erase all the images added in the pen mode or the seal mode.
  • the end image 259 is an image for giving an instruction to end the photographing process.
  • the shooting instruction image 260 is an image for giving a shooting instruction.
  • the shooting instruction is an instruction to save (record) an image displayed on the lower LCD 12 (an image in which an input image is superimposed on a captured image).
  • the photographing instruction image 260 is displayed at approximately the center (in the left-right direction) of the lower housing 11 so that the user can easily operate the user with either the right hand or the left hand. Therefore, if the lower LCD 12 is not arranged at the approximate center of the lower housing 11, the CPU 31 is arranged not at the center of the screen of the lower LCD 12 but at the approximate center of the lower housing 11. Is preferably displayed.
  • the camera switching image 261 is an image for performing a camera switching instruction.
  • the camera switching instruction is an instruction to switch a camera that performs imaging among the inner camera and the outer cameras 223 and 225.
  • step SB2 the CPU 31 receives an input to each input device. That is, operation data is acquired from the operation button group 14 and touch position data is acquired from the touch panel 13. The acquired operation data and touch position data are stored in the main memory 32. Following step SB2, the process of step SB3 is executed.
  • step SB3 the CPU 31 determines whether or not a camera switching instruction has been issued.
  • the camera switching instruction is input by pressing a predetermined button (for example, the button 14B, the button 14C, the button 14D, or the button 14E) or touching an area where the camera switching image 261 is displayed. This is performed by performing the operation on the touch panel 13. Therefore, in the determination process of step SB3, the CPU 31 determines whether the predetermined button has been pressed or an input for touching an area where the camera switching image 261 is displayed has been performed.
  • the determination in step SB3 can be made by referring to the operation data and touch position data stored in the main memory 32 in step SB2. If the determination result of step SB3 is Yes, the process of step SB4 is executed. On the other hand, when the determination result of step SB3 is No, the process of step SB5 described later is executed.
  • step SB4 the CPU 31 switches the camera that captures an image. That is, when the camera that captures an image is the inner camera 23, the camera that captures an image is changed to the outer camera 25, and when the camera that captures an image is the outer camera 25, The camera that performs imaging is changed to the inner camera 23. Specifically, the CPU 31 gives an instruction to stop the operation to one of the cameras 23 and 25 that is capturing an image, and also captures the other camera. To that effect (imaging execution instruction).
  • step SB1 image data captured by the camera after switching is acquired by the CPU 31, and in step SB6 performed next, data is captured by the camera after switching. An image (live image) is displayed on the lower LCD 12. After step SB4, the process of step SB1 is executed again.
  • step SB5 the CPU 31 performs input image generation processing.
  • the input image generation process is a process for generating the input image by a user input. The details of the input image generation processing will be described below with reference to FIGS. 38 and 39.
  • FIG. 38 is a flowchart showing the flow of the input image generation process (step SB5) shown in FIG.
  • the CPU 31 determines whether or not an input image generation operation has been performed. That is, it is determined whether an input for touching an area where a captured image is displayed on the input surface of the touch panel 13 is performed. The determination in step SB20 can be made based on whether or not the touch position data acquired in step SB2 indicates a position in the area where the captured image is displayed. If the determination result of step SB20 is Yes, the process of step SB21 is executed. On the other hand, when the determination result of step SB20 is No, a process of step SB26 described later is executed.
  • step SB21 the CPU 31 determines whether or not the current editing mode is the pen mode. In this embodiment, it is assumed that the editing mode is set to the pen mode at the start of the editing process. If the determination result of step SB21 is Yes, the process of step SB22 is executed. On the other hand, when the determination result of step SB21 is No, a process of step SB23 described later is executed.
  • step SB22 processing in the pen mode is executed. That is, the CPU 31 draws an image of the locus of touch input performed on the captured image. Specifically, an image of a line connecting the positions indicated by the touch position data acquired so far in step SB2 is drawn in a memory (frame buffer) that stores image data to be displayed on the LCDs 12 and 22. . The thickness and color of the drawn line are determined according to the contents set in step SB29 described later.
  • the process of step SB22 may be any process as long as it generates and draws an image representing the locus of the position where the user has input on the touch panel 13. An example of such processing is shown in steps SB52 and SB53 described later.
  • FIG. 39 is a diagram showing an example of images displayed on the LCDs 12 and 22 in the pen mode.
  • step SB22 When the process of step SB22 is executed, an input image 262 representing the locus drawn by the user is displayed over the captured image displayed on the lower LCD 12 in a display process (step SB6) described later. (See FIG. 39). Following step SB22, a process of step SB26 described later is executed.
  • step SB23 the CPU 31 determines whether or not the current editing mode is the seal mode.
  • the determination result of step SB23 is Yes (that is, when the current editing mode is the seal mode)
  • the process of step SB24 is executed.
  • the determination result of step SB23 is No (that is, when the current edit mode is the eraser mode)
  • the process of step SB25 described later is executed.
  • step SB24 processing in the seal mode is executed. That is, the CPU 31 draws a predetermined sticker image at a position where touch input is performed on the captured image. Specifically, a predetermined sticker image is drawn at the position indicated by the touch position data acquired in step SB2.
  • the process of step SB24 may be any process as long as it generates and draws a predetermined sticker image at a position where the user inputs on the touch panel 13. An example of such processing is shown in steps SB60 and SB61 described later.
  • step SB6 an input image that is a predetermined sticker image is displayed so as to be superimposed on the captured image displayed on the lower LCD 12.
  • the CPU 31 may prepare a plurality of sticker images and allow the user to select a sticker image to be drawn from the plurality of sticker images.
  • a process of step SB26 described later is executed.
  • step SB25 processing in the eraser mode is executed. That is, the CPU 31 erases the input image (trajectory image or sticker image) on the edited image in response to an input to the touch panel 13. Specifically, the input image drawn at the position indicated by the touch position data acquired in step SB2 is deleted. Following step SB25, the process of step SB26 is executed.
  • step SB26 the CPU 31 determines whether or not an instruction to delete all input images has been issued. Specifically, it is determined whether or not an input for touching the area where the all erased image 258 is displayed has been performed. If the determination result of step SB26 is Yes, the process of step SB27 is executed. On the other hand, if the determination result of step SB26 is No, the process of step SB27 is skipped and the process of step SB28 described later is executed.
  • step SB27 the CPU 31 deletes all the input images generated / drawn so far. In this way, the user can redo the operation of drawing the input image from the beginning by touching the all erased image 258.
  • step SB28 the process of step SB28 is executed.
  • step SB28 the CPU 31 determines whether or not an instruction to change the setting related to the generation operation of the input image has been performed. Specifically, it is determined whether or not an input for touching an area where each of the button images 253 to 257 is displayed has been performed. If the determination result of step SB28 is Yes, the process of step SB29 is executed. On the other hand, if the determination result of step SB28 is No, the process of step SB28 is skipped, and the CPU 31 ends the input image generation process.
  • step SB29 the CPU 31 changes the setting in accordance with the performed instruction. That is, when a touch input is performed on any of the mode images 253 to 255, the CPU 31 shifts the edit mode to a mode corresponding to the mode image for which the touch input has been performed.
  • touch input is performed on the thickness change image 256
  • the CPU 31 changes the setting of the thickness of the line (trajectory) generated in the pen mode. Specifically, the CPU 31 displays a plurality of images of lines having different thicknesses, and allows the user to select a line having a desired thickness from among the plurality of lines having different thicknesses, so that the selected thickness is obtained. Change the line thickness setting.
  • the CPU 31 changes the color of the line (trajectory) generated in the pen mode. Specifically, the CPU 31 displays a plurality of images of a plurality of colors, causes the user to select a desired color from the plurality of colors, and changes the setting of the line color so that the selected color is obtained. After the end of step SB29, the CPU 31 ends the input image generation process.
  • step SB5 it is added to the real-time image (live image) based on the input to the touch panel. That is, the user can input an image on the captured image displayed on the lower LCD 12 (overlaid on the captured image).
  • the process of adding an image drawn by the user or a seal image prepared in advance to the captured image has been described as an example.
  • the CPU 31 performs a process of changing a real-time image.
  • the process of distorting the captured image or the process of changing the facial expression when a human face image is included in the captured image may be executed.
  • step SB6 subsequent to step SB5, the CPU 31 executes display processing for displaying a predetermined image on each of the LCDs 12 and 22.
  • the upper LCD 22 displays an image explaining how to operate the user like an image 252 shown in FIG.
  • the captured image acquired in step SB1 is displayed, and button images 253 to 261 are displayed (see FIG. 37).
  • the input image is displayed on the captured image (see FIG. 39).
  • the processing of steps SB1 to SB6 is repeatedly executed, the captured image becomes a different image every time. Therefore, the user can add an input image on the image captured in real time by the camera 23 or 25.
  • step SB6 the process of step SB7 is executed.
  • step SB7 the CPU 31 determines whether or not a shooting instruction has been issued.
  • the shooting instruction is performed by pressing a predetermined button (for example, the button 14I or the button 14J) or by performing an input on the touch panel 13 to touch an area where the shooting instruction image 260 is displayed. Done. In addition, you may make it image
  • step SB8 the CPU 31 fixes (freezes) the display contents (captured image and input image) currently displayed on the lower LCD 12. That is, the still image (the captured image and the input image displayed in step SB5) that is a live image at the time when the shooting instruction is given is continuously displayed on the lower LCD 12.
  • the period during which the still image is displayed may be a predetermined period set in advance, or may be a period until the display process of step SB6 is executed next.
  • the process of step SB8 may not be executed. That is, a moving image of a live image may always be displayed on the lower LCD 12 without displaying a still image on the lower LCD 12 in accordance with an imaging instruction.
  • step SB9 the process of step SB9 is executed.
  • step SB9 the CPU 31 saves the captured image and the input image currently displayed on the lower LCD 12. That is, the captured image data and the input image data displayed in step SB5 are stored in the storage data memory 34, for example. As a result, the user can save the captured image and the input image added on the captured image.
  • the CPU 31 may store image data obtained by combining the captured image and the input image, or the image data of the captured image and the image data of the input image after associating the captured image with the input image. It may be stored separately.
  • step SB9 the process of step SB10 is executed.
  • step SB10 the CPU 31 displays the image saved in step SB9 on the upper LCD 22.
  • the image displayed on the upper LCD 22 is continuously displayed until another shooting instruction is given (Yes again in Step SB7), and another stored image is displayed in Step SB10.
  • the image displayed on the upper LCD 22 may be displayed only for a predetermined period, or may be displayed until the display process of step SB6 is executed next.
  • an image explaining the operation method to the user an operation explanation image as described above with reference to FIG. 37
  • the display process is executed in step SB10 after the storage process is executed in step SB9.
  • the order of the storage process and the display process may be first.
  • the CPU 31 may display an image saved by the shooting instruction on the upper LCD 22 in response to the shooting instruction, and is not limited to displaying the image saved by the shooting instruction.
  • the image scheduled to be stored may be displayed. Following step SB10, the process of step SB11 is executed.
  • FIG. 40 is a diagram showing an example of images displayed on the LCDs 12 and 22 when Step SB10 is executed.
  • an image 263 saved by the shooting instruction is displayed on the upper LCD 22 (step SB10).
  • an image of the photographing result can be displayed on the upper LCD 22 which is a display screen that faces a display direction corresponding to the photographing direction of the camera 23 or 25 (a direction that coincides with the photographing direction or a direction opposite to the photographing direction).
  • the image of the photographing result can be presented to the user so that the photographing direction can be easily understood.
  • the real-time image captured by the camera 23 or 25 is displayed on the lower LCD 12 whose display direction does not correspond to the shooting direction of the camera 23 or 25. Presenting an image to the user is particularly effective.
  • the editing result before the shooting instruction is given is maintained even after the shooting instruction (after the image is stored). That is, as shown in FIG. 40, the input image 262 input before the shooting instruction is displayed on the lower LCD 12 so as to overlap the live image even after the shooting instruction.
  • the editing result before the shooting instruction is issued may be erased according to the shooting instruction, and only the live image may be displayed on the lower LCD 12 after the shooting instruction. .
  • the image of the photographing result may be displayed on the upper LCD 22 at any timing, not limited to the timing according to the photographing instruction.
  • the CPU 31 may display a photographed image (either one or a plurality of images) on the upper LCD 22 in response to the user's instruction to browse the image, or an image that explains the operation method.
  • the image of the photographing result may be always displayed on the upper LCD 22.
  • step SB11 the CPU 31 determines whether or not to end the editing process. This determination is made based on whether or not the user has given an instruction to end the editing process. Specifically, the determination in step SB11 is made based on whether or not touch input has been performed on the region of the end image 259 displayed on the lower LCD 12.
  • the CPU 31 executes the process of step SB1 again. Thereafter, the processing loop of steps SB1 to SB11 is repeatedly executed until it is determined in step SB11 that the photographing process is finished.
  • the determination result of step SB11 is Yes, the CPU 31 ends the photographing process shown in FIG.
  • the user can save an image captured by the camera in response to a shooting instruction.
  • it is set as the structure which has two display apparatuses, while displaying the image currently image
  • the user can perform the shooting operation while viewing the screen for explaining the operation in addition to the current captured image, and thus the easy-to-use game apparatus 10 can be provided.
  • the touch panel 13 is provided on the lower LCD 12 to facilitate the operation.
  • the user can issue a shooting instruction by pressing the button 14I or the button 14J.
  • the button 14I or the button 14J By using the button 14I or the button 14J as a shutter button, the user can press the shutter button while holding the lower housing 11 with both hands.
  • some of the buttons 14B-14E may be used as shutter buttons. Even in this case, as in this embodiment, the user can press the shutter button while holding the lower housing 11 with both hands.
  • some buttons of the direction input button A for example, one direction input; for example, left input
  • one of the buttons 14B to 14E for example, the button 14D
  • FIG. 41 is a flowchart showing the flow of the shooting process (part 2) in the multi-function shooting application in the game apparatus 10.
  • the CPU 31 of the game apparatus 10 initializes the main memory 32 and the like, and then performs a shooting process shown in FIG. Start running.
  • the processing loop of steps SB31 to SB44 shown in FIG. 41 is executed at a rate of once every predetermined time (for example, 1/60 seconds) except during the execution of the editing process (step SB43).
  • step SB31 shown in FIG. 41 the CPU 31 acquires data of an image captured by the inner camera 23 or the outer camera 25.
  • an image is picked up only by one of the cameras 23 and 25.
  • step SB31 the CPU 31 acquires image data only from the one camera.
  • the camera that captures an image is set to the outer camera 25 at the start of the photographing process.
  • step SB32 the process of step SB32 is executed.
  • step SB32 the CPU 31 executes display processing for displaying a predetermined image on each of the LCDs 12 and 22.
  • FIG. 42 is a diagram showing an example of images displayed on the LCDs 12 and 22 in step SB32.
  • the CPU 31 causes the upper LCD 22 to display a real-time image (captured image) 51 captured by the camera 23 or 25. That is, the image data acquired in step SB31 is output to the upper LCD 22.
  • an image 272 indicating the current date is displayed on the upper LCD 22 so as to overlap the captured image 271.
  • the main memory 32 stores magnification data indicating the magnification of the captured image displayed on the upper LCD 22.
  • the captured image is displayed on the upper LCD 22 at the magnification indicated by the magnification data. That is, the CPU 31 determines a range to be displayed in the captured image according to the magnification, enlarges the image in the determined range according to the size of the upper LCD 22 as necessary, and displays the image on the upper LCD 22.
  • the magnification data is set to indicate a predetermined magnification (for example, a magnification (1 ⁇ ) at which the entire captured image is displayed on the upper LCD 22). .
  • the content of the magnification data is changed when a zoom change instruction to be described later is performed. Therefore, when the captured image is enlarged and used as the upper LCD 22, only a part of the captured image may be displayed instead of the entire captured image.
  • the CPU 31 displays an operation screen for operating the game apparatus 10 on the lower LCD 12.
  • the operation screen displayed in step SB32 includes saved images 273A to 273D and instruction images 274 to 278 for giving various instructions to game device 10 using touch panel 13.
  • the stored images 273A to 273D are images (referred to as stored images) that have been taken in the past by the game apparatus 10 and stored in the game apparatus 10 (or the memory card 28).
  • a predetermined number (four in FIG. 42) of the stored images is displayed on the lower LCD 12.
  • data indicating a saved image (display saved image) displayed on the lower LCD 12 is stored as display saved image data.
  • the display saved image data is, for example, data indicating an ID given to the saved image.
  • the stored images 273A to 273D are displayed side by side in the order of the shooting date (and date and time).
  • the leftmost saved image 273A is an image taken at the oldest time, and the shooting times are in the order of the second saved image 273B from the left, the second saved image 273C from the right, and the rightmost saved image 273D. It is new.
  • an instruction (editing instruction) for performing an editing process for editing a stored image can be performed by performing an input on the touch panel 13 for touching the displayed stored images 273A to 273D.
  • the lower LCD 12 displays the shooting instruction image 274, the camera switching image 275, the zoom bar 276, the zoom cursor 277, and the display change images 278A and 278B as the instruction images.
  • the shooting instruction image 274 is an image for giving a shooting instruction using the touch panel 13.
  • the shooting instruction is an instruction to cause the camera 23 or 25 of the game apparatus 10 to perform shooting.
  • the camera switching image 275 is an image for performing a camera switching instruction using the touch panel 13.
  • the camera switching instruction is an instruction to switch the camera to be imaged among the inner camera 23 and the outer camera 25.
  • the zoom bar 76 and the zoom cursor 277 are images for performing a zoom change instruction using the touch panel 13.
  • the zoom change instruction is an instruction to enlarge / reduce the captured image displayed on the upper LCD 22.
  • Display change images 278A and 278B are images for instructing display change.
  • the display change instruction is an instruction to change a stored image displayed on the lower LCD 12 as the stored images 273A to 273D among the stored images stored in the game apparatus 10. The operation method of each instruction and the process executed by the game apparatus 10 in accordance with each instruction will be described later.
  • step SB33 the CPU 31 receives an input to each input device. That is, operation data is acquired from the operation button group 14 and touch position data is acquired from the touch panel 13. The acquired operation data and touch position data are stored in the main memory 32. Following step SB33, the process of step SB34 is executed.
  • step SB34 the CPU 31 determines whether or not a shooting instruction has been issued.
  • the shooting instruction is performed by pressing a predetermined button (for example, the button 14I or the button 14J) or by touching the touch panel 13 with an input for touching an area where the shooting instruction image 274 is displayed. Done. Therefore, in the determination process of step SB34, the CPU 31 determines whether the predetermined button has been pressed or an input for touching an area where the shooting instruction image 274 is displayed has been performed. Note that the determination in step SB34 can be made by referring to the operation data and touch position data stored in the main memory 32 in step SB33. If the determination result of step SB34 is Yes, the process of step SB35 is executed. On the other hand, when the determination result of step SB34 is No, the process of step SB36 described later is executed.
  • step SB35 the CPU 31 performs a photographing process, that is, stores (saves) the image data acquired from the camera in step SB31 in the saving data memory 34.
  • the CPU 31 displays the image data acquired from the camera in step SB31 on any of the LCDs 12 and 22, and confirms with the user whether or not to save the image data. May be.
  • the image data may be stored (saved) in the save data memory 34 only when the user gives an instruction to save the image data.
  • the CPU 31 may store the captured image data in the memory card 28, or store it in the apparatus main body (save data memory 34) or in the memory card 28. You may make it make a user specify.
  • step SB36 the CPU 31 determines whether or not a camera switching instruction has been performed.
  • the camera switching instruction is input by pressing a predetermined button (for example, the button 14B, the button 14C, the button 14D, or the button 14E) or touching an area where the camera switching image 275 is displayed. This is performed by performing the operation on the touch panel 13. Therefore, in the determination process of step SB36, the CPU 31 determines whether the predetermined button has been pressed or an input for touching an area where the camera switching image 275 is displayed.
  • the determination in step SB36 can be made by referring to the operation data and touch position data stored in the main memory 32 in step SB33. If the determination result of step SB36 is Yes, the process of step SB37 is executed. On the other hand, when the determination result of step SB36 is No, the process of step SB38 described later is executed.
  • step SB37 the CPU 31 switches the camera that captures an image. That is, when the camera that captures an image is the inner camera 23, the camera that captures an image is changed to the outer camera 25, and when the camera that captures an image is the outer camera 25, The camera that performs imaging is changed to the inner camera 23. Specifically, the CPU 31 gives an instruction to stop the operation to one of the cameras 23 and 25 that is capturing an image, and also captures the other camera. To that effect (imaging execution instruction).
  • imaging execution instruction When the process of step SB37 is executed, in step SB31 performed next, image data captured by the camera after switching is acquired by the CPU 31, and in step SB32 performed next, the data was captured by the camera after switching. An image is displayed on the upper LCD 22. After step SB37, the process of step SB42 described later is executed.
  • step SB38 the CPU 31 determines whether or not a zoom change instruction has been performed.
  • the zoom change instruction is performed by moving the zoom cursor 277 up and down on the zoom bar 276 by an input to a predetermined button (for example, the upper button or the lower button of the direction input button 14A) or the touch panel 13. Specifically, the zoom cursor 277 moves up by a predetermined distance in response to the upper button of the direction input button 14A being pressed, and the predetermined distance in response to the lower button of the direction input button 14A being pressed. Just move down.
  • step SB38 the CPU 31 determines whether the predetermined button has been pressed or whether an operation for moving the zoom cursor 277 has been performed on the touch panel 13. Note that the determination in step SB38 can be performed by referring to the operation data and touch position data stored in the main memory 32 in step SB33. If the determination result of step SB38 is Yes, the process of step SB39 is executed. On the other hand, when the determination result of step SB38 is No, the process of step SB40 described later is executed.
  • step SB39 the CPU 31 enlarges / reduces the captured image displayed on the upper LCD 22 according to the zoom change instruction. That is, when an instruction to move the zoom cursor 277 up is given, the contents of the magnification data stored in the main memory 32 are changed so that the magnification is reduced. As a result, in the next step SB32, the captured image is reduced and displayed as compared with the previous step SB32. On the other hand, when an instruction to move the zoom cursor 277 downward is given, the content of the magnification data stored in the main memory 32 is changed so that the magnification is increased. As a result, in the next step SB32, the captured image is enlarged and displayed as compared with the previous step SB32. After step SB39, the process of step SB42 described later is executed.
  • step SB40 the CPU 31 determines whether or not a display change instruction has been issued.
  • the display change instruction is performed by pressing a predetermined button (for example, the left button or the right button of the direction input button 14A), or the area where the display change image 278A is displayed and the display change image 278B are displayed. This is performed by performing an input on the touch panel 13 for touching any one of the areas. Therefore, in the determination process of step SB40, the CPU 31 has pressed the predetermined button, or has an input for touching either the area where the display change image 278A is displayed or the display change image 278B is made? Determine.
  • step SB40 can be made by referring to the operation data and touch position data stored in the main memory 32 in step SB33. If the determination result of step SB40 is Yes, the process of step SB41 is executed. On the other hand, when the determination result of step SB40 is No, a process of step SB42 described later is executed.
  • step SB41 the CPU 31 changes the stored image (displayed stored image) displayed on the lower LCD 12 among the stored images. Specifically, when the right button of the direction input button 14A is pressed or when the display change image 278B is touched, the display save image is shifted by one image to the new one. That is, the image captured at the earliest time among the four current display saved images is deleted from the displayed saved image. Further, a saved image taken after the image taken at the newest time among the current four displayed saved images is added as a new saved display image. On the other hand, when the left button of the direction input button 14A is pressed or the display change image 278A is touched, the display storage image is shifted by one image to the older one.
  • step SB40 data indicating the display storage image after the change in step SB40 is stored as new display storage image data.
  • step SB42 the CPU 31 determines whether an editing instruction has been issued.
  • the editing instruction is performed by performing an input on the touch panel 13 for touching the display area of the stored image to be edited among the displayed stored images 273A to 273D. Therefore, in the determination process of step SB42, the CPU 31 determines whether an input for touching any of the areas where the stored images 273A to 273D are displayed has been performed. Note that the determination in step SB42 can be made by referring to the operation data and touch position data stored in the main memory 32 in step SB33. If the determination result of step SB42 is Yes, the process of step SB43 is executed. On the other hand, when the determination result of step SB42 is No, the process of step SB44 described later is executed.
  • step SB43 the CPU 31 executes editing processing.
  • the editing process is a process for editing a saved image.
  • the saved image to be edited is referred to as an edited image. Details of the editing process will be described below with reference to FIGS.
  • FIG. 43 is a flowchart showing the flow of the editing process (step SB43) shown in FIG.
  • the CPU 31 determines whether or not the current editing mode is the pen mode.
  • three modes of a pen mode, a seal mode, and an eraser mode are prepared in advance in the editing process.
  • the pen mode an image of the input trajectory input to the touch panel 13 can be added to the edited image.
  • the seal mode a prepared seal image can be added to the edited image.
  • the eraser mode an image added in the pen mode or the seal mode can be erased.
  • it is assumed that the editing mode is set to the pen mode at the start of the editing process. If the determination result of step SB51 is Yes, the process of step SB52 is executed. On the other hand, when the determination result of step SB51 is No, the process of step SB58 described later is executed.
  • FIG. 44 is a diagram showing an example of images displayed on the LCDs 12 and 22 in the pen mode of editing processing.
  • an operation screen (editing screen) for editing is displayed on the lower LCD 12 during the editing process.
  • a part or all of the edited image 281 is displayed on the lower LCD 12.
  • the edited image 281 is a saved image to be edited, that is, a saved image designated by touch input among the saved images 273A to 273D shown in FIG.
  • the lower LCD 12 displays images 284 to 290 for performing various operations. Details of operations using these images 284 to 290 will be described later.
  • the entire edited image 281 is displayed on the upper LCD 22 as shown in FIG.
  • a dotted line area 282 shown in FIG. 44 indicates an area displayed on the lower LCD 12 in the edited image 281.
  • Such an image of the dotted line region 282 may or may not be displayed on the upper LCD 22.
  • the CPU 31 may instruct the cameras 23 and 25 not to perform the imaging operation. The details of the processing in the pen mode (steps SB52 to SB57) will be described below with reference to FIG.
  • step SB52 the CPU 31 receives an input to the touch panel 13. That is, the touch position data is acquired from the touch panel 13. The acquired touch position data is stored in the main memory 32. Following step SB52, the process of step SB53 is executed.
  • step SB53 the CPU 31 displays an image of the input locus 83 in response to an input to the touch panel 13. That is, when touch input is performed on the area of the edited image 281 by the touch panel 13, an image of the input locus 283 is displayed.
  • the input locus 283 is an image showing the locus of the position where the touch input by the touch panel 13 is performed.
  • the CPU 31 adds the image of the input locus 283 to the position of the edited image 281. Then, the edited image 281 to which the image has been added is displayed on each LCD 12 and 22.
  • step SB53 the processing loop of steps SB51 to SB56 is repeated once every predetermined time (one frame time (1/60 seconds)), so the processing of steps SB52 and SB53 is repeated during the pen mode. It is. Therefore, when the user continuously inputs the touch panel 13 to draw a locus, an image of the input locus 283 is generated and displayed so as to show the locus. Note that the generation / display processing of the input locus 283 in step SB53 is executed only when a touch input is performed on the area of the edited image 281, and when the touch input is not performed and other than the edited image 281. This is not executed when a touch input is made to the area. Following step SB53, the process of step SB54 is executed.
  • step SB54 the CPU 31 performs enlargement / reduction processing of the edited image 281 displayed on the lower LCD 12.
  • This enlargement / reduction process is executed when a magnification change instruction is issued, that is, when an input is made on the area of the magnification change instruction image 289 displayed on the lower LCD 12 by the touch panel 13.
  • the magnification change instruction image 289 is an image for instructing enlargement / reduction of the edited image 281 displayed on the lower LCD 12.
  • step SB54 when the touch position data acquired in step SB52 indicates a position in the area where the magnification change instruction image 289 is displayed, the CPU 31 sets the magnification for displaying the edited image 281 displayed on the lower LCD 12. Switch.
  • the magnification for displaying the edited image 281 is, for example, three levels, and the CPU 31 changes the magnification in the order of small magnification, medium magnification, and large magnification each time a magnification change instruction is issued. If a magnification change instruction is issued when the magnification is high, the magnification is changed to a low magnification. As described above, when a magnification change instruction is issued by the user, the magnification of the edited image 281 displayed on the lower LCD 12 is changed.
  • step SB54 the magnification change process in step SB54 is executed only when a touch input is performed on the area of the magnification change instruction image 289, and when the input to the touch panel 13 is not performed, and the magnification change instruction image When a touch input is performed on an area other than 289, it is not executed.
  • step SB55 the process of step SB55 is executed.
  • step SB55 the CPU 31 performs a process of moving the edited image 281 displayed on the lower LCD 12.
  • This movement process is executed when a movement instruction is performed, that is, when a touch input is performed on the area of the movement instruction image 290 displayed on the lower LCD 12.
  • the movement instruction image 290 is an image for instructing to move (scroll) the edited image 281 displayed on the lower LCD 12.
  • the CPU 31 scrolls and displays the edited image 281 displayed on the lower LCD 12.
  • the movement instruction image 290 includes images indicating four directions (up and down, left and right) (triangular images in FIG. 44).
  • step SB55 When a touch input is performed on any region of the image, the CPU 31 scrolls the edited image 281 in a direction corresponding to the image on which the touch input is performed. Note that the movement process in step SB55 is executed only when a touch input is performed on the area of the movement instruction image 290, and when an input is not performed on the touch panel 13, and an area other than the movement instruction image 290. It is not executed when touch input is performed. Following step SB55, the process of step SB56 is executed.
  • step SB56 the CPU 31 determines whether or not to change the edit mode. This determination is made based on whether or not a mode change instruction has been issued by the user. Specifically, the determination in step SB56 is based on whether or not touch input has been performed on any of the areas of the pen mode image 284, the eraser mode image 285, and the seal mode image 286 displayed on the lower LCD 12. Done.
  • the pen mode image 284 is an image for giving an instruction to change the editing mode to the pen mode.
  • the eraser mode image 285 is an image for giving an instruction to change the edit mode to the eraser mode.
  • the seal mode image 286 is an image for giving an instruction to change the edit mode to the seal mode.
  • step SB56 the CPU 31 determines that the position indicated by the touch position data acquired in step SB52 is a position in an area where any one of the pen mode image 284, the eraser mode image 285, and the seal mode image 286 is displayed. It is determined that the determination result is Yes. Then, the editing mode is changed to a mode corresponding to the input image. On the other hand, when the position indicated by the touch position data is not a position in the area where any of the pen mode image 284, the eraser mode image 285, and the seal mode image 286 is displayed, it is determined that the determination result is No. In this case, the edit mode is not changed. If the determination result of step SB56 is Yes, the process of step SB51 is executed again. On the other hand, when the determination result of step SB56 is No, the process of step SB57 is executed.
  • step SB57 the CPU 31 determines whether or not to end the editing process. This determination is made based on whether or not the user has given an instruction to end the editing process. Specifically, the determination in step SB57 is performed based on whether or not a touch input is performed on any area of the stop instruction image 287 and the completion instruction image 288 displayed on the lower LCD 12.
  • the stop instruction image 287 is an image for giving an instruction to stop the editing process.
  • the completion instruction image 288 is an image for giving an instruction to complete the editing process.
  • step SB57 if the position indicated by the touch position data acquired in step SB52 is a position in the area where either the stop instruction image 287 or the completion instruction image 288 is displayed, the determination result is Yes. It is judged that.
  • step SB57 if the position indicated by the touch position data is not a position in the area where either the stop instruction image 287 or the completion instruction image 288 is displayed, it is determined that the determination result is No. If the determination result of step SB57 is Yes, the process of step SB72 described later is executed. On the other hand, when the determination result of step SB57 is No, the process of step SB52 is executed again.
  • step SB52 to SB57 the processing in the pen mode (steps SB52 to SB57) is repeated until the determination result in step SB56 becomes Yes or the determination result in step SB57 becomes No.
  • step SB57 the determination result in step SB57 becomes No.
  • an image of the input locus 283 is added to the edited image (see FIG. 44).
  • step SB58 the CPU 31 determines whether or not the current editing mode is the seal mode.
  • the determination result of step SB58 is Yes (that is, when the current edit mode is the seal mode)
  • the process of step SB59 is executed.
  • the determination result of step SB58 is No (that is, when the current edit mode is the eraser mode)
  • the process of step SB66 described later is executed.
  • FIG. 45 is a diagram showing an example of images displayed on the LCDs 12 and 22 in the seal mode of the editing process. As shown in FIG. 45, in the seal mode as well as in the pen mode, the edited images 281 are displayed on the LCDs 12 and 22, and the images 264 to 270 for performing various operations are displayed on the lower LCD 12.
  • steps SB59 to SB65 details of the processing in the seal mode (steps SB59 to SB65) will be described.
  • step SB59 the CPU 31 selects a seal image to be added to the edited image 281.
  • the selection of the seal image is performed by the user specifying a desired seal image from among the seal images stored in advance in the main memory 32, the storage data memory 34, or the memory card 28.
  • a sticker image is selected in step SB59, the selected sticker image is added to a predetermined position (for example, the center position) of the edited image 281.
  • a sticker image 291 is added to the edited image 281 and displayed on the LCDs 12 and 22 (FIG. 45).
  • step SB60 the process of step SB60 is executed.
  • step SB60 the CPU 31 receives an input to the touch panel 13.
  • the process at step SB60 is the same as the process at step SB52.
  • step SB61 the CPU 31 moves the sticker image 291 on the edited image 281 in accordance with an input to the touch panel 13.
  • the movement operation of the sticker image 291 is performed by the same operation as the zoom change instruction (step SB38) described above. That is, the user can move the sticker image 291 by first touching the area where the sticker image 291 is displayed, and performing an operation on the touch panel 13 while shifting the touch position.
  • the CPU 31 can detect the movement operation of the sticker image 291 by referring to the touch position data stored in the main memory 32 in step SB60.
  • step SB61 the movement process of the sticker image 291 in step SB61 is executed only when an operation for moving the sticker image 291 is performed, and when an input to the touch panel 13 is not performed and an operation other than the operation is performed. It will not be executed if. Following step SB61, the process of step SB62 is executed.
  • step SB62 the CPU 31 performs enlargement / reduction processing of the edited image 281 displayed on the lower LCD 12.
  • the process at step SB62 is the same as the process at step SB54.
  • the seal mode when the magnification of the edit image 281 displayed on the lower LCD 12 is changed, the seal image 291 is also enlarged / reduced along with the enlargement / reduction of the edit image 281, and the size and seal of the edit image 281 are displayed. The ratio with the size of the image 291 does not change.
  • the CPU 31 performs a process for moving the edited image 281 displayed on the lower LCD 12.
  • the process at step SB63 is the same as the process at step SB55. Following step SB63, the process of step SB64 is executed.
  • step SB64 the CPU 31 determines whether or not to change the edit mode.
  • the process at step SB64 is the same as the process at step SB56. If the determination result of step SB64 is Yes, the process of step SB51 is executed again. On the other hand, if the determination result of step SB64 is No, the process of step SB65 is executed.
  • step SB65 the CPU 31 determines whether or not to end the editing process.
  • the process at step SB65 is the same as the process at step SB57.
  • the determination result of step SB65 is Yes, the process of step SB72 described later is executed.
  • the determination result of step SB65 is No, the process of step SB60 is executed again.
  • step SB60 to SB65 the process in the sealing mode (steps SB60 to SB65) is repeated until the determination result of step SB64 becomes Yes or the determination result of step SB65 becomes No. Further, during the seal mode, the seal image 291 is added to the edited image 281, and the user can place the seal image at a desired position by an input on the touch panel 13.
  • step SB58 determines whether the current edit mode is the eraser mode.
  • the processes of steps SB66 to SB71 are executed.
  • the eraser mode as in the pen mode and the seal mode, the edited images 281 are displayed on the LCDs 12 and 22, and the images 264 to 270 for performing various operations are displayed on the lower LCD 12.
  • the input locus 283 and the sticker image 291 added during the period from the start of the editing process to the transition to the eraser mode are displayed on the LCDs 12 and 22 together with the edited image 281.
  • step SB66 the CPU 31 receives an input to the touch panel 13.
  • the process at step SB66 is the same as the process at step SB52.
  • step SB67 the CPU 31 erases the image of the input locus 283 or the seal image 291 on the edited image 281 in accordance with the input to the touch panel 13. Specifically, when the touch position data acquired in step SB66 indicates the position in the area where the input trajectory 283 or the seal image 291 added to the edited image 281 is displayed, the CPU 31 Delete the image added to the position. Then, the edited image 281 from which the image has been deleted is displayed on each LCD 12 and 22.
  • step SB67 the image erasing process in step SB67 is executed only when a touch input is performed on the input locus 283 or the region of the sticker image 291, and when the input to the touch panel 13 is not performed, When a touch input is performed on an area other than 283 and the seal image 291, it is not executed.
  • step SB68 the process of step SB68 is executed.
  • the CPU 31 performs enlargement / reduction processing of the edited image 281 displayed on the lower LCD 12 in step SB68, and performs moving processing of the edited image 281 in step SB69.
  • Steps SB68 and SB69 are the same as steps SB54 and SB55.
  • step SB70 the CPU 31 determines whether or not to change the edit mode.
  • the process of step SB70 is the same as the process of step SB56. If the determination result of step SB70 is Yes, the process of step SB51 is executed again. On the other hand, when the determination result of step SB70 is No, the process of step SB71 is executed.
  • step SB71 the CPU 31 determines whether or not to end the editing process.
  • the process at step SB71 is the same as the process at step SB57. If the determination result of step SB71 is Yes, the process of step SB72 is executed. On the other hand, when the determination result of step SB71 is No, the process of step SB66 is executed again.
  • step SB66 to SB71 the processing in the eraser mode (steps SB66 to SB71) is repeated until the determination result in step SB640 becomes Yes or the determination result in step SB71 becomes No. Further, during the eraser mode, the image of the input locus 283 and the sticker image 291 are erased in response to an input to the touch panel 13.
  • step SB72 the CPU 31 determines whether or not to save the edited image 281 edited by the editing process. This determination is made based on whether or not a touch input has been made to any region of the stop instruction image 287 and the completion instruction image 288 based on the touch position data acquired in step SB52, SB60, or SB66. That is, when a touch input is performed on the area of the stop instruction image 287, the CPU 31 determines that the editing process is stopped, that is, the edited image is not saved.
  • step SB72 determines that the editing process is completed, that is, the edited image is saved. If the determination result of step SB72 is Yes, the process of step SB73 is executed. On the other hand, if the determination result of step SB72 is No, the CPU 31 skips the process of step SB73 and ends the editing process shown in FIG.
  • step SB73 the CPU 31 saves (stores) the edited image 281 in the save data memory 34.
  • the edited image 281 may be saved by overwriting the saved image before editing processing, may be saved separately from the saved image before editing processing, or may be saved by overwriting or saved separately. You may make it make a user select whether to do. Further, the storage location of the edited image 281 may be the memory card 28 instead of the storage data memory 34.
  • the CPU 31 ends the editing process shown in FIG.
  • the user can add characters and pictures to the edited image by performing an input of drawing a locus on the touch panel 13. Further, the seal image can be added to a desired position on the edited image.
  • step SB44 the processing of step SB44 is executed after the editing processing (step SB43).
  • step SB44 the CPU 31 determines whether or not to end the photographing process. Specifically, it is determined whether or not the power button 14F has been pressed. When the determination result of step SB44 is No, the CPU 31 executes the process of step SB31 again. Thereafter, the processing loop of steps SB31 to SB44 is repeatedly executed until it is determined in step SB44 that the photographing process is to be ended. On the other hand, if the determination result of step SB44 is affirmative, the CPU 31 ends the photographing process shown in FIG.
  • the user can save an image captured by the camera in response to a shooting instruction.
  • it is set as the structure which has two display apparatuses, While displaying the image currently image
  • the touch panel 13 is provided on the lower LCD 12 to facilitate the operation.
  • FIG. 46 is a diagram showing an image displayed in the calendar process according to the present embodiment.
  • the image shown in FIG. 46 is displayed on the upper LCD 22 while the image displayed in the multi-function shooting process shown in FIG. 31 is displayed on the lower LCD 12.
  • touch input is performed on the calendar button 106
  • the image shown in FIG. 46 is displayed on the lower LCD 12 with a display effect of moving from the upper LCD 22 to the lower LCD 12.
  • buttons 302, 303, 304, and 305 are displayed on the lower LCD 12 in addition to the calendar image 306 for one month.
  • touch input is performed on any date included in the calendar image 306, a captured image or an input memo captured on the touch input date is stored in the main memory 32, the storage data memory 34, If it is stored in any of the memory cards 28, the corresponding captured image and / or memo is read out and the contents thereof are displayed on the upper LCD 22.
  • Scroll buttons 304 and 305 are button images for selecting a calendar image 306 to be displayed. That is, when a touch input is made to the scroll button 304 or 305, the year and month displayed as the calendar image 306 are sequentially changed.
  • the memo button 303 is a button image for performing an operation of storing a memo input by the user in the storage data memory 34 or the like in association with a specified date. That is, when a touch input is made to the memo button 303, the screen switches to a memo content reception screen (not shown), and the user uses the touch pen 27 or the like on the memo content reception screen to select an arbitrary character or figure. Can be entered.
  • the end button 302 is a button image for performing an operation to end the calendar process. That is, when a touch input is made to the end button 302, the calendar process is ended, and the image shown in FIG. 46 is displayed on the upper LCD 22 with a display effect of moving from the lower LCD 12 to the upper LCD 22. Will come to be. At substantially the same time, the image shown in FIG. 46 is displayed again on the lower LCD 12.
  • FIG. 47 is a diagram for explaining an example of an image communication system to which a plurality of game apparatuses 10 are connected.
  • 48 and 49 are diagrams showing screen display examples respectively displayed on the lower LCD 12 and the upper LCD 22 of the game apparatus 10 in the previous stage in which the transmission side or the reception side is determined.
  • 50 to 54 show screen display examples respectively displayed on the lower LCD 12 and the upper LCD 22 of the transmission-side game device 10t1 and the reception-side game devices 10r1 to 10r3 in the first to fifth stages of the communication application program, respectively.
  • FIG. FIG. 55 is a diagram showing a screen display example at the time of communication disconnection displayed on the lower LCD 12 and the upper LCD 22 on the transmitting game device 10t1 and on the receiving game devices 10r1 to 10r3, respectively.
  • a plurality of game apparatuses 10 transmit and receive image data such as photographs (captured images) via wireless communication.
  • the game apparatus 10 can wirelessly communicate with another game apparatus 10 using the wireless communication module 38 or the local communication module 39.
  • the local communication module 39 is used to perform predetermined communication.
  • An example in which wireless communication is performed with the same type of game device by using the communication method is used.
  • the game devices 10t1 to 10t3 shown in FIG. 47 are the game devices 10t on the transmission side that transmit image data, and the game devices on the reception side that the game devices 10r1 to 10r3 receive image data. It is assumed that the device 10r.
  • the user when the image communication application program is executed, the user is allowed to select whether the image data is to be transmitted or received. That is, whether to operate as a transmission-side game device or a reception-side game device is determined according to the user's selection.
  • the transmission-side device that executes only the transmission-side program and the reception-side device that executes only the reception-side program may be different devices.
  • the transmission-side game device 10t includes a game device 10t1 in which “Ichiro” is a user, a game device 10t2 in which “Taro” is a user, and a game device 10t3 in which “Hanako” is a user.
  • the receiving game device 10r includes a game device 10r1 in which “Jiro” is a user, a game device 10r2 in which “Saburo” is a user, and a game device in which “Shiro” is a user. 10r3.
  • each of the transmitting game devices 10t1 to 10t3 transmits a signal (transmission source data) indicating that the own device is the transmission source of the image data by broadcast.
  • each game apparatus 10 for example, information for inquiring the user whether to use the main body storage memory (for example, the storage data memory 34) or the memory card (for example, the memory card 28) is displayed on the lower LCD 12, for example. (FIG. 48).
  • the user of the game apparatus 10 can select which storage medium to use by touching any of the options displayed on the lower LCD 12 via the touch panel 13.
  • each game device 10 for example, information for inquiring the user whether to transmit a photo to another game device or to receive a photo from another game device is displayed on the lower LCD 12 (FIG. 49). . Then, the user of the game apparatus 10 becomes the transmission source (for example, the transmission-side game apparatuses 10t1 to 10t3) by touching any of the options displayed on the lower LCD 12 via the touch panel 13, respectively. It is possible to select whether to be a receiving destination (for example, the receiving game devices 10r1 to 10r3).
  • the transmission source for example, the transmission-side game apparatuses 10t1 to 10t3
  • the reception-side game devices 10r1 to 10r3 indicate that, for example, the lower-side LCD 12 is currently searching for the transmission-source game device 10t until the transmission-source data is received from the transmission-side game device 10t.
  • the text information “Looking for a partner to receive a photo ...” is displayed (the right diagram in FIG. 50).
  • the transmission-side game device 10t1 recruits the image data reception request from the reception-side game device 10 by transmitting the transmission source data, for example, the lower-side LCD 12 is currently searching for the reception-destination game device 10r.
  • a message indicating that it is present for example, text information stating “Looking for a partner to give a picture ...” is displayed (the left figure in FIG. 50).
  • the reception-side game devices 10r1 to 10r3 receive the transmission source data from the transmission-side game devices 10t1 to 10t3, for example, the user of the transmission-source game device 10t that has received the transmission source data on the lower LCD 12 Information indicating the name is displayed.
  • the user names Nt1 to Nt3 of the transmitting game devices 10t1 to 10t3 are displayed on the lower LCD 12 of the receiving game devices 10r1 to 10r3, respectively.
  • the users of the game devices 10r1 to 10r3 on the receiving side touch any of the user names Nt1 to Nt3 displayed on the lower LCD 12 via the touch panel 13, respectively, to thereby select any of the game devices 10t1 to 10t3 on the transmission side.
  • One device can be selected as the source device.
  • the receiver data indicating the reception request is transmitted.
  • the lower LCD 12 indicates the user name of the reception-destination game device 10r that has received the reception-destination data. Information is displayed. For example, in the example shown in the left diagram of FIG. 51, the user names Nr1 to Nr3 of the receiving game devices 10r1 to 10r3 that are requesting reception are displayed on the lower LCD 12 of the transmitting game device 10t1.
  • the transmission-side game device 10t1 of the present embodiment is not authorized to select a reception-side device from the displayed plurality of reception-side game devices 10r1 to 10r3, and the displayed reception-side game devices 10r1 to 10r3 It is possible to select whether to transmit image data to all or to stop transmission.
  • the user of the game device 10t1 on the transmission side can move to the image transmission process by touching the operation button icon Bs displayed as “Start” on the lower LCD 12 via the touch panel 13.
  • the transmitting game device 10t1 selects an image to be transmitted from images stored in a memory (for example, the storage data memory 34) or a memory card (for example, the memory card 28) in the main body of the game device 10t1. Perform the process of selection.
  • a memory for example, the storage data memory 34
  • a memory card for example, the memory card 28
  • perform the process of selection Typically, an image captured by the game device 10t1 is a transmission target, but another image (for example, an image received from another device or an image stored other than shooting) may be a transmission target.
  • thumbnails of images stored in the storage data memory 34 or the memory card 28 of the game apparatus 10t1 are displayed in the thumbnail display area At of the lower LCD 12.
  • the thumbnails displayed in the thumbnail display area At are displayed by scrolling left or right by touching the scroll button icon Bl or Br via the touch panel 13. Then, the user of the game device 10t1 on the transmission side can select a thumbnail image surrounded by the cursor C displayed on the lower LCD 12 as an image to be transmitted. At this time, the thumbnail image IM surrounded by the cursor C (that is, the image to be transmitted) is displayed on the upper LCD 22. Then, the user of the game device 10t1 on the transmission side touches the operation button icon Bt displayed as “Raise” on the lower LCD 12 via the touch panel 13, and thereby the image of the image IM currently being transmitted is displayed. Data can be transmitted. Note that the user of the game device 10t1 on the transmission side can end the image transmission process itself by touching the operation button icon Bf displayed as “False” on the lower LCD 12 via the touch panel 13.
  • the user of the game device 10t1 on the transmission side selects the image on the lower LCD 12, for example, while the user of the game device 10t1 on the transmission side selects the image to be transmitted.
  • text information stating “Waiting for the other party to select a photo ...” is displayed (right diagram in FIG. 52).
  • the game device 10t1 on the transmission side receives the image data of the image IM selected as the transmission target from the images stored in the memory or the memory card in the main body of the game device 10t1, and receives the game devices 10r1 to 10r3 on the reception side. Respectively.
  • the lower LCD 12 and / or the upper LCD 22 of the game device 10t1 on the transmission side displays that the image IM selected from the game device 10t1 is being transmitted to the game devices 10r1 to 10r3 on the reception side. For example, as shown in the left diagram of FIG. 53, the image IM being transmitted is displayed on the upper LCD 22, and the character information described as “I'm raising a photo ...” is displayed on the lower LCD 12.
  • the receiving game devices 10r1 to 10r3 are receiving image data from the transmitting game device 10t1, for example, on the lower LCD 12 (for example, , "Character information written as” I'm getting a photo ... "is displayed (right figure in Fig. 53).
  • the reception game devices 10r1 to 10r3 finish receiving the image data transmitted from the transmission game device 10t1, for example, the image IM indicated by the image data received from the transmission game device 10t1 on the upper LCD 22 is displayed. And prompts the user to select whether to receive image data from the game apparatus 10t1. For example, as shown in the right diagram of FIG. 54, the received image IM is displayed on the upper LCD 22, and the character information indicating “I received a photo. Do you want to receive more?” Is displayed on the lower LCD 12. . Then, the users of the receiving game devices 10r1 to 10r3 touch the operation button icon By displayed on the lower LCD 12 via the touch panel 13, respectively, to the transmitting game device 10t1. In addition, it is possible to request reception of image data.
  • the receiving game devices 10r1 to 10r3 wait for the screen described with reference to the right diagram of FIG. 52 to be displayed and for the user of the transmitting game device 10t1 to select the image to be transmitted again. Become. Further, the users of the game devices 10r1 to 10r3 on the receiving side touch the operation button icon Bn displayed as “No” on the lower LCD 12 via the touch panel 13, respectively, thereby stopping the subsequent image data reception. Thus, communication with the game device 10t1 as the transmission source can be terminated.
  • the transmission-side game device 10t1 finishes transmitting image data to the reception-side game devices 10r1 to 10r3, for example, the transmission-side game device 10t1 posts the image IM that has been transmitted to the upper LCD 22 and also receives the reception-side game devices 10r1 to 10r1.
  • a message indicating that it is being selected whether or not to receive image data is displayed.
  • the image IM that has been transmitted is displayed on the upper LCD 22, and the character information that states “I am thinking about whether or not the other party still receives” is displayed on the lower LCD 12.
  • FIG. 56 is a diagram showing an example of various data stored in the main memory 32 in response to executing the image communication application program.
  • the main memory 32 stores temporary data generated in programs and processes read from the memory card 28, the memory card 29, and the storage data memory 34.
  • operation data Da, identification data Db, user data Dc, transmission source data Dd, reception destination data De, image data Df, and the like are stored in the data storage area of the main memory 32.
  • the program storage area of the main memory 32 stores various program groups Pa composed of image communication application programs and the like.
  • the operation data Da is touch coordinate data (touch coordinate data) indicating the touch position TP in the screen coordinate system where the player is touching the touch panel 13, and data (operation) indicating a state where the player is operating the operation button group 14.
  • Button data is stored.
  • the touch coordinate data and the operation button data are acquired every time unit (for example, 1/60 second) in which the game apparatus 10 performs a game process, and stored and updated in the operation data Da according to the acquisition.
  • identification data Db data indicating a unique identification number for identifying the game apparatus 10 is stored.
  • data indicating the own device ID preset in the preset data memory 35 of the game apparatus 10 is stored in the identification data Db.
  • the own device ID a serial number unique in the manufacturing factory may be stored, or identification information randomly generated by the game apparatus 10 may be stored.
  • the user data Dc stores data indicating a user name preset by the user of the game apparatus 10.
  • the user name input by the user is described in the preset data memory 35 or the like of the game apparatus 10, and data indicating the user name is stored in the user data Dc.
  • the transmission source data Dd stores data indicating an identification number and a user name of the game apparatus 10 that is a transmission source when image data is transmitted and received.
  • the reception destination data De stores data indicating the identification number and user name of the game apparatus 10 that is a reception destination when image data is transmitted and received.
  • the image data Df includes transmission image data Df1, reception image data Df2, operation image data Df3, and the like.
  • the transmission image data Df1 temporarily stores image data of the image when the image is transmitted to another game apparatus 10.
  • the operation image data Df3 is image data indicating operation buttons for operating the game apparatus 10 and information for notifying the user.
  • FIG. 57 is a flowchart illustrating an example in which the game apparatus 10 performs image communication processing by executing the image communication application program.
  • FIG. 58 is a subroutine showing the detailed operation of the image transmission process executed in step SC52 of FIG.
  • FIG. 59 is a subroutine showing the detailed operation of the image reception process executed in step SC53 of FIG.
  • FIG. 60 is a diagram illustrating an example of signals transmitted and received between the transmission source game device 10t and the reception destination game device 10r.
  • the program for executing these processes is included in the program stored in the storage data memory 34, and is stored via the memory control circuit 33 when the power of the game apparatus 10 is turned on.
  • the data is read from the main data memory 34 to the main memory 32 and executed by the CPU 31.
  • the image communication application program is stored in the storage data memory 34 in advance, but the program may be downloaded to the game apparatus 10 via the Internet or the like. Further, the program may be read from a program stored in the memory card 28 or the memory card 29 and executed.
  • a boot program (not shown) is executed by the CPU 31, thereby selecting a plurality of application programs stored in the storage data memory 34.
  • a launcher program which is a program to be executed automatically, is loaded into the main memory 32 and executed by the CPU 31.
  • the image communication application program is loaded into the main memory 32 by selecting and executing the image communication application on the launcher program.
  • the loaded image communication application program is executed by the CPU 31.
  • the image communication application program includes not only an image communication function but also a shooting function and a shot image display function for displaying a shot image.
  • the user can selectively execute each function by an operation using a touch panel or buttons.
  • the shooting function is selected, an image captured by the currently selected camera among the inner camera 23 and the outer camera 25 is displayed on the lower LCD 12 in real time.
  • the photographing process is executed by operating the L button 14I or the R button 14J, and the selection is made between the main body storage memory (for example, the storage data memory 34) or the memory card (for example, the memory card 28).
  • the captured image is stored in the stored storage medium. Note that the photographed image may be displayed on the lower LCD 12 immediately after photographing.
  • the photographed image display function When the photographed image display function is selected, images desired by the user are displayed one by one or in a list from the photographed images stored in the selected storage medium of the main body storage memory or the memory card. Can do. Further, the user selects whether to use the main unit storage memory or the memory card before selecting each function, and the storage means selected here stores the captured image storage destination and the captured image display in the shooting function. It becomes a reading source of an image to be displayed in the function. In the image communication function, the reading source of the image transmitted by the transmitting side and the storage destination of the image received by the receiving side are also the storage means selected here. When the user selects and executes the image communication function, the processes after step SC51 shown in FIG. 57 are executed.
  • the CPU 31 determines whether to use a memory (for example, the storage data memory 34) in the main body or a memory card (for example, the memory card 28) in subsequent processing. (Step SC50). For example, on the lower LCD 12 and / or the upper LCD 22 of the game apparatus 10, a display prompting the user to select whether to use the main body storage memory or the memory card is performed (see FIG. 48). Then, in response to the user performing an operation of selecting any option, the CPU 31 determines which storage medium to use. Then, when using the memory card, the CPU 31 proceeds to the next step SC57. On the other hand, when using the main body storage memory, the CPU 31 advances the processing to the next step SC51.
  • a memory for example, the storage data memory 34
  • a memory card for example, the memory card 28
  • step SC57 the CPU 31 determines whether or not a memory card (for example, the memory card 28) for storing an image in the game apparatus 10 is attached to the connector of the game apparatus 10. Then, when the memory card is attached to the connector of game device 10, CPU 31 proceeds to the next step SC51. On the other hand, when the memory card is not attached to the connector of the game apparatus 10, the CPU 31 displays a notification for prompting the user to attach the memory card on the lower LCD 12 and / or the upper LCD 22 (step SC58). Returning to step SC50, the process is repeated.
  • a memory card for example, the memory card 28
  • step SC51 based on the operation data Da, the CPU 31 determines whether to transmit an image to another game device 10r or receive an image from another game device 10t in the subsequent processing. For example, on the lower LCD 12 and / or the upper LCD 22 of the game apparatus 10, a display prompting the user to select whether to send a photo to another game apparatus 10r or to receive a picture from another game apparatus 10t is performed (FIG. 49). reference). Then, in response to the user performing an operation of selecting one of the options, the CPU 31 determines whether to transmit an image to another game device 10r or to receive an image from another game device 10t. And CPU31 advances a process to the following step SC52, when transmitting an image to the other game device 10r. On the other hand, when receiving an image from another game apparatus 10t, the CPU 31 advances the processing to the next step SC53.
  • step SC52 the CPU 31 performs an image transmission process and proceeds to the next step SC54.
  • step SC54 the CPU 31 performs an image transmission process and proceeds to the next step SC54.
  • the CPU 31 transmits transmission source data indicating that the own apparatus is the transmission source of the image data, for example, using the local communication module 39 (step SC63), and proceeds to the next step SC. .
  • the CPU 31 creates transmission source data using data indicating the identification number and the user name stored in the identification data Db and the user data Dc, and stores the created data in the transmission source data Dd. Then, by transmitting the transmission source data stored in the transmission source data Dd by broadcast, the presence of the game device 10 that is the transmission source is notified to another game device 10r that can receive the transmission source data. (See FIG. 60).
  • the CPU 31 searches for another game device 10r as a reception destination (step SC64), and proceeds to the next step.
  • the other game device 10r that is the reception destination selects the game device 10t that is the transmission source that the player wants to receive based on the received transmission source data.
  • reception destination data indicating that the own device is the reception destination of the image data is transmitted to the selected transmission source game device 10t (see FIG. 60).
  • the CPU 31 waits for reception of the destination data via the local communication module 39, for example. Then, when receiving the destination data, the CPU 31 describes the identification number and user name of the other game device 10r of the destination indicated by the destination data in the destination data De.
  • the CPU 31 is searching for another game device 10r as a reception destination, for example, a notification indicating that it is currently searching for the game device 10r as the reception destination is displayed on the lower LCD 12 (see FIG. 50 (see left figure).
  • the CPU 31 receives the reception destination data from the other game device 10r of the reception destination, for example, information indicating the user name of the other game device 10r of the reception destination indicated by the reception destination data on the lower LCD 12 (left in FIG. 51) Display user names Nr1 to Nr3).
  • the CPU 31 determines whether or not to start a process of transmitting an image to the other game device 10r of the received recipient (step SC65). For example, the CPU 31 displays on the lower LCD 12 and / or the upper LCD 22 a display (operation button icon Bs) that prompts the user to start an image transmission process. Then, when the user performs an operation for starting the process of transmitting an image, it is determined that the process is to be started, and the process proceeds to the next step SC66. On the other hand, when the CPU 31 does not start the process of transmitting the image, the CPU 31 returns to step SC64 and continues to search for another game apparatus 10r that is the reception destination.
  • preparation for transmission from the transmission source game device 10t to the reception destination game device 10r has been completed in a period from when the determination to start the process of transmitting an image is made until the transmission image is determined.
  • the transmission preparation completion data shown is transmitted.
  • reception ready data that has been ready to receive image data in response to receiving the transmission ready data is received. Is transmitted to the game device 10t as the transmission source (see FIG. 60).
  • step SC66 the CPU 31 determines whether an image to be transmitted to the other game device 10r is selected based on the operation data Da. For example, the CPU 31 displays a screen for allowing the user to select an image to be transmitted to the other game apparatus 10r on the lower LCD 12 and / or the upper LCD 22 (see the left diagram in FIG. 52) and prompts the user to select a transmitted image. Then, in response to the user performing an operation for determining a transmission image (for example, a touch operation on the operation button icon Bt), the CPU 31 proceeds to the next step SC69. On the other hand, if the user has not performed an operation for determining a transmission image (No in step SC66), CPU 31 advances the process to next step SC67.
  • step SC69 the CPU 31 transmits the image data indicating the transmission image selected in step SC66 to the other game apparatus 10r that is the reception destination, and proceeds to the next step.
  • the CPU 31 extracts image data corresponding to the transmission image selected in step SC66 from the storage medium selected in step SC50, and stores the extracted image data in the transmission image data Df1.
  • the CPU 31 refers to the reception destination data De to identify the other game device 10r that is currently the reception destination, and uses, for example, the image data stored in the transmission image data Df1 via the local communication module 39. It transmits to the other specified game device 10r (see FIG. 60).
  • the CPU 31 While the image data is being transmitted to the other game device 10r as the reception destination, the CPU 31 displays a notification indicating that the image data is currently being transmitted to the game device 10r as the reception destination, for example, on the lower LCD 12. (See the left figure in FIG. 53).
  • the CPU 31 waits for reception of a reception destination response respectively transmitted from the reception destination game device 10r (step SC70).
  • the reception destination response includes a response (reception request) indicating reception of image data or a response (reception end) indicating completion of reception, and the game device 10r as the reception destination respectively receives the image data.
  • one of the responses is transmitted to the game device 10t as the transmission source (see FIG. 60).
  • the CPU 31 waits for responses from all of the currently set recipient game devices 10r, and if it receives a reception request from at least one recipient game device 10r (Yes in step SC71), returns to step SC66 to process. repeat.
  • the CPU 31 waits for responses from all the currently set recipient game devices 10r and receives the end of reception from all the recipient game devices 10r (No in step SC71), the CPU 31 performs the processing according to the subroutine. finish.
  • the CPU 31 receives the reception end from the receiving game device 10r
  • the CPU 31 deletes the data of the receiving game device 10r from the receiving data De.
  • the CPU 31 displays a notification indicating that a response from the game device 10r as the reception destination is currently waiting, for example, on the lower LCD 12 ( (See the left figure in FIG. 54).
  • step SC67 determines whether or not to end the process of transmitting the image based on the operation data Da (step SC67). For example, the CPU 31 determines whether or not to end the image transmission process in response to a user operation (for example, a touch operation on the operation button icon Bf). Then, when ending the process of transmitting the image, the CPU 31 transmits data (transmission end; see FIG. 60) indicating that the transmission is ended to the game device 10r that is the current reception destination (step SC68). The processing by the subroutine is finished. On the other hand, if the CPU 31 does not end the image transmission process, it returns to step SC66 and repeats the process.
  • a user operation for example, a touch operation on the operation button icon Bf
  • step SC54 the CPU 31 determines whether or not there is no receiving destination. For example, the CPU 31 determines that there is no recipient when the determination in step SC71 is No (that is, reception completion has been received from all the recipient game devices 10r). CPU 31 advances the process to the next step SC56 when there is no recipient. On the other hand, when the determination in step SC67 is YES (ie, when the user has selected the end of transmission), the CPU 31 disconnects communication with the game device 10r as the reception destination and performs step SC51. Return to and repeat the process.
  • CPU31 performs an image reception process in step SC53, and advances a process to following step SC55.
  • image receiving process performed in step SC53 will be described with reference to FIG.
  • the CPU 31 receives the transmission source data indicated to be the transmission source of the image data (step SC84), and advances the processing to the next step.
  • the game device 10t serving as the transmission source transmits the transmission source data indicating that the own device is the transmission source of the image data by broadcast using, for example, the local communication module 39. (See FIG. 60).
  • the CPU 31 can know the existence of the other game device 10t that has become the transmission source by receiving the transmission source data transmitted by broadcast.
  • the CPU 31 acquires the identification number and the user name of the transmission source game device 10t indicated by the transmission source data, and describes them in the transmission source data Dd.
  • the CPU 31 while the CPU 31 is searching for another game device 10t as a transmission source, for example, a notification indicating that the transmission source game device 10t is currently being searched is displayed on the lower LCD 12 (see FIG. 50 (see right figure). Further, when receiving the transmission source data from the other game device 10t of the transmission source, the CPU 31 displays, for example, information indicating the user name of the other game device 10t of the transmission source indicated by the transmission source data on the lower LCD 12 ( (See the right figure in FIG. 51).
  • the CPU 31 determines whether or not the transmission source has been determined from any of the other game devices 10t that have been searched (step SC85). For example, the CPU 31 displays on the lower LCD 12 and / or the upper LCD 22 a prompt for selection from information indicating the user name of the other game device 10t of the transmission source (see the user names Nt1 to Nt3 on the right side of FIG. 51). Then, in response to the user performing an operation of selecting one of the user names, it is determined that the image is received with the selected user as the transmission source, and the process proceeds to the next step SC86. On the other hand, if the CPU 31 does not determine the transmission source for receiving the image, the CPU 31 returns to step SC84 and continues to search for another game device 10t as the transmission source.
  • step SC ⁇ b> 86 the CPU 31 transmits reception destination data indicating that the own device is the reception destination of the image data to the other game apparatus 10 t serving as the selected transmission source using, for example, the local communication module 39. Proceed to the next step. For example, the CPU 31 creates reception destination data using the identification number and the data indicating the user name stored in the identification data Db and the user data Dc, respectively, and stores the created data in the reception destination data De. Then, the reception destination data stored in the reception destination data De is transmitted to the other game device 10t serving as the transmission source, whereby the other game device 10t that receives the reception destination data is received. The presence of the previous game apparatus 10 and the user name thereof are notified (see FIG. 60).
  • preparation for transmission to the receiving game device 10r is completed in a period between the time when the other game device 10t of the transmission source determines to start the process of transmitting the image and the time when the transmission image is determined.
  • Transmission preparation completion data indicating that it has been transmitted is transmitted.
  • the reception ready device is ready to receive image data in response to receiving the transmission ready data.
  • Data is transmitted to the other game device 10t of the transmission source (see FIG. 60).
  • the CPU 31 determines whether or not data indicating the end of transmission has been received from the other game device 10t of the transmission source (step SC87), and whether or not the user has performed an operation to end reception based on the operation data Da. (Step SC88) and whether or not image data has been received from another game device 10t of the transmission source (Step SC89). For example, when an image transmitted by another game device 10t of the transmission source is being selected, the CPU 31 displays a screen on the lower LCD 12 and / or the upper LCD 22 indicating that the other party is waiting to select a photo ( 52), the user is notified of the current situation.
  • the CPU 31 determines that the user has performed an operation to cancel the reception in response to the user performing an operation to stop receiving the image (for example, a touch operation on the operation button icon Bf) (Yes in step SC88). Then, the process proceeds to the next step SC93.
  • the CPU 31 receives a transmission end from the other game device 10t of the transmission source (see step SC68 and FIG. 60 in FIG. 58) (Yes in step SC87)
  • the CPU 31 ends the processing by the subroutine.
  • CPU 31 proceeds to the next step SC90 when image data reception (see step SC69 in FIG. 58 and FIG. 60) starts from another game device 10t of the transmission source (Yes in step SC89).
  • any of the determinations is negative (ie, Steps SC87 to SC89 are all No), CPU 31 repeats the determinations of Steps SC87 to SC89.
  • step SC90 the CPU 31 stores the image data (see FIG. 60) received from the other game device 10t in the received image data Df2. Then, the CPU 31 saves the image data stored in the received image data Df2 in the storage medium selected in step SC50, and advances the processing to the next step.
  • the CPU 31 is currently receiving the image data from the game device 10t as the transmission source on the lower LCD 12, for example, while receiving the image data. Is displayed (see the right figure of FIG. 53).
  • the CPU 31 determines whether or not to further receive an image from the other game device 10t of the transmission source. For example, the CPU 31 displays a screen on the lower LCD 12 and / or the upper LCD 22 that allows the user to select whether or not to further receive an image from the other game device 10t of the transmission source (see the right figure in FIG. 54). Encourage selection. Then, the CPU 31 proceeds to the next step SC92 in response to the user further performing an operation for requesting image reception (for example, a touch operation on the operation button icon By). On the other hand, the CPU 31 advances the processing to the next step SC93 in response to the user performing an operation (for example, a touch operation on the operation button icon Bn) to end the image reception.
  • the CPU 31 displays a screen on the lower LCD 12 and / or the upper LCD 22 that allows the user to select whether or not to further receive an image from the other game device 10t of the transmission source (see the right figure in FIG. 54). Encourage selection. Then, the CPU 31 proceeds to the next step SC92 in response to the user further
  • step SC92 the CPU 31 further transmits data (reception request; see FIG. 60) indicating that image data is to be received to the other game device 10t of the transmission source, and returns to step SC87 to repeat the process.
  • step SC93 the CPU 31 transmits data indicating the end of reception (reception end; see FIG. 60) to the other game device 10t of the transmission source, and ends the processing by the subroutine.
  • the reception may be automatically canceled separately from the user's operation. For example, the remaining storable amount of the storage medium selected in step SC50 is monitored, and when the remaining amount falls below a predetermined amount, the user is notified that the remaining number of stored sheets has become zero. Then, the process of step SC93 may be performed.
  • step SC55 the CPU 31 determines whether a transmission end has been received. For example, if the determination of step SC87 determines Yes (that is, the transmission end is received from the transmission source game device 10t), the CPU 31 proceeds to the next step SC56. On the other hand, if No is determined in the determination step of step SC91 (that is, the state where the user has selected the end of reception), the CPU 31 disconnects communication with the game device 10t as the transmission source, and performs step SC51. Return to and repeat the process.
  • step SC56 the CPU 31 performs a communication disconnection process and ends the process according to the flowchart. For example, the CPU 31 terminates (disconnects) communication with the other game apparatus 10 that is currently the communication partner, and displays a screen indicating that the communication is disconnected on the lower LCD 12 and / or the upper LCD 22 ( (See the left or right diagram in FIG. 55) The current status is notified to the user.
  • the transmission apparatus that receives the image data can be selected. Therefore, when the game apparatus 10 transmits / receives an image between the apparatuses, the game apparatus 10 can select the transmission side apparatus desired by the user and receive the image.
  • the receiving game device 10r that receives the image data has a right to select the transmission source game device 10t that transmits the image data, but the transmission source game device 10t also has the right. You may have the right to select the receiving game device 10r which receives image data.
  • the transmission source can select the reception destination as well. .
  • a transmission source user is selected on the reception destination game device 10r
  • a check box is added to the reception destination user name displayed on the display screen of the transmission source game device 10t (for example, user names Nr1 to Nr3). Next to).
  • the user of the game device 10t as the transmission source can transmit the image data only to the user who has received the check by checking the check box given to the user name of the reception destination by a touch operation. .
  • the receiving game device 10r can leave the group that transmits and receives images at a timing desired by the user. Further, even if the receiving game device 10r is removed from the group, the transmitting game device 10t can continue to transmit image data as long as at least one receiving game device 10r remains. . As a result, even if the receiving game device 10r leaves the above group due to a shortage of storable remaining capacity, it does not affect the sending game device 10t and other receiving game devices 10r. However, if all of the recipient game devices 10r request to continue image communication, the image data transmission is continued, and if at least one of the recipient game devices 10r is removed from the group, the group It does not matter if all communication belonging to is terminated.
  • the transmission source data is first transmitted from the game device 10t as the transmission source by broadcasting to transmit data to an unspecified number of opponents, but communication is started by another method. It doesn't matter.
  • the game device 10r that is the recipient may first send the recipient data to an unspecified number of opponents, and the sender game device 10t that received the recipient data may return the sender data. Absent.
  • the user name of the game device 10r that transmits the reception destination data may not be described in the reception destination data transmitted first.
  • an image to be transmitted from the game device 10t to the game device 10r is selected after the reception-target game device 10r to communicate with the transmission-source game device 10t is determined. Accordingly, the transmission source game device 10t can transmit the selected transmission images one after another to the determined reception destination game device 10r, and can easily transmit various images. However, when such an effect is not expected, the transmission image may be determined by another procedure. For example, the transmission-source game device 10t determines a transmission device to be transmitted to another game device 10, and then determines a game device 10r that is a reception destination.
  • the transmission source data when the transmission source data is first transmitted from the game device 10t as the transmission source to a large number of unspecified opponents, it is transmitted together with data indicating the determined transmission image.
  • the user of the game device 10r that is the receiving destination can select the transmission source that wants to receive the image data by viewing the image scheduled to be transmitted together with the user name of the transmission source, and thus the information for selection increases. This makes it possible to select a transmission source that suits your needs.
  • the thumbnail image surrounded by the cursor C when the button Bt is touched is selected as the image to be transmitted. That is, images are selected and transmitted one by one, but a plurality of images may be selected and transmitted. For example, by performing a selection operation (for example, an operation of directly touching) a thumbnail image displayed in the thumbnail display area At in the left diagram of FIG. 52, the thumbnail image is highlighted and an image corresponding to the thumbnail image is displayed. Selected state. Further, a plurality of images may be selected by performing the selection operation a plurality of times, and a plurality of images in the selected state may be transmitted by touching the button Bt in that state. .
  • a selection operation for example, an operation of directly touching
  • the number of images transmitted at one time is limited to one.
  • the number of sheets transmitted at a time is limited to the selectable number. In other words, in the latter case, it may be possible not to select more than a predetermined number of images at a time, and if the total capacity of the selected images exceeds a predetermined capacity, no more images can be selected at a time. May be. In addition to the number of selectable images, the number of images transmitted at a time may be limited.
  • the transmission source data from the game device 10t that is the transmission source to the unspecified number of opponents first it may be transmitted to the game device 10r that is the reception destination by further including other information.
  • information indicating the title and the number of images scheduled to be transmitted from the game device 10t as the transmission source may be included in the transmission source data and transmitted.
  • the receiving game device 10r can display information indicating the title and the number of images included in the received transmission source data together with the user name of the transmission source. The information for selection increases and the transmission source can be selected more appropriately.
  • the title of the image to be included in the transmission source data may be selected from fixed titles determined in advance by the user of the game device 10t as the transmission source, or may be freely input by the user.
  • the number of images to be included in the transmission source data may be the number of images to be transmitted by the user of the transmission source game device 10t, or the number of photos stored in the game device 10t is included as the number of images. It doesn't matter.
  • screen display examples are merely examples, and it goes without saying that other screen displays may be performed.
  • a notification indicating the state is displayed during transmission / reception of image data, but when the time for transmitting / receiving the image data is extremely short, the notification is displayed. You don't have to.
  • a still image captured by the game apparatus 10 is transmitted / received between the game apparatuses 10 as a transmission target, but a moving image may be transmitted / received.
  • the moving image to be transmitted may be a moving image captured by the game apparatus 10, or may be a moving image received from another device or a moving image stored other than shooting.
  • step SC51 that is, whether the image is sent to another game device 10r or whether the image is received from another game device 10t.
  • step SC56 is performed, that is, the communication with the other game device 10 that is the communication partner is disconnected, and the communication is disconnected. A screen indicating that this may be displayed (see the left diagram or the right diagram in FIG. 55), and the processing according to the flowchart may be terminated.
  • the configuration of the display screen for two screens may be other configurations.
  • the lower LCD 12 and the upper LCD 22 may be arranged on the left and right on one main surface of the lower housing 11.
  • the lower LCD 12 is the same as the lower LCD 12 and has a vertically long LCD (that is, a single LCD having a vertical display size of two screens) that has a double vertical length. It may be arranged on one main surface of the housing 11 so that two images are displayed up and down (that is, displayed adjacently without the upper and lower boundary portions).
  • a horizontally long LCD having the same vertical width as that of the lower LCD 12 and having a horizontal width twice as large as that of the lower LCD 12 is disposed on one main surface of the lower housing 11 so that two game images can be horizontally displayed. (I.e., displayed adjacent to each other without the left and right boundary portions). That is, two images may be displayed by physically dividing one screen into two. Regardless of the image format, if the touch panel 13 is disposed on the screen on which the display image displayed on the lower LCD 12 is displayed, the present invention can be similarly realized. When the two images are displayed by physically dividing one screen into two, the touch panel 13 may be disposed on the entire screen.
  • the touch panel 13 is integrally provided in the game apparatus 10, but it goes without saying that the present invention can be realized even if the game apparatus and the touch panel are configured separately. Further, the touch panel 13 may be provided on the upper surface of the upper LCD 22 and the display image displayed on the lower LCD 12 described above may be displayed on the upper LCD 22. Furthermore, although two display screens (lower LCD 12 and upper LCD 22) are provided in the present embodiment, the number of display screens may be one. In other words, in the present embodiment, the touch panel 13 may be provided by using only the lower LCD 12 as a display screen without providing the upper LCD 22. In the present embodiment, the touch panel 13 may be provided on the upper surface of the upper LCD 22 without providing the lower LCD 12, and the display image displayed on the lower LCD 12 may be displayed on the upper LCD 22.
  • the touch panel 13 is used as an input unit of the game apparatus 10 that realizes coordinate input.
  • the pointing device is an input device that specifies an input position and coordinates on the screen.
  • a mouse, a trackpad, a trackball, or the like is used as an input means, and is calculated from an output value output from the input means.
  • the present invention can be similarly realized by using the position information of the screen coordinate system.
  • pointing devices in the case of a stationary game device in which a player holds a game controller and enjoys a game, other types of pointing devices are also conceivable.
  • a camera fixed to the housing of the game controller can be used as the pointing device.
  • the captured image captured by the camera changes in accordance with the change in position indicated by the housing of the game controller. Therefore, by analyzing this captured image, it is possible to calculate the coordinates indicated by the housing on the display screen.
  • the present invention it goes without saying that the present invention can be realized even if the game device 10 is not provided with a pointing device itself such as the touch panel 13.
  • the portable game apparatus 10 and the stationary game apparatus have been described.
  • the image communication application program of the present invention is executed by an information processing apparatus such as a general personal computer to The invention may be realized.
  • the shape of the game device 10 described above, the shape, number, and installation position of the operation buttons 14 and the touch panel 13 provided on the game device 10 are merely examples, and other shapes, numbers, and installation positions.
  • the present invention can be realized.
  • the execution order of each step used in the above-described image communication processing, a screen display example, and the like are merely examples, and that the present invention can be realized even with another execution order or screen display.
  • FIG. 61 is a diagram showing an example of a sound selection screen 400 in the sound function in the game apparatus 10 according to the present embodiment.
  • game device 10 uses a recording data file recorded by a user as a sound function as a sound function, or music data stored in an SD card as a sound function.
  • a plurality of functions including a function of playing a music file and the like are installed, and the user can arbitrarily select a desired function on the sound selection screen 400 shown in FIG.
  • a plurality of icons 402 and 404 corresponding to each function mounted on the game apparatus 10 are displayed on the screen of the lower LCD 12.
  • the user can freely record with the microphone of the main unit to create a recording data file, play back the created recording data file, or create the recorded data. Switch to microphone recording / playback mode for editing files.
  • the “play with music on the SD card” icon 404 when the “play with music on the SD card” icon 404 is selected, a transition is made to a music playback mode of a function for playing back music files that are music data stored on the SD card.
  • the storage of the music file on the SD card is appropriately performed by a personal computer or the like as an example.
  • the music file is stored via the Internet using the wireless communication module 38 described above.
  • the music file downloaded to the SD card may be stored by transmitting / receiving data to / from the server.
  • the user when the user selects the “setting” icon 408, the user can freely select a function related to the setting process.
  • a bird-shaped object 410 is displayed at the bottom of the lower LCD 12 screen.
  • an automatic recording / playback function described later is executed.
  • a music playback mode which is a function of executing a playback process of a music file that is music data stored in an SD card, will be described.
  • the music playback mode is selected and a music playback folder list selection screen 500 is displayed.
  • FIG. 62 is a view for explaining the music playback folder list selection screen 500 according to the present embodiment.
  • FIG. 62A shows a case where the music playback folder list selection screen 500 is displayed on the screen of the lower LCD 12.
  • a list screen 500 # of music files included in the currently selected folder is displayed on the upper LCD 22 screen.
  • the user touches the screen of lower LCD 12 with touch pen 27 or the like to select an arbitrary folder from folder list display range 530 on music playback folder list selection screen 500.
  • folder list display range 530 each folder is displayed obliquely along the circumference of the disk.
  • the cursor 520 selects the folder displayed at the top of the folder list display range 530. Touch the position where another folder in the folder list display range 530 on the screen of the lower LCD 12 is displayed with the touch pen 27 or the like, or touch the screen and move the touch pen 27 or the like while touching it.
  • the scroll display process of the folder list corresponding to the locus of the touch pen is executed.
  • the position of the cursor 520 does not change as an example, and it is assumed that the top folder of the folder list currently displayed in the folder list display range 530 is selected. Therefore, the scroll display processing of the folder list is executed so that the disc rotates according to the locus of the touch pen.
  • the position of the cursor 520 does not change as an example.
  • the position of the cursor 520 can be moved to a position corresponding to the touch position touched with the touch pen 27. Specifically, when an operation (touch-off) for releasing the touched state is performed without touching the touch position and changing the touch position from the touched position, only the cursor 520 is displayed according to the touch position. Moving. At that time, the scroll display process of the folder list is not executed. Specifically, in FIG. 62A, when the “Random” folder is touched, only the cursor 520 moves to the “Random” folder position.
  • the touch pen 27 or the like is moved while touching on the screen, that is, the touch position is changed from the touched position while the touch position is changed (drag operation) is executed.
  • the scroll display processing of the folder list is executed according to the movement locus (movement distance) of the touch pen.
  • the cursor 520 can be maintained at the position of the cursor 520 before the scroll display process, or can be set to the state selected for the top folder in the folder list.
  • FIG. 62B shows a list screen of music files included in the folder selected by the cursor 520. It is updated to 500 #. Specifically, when a favorite folder described later is touched, a list of music files registered in the favorite folder is displayed. When the automatic folder is touched, random playback is executed as described later, and a list of music files to be played back by random playback is displayed. In the case of random playback, the file name is displayed for music files that have already been played, and the file names of music files that have not been played are replaced with another symbol. Is also possible. With this process, in the case of random playback, the user cannot give a sense of expectation until the next played music file is played back, so that the user can have a sense of expectation, and music data can be played quietly.
  • the user can move the slider 518 of the folder list scroll bar 510 displayed on the screen of the lower LCD 12 with the touch pen 27 or the like.
  • the folder list displayed in the folder list display range 530 is updated, and the folder list corresponding to the cursor position is displayed.
  • the user can set the volume output from the speaker or the like by designating the volume setting icon 550 with the touch pen 27 or the like.
  • the user can return to the sound selection screen 400 which is the previous screen by selecting the “return” icon 512.
  • the music file selection screen is displayed by selecting the “open” icon 514.
  • the user can execute a function corresponding to the selected function icon by selecting the selected function icon 516 in FIG. It is assumed that the display and setting of the selection function icon are switched corresponding to the folder currently selected by the cursor 520.
  • a case where the folder of “Best 10” which is one of the favorite folders is selected is shown, and a selection function icon 516 of “Delete All” is provided corresponding to the folder. Yes.
  • the “Delete All” selection function icon 516 is selected, a process of deleting all the music files registered in the best 10 folders is executed.
  • a favorite folder which will be described later, can be displayed when a music file is registered in the folder, and the folder can be prevented from being displayed when the music file is not registered.
  • the “Omakase” folder is displayed in the folder next to the “Best 10” folder, and when the “Omakase” folder is selected and executed, all music files from the beginning to the end are displayed. It is assumed that the playback order is specified at random and playback is started. Then, when the reproduction of the last designated music file is completed, the reproduction order is again designated at random and the reproduction is continued. When the “Random” folder is selected, random playback is performed but the playback order is specified. Therefore, it is possible to return to a music file that has been played once and repeat playback. In addition, when the last specified music file finishes playing and the next playback order is specified at random, the last specified music file is the same as the next first music file.
  • the playback process selection screen 503, which will be described later, is displayed because the playback process is automatically started.
  • “Best 10” is followed by “Omakase” folder, and “Favorite” folder and “Collection” folder which are other favorite folders in this order. It is not limited to the display order and can be displayed freely.
  • the “Omakase” folder and “Best 10” can be switched and displayed. For example, when the initial position of the cursor 520 is the “Random” folder, the above playback process is automatically started, so that the user can play music data without selecting anything.
  • FIG. 63 is a diagram for explaining another music playback folder list selection screen 501 according to the present embodiment.
  • FIG. 63A shows a case where the music playback folder list selection screen 501 of the lower LCD 12 is displayed.
  • a list screen 501 # of music files included in the currently selected folder is displayed on the screen of the lower LCD 12.
  • the folder list is updated according to the moved locus.
  • FIG. 63A shows a case where the position of the cursor 518 # of the folder list scroll bar 510 has moved from the initial position.
  • the music folder FA is selected according to the cursor 520 and a plurality of music files are stored in the music folder FA. Since the other points are the same as those described in FIG. 62, detailed description thereof will not be repeated.
  • the favorite folder such as “Best 10”, the “Omakase” folder, and the music folder are displayed in parallel in the same folder list display range 230, it is possible to grasp at a glance the folder to be designated. Yes, the user's operability in selecting a folder list is improved.
  • FIG. 62A as an example, a case where “best 10”, “memories”, and “collection” are provided as favorite folders is shown. It is also possible to provide a folder that is “reserved” and a folder that can be displayed specially according to the user's preference. For example, it is possible to provide a folder that provides a “secret” folder and displays only the first few characters of the music files contained in the folder, but does not display the remaining characters. It is. The registration of the folder will be described later.
  • FIG. 64 is a diagram for explaining the music file selection screen 502 according to the present embodiment.
  • a music file list 540 is displayed on the screen of the lower LCD 12.
  • the user can move the slider 518 # of the file list scroll bar 510 # on the screen of the lower LCD 12 with the touch pen 27 or the like.
  • the file list displayed on the file list selection screen is scrolled to display the music file list corresponding to the cursor position.
  • the user can execute a function corresponding to the selected function icon by selecting the selected function icon shown in FIG. It is assumed that the display and setting of the selection function icon are switched corresponding to the folder currently selected by the cursor 520.
  • a “favorite” selection function icon 515 is provided. When the “favorite” selection function icon 515 is selected, a favorite folder selection screen is displayed.
  • FIG. 102 is a diagram for explaining a favorite folder selection screen 509 according to the present embodiment.
  • “best 10” registration icon 700 “memory” registration icon 702, “collection” registration icon 704, “renchuchu” registration icon 706, “ A case where a “secret” registration icon 708 is provided is shown.
  • the music file selected by the cursor 520 # in FIG. 64A is registered and displayed in the selected folder. Will be.
  • the music file selection screen 502 that is the previous screen is displayed.
  • a playback mode switching icon 517 is provided on the music file selection screen 502.
  • the user can switch the playback mode in the folder by selecting the playback mode switching icon 517.
  • a playback mode that repeatedly plays the music file being played a playback mode that plays in order and repeats from the beginning when all playback is finished, a playback mode that plays back in order and stops when all playback is finished, A playback mode in which playback is performed randomly and a playback mode in which only a set section is played back repeatedly can be sequentially switched and executed.
  • information on the selected music folder is displayed on the upper LCD 22 in FIG. 64 (b).
  • FIG. 64A when the user selects the “start” icon 516, the music file selected by the cursor 520 # is played and a playback operation selection screen is displayed.
  • FIG. 65 is a diagram for explaining a playback operation selection screen 503 according to the present embodiment.
  • FIG. 65 (a) shows a case where the lower LCD 12 displays a playback operation selection screen 503 that is operated by changing music in the playback operation or the like.
  • the user selects the sound effect selection icons 532 and 534 with a touch pen or the like, and thereby the sound effect output from the speaker or the like when the user presses the R button 14J and the L button 14I, respectively. It is possible to switch.
  • the user can execute the function of changing the playback speed and pitch of the playback signal by selecting the speed pitch adjustment icon 541.
  • the user can execute a function of changing the frequency of the reproduction signal or performing a filtering process or the like to change to another timbre by selecting the timbre adjustment icon 542.
  • the user can execute a function of outputting a sound recording data file, which will be described later, from a speaker as a sound effect by selecting a recording data selection icon 544.
  • the slider 519 moves within the display range of the playback time bar 511 according to the playback position of the playback time of the entire music file.
  • the music file playback process can be started from the time corresponding to the touch position.
  • the slider 519 moves to the position where the reproduction process is started. It is also possible to select the slider 519 with the touch pen 27 or the like and perform a slide operation, and start the reproduction process from the position where the slide operation is performed.
  • the user can pause the music file being played by selecting the pause command icon 522.
  • the user can select the next music file included in the folder by selecting the next music selection command icon 524, and can execute the reproduction operation.
  • the user can select the previous music file included in the folder by selecting the previous music selection command icon 520 and execute the reproduction operation.
  • the user can execute a visualizer process described later by pressing the visualizer switching icon 531.
  • the user can switch the playback mode in the folder by pressing the playback mode switching icon 517.
  • a playback mode that repeatedly plays the music file being played a playback mode that plays in order and repeats from the beginning when all playback is finished, a playback mode that plays back in order and stops when all playback is finished,
  • a playback mode in which playback is performed randomly and a playback mode in which only a set section is played back repeatedly can be sequentially switched and executed.
  • the favorite folder selection screen 509 described with reference to FIG. 102 is displayed. Then, as described above, by selecting any of the registration icons on the favorite folder selection screen 509, it is possible to register and display the currently played music file in the selected folder.
  • the music file list 540 displayed on the lower LCD 12 screen of FIG. 64A is displayed as the music file selection list screen 503 # on the upper LCD 22 screen.
  • a music file included in the same folder as the music file being played can be selected by operating the direction input button 14A. That is, after a music file is selected (start pressed) with a touch pen or the like on the lower LCD 12 screen of FIG. 64 (a), the playback operation selection screen is displayed on the lower LCD 12 screen of FIG. 65 (a). It is possible to select a process for the reproduction operation of the music file that is the target selected by the touch pen or the like by using the touch pen or the like, and on the screen of the upper LCD 22, the music file can be selected by the direction input button 14A.
  • the music file being played can be switched to the selected music file and the playback operation can be executed. It is.
  • the processing on the playback operation selection screen 503 of the lower LCD 12 and the processing on the music file selection list screen 503 # of the upper LCD 22 can be processed in parallel, which is convenient for the user.
  • FIG. 66 is a flowchart illustrating processing related to function selection in game device 10 according to the present embodiment. The flow shown in FIG. 66 explains the processing in the sound selection screen 400 of FIG.
  • the sound function is executed by the user selecting a predetermined icon from a menu screen (not shown).
  • step SD1 the CPU 31 displays a sound selection screen 400 as shown in FIG.
  • step SD2 the CPU 31 starts an automatic recording / reproducing process.
  • the automatic recording / playback process will be described later. Note that the order of steps SD1 and SD2 can be switched.
  • step SD3 determines whether or not touch position data is input from the touch panel 13 (step SD3).
  • the CPU 31 determines whether touch position data has been input from the touch panel 13 via the I / F circuit 42. That is, the CPU 31 determines whether or not the user performs a touch operation with the touch pen 27 or the like. If touch position data has not been input (NO in step SD3), the process of step SD3 is repeated.
  • step SD3 if touch position data has been input (YES in step SD3), the process proceeds to step SD4.
  • step SD4 the CPU 31 determines whether or not the coordinate value indicated by the touch position data is a value within the display range of the function selection icon. That is, the CPU 31 determines whether the “Record with a microphone and play” icon 402 or the “Play with SD card” icon 404 is selected.
  • step SD4 If the coordinate value indicated by the touch position data is a value within the display range of the “Record and play with microphone” icon 402 or the “Play with SD card” icon 404 (YES in step SD4), the process is step. Proceed to SD8.
  • step SD4 if the coordinate value indicated by the touch position data is outside the display range of any of “Record and play with microphone” icon 402 or “Play with SD card” 404 (NO in step SD4), the process proceeds to step SD5. Proceed to
  • step SD8 if the CPU 31 determines in step SD4 that the coordinate value indicated by the touch position is a value within the display range of the function selection icon, the automatic recording / reproducing process is terminated (step SD8).
  • step SD9 the CPU 31 executes a transition process for the next selected function mode.
  • the transition process of the selected function mode will be described later.
  • step SD4 determines in step SD4 that the coordinate value indicated by the touch position is not within the display range of the function selection icon, the coordinate value indicated by the touch position is the display range of the “setting” icon 408. It is determined whether the value is within the range (step SD5).
  • step SD10 When the CPU 31 determines in step SD5 that the coordinate value indicated by the touch position is a value within the display range of the “setting” icon 408, the automatic recording / reproducing process is terminated (step SD10).
  • step SD11 the CPU 31 executes a setting process (step SD11).
  • the setting process will be described later.
  • step SD5 determines in step SD5 that the coordinate value indicated by the touch position is not within the display range of the “setting” icon 408, the coordinate value indicated by the touch position is the “end” icon 406. It is determined whether the value is within the display range (step SD6).
  • step SD6 If the CPU 31 determines in step SD6 that the coordinate value indicated by the touch position is within the display range of the “end” icon 408, the CPU 31 ends the automatic recording / playback process and ends the function selection process (end). ). That is, this returns to a menu screen (not shown).
  • step SD6 if the coordinate value indicated by the touch position is not within the display range of the “end” icon 408 in step SD6, the CPU 31 returns to step SD3.
  • FIG. 67 is a flowchart for explaining a subroutine process of the selection function mode transition process in FIG.
  • CPU 31 has a coordinate value indicating the touch position within the display range of “play with SD card music” icon 404 or within the display range of icon 402 of “play with microphone”. Which one is determined (step SD20).
  • step SD21 When the coordinate value indicated by the touch position is a value within the display range of the “play with music on the SD card” icon 404, the CPU 31 proceeds to step SD21.
  • the CPU 31 determines whether or not an SD card is inserted (step SD21). If the CPU 31 determines that an SD card is inserted, it next shifts to the music playback mode (step SD22). The music playback mode will be described later. When the music playback mode ends, the screen returns to the sound selection screen in step SD1 in FIG. 1 (return).
  • the CPU 31 determines in step SD21 that the SD card is not inserted, it executes an error display process (step SD23).
  • the error display process is a process of urging the user to insert an SD card by executing a display process such as “SD card is not inserted”. And it returns to step SD1 again (return).
  • step SD20 determines in step SD20 that the coordinate value indicated by the touch position is within the display range of the “record and play with microphone” icon 402
  • the CPU 31 shifts to the microphone recording / playback mode (step SD24).
  • the microphone recording / playback mode will be described later.
  • the screen returns to the sound selection screen in step SD1 in FIG. 1 (return).
  • FIG. 68 is a flowchart for explaining the subroutine processing in the music playback mode.
  • CPU 31 executes a folder search process in the SD card (step SD30).
  • the CPU 31 then generates a folder list (step SD31). Next, the CPU 31 displays a music playback folder list selection screen (step SD32). 62 and 63 described above are examples when the music playback folder list selection screen 500 is displayed.
  • FIG. 69 is a flowchart for explaining the subroutine processing of the folder search processing in the SD card.
  • CPU 31 sets a search initial path to be searched first among paths associated with folders stored in the SD card (step SD50).
  • the CPU 31 executes a music file search process according to the search initial path (step SD51).
  • the CPU 31 determines whether or not the music file exists in the folder by the music file search process according to the search initial path (step SD52).
  • step SD52 if the CPU 31 determines that there is a music file, it extracts a music folder containing the music file (step SD53).
  • whether or not a music file exists can be determined by referring to an extension for identifying the file as an example. Note that the determination is not limited to the extension, and the determination can be made by referring to the identification information stored in the file header or the like, and the determination method is not limited.
  • the CPU 31 determines whether or not the search has been completed for all paths (step SD54).
  • step SD54 if the CPU 31 determines that the search has not been completed for all the paths, it sets a search next path to be searched next (step SD25).
  • step SD51 the process returns to step SD51, and the music file search process, which is the above process, is executed.
  • step SD51 to SD54 described above are repeated until the search for all paths is completed. If the CPU 31 determines in step SD54 that all paths have been searched, it ends the processing (return).
  • FIG. 70 is a flowchart for explaining a subroutine process for generating a folder list.
  • CPU 31 executes a folder name determination process (step SD60).
  • the CPU 31 executes folder arrangement processing (step SD61).
  • FIG. 71 is a flowchart for explaining the subroutine processing of the folder name determination processing.
  • CPU 31 selects the first folder extracted by the folder search process of FIG. 69 (step SD65). Then, CPU 31 determines whether or not there is the same folder name next (step SD66).
  • step SD67 If the CPU 31 determines that there is the same folder name in step SD66, the CPU 31 merges the folders (step SD67).
  • step SD66 determines in step SD66 that there is no identical folder
  • the process proceeds to step SD68.
  • step SD68 the CPU 31 determines whether or not the determination has been completed for all folders extracted by the folder search process of FIG.
  • step SD68 If the CPU 31 determines in step SD68 that the determination has not been completed for all folders, the CPU 31 selects the next folder extracted by the folder search process of FIG. 69 (step SD69). Then, the CPU 31 returns to step SD66 and repeats the processes of steps SD66 to SD69 described above.
  • step SD68 determines in step SD68 that the determination has been completed for all folders. If the CPU 31 determines in step SD68 that the determination has been completed for all folders, the CPU 31 then proceeds to the folder arrangement process (step SD61) in FIG.
  • the folders are arranged in accordance with a predetermined arrangement order according to the names or symbols of the merged folders.
  • step SD61 a folder list is displayed on the music playback folder list selection screen according to the arranged folder order (step SD32).
  • FIG. 72 is a diagram for explaining an example of a specific example for explaining the folder search processing.
  • a list structure of music files and folders stored in one SD card is shown.
  • FIG. 72 specifically, a case where a folder FD1 and a folder FD2 are provided as an example, and a music folder FA and a music folder FB are provided in the folder FD1 is shown.
  • the music folder FA includes a music file MAA, a music file MBB, and so on.
  • the music folder FB includes a music file.
  • the folder FD2 shows a case where a music folder FA and a music folder FC are provided.
  • music files MX and MY are included.
  • the music folder FA When a folder having such a tree structure is stored in the SD card, the music folder FA. Four music folders of FB, FA, and FC are extracted.
  • the music folder FA is stored in each folder as the music folder FA.
  • the stored music files will be merged.
  • the music folder FA is set so that music files MAA, music file MBB,..., Music file MX, music file MY,. .
  • the folder information of the memory card is used as it is without using the attribute information in the music file (same Music files in the folder are treated as the same group).
  • all folders are displayed in parallel (in one hierarchy) on the music playback folder list selection screen 500 or the like. That is, for example, in the example of FIG. 14, when music files also exist in the folder FD1 and the folder FD2, on the music playback folder list selection screen 500, the folder FD1, the folder FD2, the music folder FA, the music folder FB, The music folder FC will be listed in parallel.
  • a desired music file can be easily found by, for example, a child who is a user.
  • the folder name registered in the memory card is used as it is in the music playback folder list selection screen 500 as the name of the folder handled as the same group, the user can easily find a desired music file. , Improve convenience.
  • the name of each folder extracted from the memory card (this is also a touch button for displaying a list of music files belonging to each folder) and the favorite folder (This is also a touch button for displaying a list of music files registered in favorites.) Since it is displayed in parallel (in one hierarchy), the folder selection operation is facilitated and the convenience is further improved. Furthermore, since the “Random” folder is displayed in parallel in such a list, the convenience is further improved.
  • step SD33 CPU 31 next determines whether or not touch position data is input from touch panel 13 (step SD33).
  • the CPU 31 determines whether touch position data has been input from the touch panel 13 via the I / F circuit 42. That is, the CPU 31 determines whether or not the user performs a touch operation with the touch pen 27. In other words, the CPU 31 determines whether or not a coordinate value input by a user operation on the touch panel 13 is detected. If touch position data has not been input (NO in step SD33), the process in step SD33 is repeated.
  • step SD33 if touch position data has been input (YES in step SD33), the process proceeds to step SD34.
  • the CPU 31 determines whether or not the coordinate value indicating the touch position data is a value within the folder list display range (step SD34).
  • step SD34 when the CPU 31 determines that the coordinate value indicated by the touch position data is a value within the display range of the folder list, the scroll display of the folder list is performed according to the movement position from the touch position or the touch position of the touch pen. Processing is executed (step SD35).
  • step SD35 # the CPU 31 executes a process for moving the slider position of the folder list scroll bar 510 in accordance with the position of the selected folder in the folder list (step SD35 #). And it returns to step SD33 again. It should be noted that the processing order of steps SD35 and SD35 # can be switched. The same applies to the following.
  • step SD34 if the CPU 31 determines that the coordinate value indicated by the touch position data is not within the folder list display range, the coordinate value indicated by the touch position data is within the display range of the volume setting icon 550. Whether it is a value or not is determined (step SD36).
  • step SD36 if the CPU 31 determines that the coordinate value indicated by the touch position data is a value within the display range of the volume setting icon 550, the CPU 31 executes a volume setting process (step SD37). And it returns to step SD33 again.
  • the volume setting process will be described later.
  • step SD36 when the CPU 31 determines that the coordinate value indicated by the touch position data is not within the display range of the volume setting icon 550, the coordinate value indicated by the touch position data is the “open” icon 514. It is determined whether the value is within the display range (step SD38).
  • step SD36 if the CPU 31 determines that the coordinate value indicated by the touch position data is within the display range of the “open” icon 514, the CPU 31 next executes a music file selection process (step SD39).
  • the music file selection process will be described later.
  • step SD38 determines in step SD38 that the coordinate value indicated by the touch position data is not within the display range of the “open” icon 514, the coordinate value indicated by the touch position data is then scrolled through the folder list. It is determined whether the value is within the display range of the bar 510 (step SD40).
  • step SD40 when the CPU 31 determines that the coordinate value indicated by the touch position data is a value within the display range of the folder list scroll bar 510, the CPU 31 executes a scroll display process of the folder list according to the touch position ( Step SD41).
  • step SD42 a process for moving the slider position of the folder list scroll bar 510 is executed according to the selected folder position in the folder list (step SD42). And it returns to step SD33 again.
  • step SD40 determines in step SD40 that the coordinates indicated by the touch position data are not within the display range of the folder list scroll bar 510, the coordinate value indicated by the touch position data is the next selected function icon. It is determined whether the value is within the display range (step SD43).
  • step SD43 when the CPU 31 determines that the coordinate value indicated by the touch position data is a value within the display range of the selected function icon, the CPU 31 executes a function corresponding to the selected function icon (step SD44).
  • step SD43 when the CPU 31 determines that the coordinate value indicated by the touch position data is not a value within the display range of the selection function icon, the coordinate value indicated by the touch position data is the “return” icon 512. It is determined whether the value is within the display range (step SD45).
  • step SD45 if the CPU 31 determines that the coordinate value indicated by the touch position data is within the display range of the “return” icon 512, the CPU 31 ends the music playback mode processing and performs step SD1 in FIG. The sound selection screen is displayed.
  • step SD45 determines in step SD45 that the coordinate value indicated by the touch position data is not within the display range of the “return” icon 512, the process returns to step SD33.
  • FIG. 73 is a flowchart for explaining a subroutine process of the music file selection process.
  • CPU 31 first displays music file selection screen 502 described with reference to FIG. 64 (step SD70).
  • step SD70 # determines whether or not touch position data is input from the touch panel 13 (step SD70 #).
  • the CPU 31 determines whether touch position data has been input from the touch panel 13 via the I / F circuit 42. That is, the CPU 31 determines whether or not the user performs a touch operation with the touch pen 27. In other words, the CPU 31 determines whether or not a coordinate value input by a user operation on the touch panel 13 is detected. If touch position data has not been input (NO in step SD70 #), the process in step SD70 # is repeated.
  • step SD70 # if touch position data has been input (YES in step SD70 #), the process proceeds to step SD71.
  • the CPU 31 determines whether or not the coordinate value indicated by the touch position data is a value within the display range of the music file list 540 (step SD71).
  • step SD71 when the CPU 31 determines that the coordinate value indicated by the touch position data is a value within the display range of the music file list 540, the CPU 31 next performs a scroll display process of the music file list 540 according to the touch position. Execute (step SD72).
  • step SD73 the CPU 31 executes a process for moving the slider position of the scroll bar 510 # of the music file list according to the position of the selected music file in the music file list. Then, the process returns to step SD70 # again.
  • step SD71 when the CPU 31 determines that the coordinate value indicated by the touch position data is not a value within the display range of the music file list 540, the coordinate value indicated by the touch position data is the volume setting icon 550. Whether the value is within the display range is determined (step SD74). In step SD74, if the CPU 31 determines that the coordinate value indicated by the touch position data is within the display range of the volume setting icon 550, the CPU 31 executes volume setting processing (step SD75). Then, the process returns to step SD70 # again. The volume setting process will be described later.
  • step SD74 if the CPU 31 determines that the coordinate value indicated by the touch position data is not a value within the display range of the volume setting icon 550, the coordinate value indicated by the touch position data is the display range of the “start” icon 526. It is determined whether the value is within the range (step SD76).
  • step SD76 if the CPU 31 determines that the coordinate value indicated by the touch position data is within the display range of the “start” icon 526, the CPU 31 executes a music file reproduction process (step SD76 #).
  • the music file playback process will be described later.
  • step SD76 if the CPU 31 determines that the coordinate value indicated by the touch position data is not within the display range of the “start” icon 526, the coordinate value indicated by the touch position data is the next music file list. Whether the value is within the display range of the scroll bar 510 # is determined (step SD77).
  • step SD77 if the CPU 31 determines that the coordinate value indicated by the touch position data is within the display range of the scroll bar 510 # of the music file list, the CPU 31 scrolls the music file list 540 according to the touch position data. Processing is executed (step SD78).
  • step SD79 the CPU 31 executes a process for moving the slider position of the scroll bar 510 # of the music file list in accordance with the position of the selected music file in the music file list. Then, the process returns to step SD70 # again.
  • step SD77 determines in step SD77 that the coordinate value indicated by the touch position data is not a value within the display range of the scroll bar 510 # of the music file list, the coordinate value indicated by the touch position data is the next. It is determined whether the value is within the display range of the selected function icon (step SD80).
  • step SD80 if the CPU 31 determines that the coordinate value indicated by the touch position data is a value within the display range of the selected function icon, the CPU 31 executes a function corresponding to the selected function icon (step SD81). Then, the process returns to step SD70 # again. For example, if it is determined that the value is within the display range of the “favorite” selection function icon 515, the favorite folder selection screen 509 described above with reference to FIG. 102 is displayed. Then, by selecting one of the registration icons, a process for registering the music file in the selected folder is executed.
  • step SD80 determines in step SD80 that the coordinate value indicated by the touch position data is not within the selection function icon display range, the coordinate value indicated by the touch position data is the “return” icon 512 #. Whether the value is within the display range of is determined.
  • step SD82 If it is determined in step SD82 that the coordinate value indicated by the touch position data is within the display range of the “return” icon 512 #, the process proceeds to “A” to select the music playback folder list in step SD32 in FIG. A screen is displayed.
  • FIG. 74 is a diagram for explaining the subroutine processing of the music file reproduction processing. Referring to FIG. 74, CPU 31 starts playback of the selected music file (step SD90).
  • the sound output control circuit 42c outputs to the headphone via the headphone amplifier 48 when the headphone 18 is connected according to the instruction from the CPU 31, and when the headphone is not connected, the sound output control circuit 42c Output to the right speakers 45 and 47 via 44 and 46.
  • a music file selection screen is displayed on the upper LCD 22 and a reproduction operation selection screen is displayed on the lower LCD 12 (step SD91).
  • the CPU 31 determines whether or not touch position data is input from the touch panel 13 (step SD92).
  • step SD92 if the CPU 31 determines that there is no input of touch position data from the touch panel 13, it determines whether there is an operation by the direction input button 14A next (step SD93).
  • step SD93 If the CPU 31 determines in step SD93 that there is an operation by the direction input button 14A, the CPU 31 scrolls the music file list selected by the cursor position on the music file selection screen according to the operation of the direction input button 14A. Is executed (step SD94).
  • step SD93 determines in step SD93 that there is no operation by the direction input button 14A, it returns to step SD92 again.
  • CPU 31 determines whether or not a predetermined button is pressed next (step SD94 #).
  • step SD94 # if the predetermined button is pressed, the CPU 31 starts reproduction of the music file selected by the cursor position (step SD90).
  • step SD94 # if the predetermined button is not pressed in step SD94 #, the CPU 31 returns to step SD92 again.
  • the predetermined button is set to one of the operation buttons 14B to 14E.
  • step SD92 when the touch position data is input from the touch panel 13, the CPU 31 determines whether or not the coordinate value indicated by the touch position data is a value within the display range of the reproduction time bar 511 ( Step SD95).
  • step SD95 when the CPU 31 determines that the display indicated by the touch position data is a value within the display range of the playback time bar 511, the CPU 31 executes a music file playback process from the time corresponding to the touch position (step S95). SD96).
  • the CPU 31 executes a movement process of the slider position indicating the reproduction position in the entire reproduction time in the reproduction time bar 511 corresponding to the touch position (step SD97). And it returns to step SD92 again.
  • step SD95 when the CPU 31 determines that the coordinate value indicated by the touch position data is not a value within the display range of the reproduction time bar 511, the coordinate value indicated by the touch position data is displayed next on the volume setting icon 550. It is determined whether the value is within the range (step SD98).
  • step SD98 if the CPU 31 determines that the coordinate value indicated by the touch position data is a value within the display range of the volume setting icon 550, the CPU 31 executes a volume setting process (step SD99). And it returns to step SD92 again.
  • the volume setting process will be described later.
  • step SD98 if the coordinate value indicated by the touch position data is not within the display range of the volume setting icon 550, the next coordinate value indicated by the touch position data is within the range of the visualizer switching icon 531. It is judged whether it is a value of (step SD100).
  • step SD100 if the CPU 31 determines that the coordinate value indicated by the touch position data is within the display range of the visualizer switching icon 531, the visualizer display process is executed next (step SD101). And it returns to step SD92 again.
  • the visualizer display process will be described later.
  • step SD100 when the CPU 31 determines that the coordinate value indicated by the touch position data is not a value within the display range of the visualizer switching icon 531, the coordinate value indicated by the touch position data is displayed next to the reproduction operation command icon. It is determined whether the value is within the range (step SD402).
  • the playback operation command icons a pause command icon 522, a next music selection command icon 524, and a previous music selection command icon 520 are provided as an example.
  • step SD402 when the CPU 31 determines that the coordinate value indicated by the touch position data is a value within the display range of the icon of the reproduction operation command, the CPU 31 executes a function corresponding to the reproduction operation command (step SD103). And it returns to step SD92 again.
  • the CPU 31 pauses the reproduction operation. If the coordinate value indicated by the touch position data is determined to be a value within the display range of the selection command icon 524 for the next song, the CPU 31 starts playback of the next selected music file. On the other hand, if the CPU 31 determines that the coordinate value indicated by the touch position data is within the display range of the previous song selection command icon 520, the CPU 31 starts playing the previously selected music file.
  • step SD402 when the CPU 31 determines that the coordinate value indicated by the touch position data is not a value within the display range of the reproduction operation command icon, the coordinate value indicated by the touch position data is the next display range of the selection function icon. It is determined whether the value is in the range.
  • step SD104 when the CPU 31 determines that the coordinate value indicated by the touch position data is a value within the display range of the selected function icon, the CPU 31 executes the function corresponding to the selected function icon (step SD105). And it returns to step SD92 again.
  • a “favorite” icon 515, a playback mode switching icon 517, a speed interval adjustment icon 541, a tone color adjustment icon 542, and a recording data selection icon 544 are displayed as selection function icons.
  • the CPU 31 determines that the coordinate value indicated by the touch position data is within the display range of the “favorite” icon 515, the CPU 31 selects the music file currently selected as the favorite folder. Execute the process to move to.
  • the CPU 31 determines that the coordinate value indicated by the touch position data is a value within the display range of the playback mode switching icon 517, the CPU 31 switches and displays the setting of the playback mode.
  • the CPU 31 determines that the coordinate value indicated by the touch position data is a value within the display range of the speed interval adjustment icon 541, the CPU 31 executes a function of changing the playback speed and the interval described later.
  • the CPU 31 determines that the coordinate value indicated by the touch position data is a value within the display range of the timbre adjustment icon 542, the CPU 31 executes a filtering process for modulating the frequency described later to change to another timbre. Execute.
  • the CPU 31 determines that the coordinate value indicated by the touch position data is within the display range of the recording data selection icon 544, the CPU 31 has a function of outputting a recorded audio data file, which will be described later, from the speaker as a sound effect. Execute.
  • step SD104 when the CPU 31 determines that the coordinate value indicated by the touch position data is not within the display range of the selection function icon, the coordinate value indicated by the touch position data is displayed next to the “return” icon 512a. It is determined whether the value is within the range (step SD106).
  • step SD106 if the CPU 31 determines that the coordinate value indicated by the touch position data is not within the display range of the “return” icon 512a, the CPU 31 returns to step SD92.
  • step SD106 determines in step SD106 that the coordinate value indicated by the touch position data is within the display range of the “return” icon 512a, the process proceeds to “B”, and in step SD70 of FIG. Display the music file selection screen.
  • FIG. 75 is an enlarged view of the volume setting icon 550.
  • the volume setting icon 550 is provided with a slider 552 whose volume increases from left to right as an example on the horizontal axis.
  • the slider 552 is displayed at a position corresponding to the current value within the volume level parameter setting range.
  • an area in a direction where the volume is lower than the position corresponding to the current value displayed by the slider 552 is a volume lower area 554, and an area where the volume is higher than the position corresponding to the current value displayed by the slider 552.
  • the area is set to a loud volume area 555.
  • the slider 552 when the slider 552 is selected with a touch pen or the like, it corresponds to the current value according to a subsequent slide touch operation (an operation to change the touch position while continuing the touch-on state).
  • the slider can be continuously moved (so-called drag operation) in any direction from the position in either the low volume area 554 or the high volume area 555.
  • the slider 552 When the slider 552 is selected with a touch pen or the like, (i) when touch-on is performed on the slider 552, (ii) the touch position during the touch operation may enter the slider 552.
  • the slider 552 may be dragged only in the case, or the drag operation may be performed only in the case (ii), or the drag operation is performed in either case (i) or (ii). It may be possible to do this.
  • the touch position during the touch operation may be within the small volume area 554.
  • the slider 552 may be instantaneously moved to the touch-on position only in the case (i), or the slider 552 may be instantaneously moved to the touch position only in the case (ii). ) Or (ii), it may be possible to move instantaneously.
  • FIG. 76 is a flowchart for explaining the subroutine processing of the volume setting processing according to the present embodiment.
  • step SD110 when CPU 31 determines that the coordinate value indicated by the touch position data is within the display range of volume setting icon 550, the coordinate value indicated by the touch position data is within the display range of slider 552. Whether it is a value is determined (step SD110).
  • step SD110 when the CPU 31 determines that the coordinate value indicated by the touch position data is a value within the slider display range, the locus moved by moving (sliding) the touch pen while touching the screen. Accordingly, the slider 552 is moved and displayed at the latest touch position (step SD114). That is, a continuous movement operation from the current position of the slider 552 to the desired position within the volume level parameter setting range is accepted.
  • the CPU 31 sets the volume according to the position of the slider 552 (step SD115). That is, the volume level parameter is updated to a value corresponding to the moved position of the slider 552 according to the moving operation. At this point, since the slider 552 continuously moves from the current position to the desired position, the volume level parameter is gradually adjusted with the movement.
  • step SD110 if the CPU 31 determines that the coordinate value indicated by the touch position data is not a value within the display range of the slider 552, the coordinate value indicated by the touch position data is then the volume input acceptance display range. It is determined whether the value is within the range (step SD111).
  • step SD111 when the CPU 31 determines that the coordinate value indicated by the touch position data is a value within the volume input acceptance display range, the CPU 31 moves and displays the slider 552 at the position input by the touch pen (step SD112). Then, the volume is set according to the position of the slider 552 within the parameter setting range (step SD115).
  • step SD111 determines whether the coordinate value indicated by the touch position data is a value within the volume input acceptance display range. If it is determined in step SD111 that the coordinate value indicated by the touch position data is not a value within the volume input acceptance display range, the CPU 31 executes an input invalidity determination process (step SD113). That is, it is determined that the input is invalid. Then, the process ends.
  • a small volume area is set in the volume input acceptance display range.
  • the large volume area 555 is not set in the volume input acceptance display range. That is, when the slider moves in a direction that is smaller than the current value of the parameter, in this example, the low volume area accepts an input that is an operation for moving the slider to a desired position, When the slider moves in a direction in which the slider becomes larger, in this example, an input that is an operation for moving the slider to a desired position is not accepted in the loud volume region.
  • the slider 552 is immediately moved for the low volume area and set to a volume corresponding to the slider position.
  • the high volume area is input invalidity determination processing, and the slider is not moved to the slider position.
  • the corresponding volume is not set.
  • the volume setting process When the volume setting process is executed with the touch pen by this process, the volume does not suddenly increase due to an erroneous operation by the user. That is, the position of the slider is changed by the touch pen in the direction in which the volume is reduced, and the volume setting process according to the position of the slider can be executed. However, the position of the slider is changed by the touch pen in the direction in which the volume is increased. The volume will not increase.
  • the user when setting processing using a touch pen is performed, the user can freely specify an arbitrary position on the touch panel, and the display range of the volume setting icon 550 cannot be increased for the sake of layout. . Therefore, when performing the volume setting process, it is necessary to carefully specify a position corresponding to a desired volume level within the display range of the volume setting icon 550, but in a direction in which the volume increases due to an erroneous operation. There is a possibility that the user may designate with the touch pen. Therefore, this process can suppress the stress of operating the game apparatus 10 while anxiety that the volume may suddenly increase due to an erroneous operation.
  • FIG. 77 is a diagram for explaining another example of the volume setting icon. Referring to FIG. 77 (a), here, a volume setting area for setting the volume output from each of the right speaker and the left speaker is shown.
  • the vertical axis (R) indicates the volume level of the right speaker
  • the horizontal axis (L) indicates the volume level of the left speaker. That is, the coordinate value (position) of an arbitrary point is associated with the volume level of the right speaker and the left speaker.
  • a point 552 # indicating a position corresponding to the current volume level of the right speaker and the left speaker is displayed.
  • the point 552 # When the point 552 # is touched with the touch pen, the point 552 # is selected, and the touch pen is moved (sliding operation) while being touched on the screen to move and display the pointer according to the moved locus.
  • the touch pen is moved (sliding operation) while being touched on the screen to move and display the pointer according to the moved locus.
  • the touch pen On the other hand, when a point other than the point 552 # is touched with the touch pen, if the value is within the voice input acceptance display range, the point 552 # is moved and displayed at the position input by the touch pen.
  • the present invention is not limited to the two types of parameters. Further, it is possible to associate with a plurality of types of parameters.
  • the display within the parameter setting range when there is one parameter, for example, the position of the parameter can be displayed in one dimension on the horizontal axis. In such a case, it is also possible to display the parameter position in a two-dimensional manner in two dimensions, the vertical axis and the horizontal axis.
  • a plurality of types of parameters it is possible to display the parameter positions in multiple dimensions according to the number of types.
  • the volume input reception display range is set as the volume input reception display range in the direction of decreasing the volume of at least one of the right speaker and the left speaker using a touch pen, for example.
  • the area is not set within the volume input acceptance display range.
  • the volume increases excessively without moving the pointer 552 # even in the direction of increasing the volume outside the voice input acceptance display range even when touching with the touch pen. This can prevent the user from feeling uncomfortable.
  • the present invention is not limited to the volume setting.
  • the playback time described with reference to FIG. In the bar it is also possible to divide the input reception display range and other areas. For example, a position that has already been reproduced can be set within the input reception display range, and a position that has not been reproduced yet can be outside the input reception display range, and only the continuous movement operation of the slider 519 can be performed. By this processing, it is possible to prevent the reproduction from being started from a position where the reproduction is not performed by touching with the touch pen, and to suppress the user from feeling uncomfortable.
  • FIG. 78 is a diagram for explaining the function of changing the playback speed and pitch by selecting the speed pitch adjustment icon 541.
  • the playback speed can be increased by moving the slider to the right from the current position of the slider 553. Conversely, the playback speed can be reduced by moving the slider to the left. Further, the pitch can be increased by moving the slider 553 upward from the current position of the slider 553. Conversely, the pitch can be lowered by moving the slider 553 downward.
  • FIG. 79 is a diagram for explaining a function of changing the frequency of the reproduction signal by selecting the timbre adjustment icon 542, or performing a filtering process or the like to change to another timbre.
  • tone color adjustment icon selection screen displayed on the screen of lower LCD 12 by pressing tone color adjustment icon 542 is shown here.
  • a “radio” icon 542a that adjusts to a tone that can be heard from an old radio by modulating the frequency, etc.
  • “karaoke” that suppresses vocal voice based on subtraction of left and right sounds of a stereo sound source
  • an icon 542b an “echo” icon 542c that is echoed by filtering processing
  • an “electronic sound” icon 542d that changes to a sound of a timbre by modulating the frequency.
  • the function of the selected icon is executed when the user selects one of the four tone color adjustment selection icons using a touch pen or the like.
  • timbre adjustment selection icons are provided and can be adjusted to four timbres
  • the number is not limited to four, and any number may be used.
  • the function of the “karaoke” icon 542b has been described with respect to the case where the vocal voice is suppressed based on the subtraction of the left and right sounds of the stereo sound source. This is because the sound is localized at the center of the sound field of the stereo sound source, and the environmental sound is localized to the left and right other than the center. Note that the voice of the vocal can be suppressed according to another method without being limited to this method.
  • FIG. 80 is a diagram for explaining a case where the sound effect output from the speaker or the like is changed when the user operates the R button 14J and the L button 14I by selecting the sound effect selection icons 532 and 534.
  • a sound effect can be added and enjoyed during playback of music based on the music file.
  • the sound effect can be changed by selecting sound effect selection icons 532 and 534 displayed in FIG. Specifically, the initial state is set to “no sound effect” (step SD120). Next, by selecting the sound effect selection icon 532 once, the sound effect of “Taiko” is set (step SD121). Next, by selecting the sound effect selection icon 532, the sound effect of “cymbals” is set (step SD122). Then, by selecting the sound effect selection icon 532, the sound effect of “trumpet” is set (step SD123). Then, by selecting the sound effect icon 532 again, the state of “no sound effect” is set (step SD120).
  • the sound effect output from the speaker or the like can be switched in accordance with the number of selections of the sound effect selection icon.
  • the sound effect selection icons 532 and 534 for each of the L button 14I and the R button 14J it is possible to set the sound effect according to each button operation.
  • FIG. 81 is a diagram for explaining the visualizer display process according to the present embodiment.
  • step SD100 in FIG. 74 the coordinate value indicated by the touch position data is a value within the range of the visualizer switching icon 531.
  • FIG. 81 (a) a playback operation selection screen of the lower LCD 12 is displayed. Since it is the same as that described in FIG. 65, detailed description thereof will not be repeated.
  • FIG. 81B shows a visualizer display screen on the upper LCD 22.
  • FIG. 82 is a flowchart for explaining the subroutine processing of the visualizer display processing.
  • the audio output level is detected (step SD130). Specifically, the output level detection circuit 42d detects the output level of the audio signal output from the audio output control circuit 42c to the amplifiers 44 and 46, and outputs the result to the CPU 31.
  • the CPU 31 generates an object corresponding to the output level detected by the output level detection circuit 42d (step SD131).
  • step SD132 the object is scrolled and displayed (step SD132). Again, it returns to step SD130 and repeats said process.
  • the output level of the audio signal being reproduced is sequentially detected, new objects are sequentially generated at positions corresponding to the output level, and scrolled to display them.
  • objects 801 specifically, ground objects
  • objects 801 are generated one after another at a height corresponding to the output level, and the whole is scroll-displayed to the left.
  • another object in this example, the objects 802 and 803 as an example, is automatically motion-controlled (that is, the screen is moved left and right along the ground). Move or jump).
  • the height of the ground object is determined by the total output level of the right and left speakers 45 and 47 of the audio signal being reproduced, or the first object (this embodiment) is determined by the output level of the right speaker 45.
  • the operation control content speed, acceleration, jump height, etc.
  • the output level of the left speaker 47 determines the second object (bike-shaped object 803 in this embodiment). The operation control content is determined.
  • the height of the ground object for the first object is determined based on the output level of the signal for the right speaker 45 among the audio signals.
  • the operation control content (speed, acceleration, jump height, etc.) of the first object is determined, and the ground for the second object (object 803 in this embodiment) is determined based on the output level of the signal for the left speaker 47.
  • the height of the object may be determined, or the motion control content of the second object may be determined.
  • the user can visually recognize the change in the output level from the height of the terrain according to the output level of the audio signal. Further, since the two motorcycle-shaped objects 802 and 803 perform a jumping operation according to the height of the terrain, it is possible to visually recognize the change in the output level of the audio signal from the change in the objects 802 and 803.
  • the two motorcycle-shaped objects 802 and 803 are relative to each other according to the volume level difference between the audio signal output from the right speaker 45 and the audio signal output from the left speaker 47.
  • the positional relationship may change.
  • FIG. 83 is a diagram for explaining another visualizer display screen.
  • the snowball-shaped object 301a of FIG. 83 (a) is the snowball of FIG. 83 (b).
  • a case in which the shape is larger than the object 301a is shown.
  • the user can visually recognize the change in the output level of the audio signal according to the size of the snowball-shaped object 301a.
  • the snowball-shaped object 301a performs a bounding motion at a predetermined timing when the topography indicating the slope is scrolled, the size of the snowball-shaped object 301a can be recognized more visually.
  • FIG. 84 is a diagram for explaining yet another visualizer display screen.
  • the output level of the audio signal detected by upper LCD 22 is detected, an object 301 # having a predetermined character shape is generated at a position corresponding to the output level, and scrolling is performed.
  • the visualizer to display is shown.
  • the screen background area is scrolled from the right screen edge to the left screen edge, and coin-shaped objects 606 are continuously arranged from the position of the predetermined character-shaped object 301 # at predetermined intervals.
  • the screen is set to scroll from the right screen edge to the left screen edge.
  • another predetermined character-shaped object 605 is displayed, and is set so that a jumping operation can be executed in the screen as an example by a user operation.
  • the predetermined character-shaped object 605 overlaps with the coin-shaped object 606, the display of the coin-shaped object 605 is deleted, and the number of times of overlapping with the coin-shaped object 605 is displayed in the upper column on the left side of the screen. It is set to display.
  • the user can recognize the change in the output level of the audio signal through vision. Further, since the coin-shaped objects 606 are also continuously arranged according to the height of the object 301 #, the change in the output level of the audio signal can be visually recognized from the height of the coin-shaped object 606. Is possible.
  • the display position of the third object is determined according to the output level of the audio signal. Specifically, the third object is displayed at a height corresponding to the output level at the end of the display area of the virtual space, and then scroll-displayed in the opposite end direction. Then, the movement of the fourth object (the object 805 having a predetermined character shape in this embodiment) is controlled in accordance with the user operation. Then, a predetermined game process is performed according to the positional relationship between the third object and the fourth object. Thereby, during music reproduction, the output level can be confirmed, and enjoyment by operation can be given to the user.
  • the user can operate the object 605 having a predetermined character shape in response to the operation input, and when the coin-shaped object 606 is overlapped with the coin-shaped object 606, the display of the coin-shaped object 606 is erased. Can recognize the change in the output level of the audio signal also from its own operation input (button press).
  • the visualizer display processing of three patterns has been described.
  • the number of visualizer display processing is not limited to three, and may be one, and it is also possible to provide a function of visualizer display processing of a plurality of patterns.
  • the user can add and play a sound effect by performing a predetermined operation.
  • the level detection not only the output of music reproduction based on the music file but also the output of the sound effect based on the user operation is considered. That is, an output level obtained by summing both the audio signal based on the music file and the sound signal of the sound effect based on the user operation is detected as the output level of the above-described audio signal.
  • the display content of the visualizer is indirectly changed according to the user operation, and more specifically, the display position of the object and the content of the operation are changed.
  • FIG. 85 is a diagram illustrating a flow when the headphones according to the present embodiment are detected.
  • the headphone output process operates independently of other processes when the sound function is being executed.
  • step SD140 it is first determined whether or not headphones have been detected. Specifically, in the I / F circuit 42, for example, when a headphone plug is inserted into the jack 62 described in FIG. 2, a mechanical switch is turned on, or a headphone plug is inserted into the jack 62. As a result, it is detected that the electrical connection has been established, and it is detected that the plug of the headphones has been inserted into the jack.
  • the I / F circuit 42 outputs the detection result to the CPU 31, and the CPU 31 receives the signal indicating the detection result from the I / F circuit 42 and determines that the headphones have been detected.
  • the process ends (END).
  • END When the user listens to the sound signal reproduced with headphones attached and when the user listens to the sound signals reproduced from the speakers, the ear holes are closed when the headphones are attached, so the sound is heard when the headphones are not attached. There is a possibility that the characteristics change greatly and the user feels uncomfortable.
  • equalization adjustment processing for adjusting a predetermined frequency band of audio data so as not to be an irritating audio signal for the user due to a change in acoustic characteristics is executed.
  • equalization adjustment processing for adjusting a predetermined frequency band is performed when headphones are detected.
  • the present invention is not limited to this, and when headphones are detected, playback is performed from a speaker. It is also possible to switch between the case of performing and the audio signal itself to be reproduced. For example, when playing from a speaker, for a sound with a high pitch that does not feel uncomfortable, replace the sound that is too high when listening with headphones with another sound with low pitch or hear noise when listening with headphones. It is also possible to replace it with another sound.
  • the volume of a sound signal that is reproduced without a sense of incongruity is increased or decreased with respect to the volume of the sound signal that is poorly balanced when heard through headphones. By doing so, it is also possible to adjust so that it can be heard in a balanced manner.
  • FIG. 86 is a flowchart for explaining the sleep process when the game apparatus 10 is folded to the folding position.
  • CPU 31 determines whether or not the folding position is detected (step SD150). Specifically, it is determined whether or not a determination signal indicating the closed state is input from the folding position detection sensor 50. When it is determined that the determination signal indicating the closed state is input from the folding position detection sensor 50, that is, when the folding position is detected, in step SD150, the CPU 31 determines whether or not the music reproduction operation is being performed next. Is determined (step SD151). Specifically, as described above, the CPU 31 determines whether or not the “start” icon is selected and the reproduction process of the selected music file is being executed.
  • the CPU 31 When the CPU 31 receives the determination signal indicating the closed state output from the folding position detection sensor 50, for example, when the game apparatus 10 is in operation, the CPU 31 stops the operation, and data on the operation state Set to so-called sleep state to save. On the other hand, after the game apparatus 10 enters the sleep state, the CPU 31 receives the determination signal indicating the open state output from the folding position detection sensor 50, and enters the sleep state based on the stored operation state data. Execute the process to return to the original state.
  • step SD151 if it is determined that the music playback operation is not being performed, the CPU 31 executes a sleep process (step SD154). That is, when another function is operating, the operation is stopped and the data of the operation state is saved. As a result, when music is being played back by the speaker, the music playback is stopped by folding the game apparatus 10 from the open state to the closed state.
  • step SD151 if it is determined in step SD151 that the music playback operation is being performed, the CPU 31 next determines whether or not headphones are detected (step SD152). Specifically, as described above, the CPU 31 determines whether or not a signal indicating a detection result accompanying wearing of the headphones from the I / F circuit 42 has been received. On the other hand, as described later, when music is played back with headphones, music playback continues even after the game apparatus 10 is folded from the opened state to the closed state.
  • step SD152 if the CPU 31 determines that no headphones are detected, it executes a sleep process (step SD154). That is, even when the music playback operation is being performed, if the headphones are not detected, the CPU 31 stops the operation and stores the data of the operation state in the same manner as the operation of other functions.
  • step SD152 if it is determined in step SD152 that there is a headphone detection, the CPU 31 shifts to the sleep music playback mode (step SD153).
  • FIG. 87 is a flowchart for explaining the subroutine processing in the sleep music playback mode.
  • CPU 31 continues only the music playback function, and executes sleep processing for other functions (step SD160). For example, the display process or the like enters a sleep state.
  • the CPU 31 determines whether or not there is a setting for continuous playback operation (step SD161). Specifically, the playback mode is set to a playback mode that repeatedly plays back the data being played, a playback mode that plays back in order and repeats from the beginning when all playback is completed, a playback mode that repeatedly plays back only the set section, etc. Or the “Random” folder is selected and executed.
  • step SD161 if the CPU 31 determines that there is a setting for continuous playback operation, it continues the music playback operation (step SD162).
  • step SD161 determines whether there is no setting for continuous playback operation. If it is determined in step SD161 that there is no setting for continuous playback operation, the CPU 31 ends the playback operation with the current music file (step SD163). Then, the sleep process described above is executed (step SD164).
  • the sleep process is executed except when the music is being played. Therefore, it is possible to extend the life of the power supply of the game apparatus 10 by this processing. Further, when the user is performing the music playback function, if the game apparatus 10 is folded, the headphones are detected, and if the continuous playback operation is set, the music playback operation is continued. .
  • the user is highly likely to carry the game apparatus 10 in a bag or clothes pocket as a folded shape. Therefore, in such a folded state, since the possibility of operating the game apparatus 10 is low, the sleep process is usually performed.
  • the music playback operation is continued if the music playback operation is being performed, the headphones are detected, and the continuous playback operation is set. This can be provided to the convenience of the user.
  • the continuous playback operation is not set, the user can determine that the music playback operation is not desired, so that the normal sleep process is executed after the current music file playback operation is finished. By doing so, it is possible to provide convenience for the user. In particular, after the current music file playback operation is completed, the normal sleep process is executed, so that the playback operation can be ended without giving a sense of incongruity to the user enjoying the music playback operation.
  • FIG. 88 is a flowchart for explaining the automatic recording mode according to the present embodiment.
  • it is determined whether or not the input volume from microphone 43 is greater than or equal to a threshold value (step SD170).
  • the voice input control circuit 42b detects whether or not the input volume from the microphone 43 is equal to or higher than the threshold value, and detects that the input volume from the microphone 43 is equal to or higher than the threshold value. The detection result is output to the CPU 31.
  • step SD170 if the CPU 31 determines that the input volume from the microphone 43 is equal to or higher than the threshold value, the CPU 31 executes a recording process (step SD171). Specifically, the CPU 31 receives the detection result that the input volume from the microphone 43 from the audio input control circuit 42b is equal to or higher than the threshold value, and executes the recording process.
  • FIG. 89 is a flowchart for explaining a subroutine process of the recording process according to the present embodiment.
  • CPU 31 determines whether there is a voice input (step SD180). If the CPU 31 determines that there is an audio input, the CPU 31 temporarily stores the recording data input from the audio input control circuit 42b (step SD181). Specifically, the CPU 31 temporarily stores in the main memory.
  • the CPU 31 determines whether or not the recorded data has reached a capacity that can be stored in the slot (step SD182).
  • the slot indicates a recording data storage area stored as a recording data file in the storage memory 34.
  • a plurality of slots used for recording processing are provided in the storage memory 34 in advance.
  • 10 seconds of recorded data can be stored in one slot.
  • step SD182 if the CPU 31 determines that the recorded data has not reached the capacity that can be stored in the slot, it repeats the processing of step SD180 and step SD181 to temporarily store the recorded data.
  • step SD182 if the CPU 31 determines that the recording data has reached the capacity that can be stored in the slot, the CPU 31 proceeds to step SD184 and ends the recording. Then, returning to FIG. 88, the process proceeds to step SD172.
  • step SD180 if it is determined in step SD180 that there is no voice input, the CPU 31 proceeds to step SD183.
  • step SD183 the CPU 31 determines whether or not there is no voice input for a predetermined period.
  • the predetermined period for executing the silence determination can be set to 3 seconds.
  • the said period is an example and can be set to an appropriate period.
  • step SD183 when CPU 31 determines that there is no voice input for a predetermined period, it ends the recording (step SD184). Then, returning to FIG. 88, the process returns to step SD172.
  • step SD183 if it is not determined that there is no voice input for a predetermined period, that is, if there is a voice input again, the CPU 31 returns to step SD180 and proceeds to step SD181.
  • the recorded data is automatically saved within the capacity that can be stored in the slot, and when there is no voice input, the recording process is automatically performed. finish.
  • the voice is automatically recorded on the sound selection screen 400 by the series of processes (SD180 to SD183).
  • SD180 to SD183 As a result, what the user has spoken on the sound selection screen 400 (including that he / she spoke without being conscious) is automatically recorded in a capacity that can be stored in the slot.
  • CPU 31 determines whether or not the recorded data exceeds a predetermined capacity (step SD172). Specifically, it is determined whether or not the recording data temporarily stored in the main memory exceeds the capacity.
  • a predetermined capacity for example, it is possible to set the capacity to be equal to or more than the minimum time that the user can recognize as an audio signal when played back. That is, the case where the capacity is less than the predetermined capacity is a capacity that cannot be recognized as an audio signal when the user reproduces the recorded data.
  • step SD172 if the CPU 31 determines that there is recorded data of a predetermined capacity or more in the main memory, the CPU 31 executes a recorded data saving process (step SD173). On the other hand, in step SD172, if the CPU 31 determines that there is no recording data of a predetermined capacity or more, the recording data is the unrecognizable recording data with a small amount of stored data. Is deleted (step SD174). Note that the predetermined capacity is smaller than the storable capacity of the slot. Therefore, the recording data is automatically deleted for data having a length that cannot be recognized as a voice signal by the user.
  • FIG. 90 is a flowchart for explaining the subroutine processing of the recording data saving processing.
  • CPU 31 confirms an empty slot (step SD190). Specifically, it is confirmed whether or not there is a slot that does not include recording data among a plurality of slots that are a plurality of recording data storage areas provided in the storage memory 34 in advance.
  • the CPU 31 determines whether or not there is an empty slot (step SD191).
  • step SD191 if the CPU 31 determines that there is an empty slot, the CPU 31 executes a storage process for recording data as a recording data file in the empty slot (step SD192). Specifically, the CPU 31 stores the recording data temporarily stored via the memory control circuit 33 in the storage memory 34 as a recording data file. Then, the flow returns to the flow of FIG. 88 (return).
  • step SD191 determines in step SD191 that there is no empty slot, it determines one slot from among a plurality of slots by a process using a random number, and records the recorded data in the slot determined by the random number.
  • Overwrite processing is executed as a file (step SD193). And it returns to the flow of FIG. 30 (return).
  • step SD191 determines in step SD191 that the recorded data is not less than the recordable capacity
  • the CPU 31 executes a deletion process for deleting the old recorded data file (step SD193). Then, the process returns to step SD191 again to determine whether it is less than the recordable capacity or not, and the process of step SD193 is repeated until the recordable capacity is reached.
  • the above-described storage process is executed as a recorded data file. Therefore, the old recording data file is automatically updated to the new recording data file.
  • FIG. 91 is a flowchart of the automatic playback mode according to the present embodiment.
  • CPU 31 determines whether or not there is a slot in which the recording data file is stored (step SD200). Specifically, the CPU 31 determines whether or not recording data files exist in a plurality of slots provided in advance in the storage memory 34 via the memory control circuit 33.
  • step SD200 if there is no recording data file in the slot, the CPU 31 repeats the process of step SD200.
  • step SD200 determines whether the recording data file is present in the slot. If it is determined in step SD200 that the recording data file is present in the slot, the CPU 31 executes reproduction processing of the recording data file (step SD201). Next, the CPU 31 executes standby processing (step SD202). Specifically, CPU 31 waits for a predetermined period and returns to step SD200 again.
  • the standby process may be a standby for a predetermined period, or may be a standby for a random period.
  • the CPU 31 repeats the reproduction process in a certain period or a random period.
  • the reproduction process when it is determined that the recording data files are present in the plurality of slots of the storage memory 34, the reproduction process of the recording data files stored in each slot is executed in order. Further, during the reproduction process, the bird-shaped object 410 of FIG. 61 can be displayed so as to operate. Through the display process, the user can visually recognize that the reproduction process is being executed by the operation of the bird-shaped object 410.
  • the voice signal as the spoken words is recorded in the recording data file by the automatic recording mode. Saved in the slot. Then, the audio signal stored in the slot as the recording data file is automatically reproduced by the automatic reproduction mode, and the reproduction process is repeated.
  • This function allows users to create their own audio signals as recorded data files and play them back.
  • the method of executing the recording process or the recording storage process based on whether or not the recording data has reached a predetermined capacity has been described.
  • the method is not limited to the capacity, and for example, the determination is based on the recording time. It is also possible to make a determination based on another parameter.
  • FIG. 92 is a flowchart for explaining a subroutine process of the setting process according to the present embodiment.
  • CPU 31 determines in FIG. 61 that the coordinate value indicated by the touch position is a value within the display range of “setting” icon 408, CPU 31 displays the setting screen (step SD210). ).
  • FIG. 93 is a diagram illustrating a setting screen 508 according to the present embodiment.
  • “headphone” setting item 560, “touch sound” setting item 562, and “backlight” setting item 564 are provided.
  • a selection function icon 561 for selecting and setting “stereo” or “monaural” is provided.
  • a selection function icon 563 for selecting and setting “False” or “Never” is provided as the setting item 562 for “touch sound”.
  • a selection function icon 565 for selecting and setting “always on” or “automatic off” is provided as the “backlight” setting item 564.
  • an “initialize save data” icon 566 is provided.
  • a recording data file in the automatic recording / reproduction process or a microphone recording / reproduction mode described later can be used.
  • the recording data file to be created and the contents of the music file registered in “Favorites” are deleted.
  • the “return” icon 512b the screen returns to the previous sound selection screen 400.
  • CPU 31 determines whether or not touch position data is input from touch panel 13 (step SD211).
  • step SD211 if the CPU 31 determines that touch position data is input from the touch panel 13, the CPU 31 determines whether or not the coordinate value indicated by the touch position data is a value within the display range of the “headphone” function selection icon. Judgment is made (step SD212).
  • step SD212 if the CPU 31 determines that the coordinate value indicated by the touch position data is within the display range of the “headphone” function selection icon, the CPU 31 determines whether the current setting is “stereo” ( Step SD213).
  • step SD213 the CPU 31 switches to monaural setting when the current setting is “stereo” (step SD214).
  • step SD213 determines that the current setting is not “stereo”
  • the CPU 31 switches to stereo setting (step SD215).
  • the audio output is output in stereo when headphones are connected. That is, the right output and the left output are output separately.
  • the audio output is output in monaural.
  • the audio output is output in stereo regardless of the setting.
  • step SD212 when the CPU 31 determines that the coordinate value indicated by the touch position data is not within the display range of the function selection icon “headphone”, the coordinate value indicated by the touch position data is “touch sound”. It is determined whether or not the value is within the display range of the function selection icon (step SD216).
  • step SD216 if the CPU 31 determines that the coordinate value indicated by the touch position data is a value within the display range of the function selection icon “touch sound”, the CPU 31 determines whether the current setting is “False” ( Step SD217).
  • step SD217 if the CPU 31 determines that the current setting is “False”, the CPU 31 switches to a setting that does not generate a touch sound (Step SD218).
  • step SD217 if the CPU 31 determines that the current setting is not “False”, the CPU 31 switches to a setting for smoothing the touch sound (Step SD219).
  • step SD216 when the CPU 31 determines that the coordinate value indicated by the touch position data is not within the display range of the function selection icon “touch sound”, the coordinate value indicated by the touch position data is “back”. It is determined whether the value is within the display range of the function selection icon “light function” (step SD220).
  • step SD220 if the CPU 31 determines that the coordinate value indicated by the touch position data is a value within the display range of the “backlight” function selection icon, the CPU 31 determines whether the current setting is “always on”. (Step SD221).
  • step SD221 if the CPU 31 determines that the current setting is “always on”, the CPU 31 switches to the automatic off setting (step SD222).
  • the CPU 31 switches to the automatic off setting (step SD222).
  • step SD221 determines whether the current setting is “always on”. If it is determined in step SD221 that the current setting is not “always on”, the CPU 31 always switches to the on setting (step SD223). Then, the process returns to step SD211.
  • step SD220 if the CPU 31 determines that the coordinate value indicated by the touch position data is not within the display range of the “backlight” function selection icon, the coordinate value indicated by the touch position data is “save”. It is determined whether or not the value is within the display range of the function selection icon “initialize data” (step SD224).
  • step SD224 if the CPU 31 determines that the coordinate value indicated by the touch position data is within the display range of the function selection icon “initialize save data”, it is registered in the recording data file and “favorite”. The deletion processing of the content thus executed is executed (step SD225). That is, the recording data file stored in the storage data memory 34 is deleted.
  • step SD224 when the CPU 31 determines that the coordinate value indicated by the touch position data is not within the function selection icon display range of “initialization of save data”, the coordinate value indicated by the touch position data is “returns”. It is determined whether the value is within the display range of the function selection icon.
  • step SD2266 if the CPU 31 determines that the coordinate value indicated by the touch position data is within the display range of the function selection icon “return”, the CPU 31 returns to the previous sound selection screen 400.
  • the stereo setting can be switched to the monaural setting.
  • this switching setting it is possible to select an appropriate reproduction process according to the type of headphones. In the case of both ears, it is naturally possible to switch to monaural setting.
  • FIG. 94 is a flowchart for explaining a subroutine process in the microphone recording / playback mode.
  • the CPU 31 when the CPU 31 shifts to the microphone recording / playback mode, it first displays a recording data file list selection screen for recording and playing with the microphone (step SD230).
  • FIG. 95 is a diagram for explaining a recording data file list selection screen 600 according to the present embodiment.
  • each recording data file in the recording data file list corresponds to one of a plurality of slots provided in advance for use in recording processing in the storage memory 34.
  • the cursor 590 selects the recording data file displayed at the top left of the recording data file list 610 on the recording data file list selection screen 600. For example, by touching a recording data file included in the recording data file list 610 with the touch pen 27 or the like, the cursor 590 moves to the touched recording data file, and the recording data file designated by the cursor 590 is selected. .
  • the recording data file 615 is a file in which recording data is not stored.
  • the other recorded data files are files in which recorded data is stored.
  • an audio signal can be recorded for about 10 seconds per file.
  • the user can set the volume output from the speaker or the like by designating the volume setting icon 550 with the touch pen 27 or the like. Since the processing is the same as described above, detailed description thereof will not be repeated.
  • the user can return to the sound selection screen 400 which is the previous screen by selecting the “return” icon 620.
  • the “play” icon 570 is switched to the “record” icon 570 #. Then, by selecting the “record” icon 570 #, a recording start screen 602 described later is displayed.
  • the currently selected recording data file can be erased and set to a file in which no recording data is stored.
  • the recording data file display the data amount of the recording data included in the whole of each file is displayed as a water level.
  • the user can sensuously recognize the data amount of the recording data file.
  • the recording data file list 610 a case where the shape indicating the recording data file is changed is shown. For example, when a processing editing function using a tone color adjustment icon 542 or the like to be described later is executed and “Wagaki” is selected, that is, when recording data is changed to another recording data, a recording data file corresponding to the processing editing is displayed. The display process is performed so as to change to the shape.
  • This display makes it possible for the user to intuitively recognize that the recorded data file is a file that has been processed and edited, which is convenient for the user.
  • FIG. 96 is a diagram illustrating a recording data reproduction operation selection screen 601 according to the embodiment of the present invention.
  • FIG. 96 (a) shows a case in which the recorded data reproduction operation selection screen 601 is displayed on the lower LCD 12.
  • the user can execute a function of changing music in a playback operation or the like of recorded data by selecting with a touch pen or the like.
  • a speed pitch adjustment icon 541, a tone color adjustment icon 542, a playback mode switching icon 517, and a “wow” icon 586 are provided as selection function icons.
  • the user can execute the function of changing the playback speed and pitch by selecting the above-described speed pitch adjustment icon 541.
  • the user can execute the function of modulating the frequency of the reproduction signal by selecting the timbre adjustment icon 542, or performing the editing processing to another timbre by executing a filtering process or the like. Specifically, it is possible to provide a tone color adjustment icon as described with reference to FIG. 79, or it is possible to provide another tone color adjustment icon.
  • the user can pause the recording data file being played by pressing the pause command icon 580 as the playback operation command icon. At that time, the display of the pause command icon 580 is switched to the playback command icon 582 #.
  • a reverse playback command icon 580 is also provided as a playback operation command icon. When the reverse playback command icon 580 is selected, reverse playback processing is executed. At that time, the reverse playback command icon 580 is switched to the pause command icon 580 #.
  • the command icon two icons of a reproduction command and a reverse reproduction command are displayed, and the selected icon is switched to a pause command icon. Therefore, the user can switch between the reproduction operation and the reverse reproduction operation with one action using the touch pen 27 or the like.
  • two command icon areas are provided (a first command icon area and a second command icon area). Either the reverse playback command icon or the pause command icon is switched and displayed in the first command icon area, and either the playback command icon or the pause command icon is switched and displayed in the second command icon area.
  • the reverse playback command icon is displayed in the first command icon area, and the playback command icon is displayed in the second command icon area.
  • a reverse playback command icon is displayed in the first command icon area, and a pause command icon is displayed in the second command icon area.
  • a pause command icon is displayed in the first command icon area, and a playback command icon is displayed in the second command icon area.
  • Playback command icon When touched, the audio data starts to be played in order.
  • Reverse playback command icon When touched, reverse playback of audio data is started.
  • Pause command icon Pauses playback of audio data when touched.
  • the pause command icon for pause is described, but it is also possible to use a stop command icon for stopping instead of pause.
  • an information processing apparatus that can take three states (first state, second state, and third state), when two button areas are provided and the current state is the first state, A transition button to the state and a transition button to the third state are displayed (i).
  • the transition button from the state (i) to the second state is operated to shift to the second state
  • the transition button to the second state is changed to a transition button to the first state
  • the first state A transition button to and a transition button to the third state are displayed (ii).
  • the transition button to the third state is changed to a transition button to the first state, and the state is changed to the second state.
  • a transition button to the first state are displayed (iii). Further, when the button for shifting to the first state is operated from the state (ii) to shift to the first state, the state returns to the state (i). Further, when the state is shifted from the (iii) state to the first state by operating the transition button to the first state, the state returns to the (i) state. In addition, when the transition button from the state (ii) to the third state is operated to shift to the third state, the transition button to the first state is changed to a transition button to the second state, and the third state The transition button to is changed to a transition button to the first state, and a transition button to the second state and a transition button to the first state are displayed.
  • the transition button to the second state is changed to a transition button to the first state.
  • the transition button to is changed to the transition button to the third state.
  • the user can switch the playback mode in the recorded data file list by pressing the playback mode switching icon 517.
  • a playback mode that repeatedly plays back the data being played a playback mode that plays in order, and a playback mode that repeats from the beginning when all playback is finished, a playback mode that plays back in order, and stops when all playback is finished, random It is possible to switch between the playback mode for playback with and the playback mode for repeatedly playing back only the set section in order.
  • the user can press the “Wakigaki” icon 586 to select and save the recording data file that has been processed and edited by filtering processing or the like by selecting the timbre adjustment icon 588 to the recording data file, for example. .
  • the recording data file list 610 displayed on the lower LCD 12 screen of FIG. 95 is displayed as the recording data file selection list screen 601 # on the upper LCD 22 screen. It is shown.
  • the recorded data files displayed in the recorded data file list 610 # can be selected by operating the direction input button 14A. That is, after selecting a recording data file with a touch pen or the like on the screen of the lower LCD 12 in FIG. 95, on the recording data reproduction operation selection screen on the lower LCD 12 of FIG. It is possible to select the processing for the reproduction operation of the recording data file that is the target selected by the touch pen or the like by using the touch pen or the like and select the recording data file by the direction input button 14A on the screen of the upper LCD 22.
  • the recording data file being reproduced is switched to the selected recording data file and the reproducing operation is executed. It is possible.
  • the user can press the “Wakigaki” icon 586 to select and save the recording data file that has been processed and edited by filtering processing or the like by selecting the timbre adjustment icon 588 to the recording data file, for example. .
  • At least one screen in this embodiment, the lower LCD 12
  • contact detection means in this embodiment, a touch panel
  • an icon group indicating each of a plurality of options first icon group; in the embodiment, an icon 615 group indicating each recording data file
  • the contact detection unit any one of them is detected by the contact detection unit.
  • the icon can be selected.
  • the display of the first icon group is moved to the other screen (in this embodiment, the upper LCD 22), and the one screen is displayed.
  • Displays another icon group (second icon group; 541 and 542 in the embodiment), and any one icon can be selected from the second icon group by the contact detection means. Even after the first icon group moves to the other screen, one icon can be selected from the first icon group by a key switch (a direction key, in the embodiment, the cross key 14A). Is possible. Thereby, selection from the first icon group and selection from the second icon group can be performed in parallel. For example, the first selection may be performed using the first icon group, and the selection related to the icon selected in the first selection may be performed using the second icon group (in this embodiment, The first selection selects data to be processed, and the second selection selects the processing content for the selected data).
  • the selection for the first icon group is changed by operating the key switch even after the transition to the second selection scene. Therefore, after shifting to the second selection scene, the first selection can be performed again in parallel, and convenience is improved.
  • CPU 31 determines whether touch position data is input from touch panel 13 (step SD231).
  • step SD231 when it is determined that touch position data is input from the touch panel 13, the CPU 31 determines whether the coordinate value indicated by the touch position data is a value within the display range of the recording data file list 610. (Step SD232).
  • step SD232 when the CPU 31 determines that the coordinate value indicated by the touch position data is within the display range of the recording data file list 610, the CPU 31 then selectively displays the recording data file according to the touch position (step SD233). ).
  • the CPU 31 changes and displays the function icon button according to the recording data file (step SD234). And it returns to step SD231 again.
  • the “play” icon 570 is displayed when the cursor selects and displays a recording data file, and “record” when the cursor selects and displays a file that has not been recorded. Icon 570 # is displayed.
  • step SD232 when the CPU 31 determines that the coordinate value indicated by the touch position data is not a value within the display range of the recording file list 610, the coordinate value indicated by the touch position data is displayed next on the volume setting icon 550. It is determined whether the value is within the range (step SD235).
  • step SD235 if the CPU 31 determines that the coordinate value indicated by the touch position data is a value within the display range of the volume setting icon 550, the CPU 31 executes volume setting processing (step SD236). Since the volume setting process has been described above, detailed description thereof will not be repeated.
  • step SD235 if the CPU 31 determines that the coordinate value indicated by the touch position data is not within the display range of the volume setting icon 550, the coordinate value indicated by the touch position data is the “play” icon. It is determined whether the value is within the display range of 570 (step SD237).
  • step SD237 if the CPU 31 determines that the coordinate value indicated by the touch position data is within the display range of the “play” icon 570, the CPU 31 executes a recorded data file reproduction process (step SD237 #).
  • the recorded data file reproduction process will be described later.
  • step SD237 determines in step SD237 that the coordinate value indicated by the touch position data is not within the display range of the “play” icon 570, the coordinate value indicated by the touch position data is “erased” next. It is determined whether or not the value is within the display range of the icon 571 (step SD238).
  • step SD2308 if the CPU 31 determines that the coordinate value indicated by the touch position data is a value within the display range of the “erase” icon 571, the CPU 31 executes an erase process of the recorded data file (step SD239).
  • step SD2308 if the CPU 31 determines that the coordinate value indicated by the touch position data is not within the display range of the “erase” icon 571, the coordinate value indicated by the touch position data is the “record” icon. It is determined whether the value is within the display range of 570 # (step SD240).
  • step SD240 if the CPU 31 determines that the coordinate value indicated by the touch position data is within the display range of the “record” icon 570 #, the CPU 31 executes a recording data file creation process (step SD241).
  • the recording data file creation process will be described later.
  • step SD240 when the CPU 31 determines that the coordinate value indicated by the touch position data is not within the display range of the “record” icon 570 #, the coordinate value indicated by the touch position data is “returned” next. It is determined whether the value is within the display range of the icon 620 (step SD242).
  • step SD242 if the CPU 31 determines that the coordinate value indicated by the touch position data is not within the display range of the “return” icon 620, the process proceeds to step SD231 again.
  • step SD242 determines in step SD242 that the coordinate value indicated by the touch position data is within the display range of the “return” icon 620, the sound selection screen 400 shown in FIG. 61 is displayed.
  • FIG. 97 is a diagram for explaining the subroutine process of the recorded data file reproduction process.
  • step SD237 if CPU 31 determines that the coordinate value indicated by the touch position data is within the “play” icon display range, playback of the next selected recording data file is performed. Processing is started (step SD250).
  • the CPU 31 displays a recording data file selection list screen 601 # on the upper LCD 22 and a playback operation selection screen 601 on the lower LCD 12 (step SD251).

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Hardware Design (AREA)
  • Human Computer Interaction (AREA)
  • General Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Signal Processing (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • General Health & Medical Sciences (AREA)
  • Mathematical Physics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Computing Systems (AREA)
  • Studio Devices (AREA)
  • Television Signal Processing For Recording (AREA)
  • Power Sources (AREA)

Abstract

 本実施形態に従うゲーム装置(10)は、撮像手段としてカメラを含む。内側カメラ(23)は、上側ハウジング(21)に収納される。また、上側ハウジング(21)の内側面には、マイクによって外部の音が検知されるように、マイクロフォン用孔(21C)が設けられる。

Description

情報処理装置、情報処理システム、ならびに起動用プログラムおよびそれを記憶した記憶媒体
 この発明は、情報処理装置、情報処理システム、ならびに起動用プログラムおよびそれを記憶した記憶媒体に関する。より特定的には、撮影機能および/または音声取得機能を提供可能な構成に関する。
 先行の撮影機能を有する携帯型の情報処理装置として、例えば、特開2006-311224号公報(特許文献1)には携帯電話機が開示されている。この携帯電話機は、折り畳み型の構成を採用し、2つのハウジングの内側面に1つずつ表示画面を有している。この携帯電話機においては、撮像手段としてのカメラは、上側のハウジングの外側面と内側面とに1つずつ設けられる。
 また、特開2004-274304号公報(特許文献2)に記載の携帯機器は、カメラおよびマイクを有するとともに、ハウジング(筐体)の2つの面にそれぞれ画面を設けた構成を有する。
 さらに、折り畳み型の構成を採用する携帯型の情報処理装置としては、たとえば、特開2007-195830号公報(特許文献3)にも、2つのハウジングが折り畳み可能に接続された情報処理装置が開示されている。この情報処理装置は、各ハウジングの内側面(折り畳んだ時に内側となる面)に1つずつ(計2つの)表示画面を有している。
 さらに、特開2001-142564号公報(特許文献4)には、カメラを内蔵した情報機器が開示されている。この情報機器は、本体ユニットと表示ユニットとがヒンジブロックによって回転可能に接続された構成である。この情報機器では、ヒンジブロック内にカメラが配置される。
 その他、以下に列挙するような先行技術が知られている。
特開2006-311224号公報 特開2004-274304号公報 特開2007-195830号公報 特開2001-142564号公報 特開平04-156791号公報 特開平06-276478号公報 特開平01-297986号公報 特開2002-125176号公報 特開2004-320091号公報 特開2003-333149号公報 特開2005-184060号公報 特開2007-201727号公報 特開平09-247634号公報 特開平10-341388号公報 特開2000-56756号公報 「ちょっとショット 取扱説明書」、株式会社ソニー・コンピュータエンタテインメント、2006年11月2日
 しかしながら、特開2006-311224号公報(特許文献1)および特開2004-274304号公報(特許文献2)に開示される携帯機器では、撮像手段としてのカメラおよび音声入力手段としてのマイクは、それぞれ撮影機能および音声取得機能に適した位置には配置されていなかった。
 また、特開2007-195830号公報(特許文献3)に開示される情報処理装置は、撮影機能を全く考慮したものではなく、一方、特開2001-142564号公報(特許文献4)に開示される情報機器は、音声取得機能を全く考慮したものではなかった。
 別の課題として、コンピュータで各種プログラムを実行させる構成において、プログラムを格納する種々の記憶媒体が提案されている。このよう場合に、コンピュータ本体(情報処理装置)に内蔵された記憶媒体に記憶されるプログラムと、コンピュータに装着される記憶媒体に記憶されるプログラムとを連携して実行させるような思想は、いずれの先行技術にも開示ないし示唆されていない。
 さらに別の課題として、複数のアプリケーションプログラムの中から起動すべきものを選択させるメニュー画面(いわゆる、ランチャー機能)をユーザに提供する構成において、当該ランチャー機能以外の機能を同時に提供するような思想は、いずれの先行技術にも開示ないし示唆されていない。
 そこで、この発明は、これらの課題の少なくとも1つを解決するためになされたものである。この発明の第1の目的は、撮影機能および/または音声取得機能に適した構造を有する情報処理装置を提供することである。また、この発明の第2の目的は、本体に内蔵された記憶媒体および外部から装着される記憶媒体にそれぞれ記憶されるプログラムを連携して実行させることが可能な情報処理システムを提供することである。さらに、この発明の第3の目的は、撮影機能を搭載した情報処理装置に適した起動用プログラムおよびそのプログラムを記憶した記憶媒体を提供することである。
 本発明は、上記の課題を解決するために、以下の構成を採用した。なお、本欄における括弧内の参照符号、ステップ番号、および補足説明等は、本発明の理解を助けるために後述する実施形態との対応関係を示したものであって、本発明を何ら限定するものではない。
 この発明のある局面に従えば、複数のハウジング(11,21)により開閉可能な情報処理装置(10)を提供する。情報処理装置(10)は、複数のハウジングの連結部分に設けられた、撮像手段(23)および音声入力手段(21C,42)と、記憶手段(34)と、撮像手段を用いて撮像データを取得する撮像データ取得手段(31,SA50)と、データ取得手段により取得された撮像データを記憶手段に記憶する撮像データ記憶制御手段(31,SA54)と、音声入力手段を用いて音声データを取得する音声データ取得手段(31,SD171)と、音声データ取得手段により取得された音声データを記憶手段に記憶する音声データ記憶制御手段(33,SD173)とを含む。
 なお、撮像データには、静止画像および動画像を含む。また、開閉可能な構成としては、後述する折り畳み型に加えて、スライド型や回転型、およびこれらの複合型を含む。なお、本願の情報処理装置は、折り畳み、スライド、回転により、少なくとも一方のハウジングの所定面が他方のハウジングにより隠れる状態と露出する状態との間で変化する構成とすることができる。特に、当該所定面に表示部が設けられている場合には、折り畳み、スライド、回転により、当該表示部が隠れる状態と露出する状態との間で変化する構成としてもよい。
 この局面によれば、撮像手段(23)および音声入力手段(21C,42)が複数のハウジング(11,21)の連結部分に設けられることで、ハウジング間の開閉角度に影響を受けることなく、実質的に同じ位置関係を維持することができる。これにより、情報処理装置の使用形態に関わらず、撮像手段(23)および音声入力手段(21C,42)のユーザに対する相対的な位置関係が略一定に維持されるので、常に適切な撮影操作および/または音声取得操作が可能となる。
 また、この局面によれば、ユーザは、撮像手段(23)および音声入力手段(21C,42)が連結部分に配置されているので、複数のハウジング(11,21)のいずれか一方のみを片手で把持して撮影操作および/または音声取得操作を行うことも可能であるとともに、両手で両方のハウジング(11,21)を把持して、より安定的に撮影操作および/または音声取得操作を行うことも可能である。これにより、撮影および/または音声取得を行う状況に応じた形態で使用することができる。
 好ましくは、情報処理装置(10)は、記憶手段に記憶された撮像データを再生する撮像データ再生手段(31,SA41)をさらに含む。これにより、撮影して得られた撮像データを即座に確認することができる。
 好ましくは、情報処理装置(10)は、記憶手段に記憶された撮像データを編集する撮像データ編集手段(31,SA58)をさらに含む。これにより、ユーザは、撮影して得られた撮像データに対して、所望の編集操作を行って楽しむことができる。
 好ましくは、情報処理装置(10)は、記憶手段に記憶された音声データを再生する音声データ再生手段(31,SD76#)をさらに含む。これにより、取得した音声データを即座に確認することができる。
 好ましくは、情報処理装置(10)は、記憶手段に記憶された音声データを編集する音声データ編集手段(31,SD262)をさらに含む。これにより、ユーザは、取得した音声データに対して、所望の編集操作を行って楽しむことができる。
 好ましくは、情報処理装置(10)は、近距離無線通信手段(38)と、記憶手段に記憶された撮像データを、近距離無線通信手段を用いて、他の情報処理装置に送信する撮像データ送信制御手段(31,SC52)と、他の情報処理装置から、近距離無線通信手段を用いて、撮像データを受信し、記憶手段に記憶する撮像データ受信制御手段(31,SC53)とをさらに含む。
 この好ましい局面によれば、同種類の情報処理装置を有するユーザの間で、撮影して得られた撮像データを交換することができる。これにより、グループ内で同じ撮像データを共有して楽しんだり、撮影して得られた撮像データを他のユーザに配信したりして楽しむことができる。
 好ましくは、情報処理装置(10)は、開閉を検出する開閉検出手段(50)をさらに含み、撮像データ再生手段は、開閉検出手段により開閉が検出されるたびに、記憶手段に記憶された撮像データのうち、異なる撮像データに基づいて撮像画像を表示する(SA73)。なお、撮像画像は、折り畳み、スライド、回転により、隠れる状態と露出する状態との間で変化する表示部に表示される。
 この好ましい局面によれば、情報処理装置の開閉がなされるたびに、表示される撮像データが随時変化するので、ユーザにとってみれば、情報処理装置を開く際に楽しみができる。
 好ましくは、記憶手段は、情報処理装置のコンピュータを、撮像データ取得手段および撮像データ記憶制御手段として機能させる、撮像データ取得プログラム(53)と、情報処理装置のコンピュータを音声データ取得手段および音声データ記憶制御手段として機能させる、音声データ取得プログラム(57)と、をさらに記憶する。そして、情報処理装置(10)は、情報処理装置を起動したときに、少なくとも、撮像データ取得プログラムまたは音声データ取得プログラムのうちからいずれかを選択させ、当該選択されたプログラムを起動する起動制御手段(31,SA5~SA13)をさらに含み、起動制御手段は、撮像手段を用いて撮像データを取得して記憶手段に記憶する機能(31,SA10)を有する。
 この好ましい局面によれば、少なくとも撮像データ取得プログラム(53)および音声データ取得プログラム(57)の実行が可能な環境下において、ユーザは、起動制御手段(31,SA5~SA13)によって所望のプログラムを容易に選択して実行させることができる。
 さらに、この好ましい局面によれば、撮影処理手段による撮影機能の実行中に、撮像データ取得プログラム(53)を直接起動することができる。すなわち、撮影処理手段により提供される撮影機能から撮像データ取得プログラム(53)により提供される撮影機能を容易に起動することができるので、当撮影処理手段により提供される撮影機能に接したユーザが、撮像データ取得プログラム(53)により提供される撮影機能を使用するようにユーザを誘導することができる。
 好ましくは、情報処理装置(10)は、情報処理装置を開いたときに、複数のハウジングのうち1つのハウジングが存在する側の、複数のハウジングのうちの他の1つのハウジングの上面に設けられる第1操作手段(14I,14J)をさらに含み、撮像データ記録手段は、第1操作手段が操作されたときに、撮像手段を用いて撮像データを取得して、記憶手段に記憶する。
 この好ましい局面によれば、ユーザは、情報処理装置を把持する手で第1操作手段(14I,14J)を操作することによって撮像データの取得操作を行うことができる。すなわち、情報処理装置を把持した状態のまま撮像データの取得操作を行うことができるので、撮影操作を容易に行うことができる。このため、より携帯型の情報処理装置に適した構成を提供できる。
 好ましくは、撮像手段および音声入力手段は、連結部の中央付近に設けられる。これにより、ユーザが右手のみで情報処理装置を把持した場合と、ユーザが左手のみで情報処理装置を把持した場合との間で、情報処理装置とユーザとの相対的な位置関係を略同一にできる。
 さらに好ましくは、撮像手段は、連結部の中央に設けられ、音声入力手段は、連結部の中央からオフセットされた位置に設けられる。撮像手段の撮像範囲は、そこを通る位置を中心として定められるのに対して、音声入力手段の音声取得範囲は、比較的広範囲であるので、撮像手段を優先的に連結部の中央に設けることで、より適切な状況で撮影が可能となる。
 好ましくは、情報処理装置(10)は、各ハウジングに設けられる表示手段(12,22)をさらに含む。これにより、撮像手段によって撮像された画像などを表示させることもできる。
 好ましくは、ハウジングは横長のハウジングである。横長のハウジングを採用することで、ユーザの目の動きに適した構成となる。
 好ましくは、情報処理装置(10)は、複数のハウジングのうち1つのハウジングにおいて、表示手段の左右にそれぞれ配置される第1および第2の操作手段(14A~14E)と、複数のハウジングのうち他の1つのハウジングにおいて、表示手段の左右にそれぞれ配置される第1および第2の音声出力手段(21D,45,47)とを含む。
 この好ましい局面によれば、音声取得手段によって取得された音声などを出力することができる。
 好ましくは、情報処理装置(10)は、メモリカード(28,29)を着脱自在に装着するための接続手段(36,37)をさらに含む。これにより、各種のプログラムや撮像データもしくは音声データを記憶したメモリカードを自在に装着して、情報処理装置で表示もしくは再生したり、取得した撮像データや音声データを任意に保存したりすることができる。その結果、情報処理装置の自由度および拡張度を飛躍的に高めることができる。
 さらに好ましくは、撮像データ記憶制御手段は、撮像データを、記憶手段とメモリカードとに選択的に記憶可能である。
 あるいは、さらに好ましくは、音声データ記憶制御手段は、音声データを、記憶手段とメモリカードに選択的に記憶可能である。
 これらの構成により、その数、種類、大きさなどに応じて、任意の記憶媒体に撮像データおよび/または音声データを記憶できるので、ユーザの自由度を高めることができる。また、メモリカードに撮像データおよび/または音声データを記憶することで、情報処理装置とは別の装置へ撮像データおよび/または音声データを出力することもできる。
 好ましくは、情報処理装置のコンピュータを、撮像データ取得手段および撮像データ記憶制御手段として機能させるプログラムを内蔵の記憶手段に記憶し、当該プログラムを情報処理装置のコンピュータに実行させることが可能である。これにより、情報処理装置は、外部からメモリなどを装着されることなく、単体で撮影機能をユーザに提供することができる。
 さらに好ましくは、メモリカードに記憶されたアプリケーションプログラムを読み出して、情報処理装置のコンピュータに実行させることが可能である。これにより、情報処理装置は、内蔵の記憶手段の容量制限に関わらず、各種多様なアプリケーションプログラムを選択的に実行することができる。
 この発明の別の局面に従う情報処理システムは、上記の情報処理装置と、アプリケーションプログラムとして、情報処理装置のコンピュータを、撮像データ取得手段および撮像データ記憶制御手段として機能させるプログラムを記憶し、データを書き込み可能なメモリカードとを含み、撮像データ記憶制御手段は、撮像データを、記憶手段およびメモリカードのいずれかに選択的に記憶可能である。
 この局面に従う情報処理システムは、ユーザは、撮像データを内蔵の記憶手段および外部から装着されたメモリカードに選択的に記憶できるので、状況に応じて、記憶媒体を用いることができる。
 この発明のさらに別の局面に従う情報処理システムは、上記の情報処理装置と、アプリケーションプログラムとして、情報処理装置のコンピュータを、記憶手段に記憶された撮像データを利用する撮像データ利用処理手段として機能させるプログラムを記憶するメモリカードとを含む。
 この発明のさらに別の局面に従う情報処理システムは、上記の情報処理装置と、アプリケーションプログラムとして、情報処理装置のコンピュータを、記憶手段およびメモリカードに記憶された撮像データを利用する撮像データ利用処理手段として機能させるプログラムを記憶するメモリカードとを含む。
 この発明のさらに別の局面に従う情報処理システムは、上記の情報処理装置と、アプリケーションプログラムとして、情報処理装置のコンピュータを、音声データ取得手段および音声データ記憶制御手段として機能させるプログラムを記憶し、データを書き込み可能なメモリカードとを含み、音声データ記憶制御手段は、音声データを、記憶手段およびメモリカードのいずれかに選択的に記憶可能である。
 この局面に従う情報処理システムは、ユーザは、音声データを内蔵の記憶手段および外部から装着されたメモリカードに選択的に記憶できるので、状況に応じて、記憶媒体を用いることができる。
 この発明のさらに別の局面に従う情報処理システムは、上記の情報処理装置と、アプリケーションプログラムとして、情報処理装置のコンピュータを、記憶手段に記憶された音声データを利用する音声データ利用処理手段として機能させるプログラムを記憶するメモリカードとを含む。
 この発明のさらに別の局面に従う情報処理システムは、上記の情報処理装置と、アプリケーションプログラムとして、情報処理装置のコンピュータを、記憶手段およびメモリカードに記憶された音声データを利用する音声データ利用処理手段として機能させるプログラムを記憶するメモリカードとを含む。
 上記の情報処理装置(10)は、メモリカードを着脱自在に装着するための接続手段を複数備えることが好ましい。これにより、各種のメモリカードを同時に複数装着することができ、これにより、ユーザはより多くのアプリケーションプログラムから所望するプログラムを選んで実行することができる。
 さらに好ましくは、接続手段は、汎用規格のメモリカード(28)を着脱自在に装着するための第1の接続手段と、専用規格のメモリカード(29)を着脱自在に装着するための第2の接続手段とを含む。
 この好ましい局面によれば、ユーザは、汎用規格のメモリカードを介して、撮像データおよび/または音声データを他のユーザと容易交換したり、他の装置へ容易に移動させたりすることができる。一方、専用規格のメモリカードに各種のアプリケーションプログラムを記憶することで、不正操作を防止することができる。また、専用規格のメモリカードに撮像データおよび/または音声データを記憶することで、本発明に係る情報装置装置に特有の情報などを併せて記憶しておき、各種演出や情報表示することも可能となる。
 さらに好ましくは、撮像データ記憶制御手段は、撮像データを、記憶手段と汎用規格のメモリカードと専用規格のメモリカードとに選択的に記憶可能である。
 またさらに好ましくは、音声データ記憶制御手段は、音声データを、記憶手段と汎用規格のメモリカードと専用規格のメモリカードとに選択的に記憶可能である。
 これらの好ましい局面によれば、ユーザは、取得した撮像データおよび/または音声データをその内容などに応じて、より適切なメモリカードに記憶することができる。また、撮像データおよび/または音声データの整理などを効率化することもできる。
 またさらに好ましくは、専用規格のメモリカードに記憶されたアプリケーションプログラムを読み出して、情報処理装置のコンピュータに実行させることは許可されており、汎用規格のメモリカードに記憶されたアプリケーションプログラムを読み出して、情報処理装置のコンピュータに実行させることは禁止されている。これにより、汎用規格のメモリカードに記憶された不正なアプリケーションプログラムなどの実行による不具合の発生を回避することができる。
 この発明のさらに別の局面に従う情報処理システムは、上記の情報処理装置と、アプリケーションプログラムとして、情報処理装置のコンピュータを、第2の撮像データ取得手段および第2の撮像データ記憶制御手段として機能させるプログラムを記憶する専用規格のメモリカードとを含む。第2撮像データ記憶制御手段は、撮像データを、少なくとも、記憶手段、汎用規格のメモリカード、および専用規格のメモリカードのいずれかに選択的に記憶可能である。
 この発明のさらに別の局面に従う情報処理システムは、上記の情報処理装置と、アプリケーションプログラムとして、情報処理装置のコンピュータを、第2の音声データ取得手段および第2の音声データ記憶制御手段として機能させるプログラムを記憶する専用規格のメモリカードとを含み、第2の音声データ記憶制御手段は、音声データを、少なくとも、記憶手段、汎用規格のメモリカード、および専用規格のメモリカードのいずれかに選択的に記憶可能である。
 これらの局面によれば、ユーザは、撮像データおよび/または音声データを内蔵の記憶手段ならびに外部から装着された汎用規格のメモリカードおよび専用規格のメモリカードに選択的に記憶できるので、状況に応じて、記憶媒体を用いることができる。
 この発明のさらに別の局面に従う情報処理システムは、上記の情報処理装置と、アプリケーションプログラムとして、情報処理装置のコンピュータを、記憶手段および汎用規格のメモリカードおよび専用規格のメモリカードに記憶された撮像データを利用する撮像データ利用処理手段として機能させるプログラムを記憶する専用規格のメモリカードとを含む。
 この発明のさらに別の局面に従う情報処理システムは、メモリカード(28,29)と、メモリカードに記憶されたアプリケーションプログラムを読み出して処理を実行することが可能な情報処理装置(10)とを含む。情報処理装置(10)は、撮像手段(23)と、内蔵の記憶手段(34)と、メモリカードを着脱自在に装着するための接続手段(36,37)と、内蔵のプログラム記憶手段(901~908)とを含み、内蔵のプログラム記憶手段は、情報処理装置のコンピュータを、撮像手段を用いて撮像データを取得する第1の撮像データ取得手段、および撮像データ取得手段により取得された撮像データを内蔵の記憶手段に記憶する第1の撮像データ記憶制御手段、として機能させるプログラムを記憶し、メモリカードは、アプリケーションプログラムとして、情報処理装置のコンピュータを、撮像手段を用いて撮像データを取得する第2の撮像データ取得手段、および撮像データ取得手段により取得された撮像データを内蔵の記憶手段に記憶する第2の撮像データ記憶制御手段、として機能させるプログラムを記憶する。
 この発明のさらに別の局面に従う情報処理システムは、メモリカード(28,29)と、メモリカードに記憶されたアプリケーションプログラムを読み出して処理を実行することが可能な情報処理装置とを含む。情報処理装置(10)は、撮像手段(23)と、内蔵の記憶手段(34)と、メモリカードを着脱自在に装着するための接続手段(36,37)と、内蔵のプログラム記憶手段(901~908)とを含み、内蔵のプログラム記憶手段は、情報処理装置のコンピュータを、撮像手段を用いて撮像データを取得する第1の撮像データ取得手段、および撮像データ取得手段により取得された撮像データを内蔵の記憶手段に記憶する第1の撮像データ記憶制御手段、として機能させるプログラムを記憶し、メモリカードは、アプリケーションプログラムとして、情報処理装置のコンピュータを、内蔵の記憶手段に記憶された撮像データを利用する撮像データ利用処理手段として機能させるプログラムを記憶する。
 この発明のさらに別の局面に従えば、撮像手段(23)を有し、複数のアプリケーションプログラムを記憶可能な情報処理装置(10)のコンピュータにおいて実行され、当該複数のアプリケーションプログラムの中からユーザが所望するアプリケーションプログラムを選択的に起動するための起動用プログラム(51)を提供する。起動用プログラム(51)は、複数のアプリケーションプログラムを選択的に起動する第1起動操作を受け付ける第1起動操作受付手段(SA6,SA11)と、第1起動操作が行われた場合、複数のアプリケーションプログラムのうち当該第1起動操作で選択されたアプリケーションプログラムを、コンピュータによって実行されるプログラムを記憶するための所定の記憶手段に読み込んで、当該アプリケーションプログラムを起動する第1起動手段(SA12)と、所定の撮影操作に応じて、撮像手段による撮像画像を記憶手段に保存する撮影処理を行う撮影処理手段(SA10)としてコンピュータを機能させる。
 この局面によれば、ユーザは、複数のアプリケーションプログラムのうち実行させるべきアプリケーションプログラムを第1起動操作によって選択することができるとともに、所定の撮影操作によって撮影手段により撮像画像を取得することもできる。したがって、ユーザは、アプリケーションプログラムの起動前の状態においても、撮影機能を容易かつ迅速に使用することができる。また、起動用プログラムによって提供される撮影機能の実行中に、撮影処理手段を起動することができる。
 好ましくは、撮影処理手段は、撮像手段による撮像画像を記憶手段に保存する撮影機能を有し、当該撮影機能により撮影した画像を編集する機能を有しない。
 好ましくは、撮影処理手段は、撮像手段による撮像画像を記憶手段に保存する撮影機能を有し、当該撮影機能により撮影した画像の中から任意に閲覧する機能を有しない。
 これらの局面によれば、起動用プログラムによって提供される撮影処理手段においては、画像編集および/または画像閲覧の機能が提供されないので、ユーザは、これらの機能を有する撮影アプリケーションプログラムの使用を望むようになる。その結果、撮影処理手段から撮影アプリケーションプログラムを使用させるようにユーザを誘導することができる。
 好ましくは、情報処理装置(10)は、アプリケーションプログラムとして、撮像手段による撮像画像を記憶手段に保存する撮影機能を有する撮影アプリケーションプログラム(53)を記憶している。これにより、ユーザは、より高機能な撮影アプリケーションプログラムの使用を望むようになり、撮影アプリケーションプログラムを使用させるようにユーザを誘導することができる。
 さらに好ましくは、撮影アプリケーションプログラムは、撮影した画像を編集する機能をさらに有する。
 好ましくは、撮影アプリケーションプログラムは、撮影した画像の中から任意に閲覧する機能をさらに有する。
 好ましくは、撮影アプリケーションプログラムは、撮影した画像を記憶手段に保存する。
 好ましくは、起動用プログラムは、記憶手段に保存された撮影画像を、他の情報処理装置と交換することが可能である。
 好ましくは、撮影アプリケーションプログラムは、撮影操作に応じて、撮影した画像を記憶手段に保存する。
 好ましくは、記憶手段に保存された撮影画像を、複数のアプリケーションプログラムを選択的に起動するための画像とともに表示する(SA5)。
 好ましくは、起動したアプリケーションプログラムが終了したときに、起動用プログラムの実行により、複数のアプリケーションプログラムを選択的に起動するための画像とともに表示するときに、記憶手段に保存された撮影画像のうち、前回とは異なる撮影画像を表示する(SA28)。
 これらの局面によれば、起動用プログラムによって提供される撮影処理手段に比較して、撮影アプリケーションプログラムはより高度な機能をユーザに提供できるので、撮影アプリケーションプログラムの魅力を高めることができる。
 この発明のさらに別の局面に従えば、上述のいずれかに記載の起動用プログラムを記憶した記憶媒体を提供する。
 この発明によれば、撮影機能および/または音声取得機能に適した構造を有する情報処理装置を提供することができる。また、本体に内蔵された記憶媒体および外部から装着される記憶媒体にそれぞれ記憶されるプログラムを連携して実行させることが可能な情報処理システムを提供することができる。さらに、撮影機能を搭載した情報処理装置に適した起動用プログラムおよびそのプログラムを記憶した記憶媒体を提供することができる。
本実施形態に従う撮像装置の外観を示す平面図である。 本実施形態に従うゲーム装置の背面側を示す斜視図である。 本実施形態に従うゲーム装置のLEDの点灯動作を説明する図である。 本実施形態に従うゲーム装置の音量ボタンの操作を説明するための図である。 本実施形態に従うゲーム装置の開いた状態(開状態)における側面図である。 本実施形態に従うゲーム装置の閉じた状態(閉状態)における側面図である。 図1に示す下側ハウジングのA-A’断面図である。 図1に示す上側ハウジングのB-B’断面図である。 ユーザが本実施形態に従うゲーム装置を両手で把持した様子を示す図である。 ユーザが本実施形態に従うゲーム装置を片手で把持した様子を示す図である。 ユーザが縦持ちで本実施形態に従うゲーム装置を把持した様子を示す図である。 ユーザが縦持ちで本実施形態に従うゲーム装置を把持した様子を示す図である。 本実施形態に従うゲーム装置を把持して使用する様子を示す図である。 本実施形態に従うゲーム装置を載置して使用する様子を示す図である。 本実施形態の変形例に従う撮像装置の外観を示す平面図である。 本実施形態の変形例に従うゲーム装置の開いた状態(開状態)における側面図である。 本実施形態の変形例に従うゲーム装置の閉じた状態(閉状態)における側面図である。 本実施形態に従うゲーム装置の内部構成を示すブロック図 本実施形態に従うゲーム装置における各アプリケーションプログラムの起動方法を説明するための図である。 本実施形態に従うゲーム装置のメインメモリに記憶される主なデータを示す図である。 本実施形態に従うゲーム装置のランチャー処理の流れを示すメインフローチャートである。 図21に示す簡易撮影処理の流れを示すフローチャートである。 本実施形態に従うゲーム装置のランチャー処理におけるメニュー画面の一例を示す図である。 本実施形態に従うゲーム装置のランチャー処理における撮影可能状態において表示される画像の一例を示す図である。 図22に示すフローチャートの撮影操作の実行後に表示される画像の一例を示す図である。 図21に示すフローチャートの簡易撮影処理の実行後に表示される画像の一例を示す図である。 図21に示す撮影誘導処理の流れを示すフローチャートである。 本実施形態に従うゲーム装置の開閉時処理の詳細を示すフローチャートである。 図28に示すフローチャートの表示画像の変更処理における変更方法を示す図である。 本実施形態に従う多機能撮影処理の流れを示すフローチャートである。 本実施形態に従う多機能撮影処理において表示される画像の一例を示す図である。 図30に示すフローチャートの写真表示モード処理の流れを示すフローチャートである。 本実施形態に従う写真表示モードにおいて表示される画像の一例を示す図である。 図32に示す撮影モード処理の流れを示すフローチャートである。 本実施形態に従う撮影モードにおいて表示される画像の一例を示す図である。 本実施形態に従うゲーム装置における撮影処理(その1)の流れを示すフローチャートである。 図36に示す本実施形態に従う撮像装置における撮影処理において表示される画像の一例を示す図である。 図36に示す入力画像生成処理の流れを示すフローチャートである。 図38に示すペンモード時において表示される画像の一例を示す図である。 図36に示す保存画像の表示処理において表示される画像の一例を示す図である。 本実施形態に従うゲーム装置における撮影処理(その2)の流れを示すフローチャートである。 図41に示す表示処理において表示される画像の一例を示す図である。 図41に示す編集処理の流れを示すフローチャートである。 図43に示す編集処理のペンモード時において表示される画像の一例を示す図である。 図43に示す編集処理のシールモード時において表示される画像の一例を示す図である。 本実施形態に従うカレンダー処理において表示される画像を示す図である。 複数の本実施形態に従うゲーム装置が接続されるシステムの一例を説明するための図である。 本実施形態に従うゲーム装置において送信側か受信側か決定される前段階において表示される画面表示例(その1)を示す図である。 本実施形態に従うゲーム装置において送信側か受信側か決定される前段階において表示される画面表示例(その1)を示す図である。 送信側の本実施形態に従うゲーム装置および受信側の本実施形態に従うゲーム装置にそれぞれ表示される第1段階の画面表示例を示す図である。 送信側の本実施形態に従うゲーム装置および受信側の本実施形態に従うゲーム装置にそれぞれ表示される第2段階の画面表示例を示す図である。 送信側の本実施形態に従うゲーム装置および受信側の本実施形態に従うゲーム装置にそれぞれ表示される第3段階の画面表示例を示す図である。 送信側の本実施形態に従うゲーム装置および受信側の本実施形態に従うゲーム装置にそれぞれ表示される第4段階の画面表示例を示す図である。 送信側の本実施形態に従うゲーム装置および受信側の本実施形態に従うゲーム装置にそれぞれ表示される第5段階の画面表示例を示す図である。 送信側の本実施形態に従うゲーム装置および受信側の本実施形態に従うゲーム装置にそれぞれ表示される通信切断時の画面表示例を示す図である。 本実施形態に従う画像通信プログラムの実行することに応じて、メインメモリに記憶される各種データの一例を示す図である。 本実施形態に従うゲーム装置が画像通信処理を行う一例を示すフローチャートである。 図57に示す画像送信処理の詳細な動作を示すサブルーチンを示すフローチャートである。 図57に示す画像受信処理の詳細な動作を示すサブルーチンを示すフローチャートである。 送信元の本実施形態に従うゲーム装置と受信先の本実施形態に従うゲーム装置との間で送受信される信号の一例を示す図である。 本実施形態に従うゲーム装置におけるサウンド機能におけるサウンド選択画面400の一例を示す図である。 本実施形態に従う音楽再生フォルダリスト選択画面を説明する図である。 本実施形態に従う別の音楽再生フォルダリスト選択画面を説明する図である。 本実施形態に従うミュージックファイル選択画面を説明する図である。 本実施形態に従う再生動作選択画面を説明する図である。 本実施形態に従うゲーム装置における機能選択に係る処理を説明するフローチャートである。 図66における選択機能モード移行処理のサブルーチン処理を説明するフローチャートである。 音楽再生モードにおけるサブルーチン処理を説明するフローチャートである。 SDカード内のフォルダ検索処理のサブルーチン処理を説明するフローチャートである。 フォルダリスト生成のサブルーチン処理を説明するフローチャートである。 フォルダ名判定処理のサブルーチン処理を説明するフローチャートである。 フォルダ検索処理を説明する具体例の一例を説明する図である。 ミュージックファイル選択処理のサブルーチン処理を説明するフローチャートである。 ミュージックファイル再生処理のサブルーチン処理を説明する図である。 音量設定アイコンを拡大した図である。 本実施形態に従う音量設定処理のサブルーチン処理を説明するフローチャートである。 音量設定アイコンの別の例を説明する図である。 速度音程調整アイコンを選択することにより再生スピードや音程を変える機能を説明する図である。 音色調整アイコンを選択することにより再生信号の周波数を変調し、あるいはフィルタリン処理等を実行して別の音色に変える機能を説明する図である。 効果音選択アイコンを選択することにより、RボタンおよびLボタンをユーザが操作したときにスピーカ等から出力される効果音を変更する場合を説明する図である。 本実施形態に従うビジュアライザ表示処理を説明する図である。 ビジュアライザ表示処理のサブルーチン処理を説明するフローチャートである。 別のビジュアライザ表示画面を説明する図である。 さらに別のビジュアライザ表示画面を説明する図である。 本実施形態に従うヘッドホンが検知された場合のフローを説明する図である。 ゲーム装置10を折畳み位置に折り畳んだ場合におけるスリープ処理について説明するフローチャートである。 スリープ音楽再生モードのサブルーチン処理を説明するフローチャートである。 本実施形態に従う自動録音モードを説明するフローチャートである。 本実施形態に従う録音処理のサブルーチン処理を説明するフローチャートである。 録音データ保存処理のサブルーチン処理を説明するフローチャートである。 本実施形態に従う自動再生モードのフローチャートである。 本実施形態に従う設定処理のサブルーチン処理を説明するフローチャートである。 本実施形態に従う設定画面を説明する図である。 マイク録音再生モードにおけるサブルーチン処理を説明するフローチャートである。 本実施形態に従う録音データファイルリスト選択画面を説明する図である。 録音データ再生動作選択画面を説明する図である。 録音データファイル再生処理のサブルーチン処理を説明する図である。 録音データファイル作成処理のサブルーチン処理(その1)を説明するフローチャートである。 本実施形態に従う録音開始画面を説明する図である。 録音データファイル作成処理のサブルーチン処理(その2)を説明するフローチャートである。 本実施形態に従う録音データファイル色指定画面を説明する図である。 本実施形態に従うお気に入りフォルダ選択画面を説明する図である。 本実施形態に従うゲーム装置が利用可能な記憶媒体を説明するための図である。
符号の説明
 10 ゲーム装置、11 下側ハウジング、12 下側LCD、13 タッチパネル、21 上側ハウジング、22 上側LCD、23 内側カメラ、25 外側カメラ。
 この発明の実施の形態について、図面を参照しながら詳細に説明する。なお、図中の同一または相当部分については、同一符号を付してその説明は繰り返さない。
 [1.概要]
 以下、本発明の一実施形態に係る携帯型のゲーム装置10について説明する。
 本実施形態に従うゲーム装置10は、撮像手段(カメラ)を有しており、撮像装置としても機能する。代表的に、ゲーム装置10は、当該撮像手段によって被写体を撮像し、撮像して得られた画像画面に表示したり、撮像した画像のデータを保存したり、他の装置との間で撮像した画像データを送受信したりすることが可能である。
 また、本実施形態に従うゲーム装置10は、典型的に、CPUなどの演算手段およびメモリを備えたコンピュータとして提供され、画像処理や情報処理に係る各種のアプリケーションプログラムを実行可能である。このようなプログラムを実行することにより、ゲーム装置10は、画像処理装置もしくは情報処理装置としても機能する。当然のことながら、本実施形態に従うゲーム装置10は、各種ゲームのプログラムを実行することも可能である。
 すなわち、本発明に係るプログラムは、任意のコンピュータシステムでの実行が可能であるが、本実施形態では、ゲーム装置10で本発明に係るプログラムが実行される構成について例示する。なお、本発明に係るプログラムによって提供される機能の一部または全部をハードウェア回路によって実現してもよい。
 [2.用語の定義]
 本明細書においては、撮像手段(カメラ)から画像データを取得することを「撮像」と記し、撮像した画像データを保存することを「撮影」と記す。
 [3.外観構成]
 <全体外観>
 図1は、本実施形態に従うゲーム装置10の外観を示す平面図であり、図2は、本実施形態に従うゲーム装置10の背面側を示す斜視図である。
 図1および図2を参照して、本実施形態に従うゲーム装置10は、代表的に、折り畳み型の携帯ゲーム装置である。図1には、ゲーム装置10が開いた状態(開状態)を示している。ユーザは、通常、開状態でゲーム装置10を使用し、ゲーム装置10を使用しない場合にはゲーム装置10を閉状態で保管する。そのため、ゲーム装置10は、開いた状態においてもユーザが両手または片手で把持することができるようなサイズで構成されることが好ましい。
 図1および図2に示すように、ゲーム装置10は、下側ハウジング11および上側ハウジング21という2つのハウジングを有する。下側ハウジング11と上側ハウジング21とは、開閉可能(折り畳み可能)に接続されている。すなわち、下側ハウジング11の上辺(図示x軸正側の辺)の左右方向(図示y方向)に関して両端には、図1に示す軸部11Aが設けられる(軸部11Aは下側ハウジング11と構造的に一体になっている)。また、上側ハウジング21の下辺(図示x軸負側の辺)の左右方向(図示y方向)に関して中央部には、図1に示す軸部21Aが設けられる(軸部21Aは上側ハウジング21と構造的に一体になっている)。軸部11Aと軸部21Aとは内部に設けられるヒンジによって左右方向を軸として回転可能に接続される。これによって、下側ハウジング11と上側ハウジング21とは左右方向を軸として回転可能に接続される。
 本実施形態では、ハウジング11および21はともに横長の形状であり(すなわち、各ハウジングは、横方向の寸法が縦方向の寸法よりも長い)、典型的には長方形の形状である。また、各ハウジング11および21は、平板状形状である(すなわち、厚み方向が、縦横方向よりも短い)。また、上側ハウジング21および下側ハウジング11は薄型平板状である。また、上側ハウジング21の厚みは下側ハウジング11の厚みよりも小さくするのが好ましい。そして、下側ハウジング11と上側ハウジング21とは、互いの長辺部分で回転可能に接続されている。
 なお、代替の実施形態においては、折り畳み型に代えて、1つのハウジングでゲーム装置10を構成してもよい。
 また、ゲーム装置10は、図1に示すように、上側LCD(Liquid Crystal Display:液晶表示装置)22および下側LCD12という2つの表示装置を備えている。上側LCD22は、上側ハウジング21の内側面(ゲーム装置10が閉じた状態となった場合に内側となる面)に取り付けられ、下側LCD12は、下側ハウジング11の内側面に取り付けられる。
 なお、本実施形態では表示装置としてLCDを用いているが、例えばEL(Electro Luminescence:電界発光)を利用した表示装置など、他の任意の表示装置を利用してもよい。また、ゲーム装置10は、任意の解像度をもつ表示装置を利用することができる。なお、本実施形態においては、ゲーム装置10は2つの表示装置を備える場合を例として説明するが、代替の実施形態においては、ゲーム装置が有する表示装置の数は特に制限されることはない。
 <下側ハウジング>
 次に、ゲーム装置10の下側ハウジング11に設けられる構成について説明する。
 上述したように、ゲーム装置10は、下側LCD12を有する。下側LCD12は、横長形状であり、長辺方向が下側ハウジング11の長辺方向に一致するように配置される。また、下側LCD12は、下側ハウジング11に収納される。また、下側LCD12は、下側ハウジング11の内側面に設けられる。したがって、ゲーム装置10を使用しない場合には閉状態としておくことによって、下側LCD12の画面が汚れたり傷ついたりすることを防止することができる。
 下側ハウジング11の内側面は、ほぼ平面状に形成される。当該内側面の中央には、下側LCD12を露出させるための開口部11Bが形成される。当該開口部11Bの左側(図示y軸負側)には開口部11Cが形成され、当該開口部11Bの右側には開口部11Dが形成される。開口部11Cおよび11Dは、各キートップ(各ボタン14A~14Eの上面)を露出させるためのものである。この結果、下側ハウジング11の内部に収納される下側LCD12の画面が開口部11Bから露出し、各キートップが開口部11Cおよび11Dから露出される。
 このように、下側ハウジング11の内側面には、中央に設けられる下側LCD12用の開口部11Bの左右両側に非画面領域(図1に示す点線領域A1およびA2に相当する。具体的には、各ボタン14A~14Eを配置するための領域;ボタン配置領域)がそれぞれ設けられる。このボタン配置領域は、それぞれ、横方向(図示y方向)の寸法が少なくとも15mm以上(好ましくは20mm以上で、より好ましくは30mm~40mm程度。)となるように設計される。
 下側ハウジング11には、入力装置として、各ボタン14A~14Kおよびタッチパネル13が設けられる。図1に示すように、各ボタン14A~14Kのうち、方向入力ボタン14A、ボタン14B、ボタン14C、ボタン14D、ボタン14E、電源ボタン14F、スタートボタン14G、および、セレクトボタン14Hは、下側ハウジング11の内側面に設けられる。なお、内側面とは、上側ハウジング21と下側ハウジング11とを折り畳んだときに内側を意味する。
 方向入力ボタン14Aは、例えば選択操作等に用いられ、各ボタン14B~14E、スタートボタン14G、および、セレクトボタン14Hは、例えば決定操作やキャンセル操作等に用いられる。電源ボタン14Fは、ゲーム装置10の電源をオン/オフするために用いられる。
 本実施形態においては、方向入力ボタン14Aおよび電源ボタン14Fは、下側ハウジング11の中央付近に設けられる下側LCD12に対して一方の側の(図1では左側)に設けられ、ボタン14B~14Eは、下側LCD12に対して他方の側(図1では右側)に設けられる。なお、電源ボタン14Fは、図16および図17(c)に示すように、下側ハウジング11の右側面に設けられてもよい。
 方向入力ボタン14Aは、十字の形状を有しており、縦横の長さがともに20mm程度である。方向入力ボタン14Aは、その中心が下側ハウジング11の左端から20mm程度、下側ハウジング11の下端から40mm程度の位置に設けられる。
 電源ボタン14Fは、円形形状を有しており、その中心が下側ハウジング11の左端から25mm程度で、かつ下側ハウジング11の下端から10mm程度の位置に設けられる。
 ボタン14B~14Eの各々は、円形形状を有しており、それぞれ半径が5mm程度である。ボタン14Bは、その中心が下側ハウジング11の右端から10mm程度で、かつ下側ハウジング11の下端から40mm程度の位置に設けられる。ボタン14Cは、その中心が下側ハウジング11の右端から20mm程度で、かつ下側ハウジング11の下端から40mm程度の位置に設けられる。ボタン14Dは、その中心が下側ハウジング11の右端から20mm程度で、かつ下側ハウジング11の下端から50mm程度の位置に設けられる。ボタン14Eは、その中心が下側ハウジング11の右端から25mm程度で、かつ下側ハウジング11の下端から45mm程度の位置に設けられる。
 方向入力ボタン14Aおよびボタン14B~14Eは、ゲーム装置10に対する各種操作(後述)を行うために用いられる。
 また、図2に示すように、Lボタン14Iは、下側ハウジング11の上側面の左端部に設けられ、Rボタン14Jは、下側ハウジング11の上側面の右端部に設けられる。Lボタン14IおよびRボタン14Jは、例えば撮影指示操作(シャッター操作)を行うために用いられる。
 また、音量ボタン14Kは、下側ハウジング11の左側面に設けられる。音量ボタン14Kは、ゲーム装置10が備えるスピーカの音量を調整するために用いられる。さらに、本実施形態においては、音量ボタン14Kは、セレクトボタン14Hとともに操作されることで、上側LCD22および下側LCD12の明るさを調整するためにも用いられる。これらの操作については、後述する。
 図1に示すように、ゲーム装置10は、各操作ボタン14A~14Iとは別の入力装置として、タッチパネル13をさらに備えている。タッチパネル13は、下側LCD12の画面上に装着されている。タッチパネル13としては、例えば抵抗膜方式や光学式(赤外線方式)や静電容量結合式など、任意の方式のものを利用することができる。また、本実施形態では、タッチパネル13として、下側LCD12の解像度と同解像度(検出精度)のものを利用する。ただし、必ずしもタッチパネル13の解像度と下側LCD12の解像度が一致している必要はない。また、本実施形態でいうタッチパネルとは、画面に対する接触座標を検出可能なデバイスであればどのような原理で検出するものであってもよい。
 図1および図2に示すように、下側ハウジング11の右側面には挿入口17が設けられている。挿入口17は、タッチパネル13に対する操作を行うために用いられるタッチペン27を収納することができる。なお、タッチパネル13に対する入力は通常タッチペン27を用いて行われるが、タッチペン27に限らずユーザの指でタッチパネル13を操作することも可能である。
 また、下側ハウジング11の右側面には、メモリカード28を収納するための挿入口が設けられている。この挿入口の内側には、ゲーム装置10とメモリカード28とを電気的に接続するためのコネクタ(図示せず)が設けられる。メモリカード28は、このコネクタに着脱自在に装着される。
 メモリカード28は、いずれかの規格団体によってそのスペックが定義されているような汎用規格に基づくものであり、代表的にはSD(Secure Digital)メモリカードからなる。メモリカード28は、不揮発性の書き換え可能なメモリを内蔵しており、例えば、ゲーム装置10によって撮像された画像を記憶(保存)したり、他の装置で生成された画像をゲーム装置10に読み込んだりするために用いられる。あるいは、メモリカード28は、予め音楽データであるミュージックファイルを格納しており、ゲーム装置10に当該ミュージックファイルが読み込まれることにより、再生処理を実行することが可能である。なお、メモリカード28には、パーソナルコンピュータなどにより、何かのプログラムが記憶されることもあるが、そのようなプログラムは、ゲーム装置10で実行することはできない。
 さらに、下側ハウジング11の上側面には、メモリカード29を収納するための挿入口(図1では、一点鎖線で示している)が設けられている。この挿入口の内側にも、ゲーム装置10とメモリカード29とを電気的に接続するためのコネクタ(図示せず)が設けられる。
 メモリカード29は、本実施形態に従うゲーム装置10の専用規格に基づくものであることが好ましい。すなわち、メモリカード29は、汎用規格のメモリカードと異なるサイズに設計される。メモリカード29は、画像通信プログラムやゲームプログラム等を記憶した記憶媒体であり、下側ハウジング11に設けられた挿入口に着脱自在に装着される。また、このメモリカード29には、後述する被選択アプリケーションプログラムも格納され得る。メモリカード29に格納されたアプリケーションプログラムは、図23を用いて後述するような方法でその実行が選択されたときに、メインメモリ32に読み出されて、CPU31により実行される。
 なお、メモリカード29は、ROMを内蔵し、プログラムを当該ROMに格納するようなものでもよいが、書き換え可能な不揮発メモリを内蔵し、ゲーム装置10によりデータを書き込みすることができるようにしてもよい。
 図1に示すように、下側ハウジング11の軸部11Aの左側部分(図15に示すように、右側部分でもよい)には、3つのLED15A~15Cが取り付けられる。これらのLED15A~15Cの点灯動作については、後述する。
 <上側ハウジング>
 一方、上側ハウジング21には、画像を撮像するための構成(カメラ)、および撮像した画像を表示するための構成(表示装置)が設けられる。以下、上側ハウジング21に設けられる構成について説明する。
 図1に示すように、ゲーム装置10は、上側LCD22を有する。上側LCD22は上側ハウジング21に収納される。上側LCD22は横長形状であり、長辺方向が上側ハウジング21の長辺方向に一致するように配置される。上側LCD22は、上側ハウジング21の内側面(ゲーム装置10が閉状態となった場合に内側となる面)に設けられる。したがって、ゲーム装置10を使用しない場合には閉状態としておくことによって、上側LCD22の画面が汚れたり傷ついたりすることを防止することができる。なお、下側LCD12と同様、上側LCD22に代えて、他の任意の方式および任意の解像度の表示装置を利用してもよい。なお、詳細は後述するが、上側LCD22は、主に、ユーザに操作の仕方を説明する画像等、撮像操作に関する画像が表示される。なお、代替の実施形態においては、上側LCD22上にもタッチパネルを設けてもよい。
 また、ゲーム装置10は、撮像手段として、2つのカメラ23および25を有する。カメラ23および25はともに上側ハウジング21に収納される。図1に示すように、内側カメラ23は、上側ハウジング21の内側面に取り付けられる。一方、図2に示すように、外側カメラ25は、内側カメラ23が取り付けられる面の反対側の面、すなわち、上側ハウジング21の外側面(ゲーム装置10が閉状態となった場合に外側となる面)に取り付けられる。
 なお、本実施形態においては、撮像手段としてのカメラを2つ備えるゲーム装置10を例として説明するが、ゲーム装置に備えられるカメラは1つであってもよいし、3つ以上であってもよい。また、カメラが取り付けられる位置はいずれの位置であってもよい。
 図2に示すように、上側ハウジング21の外側面には、第4LED26が取り付けられる。第4LED26は、外側カメラ25の周囲(本実施形態では、外側カメラ25の右側。図17(b)に示す例では、開状態において外側カメラ25の上側)に取り付けられる。第4LED26は、内側カメラ23または外側カメラ25によって撮影が行われた(シャッターボタンが押下された)時点で点灯する。また、内側カメラ23または外側カメラ25によって動画が撮影される間点灯する。
 このような第4LED26の作動によって、ゲーム装置10による撮影が行われた(行われている)ことを撮影対象者に通知することができる。
 さらに、下側ハウジング11の下側面には、音声の外部出力を行う機器(たとえば、ヘッドホン、イヤホン、骨伝導ヘッドホン等)に設けられたプラグを挿入するための音声の外部出力用端子19(図1では、破線で示している)が設けられている。この音声の外部出力用端子19の内側には、ゲーム装置1と音声の外部出力を行う機器とを電気的に接続するためのジャック62が設けられている。音声の外部出力を行う機器は、ヘッドホンのような両耳用であってもよいし、イヤホンのような片耳用であってもよく、音声の外部出力を行う機器のプラグは、ジャックに着脱自在に装着される。なお、以下においては、音声の外部出力を行う機器として、代表的にヘッドホンの場合について説明するが、イヤホン等の機器を用いることも可能である。
 ゲーム装置10は、音声入力装置としてマイク(図18に示すマイク43)を備えている。マイク43は、上側ハウジング21の内部に収納されている。本実施形態では、マイク43は上側ハウジング21の軸部21A内に配置される。より具体的には、内側カメラ23の周囲(図ではy軸の側方)に取り付けられ、より具体的には、内側カメラ23から10mm離れた側方(図ではy軸正方向側の側方)に取り付けられる。
 また、上側ハウジング21の内側面には、マイクがゲーム装置10外部の音を検知することができるように、マイクロフォン用孔21Cが設けられる。マイクロフォン用孔21Cは、上側ハウジング21の軸部21Aに設けられる。なお、マイクロフォン用孔21Cが下側ハウジング11と上側ハウジング21との連結部に設けられる場合には、その中央から所定距離だけオフセットされた位置に設けられることが好ましい。
 なお、図15に示すように、マイクは下側ハウジング11に収納されてもよい。図15においては、マイクロフォン用孔16が下側ハウジング11の内側面、具体的には、下側ハウジング11の内側面の左下部分(点線領域A1に相当するボタン配置領域)に設けられる。マイクは、下側ハウジング11内における、マイクロフォン用孔16の近傍に配置される。
 なお、マイク43を収納する位置およびマイクロフォン用孔16の位置は必ずしも上記連結部である必要はなく、例えば下側ハウジング11にマイク43を収納し、マイク43の収納位置に対応させて下側ハウジング11にマイクロフォン用孔16を設けるようにしてもよい。あるいは、ヘッドホンに設けられたプラグを挿入するための外部出力用端子19と隣接して、マイクロフォン用孔16を設けてもよい。
 <インジケータ表示および操作例>
 図3は、本実施形態に従うゲーム装置10のLED15A~LED15Cの点灯動作を説明する図である。
 図3(a)を参照して、ゲーム装置10は、後述するように他の機器との間で無線通信を行うことが可能であり、第1LED15Aは、無線通信が確立している場合に点灯する。具体的には、第1LED15Aは、他の機器との間で通信が可能な状態であれば、常時点灯する。また、第1LED15Aは、他の機器との間で通信中(あるいは、データ送信中)には、点滅する。
 図3(b)を参照して、第2LED15Bは、ゲーム装置10の充電中に点灯する。
 図3(c)を参照して、第3LED15Cは、ゲーム装置10の電源がオンである場合に点灯する。さらに、第3LED15Cは、ゲーム装置10が搭載する電池(バッテリパック)の充電状態に応じて、その点灯状態が変化する。具体的には、第3LED15Cは、バッテリ残量が相対的に多い状態では青色で点灯し、バッテリ残量が相対的に少ない状態では赤色で点灯する。さらに、バッテリ残量が残りわずかになると、第3LED15Cは、赤色で点滅する。
 このように、3つのLED15A~15Cによって、ゲーム装置10の通信状態、充電状態、バッテリ残量状態、および電源のオン/オフ状態などをユーザに通知することができる。
 図4は、本実施形態に従うゲーム装置10の音量ボタン14Kの操作を説明するための図である。ゲーム装置10では、ボリュームが複数段階(たとえば、5段階)に設定可能であり、図4(a)に示すように、音量ボタン14Kの「+」(プラス)側が押下される毎に、ボリュームが1段階ずつ大きくなる。一方、音量ボタン14Kの「-」(マイナス)側が押下される毎に、ボリュームが1段階ずつ小さくなる。
 なお、内側カメラ23または外側カメラ25によって撮影が行われた(シャッターボタンが押下された)時点でスピーカから出力される効果音(シャッター音)などは、ボリュームの設定とは独立して、一定の音量となることが好ましい。
 また、ゲーム装置100が後述するスリープ状態にある場合には、音量ボタン14Kの操作ではボリュームを小さくすることのみが許可されるようにすることが好ましい。
 図4(b)を参照して、セレクトボタン14Hが押下された状態で、音量ボタン14Kが操作されると、上側LCD22および下側LCD12の明るさが変更される。すなわち、セレクトボタン14Hが押下された状態で、音量ボタン14Kの「+」(プラス)側が押下される毎に、上側LCD22および下側LCD12の表示が1段階ずつ明るくなる。一方、セレクトボタン14Hが押下された状態で、音量ボタン14Kの「-」(マイナス)側が押下される毎に、上側LCD22および下側LCD12の表示が1段階ずつ暗くなる。
 [4.詳細構造および使用態様]
 次に、上述した図1および図2に加えて、図5~図14を参照して、本実施形態に従うゲーム装置10のより詳細な構造およびユーザによるゲーム装置10の使用形態について説明する。
 図5は、開いた状態(開状態)におけるゲーム装置10の側面図を示し、図6は、閉じた状態(閉状態)におけるゲーム装置10の四面図を示す。すなわち、図6(a)は、閉状態におけるゲーム装置10の左側面図を示し、図6(b)は、ゲーム装置10の正面図を示し、図6(c)は、ゲーム装置10の右側面図を示し、図6(d)は、ゲーム装置10の背面図を示す。
  本実施形態に従うゲーム装置10は、開いた状態において両手または片手で把持することができるような小型のサイズとされる。ゲーム装置10は、例えば、閉じた状態において、(縦)50mm~100mm×(横))100mm~200mm×(厚み)10mm~40mm程度になるようなサイズとし、一方、開いた状態においては、(縦)100mm~200mm程度になるようなサイズとすることができる。なお、「縦」方向は図示x方向に相当し、「横」方向は図示y方向に相当し、「厚み」方向は図示z方向に相当する。
 より好ましくは、閉じた状態において、(縦)60mm~90mm×(横)100mm~150mm×(厚み)15mm~30mmのサイズとし、開いた状態において、(縦)120mm~160mm程度のサイズとすることができる。
 さらに好ましくは、閉じた状態において、(縦)70mm~80mm×(横)100mm~150mm×(厚み)15mm~25mm、開いた状態において、(縦)135mm~155mm程度のサイズとすることができる。
 なお、下側ハウジング11の厚みは、上側ハウジング21の厚みよりも大きくすることが好ましい。また、ゲーム装置10は、開いた状態における縦の長さと横の長さが略同一の長さとなるようにしてもよい。さらに、下側ハウジング11の縦方向の寸法は、手のひら中央で下側ハウジング11の下隅部を支持したときに、人指し指の第2関節が上隅部付近に位置するような寸法にするのが望ましい。
 図7は、図1に示す下側ハウジングのA-A’断面図を示し、図8は、図1に示す上側ハウジングのB-B’断面図を示す。図7に示すように、下側ハウジング11の内側面上(ゲーム装置10が閉状態となった場合に内側となる面上)には、当該内側面に垂直な方向に突起するように設けられる軸部11Aが設けられる(典型的には、軸部11Aは下側ハウジングと構造的に一体になっている)。軸部11Aは、左右方向(図示y方向)に関して両端の位置に設けられる(図1参照)。なお、軸部11Aは、図15に示すように、左右方向に関して両端からやや内側の位置に設けられてもよい。
 図8に示すように、上側ハウジング21の下側面(図示x軸負側の側面)には、下側面に垂直な方向に対して突起するように設けられる軸部21Aが設けられる(軸部21Aは上側ハウジングと構造的に一体になっている)。軸部21Aは、下側面に垂直な方向に突起するとともに、上側ハウジング21の内側面(ゲーム装置10が閉状態となった場合に内側となる面)に垂直な方向についても突起するように設けられる。軸部21Aは、左右方向に関して上側ハウジング21の下端中央に設けられる(図1参照)。軸部11Aと軸部21Aとは内部に設けられるヒンジによって回転可能に接続されて一体の突起部を形成する。以上のように構成されることによって、突起部は各ハウジング11および21の内側面に対して突起した状態となる(図5参照)。
 また、軸部11Aが下側ハウジング11の内側面に対して突起して設けられ、軸部21Aが上側ハウジング21の下方に突起して設けられるので、2つのハウジング11および21が接続された状態では、下側ハウジング11の外側面(ゲーム装置10が閉状態となった場合に外側となる面)と上側ハウジング21の外側面との間には、下側ハウジング11の厚さの分だけ段差がつけられる(図5参照)。
 以上のように、上側ハウジング21は、下側ハウジング11の上側の一部で回動自在に支持されている。これによって、ゲーム装置10は、閉状態(下側ハウジング11と上側ハウジング21とのなす角度が約0°の状態(図5参照))と、開状態(下側ハウジング11と上側ハウジング21とのなす角度が約180°の状態(図1参照))とをとることができる。 また、本実施形態に従うゲーム装置10は、上記閉状態および開状態のみでなく、下側ハウジング11と上側ハウジング21とのなす角度が閉状態と開状態との間の任意の角度においてヒンジに発生する摩擦力などによって開閉角度を維持することができる。つまり、上側ハウジング21を下側ハウジング11に対して任意の角度で静止させることができる。
 また、ヒンジは、180°より小さい所定角度においてクリック感を伴って一時固定する機構を有してもよい。すなわち、上側ハウジング21と下側ハウジング11とは、180°よりも小さい所定角度に開いた状態で、当該所定角度においてクリック感を伴って一時固定されるようにしてもよい。上記所定角度は、具体的には、例えば150°~175°の範囲の角度であって、本実施形態においては160°とする。なお、本実施形態においては、各ハウジング11および21は、180°まで開くことが可能であるとするが、
代替の実施形態においては、上記所定角度までしか開かないようにしてもよいし、180°以上開くようにしてもよい。
 図2,図6(a),図6(c)に示すように、音量ボタン14Kは、下側ハウジング11の左側面に設けられる。音量ボタン14Kは、ゲーム装置10が備えるスピーカの音量を調整するために用いられる。また、図6(d)に示すように、ボタン14Jは、下側ハウジング11の上面の右端部に設けられる。ボタン14Iは、下側ハウジング11の上面の左端部に設けられる。なお、ボタン14Jは、その右端が下側ハウジング11の右端まで延びていることが好ましいが、そうでなくてもよい。なお、前者の場合、ボタン14Jの右側面と下側ハウジング11の右側面が略面一になるように設計するのが好ましい。また、ボタン14Jは、その裏端が下側ハウジング11の裏端まで延びていることが好ましいが、そうでなくてもよい。なお、前者の場合、ボタン14Jの裏面と下側ハウジング11の裏面が略面一になるように設計するのが好ましい。なお、ボタン14Iについても同様である。
 具体的には、ボタン14Jおよび14Iは、左右方向の長さが20mm程度、幅(厚さ方向の長さ、すなわち、図示z方向の長さ)が10mm程度である。各ボタン14Iおよび14Jは、ゲーム装置10に対して例えば撮影指示操作(シャッター操作)を行うために用いられる。なお、ボタン14Jおよび14Iの幅は、下側ハウジング11の厚みの50%以上とするのが好ましい。
 ボタン14Iおよび14Hの両方をシャッターボタンとして機能させてもよい。この場合、右利きのユーザはボタン14Jを使用し、左利きのユーザはボタン14Iを使用することができ、いずれのユーザにも使い勝手がよい。
 なお、ゲーム装置10は、各ボタン14Iおよび14Jを常にシャッターボタンとして有効としておいてもよいし、右利きか左利きかの設定をして(メニュープログラムなどによりユーザに設定入力をさせ、設定されたデータを記憶しておく)、右利き設定のときにはボタン14Jのみ有効とし、左利き設定のときにはボタン14Iのみ有効とするようにしてもよい。さらに、代替の実施形態においては、撮影指示操作を行うためのボタンは下側ハウジング11の上面に1つのみ設けられてもよい。
 下側ハウジング11の右側面には開閉可能なカバー部が設けられる。このカバー部の内側には、メモリカード28を接続するためのコネクタ(図示せず)が設けられる。
 以上に説明したように、下側ハウジング11には、ゲーム装置10に対する操作入力を行うための入力装置(タッチパネル13および各ボタン14A~14I)が設けられる。したがって、ユーザは、ゲーム装置10を使用する際には、下側ハウジング11を把持してゲーム装置10に対する操作を行うことができる。
 図9は、ユーザがゲーム装置10を両手で把持した様子を示す図である。図9に示すように、ユーザは、各LCD12および22がユーザの方向を向く状態で、両手の掌と中指、薬指および小指とで下側ハウジング11の側面および外側面(内側面の反対側の面)を把持する。このように把持することで、ユーザは、下側ハウジング11を把持したまま、各ボタン14A~14Eに対する操作を親指で行い、ボタン14Iおよび14Jに対する操作を人差し指で行うことができる。
 本実施形態では、下側ハウジング11を横長に構成し、下側LCD12の左右両側にボタンを設ける構成としたことにより、撮像装置を持ちやすく、かつ、操作のしやすい構成とすることができる。さらに、上述の通り、ボタン配置領域(図1に示す点線領域A1おA2)の横方向の寸法を少なくとも15mm設けるようにしたため、下側ハウジング11を把持した場合に親指が下側LCD12にかかるのを防ぐことができる。
 また、図10は、ユーザがゲーム装置10を片手で把持した様子を示す図である。タッチパネル13に対して入力を行う場合には、図10に示すように、下側ハウジング11を把持していた一方の手を離して他方の手のみで下側ハウジング11を把持することによって、当該一方の手でタッチパネル13に対する入力を行うことができる。この場合にも、下側ハウジング11を把持した親指が下側LCD12にかかるのを防ぐことができる。
 あるいは、両手で下側ハウジング11を把持したまま一方の手の親指(右利きのユーザは右手の親指)でタッチパネル13に対する入力を行うこともできる。この場合にも、下側ハウジング11を把持した他方の手の親指(右利きのユーザは左手の親指)がタッチパネル13にかかるのを防ぐことができる。
 上述したように、内側カメラ23は、上側ハウジング21の内側面に取り付けられる(図1参照)。一方、外側カメラ25は、内側カメラ23が取り付けられる面の反対側の面、すなわち、上側ハウジング21の外側面(ゲーム装置10が閉状態となった場合に外側となる面)に取り付けられる(図2および図6(b)など参照)。
 これによって、内側カメラ23は、上側ハウジング21の内側面が向く方向を撮像することが可能であり、外側カメラ25は、内側カメラ23の撮像方向の逆方向、すなわち、上側ハウジング21の外側面が向く方向を撮像することが可能である。
 以上のように、本実施形態に従うゲーム装置100では、それぞれの撮像方向が互いに逆方向となるように2つのカメラ23および25が設けられる。したがって、ユーザは、ゲーム装置10を持ち替えることなく、異なる2方向を撮像することができる。例えば、ユーザは、ゲーム装置10からユーザの方を見た景色を内側カメラ23で撮影することができるとともに、ゲーム装置10からユーザの反対側の方向を見た景色を外側カメラ25で撮影することができる。
 また、以上の構成によれば、外側カメラ25の撮影方向と上側LCD22の表示画面の向きとが反対方向(180°異なる方向)となり、内側カメラ23の撮影方向と上側LCD22の表示画面の向きとが同じ方向となる。したがって、外側カメラ25によって撮影された画像が上側LCD22に表示される場合には、上側LCD22の表示画面を見るユーザの視線方向と外側カメラ25の撮影方向がほぼ同じ方向となるので、ユーザにとっては撮影方向がわかりやすい。また、内側カメラ23によって撮影された画像が上側LCD22に表示される場合には、上側LCD22の表示画面を見るユーザの視線方向と内側カメラ23の撮影方向がほぼ反対方向となるので、ユーザにとっては撮影方向がわかりやすい。
 また、内側カメラ23は、上側ハウジング21の下側の中央部に形成される軸部21Aの中央に取り付けられる。つまり、内側カメラ23は、2つのハウジング11および21が接続される部分の中央に取り付けられる。
 したがって、ゲーム装置10を開状態にした場合、内側カメラ23は、2つのLCD12および22の間に配置されることになる(図1参照)。換言すれば、内側カメラ23は、ゲーム装置10の中心付近に配置されることになる。ここで、「ゲーム装置10の中心」とは、ゲーム装置10の操作面(開状態における各ハウジング11および21の内側面からなる面)の中心を意味する。
 あるいは、内側カメラ23は、LCD12および22の横方向の中心付近に配置されているということもできる。
 なお、本実施形態では、軸部21Aは上側ハウジング21と一体化されており、当該軸部21Aの内部に固定的に内側カメラ23が配置されるので、上側ハウジング21の開閉に応じて内側カメラ23の撮影方向が変更される。これにより、カメラの撮影方向を変更するための追加の機構を設けることなく、撮影方向の変更を実現することができる。また、内側カメラ23は、第2のハウジングの内側面(軸部21Aにおける、第2のハウジングの内側面と同じ側)に配置されるので、上側ハウジング21の閉動作により内側カメラ23は下側ハウジング11と対向する向きとなる。したがって、ゲーム装置10を閉状態にすることによって内側カメラ23を自動的に保護することができる。
 上述のように、本実施形態においては、内側カメラ23がゲーム装置10の操作面の中心付近に配置されるべく、軸部21Aに設けられる。ただし、代替の実施形態においては、内側カメラ23は、下側ハウジング11または上側ハウジング21の軸部以外の位置に設けられてもよい。例えば、内側カメラ23は、上側ハウジング21の内側面における、軸部21Aと上側LCD22との間に設けられてもよい。なお、内側カメラ23がゲーム装置10の操作面の左右方向に関して略中央に設けられれば、ユーザは、例えば自分を撮影する状況等において、少なくとも左右方向に関してはゲーム装置10の位置を容易に合わせることができる。
 ここで、例えば内側カメラ23がゲーム装置10の操作面の端部(例えば上側ハウジング21の内側面の上端)に配置される場合を考える。ゲーム装置10のような携帯機器を操作する場合、ユーザは、画面が見やすいように、ユーザがゲーム装置10に正対する位置でゲーム装置10を把持するのが通常である。
 しかし、内側カメラ23がゲーム装置10の端部に配置されている場合、通常の把持位置(ユーザがゲーム装置10に正対する位置)でゲーム装置10を把持したままでは、内側カメラ23の撮像範囲にユーザがうまく収まらなくなる。例えば操作面の上端に内側カメラ23が配置される場合には、通常の把持位置でゲーム装置10を把持したままでは、ユーザのやや上方が撮像範囲となり、ユーザの顔が撮像範囲にうまく収まらなくなる。
 そのため、内側カメラ23がゲーム装置10の操作面の端部に配置される場合には、ユーザが撮像範囲内にうまく収まるように、通常の把持位置からゲーム装置10を動かさなければならない。
 ところが、ゲーム装置10からユーザの方を見た景色を撮影する場合にはユーザの視線方向とカメラの撮像方向とが逆になること、および、普段把持している位置とは異なる位置でゲーム装置10を把持しなければならないことから、ユーザが撮像範囲内にうまく収まるようにゲーム装置10を配置することはユーザにとって難しい。
 これに対して、本実施形態では、ゲーム装置10を開状態にした場合に、内側カメラ23がゲーム装置10の中心付近に配置されるので、ユーザは、内側カメラ23によってユーザ自身を撮影する場合、ユーザがゲーム装置10に正対する位置でゲーム装置10を把持すればよい。つまり、通常の把持位置で撮像装置を把持すれば、ユーザは撮像範囲の中心付近に位置することになり、ユーザ自身を撮像範囲内に収めることが容易になる。以上のように、ユーザから見てゲーム装置10の中心付近となる位置に内側カメラ23を配置することによって、ユーザが撮像範囲内にうまく収まるようにユーザ自身を撮影することが容易になる。
 また、図6(b)に示すように、外側カメラ25は、ゲーム装置10を開状態とした場合において上側ハウジング21の上部(下側ハウジング11から(上側ハウジング21の中央よりも)遠い側の部分)に配置される。これは、ゲーム装置10を使用する際にユーザは下側ハウジング11を把持するので、下側ハウジング11に近い側に外側カメラ25を配置すると、外側カメラ25の撮像範囲にユーザの手が入ってしまうおそれがあるからである。
 本実施形態では、外側カメラ25は、その中心が上側ハウジング21の右端から20mm程度、ゲーム装置10を開状態とした場合における上側ハウジング21の上端から20mm程度の位置に設けられる。なお、外側カメラ25はゲーム装置10を把持するユーザを撮影するものではないので、ゲーム装置10の中心に設ける必要性が低い。また、ユーザは基本的に下側ハウジング11を把持するので下側ハウジング11は適度な厚みがあった方が把持しやすい一方、折り畳んだときの厚みは薄い方が携帯性が高いため、上側ハウジング21は極力薄くするのが好ましい。それゆえ、本実施形態においては、上側ハウジング21の中央には視認性を考慮して上側LCD22を配置し、外側カメラ25は上側LCD22の配置位置を避けて(すなわち、図1に示す非画面領域B2の裏側の領域に)上側ハウジング21の上部に配置することとした。
 これにより、上側LCD22と外側カメラ25の配置が重ならないので上側ハウジング21を薄型化することができる。また、ユーザは基本的に下側ハウジング11を把持するので、外側カメラ25を上側ハウジング21側に設けることによって、下側ハウジング11を把持する指が外側カメラ25の撮像範囲に入ることを防止することができる。
 また、上側ハウジング21の内側面はほぼ平面状に形成される。図1に示すように、当該内側面の中央には、上側LCD22を露出させるための開口部21Bが形成される。上側ハウジング21の内部に収納される上側LCD22の画面は、開口部21Bから露出する。また、上記開口部21Bの左右両側には音抜き孔21Dがそれぞれ1つずつ形成される。音抜き孔21Dの奥の上側ハウジング21内には、音声出力手段として、図示しないスピーカが収納されている。音抜き孔21Dは、スピーカからの音を外部に放出するための孔である。これらの音抜き孔21Dは、上側LCD22の左右両側に設けられる。
 このように、上側ハウジング21の内側面には、中央に設けられる上側LCD22用の開口部21Bの左右両側に非画面領域(図1に示す点線領域B1およびB2。具体的には、スピーカを配置するための領域;スピーカ配置領域)がそれぞれ設けられる。
 ここで、本実施形態では、下側ハウジング11および上側ハウジング21の左右方向(図示y方向)の長さ(幅)は同じである。さらに、下側LCD12および上側LCD22の左右方向の幅は同じであり、かつ、左右方向に関して同じ位置に配置される。そのため、上記スピーカ配置領域は、上記ボタン配置領域と左右方向の位置が一致するように設けられる。スピーカ配置領域は、ボタン配置領域と同様、横方向の寸法が少なくとも15mm以上(好ましくは20mm以上で、より好ましくは30mm~40mm程度。本実施形態では、32mm)となるように設計される。
 本実施形態では、2つの音抜き孔21Dは、左右方向については、各スピーカ配置領域の左右方向における中央部付近に配置される。また、上下方向については、各スピーカ配置領域の下部領域(下側ハウジング11に近い側の領域)に配置される。なお、図15に示すように、スピーカおよび音抜き孔21Dは図1よりもやや上側に配置されてもよい。また、図15に示すように、1つのスピーカに対して複数個(図15では6個)の音抜き孔21Dが設けられてもよい。
 上記のように、本実施形態では、下側ハウジング11および上側ハウジング21に左右方向に関して同じ位置に非画面領域がそれぞれ設けられる。これによって、ゲーム装置10は、図9に示すような横持ちで把持される場合だけでなく、縦持ち(図9に示す状態からゲーム装置10を左または右回りに90°回転させた状態)で把持される場合にも持ちやすい構成となっている。
 図11および図12は、ユーザが縦持ちでゲーム装置10を把持した様子を示す図である。なお、図11はゲーム装置10が左手で把持された様子を示し、図12はゲーム装置10が右手で把持された様子を示している。なお、右利きのユーザは、図9に示す状態からゲーム装置10を左回りに90°回転させて、図11に示すようにゲーム装置10を左手で把持するとよい。また、左利きのユーザは、図9に示す状態からゲーム装置10を右回りに90°回転させて、図12に示すようにゲーム装置10を右で把持するとよい。いずれの場合であっても、ユーザは、親指を突起部(軸部11Aおよび21A)に当接させ、人指し指を下側ハウジング11の上側面に当接させてゲーム装置10を把持することができる。
 なお、上述したように、下側ハウジング11の外側面と上側ハウジング21の外側面との間には段差がつけられている(図5参照)ので、この段差に人指し指を当接させることでゲーム装置10を安定的に把持することができる。また、ゲーム装置10を把持していない利き手でシャッターボタン(ボタン14Iまたは14J)を容易に押すことができる。
 上記のように、LCD12および22のそれぞれの両側には非画面領域が設けられているので、いずれの手でゲーム装置10を縦持ちで把持する場合であっても、画面に親指がかかることがない。すなわち、縦持ちで把持する場合についても、ゲーム装置10は持ちやすく、かつ、画面の視認性やタッチパネルの操作性は担保されている。
 また、図7に示すように、突起部は、下側ハウジング11に対して、各ボタン14A~14E(図7では方向入力ボタン14A)のキートップよりも突起している。これによって、ゲーム装置10を縦持ちで把持している親指が仮にボタンにかぶったとしても、ユーザが誤ってボタンを押下してしまう可能性が低く、誤入力を防止することができる。
 さらに、開状態におけるゲーム装置10の縦寸法は100mm~200mmであるので、縦持ちにした場合でも、横持ちにした場合のゲーム装置10の幅と同程度の十分な幅があり、持ちにくくなることがない。
 なお、縦持ちにする場合には、ハウジングの開閉角度を180°よりも小さい上記所定角度としてもよい。ハウジングの開閉角度を180°よりも若干小さい角度とすることによって、各ハウジング11および21の外側面が手の形状によりフィットし、ゲーム装置10をより持ちやすくなる。
 また、上述のように、本実施形態に従うゲーム装置10では、カメラ23および25が上側ハウジング21に設けられる。そして、カメラ23または25で撮像されるライブ画像は、下側ハウジング11に設けられる下側LCD12に表示可能である。この構成によれば、ゲーム装置10を把持して使用する場合であっても、机等に載置して使用する場合であっても、撮影方向を適宜変更しつつライブ画像に対する編集操作を行うことが非常に容易になる。
 図13は、ゲーム装置10を把持して使用する様子を示す図である。ゲーム装置10を把持して使用する場合、図13に示すように、ユーザは、片方の手(図13では左手)で下側ハウジング11を把持する。そして、下側LCD12にライブ画像が表示されるので、ユーザは、もう一方の手でタッチペン27を用いてライブ画像に対して編集操作を行う。このとき、下側ハウジング11の角度と上側ハウジング21の角度とを別々に変更することができるので、ユーザは、上側ハウジング21のカメラ23または25を撮像対象に向けながら、下側ハウジング11をタッチパネルの操作が行いやすい角度にしてゲーム装置10を把持することができる。
 また、ユーザは、下側ハウジング11を片方の手で把持しているため、安定してタッチパネル13による編集操作ができる。以上のように、ゲーム装置10を把持して使用する場合、ライブ画像に対する編集操作が非常に行いやすい。
 また、ゲーム装置10は、ユーザによって把持された状態で撮影を行う他、台等に載置した状態で撮影を行うことにも適している。
 図14は、ゲーム装置10を載置して使用する様子を示す図である。図14に示すようにゲーム装置10を机等に把持して使用する場合においても、下側LCD12にライブ画像が表示されるので、ユーザは、タッチパネル13に対する操作が行いやすい。
 また、ユーザは、下側ハウジング11を載置面上に載置し、上側ハウジング21が下側ハウジング11に対して所望の角度となるように、2つのハウジング11および21の開閉角度を調節することも可能である。これによって、ユーザがゲーム装置10を載置する場合でも、上側ハウジング21(カメラの撮影方向)を任意の角度にして撮影を行うことができる。このように、ゲーム装置10を載置して使用する場合においても、ライブ画像に対する編集操作が非常に行いやすい。
 また、ゲーム装置10は2つのカメラ23および25を備えるので、内側カメラ23と外側カメラ25との間で撮影を行うカメラを切替えることによって、台に載置されたゲーム装置10を動かすことなく、異なる方向を撮影することができる。なお、いずれのカメラで撮影を行う場合でも、2つのハウジング11および21の開閉角度を調節することによって撮影方向を変更することができる。また、ゲーム装置10は、シャッターボタンを押下してから所定時間後に撮影が行われるセルフタイマー機能を有していてもよい。セルフタイマー機能を使用して撮影を行う場合にはユーザがゲーム装置10を把持しないので、本実施形態のようにカメラの撮影方向を任意の方向に調整することは、特に便利である。
 さらに、本実施形態では、互いに異なる向きを撮像する2つのカメラ23および25は、ともに上側ハウジング21に設けられる。したがって、ゲーム装置10を載置して撮影を行う場合であっても、2つのカメラ23および25の両方を使用することができる。
 さらに、本実施形態では、下側ハウジング11が横長に構成されるので、ゲーム装置10を載置する場合における安定感が増し、ゲーム装置10を倒れにくくすることができる。
 また、ゲーム装置10は、カメラ23または25によって撮像されたリアルタイムの画像(ライブ画像)を表示するLCDを、例えばユーザの切替指示によって上側LCD22と下側LCD12との間で切替えることができるようにしてもよい。このとき、例えばゲーム装置10を台に載置した状態で使用する場合には、リアルタイムの画像を下側LCD12に表示するように切替えるとよい。ゲーム装置10を台に載置した状態で使用する場合、カメラの撮影方向を調節するために上側ハウジング21の角度を変更する必要があるので、角度を変更する必要がない下側ハウジング11の下側LCD12にリアルタイムの画像を表示した方がユーザにとって画像が見やすいからである。
 なお、代替の実施形態においては、撮像された画像を上側LCD22に表示してもよい。下側ハウジング11には、ゲーム装置10に対する操作入力を行うための入力装置(タッチパネル13および各ボタン14A~14I)が設けられるので、ゲーム装置10を使用する際には、ユーザは、上側LCD22に表示される撮像画像(カメラによって撮像された画像)を見ながら、下側ハウジング11を把持して入力装置に対する入力を行うことができる。
 また、上記の構成によれば、ゲーム装置10は入力装置としてボタンとタッチパネルとの両方を備えているので、ゲーム装置10は、入力操作に使用すべき入力装置を、当該入力操作の種類(性質)に応じて適切な方を選択して決定することができる。例えば、例えばシャッター操作については、操作したことをユーザが実感することが好ましく、また、操作に一定のストロークがあった方が好ましいと考えられるので、ボタンを用いてシャッター操作を行わせるようにしてもよい。また、後述する編集処理における操作については、タッチパネルを用いて操作を行わせることが好ましい。
 なお、本実施形態においては、下側ハウジング11と上側ハウジング12とが回転可能に接続(連結)されることによってゲーム装置10が折り畳み可能であるように構成された。ここで、代替の実施形態においては、下側ハウジング11と上側ハウジング12とは、他の構成および方式によって連結されてもよい。
 例えば、平板状の2つのハウジングを、平行な状態のまま一方のハウジングが他方に対してスライドまたは回転することが可能なように接続した構成であってもよい。これによっても上記実施形態と同様、2つのハウジングを開状態および閉状態の両方の状態とすることができる。
 また、上記実施形態において、上側ハウジング21を、軸部21Aとそれ以外の部分とが上下方向を軸として回転可能なように構成してもよい。これによれば、上側ハウジング21に1つのカメラを設けるのみで、ユーザの視線方向にもその逆方向にも容易にカメラを向けることができる。
図15~図17に示す撮像装置110は、本実施形態に係るゲーム装置10の一部の構成要素について配置、個数、または形状等を変更したものであり、基本的な機能はゲーム装置10と同じである。
 [5.ゲーム装置の内部構成]
 次に、図18を参照して、ゲーム装置10の内部構成について説明する。
 図18は、本実施形態に従うゲーム装置10の内部構成を示すブロック図である。図18に示すように、ゲーム装置10は、CPU31と、メインメモリ32と、メモリ制御回路33と、保存用データメモリ34と、プリセットデータ用メモリ35と、メモリカードインターフェース(メモリカードI/F)36および37と、無線通信モジュール38と、ローカル通信モジュール39と、リアルタイムクロック(RTC)40と、電源回路41と、インターフェース回路(I/F回路)42と、折畳位置検出センサ50等との電子部品を備えている。これらの電子部品は、電子回路基板上に実装されて、下側ハウジング11(または上側ハウジング21でもよい)内に収納される。
 なお、ゲーム装置10が搭載する各種電子回路や電池は、上側ハウジング21および下側ハウジング11のいずれに収納されてもよいが、下側ハウジング11の重量は上側ハウジング21の重量よりも重くなるように設計されることが好ましい。具体的には、下側ハウジング11は100~200gであることが好ましく、上側ハウジング21は50~100gであることが好ましい。さらに、下側ハウジング11は130~150gであり、上側ハウジング21は70~90gであることがより好ましい。
 本実施形態では、下側ハウジング11が150g程度、上側ハウジングが75g程度である。また、下側ハウジング11の重量と上側ハウジング21の重量との比率は、(下側ハウジング11の重量):(上側ハウジング21の重量)=1.5:1~3:1(より好ましくは、2:1)であることが好ましい。例えば、電池、CPUが搭載される回路基板、およびカードコネクタ等は、下側ハウジング11内に収納されることが好ましい。
 また、上側ハウジング21には、LCDユニット(上側LCD22等)、撮像ユニット(各カメラ23および25等)、およびスピーカユニット等、最小限の部品を収納するようにするのが好ましい。
 下側ハウジング11の重量を上側ハウジング21の重量よりも重くなるように設計することによって、ゲーム装置10を台等に載置した場合に倒れにくくなる。また、ユーザが把持する下側ハウジング11の方を上側ハウジング21よりも重くすることによって、ゲーム装置10を把持した際の安定感が増し、撮影時の手ぶれを防止することができる。
 CPU31は、各種のプログラム(後述する起動用プログラムや被選択アプリケーションプログラム等をも含む)を実行するための情報処理手段である。本実施形態に従うゲーム装置10では、内蔵するメモリ(例えば保存用データメモリ34)やメモリカード28および/または29に各種のプログラムが記録されており、CPU31は、必要なプログラムを読み出して実行することによって、後述する各種処理を実行する。なお、CPU31によって実行されるプログラムは、ゲーム装置10内のメモリに予め記録されていてもよいし、メモリカード28および/または29から取得されてもよいし、他の機器との通信によって他の機器から取得されてもよい。
 さらに、本発明に係るプログラムは、メモリカード29等の外部記憶媒体を通じて、ゲーム装置10をはじめとするコンピュータに供給されるだけでなく、有線または無線の通信回線を通じてコンピュータに供給されてもよい。あるいは、本発明に係るプログラムを、コンピュータ内部の不揮発性記憶装置に予め記憶しておいてもよい。このようなプログラムを格納するコンピュータ読取可能な記憶媒体としては、上記の不揮発性記憶装置に加えて、CD-ROM、DVD、あるいはそれらに類する光学式ディスク媒体でもよい。
 CPU31には、メインメモリ32、メモリ制御回路33、およびプリセットデータ用メモリ35が接続される。また、メモリ制御回路33には保存用データメモリ34が接続される。
 メインメモリ32は、CPU31のワーク領域やバッファ領域として用いられる記憶手段である。すなわち、メインメモリ32は、外部(メモリカード28や他の機器等)から読み出したプログラムを格納したり、各種処理の実行に必要なワークメモリを不揮発的に保持したり、各種情報処理に必要な各種データを記憶したりする。本実施形態では、メインメモリ32として例えばPSRAM(Pseudo-SRAM)を用いる。
 保存用データメモリ34は、CPU31によって実行されるプログラムやカメラ23または25によって撮像された画像のデータ等を記憶するための不揮発性の記憶手段である。保存用データメモリ34は、例えばNAND型フラッシュメモリで構成される。
 メモリ制御回路33は、CPU31の指示に従って、保存用データメモリ34に対するデータの読み出しおよび書き込みを制御する回路である。プリセットデータ用メモリ35は、ゲーム装置10において予め設定される各種パラメータ等のデータ(プリセットデータ)を記憶するための記憶手段である。プリセットデータ用メモリ35としては、SPI(Serial Peripheral Interface)バスによってCPU31と接続されるフラッシュメモリを用いることができる。
 なお、カメラ23または25が撮像によって得た画像は、保存用データメモリ34、メモリカード28、またはメモリカード29などに選択的に記憶可能である。
 メモリカードI/F36は、CPU31に接続される。メモリカードI/F36は、コネクタに装着されたメモリカード28に対するデータの読み出しおよび書き込みをCPU31の指示に従って行う。本実施形態では、各カメラ23および25によって撮像された画像データがメモリカード28に書き込まれたり、メモリカード28に記憶された画像データがメモリカード28から読み出されて保存用データメモリ34に記憶されたりする。さらに、本実施形態では、メモリカード28に記憶された音楽データであるミュージックファイルがメモリカード28から読み出されてメインメモリ32あるいは保存用データメモリ34に記憶されたりする。
 カートリッジI/F37はCPU31に接続される。カートリッジI/F37は、コネクタに装着されたメモリカード29に対するデータの読み出しおよび書き込みをCPU31の指示に従って行う。本実施形態では、ゲーム装置10が実行することが可能なアプリケーションプログラムがメモリカード29から読み出されてCPU31によって実行されたり、当該アプリケーションプログラム(後述する被選択アプリケーションプログラムも含む)に関するデータ(例えばアプリケーションプログラムがゲームプログラムである場合における、ゲームのセーブデータ等)がメモリカード29に書き込まれたりする。
 無線通信モジュール38は、例えばIEEE802.11.b/gの規格に準拠した方式により、無線LANに接続する機能を有する。また、ローカル通信モジュール39は、所定の通信方式により同種のゲーム装置10(あるいは、コンピュータなど)との間で無線通信を行う機能を有する。無線通信モジュール38およびローカル通信モジュール39はCPU31に接続される。CPU31は、無線通信モジュール38を用いてインターネットを介して他の機器との間でデータ(撮像画像のデータやアプリケーションプログラム等)を送受信したり、ローカル通信モジュール39を用いて同種の他の撮像装置との間でデータを送受信したりすることができる。
 また、CPU31には、RTC40および電源回路41が接続される。RTC40は、時間をカウントしてCPU31に出力する。CPU31は、RTC40によって計時された時間に基づき現在時刻(日付)を計算する。電源回路41は、ゲーム装置10が有する電源(電池;下ハウジング11に収納される)からの電力を制御し、ゲーム装置10の各部品に電力を供給する。
 さらに、CPU31には、折畳位置検出センサ50が接続される。折畳位置検出センサ50は、下側ハウジング11と上側ハウジング21とのなす角度を検出して、検出結果に基づいて、閉状態か開状態かを示す判定信号をCPU31に出力する。具体的には、下側ハウジング11と上側ハウジング21とのなす角度が所定のしきい値未満となれば、閉状態と判断して閉状態を示す判定信号を出力する。一方、下側ハウジング11と上側ハウジング21とのなす角度が所定のしきい値以上となれば、開状態と判断して開状態を示す判定信号を出力する。CPU31は、折畳位置検出センサ50から出力される閉状態を示す判定信号の入力を受けて、たとえば、ゲーム装置1が動作中すなわち、音楽データの再生処理を実行している場合には、所定の外部出力機器との接続検知に応じて、再生処理の動作を停止して、当該動作状態のデータを保存するいわゆるスリープ状態に設定する。なお、再生処理以外の例えば表示処理等については、所定の外部出力機器との接続検知に係わらず、処理を停止してスリープ状態に設定する。一方、CPU31は、ゲーム装置1がスリープ状態となった後、折畳位置検出センサ50から出力される開状態を示す判定信号の入力を受けて、保存された動作状態のデータに基づいてスリープ状態から元の状態に復帰させる処理を実行する。当該処理により、スリープ状態に設定した機能を直にアクティブ状態に設定して動作させることが可能である。
 なお、本実施形態においては、折畳位置検出センサ50は、下側ハウジング11と上側ハウジング21とのなす角度を検出して判定信号を出力する方式について説明したが、磁力により開閉状態を検出することも可能である。例えば、上側ハウジングに設けられたスピーカから発生される磁力を下側ハウジングに設けられた磁力を測定するセンサにより測定し、その磁力の強さにより開閉状態を検出することも可能である。また、折畳位置検出センサとして、光学的あるいは電気的に開閉状態を検出する方式を採用することも可能である。
 さらに、ゲーム装置10は、マイク43およびアンプ44,46を備えている。マイク43およびアンプ44,46は、それぞれI/F回路42に接続される。マイク43は、ゲーム装置10に向かって発声されたユーザの音声を検知して、当該音声を示す音声信号をI/F回路42に出力する。アンプ44は、I/F回路42からの音声信号を増幅して右側スピーカ45から出力させる。アンプ46は、I/F回路42からの音声信号を増幅して左側スピーカ47から出力させる。I/F回路42は、CPU31に接続される。 また、ゲーム装置10は、ヘッドホン用アンプ48およびジャック49を備えている。ヘッドホン用アンプ48およびジャック49は、それぞれI/F回路42に接続される。ヘッドホン用アンプ48は、I/F回路42からの音声信号を増幅してジャック49と接続された図示しないヘッドホンのプラグを介してヘッドホンから出力させる。I/F回路42は、例えばジャック49にヘッドホンのプラグが挿入されたことに伴って機械的スイッチがオンしたことを検知して、ヘッドホンのプラグがジャックに挿入されたことを検知する。あるいは、ジャック49にヘッドホンのプラグが挿入されたことに伴って電気的に導通状態となったことを検知して、ヘッドホンのプラグがジャックに挿入されたことを検知する。
 I/F回路42は、マイク43からの音声信号の入力を受ける音声入力制御回路42bと、アンプ44,46(右側スピーカ45、左側スピーカ47)あるいはヘッドホン用アンプ48に対する音声信号の出力の制御を行う音声出力制御回路42cと、タッチパネル13の制御を行うタッチパネル制御回路42aと、音声出力制御回路42cによりアンプ44,46(右側スピーカ45、左側スピーカ47)あるいはヘッドホン用アンプ48(ヘッドホン)に対して出力する音声信号の出力レベルを検知する出力レベル検知回路42dと、ヘッドホンの装着を検知するヘッドホン検知回路42eとを含む。
 音声入力制御回路42bは、マイク43からの音声信号の入力レベルを検知して、音声信号に対するA/D変換を行ったり、音声信号を所定の形式の音声データに変換したりする。
 ヘッドホン検知回路42eは、ジャック49にヘッドホンのプラグが挿入されたことに伴って機械的スイッチがオン、あるいは、ジャック49にヘッドホンのプラグが挿入されたことに伴って電気的に導通状態となったことを検知して、ヘッドホンのプラグがジャックに挿入されたことを検知する。そして、当該検知結果をCPU31に出力し、CPU31は、ヘッドホン検知回路42eからの当該検知結果を示す信号を受けて、ヘッドホンが装着されたものと判断する。なお、ヘッドホンのプラグの挿入が検知されればよく、その検知の方式は問わない。
 音声出力制御回路42cは、ヘッドホンのプラグがジャックに挿入されヘッドホン検知回路42eがヘッドホンの装着を検知した場合には、CPU31からの指示に従ってアンプ44,46からヘッドホン用アンプ48に対して音声信号の出力を切替えるとともに、出力信号がステレオ設定あるいはモノラル設定に従って、ヘッドホン用アンプ48に出力する音声信号を調整する。なお、ヘッドホン用アンプ48は、本実施形態においては、図18において、1つの場合のみ示しているが両耳用のヘッドホンでステレオ設定に従って聞くことが可能であるため、それぞれの耳に対応してヘッドホン用アンプが設けられているものとする。
 タッチパネル13はI/F回路42に接続される。タッチパネル制御回路42aは、タッチパネル13からの信号に基づいて所定の形式のタッチ位置データを生成してCPU31に出力する。タッチ位置データは、タッチパネル13の入力面のうちで入力が行われた位置の座標を示す。なお、タッチパネル制御回路は、タッチパネル13からの信号の読み込み、および、タッチ位置データの生成を所定時間に1回の割合で行う。CPU31は、タッチ位置データを取得することにより、タッチパネル13に対して入力が行われた位置を知ることができる。
 操作ボタン群14は、上記各操作ボタン14A~14Kから構成され、CPU31に接続される。操作ボタン群14からCPU31へは、各操作ボタン14A~14Kに対する入力状況(押下されたか否か)を示す操作データが出力される。CPU31は、操作ボタン14群から操作データを取得することによって、操作ボタン群14に対する入力に応じた処理を実行する。
 内側カメラ23および外側カメラ25は、それぞれCPU31に接続される。内側カメラ23および外側カメラ25は、CPU31の指示に応じて画像を撮像し、撮像した画像データをCPU31に出力する。例えば、CPU31は、内側カメラ23および外側カメラ25のいずれか一方に対して撮像指示を行い、撮像指示を受けたカメラが画像を撮像して画像データをCPU31に送る。
 また、下側LCD12および上側LCD22は、それぞれCPU31に接続される。下側LCD12および上側LCD22は、それぞれCPU31の指示に従って画像を表示する。一例として、CPU31は、内側カメラ23および外側カメラ25のいずれかから取得した画像を、下側LCD12および上側LCD22の一方に表示させ、所定の処理によって生成した操作説明画面を下側LCD12および上側LCD22の他方に表示させる。
 なお、図示していないが、ゲーム装置10は、自身を振動させる振動機能を有していてもよい。振動機能は、例えばユーザに何らかの通知を行う(例えば、ユーザの操作ミスやメモリの容量オーバー等を通知する)目的で用いられる。本実施形態では、ユーザが下側ハウジング11を把持する使用態様を想定しているので、振動機能を実現する装置(例えば振動モータやソレノイド等のバイブレータ)は、下側ハウジング11に収納されることが好ましい。これによって、ゲーム装置10(下側ハウジング11)を把持しているユーザの手にその振動を伝達することができる。
 [6.ランチャー処理および撮影機能]
 <概要>
 本実施形態に従うゲーム装置100は、後述するように、複数のアプリケーションプログラムを実行することが可能である。ユーザが、このような複数のアプリケーションプログラムの選択操作を容易化するために、ゲーム装置100は、ランチャー機能を有している。特に、ゲーム装置100は、このランチャー機能を提供する画面上で、相対的に簡易な撮影機能を提供することができる。
 以下、図19を参照して、ユーザによるアプリケーションの選択起動を支援する処理について説明する。
 図19は、ゲーム装置10における、各アプリケーションプログラムの起動方法を説明するための図である。ゲーム装置10は、複数のアプリケーションプログラム53~57の中からユーザが所望するアプリケーションプログラムを選択的に起動するものである。なお、ゲーム装置10において選択的に起動されるアプリケーションプログラム53~57を、被選択アプリケーションプログラムとも称する。
 上記複数の被選択アプリケーションプログラムには、撮影アプリケーションプログラム53が含まれる。撮影アプリケーションプログラム53は、カメラ23または25による撮影を行うためのアプリケーションプログラムである。この撮影アプリケーションプログラム53は、典型的に、ゲーム装置10に予め記憶されている(プリインストールされている)。
 また、上記複数の被選択アプリケーションプログラムには、上記撮影アプリケーションプログラム53の他、種々の機能のアプリケーションプログラムが含まれている。図19では、例えば、ゲーム装置10の各種設定を行うための設定アプリケーションプログラム54、ゲーム装置10が外部の機器と通信を行うための通信アプリケーションプログラム55、所定のゲームを行うためのゲームアプリケーションプログラム56、および、音楽再生や音声録音などを行うためのサウンドアプリケーションプログラム57が含まれている。なお、本実施例においては、撮影アプリケーションプログラム53と通信アプリケーションプログラム55は一体のプログラムとして構成される。
 なお、図19に示す5つの被選択アプリケーションプログラム53~57の他にも、各種の被選択アプリケーションプログラムを記憶するようにしてもよい。
 上記被選択アプリケーションプログラムの一部または全部は、ゲーム装置10にプリインストールされていなくてもよい。被選択アプリケーションプログラムは、実行される際に、例えば、インターネット等のネットワークを介して他の装置からダウンロードされてもよいし、メモリカード28またはメモリカード29といった着脱自在の記憶媒体からゲーム装置10の内部のメモリに読み込まれてもよい。
 また、本実施形態では、これらの被選択アプリケーションプログラム53~57を選択的に起動する処理は、起動機能プログラム51によって実行される。起動機能プログラム51は、複数の被選択アプリケーションプログラム53~57の中から起動すべき被選択アプリケーションプログラムを選択するためのプログラムである。すなわち、起動機能プログラム51がいわゆるランチャーと呼ばれるプログラムである。この起動機能プログラム51は、本実施形態に係る起動用プログラム(図20に示す起動用プログラム61)に含まれるプログラムの1つである。
 被選択アプリケーションプログラム53~57は、起動機能プログラム51の実行によってユーザが行うことができるようになる選択操作の対象となり、選択操作によって選択されることで実行される。
 なお、ユーザの選択操作に応答して、起動機能プログラム51によって実行される、撮影アプリケーションプログラム53、通信アプリケーションプログラム55、およびサウンドアプリケーションプログラム57の処理の詳細な内容については、それぞれ後述する。
 <制御構造>
 本実施形態に従うゲーム装置10は、制御構造として、(a)第1起動操作受付手段、(b)第1起動手段、(c)撮影処理手段、(d)撮影可能操作受付手段、(e)撮影操作受付手段、(f)第2起動操作受付手段、および、(g)第2起動手段を含む。本実施形態においては、これら各手段は、ゲーム装置10のコンピュータ(CPU31)によって実行されるプログラム(起動用プログラム61)が、当該コンピュータを当該各手段として機能させることによって実現される。
 (a)第1起動操作受付手段
 第1起動操作受付手段は、上記複数のアプリケーションプログラムを選択的に起動する第1起動操作を受け付ける(後述するステップSA6,SA11)。これにより、ユーザは、起動(実行)したい被選択アプリケーションプログラムを選択して起動することができる。第1起動操作は、被選択アプリケーションプログラムを選択的に起動する操作であるので、以下において、第1起動操作を「選択起動操作」とも称す。なお、第1起動操作を受け付ける(第1起動操作が可能な)状態を、「起動受付状態」とも称す(図19)。
 (b)第1起動手段
 第1起動手段は、上記第1起動操作が行われた場合、上記複数のアプリケーションプログラムのうち当該第1起動操作で選択されたアプリケーションプログラムを起動する(後述するステップSA12)。すなわち、例えば撮影アプリケーションプログラム53が第1起動操作によって選択された場合、撮影アプリケーションプログラム53が起動される。
 なお、本実施形態においては、起動受付状態は、いわゆるメニュー画面が表示される状態に相当し、(初回起動時以外は、)ゲーム装置10を起動した(電源をオンにした)後に最初に起動受付状態となる。詳細は後述するが、本実施形態では、起動受付状態において、被選択アプリケーションプログラム53~57を表すアイコンを表示するメニュー画面(図23)が下側LCD12に表示される。ユーザは、第1起動操作として、当該アイコンの位置をタッチする操作をタッチパネル13に対して行うことによって、被選択アプリケーションプログラムを起動させることができる。
 (c)撮影処理手段
 撮影処理手段は、撮影処理を実行する(後述するステップSA10)。撮影処理とは、所定の撮影操作に応じてカメラ23または25による撮像画像を情報処理装置の記憶手段に保存する処理である。なお、本実施形態においては、撮影操作は、所定のボタン(より具体的には、Lボタン14IまたはRボタン14J)を押下する操作である。上記撮影処理手段は、本発明に係る起動用プログラム61がゲーム装置10のCPU31に実行されることによって実現される手段であり、上記撮影アプリケーションプログラム53によって実現される手段とは異なる。なお、撮影処理手段は、少なくとも撮影処理を行う機能(カメラ23または25による撮像画像をゲーム装置10の記憶手段に保存する機能)を有していればよいが、それ以外の撮影に関する機能(例えば、保存した画像を表示したり、編集したりする機能)を有していてもよい。
 なお、本実施形態においては、本発明に係る起動用プログラム61は、図19に示す撮影機能プログラム52を含んでいる。上記撮影処理手段は、撮影機能プログラム52がゲーム装置10のCPU31に実行されることによって実現される。つまり、本実施形態に従うゲーム装置10は、撮影機能プログラム52および撮影アプリケーションプログラム53という、撮影処理を行うためのプログラムを二種類記憶している。
 また、本実施形態においては、起動用プログラム61は、起動機能プログラム51および撮影機能プログラム52という二種類のプログラムを含んでいるが、起動機能プログラム51および撮影機能プログラム52は一体のプログラムであってもよい。起動用プログラム61(起動機能プログラム51および撮影機能プログラム52)は、ゲーム装置10にプリインストールされている。
 ここで、撮影処理手段による機能は、上記撮影アプリケーションプログラム53を実行することによって可能となる機能とは異なるものとする。本実施形態では、撮影処理手段は、撮影アプリケーションプログラム53が有する機能の一部のみを有しているものとする。なお、代替の実施形態においては、撮影処理手段は、撮影アプリケーションプログラム53が有していない機能を有していてもよい。
 (d)撮影可能操作受付手段
 撮影可能操作受付手段は、上記起動受付状態において、(ゲーム装置10の状態を)撮影可能状態とする撮影可能操作を受け付ける(後述するステップSA6,SA9)。撮影可能状態とは、上記撮影操作に応じた上記撮影処理手段による撮影処理が可能な状態(撮影可能操作を受け付ける状態)である。つまり、起動受付状態においては、ユーザは、第1起動操作によって被選択アプリケーションプログラム53~57を起動させることができるとともに、撮影可能操作によって撮影処理手段による撮影機能を起動させることができる(図19)。なお、本実施形態においては、撮影可能操作は、所定のボタン(より具体的には、Lボタン14IまたはRボタン14J)を押下する操作である。
 なお、本実施形態においては、撮影可能操作は、上記第1起動操作とは操作方法が異なる操作である。具体的には、本実施形態においては、第1起動操作がタッチパネル13に対する入力操作であるのに対して、撮影可能操作は所定のボタン(より具体的には、Lボタン14IまたはRボタン14J)を押下する操作である。なお、ここで言う「操作方法が異なる」とは、操作の対象となる入力装置が異なるという意味はもちろん、同じ入力装置に対して行う操作が異なる意味をも含む。代替の実施形態においては、第1起動操作と撮影可能操作とは、タッチパネル13上において互いに異なる位置をタッチする操作であってもよいし、タッチパネル13に対して互いに異なる軌跡を入力する操作であってもよいし、異なるボタンを押下する操作であってもよい。なお、撮影処理手段による撮影機能の起動(撮影機能プログラム52の起動)を容易かつ迅速に行うことができるように、撮影可能操作は、例えば所定のボタンを押下するのみの操作のように、簡易な操作であることが好ましい。
 (e)撮影操作受付手段
 撮影操作受付手段は、上記撮影可能操作が行われた場合、撮影操作を受け付ける(後述するステップSA24,SA25)。すなわち、撮影可能操作が行われた場合、ゲーム装置10の状態は撮影可能状態となる(図19)。このように、ユーザは、撮影可能操作を行った後に撮影操作を行うことによって、写真を撮る(撮影処理をゲーム装置10に行わせる)ことが可能である。
 なお、本実施形態では、起動受付状態と撮影可能状態とは排他的な関係にあり、ゲーム装置10は、起動受付状態と撮影可能状態とのいずれか一方の状態を択一的にとるものとする。つまり、起動受付状態においては(撮影可能状態における)撮影操作は受け付けられず、撮影可能状態においては(起動受付状態における)第1起動操作は受け付けられない。ただし、代替の実施形態においては、起動受付状態と撮影可能状態とは排他的な関係でなくてもよく、ゲーム装置10は、起動受付状態であって、かつ、撮影可能状態であるような状態をとることが可能であってもよい。例えば、ゲーム装置10は、撮影可能状態において第1起動操作を受け付けるようにしてもよい。
 (f)第2起動操作受付手段
 第2起動操作受付手段は、上記撮影可能状態において、撮影アプリケーションプログラム53を起動する第2起動操作を受け付ける(後述するステップSA24,SA29)。したがって、撮影可能状態においては、ユーザは、撮影操作の他、第2起動操作を行うことが可能である。なお、第2起動操作は、起動受付状態に戻ることなく撮影可能状態から直接、撮影アプリケーションプログラム53を起動する操作であるので、以下においては、第2起動操作を「ショートカット起動操作」とも称す。
 本実施形態においては、撮影可能状態において、カメラ23または24によって撮像されている画像が下側LCD12に表示されるとともに、第2起動操作を行うためのボタン画像(図24に示すボタン画像78)が下側LCD12に表示される(図24)。ユーザは、このボタン画像をタッチする操作によって第2起動操作を行うことができる。なお、第2起動操作は、撮影アプリケーションプログラム53の起動を容易かつ迅速に行うことができるように、簡易な操作であることが好ましい。
 (g)第2起動手段
 第2起動手段は、上記第2起動操作が行われた場合、撮影アプリケーションプログラム53を起動する(後述するステップSA30)。このように、ユーザは、起動受付状態においても撮影可能状態においても、撮影アプリケーションプログラム53を起動することが可能である。撮影アプリケーションプログラム53は、上記起動受付状態における第1起動操作によっても、上記撮影可能状態における第2起動操作によっても、起動(実行)される。
 以上のように、本実施形態によれば、起動受付状態において、ユーザは、被選択アプリケーションプログラム53~57を選択起動操作(第1起動操作)によって起動することができるとともに、撮影可能操作によって撮影処理手段による撮影機能を実行することができる。さらに、当該撮影機能による撮影が可能な撮影可能状態においては、ショートカット起動操作(第2起動操作)によって撮影アプリケーションプログラム53を起動することができる。したがって、ユーザは、撮影処理手段による撮影を行っている最中であっても、ショートカット起動操作によって撮影アプリケーションプログラム53を容易かつ迅速に起動することができる。つまり、本実施形態によれば、撮影処理手段による撮影の最中に、撮影処理手段にはない(撮影アプリケーションプログラム53の)機能を使用したくなった場合であっても、ユーザは、ショートカット起動操作によって容易かつ迅速に当該機能を使用することができる。
 <データ構造>
 次に、図20を参照して、ゲーム装置10における処理に用いられるデータについて説明する。
 図20は、ゲーム装置10のメインメモリ32に記憶される主なデータを示す図である。図20に示すように、メインメモリ32には、プログラム記憶領域60とデータ記憶領域64とが設けられる。
 プログラム記憶領域60には、CPU31で実行される各種プログラム(アプリケーションプログラム)が記憶される。具体的には、起動用プログラム61、撮影アプリケーションプログラム53、および、その他の被選択アプリケーションプログラム62等が記憶される。これらのプログラムは、ゲーム装置10の起動後の適宜のタイミング(例えば、プログラムが起動されるタイミング)で保存用データメモリ34、メモリカード28、あるいはメモリカード29から読み出されてメインメモリ32に記憶される。
 起動用プログラム61は、ゲーム装置10におけるメイン処理を行うためのプログラムである。起動用プログラム61は、ゲーム装置10の起動後にメインメモリに読み込まれて実行される。起動用プログラム61は、上記起動機能プログラム51および撮影機能プログラム52を含む。
 起動機能プログラム51は、上述したように、起動すべき被選択アプリケーションプログラムを選択するためのプログラムである。
 撮影機能プログラム52は、被選択アプリケーションプログラムではないプログラムであって、撮影処理を行うためのプログラムである。本実施形態では、撮影機能プログラム52は、撮影アプリケーションプログラム53が有する機能の一部のみを有している。つまり、本実施形態では、撮影機能プログラム52が相対的に簡易な機能の撮影処理プログラムであり、撮影アプリケーションプログラム53が相対的に多機能な撮影処理プログラムである。また、撮影機能プログラム52のデータサイズは、撮影アプリケーションプログラム53のデータサイズに比べて小さい。なお、各プログラム52および53は、共通の機能を有しているので、それらの一部のデータが共通化されて記憶されていてもよい。以下では、相対的に簡易な機能である撮影機能プログラム52を「簡易撮影プログラム52」とも称し、相対的に多機能な撮影アプリケーションプログラム53を「多機能撮影アプリケーションプログラム53」とも称す。
 なお、本明細書において、「(相対的に)簡易な機能」とは、(相対的に)機能が少ないことと、(相対的に)機能が低いこととの両方の意味を含む。換言すれば、「(相対的に)多機能」とは、(相対的に)多くの機能を有するという意味の他、(相対的に)高い機能を有するという意味を含む。すなわち、簡易撮影プログラム52が相対的に低機能(例えば、低い画素数で撮影する、撮像画像に対して編集を行う場合に利用可能なスタンプの種類が少ない等)なものであるのに対して、多機能撮影アプリケーションプログラム53が相対的に高機能(例えば、高い画素数で撮影する、撮像画像に対して編集を行う場合に利用可能なスタンプの種類が多い等)なものであってもよい。
 また、簡易撮影プログラム52が、相対的に少機能(例えば、露出やホワイトバランスの調整が不可、撮像画像に対する所定の編集操作が不可等)なものであるのに対して、多機能撮影アプリケーションプログラム53が相対的に多機能(例えば、露出やホワイトバランスの調整が可能、撮像画像に対する所定の編集操作が可能等)なものであってもよい。
 また、その他の被選択アプリケーションプログラム62とは、多機能撮影アプリケーションプログラム53以外の被選択アプリケーションプログラムであり、上述した設定アプリケーションプログラム54、通信アプリケーションプログラム55、ゲームアプリケーションプログラム56、および、音楽再生や音声録音などを行うためのサウンドアプリケーションプログラム57等が含まれる。
 被選択アプリケーションプログラム(多機能撮影アプリケーションプログラム53を含む)は、保存用データメモリ34またはメモリカード28に記憶されており、そのプログラムが起動される際にメインメモリ32に読み込まれる。なお、被選択アプリケーションプログラムは、外部の機器から通信により取得(ダウンロード)されることによって保存用データメモリ34に記憶されてもよい。
 一方、データ記憶領域64には、表示画像データ65、および設定データ66等が記憶される。これらのデータ65および66の他、データ記憶領域64には、ゲーム装置10における処理に用いられる各種データが記憶される。
 表示画像データ65は、表示画像を示すデータである。ここで、本実施形態においては、メニュー画面において、過去に撮影されて保存されている画像のうち1つが表示され、表示される画像を表示画像と称す。表示画像データ65は、具体的には、表示画像のファイル名等を表す。表示画像の選択方法の詳細については後述するが、本実施形態では、後述するお気に入り画像や、簡易撮影プログラム52によって撮影(保存)された直後の画像等が表示画像として選択される。
 設定データ66は、撮影のための各プログラム(簡易撮影プログラム52および多機能撮影アプリケーションプログラム53)において用いられる設定情報を示すデータである。設定データ66は、撮影のための各プログラム52および53が起動される時点で引数として当該各プログラム52および53に渡される。設定データ66には、カメラ切替データ67および保存先データ68が含まれる。
 カメラ切替データ67は、内側カメラ23および外側カメラ25のうちで、撮像を行うカメラを示す。すなわち、カメラ切替データ67は、内側カメラ23および外側カメラ25のいずれかを示すデータである。
 保存先データ68は、撮影操作によって保存(記憶)される撮像画像(保存画像と称す。)の保存先を示す。本実施形態では、撮影操作によって保存(記憶)される撮像画像は、保存用データメモリ34またはメモリカード28に保存される。したがって、保存先データ68は、保存用データメモリ34またはメモリカード28のいずれかを示す。
 なお、保存画像には、ファイル名等の情報が付される他、お気に入りに関する情報が付される。ここで、本実施形態においては、ユーザは、保存画像のうちのいくつかを「お気に入り」として設定することができる(後述するステップSA46)。以下では、お気に入りとして設定された保存画像を「お気に入り画像」と称す。お気に入り画像のデータには、「お気に入り」であることを示す情報が付加される。さらに、本実施形態では、お気に入り画像のデータには、第1~第3グループのいずれかを示す情報が付加される。つまり、本実施形態では、お気に入り画像を第1~第3グループという3つのグループに分けて管理することができる(図29)。
 <処理手順>
 次に、図21~図30を参照して、ゲーム装置10におけるランチャー機能に係る処理の流れについて説明する。図21は、ゲーム装置10におけるランチャー処理の流れを示すメインフローチャートである。電源ボタン14Fが押下されることによってゲーム装置10の電源が投入されると、ゲーム装置10のCPU31は、メインメモリ32等の初期化を行った後、起動用プログラム61の実行を開始する。これによって、以降のステップSA1~SA13の処理が開始される。
 ステップSA1において、CPU31は、ゲーム装置10が初めて起動されたか否かを判定する。ステップSA1の判定は、例えば、ゲーム装置10が前回に起動された日時を記憶しておくようにすることで行うことができる。すなわち、前回に起動された日時が記憶されていれば、今回のゲーム装置10の起動は初めての起動ではないと判断することができ、一方、前回に起動された日時が記憶されていなければ、今回のゲーム装置10の起動は初めての起動であると判断することができる。
 ステップSA1の判定結果がYesである場合、ステップSA2の処理が実行される。一方、ステップSA1の判定結果がNoである場合、ステップSA2の処理がスキップされてステップSA3の処理が実行される。
 ステップSA2において、CPU31は、撮影誘導処理を実行する。撮影誘導処理は、簡易な機能での撮影操作をユーザに体験してもらうように誘導する処理である。すなわち、撮影誘導処理では、上記簡易撮影プログラム52を用いた撮影処理を行うか否かをユーザに選択させ、撮影処理を行うことをユーザが選択した場合には、上記簡易撮影プログラム52による簡易な撮影操作をユーザに体験させる。なお、撮影誘導処理については図27を用いて後に詳細に説明する。CPU31は、ステップSA2の次にステップSA3の処理を実行する。
 ステップSA3において、CPU31は、お気に入り画像のうちから表示画像をランダムに選択する。具体的には、CPU31は、保存用データメモリ34に保存されているお気に入り画像のうちから1つをランダムに選択し、選択されたお気に入り画像を特定する情報(例えばファイル名)を示すデータを表示画像データ65としてメインメモリ32に記憶する。ステップSA3の次にステップSA4の処理が実行される。
 ステップSA4において、CPU31は、起動機能プログラム51を起動する。すなわち、CPU31は、保存用データメモリ34から起動機能プログラム51を読み出してメインメモリ32に記憶し、起動機能プログラム51を実行する。ステップSA5以降の処理は、CPU31が起動機能プログラム51を実行することによって行われる。また、本実施形態においては、CPU31は、起動機能プログラム51が読み出されるタイミングで起動機能プログラム51とともに簡易撮影プログラム52をメインメモリ32に読み込む。なお、代替の実施形態においては、簡易撮影プログラム52は、後述する簡易撮影処理(ステップSA11)が実行されるタイミングでメインメモリ32に読み込まれてもよい。ステップSA4の次にステップSA5の処理が実行される。
 ステップSA5において、CPU31は、メニュー画面を表示する。メニュー画面は、被選択アプリケーションプログラムの中から起動すべき被選択アプリケーションプログラムをユーザに選択させるための画面(画像)である。図19に示す起動受付状態は、このメニュー画面が表示されている状態である。以下、図23を用いて、本実施形態におけるメニュー画面について説明する。
 図23は、メニュー画面の一例を示す図である。図23に示すように、ステップSA5においては、起動すべき被選択アプリケーションプログラムをユーザに選択させるための画像が下側LCD12に表示される。具体的には、下側LCD12には、アイコン画像71a~71cと、スクロールバー72と、マーカ73と、スクロールボタン74aおよび74bとが表示される。
 アイコン画像71は、被選択アプリケーションプログラムを表す画像である。アイコン画像71は、メモリカード29内のアプリケーションプログラムを起動するためのアイコンである。なお、メモリカード29が装着されていない場合には、「カードが装着されていません」とのメッセージとともに、カードが装着されていないことを示すアイコンが表示される。
 ユーザは、(左右方向に関して)画面中央に表示されているアイコン画像71にタッチする操作を上記第1起動操作として行うことで、タッチしたアイコン画像により表される被選択アプリケーションプログラムを起動させることができる。
 なお、本実施形態では、複数のアプリケーションプログラムのそれぞれに対応する各アイコン画像のうちの所定数のアイコン画像(図23では4つのアイコン画像)が画面に表示される。表示されるアイコン画像(の種類)は、画面をスクロールする操作に応じて変更される。すなわち、表示中の被選択アプリケーションプログラム以外の被選択アプリケーションプログラムを表すアイコン画像は、図23においては表示されていないが、下側LCD12の画面をスクロールすることによって表示される。
 下側LCD12の画面のスクロールは、画面中央に表示されているアイコン画像以外のアイコン画像にタッチする操作、あるいは、マーカ73、または、スクロールボタン74aまたは74bにタッチする操作によって行うことができる。すなわち、ユーザが、画面中央に表示されているアイコン画像以外のアイコン画像(図23においてはアイコン画像71aまたは71c)をタッチすると、下側LCD12の画面がスクロールして、タッチされたアイコン画像が画面中央に表示される。また、ユーザは、マーカ73をタッチした状態でタッチ位置をスクロールバー72上において左右に動かす操作を行うことで、マーカ73をスクロールバー72上で移動させることができ、下側LCD12の画面をマーカ73の移動に応じてスクロールさせることができる。あるいは、スクロールバー72の左側のスクロールボタン74aをタッチする操作によって、下側LCD12の画面を左側へスクロールさせることもでき、スクロールバー72の右側のスクロールボタン74bをタッチする操作によって、下側LCD12の画面を右側へスクロールさせることができる。
 以上より、ユーザは、メニュー画面が表示されている状態において、画面をスクロールさせる操作によって、画面中央に表示されるアイコン画像を変更することができるとともに、画面中央に表示されるアイコン画像をタッチする操作によって、当該アイコン画像により表される被選択アプリケーションプログラムを起動させることができる。
 なお、本実施形態においては、複数の被選択アプリケーションプログラムの全てを同時に表示するのではなくて、複数の被選択アプリケーションプログラムの一部を一覧的に表示し、残りの部分はスクロールなどにより入れ替え表示するようにした。ここで、代替の実施形態においては、複数の被選択アプリケーションプログラムの全てを同時に表示するようにしてもよい。また、一覧として表示される被選択アプリケーションプログラム(のアイコン画像)は、本実施形態のように一列に表示されてもよいし、2×2以上のマトリックス状に表示されてもよい。
 一方、図23に示すように、ステップSA5において、上側LCD22には、表示画像75と、撮影ボタン画像76aおよび76bとが表示される。表示画像75は、メインメモリ32に記憶されている表示画像データ65により示される保存画像であり、上記ステップSA3等で選択された画像である。このように、本実施形態においては、過去に撮影された画像がメニュー画面において表示される。これによって、ゲーム装置10に初めて触った(ゲーム装置10を初めて使用した)ユーザに対してもゲーム装置10が撮影機能を有することを意識させることができる。また、ゲーム装置10のメニュー画面がユーザ毎(情報処理装置毎)に異なるので、メニュー画面に個性を持たせることができる。
 なお、ステップSA3において、表示画像75はランダムで選択されるため、ユーザは、保存用データメモリ34に保存されている画像の中から任意の画像を表示画像75として指定することができない。なお、後述するように、多機能撮影アプリケーションプログラム53は、お気に入り画像の設定機能を有しているが、起動機能プログラム及び簡易撮影プログラム52はお気に入り画像の設定機能を有していない。 また、撮影ボタン画像76aおよび76bは、簡易撮影プログラム52によって撮影を行うことができる状態(図19に示す撮影可能状態)へと遷移するための操作、すなわち、上記撮影可能操作を表す画像である。このように、本実施形態では、撮影可能状態へと遷移するための操作をメニュー画面(起動受付状態)において表示することによって、メニュー画面から(被選択アプリケーションプログラムを選択せずとも)簡易撮影プログラム52によって撮影を行うことができることを、ユーザにわかりやすく提示することができる。
 図23に示すように、典型的には、撮影可能操作は、Lボタン14IまたはRボタン14Jを押下する操作である。したがって、ユーザは、起動受付状態においてボタン(Lボタン14IまたはRボタン14J)を1回押下するだけで、簡易撮影プログラム52によって撮影を行うことができる状態にすることができる。
 なお、本実施形態においては、初回起動時(ステップSA1でYesの場合)を除き、ゲーム装置10の起動後に最初に表示されるのはメニュー画面である。つまり、本実施形態においては、ゲーム装置10は、ゲーム装置10の起動後における最初の状態を起動受付状態に設定する。したがって、ユーザは、起動後において直ちに簡易撮影プログラム52を起動することができる。
 図21の説明に戻り、ステップSA5の次にステップSA6の処理が実行される。ステップSA6において、CPU31は、各入力装置に対する入力を受け付ける。すなわち、操作ボタン群14から操作データを取得するとともに、タッチパネル13から入力位置データを取得する。取得された操作データおよび入力位置データは、メインメモリ32に記憶される。なお、起動受付状態において、ステップSA6の処理は、所定時間(例えば1フレーム時間(1/60秒)。)に1回の割合で実行される。ステップSA6の次にステップSA7の処理が実行される。
 ステップSA7において、CPU31は、下側LCD12の画面をスクロールさせる操作が行われたか否かを判定する。ステップSA7の判定は、ステップSA6でメインメモリ32に記憶された入力位置データを参照することによって行うことができる。すなわち、ステップSA7の判定処理においては、CPU31は、マーカ73、または、スクロールボタン74aまたは74bが表示されている領域をタッチする入力が行われたか否かを判定する。
 ステップSA7の判定結果がYesである場合、ステップSA8の処理が実行される。一方、ステップSA7の判定結果がNoである場合、後述するステップSA9の処理が実行される。
 ステップSA8において、CPU31は、アイコン画像の表示(下側LCD12の画面)をスクロールさせる。すなわち、スクロールボタン74aに対してタッチ入力が行われた場合にはアイコン画像を左にスクロールさせ、スクロールボタン74bに対してタッチ入力が行われた場合にはアイコン画像を右にスクロールさせる。これによって、下側LCD12の画面にそれまで表示されていなかったアイコン画像を表示させることができる。ステップSA8の次に上記ステップSA5の処理が再度実行される。
 一方、ステップSA9において、CPU31は、撮影可能操作が行われたか否かを判定する。ステップSA9の判定は、ステップSA6でメインメモリ32に記憶された操作データを参照することによって行うことができる。すなわち、ステップSA9の判定処理においては、CPU31は、Lボタン14IまたはRボタン14Jが押下されたか否かを判定する。
 ステップSA9の判定結果がYesである場合、ステップSA10の処理が実行される。一方、ステップSA9の判定結果がNoである場合、後述するステップSA11の処理が実行される。
 ステップSA10において、CPU31は、簡易撮影処理を実行する。簡易撮影処理は、簡易撮影プログラム52によって簡易な機能での撮影をユーザに行わせる処理である。以下、図22を参照して、簡易撮影処理の詳細を説明する。
 図22は、図21に示す簡易撮影処理(ステップSA10)の流れを示すフローチャートである。入力画像生成処理においては、まずステップSA21において、CPU31は、簡易撮影プログラム52を起動する。本実施形態においては、簡易撮影プログラム52は起動機能プログラム51とともにメインメモリ32に読み込まれているので、CPU31は、簡易撮影プログラム52の実行を開始する。この時、メインメモリ32に記憶されている設定データ66に含まれる各データ67および68が、引数として簡易撮影プログラム52に対して入力(設定)される。ステップSA21以降のステップSA22~SA29の処理は、簡易撮影プログラム52を用いて(簡易撮影プログラム52を実行することにより)行われる。
 ステップSA22において、CPU31は、内側カメラ23または外側カメラ25によって撮像された画像のデータを取得する。本実施形態では、カメラ23および25のいずれか一方のカメラにおいてのみ画像が撮像され、CPU31は、当該一方のカメラからのみ画像データを取得する。なお、カメラ23および25のうちいずれのカメラによって撮像を行うかは、簡易撮影プログラム52の起動時(ステップSA21)に引数として渡されたカメラ切替データ67の内容に従って決められる。ステップSA22の次にステップSA23の処理が実行される。
 ステップSA23において、CPU31は表示処理を行う。撮影可能状態であるステップSA23においては、カメラ23または24による撮像画像等が表示される。以下、図24を用いて、撮影可能状態において表示される画像について説明する。
 図24は、撮影可能状態において表示される画像の一例を示す図である。図24に示すように、ステップSA23においては、ステップSA22で取得された、カメラ23または24による撮像画像77が下側LCD12に表示される。ステップSA22およびSA23の処理は、所定時間(例えば1/60秒)に1回の割合で繰り返し実行される。これらステップSA22およびSA23の処理が繰り返し実行されることによって、カメラ23または24によって撮像されたリアルタイムの画像が下側LCD12に表示される。なお、代替の実施形態においては、当該リアルタイムの画像を上側LCD22に表示してもよい。このとき、さらに、撮影操作によって保存された画像を下側LCD12に表示するようにしてもよい。
 さらに、下側LCD12には、多機能撮影アプリケーションプログラム53を実行するための操作(上記第2起動操作)を行うためのボタン画像78が表示される。ボタン画像78は、メニュー画面において表示されるアイコン画像とは異なり、画面上の所定の位置(図24では、右上の位置)に固定的に表示される。詳細は後述するが、ユーザは、このボタン画像78をタッチすることで、簡易撮影プログラム52を実行する状態から多機能撮影アプリケーションプログラム53を実行する状態へと容易に遷移させることができる。
 また、上側LCD22には、図23と同様、表示画像75と撮影ボタン画像76aおよび76bとが表示される。本実施形態においては、撮影操作は、撮影可能操作と同様、Lボタン14IまたはRボタン14Jを押下する操作である(図24に示す撮影ボタン画像76aおよび76b参照)。なお、代替の実施形態においては、撮影操作は撮影可能操作と同じでなくてもよく、例えば、下側LCD12に撮影操作を行うためのボタン画像を表示し、当該ボタン画像をタッチする操作を撮影操作としてもよい。また、ゲーム装置10は、Lボタン14IまたはRボタン14Jを押下する操作と、当該ボタン画像をタッチする操作との両方を、撮影操作として受け付けるようにしてもよい。
 図22の説明に戻り、ステップSA23の次にステップSA24の処理が実行される。ステップSA24において、CPU31は、各入力装置に対する入力を受け付ける。ステップSA24の処理は上記ステップSA6の処理と同様である。ステップSA24の次にステップSA25の処理が実行される。
 ステップSA25において、CPU31は、撮影操作が行われたか否かを判定する。ステップSA25の判定は、ステップSA24でメインメモリ32に記憶された操作データを参照することによって行うことができる。本実施形態においては、第1起動動作と撮影操作とが同じ操作であるので、ステップSA25の処理はステップSA9と同様に行うことができる。
 ステップSA25の判定結果がYesである場合、ステップSA26の処理が実行される。一方、ステップSA25の判定結果がNoである場合、後述するステップSA29の処理が実行される。
 以下、図25を用いて、撮影操作が行われた後において表示される画像について説明する。
 図25は、撮影操作が行われた後において表示される画像の一例を示す図である。図25に示すように、ステップSA25の判定結果がYesである場合においては、ステップSA22で取得された撮像画像が、カメラ23または24による撮像画像77が下側LCD12に表示される。さらに、下側LCD12には、多機能撮影アプリケーションプログラム53を実行するための操作(上記第2起動操作)を行うためのボタン画像78に加えて、撮影された撮像画像を保存するための操作を行うためのボタン画像(「ほぞん」)、および、再度撮影を行うための操作を行うためのボタン画像(「とりなおす」)が表示される。
 また、上側LCD22には、図23と同様、表示画像75と撮影ボタン画像76aおよび76bとが表示される。 図22の説明に戻り、ステップSA26において、CPU31は、保存操作が行われたか否かを判定する。ステップSA26の判定は、ステップSA25と同様に、ステップSA24でメインメモリ32に記憶された操作データを参照することによって行うことができる。
 ステップSA26の判定結果がYesである場合(図25の「ほぞん」をタッチした場合)、ステップSA27の処理が実行される。一方、ステップSA26の判定結果がNoである場合(図25の「とりなおす」をタッチした場合)、上述のステップSA22の処理が再度実行される。なお、ステップSA26の判定を省略して、ステップSA25の後、ステップSA27に移行してもよい。
 ステップSA27において、CPU31は撮像画像を保存する。すなわち、ステップSA22で取得された撮像画像を、保存用データメモリ34またはメモリカード28に保存(記憶)する。撮像画像の保存先は、簡易撮影プログラム52の起動時(ステップSA21)に引数として渡された保存先データ68の内容に従って決められる。なお、撮像画像の保存先は、後述する多機能撮影アプリケーションプログラム53による多機能撮影処理においてユーザが変更することができる。ステップSA27の次にステップSA28の処理が実行される。
 ステップSA28において、CPU31は、表示画像として、直前のステップSA27で保存された保存画像を選択する。具体的には、CPU31は、直前のステップSA27で保存された保存画像を示すデータを表示画像データ65としてメインメモリ32に記憶する。ステップSA28の処理の後、CPU31は、簡易撮影プログラム52の実行を終了し、簡易撮影処理を終了する。その後、図21に示すステップSA4の処理が再度実行される。
 以下、図26を用いて、簡易撮影処理の実行後において表示される画像について説明する。
 図26は、簡易撮影処理の実行後に表示される画像の一例を示す図である。図26に示すように、簡易撮影処理の実行後には、当該簡易撮影処理において取得された撮像画像が新たな表示画像75として、上側LCD22に表示される。すなわち、図22に示す画像と図26に示す画像とを比較すると、上側LCD22に表示される表示画像が更新されていることがわかる。
 以上のように、本実施形態では、撮影可能状態(簡易撮影処理)において撮影操作が行われたことに応じて、簡易撮影処理が終了して撮影可能状態から起動受付状態へと遷移する。つまり、簡易撮影処理において1枚の撮影画像の保存を行うとゲーム装置10の画面表示がメニュー画面に戻るので、説明書等を見ていない初心者のユーザであっても、自然に起動受付状態へ戻ることができる(なお、ステップSA25の後、ステップSA27に移行する場合には、簡易撮影処理において、ユーザが1回の撮影操作を行うとメニュー画面に戻る)。さらに、本実施形態においては、撮影可能操作と撮影操作とが同じであるので、起動受付状態から撮影可能状態への遷移と、撮影可能状態から起動受付状態への遷移とを、同じ操作で行うことができる。したがって、仮にユーザがLボタン14IまたはRボタン14Jを誤って押下したり、操作をよく理解しないまま押下したりした結果、撮影可能状態へ遷移してしまった場合であっても、ユーザは、同じボタンを押下すれば元の状態(起動受付状態)に戻ることができる。そのため、初心者のユーザにとって操作しやすいゲーム装置10を提供することができる。
 また、本実施形態においては、上記のように、撮影操作が行われた後はゲーム装置10の状態は起動受付状態へと遷移するので、上記ステップSA26の処理で保存された画像は、簡易撮影プログラム52によって表示されることなく起動受付状態へと遷移してしまう。そこで、本実施形態においては、ステップSA27の処理において、CPU31は、起動受付状態へと遷移した後における表示画像として、上記ステップSA26の処理で保存された画像を設定する。これによって、簡易撮影プログラム52によって撮影された保存画像は、起動受付状態へと遷移した直後において表示画像として表示される。したがって、本実施形態によれば、撮影操作が行われたことによって起動受付状態へと遷移するものの、ユーザは、簡易撮影プログラム52において撮影した画像をすぐに確認することができる。
 一方、ステップSA29においては、CPU31は、第2起動操作が行われたか否かを判定する。ステップSA29の判定は、ステップSA24でメインメモリ32に記憶された入力位置データを参照することによって行うことができる。すなわち、ステップSA29の判定処理においては、CPU31は、第2起動操作を行うためのボタン画像78が表示されている領域をタッチする入力が行われたか否かを判定する。ステップSA29の判定結果がYesである場合、後述する多機能撮影処理(図30)の処理が実行される。一方、ステップSA29の判定結果がNoである場合、ステップSA22の処理が再度実行される。以上で、図22に示す簡易撮影処理の説明を終了する。
 図21の説明に戻り、ステップSA11において、CPU31は、第1起動操作が行われたか否かを判定する。ステップSA11の判定は、ステップSA6でメインメモリ32に記憶された入力位置データを参照することによって行うことができる。すなわち、ステップSA11の判定処理においては、CPU31は、アイコン画像が表示されている領域をタッチする入力が行われたか否かを判定する。ステップSA11の判定結果がYesである場合、ステップSA12の処理が実行される。一方、ステップSA11の判定結果がNoである場合、後述するステップSA13の処理が実行される。
 ステップSA12において、CPU31は、被選択アプリケーションプログラムの実行処理を行う。すなわち、第1起動操作によって選択されたアイコン画像に対応する被選択アプリケーションプログラムをメインメモリ32に読み込み、当該被選択アプリケーションプログラムを実行する。これによって、当該被選択アプリケーションプログラムが開始され、ユーザは当該被選択アプリケーションプログラムを利用することができる。ステップSA12の処理は、当該被選択アプリケーションプログラムが終了したことで終了し、ステップSA12の次にステップSA3の処理が再度実行される。
 ここで、上記ステップSA12において、被選択アプリケーションプログラムとして多機能撮影アプリケーションプログラム53が実行される場合について詳細に説明する。図30は、多機能撮影アプリケーションプログラム53による処理(多機能撮影処理)の流れを示すフローチャートである。
 多機能撮影処理においては、まずステップSA30において、CPU31は、多機能撮影アプリケーションプログラム53を起動する。すなわち、多機能撮影アプリケーションプログラム53をメインメモリ32に読み込んで実行を開始する。この時、メインメモリ32に記憶されている設定データ66に含まれる各データ67および68が、引数として簡易撮影プログラム52に対して入力(設定)される。ステップSA30の次にステップSA31の処理が実行される。ステップSA30以降のステップSA31~SA39の処理は、多機能撮影アプリケーションプログラム53を用いて(多機能撮影アプリケーションプログラム53を実行することにより)行われる。
 ステップSA31において、CPU31は、表示処理を行う。ここで、本実施形態では、多機能撮影処理においては、撮像手段を用いた撮影を行う撮影モードと、過去に撮影された画像(保存画像)を表示する写真表示モードとがある。ステップSA31の表示処理においては、多機能撮影処理における2つのモード(写真表示モードおよび撮影モード)をユーザに選択させるための画像、および、撮影操作によって保存される撮像画像の保存先を設定するための画像が2つのLCD12および22の少なくとも一方に表示される。以下、図31を用いて、ステップSSA31の表示処理において表示される画像について説明する。
 図31は、多機能撮影処理において表示される画像の一例を示す図である。図31に示すように、ステップSA31においては、撮影モードの選択を指示するためのボタン画像101と、写真表示モードの選択を指示するためのボタン画像102とがそれぞれ下側LCD12に表示される。さらに、ボタン画像101には、現在の撮影画像の保存先の残り容量に応じて、撮影可能な枚数(たとえば、残り○○枚)の表示が含まれる。また、ボタン画像102には、現在の撮影画像の保存先の保存済の撮像画像の枚数(たとえば、合計○○枚)の表示が含まれる。また、撮像画像の保存先の変更を指示するためのボタン画像103および104もそれぞれ下側LCD12に表示される。ボタン画像103をタッチすると、本体内蔵の不揮発メモリ(内蔵メモリ;保存用データメモリ34)が選択状態となり、ボタン画像104をタッチすると、着脱自在のメモリカード(カードメモリ;メモリカード28)が選択状態となる。なお、内蔵メモリが選択されているときには、ボタン画像103の表示態様が変化し、カードメモリが選択されているときには、ボタン画像104の表示態様が変化する。また、ボタン画像101または102をタッチすると、そのタッチのタイミングで、撮影モードまたは写真表示モードに移行する。
 すなわち、本実施形態においては、多機能撮影アプリの起動時に、内蔵メモリとカードメモリとのいずれかをユーザが選択可能に構成されており、当該選択をしたタイミングではその選択は確定しない。そして、同じ画面で、撮影モードと写真表示モードのいずれかをユーザが選択可能に構成されている。そして、撮影モードと写真表示モードの選択がされたタイミングで、内蔵メモリとカードメモリの選択は確定し、撮影モードまたは写真表示モードに移行する。すなわち、内蔵メモリが選択されている状態で、撮影モードが選択されたときには、撮影モードが起動し、その後の撮影モードにおいて撮影した画像は内蔵メモリに保存される。また、カードメモリが選択されている状態で、撮影モードが選択されたときは、撮影モードが起動し、その後の撮影モードにおいて撮影した画像はカードメモリに保存される。また、内蔵メモリが選択されている状態で、写真表示モードが選択されたときは、写真表示モードが起動し、その後の写真表示モードにおいて内蔵メモリに保存されている撮影画像が表示される。また、カードメモリが選択されている状態で、写真表示モードが選択されたときには、写真表示モードが起動し、その後の写真表示モードのいてカードメモリに保存されている撮影画像が表示される。
 さらに、下側LCDには、各種ボタン画像105~107が表示される。終了ボタン105は、多機能撮影処理を終了する操作を行うためのボタン画像である。すなわち、終了ボタン105に対してタッチ入力が行われた場合、多機能撮影処理が終了して、CPU31による処理はステップSA4の処理に戻る。
 カレンダーボタン106は、後述するカレンダー機能の起動する操作を行うためのボタン画像である。すなわち、カレンダーボタン106に対してタッチ入力が行われた場合、後述するカレンダー機能が実行される。その他ボタン107は、各種設定などの操作を行うためのボタン画像である。
 ステップSA32において、CPU31は、各入力装置に対する入力を受け付ける。ステップSA32の処理は上記ステップSA6の処理と同様である。ステップSA32の次にステップSA33の処理が実行される。
 ステップSA33において、CPU31は、写真表示モードが選択されたか否かを判定する。ステップSA33の判定は、ステップSA32でメインメモリ32に記憶された入力位置データを参照することによって行うことができる。すなわち、ステップSA33の判定処理においては、CPU31は、図31に示すように、写真表示モードを表す画像102が表示される領域をタッチする入力が行われたか否かを判定する。
 ステップSA33の判定結果がYesである場合、ステップSA34の処理が実行される。一方、ステップSA33の判定結果がNoである場合、後述するステップSA35の処理が実行される。
 ステップSA34において、CPU31は、写真表示モードにおいて実行すべき処理(写真表示モード処理)を実行する。以下、図32を参照して、写真表示モード処理の詳細を説明する。
 図32は、図30に示す写真表示モード処理(ステップSA34)の流れを示すフローチャートである。写真表示モード処理においては、まずステップSA41において、CPU31は表示処理を行う。写真表示モードにおけるステップSA41では、過去に撮影された保存画像等が表示される。以下、図33を参照して、写真表示モードにおいて表示される画像について説明する。
 図33は、写真表示モードにおいて表示される画像の一例を示す図である。図33に示すように、ステップSA41においては、複数(図では3つ)の保存画像181~183と、カーソル184と、スクロールボタン185および186と、設定ボタン187と、終了ボタン188とが下側LCD12に表示される。
 図33において、保存画像181~183は、保存用データメモリ34またはメモリカード28に保存されている保存画像(の一部)である。また、カーソル184によって囲まれている保存画像182が、カーソル184によって現在選択中の画像である。また、スクロールボタン185および186は、保存画像181~183を左右にスクロールさせるためのボタンである。すなわち、画面右側のスクロールボタン185に対してタッチ入力が行われた場合、保存画像181~183は右側にスクロールし、画面左側のスクロールボタン186に対してタッチ入力が行われた場合、保存画像181~183は左側にスクロールする。保存画像が左右にスクロールする結果、下側LCD12に表示される保存画像が変更されるとともに、カーソル184で選択される保存画像が変更される。
 なお、本実施形態においては、写真表示モードにおいては、簡易撮影処理または多機能撮影処理のいずれかにおいて保存された撮像画像が表示される。本実施形態においては、簡易撮影処理において保存された保存画像も、多機能撮影処理において保存された保存画像も、区別なく保存される。具体的には、いずれの保存画像についても、保存画像のデータファイルのファイル名を付けるルール(例えば、撮影時の日時や、ゲーム装置10で撮影された画像の通算枚数等を用いてファイル名を付す)は同じである。いずれの撮影処理において保存された保存画像についても区別なく保存される結果、写真表示モードにおいては、各撮影処理において保存された保存画像の両方を表示することができる。
 設定ボタン187は、カーソル184によって選択されている保存画像を、新たにお気に入り画像として設定する操作を行うためのボタン画像である。すなわち、設定ボタン187に対してタッチ入力が行われた場合、カーソル184によって選択されている保存画像がお気に入り画像に設定される。
 終了ボタン188は、写真表示モードを終了する操作を行うためのボタン画像である。すなわち、終了ボタン188に対してタッチ入力が行われた場合、写真表示モードが終了して、CPU31による処理はステップSA31の処理に戻る。
 なお、ステップSA41においては、上側LCD22には、何らかの情報が表示されてもよいし、表示が行われなくてもよい。本実施形態においては、CPU31は、カーソル184によって選択されている保存画像を上側LCD22に表示する。
 図32の説明に戻り、ステップSA41の次にステップSA42の処理が実行される。ステップSA42において、CPU31は、各入力装置に対する入力を受け付ける。ステップSA42の処理は上記ステップSA6の処理と同様である。ステップSA42の次にステップSA43の処理が実行される。
 ステップSA43において、CPU31は、下側LCD12に表示されている保存画像をスクロールさせる操作が行われたか否かを判定する。ステップSA43の判定は、ステップSA42でメインメモリ32に記憶された入力位置データを参照することによって行うことができる。すなわち、ステップSA43の判定処理においては、CPU31は、スクロールボタン185または186が表示されている領域をタッチする入力が行われたか否かを判定する。
 ステップSA43の判定結果がYesである場合、ステップSA44の処理が実行される。一方、ステップSA43の判定結果がNoである場合、後述するステップSA45の処理が実行される。
 ステップSA44において、CPU31は、下側LCD12に表示されている保存画像をスクロールさせる。すなわち、スクロールボタン185に対してタッチ入力が行われた場合には保存画像を右にスクロールさせ、スクロールボタン186に対してタッチ入力が行われた場合には保存画像を左にスクロールさせる。これによって、下側LCD12の画面にそれまで表示されていなかった保存画像が表示される。ステップSA44の次に上記ステップSA41の処理が再度実行される。
 一方、ステップSA45において、CPU31は、お気に入り画像として保存画像を設定する操作が行われたか否かを判定する。ステップSA45の判定は、ステップSA42でメインメモリ32に記憶された入力位置データを参照することによって行うことができる。すなわち、ステップSA45の判定処理においては、CPU31は、設定ボタン187が表示されている領域をタッチする入力が行われたか否かを判定する。ステップSA45の判定結果がYesである場合、ステップSA46の処理が実行される。一方、ステップSA45の判定結果がNoである場合、上記ステップSA41の処理が再度実行される。
 ステップSA46において、CPU31は、カーソル184によって現在選択されている保存画像を、お気に入り画像として設定する。具体的には、保存用データメモリ34またはメモリカード28に保存されている当該保存画像のデータに対して、お気に入り画像であることを示す情報を付加する。さらに、本実施形態においては、CPU31は、ステップSA46において、上記保存画像を第1グループから第3グループのいずれに設定するかを選択させる。したがって、上記保存画像のデータには、第1~第3グループのうちでユーザが選択したグループを示す情報が付加される。以上のステップSA46の次にステップSA47の処理が実行される。
 ステップSA47において、CPU31は、写真表示モードを終了するか否かを判定する。ステップSA47の判定は、ステップSA42でメインメモリ32に記憶された入力位置データを参照することによって行うことができる。すなわち、ステップSA47の判定処理においては、CPU31は、終了ボタン188が表示されている領域をタッチする入力が行われたか否かを判定する。ステップSA47の判定結果がYesである場合、CPU31は図32に示す写真表示モード処理を終了する。一方、ステップSA47の判定結果がNoである場合、上記ステップSA41の処理が再度実行される。
 以上に説明した写真表示モードにおいて、ユーザは、過去に撮影した保存画像を閲覧することができるとともに、保存画像をお気に入り画像として設定することができる。上述したように、上記ステップSA3においては、メニュー画面において表示される表示画像(図23に示す表示画像75)は、お気に入り画像の中から選択される。したがって、ユーザは、表示画像として表示される対象となる画像を自分で選択することができる。
 図30の説明に戻り、上記ステップSA34の処理が終了すると、ステップSA31の処理が再度実行される。したがって、写真表示モードが終了すると、写真表示モードと撮影モードとのいずれかをユーザに選択させる画面が再度表示される(ステップSA31)。
 一方、ステップSA35において、CPU31は、撮影モードが選択されたか否かを判定する。ステップSA35の判定は、ステップSA32でメインメモリ32に記憶された入力位置データを参照することによって行うことができる。すなわち、ステップSA35の判定処理においては、CPU31は、図31に示すように、撮影モードを表す画像101が表示される領域をタッチする入力が行われたか否かを判定する。ステップSA35の判定結果がYesである場合、ステップSA36の処理が実行される。一方、ステップSA35の判定結果がNoである場合、後述するステップSA37の処理が実行される。
 ステップSA36において、CPU31は、撮影モードにおいて実行すべき処理(撮影モード処理)を実行する。以下、図34を参照して、撮影モード処理の詳細を説明する。
 図34は、図32に示す撮影モード処理(ステップSA36)の流れを示すフローチャートである。撮影モード処理においては、まずステップSA50において、CPU31は、内側カメラ23または外側カメラ25によって撮像された画像のデータを取得する。ステップSA50の処理は上記ステップSA22の処理(図22)と同じである。ステップSA50の次にステップSA51の処理が実行される。
 ステップSA51において、CPU31は表示処理を行う。撮影モードであるステップSA51においては、カメラ23または24による撮像画像等が表示される。以下、図35(a)を用いて、撮影モードにおいて表示される画像について説明する。
 図35(a)は、撮影モードにおいて表示される画像の一例を示す図である。図35(a)に示すように、ステップSA51においては、図24と同様の撮像画像77の他、各種ボタン91~99が下側LCD12に表示される。各ボタン91~99は、その画像の位置に対してユーザがタッチ入力を行うことによって、ゲーム装置10に対する指示を行うための画像である。以下、各ボタン91~99について説明する。
 撮影ボタン91は、撮影操作を行うためのボタン画像である。すなわち、撮影ボタン91に対してタッチ入力が行われた場合に撮像画像の保存処理が行われる。なお、撮影ボタン91は、ユーザが右手または左手のどちらの手で操作する場合にも操作しやすいように、下側ハウジング11の(左右方向に関して)略中央に表示されることが好ましい。
 カメラ切替ボタン92は、カメラ切替操作を行うための画像である。すなわち、カメラ切替ボタン92に対してタッチ入力が行われた場合、内側カメラ23および外側カメラ25のうちで、撮像を行うカメラが切替えられる。
 終了ボタン93は、撮影モードを終了する操作を行うためのボタン画像である。すなわち、終了ボタン93に対してタッチ入力が行われた場合、撮影モードが終了して、CPU31による処理はステップSA31の処理に戻る。
 また、各ボタン94~99は、編集処理における指示を行うためのボタン画像である。ペンモードボタン94、消しゴムモードボタン95、およびスタンプモードボタン96は、編集モードを変更する操作を行うためのボタン画像である。ここで、本実施形態では、ペンモード、スタンプモード、および消しゴムモードという3つのモードが予め用意される。ペンモードにおいては、タッチパネル13に対して入力された入力軌跡の画像を撮像画像に付加することができる。スタンプモードにおいては、予め用意されたスタンプ画像を撮像画像に付加することができる。消しゴムモードにおいては、ペンモードまたはスタンプモードで付加された画像を消去することができる。ペンモードボタン94は、編集モードをペンモードに変更する指示を行うための画像である。消しゴムモードボタン95は、編集モードを消しゴムモードに変更する指示を行うための画像である。スタンプモードボタン96は、編集モードをスタンプモードに変更する指示を行うための画像である。
 太さ変更ボタン97は、ペンモードにおいて入力される線の太さを変更する指示を行うための画像である。色変更ボタン98は、ペンモードにおいて入力される線の色を変更する指示を行うための画像である。全消去ボタン99は、ペンモードまたはスタンプモードで付加された画像を全て消去する指示を行うための画像である。
 上記各ボタン94~99を用いて指示を行うことによって、ユーザは、下側LCD12に表示される撮像画像の上に(撮像画像に重ねて)画像を入力することができる。なお、図35(a)においては、後述する編集処理においてユーザによって入力される画像がない場合における画像を示している。また、本実施形態においては、上側LCD22には、撮影モードにおける操作の仕方をユーザに説明する画像が表示される。
 図34の説明に戻り、ステップSA52において、CPU31は、各入力装置に対する入力を受け付ける。ステップSA52の処理は上記ステップSA6の処理と同様である。ステップSA52の次にステップSA33の処理が実行される。
 ステップSA53において、CPU31は、撮影操作が行われたか否かを判定する。ステップSA53の判定は、ステップSA52でメインメモリ32に記憶された操作データおよび入力位置データを参照することによって行うことができる。すなわち、ステップSA53の判定処理においては、CPU31は、Lボタン14IまたはRボタン14Jが押下されたか、あるいは、撮影ボタン91が表示される領域をタッチする入力が行われたか否かを判定する。
 このように、多機能撮影処理においては、ユーザは、簡易撮影処理における撮影操作と同じ操作(Lボタン14IまたはRボタン14Jを押下する操作)を撮影操作として行うことができるとともに、撮影ボタン91をタッチする操作を撮影操作として行うことができる。ステップSA53の判定結果がYesである場合、ステップSA54の処理が実行される。一方、ステップSA53の判定結果がNoである場合、後述するステップSA55の処理が実行される。
 上記ステップSA53で述べたように、本実施形態においては、簡易撮影プログラム52と多機能撮影アプリケーションプログラム53とが共通に有する機能である撮影処理機能は、同一の操作(Lボタン14IまたはRボタン14Jを押下する操作)に応じて実行される。プログラムが変わっても同じ機能に関しては同じ操作を行うことが可能であるので、ユーザにとって使いやすい操作体系を提供することができる。
 なお、「共通に有する機能が同一の操作に応じて実行される」とは、簡易撮影プログラム52と多機能撮影アプリケーションプログラム53とのいずれにおいても、ある操作によってある同じ機能が実行されればよいことを意味しており、簡易撮影プログラム52と多機能撮影アプリケーションプログラム53とのいずれか一方において、当該ある操作とは異なる操作によっても当該機能が実行されることを除外する意味ではない。すなわち、本実施形態のように、多機能撮影アプリケーションプログラム53においては、Lボタン14IまたはRボタン14Jを押下する操作の他に、撮影ボタン91をタッチする操作によって撮影処理が実行されるようにしてもよい。
 ステップSA54において、CPU31は撮像画像を保存する。ステップSA54における処理は、上記簡易撮影処理におけるステップSA26の処理と同じである。したがって、本実施形態においては、簡易撮影処理と多機能撮影処理とにおいて、撮像画像を保存する処理は同じように実行される。具体的には、撮像に用いられるカメラの決定方法および保存先の決定方法が、簡易撮影処理と多機能撮影処理とで同じ方法によって行われる。ステップSA54の次に、後述するステップSA59の処理が実行される。
 ステップSA55において、CPU31は、カメラ切替操作が行われたか否かを判定する。ステップSA55の判定は、ステップSA52でメインメモリ32に記憶された入力位置データを参照することによって行うことができる。すなわち、ステップSA55の判定処理においては、CPU31は、カメラ切替ボタン92が表示される領域をタッチする入力が行われたか否かを判定する。ステップSA55の判定結果がYesである場合、ステップSA56の処理が実行される。一方、ステップSA55の判定結果がNoである場合、後述するステップSA57の処理が実行される。
 ステップSA56において、CPU31は、画像の撮像を行うカメラを切替える。すなわち、画像の撮像を行うカメラが内側カメラ23である場合には、画像の撮像を行うカメラを外側カメラ25に変更し、画像の撮像を行うカメラが外側カメラ25である場合には、画像の撮像を行うカメラを内側カメラ23に変更する。具体的には、CPU31は、各カメラ23および25のうちで画像の撮像を行っている一方のカメラに対して動作を停止する旨の指示を行うととともに、他方のカメラに対して撮像を行う旨の指示を行う。上記ステップSA56の処理が実行された場合、次に行われるステップSA50では切替後のカメラで撮像された画像のデータがCPU31によって取得され、次に行われるステップSA51では切替後のカメラで撮像された画像が下側LCD12に表示されることになる。また、ステップSA56において、CPU31は、切替後のカメラを示すデータをカメラ切替データ67としてメインメモリ32に記憶する。これによって、次回に多機能撮影処理を実行する場合、および、簡易撮影処理を実行する場合において、切替後のカメラによって撮像が行われることとなる。ステップSA56の次に、後述するステップSA59の処理が実行される。
 ステップSA57において、CPU31は、編集操作が行われたか否かを判定する。ステップSA57の判定は、ステップSA52でメインメモリ32に記憶された入力位置データを参照することによって行うことができる。すなわち、ステップSA57の判定処理においては、CPU31は、各ボタン94~99が表示される領域、または、撮像画像77が表示される領域をタッチする入力が行われたか否かを判定する。ステップSA57の判定結果がYesである場合、ステップSA58の処理が実行される。一方、ステップSA57の判定結果がNoである場合、後述するステップSA59の処理が実行される。
 ステップSA58において、CPU31は、ユーザによって行われたタッチ入力に従って各種の編集処理を行う。例えば、各ボタン94~98がタッチされた場合には、CPU31は、タッチされたボタンに応じて設定(編集モード、および、線の太さまたは色に関する設定)を変更する。また、撮像画像77の領域がタッチされた場合には、タッチされた位置に対して、編集モードに応じた処理を行う。すなわち、編集モードがペンモードである場合にはタッチ入力による軌跡の画像を撮像画像77に付加し、スタンプモードである場合には、予め用意されたスタンプ画像を撮像画像77に対してタッチ位置に付加し、消しゴムモードである場合には、タッチされた位置に対してペンモードまたはスタンプモードで付加された画像を消去する。また、全消去ボタン99がタッチされた場合には、ペンモードまたはスタンプモードで撮像画像77に対して付加された画像を全て消去する。なお、ステップSA58の編集モードに応じた処理の詳細については後述する。
 以上のステップSA58の次に、ステップSA59の処理が実行される。
 ステップSA59において、CPU31は、撮影モードを終了するか否かを判定する。ステップSA59の判定は、ステップSA452でメインメモリ32に記憶された入力位置データを参照することによって行うことができる。すなわち、ステップSA59の判定処理においては、CPU31は、終了ボタン93が表示されている領域をタッチする入力が行われたか否かを判定する。ステップSA59の判定結果がYesである場合、CPU31は図34に示す撮影モード処理を終了する。一方、ステップSA59の判定結果がNoである場合、上記ステップSA50の処理が再度実行される。以上で、図34に示す撮影モード処理の説明を終了する。
 なお、上述の多機能撮影アプリケーションプログラム53は、上述した編集機能に加えて、撮像画像77に対して、他の種類の編集操作や演出操作を行う機能を有する場合がある。このような場合には、ユーザが使用したい機能を選択するメニュー画面を、ステップSA51の表示処理に先立って表示することが好ましい。以下、図35(b)を用いて、撮影モードにおいて表示されるメニュー画面の一例について説明する。
 図35(b)は、撮影モードにおいて表示されるメニュー画面の一例を示す図である。図35(b)に示すように、メニュー画面では、図24と同様の撮像画像77の他、ボタン群150および各種ボタン152,154,156,158が下側LCD12に表示される。ボタン群150に含まれる各アイコン画像は、多機能撮影アプリケーションプログラム53に含まれる対応する機能の選択を、ゲーム装置10に対して指示するための画像である。以下、各ボタン152,154,156,158について説明する。
 スクロールボタン152および154は、それぞれボタン群150に含まれる各アイコン画像に対する選択を行うためのボタン画像である。すなわち、スクロールボタン152または154に対してタッチ入力が行なわれた場合、ボタン群150に含まれるアイコン画像のうち、選択状態(アクティブ)なものが順次変更される。
 終了ボタン156は、撮影モードを終了する操作を行うためのボタン画像である。すなわち、終了ボタン152に対してタッチ入力が行われた場合、撮影モードが終了して、CPU31による処理はステップSA31の処理に戻る。
 開始ボタン158は、多機能撮影アプリケーションプログラムに含まれる機能のうち、選択された機能の実行を指示する操作を行うためのボタン画像である。すなわち、ボタン群150に含まれるいずれかのアイコン画像が選択された上で、開始ボタン158対してタッチ入力が行われた場合、選択中のアイコン画像に対応する機能が実行される。
 図30の説明に戻り、上記ステップSA36の処理が終了すると、ステップSA31の処理が再度実行される。したがって、撮影モードが終了すると、写真表示モードと撮影モードとのいずれかをユーザに選択させる画面が再度表示される(ステップSA31)。
 一方、ステップSA37において、CPU31は、保存画像の保存先を変更する操作が行われたか否かを判定する。ステップSA37の判定は、ステップSA32でメインメモリ32に記憶された入力位置データを参照することによって行うことができる。すなわち、ステップSA37の判定処理においては、CPU31は、撮像画像の保存先を変更する指示を表す画像が表示される領域をタッチする入力が行われたか否かを判定する。ステップSA37の判定結果がYesである場合、ステップSA38の処理が実行される。一方、ステップSA37の判定結果がNoである場合、後述するステップSA39の処理が実行される。
 ステップSA38において、CPU31は、撮像画像の保存先を変更する。すなわち、現在の保存先が保存用データメモリ34である場合には、保存先をメモリカード28へと変更し、現在の保存先がメモリカード28である場合には、保存先を保存用データメモリ34へと変更する。具体的には、CPU31は、変更後の保存先を示すデータを保存先データ68としてメインメモリ32に記憶する。ステップSA38の次にステップSA31の処理が再度実行される。
 ステップSA39において、CPU31は、多機能撮影処理を終了するか否かを判定する。この判定は、ユーザによって多機能撮影処理を終了する指示が行われたか否かによって行われる。多機能撮影処理を終了する指示は、例えば、ステップSA31における表示処理において、多機能撮影処理を終了する操作を行うためのボタン画像を表示するようにし、当該ボタン画像をタッチすることにより行われてもよい。また、上記指示は、予め定められた所定のボタンを押下することにより行われてもよい。ステップSA39の判定結果がNoである場合、ステップSA31の処理が再度実行される。一方、ステップSA39の判定結果がYesである場合、CPU31は、多機能撮影アプリケーションプログラム53の実行を終了し、多機能撮影処理を終了する。その後、図21に示すステップSA3の処理が再度実行される。
 図21の説明に戻り、ステップSA13において、CPU31は、ゲーム装置10における処理を終了するか否かを判定する。ステップSA13の判定は、例えばユーザが所定の終了指示操作(具体的には、電源ボタン14Fを押下する操作等)を行ったか否か等によって行われる。ステップSA13の判定結果がNoの場合、ステップSA5の処理が再度実行される。一方、ステップSA13の判定結果がYesの場合、CPU31は図21に示す処理を終了する。
 以上のように、本実施形態によれば、メニュー画面が表示されている状態(起動受付状態。ステップSA5)において、ゲーム装置10は、被選択アプリケーションプログラムを起動するための第1起動操作を受け付ける(ステップSA11およびSA12)とともに、簡易撮影プログラム52を起動するための撮影可能操作を受け付ける(ステップSA9およびSA10)。したがって、メニュー画面が表示されている状態から撮影可能操作によって直ちに簡易撮影プログラム52を起動することができるので、ユーザは、簡易撮影プログラム52を容易に起動することができる。特に、本実施形態においては、所望の被選択アプリケーションプログラムを起動するためには、ユーザは必要に応じてスクロール操作を行った後で第1起動操作を行わなければならないのに対して、簡易撮影プログラム52を起動するためには、ユーザは撮影可能操作を行うのみでよい。したがって、本実施形態においては、被選択アプリケーションプログラムよりも簡易撮影プログラム52をより容易に起動することができる。
 さらに、上記実施形態によれば、簡易撮影プログラム52の実行中(撮影可能状態。ステップSA22~SA29)においては、CPU31は、撮影アプリケーションプログラム53を起動するための第2起動操作を受け付ける(ステップSA29)。これによれば、ユーザは、簡易撮影プログラム52による撮影を行っている最中であっても、第2起動操作によって多機能撮影アプリケーションプログラム53を起動することができる。したがって、簡易撮影プログラム52による撮影の最中に、簡易撮影プログラム52が有していない多機能撮影アプリケーションプログラム53の機能を使用したくなった場合であっても、ユーザは、第2起動操作によって容易かつ迅速に当該機能を使用することができる。
 また、本実施形態においては、相対的に簡易な機能である簡易撮影プログラム52がメニュー画面から迅速に起動することが可能であり、より多くの機能を有する多機能撮影アプリケーションプログラム53を簡易撮影プログラム52の実行中において直ちに起動することが可能である。
 したがって、本実施形態によれば、「まず簡易な機能の撮影用プログラムによってゲーム装置10を操作し、次に、より多機能な撮影用プログラムによってゲーム装置10の各種の撮影機能を利用する」という利用態様でユーザにゲーム装置10を使用させることができ、ゲーム装置10の操作にユーザが次第に慣れていくように使用させることができる。
 また、簡易撮影プログラム52は多機能撮影アプリケーションプログラム53の紹介用(試用版)であるとみなすことができ、ゲーム装置10の提供者側からすれば、メニュー画面から簡易撮影プログラム52を迅速に起動可能とすることによって、ユーザによる多機能撮影アプリケーションプログラム53の利用を促進することができる。
 また、本実施形態においては、簡易撮影プログラム52の機能は多機能撮影アプリケーションプログラム53の機能の一部であるので、簡易撮影プログラム52のデータサイズは、多機能撮影アプリケーションプログラム53のデータサイズに比べて小さい。したがって、メニュー画面から上記撮影可能操作によって起動されるプログラムを、データサイズの小さい方の簡易撮影プログラム52とすることにより、メニュー画面から撮影用のプログラムを迅速に起動させることができる。
 <撮影誘導処理>
 次に、上記ステップSA2における、撮影誘導処理の詳細について説明する。図27は、図21に示す撮影誘導処理(ステップSA2)の流れを示すフローチャートである。撮影誘導処理においては、まずステップSA61において、CPU31は、撮影を行うか否か(すなわち、ゲーム装置10の状態を撮影可能状態へと遷移させるか否か)をユーザに選択させる選択画面を表示する。例えば、「写真を撮って見ませんか?」というメッセージとともに、撮影を行う指示を行うためのボタン画像と、撮影を行わない指示を行うためのボタン画像とを下側LCD12に表示する。ステップSA61の次にステップSA62の処理が実行される。
 ステップSA62において、CPU31は、各入力装置に対する入力を受け付ける。ステップSA62の処理は上記ステップSA6の処理と同じである。ステップSA62の次にステップSA63の処理が実行される。
 ステップSA63において、CPU31は、撮影を行う指示が選択されたか否かを判定する。ステップSA63の判定は、ステップSA62でメインメモリ32に記憶された入力位置データを参照することによって行うことができる。すなわち、ステップSA63の判定処理においては、CPU31は、撮影を行う指示を行うためのボタン画像が表示されている領域をタッチする入力が行われたか否かを判定する。ステップSA63の判定結果がYesである場合、ステップSA64の処理が実行される。一方、ステップSA63の判定結果がNoである場合、後述するステップSA65の処理が実行される。
 ステップSA64において、CPU31は、簡易撮影処理を実行する。この簡易撮影処理は、上記ステップSA10と同様であるので、詳細な説明を省略するが、この簡易撮影処理によって撮影可能状態となるので、ユーザは、撮影操作を行うことができる。ステップSA64の簡易撮影処理が終了後、CPU31は図27に示す撮影誘導処理を終了する。なお、本実施形態においては、ステップSA64の処理とステップSA10の処理とが同じであるので、ステップSA64の簡易撮影処理においてもステップSA10と同様、簡易撮影処理中において多機能撮影アプリケーションプログラム53を起動することが可能である。ただし、代替の実施形態においては、ステップSA64の簡易撮影処理においては、第2起動操作を行うためのボタン画像78を表示しないようにし、多機能撮影アプリケーションプログラム53を起動することができないようにしてもよい。
 一方、ステップSA65においては、CPU31は、撮影機能に関する紹介を行うための画像を表示する。例えば、簡易撮影プログラム52および多機能撮影アプリケーションプログラム53に関する機能を説明する画像等を各LCD12および22に表示する。ステップSA65の後、CPU31は図27に示す撮影誘導処理を終了する。
 以上のように、本実施形態においては、ゲーム装置10は、ゲーム装置10の起動が初めてであるか否かを判定し(ステップSA1)、ゲーム装置10が最初に起動される場合(ステップSA1でYes)には、ゲーム装置10の状態を撮影可能状態へと遷移させるか否かをユーザに選択させる表示を行う(ステップSA61)。そして、撮影を行うことをユーザが選択した場合(ステップSA63でYes)には、実際に撮影操作を体験させる(ステップSA64)。
 これによって、ゲーム装置10における撮影操作を最初に体験してもらうようにユーザを誘導することができる。つまり、撮影誘導処理によって、ゲーム装置10を初めて使用するユーザに対してまず最初に撮影操作を行わせることができ、撮影操作に慣れさせることができる。また、本実施形態においては、ステップSA64において上記簡易撮影プログラム52による簡易な撮影操作をユーザに体験させるので、最初に多機能撮影アプリケーションプログラム53による撮影操作を体験させる場合に比べて、ユーザは容易に撮影操作を行うことができる。
 また、ゲーム装置10の製造者側からすれば、まず簡易な撮影操作をユーザに実際に体験してもらうことで、ゲーム装置10の撮影機能をユーザにわかりやすく紹介することができる。
 なお、本実施形態においては、ステップSA61において、撮影可能状態へと遷移させるか否かをユーザに選択させるようにしたが、代替の実施形態においては、撮影誘導処理において、ユーザに選択させることなく、撮影可能状態へと遷移させるようにしてもよい。すなわち、ユーザに選択させることなく、撮影用のプログラム52または53による撮影処理を実行するようにしてもよい。
 <表示画面の変更について>
 本実施形態においては、ゲーム装置10は、メニュー画面における表示画像の内容を所定のタイミングで(ユーザの指示によらず、自動的に)変更する。これによって、メニュー画面に変化を与え、ユーザを飽きさせないようにすることができる。
 さらに、本実施形態では、上記所定のタイミングには、ゲーム装置10が起動したタイミング、および、被選択アプリケーションプログラムが終了したタイミングが含まれる。すなわち、上述したように、ゲーム装置10が起動した場合、および、被選択アプリケーションプログラムが終了した場合には、ステップSA3の処理が実行された後でステップSA5の表示処理が実行されるので、メニュー画面における表示画像が変更される。つまり、ゲーム装置10を起動する度、および、被選択アプリケーションプログラムを実行する度に表示画像が変更される。
 これによれば、ユーザにとっては起動時および被選択アプリケーションプログラムの実行終了時に(「どの画像が表示されるのか」という)楽しみができるので、ゲーム装置10の提供者側にとっては、ユーザがゲーム装置10を起動したり被選択アプリケーションプログラムを実行したりすること(すなわち、ゲーム装置10を使用すること)を促進させることができるという効果がある。
 さらに、本実施形態においては、上記所定のタイミングには、折り畳み式であるゲーム装置10を開いたタイミングが含まれる。なお、本実施形態においては、閉じた状態にあるゲーム装置10はスリープモードの状態であるので、上記「ゲーム装置10が起動したタイミング」には「閉じた状態(スリープモード)にあるゲーム装置10が開いた(スリープモードから再起動した)タイミング」が含まれるとも言える。CPU31は、開いた状態にあるゲーム装置10を一端閉じた後で再びゲーム装置10を開いた場合、閉じた前後で表示画像を変更するのである。
 これによって、ユーザにとってはゲーム装置10を開く際に楽しみができるので、ゲーム装置10の提供者側にとっては、ゲーム装置10を開かせることによってユーザによるゲーム装置10の使用を促進させることができるという効果がある。なお、本実施形態においては、閉じた状態にあるゲーム装置10が開いたタイミングでは、表示画面をランダムに変更するのではなく、所定の順序に従って変更する。以下、図28を参照して、開閉に応じて表示画像を変更する処理の詳細を説明する。
 図28は、ゲーム装置10の開閉時に実行される処理(開閉時処理)の詳細を示すフローチャートである。図28に示す処理は、図21に示す処理中の間の任意のタイミングにおいて、ゲーム装置10が閉じられたことに応じて開始される。
 開閉時処理においては、まずステップSA71において、CPU31は、ゲーム装置10をスリープモードに遷移する。具体的には、CPU31は、各LCD12および22における画像表示を停止したり、実行中のアプリケーションプログラムにおける処理を一時停止させたりする。ステップSA71の次にステップSA72の処理が実行される。
 ステップSA72において、CPU31は、ゲーム装置10が開いた状態となったか否かを判定する。ステップSA72の判定結果がYesである場合、ステップSA73の処理が実行される。一方、ステップSA72の判定結果がNoである場合、再度ステップSA72の処理が実行される。すなわち、CPU31は、ゲーム装置10が開いた状態となるまで待機する。
 ステップSA73において、CPU31は、開閉時処理が開始される前の状態から表示画像を変更する。ここで、ステップSA73においては、お気に入り画像のうちから表示画像を所定の順番に従って順次選択することによって、表示画像を変更する。以下、図29を参照して表示画像の変更方法について説明する。
 図29は、ステップSA73における表示画像の変更方法を示す図である。なお、図29においては、第1グループには3つのお気に入り画像、第2グループには2つのお気に入り画像、第3グループには4つのお気に入り画像が含まれている場合を例として示している。本実施形態においては、各グループに含まれるお気に入り画像は、所定の順序で並んで管理される。所定の順序とは、例えば撮影(保存)された日時の順でもよいし、お気に入り画像として設定された日時の順でもよいし、ユーザによって設定された順序でもよい。ステップSA73においては、この順番に従ってお気に入り画像が順次変更される。すなわち、CPU31は、変更前における(開閉時処理が開始される前の状態における)表示画像の次の順番のお気に入り画像を、変更後の表示画像とする。また、変更前における表示画像がそのグループ内で最後の順番のお気に入り画像である場合、当該グループの次のグループの先頭のお気に入り画像を、変更後の表示画像とする。また、変更前における表示画像が第3グループ内で最後の順番のお気に入り画像である場合、第1グループの先頭のお気に入り画像を、変更後の表示画像とする。以上のように、ステップSA73においては、図29に示す矢印の順番に従って表示画像が変更されていくこととなる。なお、ステップSA73の後、CPU31は開閉時処理を終了し、開閉時処理が開始される直前の状態に復帰する。
 以上のように、本実施形態においては、ゲーム装置10を開いた状態にされる度に、表示画像が所定の順序で切替わる。これによれば、ユーザは、ゲーム装置10を開閉する操作によって次々と表示画像を変更して楽しむことができる。例えば、ユーザは、ゲーム装置10を開く度に絵(表示画像)が変わる4コマ漫画を作成したり、ゲーム装置10の開閉を繰り返すことで時系列に並んだ一連の写真を連続して見たりすることができる。なお、このとき、上記ステップSA3においては、CPU31は、各グループの先頭のお気に入り画像のうちからランダムで表示画像を選択するようにしてもよい。これによって、各グループ内に含まれる全ての画像を所定の順序で連続して表示することができる。
 なお、代替の実施形態においては、ゲーム装置10は、所定の操作(例えば所定のボタンを押下する操作)に応じて表示画像が所定の順序で切替わるようにしてもよい。すなわち、上記所定のタイミングは、所定の操作が行われたタイミングであってもよい。
 <変形例>
 上記実施形態では、簡易撮影プログラム52と多機能撮影アプリケーションプログラム53との間で、所定の情報(データ)を共通に使用することとした。具体的には、2つのプログラム52および53は、撮像を行うカメラの情報および保存画像の保存先の情報を共通に使用した。ここで、代替の実施形態においては、2つのプログラム52および53は、他の情報を共通に使用するようにしてもよい。例えば、ゲーム装置10で撮影を行った通算数に基づいて保存画像のファイル名を決定する場合であれば、当該通算数の情報を共通に使用するようにしてもよい。
 また、代替の実施形態においては、ゲーム装置10は、撮影可能状態において多機能撮影アプリケーションプログラム53が起動される場合(ステップSA29でYesの場合)と、起動受付状態において多機能撮影アプリケーションプログラム53が起動される場合(ステップSA11でYesの場合)とで、多機能撮影アプリケーションプログラム53に渡されるべき引数の内容を異なるようにしてもよい。
 例えば、多機能撮影アプリケーションプログラム53の実行開始時におけるモードを示す情報を、上記引数としてもよい。つまり、撮影可能状態において多機能撮影アプリケーションプログラム53が起動される場合と、起動受付状態において多機能撮影アプリケーションプログラム53が起動される場合とで、多機能撮影アプリケーションプログラム53の実行開始時におけるモードが異なるようにしてもよい。
 具体的には、起動受付状態において多機能撮影アプリケーションプログラム53が起動される場合には上記実施形態と同様に、実行開始時におけるモードを、撮影モードと写真表示モードとを選択させるモードとするのに対して、撮影可能状態において多機能撮影アプリケーションプログラム53が起動される場合には、実行開始時におけるモードを撮影モードとするようにしてもよい。
 撮影可能状態において多機能撮影アプリケーションプログラム53が起動される場合には、ユーザが簡易撮影プログラム52の有さない機能で撮影を行うために、多機能撮影アプリケーションプログラム53を起動したと想定することができるからである。
 また、代替の実施形態においては、撮影可能状態において多機能撮影アプリケーションプログラム53が起動される場合には、実行開始時におけるモードを写真表示モードとし、さらに、撮影可能状態において表示されていた表示画像に関連する画像(例えば、表示画像と同じグループのお気に入り画像や、表示画像と同じ日に撮影された画像等)を表示するようにしてもよい。
 また、上記実施形態においては、撮影可能状態において多機能撮影アプリケーションプログラム53を起動するためのボタン画像(図24に示すボタン画像78)は1つであったが、代替の実施形態においては、2つのボタン画像を表示するようにしてもよい。ここで、2つのボタン画像のうちの一方は、多機能撮影アプリケーションプログラム53の実行開始時におけるモードを撮影モードとして多機能撮影アプリケーションプログラム53を起動するためのボタンであり、他方は、実行開始時におけるモードを写真表示モードとして多機能撮影アプリケーションプログラム53を起動するためのボタンである。このように、代替の実施形態においては、ゲーム装置10は、第2起動操作を複数種類用意し、行われた第2起動操作の種類によって(多機能撮影アプリケーションプログラム53の)実行開始時のモードが異なるようにしてもよい。
 また、上記実施形態においては、簡易撮影プログラム52は、起動機能プログラム51とは異なるプログラムとし、起動機能プログラム51とは別に起動用プログラムによって起動されるものとした。ここで、代替の実施形態においては、簡易撮影プログラム52は、起動機能プログラム51の一部として構成されてもよい(つまり、起動用プログラム61において起動機能プログラム51と簡易撮影プログラム52とは1つのプログラムであってもよい)。また、代替の実施形態においては、起動機能プログラム51が簡易撮影プログラム52を起動するようにしてもよい。
 つまり、簡易撮影プログラム52と多機能撮影アプリケーションプログラム53とは、起動させるための指示(操作)が異なっていればよく、同じプログラムによって起動されてもよいし、異なるプログラムによって起動されてもよい。
 [7.多機能撮影アプリケーションにおける機能の詳細]
 <概要>
 上述したように、多機能撮影アプリケーションプログラム53が実行されることで、簡易撮影プログラム52が有さない多数の機能が提供される。以下、本実施の形態に従う多機能撮影アプリケーションプログラム53によって提供される典型的な2つの機能の詳細について以下説明する。
 <処理手順(第1形態)>
 図36は、ゲーム装置10における多機能撮影アプリケーションにおける撮影処理(その1)の流れを示すフローチャートである。なお、図36に示すステップSB1~SB11の処理ループは、(ステップSB8~SB10の処理が実行される場合を除き)所定時間(例えば1/60秒)に1回の割合で実行される。
 図36に示すステップSB1において、CPU31は、内側カメラ23または外側カメラ25によって撮像された画像のデータを取得する。本実施形態では、各カメラ23および25のいずれか一方のカメラにおいてのみ画像が撮像される。ステップSB1では、CPU31は、当該一方のカメラからのみ画像データを取得する。なお、本実施形態では、撮影処理の開始時においては、画像の撮像を行うカメラは外側カメラ25に設定される。ステップSB1の次にステップSB2の処理が実行される。
 上記ステップSB1によってカメラ23または25から取得された画像データは、下側LCD12に表示される。図37は、各LCD12および22に表示される画像の一例を示す図である。なお、図37においては、後述する入力画像生成処理においてユーザによって入力される画像がない場合における画像を示している。図37に示すように、CPU31は、カメラ23または25によって撮像されたリアルタイムの画像(撮像画像)52を下側LCD12に表示させる。なお、上側LCD22には、ユーザに操作の仕方を説明する画像252が表示される。また、本実施形態においては、CPU31は、撮像画像252とともに、各種ボタン画像253~261を下側LCD12に表示させる。各ボタン画像253~261は、その画像の位置に対してユーザがタッチ入力を行うことによって、ゲーム装置10に対する指示を行うための画像である。以下、各ボタン画像253~261について説明する。
 ペンモード画像253、消しゴムモード画像254、およびシールモード画像255は、編集モードを変更するための画像である。ここで、本実施形態では、ペンモード、シールモード、および消しゴムモードという3つのモードが予め用意される。ペンモードにおいては、タッチパネル13に対して入力された入力軌跡の画像を撮像画像に付加することができる。シールモードにおいては、予め用意されたシール画像を撮像画像に付加することができる。消しゴムモードにおいては、ペンモードまたはシールモードで付加された画像を消去することができる。ペンモード画像253は、編集モードをペンモードに変更する指示を行うための画像である。消しゴムモード画像254は、編集モードを消しゴムモードに変更する指示を行うための画像である。シールモード画像255は、編集モードをシールモードに変更する指示を行うための画像である。
 太さ変更画像256は、ペンモードにおいて入力される線の太さを変更する指示を行うための画像である。色変更画像257は、ペンモードにおいて入力される線の色を変更する指示を行うための画像である。全消去画像258は、ペンモードまたはシールモードで付加された画像を全て消去する指示を行うための画像である。
 上記各ボタン画像253~258を用いて指示を行うことによって、ユーザは、下側LCD12に表示される撮像画像の上に(撮像画像に重ねて)画像を入力することができる。入力画像を生成する処理(入力画像生成処理)の詳細については後述する。
 終了画像259は、撮影処理を終了する指示を行うための画像である。撮影指示画像260は、撮影指示を行うための画像である。本実施形態では、撮影指示とは、下側LCD12に表示されている画像(撮像画像に入力画像を重ねた画像)を保存(記録)する指示である。なお、撮影指示画像260は、ユーザが右手または左手のどちらの手で操作する場合にも操作しやすいように、下側ハウジング11の(左右方向に関して)略中央に表示されることが好ましい。したがって、仮に下側LCD12が下側ハウジング11の略中央に配置されていない場合、CPU31は、下側LCD12の画面中央ではなく、下側ハウジング11の略中央に配置されるように撮影指示画像260を表示することが好ましい。また、カメラ切替画像261は、カメラ切替指示を行うための画像である。カメラ切替指示とは、内側カメラおよび外側カメラ223および225のうちで、撮像を行うカメラを切替える指示である。
 ステップSB2において、CPU31は、各入力装置に対する入力を受け付ける。すなわち、操作ボタン群14から操作データを取得するとともに、タッチパネル13からタッチ位置データを取得する。取得された操作データおよびタッチ位置データは、メインメモリ32に記憶される。ステップSB2の次にステップSB3の処理が実行される。
 ステップSB3において、CPU31は、カメラ切替指示が行われたか否かを判定する。本実施形態では、カメラ切替指示は、所定のボタン(例えばボタン14B、ボタン14C、ボタン14D、またはボタン14E)を押下するか、または、カメラ切替画像261が表示されている領域をタッチする入力をタッチパネル13に対して行うことで行われる。したがって、ステップSB3の判定処理においては、CPU31は、上記所定のボタンが押下されたか、または、カメラ切替画像261が表示されている領域をタッチする入力が行われたかを判定する。なお、ステップSB3の判定は、ステップSB2でメインメモリ32に記憶された操作データおよびタッチ位置データを参照することによって行うことができる。ステップSB3の判定結果がYesの場合、ステップSB4の処理が実行される。一方、ステップSB3の判定結果がNoの場合、後述するステップSB5の処理が実行される。
 ステップSB4において、CPU31は、画像の撮像を行うカメラを切替える。すなわち、画像の撮像を行うカメラが内側カメラ23である場合には、画像の撮像を行うカメラを外側カメラ25に変更し、画像の撮像を行うカメラが外側カメラ25である場合には、画像の撮像を行うカメラを内側カメラ23に変更する。具体的には、CPU31は、各カメラ23および25のうちで画像の撮像を行っている一方のカメラに対して動作を停止する旨の指示を行うととともに、他方のカメラに対して撮像を行う旨の指示(撮像実行指示)を行う。上記ステップSB4の処理が実行された場合、次に行われるステップSB1では切替後のカメラで撮像された画像のデータがCPU31によって取得され、次に行われるステップSB6では切替後のカメラで撮像された画像(ライブ画像)が下側LCD12に表示されることになる。ステップSB4の後、ステップSB1の処理が再度実行される。
 ステップSB5においては、CPU31は、入力画像生成処理を行う。入力画像生成処理とは、ユーザによる入力によって上記入力画像を生成する処理である。以下、図38および図39を参照して、入力画像生成処理の詳細を説明する。
 図38は、図36に示す入力画像生成処理(ステップSB5)の流れを示すフローチャートである。入力画像生成処理においては、まずステップSB20において、CPU31は、入力画像の生成操作が行われたか否かを判定する。すなわち、タッチパネル13の入力面のうちで撮像画像が表示されている領域をタッチする入力が行われたかを判定する。ステップSB20の判定は、ステップSB2において取得されたタッチ位置データが、撮像画像が表示されている領域内の位置を示すか否かによって行うことができる。ステップSB20の判定結果がYesの場合、ステップSB21の処理が実行される。一方、ステップSB20の判定結果がNoの場合、後述するステップSB26の処理が実行される。
 ステップSB21において、CPU31は、現在の編集モードがペンモードであるか否かを判定する。なお、本実施形態では、編集処理の開始時には編集モードがペンモードに設定されているものとする。ステップSB21の判定結果がYesの場合、ステップSB22の処理が実行される。一方、ステップSB21の判定結果がNoの場合、後述するステップSB23の処理が実行される。
 ステップSB22においては、ペンモード時における処理が実行される。すなわち、CPU31は、撮像画像上において行われたタッチ入力の軌跡の画像を描画する。具体的には、ステップSB2において現在までに取得されたタッチ位置データにより示される各位置を結ぶ線の画像を、各LCD12および22に表示すべき画像データを格納するメモリ(フレームバッファ)に描画する。なお、描画される線の太さおよび色は、後述するステップSB29で設定される内容に従って決められる。ステップSB22の処理は、タッチパネル13に対してユーザが入力を行った位置の軌跡を表す画像を生成して描画する処理であればどのような処理であってもよい。このような処理の一例は、後述するステップSB52およびSB53に示される。図39は、ペンモード時において各LCD12および22に表示される画像の一例を示す図である。ステップSB22の処理が実行される場合、後述する表示処理(ステップSB6)において、下側LCD12に表示されている撮像画像に重ねて、ユーザが描いた軌跡を表す入力画像262が表示されることとなる(図39参照)。ステップSB22の次に、後述するステップSB26の処理が実行される。
 一方、ステップSB23において、CPU31は、現在の編集モードがシールモードであるか否かを判定する。ステップSB23の判定結果がYesの場合(すなわち、現在の編集モードがシールモードである場合)、ステップSB24の処理が実行される。一方、ステップSB23の判定結果がNoの場合(すなわち、現在の編集モードが消しゴムモードである場合)、後述するステップSB25の処理が実行される。
 ステップSB24においては、シールモード時における処理が実行される。すなわち、CPU31は、撮像画像上においてタッチ入力が行われた位置に所定のシール画像を描画する。具体的には、ステップSB2において取得されたタッチ位置データにより示される位置に所定のシール画像を描画する。なお、ステップSB24の処理は、タッチパネル13に対してユーザが入力を行った位置に所定のシール画像を生成して描画する処理であればどのような処理であってもよい。このような処理の一例は、後述するステップSB60およびSB61に示される。ステップSB24の処理が実行される場合、後述する表示処理(ステップSB6)において、下側LCD12に表示されている撮像画像に重ねて、所定のシール画像である入力画像が表示されることとなる。なお、CPU31は、シール画像を複数用意しておき、複数のシール画像の中から描画すべきシール画像をユーザに選択させるようにしてもよい。ステップSB24の次に、後述するステップSB26の処理が実行される。
 一方、ステップSB25においては、消しゴムモード時における処理が実行される。すなわち、CPU31は、タッチパネル13に対する入力に応じて、編集画像上の入力画像(軌跡の画像またはシール画像)を消去する。具体的には、ステップSB2において取得されたタッチ位置データにより示される位置に描画されている入力画像を消去する。ステップSB25の次に、ステップSB26の処理が実行される。
 ステップSB26において、CPU31は、入力画像を全て消去する指示が行われたか否かを判定する。具体的には、上記全消去画像258が表示されている領域をタッチする入力が行われたかを判定する。ステップSB26の判定結果がYesの場合、ステップSB27の処理が実行される。一方、ステップSB26の判定結果がNoの場合、ステップSB27の処理がスキップされて後述するステップSB28の処理が実行される。
 ステップSB27において、CPU31は、現在までに生成・描画された入力画像を全て消去する。このように、ユーザは、全消去画像258をタッチすることによって、入力画像を描く操作を最初からやり直すことができる。ステップSB27の次にステップSB28の処理が実行される。
 ステップSB28において、CPU31は、入力画像の生成操作に関する設定を変更する指示が行われたか否かを判定する。具体的には、上記各ボタン画像253~257が表示されている領域をタッチする入力が行われたかを判定する。ステップSB28の判定結果がYesの場合、ステップSB29の処理が実行される。一方、ステップSB28の判定結果がNoの場合、ステップSB28の処理がスキップされ、CPU31は入力画像生成処理を終了する。
 ステップSB29において、CPU31は、行われた指示に応じて設定を変更する。すなわち、各モード画像253~255のいずれかに対してタッチ入力が行われた場合には、CPU31は、タッチ入力が行われたモード画像に対応するモードに編集モードを移行する。また、太さ変更画像256に対してタッチ入力が行われた場合には、CPU31は、ペンモードにおいて生成される線(軌跡)の太さの設定を変更する。具体的には、CPU31は、太さの異なる線の画像を複数表示し、太さの異なる複数の線のうちからユーザに所望の太さの線を選択させ、選択された太さとなるように線の太さの設定を変更する。また、色変更画像257に対してタッチ入力が行われた場合には、CPU31は、ペンモードにおいて生成される線(軌跡)の色を変更する。具体的には、CPU31は、複数の色の画像を複数表示し、複数の色のうちからユーザに所望の色を選択させ、選択された色となるように線の色の設定を変更する。以上のステップSB29の終了後、CPU31は入力画像生成処理を終了する。
 以上のステップSB5によって、タッチパネルに対する入力に基づいてリアルタイムの画像(ライブ画像)に加えられる。すなわち、ユーザは、下側LCD12に表示される撮像画像の上に(撮像画像に重ねて)画像を入力することができる。なお、本実施形態では、撮像画像にユーザが描いた画像や予め用意されたシール画像を付加する処理を例として説明したが、代替の実施形態においては、CPU31は、リアルタイムの画像を変更する処理を行えばよく、撮像画像を歪ませる処理や、撮像画像内の人の顔の画像が含まれる場合において顔の表情を変える処理(画像認識処理によって顔の特徴点を検出し、当該特徴点の位置を変更する処理)や、ある線に関して線対称となる画像へと撮像画像を変換する処理等を実行してもよい。
 ステップSB20の説明に戻り、ステップSB5の次のステップSB6において、CPU31は、各LCD12および22に所定の画像を表示させる表示処理を実行する。具体的には、上側LCD22には、図37に示す画像252のように、ユーザに操作の仕方を説明する画像が表示される。下側LCD12には、ステップSB1で取得された撮像画像が表示されるとともに、各ボタン画像253~261が表示される(図37参照)。さらに、入力画像生成処理において入力画像が生成・描画されている場合には、撮像画像の上に入力画像が表示される(図39参照)。なお、本実施形態では、ステップSB1~SB6の処理が繰り返し実行されるので、撮像画像は毎回異なる画像となる。したがって、ユーザは、カメラ23または25によってリアルタイムで撮像される画像の上に入力画像を付加することができる。ステップSB6の次にステップSB7の処理が実行される。
 ステップSB7において、CPU31は、撮影指示が行われたか否かを判定する。本実施形態では、撮影指示は、所定のボタン(例えばボタン14Iまたはボタン14J)を押下するか、または、撮影指示画像260が表示されている領域をタッチする入力をタッチパネル13に対して行うことで行われる。なお、プログラム処理により所定のタイミングで自動的に撮影するようにしてもよい。したがって、ステップSB7の判定処理においては、CPU31は、上記所定のボタンが押下されたか、または、撮影指示画像260が表示されている領域をタッチする入力が行われたかを判定する。なお、ステップSB7の判定は、ステップSB2でメインメモリ32に記憶された操作データおよびタッチ位置データを参照することによって行うことができる。ステップSB7の判定結果がYesの場合、ステップSB8の処理が実行される。一方、ステップSB7の判定結果がNoの場合、後述するステップSB11の処理が実行される。
 ステップSB8において、CPU31は、下側LCD12に現在表示されている表示内容(撮像画像および入力画像)を固定(フリーズ)する。つまり、撮影指示が行われた時点におけるライブ画像である静止画(ステップSB5で表示された撮像画像および入力画像)が下側LCD12に継続して表示される。なお、静止画が表示される期間は、予め定められた所定期間であってもよいし、次にステップSB6の表示処理が実行されるまでの期間であってもよい。なお、代替の実施形態においては、ステップSB8の処理を実行しなくてもよい。すなわち、撮像指示に応じて静止画を下側LCD12に表示せず、下側LCD12にはライブ画像の動画を常に表示するようにしてもよい。ステップSB8の次にステップSB9の処理が実行される。
 ステップSB9において、CPU31は、下側LCD12に現在表示されている撮像画像および入力画像を保存する。すなわち、ステップSB5で表示された撮像画像および入力画像のデータが例えば保存用データメモリ34に記憶される。これによって、ユーザは、撮像画像および撮像画像上に付加された入力画像を保存することができる。なお、CPU31は、撮像画像と入力画像とを合成した画像のデータを保存してもよいし、撮像画像と入力画像とを対応付けた上で撮像画像の画像データと入力画像の画像データとを別々に保存してもよい。ステップSB9の次にステップSB10の処理が実行される。
 ステップSB10において、CPU31は、ステップSB9で保存された画像を上側LCD22に表示する。なお、上側LCD22に表示された画像は、再び撮影指示があり(ステップSB7で再びYesとなり)、別の保存画像がステップSB10で表示されるまで、継続して表示される。なお、変形例としては、上側LCD22に表示された画像は、予め定められた所定期間だけ表示されてもよいし、次にステップSB6の表示処理が実行されるまで表示されてもよい。また、保存された画像の表示が終了した後は、ユーザに操作の仕方を説明する画像(図37を参照して前述したような、操作説明画像)を上側LCD22に表示してもよい。また、本実施形態においては、ステップSB9で保存処理を実行した後でステップSB10で表示処理を実行することとしたが、保存処理と表示処理の順番はいずれが先であってもよい。つまり、CPU31は、撮影指示によって保存される画像を、当該撮影指示が行われたことに応じて上側LCD22に表示すればよく、撮影指示によって保存された画像を表示することに限らず、撮影指示によって保存される予定の画像を表示してもよい。ステップSB10の次にステップSB11の処理が実行される。
 図40は、ステップSB10が実行された場合における、各LCD12および22に表示される画像の一例を示す図である。図40に示すように、本実施形態においては、撮影指示(撮影操作)が行われたことに応じて、当該撮影指示によって保存される画像263が上側LCD22に表示される(ステップSB10)。これによって、カメラ23または25の撮影方向に対応した表示方向(撮影方向に一致する方向、あるいは、撮影方向の反対方向)を向く表示画面である上側LCD22に撮影結果の画像を表示することができる。上側LCD22に撮影結果の画像を表示することで、撮影方向が分かりやすいように撮像結果の画像をユーザに提示することができる。本実施形態では、カメラ23または25によって撮像されるリアルタイムの画像は、カメラ23または25の撮影方向に表示方向が対応しない下側LCD12に表示されるので、撮影方向が分かりやすいように撮像結果の画像をユーザに提示することが特に有効である。
 なお、本実施形態では、撮影指示が行われる前における編集結果は、撮影指示後(画像が保存された後)も維持される。すなわち、図40に示されるように、撮影指示前に入力された入力画像262は、撮影指示後も下側LCD12においてライブ画像に重ねて表示される。なお、代替の実施形態においては、撮影指示が行われる前における編集結果は、撮影指示に応じて消去され、撮影指示後においては下側LCD12にはライブ画像のみが表示されるようにしてもよい。
 なお、代替の実施形態においては、撮影指示が行われたことに応じたタイミングに限らず、任意のタイミングで上側LCD22に撮影結果の画像(保存されている画像)を表示するようにしてもよい。例えば、CPU31は、ユーザが画像の閲覧指示を行ったことに応じて撮影結果の画像(1枚でも複数枚でもよい)を上側LCD22に表示してもよいし、操作の仕方を説明する画像に代えて、撮影結果の画像を上側LCD22に常に表示してもよい。
 ステップSB11において、CPU31は、編集処理を終了するか否かを判定する。この判定は、ユーザによって編集処理を終了する指示が行われたか否かによって行われる。具体的には、ステップSB11の判定は、下側LCD12に表示される、終了画像259の領域に対してタッチ入力が行われたか否かによって行われる。ステップSB11の判定結果がNoの場合、CPU31はステップSB1の処理を再度実行する。以降、ステップSB11において撮影処理を終了すると判定されるまで、ステップSB1~SB11の処理ループが繰り返し実行される。一方、ステップSB11の判定結果がYesの場合、CPU31は、図36に示す撮影処理を終了する。
 以上に説明した撮影処理によって、ユーザは、撮影指示を行うことに応じて、カメラで撮像されている画像を保存することができる。ここで、本実施形態では、2つの表示装置を有する構成とし、一方の表示装置に現在撮影中の画像を表示するとともに、他方に、操作を説明するための画面を表示する。これによって、ユーザは、現在の撮像画像に加えて、操作を説明するための画面を見ながら撮影操作を行うことができるので、使いやすいゲーム装置10を提供することができる。さらに、本実施形態では、下側LCD12にタッチパネル13を設ける構成とすることによって、操作をより行いやすくしている。
 また、本実施形態では、ユーザは、ボタン14Iまたはボタン14Jを押下することによって撮影指示を行うことができる。ボタン14Iまたはボタン14Jをシャッターボタンとして用いることで、ユーザは、下側ハウジング11を両手で把持したままシャッターボタンを押下することができるので、撮影操作を行いやすくなる。なお、代替の実施形態においては、ボタン14B~14Eのいくつかをシャッターボタンとして用いてもよい。この場合でも本実施形態と同様、ユーザは、下側ハウジング11を両手で把持したままシャッターボタンを押下することができる。また、方向入力ボタンAのいくつかのボタン(例えば1つの方向入力;例えば左入力)およびボタン14B~Eのうちの1つのボタン(例えばボタン14D)の両方にシャッターボタンの機能を持たせるようにしてもよい。そのようにすれば、左利きのユーザも右利きのユーザもシャッターボタンを容易に操作することができる。
 <処理手順(第2形態)>
 上記の処理手順(第1形態)では、撮影処理において、リアルタイムで取得される画像に対してユーザが入力画像を付加する場合を例として説明したが、撮影処理においては、ゲーム装置10によって撮像された画像(静止画)に対してユーザが入力画像を付加するようにしてもよい。以下、図41~図45を参照して、撮影処理の第2形態を説明する。
 図41は、ゲーム装置10における多機能撮影アプリケーションにおける撮影処理(その2)の流れを示すフローチャートである。電源ボタン14Fが押下されることによってゲーム装置10の電源が投入されると、ゲーム装置10のCPU31は、メインメモリ32等の初期化を行った後、図41に示す撮影処理を行うためのプログラムの実行を開始する。なお、図41に示すステップSB31~SB44の処理ループは、編集処理(ステップSB43)が実行される間を除き、所定時間(例えば1/60秒)に1回の割合で実行される。
 図41に示すステップSB31において、CPU31は、内側カメラ23または外側カメラ25によって撮像された画像のデータを取得する。本第2形態では、各カメラ23および25のいずれか一方のカメラにおいてのみ画像が撮像される。ステップSB31では、CPU31は、当該一方のカメラからのみ画像データを取得する。なお、本変形例では、撮影処理の開始時においては、画像の撮像を行うカメラは外側カメラ25に設定される。ステップSB31の次にステップSB32の処理が実行される。
 ステップSB32において、CPU31は、各LCD12および22に所定の画像を表示させる表示処理を実行する。図42は、ステップSB32において各LCD12および22に表示される画像の一例を示す図である。図42に示すように、CPU31は、カメラ23または25によって撮像されたリアルタイムの画像(撮像画像)51を上側LCD22に表示させる。すなわち、ステップSB31で取得した画像データを上側LCD22に出力する。また、本変形例では、撮像画像271に重ねて、現在の日付を示す画像272が上側LCD22に表示される。
 なお、本変形例では、メインメモリ32には、上側LCD22に表示される撮像画像の倍率を示す倍率データが記憶される。ステップSB32においては、この倍率データにより示される倍率で撮像画像が上側LCD22に表示される。すなわち、CPU31は、撮像画像のうちで表示すべき範囲を上記倍率に従って決定し、決定した範囲の画像を、上側LCD22のサイズに合わせて必要に応じて拡大してから上側LCD22に表示する。なお、撮影処理の開始時においては、倍率データは、予め定められた所定の倍率(例えば、撮像画像の全体が上側LCD22に表示されるような倍率(1倍))を示すように設定される。倍率データの内容は、後述するズーム変更指示が行われた場合に変更される。したがって、撮像画像が拡大されて上側LCD22にされる場合には、撮像画像の全体でなく一部のみが表示されることがある。
 一方、CPU31は、ゲーム装置10を操作するための操作画面を下側LCD12に表示させる。図42に示すように、ステップSB32で表示される操作画面には、保存画像273A~273Dと、タッチパネル13を用いてゲーム装置10に対する各種指示を行うための指示画像274~278とが含まれる。
 保存画像273A~273Dは、ゲーム装置10によって過去に撮影されてゲーム装置10(またはメモリカード28でもよい)に保存されている画像(保存画像と称す)である。本変形例では、保存画像のうち所定数(図42では4枚)の画像が下側LCD12に表示される。なお、メインメモリ32には、下側LCD12に表示される保存画像(表示保存画像)を示すデータが表示保存画像データとして記憶されている。表示保存画像データとは、例えば、保存画像に付されたIDを示すデータである。また、図42では、保存画像273A~273Dは、撮影された日付(および日時)の順に並べて表示される。ここでは、最も左の保存画像273Aが最も古い時期に撮影された画像であり、左から2番目の保存画像273B、右から2番目の保存画像273C、最も右の保存画像273Dの順に撮影時期が新しくなっている。本変形例では、保存画像を編集する編集処理を行う旨の指示(編集指示)は、表示されている保存画像273A~273Dをタッチする入力をタッチパネル13に対して行うことによって行うことができる。
 また、下側LCD12には上記指示画像として、撮影指示画像274、カメラ切替画像275、ズームバー276、ズームカーソル277、ならびに、表示変更画像278Aおよび278Bが表示される。撮影指示画像274は、タッチパネル13を用いて撮影指示を行うための画像である。撮影指示とは、ゲーム装置10のカメラ23または25に撮影を行わせる指示である。カメラ切替画像275は、タッチパネル13を用いてカメラ切替指示を行うための画像である。カメラ切替指示とは、内側カメラ23および外側カメラ25のうちで、撮像を行うカメラを切替える指示である。ズームバー76およびズームカーソル277は、タッチパネル13を用いてズーム変更指示を行うための画像である。ズーム変更指示は、上側LCD22に表示される撮像画像を拡大/縮小する指示である。表示変更画像278Aおよび278Bは、表示変更指示を行うための画像である。表示変更指示とは、ゲーム装置10に保存されている保存画像のうち、保存画像273A~273Dとして下側LCD12に表示する保存画像を変更する指示である。これらの各指示の操作方法、および、当該各指示に従ってゲーム装置10が実行する処理については後述する。
 図41の説明に戻り、ステップSB32の次にステップSB33の処理が実行される。ステップSB33において、CPU31は、各入力装置に対する入力を受け付ける。すなわち、操作ボタン群14から操作データを取得するとともに、タッチパネル13からタッチ位置データを取得する。取得された操作データおよびタッチ位置データは、メインメモリ32に記憶される。ステップSB33の次にステップSB34の処理が実行される。
 ステップSB34において、CPU31は、撮影指示が行われたか否かを判定する。本変形例では、撮影指示は、所定のボタン(例えばボタン14Iまたはボタン14J)を押下するか、または、撮影指示画像274が表示されている領域をタッチする入力をタッチパネル13に対して行うことで行われる。したがって、ステップSB34の判定処理においては、CPU31は、上記所定のボタンが押下されたか、または、撮影指示画像274が表示されている領域をタッチする入力が行われたかを判定する。なお、ステップSB34の判定は、ステップSB33でメインメモリ32に記憶された操作データおよびタッチ位置データを参照することによって行うことができる。ステップSB34の判定結果がYesの場合、ステップSB35の処理が実行される。一方、ステップSB34の判定結果がNoの場合、後述するステップSB36の処理が実行される。
 ステップSB35において、CPU31は、撮影処理を行う、すなわち、ステップSB31でカメラから取得した画像のデータを保存用データメモリ34に記憶(保存)する。なお、代替の実施形態においては、CPU31は、ステップSB31でカメラから取得された画像データを各LCD12および22のいずれかに表示させ、当該画像データを保存するか否かをユーザに確認するようにしてもよい。そして、ユーザが画像データを保存する旨の指示を行った場合にのみ、当該画像データを保存用データメモリ34に記憶(保存)するようにしてもよい。また、代替の実施形態においては、CPU31は、撮像した画像のデータをメモリカード28に記憶するようにしてもよいし、装置本体(保存用データメモリ34)に記憶するかメモリカード28に記憶するかをユーザに指定させるようにしてもよい。ステップSB35の後、後述するステップSB42の処理が実行される。
 一方、ステップSB36において、CPU31は、カメラ切替指示が行われたか否かを判定する。本変形例では、カメラ切替指示は、所定のボタン(例えばボタン14B、ボタン14C、ボタン14D、またはボタン14E)を押下するか、または、カメラ切替画像275が表示されている領域をタッチする入力をタッチパネル13に対して行うことで行われる。したがって、ステップSB36の判定処理においては、CPU31は、上記所定のボタンが押下されたか、または、カメラ切替画像275が表示されている領域をタッチする入力が行われたかを判定する。なお、ステップSB36の判定は、ステップSB33でメインメモリ32に記憶された操作データおよびタッチ位置データを参照することによって行うことができる。ステップSB36の判定結果がYesの場合、ステップSB37の処理が実行される。一方、ステップSB36の判定結果がNoの場合、後述するステップSB38の処理が実行される。
 ステップSB37において、CPU31は、画像の撮像を行うカメラを切替える。すなわち、画像の撮像を行うカメラが内側カメラ23である場合には、画像の撮像を行うカメラを外側カメラ25に変更し、画像の撮像を行うカメラが外側カメラ25である場合には、画像の撮像を行うカメラを内側カメラ23に変更する。具体的には、CPU31は、各カメラ23および25のうちで画像の撮像を行っている一方のカメラに対して動作を停止する旨の指示を行うととともに、他方のカメラに対して撮像を行う旨の指示(撮像実行指示)を行う。上記ステップSB37の処理が実行された場合、次に行われるステップSB31では切替後のカメラで撮像された画像のデータがCPU31によって取得され、次に行われるステップSB32では切替後のカメラで撮像された画像が上側LCD22に表示されることになる。ステップSB37の後、後述するステップSB42の処理が実行される。
 一方、ステップSB38において、CPU31は、ズーム変更指示が行われたか否かを判定する。本変形例では、ズーム変更指示は、所定のボタン(例えば方向入力ボタン14Aの上ボタンまたは下ボタン)またはタッチパネル13に対する入力によって、ズームカーソル277をズームバー276上で上下に移動させることで行われる。具体的には、ズームカーソル277は、方向入力ボタン14Aの上ボタンが押下されることに応じて所定距離だけ上に移動し、方向入力ボタン14Aの下ボタンが押下されることに応じて所定距離だけ下に移動する。また、ユーザは、ズームカーソル277が表示されている画面領域をまずタッチし、タッチしたままタッチ位置を上下にずらす操作をタッチパネル13に対して行うことで、ズームカーソル277を上下に動かすことができる。したがって、ステップSB38の判定処理においては、CPU31は、上記所定のボタンが押下されたか、または、ズームカーソル277を移動させる操作がタッチパネル13に対して行われたかを判定する。なお、ステップSB38の判定は、ステップSB33でメインメモリ32に記憶された操作データおよびタッチ位置データを参照することによって行うことができる。ステップSB38の判定結果がYesの場合、ステップSB39の処理が実行される。一方、ステップSB38の判定結果がNoの場合、後述するステップSB40の処理が実行される。
 ステップSB39において、CPU31は、上側LCD22に表示される撮像画像をズーム変更指示に従って拡大/縮小する。すなわち、ズームカーソル277を上に動かす指示が行われた場合には、メインメモリ32に記憶されている倍率データの内容を、倍率が小さくなるように変更する。これによって、次に行われるステップSB32では、撮像画像が前回のステップSB32に比べて縮小されて表示されることになる。一方、ズームカーソル277を下に動かす指示が行われた場合には、メインメモリ32に記憶されている倍率データの内容を、倍率が大きくなるように変更する。これによって、次に行われるステップSB32では、撮像画像が前回のステップSB32に比べて拡大されて表示されることになる。ステップSB39の後、後述するステップSB42の処理が実行される。
 一方、ステップSB40において、CPU31は、表示変更指示が行われたか否かを判定する。本変形例では、表示変更指示は、所定のボタン(例えば方向入力ボタン14Aの左ボタンまたは右ボタン)を押下するか、または、表示変更画像278Aが表示されている領域および表示変更画像278Bが表示されている領域のいずれかをタッチする入力をタッチパネル13に対して行うことで行われる。したがって、ステップSB40の判定処理においては、CPU31は、上記所定のボタンが押下されたか、または、表示変更画像278Aが表示されている領域および表示変更画像278Bのいずれかをタッチする入力が行われたかを判定する。なお、ステップSB40の判定は、ステップSB33でメインメモリ32に記憶された操作データおよびタッチ位置データを参照することによって行うことができる。ステップSB40の判定結果がYesの場合、ステップSB41の処理が実行される。一方、ステップSB40の判定結果がNoの場合、後述するステップSB42の処理が実行される。
 ステップSB41においては、CPU31は、保存画像のうちで、下側LCD12に表示される保存画像(表示保存画像)を変更する。具体的には、方向入力ボタン14Aの右ボタンが押下されるか、または、表示変更画像278Bがタッチされた場合、表示保存画像は、新しい方に画像1つ分ずらされる。すなわち、現在の4つの表示保存画像のうちで最も古い時期に撮影された画像が表示保存画像から削除される。さらに、現在の4つの表示保存画像のうちで最も新しい時期に撮影された画像の次に撮影された保存画像が、新たな表示保存画像として追加される。一方、方向入力ボタン14Aの左ボタンが押下されるか、または、表示変更画像278Aがタッチされた場合、表示保存画像は、古い方に画像1つ分ずらされる。すなわち、現在の4つの表示保存画像のうちで最も新しい時期に撮影された画像が表示保存画像から削除される。さらに、現在の4つの表示保存画像のうちで最も古い時期に撮影された画像の1つ前に撮影された保存画像が、新たな表示保存画像として追加される。メインメモリ32には、ステップSB40による変更後の表示保存画像を示すデータが、新たな表示保存画像データとして記憶される。ステップSB41の後、後述するステップSB42の処理が実行される。
 ステップSB42において、CPU31は、編集指示が行われたか否かを判定する。本変形例では、編集指示は、表示されている保存画像273A~273Dのうちで、編集を行いたい保存画像の表示領域をタッチする入力をタッチパネル13に対して行うことで行われる。したがって、ステップSB42の判定処理においては、CPU31は、保存画像273A~273Dが表示されている領域のいずれかをタッチする入力が行われたかを判定する。なお、ステップSB42の判定は、ステップSB33でメインメモリ32に記憶された操作データおよびタッチ位置データを参照することによって行うことができる。ステップSB42の判定結果がYesの場合、ステップSB43の処理が実行される。一方、ステップSB42の判定結果がNoの場合、後述するステップSB44の処理が実行される。
 ステップSB43において、CPU31は、編集処理を実行する。編集処理とは、保存画像に対して編集するための処理である。以下では、編集の対象となる保存画像を編集画像と称す。以下、図43~図45を参照して、編集処理の詳細を説明する。
 図43は、図41に示す編集処理(ステップSB43)の流れを示すフローチャートである。編集処理においては、まずステップSB51において、CPU31は、現在の編集モードがペンモードであるか否かを判定する。ここで、本変形例では、編集処理においては、ペンモード、シールモード、および消しゴムモードという3つのモードが予め用意される。ペンモードにおいては、タッチパネル13に対して入力された入力軌跡の画像を編集画像に付加することができる。シールモードにおいては、予め用意されたシール画像を編集画像に付加することができる。消しゴムモードにおいては、ペンモードまたはシールモードで付加された画像を消去することができる。なお、本変形例では、編集処理の開始時には編集モードがペンモードに設定されているものとする。ステップSB51の判定結果がYesの場合、ステップSB52の処理が実行される。一方、ステップSB51の判定結果がNoの場合、後述するステップSB58の処理が実行される。
 ステップSB52~SB57においては、ペンモード時における処理が実行される。図44は、編集処理のペンモード時において各LCD12および22に表示される画像の一例を示す図である。図44に示すように、編集処理中において下側LCD12には、編集を行うための操作画面(編集画面)が表示される。具体的には、下側LCD12には、編集画像281の一部または全部が表示される。編集画像281は、編集の対象となる保存画像、すなわち、図42に示す保存画像273A~273Dのうちでタッチ入力により指定された保存画像である。また、下側LCD12には、各種操作を行うための画像284~290が表示される。これらの画像284~290を用いた操作の詳細は後述する。一方、編集処理中において上側LCD22には、図44に示すように、編集画像281の全体が表示される。なお、図44に示す点線領域282は、編集画像281のうちで、下側LCD12に表示される領域を示している。このような点線領域282の画像は上側LCD22に表示されてもよいし、されなくてもよい。なお、編集処理中においてはカメラ23または25によって撮像されたリアルタイムの画像は表示されないので、CPU31は、各カメラ23および25に撮像動作を行わないように指示してもよい。以下、図44を参照して、ペンモード時における処理(ステップSB52~SB57)の詳細を説明する。
 ステップSB52において、CPU31は、タッチパネル13に対する入力を受け付ける。すなわち、タッチパネル13からタッチ位置データを取得する。取得されたタッチ位置データはメインメモリ32に記憶される。ステップSB52の次にステップSB53の処理が実行される。
 ステップSB53において、CPU31は、タッチパネル13に対する入力に応じて、入力軌跡83の画像を表示する。すなわち、編集画像281の領域に対してタッチパネル13によるタッチ入力が行われた場合、入力軌跡283の画像を表示する。入力軌跡283は、タッチパネル13によるタッチ入力が行われた位置の軌跡を示す画像である。具体的には、ステップSB52において取得されたタッチ位置データが、編集画像281が表示される領域内の位置を示す場合、CPU31は、編集画像281の当該位置に入力軌跡283の画像を追加する。そして、画像が追加された編集画像281を各LCD12および22に表示する。なお、ペンモード中においてはステップSB51~SB56の処理ループが所定時間(1フレーム時間(1/60秒))に1回の割合で繰り返されるので、ステップSB52およびSB53の処理がペンモード中において繰り返される。したがって、ユーザがタッチパネル13に対して軌跡を描くように連続して入力を行った場合には、当該軌跡を示すように入力軌跡283の画像が生成されて表示されることになる。なお、ステップSB53における入力軌跡283の生成・表示処理は、編集画像281の領域に対してタッチ入力が行われた場合にのみ実行され、タッチ入力が行われていない場合、および、編集画像281以外の領域に対してタッチ入力が行われた場合には実行されない。ステップSB53の次にステップSB54の処理が実行される。
 ステップSB54において、CPU31は、下側LCD12に表示される編集画像281の拡大・縮小処理を行う。この拡大・縮小処理は、倍率変更指示が行われた場合、すなわち、下側LCD12に表示される倍率変更指示画像289の領域に対してタッチパネル13による入力が行われた場合に実行される。なお、倍率変更指示画像289は、下側LCD12に表示される編集画像281を拡大・縮小する指示を行うための画像である。ステップSB54において、CPU31は、ステップSB52において取得されたタッチ位置データが、倍率変更指示画像289が表示される領域内の位置を示す場合、下側LCD12に表示される編集画像281を表示する倍率を切替える。本変形例では、編集画像281を表示する倍率は例えば3段階であり、CPU31は、倍率変更指示が行われる度に、倍率小、倍率中、倍率大の順に倍率を変更する。また、倍率大の場合に倍率変更指示が行われた場合には、倍率小に倍率を変更する。以上によって、ユーザによって倍率変更指示が行われた場合には、下側LCD12に表示される編集画像281の倍率が変更される。なお、ステップSB54における倍率の変更処理は、倍率変更指示画像289の領域に対してタッチ入力が行われた場合にのみ実行され、タッチパネル13に対する入力が行われていない場合、および、倍率変更指示画像289以外の領域に対してタッチ入力が行われた場合には実行されない。ステップSB54の次にステップSB55の処理が実行される。
 ステップSB55において、CPU31は、下側LCD12に表示される編集画像281の移動処理を行う。この移動処理は、移動指示が行われた場合、すなわち、下側LCD12に表示される移動指示画像290の領域に対してタッチ入力が行われた場合に実行される。移動指示画像290は、下側LCD12に表示される編集画像281を移動(スクロール)する指示を行うための画像である。ステップSB55において、CPU31は、ステップSB52において取得されたタッチ位置データが、移動指示画像290が表示される領域内の位置を示す場合、下側LCD12に表示される編集画像281をスクロールさせて表示する。本変形例では、図44に示すように、移動指示画像290には上下左右の4方向を示す画像(図44では3角形の画像)が含まれている。CPU31は、当該画像のいずれかの領域に対してタッチ入力が行われた場合、タッチ入力が行われた画像に対応する方向に編集画像281をスクロールさせる。なお、ステップSB55における移動処理は、移動指示画像290の領域に対してタッチ入力が行われた場合にのみ実行され、タッチパネル13に対する入力が行われていない場合、および、移動指示画像290以外の領域に対してタッチ入力が行われた場合には実行されない。ステップSB55の次にステップSB56の処理が実行される。
 ステップSB56において、CPU31は、編集モードを変更するか否かを判定する。この判定は、ユーザによってモード変更指示が行われたか否かによって行われる。具体的には、ステップSB56の判定は、下側LCD12に表示される、ペンモード画像284、消しゴムモード画像285、シールモード画像286のいずれかの領域に対してタッチ入力が行われたか否かによって行われる。なお、ペンモード画像284は、編集モードをペンモードに変更する指示を行うための画像である。消しゴムモード画像285は、編集モードを消しゴムモードに変更する指示を行うための画像である。シールモード画像286は、編集モードをシールモードに変更する指示を行うための画像である。ステップSB56において、CPU31は、ステップSB52において取得されたタッチ位置データにより示される位置が、ペンモード画像284、消しゴムモード画像285、シールモード画像286のいずれかが表示される領域内の位置である場合、判定結果がYesであると判断する。そして、編集モードを、当該入力が行われた画像に対応するモードに変更する。一方、タッチ位置データにより示される位置が、ペンモード画像284、消しゴムモード画像285、シールモード画像286のいずれかが表示される領域内の位置でない場合、判定結果がNoであると判断する。この場合、編集モードは変更されない。ステップSB56の判定結果がYesの場合、ステップSB51の処理が再度実行される。一方、ステップSB56の判定結果がNoの場合、ステップSB57の処理が実行される。
 ステップSB57においては、CPU31は、編集処理を終了するか否かを判定する。この判定は、ユーザによって編集処理を終了する指示が行われたか否かによって行われる。具体的には、ステップSB57の判定は、下側LCD12に表示される、中止指示画像287および完了指示画像288のいずれかの領域に対してタッチ入力が行われたか否かによって行われる。なお、中止指示画像287は、編集処理を中止する指示を行うための画像である。完了指示画像288は、編集処理を完了する指示を行うための画像である。ステップSB57において、CPU31は、ステップSB52において取得されたタッチ位置データにより示される位置が、中止指示画像287および完了指示画像288のいずれかが表示される領域内の位置である場合、判定結果がYesであると判断する。一方、タッチ位置データにより示される位置が、中止指示画像287および完了指示画像288のいずれかが表示される領域内の位置でない場合、判定結果がNoであると判断する。ステップSB57の判定結果がYesの場合、後述するステップSB72の処理が実行される。一方、ステップSB57の判定結果がNoの場合、ステップSB52の処理が再度実行される。
 以上のように、ペンモード時の処理(ステップSB52~SB57)は、ステップSB56の判定結果がYesとなるか、または、ステップSB57の判定結果がNoとなるまで繰り返される。また、ペンモード中においてユーザがタッチパネル13に対して軌跡を入力することによって、入力軌跡283の画像が編集画像に付加される(図44参照)。
 一方、ステップSB58において、CPU31は、現在の編集モードがシールモードであるか否かを判定する。ステップSB58の判定結果がYesの場合(すなわち、現在の編集モードがシールモードである場合)、ステップSB59の処理が実行される。一方、ステップSB58の判定結果がNoの場合(すなわち、現在の編集モードが消しゴムモードである場合)、後述するステップSB66の処理が実行される。
 ステップSB59~SB65においては、シールモード時における処理が実行される。図45は、編集処理のシールモード時において各LCD12および22に表示される画像の一例を示す図である。図45に示すように、シールモード時においてもペンモード時と同様、各LCD12および22に編集画像281が表示され、下側LCD12には各種操作を行うための画像264~270が表示される。以下、図45を参照して、シールモード時における処理(ステップSB59~SB65)の詳細を説明する。
 ステップSB59において、CPU31は、編集画像281に付加すべきシール画像を選択する。シール画像の選択は、メインメモリ32、保存用データメモリ34、またはメモリカード28に予め記憶されているシール画像のうちから、ユーザが所望のシール画像を指定することにより行われる。ステップSB59によってシール画像が選択されると、選択されたシール画像が編集画像281の所定位置(例えば中央の位置)に付加される。これによって、各LCD12および22には編集画像281にシール画像291が付加されて表示される(図45)。以上のステップSB59の次にステップSB60の処理が実行される。
 ステップSB60において、CPU31は、タッチパネル13に対する入力を受け付ける。ステップSB60の処理は、上記ステップSB52の処理と同じである。続くステップSB61において、CPU31は、タッチパネル13に対する入力に応じて、編集画像281上のシール画像291を移動させる。シール画像291の移動操作は、前述したズーム変更指示(ステップSB38)と同様の操作によって行われる。すなわち、ユーザは、シール画像291が表示されている領域をまずタッチし、タッチしたままタッチ位置をずらす操作をタッチパネル13に対して行うことで、シール画像291を移動させることができる。なお、CPU31は、ステップSB60でメインメモリ32に記憶されたタッチ位置データを参照することによってシール画像291の移動操作を検出することができる。なお、ステップSB61におけるシール画像291の移動処理は、上記のシール画像291を移動する操作が行われた場合にのみ実行され、タッチパネル13に対する入力が行われていない場合、および、当該操作以外の操作が行われた場合には実行されない。ステップSB61の次にステップSB62の処理が実行される。
 ステップSB62において、CPU31は、下側LCD12に表示される編集画像281の拡大・縮小処理を行う。ステップSB62の処理は、上記ステップSB54の処理と同じである。なお、シールモードにおいて、下側LCD12に表示される編集画像281の倍率が変更された場合、シール画像291も編集画像281の拡大・縮小に伴って拡大・縮小し、編集画像281のサイズとシール画像291のサイズとの比率は変化しない。続くステップSB63において、CPU31は、下側LCD12に表示される編集画像281の移動処理を行う。ステップSB63の処理は、上記ステップSB55の処理と同じである。ステップSB63の次にステップSB64の処理が実行される。
 ステップSB64において、CPU31は、編集モードを変更するか否かを判定する。ステップSB64の処理は、上記ステップSB56の処理と同じである。ステップSB64の判定結果がYesの場合、ステップSB51の処理が再度実行される。一方、ステップSB64の判定結果がNoの場合、ステップSB65の処理が実行される。
 ステップSB65においては、CPU31は、編集処理を終了するか否かを判定する。ステップSB65の処理は、上記ステップSB57の処理と同じである。ステップSB65の判定結果がYesの場合、後述するステップSB72の処理が実行される。一方、ステップSB65の判定結果がNoの場合、ステップSB60の処理が再度実行される。
 以上のように、シールモード時の処理(ステップSB60~SB65)は、ステップSB64の判定結果がYesとなるか、または、ステップSB65の判定結果がNoとなるまで繰り返される。また、シールモード中においてはシール画像291が編集画像281に付加され、ユーザは、タッチパネル13に対する入力によってシール画像を所望の位置に配置させることができる。
 一方、ステップSB58の判定結果がNoである場合、すなわち、現在の編集モードが消しゴムモードである場合には、ステップSB66~SB71の処理が実行される。消しゴムモードにおいてもペンモードおよびシールモード時と同様、各LCD12および22に編集画像281が表示され、下側LCD12には各種操作を行うための画像264~270が表示される。また、消しゴムモードにおいては、編集処理が開始されてから消しゴムモードに移行するまでの間に付加された入力軌跡283およびシール画像291が、編集画像281とともに各LCD12および22に表示される。
 ステップSB66において、CPU31は、タッチパネル13に対する入力を受け付ける。ステップSB66の処理は、上記ステップSB52の処理と同じである。続くステップSB67において、CPU31は、タッチパネル13に対する入力に応じて、編集画像281上の入力軌跡283の画像またはシール画像291を消去する。具体的には、ステップSB66において取得されたタッチ位置データが、編集画像281に付加された入力軌跡283またはシール画像291が表示される領域内の位置を示す場合、CPU31は、編集画像281の当該位置に付加されている画像を消去する。そして、画像が消去された編集画像281を各LCD12および22に表示する。なお、ステップSB67における画像の消去処理は、入力軌跡283またはシール画像291の領域に対してタッチ入力が行われた場合にのみ実行され、タッチパネル13に対する入力が行われていない場合、および、入力軌跡283およびシール画像291以外の領域に対してタッチ入力が行われた場合には実行されない。ステップSB67の次にステップSB68の処理が実行される。
 CPU31は、ステップSB68において、下側LCD12に表示される編集画像281の拡大・縮小処理を行い、ステップSB69において、当該編集画像281の移動処理を行う。ステップSB68およびSB69の処理は、上記ステップSB54およびSB55の処理と同じである。
 続くステップSB70において、CPU31は、編集モードを変更するか否かを判定する。ステップSB70の処理は、上記ステップSB56の処理と同じである。ステップSB70の判定結果がYesの場合、ステップSB51の処理が再度実行される。一方、ステップSB70の判定結果がNoの場合、ステップSB71の処理が実行される。
 ステップSB71においては、CPU31は、編集処理を終了するか否かを判定する。ステップSB71の処理は、上記ステップSB57の処理と同じである。ステップSB71の判定結果がYesの場合、ステップSB72の処理が実行される。一方、ステップSB71の判定結果がNoの場合、ステップSB66の処理が再度実行される。
 以上のように、消しゴムモード時の処理(ステップSB66~SB71)は、ステップSB640の判定結果がYesとなるか、または、ステップSB71の判定結果がNoとなるまで繰り返される。また、消しゴムモード中においては入力軌跡283の画像およびシール画像291が、タッチパネル13に対する入力に応じて消去される。
 上記ステップSB57,SB65,またはSB71において編集処理を終了すると判定された場合、ステップSB72の処理が実行される。ステップSB72においては、CPU31は、編集処理によって編集された編集画像281を保存するか否かを判定する。この判定は、ステップSB52,SB60,またはSB66で取得されたタッチ位置データに基づき、中止指示画像287および完了指示画像288のいずれの領域に対してタッチ入力が行われたか否かによって行われる。すなわち、中止指示画像287の領域に対してタッチ入力が行われた場合、CPU31は、編集処理を中止する、すなわち、編集画像を保存しないと判断する。一方、完了指示画像288の領域に対してタッチ入力が行われた場合、CPU31は、編集処理を完了する、すなわち、編集画像を保存すると判断する。ステップSB72の判定結果がYesの場合、ステップSB73の処理が実行される。一方、ステップSB72の判定結果がNoの場合、CPU31は、ステップSB73の処理をスキップして図43に示す編集処理を終了する。
 ステップSB73において、CPU31は、編集画像281を保存用データメモリ34に保存(記憶)する。なお、編集画像281は、編集処理前の保存画像に対して上書きして保存されてもよいし、編集処理前の保存画像とは別に保存されてもよいし、上書きして保存するか別に保存するかをユーザに選択させるようにしてもよい。また、編集画像281の保存先は、保存用データメモリ34に代えてメモリカード28であってもよい。ステップSB73の後、CPU31は、図43に示す編集処理を終了する。
 以上に説明した編集処理によれば、ユーザは、タッチパネル13に対して軌跡を描く入力を行うことによって、編集画像に対して文字や絵を付加することができる。また、シール画像を編集画像上の所望の位置に付加することができる。
 図41の説明に戻り、上記編集処理(ステップSB43)の次に、ステップSB44の処理が実行される。ステップSB44において、CPU31は、撮影処理を終了するか否かを判定する。具体的には、電源ボタン14Fが押下されたか否かを判定する。ステップSB44の判定結果がNoの場合、CPU31はステップSB31の処理を再度実行する。以降、ステップSB44において撮影処理を終了すると判定されるまで、ステップSB31~SB44の処理ループが繰り返し実行される。一方、ステップSB44の判定結果が肯定の場合、CPU31は、図41に示す撮影処理を終了する。
 以上に説明した撮影処理によって、ユーザは、撮影指示を行うことに応じて、カメラで撮像されている画像を保存することができる。ここで、本変形例では、2つの表示装置を有する構成とし、一方の表示装置に現在撮影中の画像を表示するとともに、他方に、操作画面や過去に撮影した画像を表示する。これによって、ユーザは、上側LCD22に表示されている現在の撮像画像に加えて、操作画面および過去に撮影した画像を見ながら撮影操作を行うことができるので、使いやすいゲーム装置10を提供することができる。さらに、本変形例では、下側LCD12にタッチパネル13を設ける構成とすることによって、操作をより行いやすくしている。
 <カレンダー機能>
 次に、図31に示す多機能撮影処理において表示される画像において、カレンダーボタン106に対してタッチ入力が行なわれた場合に起動されるカレンダー機能について、図46を参照して説明する。
 図46は、本実施形態に従うカレンダー処理において表示される画像を示す図である。なお、図46に示す画像は、図31に示す多機能撮影処理において表示される画像が下側LCD12に表示されている間、上側LCD22に表示されている。そして、カレンダーボタン106に対してタッチ入力が行なわれると、図46に示す画像が上側LCD22から下側LCD12に移動するような表示演出を伴って、下側LCD12に表示されるようになる。
 図46に示すように、1ヶ月分のカレンダー画像306に加えて、各種ボタン302,303,304,305が下側LCD12に表示される。カレンダー画像306に含まれるいずれかの日付に対してタッチ入力が行なわれると、当該タッチ入力された日に撮影された撮像画像もしくは入力されたメモなどが、メインメモリ32、保存用データメモリ34、およびメモリカード28のいずれかに記憶されていれば、対応する撮像画像および/またはメモが読み出されて、その内容が上側LCD22に表示される。
 スクロールボタン304および305は、それぞれ表示されるカレンダー画像306を選択するためのボタン画像である。すなわち、スクロールボタン304または305に対してタッチ入力が行なわれた場合、カレンダー画像306として表示される年月が順次変更される。
 メモボタン303は、指定された日付に対応付けて、ユーザが入力するメモを保存用データメモリ34などに記憶する操作を行うためのボタン画像である。すなわち、メモボタン303に対してタッチ入力が行われると、図示しないメモ内容の受付画面に切換わり、ユーザは、当該メモ内容の受付画面上で、タッチペン27等を用いて任意の文字や図形を入力することができる。
 終了ボタン302は、カレンダー処理を終了する操作を行うためのボタン画像である。すなわち、終了ボタン302に対してタッチ入力が行われた場合、カレンダー処理が終了して、図46に示す画像は下側LCD12から上側LCD22に移動するような表示演出を伴って、上側LCD22に表示されるようになる。これと略同時に、下側LCD12には、図46に示す画像が再度表示される。
 [8.画像通信機能]
 <概要>
 次に、図47~図55を参照して、通信アプリケーションプログラム55が起動されて実行される画像通信プログラムにより提供される処理について説明する。まず、具体的な処理動作を説明するに先立って、当該画像通信処理の実行によって、下側LCD12および/または上側LCD22に表示される表示形態例や他の装置との接続例等について説明する。
 図47は、複数のゲーム装置10が接続される画像通信システムの一例を説明するための図である。図48および図49は、送信側か受信側か決定される前段階においてゲーム装置10の下側LCD12および上側LCD22にそれぞれ表示される画面表示例を示す図である。図50~図54はそれぞれ、通信アプリケーションプログラムの第1段階~第5段階において送信側のゲーム装置10t1および受信側のゲーム装置10r1~10r3の下側LCD12および上側LCD22にそれぞれ表示される画面表示例を示す図である。図55は、送信側のゲーム装置10t1および受信側のゲーム装置10r1~10r3の下側LCD12および上側LCD22にそれぞれ表示される通信切断時の画面表示例を示す図である。
 図47において、写真(撮像画像)等の画像データを複数のゲーム装置10が無線通信を介して送受信する。上述したように、ゲーム装置10は、無線通信モジュール38やローカル通信モジュール39を用いて、他のゲーム装置10との間で無線通信することができるが、ここではローカル通信モジュール39を用いて所定の通信方式により同種のゲーム装置との間で無線通信を行う例を用いる。なお、説明を具体的にするために、図47に示すゲーム装置10t1~10t3が画像データを送信する送信側のゲーム装置10tであり、ゲーム装置10r1~10r3が画像データを受信する受信側のゲーム装置10rであるとする。
 本実施形態では、画像通信アプリケーションプログラムの実行時に画像データを送信する側になるか受信する側になるかをユーザに選択させる。つまり、ユーザの選択に応じて送信側のゲーム装置として動作するか受信側のゲーム装置として動作するかが決定する。なお、送信側用プログラムのみが実行される送信側の装置と受信側用プログラムのみが実行される受信側の装置とを異なる装置としてもよい。
 送信側ゲーム装置10tは、「いちろう」がユーザとなっているゲーム装置10t1と、「たろう」がユーザとなっているゲーム装置10t2と、「はなこ」がユーザとなっているゲーム装置10t3とで構成されている。また、受信側ゲーム装置10rは、「じろう」がユーザとなっているゲーム装置10r1と、「さぶろう」がユーザとなっているゲーム装置10r2と、「しろう」がユーザとなっているゲーム装置10r3とで構成されている。この場合、送信側ゲーム装置10t1~10t3からそれぞれ自機が画像データの送信元であることを示す信号(送信元データ)をブロードキャストでそれぞれ送信している。そして、ユーザ「じろう」、「さぶろう」、および「しろう」が、複数ある送信側のゲーム装置10tから「いちろう」がユーザとなっているゲーム装置10t1を送信元として画像データをそれぞれ受け取る一例を説明する。なお、「いちろう」、「たろう」などはゲーム装置10本体にそれぞれ記憶されたユーザ名であり、ユーザが任意に設定することが可能で、ゲーム装置10本体のプリセットデータ用メモリ35や保存用データメモリ34などに保存されている。
 まず、それぞれのゲーム装置10では、例えば下側LCD12に本体保存メモリ(例えば保存用データメモリ34)を使用するのか、メモリカード(例えばメモリカード28)を使用するのかを、ユーザに問い合わせる情報が表示される(図48)。そして、ゲーム装置10のユーザは、タッチパネル13を介してそれぞれ下側LCD12に表示された選択肢の何れかをタッチ操作することによって、何れの記憶媒体を使用するのか選択することができる。
 次に、それぞれのゲーム装置10では、例えば下側LCD12に写真を他のゲーム装置に送信するのか、写真を他のゲーム装置から受信するのかを、ユーザに問い合わせる情報が表示される(図49)。そして、ゲーム装置10のユーザは、タッチパネル13を介してそれぞれ下側LCD12に表示された選択肢の何れかをタッチ操作することによって、送信元(例えば、送信側のゲーム装置10t1から10t3)になるのか受信先(例えば、受信側のゲーム装置10r1~10r3)になるのかを選択することができる。
 受信側のゲーム装置10r1~10r3は、送信側のゲーム装置10tから上記送信元データを受信するまでの間、例えば下側LCD12に現在送信元のゲーム装置10tを検索中であることを示す旨(例えば、「写真をもらう相手をさがしています・・・」と記載された文字情報)が表示される(図50右図)。一方、送信側のゲーム装置10t1は、上記送信元データを送信して受信側ゲーム装置10からの画像データ受信要求を募集する際、例えば下側LCD12に現在受信先のゲーム装置10rを検索中であることを示す旨(例えば、「写真をあげる相手をさがしています・・・」と記載された文字情報)が表示される(図50左図)。
 次に、受信側のゲーム装置10r1~10r3は、送信側のゲーム装置10t1~10t3から上記送信元データを受信すると、例えば下側LCD12に当該送信元データを受信した送信元のゲーム装置10tのユーザ名を示す情報が表示される。例えば、図51右図に示した例では、受信側のゲーム装置10r1~10r3の下側LCD12に、それぞれ送信側ゲーム装置10t1~10t3のユーザ名Nt1~Nt3が表示されている。受信側のゲーム装置10r1~10r3のユーザは、タッチパネル13を介してそれぞれ下側LCD12に表示されたユーザ名Nt1~Nt3の何れかをタッチ操作することによって、送信側ゲーム装置10t1~10t3の何れか1つの装置を送信元の装置として選択することができる。そして、受信側のゲーム装置10r1~10r3のユーザが送信元の装置を選択する操作を行うことに応じて、受信側のゲーム装置10r1~10r3から選択された送信側のゲーム装置10t1~10t3の何れかへ、受信要求を示す受信先データが送信される。
 一方、送信側のゲーム装置10t1は、受信側のゲーム装置10r1~10r3から上記受信先データを受信すると、例えば下側LCD12に当該受信先データを受信した受信先のゲーム装置10rのユーザ名を示す情報が表示される。例えば、図51左図に示した例では、送信側のゲーム装置10t1の下側LCD12に、受信要求している受信側ゲーム装置10r1~10r3のユーザ名Nr1~Nr3が表示されている。ここで、本実施形態の送信側のゲーム装置10t1には、表示された複数の受信側ゲーム装置10r1~10r3から受信側装置を選択する権限はなく、表示された受信側ゲーム装置10r1~10r3の全てに画像データを送信するか、送信自体を止めるかの選択が可能となっている。例えば、送信側のゲーム装置10t1のユーザは、タッチパネル13を介して下側LCD12に「はじめる」と表示された操作ボタンアイコンBsをタッチ操作することによって、画像送信処理に移行することができる。
 次に、送信側のゲーム装置10t1は、ゲーム装置10t1の本体内のメモリ(例えば保存用データメモリ34)やメモリカード(例えばメモリカード28)に記憶されている画像から、送信対象とする画像を選択する処理を行う。典型的には、ゲーム装置10t1で撮影した画像が送信対象となるが、他の画像(例えば、他の装置から受け取った画像や撮影以外で記憶されている画像等)を送信対象としてもかまわない。例えば、図52左図に示した例では、下側LCD12のサムネイル表示領域Atにゲーム装置10t1の保存用データメモリ34またはメモリカード28に記憶されている画像のサムネイルが表示される。また、サムネイル表示領域Atに表示されているサムネイルは、タッチパネル13を介してスクロールボタンアイコンBlまたはBrをタッチ操作することによって、左または右にスクロールして表示される。そして、送信側のゲーム装置10t1のユーザは、下側LCD12に表示されるカーソルCで囲まれるサムネイルの画像を、送信対象とする画像として選択することができる。このとき、カーソルCで囲まれるサムネイルの画像IM(すなわち、送信対象とする画像)は、上側LCD22に表示される。そして、送信側のゲーム装置10t1のユーザは、タッチパネル13を介して下側LCD12に「あげる」と表示された操作ボタンアイコンBtをタッチ操作することによって、現在送信対象となっている画像IMの画像データを送信することができる。なお、送信側のゲーム装置10t1のユーザは、タッチパネル13を介して下側LCD12に「おわる」と表示された操作ボタンアイコンBfをタッチ操作することによって、画像送信処理自体を終了することもできる。
 一方、受信側のゲーム装置10r1~10r3は、送信側のゲーム装置10t1のユーザが送信対象の画像を選択している間、例えば下側LCD12に送信側のゲーム装置10t1のユーザが画像を選択している旨(例えば、「相手が写真を選ぶのを待っています・・・」と記載された文字情報)が表示される(図52右図)。
 次に、送信側のゲーム装置10t1は、ゲーム装置10t1の本体内のメモリやメモリカードに記憶されている画像から、送信対象として選択した画像IMの画像データを、受信側のゲーム装置10r1~10r3にそれぞれ出力する。このとき、送信側のゲーム装置10t1の下側LCD12および/または上側LCD22には、ゲーム装置10t1から選択された画像IMが受信側のゲーム装置10r1~10r3へ送信されている旨が表示される。例えば、図53の左図に示すように、上側LCD22に送信中の画像IMが表示され、下側LCD12に「写真をあげています・・・」と記載された文字情報が表示される。
 一方、受信側のゲーム装置10r1~10r3は、送信側のゲーム装置10t1から画像データが送信されている間、例えば下側LCD12に送信側のゲーム装置10t1から画像データを受信中である旨(例えば、「写真をもらっています・・・」と記載された文字情報)が表示される(図53右図)。
 次に、受信側のゲーム装置10r1~10r3は、送信側のゲーム装置10t1から送信された画像データの受信が終了すると、例えば上側LCD22に送信元のゲーム装置10t1から受信した画像データが示す画像IMを掲示するとともに、さらに画像データをゲーム装置10t1から受信するか否かの選択を促す。例えば、図54の右図に示すように、上側LCD22に受信した画像IMが表示され、下側LCD12に「写真をもらいました。さらにもらいますか?」と記載された文字情報が表示される。そして、受信側のゲーム装置10r1~10r3のユーザは、それぞれタッチパネル13を介して下側LCD12に「はい」と表示された操作ボタンアイコンByをタッチ操作することによって、送信元のゲーム装置10t1に対してさらに画像データの受信を要求することができる。この場合、受信側のゲーム装置10r1~10r3は、図52右図を用いて説明した画面が表示されて、送信側のゲーム装置10t1のユーザが送信対象の画像を再度選択することを待つことになる。また、受信側のゲーム装置10r1~10r3のユーザは、それぞれタッチパネル13を介して下側LCD12に「いいえ」と表示された操作ボタンアイコンBnをタッチ操作することによって、以降の画像データの受信を止めて送信元のゲーム装置10t1との通信を終了することができる。
 一方、送信側のゲーム装置10t1は、受信側のゲーム装置10r1~10r3への画像データの送信が終了すると、例えば上側LCD22に送信が終了した画像IMを掲示するとともに、受信側のゲーム装置10r1~10r3においてさらに画像データを受領するか否かが選択中であることを示す旨が表示される。例えば、図54の左図に示すように、上側LCD22に送信が終了した画像IMが表示され、下側LCD12に「相手がまだもらうのかどうか考えています。」と記載された文字情報が表示される。そして、受信側のゲーム装置10r1~10r3の全てからさらに画像データを受領するか否かの情報を得たときに、受信側のゲーム装置10r1~10r3の少なくとも1台から、さらに画像データの受信を要求する受信要求を受信した場合、図52左図を用いて説明した画面が表示されて、送信側のゲーム装置10t1のユーザが送信対象の画像を再度選択することになる。
 ここで、送信側のゲーム装置10t1および/または受信側のゲーム装置10r1~10r3のユーザが画像送信処理を終了する操作を行った場合、図49に示したようにそれぞれのゲーム装置10の例えば下側LCD12に、写真を他のゲーム装置に送信するのか、写真を他のゲーム装置から受信するのかを、ユーザに問い合わせる情報が表示され、上述した処理が繰り返される。なお、送信側のゲーム装置10t1において受信側のゲーム装置10r1~10r3の全てが受信を終了した場合、または受信側のゲーム装置10r1~10r3において送信側のゲーム装置10t1が送信を終了した場合、通信が切断された旨の表示が行われる。例えば、図55左図および右図に示すように、通信が切断された場合、送信側のゲーム装置10t1および受信側のゲーム装置10r1~10r3の例えば下側LCD12に「通信が切断されました。」と記載された文字情報が表示される。そして、送信側のゲーム装置10t1および受信側のゲーム装置10r1~10r3のユーザが、それぞれタッチパネル13を介して下側LCD12に「はい」と表示された操作ボタンアイコンByをタッチ操作することによって、画像送信処理の初期段階に戻って新たな画像送信処理が開始される。
 <データ構造>
 次に、図56を参照して、画像通信アプリケーションプログラムを実行する際に用いられる各種データについて説明する。なお、図56は、画像通信アプリケーションプログラムを実行することに応じて、メインメモリ32に記憶される各種データの一例を示す図である。
 図56において、メインメモリ32には、メモリカード28およびメモリカード29や保存用データメモリ34から読み出されたプログラムや処理において生成される一時的なデータが記憶される。図56において、メインメモリ32のデータ記憶領域には、操作データDa、識別データDb、ユーザデータDc、送信元データDd、受信先データDe、および画像データDf等が格納される。また、メインメモリ32のプログラム記憶領域には、画像通信アプリケーションプログラム等で構成される各種プログラム群Paが記憶される。
 操作データDaは、タッチパネル13をプレイヤがタッチしている画面座標系のタッチ位置TPを示すタッチ座標のデータ(タッチ座標データ)や操作ボタン群14をプレイヤが操作している状態を示すデータ(操作ボタンデータ)が格納される。例えば、タッチ座標データや操作ボタンデータは、ゲーム装置10がゲーム処理する時間単位(例えば、1/60秒)毎に取得され、当該取得に応じて操作データDaに格納されて更新される。
 識別データDbは、ゲーム装置10を識別するためのユニークな識別番号を示すデータが格納される。例えば、ゲーム装置10のプリセットデータ用メモリ35等に予め設定されている自機IDを示すデータが、識別データDbに格納される。なお、自機IDは、製造工場でユニークなシリアル番号が記憶されるようにしてもよいし、ゲーム装置10でランダムに生成した識別情報が記憶されるようにしてもよい。
 ユーザデータDcは、ゲーム装置10のユーザが予め設定したユーザ名を示すデータが格納される。例えば、ゲーム装置10のプリセットデータ用メモリ35等には、ユーザによって入力されたユーザ名が記述されており、当該ユーザ名を示すデータがユーザデータDcに格納される。
 送信元データDdは、画像データを送受信する際の送信元となるゲーム装置10の識別番号およびユーザ名を示すデータが格納される。受信先データDeは、画像データを送受信する際の受信先となるゲーム装置10の識別番号およびユーザ名を示すデータが格納される。
 画像データDfは、送信画像データDf1、受信画像データDf2、および操作画像データDf3等を含んでいる。送信画像データDf1は、他のゲーム装置10に画像を送る際、当該画像の画像データが一時的に格納される。受信画像データDf2は、他のゲーム装置10から画像を受信する際、当該画像の画像データが一時的に格納される。操作画像データDf3は、ゲーム装置10を操作するための操作ボタンやユーザに報知するための情報を示す画像データである。
 <処理手順>
 次に、図57~図60を参照して、ゲーム装置10で実行される画像通信アプリケーションプログラムによる具体的な処理動作について説明する。なお、図57は、当該画像通信アプリケーションプログラムを実行することによってゲーム装置10が画像通信処理を行う一例を示すフローチャートである。図58は、図57のステップSC52で実行される画像送信処理の詳細な動作を示すサブルーチンである。図59は、図57のステップSC53で実行される画像受信処理の詳細な動作を示すサブルーチンである。図60は、送信元のゲーム装置10tと受信先のゲーム装置10rとの間で送受信される信号の一例を示す図である。なお、これらの処理を実行するためのプログラムは、保存用データメモリ34に格納されたプログラムに含まれており、ゲーム装置10の電源がオンになったときに、メモリ制御回路33を介して保存用データメモリ34からメインメモリ32に読み出されて、CPU31によって実行される。本実施形態では当該画像通信アプリケーションプログラムはあらかじめ保存用データメモリ34に記憶されているものとしたが、当該プログラムは、インターネット等を介してゲーム装置10にダウンロードするようにしてもよい。また、メモリカード28やメモリカード29に格納されたプログラムから読み出して実行するようにしてもよい。
 まず、ゲーム装置10の電源(電源ボタン14F)がONされると、CPU31によってブートプログラム(図示せず)が実行され、これにより保存用データメモリ34に格納されている、複数のアプリケーションプログラムを選択的に実行させるプログラムであるランチャープログラムがメインメモリ32にロードされCPU31で実行される。その後、ランチャープログラム上で画像通信アプリケーションを選択して実行することにより、画像通信アプリケーションプログラムがメインメモリ32にロードされる。そして、当該ロードされた画像通信アプリケーションプログラムがCPU31で実行される。
 本実施形態における画像通信アプリケーションプログラムにおいては、画像の通信機能だけではなく、撮影機能や、撮影した画像を表示する撮影画像表示機能も備えている。ユーザはタッチパネルやボタンによる操作によって各機能を選択的に実行できる。ここで、撮影機能が選択された場合、内側カメラ23および外側カメラ25のうち現在選択されているカメラによって撮像された映像がリアルタイムで下側LCD12に表示される。そして、この状態で、Lボタン14IやRボタン14Jを操作することによって撮影処理が実行され、本体保存メモリ(例えば、保存用データメモリ34)またはメモリカード(例えば、メモリカード28)のうちの選択された記憶媒体に、撮影画像が記憶される。なお、撮影直後に、撮影画像を下側LCD12に表示するようにしてもよい。また、撮影画像表示機能が選択された場合、本体保存メモリまたはメモリカードのうちの選択された記憶媒体に記憶された撮影画像から、ユーザが希望する画像を一枚ずつまたは一覧的に表示することができる。さらに、ユーザは、各機能を選択する前に本体保存メモリを使用するのかメモリカードを使用するのかを選択し、ここで選択された記憶手段が撮影機能における撮影画像の記憶先や、撮影画像表示機能において表示する画像の読み出し元となる。画像通信機能において送信側が送信する画像の読み出し元や、受信側が受信した画像の保存先もここで選択した記憶手段となる。ユーザが画像通信機能を選択して実行することによって、図57に示すステップSC51以降の処理が実行される。
 図57において、CPU31は、操作データDaに基づいて、以降の処理において本体内のメモリ(例えば保存用データメモリ34)を使用するのか、メモリカード(例えばメモリカード28)を使用するのかを判断する(ステップSC50)。例えば、ゲーム装置10の下側LCD12および/または上側LCD22に、本体保存メモリを使用するのか、上記メモリカードを使用するのかの選択をユーザに促す表示が行われる(図48参照)。そして、ユーザが何れかの選択肢を選択する操作を行うことに応じて、CPU31が何れの記憶媒体を使用するのかを判断する。そして、CPU31は、上記メモリカードを使用する場合、次のステップSC57に処理を進める。一方、CPU31は、本体保存メモリを使用する場合、次のステップSC51に処理を進める。
 ステップSC57において、CPU31は、ゲーム装置10に画像を保存するためのメモリカード(例えばメモリカード28)がゲーム装置10のコネクタに装着されているか否かを判断する。そして、CPU31は、上記メモリカードがゲーム装置10のコネクタに装着されている場合、次のステップSC51に処理を進める。一方、CPU31は、上記メモリカードがゲーム装置10のコネクタに装着されていない場合、メモリカードを装着することをユーザに促す通知を下側LCD12および/または上側LCD22に表示し(ステップSC58)、上記ステップSC50に戻って処理を繰り返す。
 ステップSC51において、CPU31は、操作データDaに基づいて、以降の処理において他のゲーム装置10rに画像を送信するのか、他のゲーム装置10tから画像を受信するのかを判断する。例えば、ゲーム装置10の下側LCD12および/または上側LCD22に、写真を他のゲーム装置10rに送るのか、写真を他のゲーム装置10tから受け取るのかの選択をユーザに促す表示が行われる(図49参照)。そして、ユーザが何れかの選択肢を選択する操作を行うことに応じて、CPU31が他のゲーム装置10rに画像を送信するのか、他のゲーム装置10tから画像を受信するのかを判断する。そして、CPU31は、他のゲーム装置10rに画像を送信する場合、次のステップSC52に処理を進める。一方、CPU31は、他のゲーム装置10tから画像を受信する場合、次のステップSC53に処理を進める。
 ステップSC52において、CPU31は、画像送信処理を行って、次のステップSC54に処理を進める。以下、図58を参照して、上記ステップSC52で行う画像送信処理の詳細な動作について説明する。
 図58において、CPU31は、自機が画像データの送信元であることを示す送信元データを、例えばローカル通信モジュール39を用いてブロードキャストで送信し(ステップSC63)、次のステップSCに処理を進める。例えば、CPU31は、識別データDbおよびユーザデータDcに格納されている識別番号およびユーザ名を示すデータをそれぞれ用いて送信元データを作成し、作成したデータを送信元データDdに格納する。そして、送信元データDdに格納されている送信元データをブロードキャストで送信することによって、当該送信元データが受信可能な他のゲーム装置10rに対して、送信元となるゲーム装置10の存在を通知する(図60参照)。
 次に、CPU31は、受信先となる他のゲーム装置10rを探索し(ステップSC64)、次のステップに処理を進める。ここで、後述によって明らかとなるが、受信先となる他のゲーム装置10rは、受信した送信元データに基づいて、自機が受信したい相手となる送信元のゲーム装置10tを選択している。そして、選択された送信元のゲーム装置10tに対して、自機が画像データの受信先であることを示す受信先データを送信している(図60参照)。上記ステップSC64においては、CPU31は、例えばローカル通信モジュール39を介して当該受信先データの受信待ちを行う。そして、CPU31は、受信先データを受信した場合、当該受信先データが示す受信先の他のゲーム装置10rの識別番号およびユーザ名を受信先データDeに記述する。ここで、CPU31は、受信先となる他のゲーム装置10rを探索している間は、例えば下側LCD12に現在受信先のゲーム装置10rを探索中であることを示す通知が表示される(図50左図参照)。また、CPU31は、受信先の他のゲーム装置10rから受信先データを受信すると、例えば下側LCD12に当該受信先データが示す受信先の他のゲーム装置10rのユーザ名を示す情報(図51左図ユーザ名Nr1~Nr3参照)を表示する。
 次に、CPU31は、操作データDaに基づいて、検索された受信先の他のゲーム装置10rに対して、画像を送信する処理を開始するか否かを判断する(ステップSC65)。例えば、CPU31は、下側LCD12および/または上側LCD22に、画像を送信する処理を開始する操作をユーザに促す表示(操作ボタンアイコンBs)を行う。そして、ユーザが画像を送信する処理を開始する操作を行うことに応じて、当該処理を開始すると判断し、次のステップSC66に処理を進める。一方、CPU31は、画像を送信する処理を開始しない場合、上記ステップSC64に戻って受信先となる他のゲーム装置10rの検索を継続する。
 なお、画像を送信する処理を開始する決定がなされてから、送信画像が決定されるまでの間の期間において、送信元のゲーム装置10tから受信先のゲーム装置10rへ送信準備が完了した旨を示す送信準備完了データが送信される。また、受信先のゲーム装置10rにおいて、画像データを受信する準備が完了している場合、当該送信準備完了データの受信に応答して、画像データを受信する準備が完了している受信準備完了データが送信元のゲーム装置10tへ送信される(図60参照)。
 ステップSC66において、CPU31は、操作データDaに基づいて、他のゲーム装置10rに送信する画像が選択されたか否かを判断する。例えば、CPU31は、他のゲーム装置10rに送信する画像をユーザに選択させる画面を下側LCD12および/または上側LCD22に表示し(図52左図参照)、ユーザの送信画像選択を促す。そして、CPU31は、ユーザが送信画像を決定する操作(例えば、操作ボタンアイコンBtをタッチ操作)を行うことに応じて、次のステップSC69に処理を進める。一方、CPU31は、ユーザが送信画像を決定する操作を行っていない場合(ステップSC66でNo)、次のステップSC67に処理を進める。
 ステップSC69において、CPU31は、上記ステップSC66で選択された送信画像を示す画像データを、受信先の他のゲーム装置10rへ送信し、次のステップに処理を進める。例えば、CPU31は、上記ステップSC66で選択された送信画像に対応する画像データを、上記ステップSC50で選択されている記憶媒体から抽出し、抽出した画像データを送信画像データDf1に記憶する。そして、CPU31は、受信先データDeを参照して現在受信先となっている他のゲーム装置10rを特定し、例えばローカル通信モジュール39を介して、送信画像データDf1に記憶されている画像データを特定された他のゲーム装置10rへ送信する(図60参照)。CPU31は、受信先となる他のゲーム装置10rへ画像データを送信している間は、例えば下側LCD12に現在受信先のゲーム装置10rに画像データを送信中であることを示す通知を表示する(図53左図参照)。
 次に、CPU31は、受信先のゲーム装置10rからそれぞれ送信されてくる受信先応答の受信を待つ(ステップSC70)。ここで、受信先応答には、さらに画像データを受信することを示す応答(受信要求)または受信を終了することを示す応答(受信終了)があり、受信先のゲーム装置10rがそれぞれ画像データの受信した後に何れかの応答を送信元のゲーム装置10tに送信している(図60参照)。CPU31は、現在設定される全ての受信先のゲーム装置10rからの応答を待ち、少なくとも1つの受信先ゲーム装置10rから受信要求を受信した場合(ステップSC71でYes)、上記ステップSC66に戻って処理を繰り返す。一方、CPU31は、現在設定される全ての受信先のゲーム装置10rからの応答を待ち、全ての受信先のゲーム装置10rから受信終了を受信した場合(ステップSC71でNo)、当該サブルーチンによる処理を終了する。なお、CPU31は、受信先のゲーム装置10rから受信終了を受信した場合、当該受信先のゲーム装置10rのデータを受信先データDeから消去する。また、CPU31は、受信先の他のゲーム装置10rからの応答を待っている間は、例えば下側LCD12に現在受信先のゲーム装置10rからの応答を待っていることを示す通知を表示する(図54左図参照)。
 一方、上記ステップSC66においてユーザが送信画像を決定する操作をまだ行っていない場合、CPU31は、操作データDaに基づいて、画像を送信する処理を終了するか否かを判断する(ステップSC67)。例えば、CPU31は、ユーザ操作(例えば、操作ボタンアイコンBfをタッチ操作)に応じて、画像を送信する処理を終了するか否かを判断する。そして、CPU31は、画像を送信する処理を終了する場合、現在の受信先のゲーム装置10rへそれぞれ送信を終了することを示すデータ(送信終了;図60参照)を送信して(ステップSC68)、当該サブルーチンによる処理を終了する。一方、CPU31は、画像を送信する処理を終了しない場合、上記ステップSC66に戻って処理を繰り返す。
 図57に戻り、CPU31は、上記ステップSC52の画像送信処理の後、受信先がなくなった状態か否かを判断する(ステップSC54)。例えば、CPU31は、上記ステップSC71の判断ステップによってNoの判断(すなわち、全ての受信先のゲーム装置10rから受信終了を受信)がされている場合、受信先がなくなった状態であると判断する。CPU31は、受信先がなくなった状態の場合、次のステップSC56に処理を進める。一方、CPU31は、上記ステップSC67の判断ステップでYesの判断がされている場合、(すなわち、ユーザが送信終了を選択した状態)、受信先のゲーム装置10rとの通信を切断して上記ステップSC51に戻って処理を繰り返す。
 CPU31は、ステップSC53において画像受信処理を行って、次のステップSC55に処理を進める。以下、図59を参照して、上記ステップSC53で行う画像受信処理の詳細な動作について説明する。
 図59において、CPU31は、画像データの送信元であることが示された送信元データを受信し(ステップSC84)、処理を次のステップに進める。ここで、上述したように、送信元となっているゲーム装置10tは、自機が画像データの送信元であることを示す送信元データを、例えばローカル通信モジュール39を用いてブロードキャストで送信している(図60参照)。上記ステップSC84においては、CPU31は、ブロードキャストで送信されている送信元データを受信することによって、送信元となった他のゲーム装置10tの存在を知ることができる。そして、CPU31は、送信元データを受信した場合、送信元データが示す送信元のゲーム装置10tの識別番号およびユーザ名を取得し、送信元データDdに記述する。
 ここで、CPU31は、送信元となる他のゲーム装置10tを検索している間は、例えば下側LCD12に現在送信元のゲーム装置10tを検索中であることを示す通知が表示される(図50右図参照)。また、CPU31は、送信元の他のゲーム装置10tから送信元データを受信すると、例えば下側LCD12に当該送信元データが示す送信元の他のゲーム装置10tのユーザ名を示す情報を表示する(図51右図参照)。
 次に、CPU31は、操作データDaに基づいて、検索された送信元の他のゲーム装置10tの何れかから送信元が決定されたか否かを判断する(ステップSC85)。例えば、CPU31は、下側LCD12および/または上側LCD22に、送信元の他のゲーム装置10tのユーザ名を示す情報から選択を促す表示(図51右図ユーザ名Nt1~Nt3参照)を行う。そして、ユーザがユーザ名の何れかを選択する操作を行うことに応じて、選択されたユーザを送信元として画像を受信すると判断し、次のステップSC86に処理を進める。一方、CPU31は、画像を受信する送信元を決定しない場合、上記ステップSC84に戻って送信元となる他のゲーム装置10tの検索を継続する。
 ステップSC86において、CPU31は、自機が画像データの受信先であることを示す受信先データを、選択された送信元となる他のゲーム装置10tへ、例えばローカル通信モジュール39を用いて送信し、次のステップに処理を進める。例えば、CPU31は、識別データDbおよびユーザデータDcに格納されている識別番号およびユーザ名を示すデータをそれぞれ用いて受信先データを作成し、作成したデータを受信先データDeに格納する。そして、受信先データDeに格納されている受信先データを送信元となる他のゲーム装置10tへ送信することによって、当該受信先データを受信する送信元の他のゲーム装置10tに対して、受信先となるゲーム装置10の存在およびそのユーザ名を通知する(図60参照)。
 なお、送信元の他のゲーム装置10tにおいて、画像を送信する処理を開始する決定がなされてから、送信画像が決定されるまでの間の期間において、受信先のゲーム装置10rへ送信準備が完了した旨を示す送信準備完了データが送信される。この場合、受信先のゲーム装置10rは、画像データを受信する準備が完了している場合、当該送信準備完了データの受信に応答して、画像データを受信する準備が完了している受信準備完了データを送信元の他のゲーム装置10tへ送信する(図60参照)。
 次に、CPU31は、送信元の他のゲーム装置10tから送信終了を示すデータを受信したか否か(ステップSC87)、操作データDaに基づいて、ユーザが受信を終了する操作を行ったか否か(ステップSC88)、および送信元の他のゲーム装置10tから画像データを受信したか否か(ステップSC89)をそれぞれ判断する。例えば、送信元の他のゲーム装置10tが送信する画像を選択中の場合、CPU31は、相手が写真を選ぶのを待っていることを示す画面を下側LCD12および/または上側LCD22に表示し(図52右図参照)、ユーザに現在の状況を通知する。そして、CPU31は、ユーザが画像の受信をやめる操作(例えば、操作ボタンアイコンBfをタッチ操作)を行うことに応じて、ユーザが受信を解除する操作を行ったと判断して(ステップSC88でYes)、次のステップSC93に処理を進める。また、CPU31は、送信元の他のゲーム装置10tから送信終了を受信(図58のステップSC68および図60参照)した場合(ステップSC87でYes)、当該サブルーチンによる処理を終了する。また、CPU31は、送信元の他のゲーム装置10tから画像データの受信(図58のステップSC69および図60参照)が始まった場合(ステップSC89でYes)、次のステップSC90に処理を進める。一方、CPU31は、何れの判断も否である場合(すなわち、ステップSC87~ステップSC89が何れもNo)、当該ステップSC87~ステップSC89の判断を繰り返す。
 ステップSC90において、CPU31は、他のゲーム装置10tから受信した画像データ(図60参照)を、受信画像データDf2に記憶する。そして、CPU31は、受信画像データDf2に記憶された画像データを上記ステップSC50で選択されている記憶媒体に保存して、処理を次のステップに進める。ここで、CPU31は、他のゲーム装置10tから画像データの受信が始まった場合、当該画像データを受信している間は、例えば下側LCD12に現在送信元のゲーム装置10tから画像データを受信中であることを示す通知を表示する(図53右図参照)。
 次に、CPU31は、操作データDaに基づいて、送信元の他のゲーム装置10tから、さらに画像を受信するか否かを判断する。例えば、CPU31は、送信元の他のゲーム装置10tからさらに画像を受信するか否かをユーザに選択させる画面を下側LCD12および/または上側LCD22に表示し(図54右図参照)、ユーザの選択を促す。そして、CPU31は、ユーザがさらに画像の受信を求める操作(例えば、操作ボタンアイコンByをタッチ操作)を行うことに応じて、次のステップSC92に処理を進める。一方、CPU31は、ユーザが画像の受信を終了する操作(例えば、操作ボタンアイコンBnをタッチ操作)を行うことに応じて、次のステップSC93に処理を進める。
 ステップSC92において、CPU31は、さらに画像データを受信することを示すデータ(受信要求;図60参照)を送信元の他のゲーム装置10tへ送信して、上記ステップSC87に戻って処理を繰り返す。
 一方、ステップSC93において、CPU31は、受信を終了することを示すデータ(受信終了;図60参照)を送信元の他のゲーム装置10tへ送信して、当該サブルーチンによる処理を終了する。なお、上記ステップSC88の判断では、ユーザの操作とは別に自動的に受信を解除してもかまわない。例えば、上記ステップSC50で選択されている記憶媒体の記憶可能残量を監視しておき、当該残量が所定量以下になった場合、ユーザに残り保存枚数が0枚となったことを通知して、上記ステップSC93の処理を行ってもかまわない。
 図57に戻り、CPU31は、上記ステップSC53の画像受信処理の後、送信終了を受信したか否かを判断する(ステップSC55)。例えば、CPU31は、上記ステップSC87の判断ステップによってYesの判断(すなわち、送信元のゲーム装置10tから送信終了を受信)がされている場合、次のステップSC56に処理を進める。一方、CPU31は、上記ステップSC91の判断ステップでNoの判断がされている場合、(すなわち、ユーザが受信終了を選択した状態)、送信元のゲーム装置10tとの通信を切断して上記ステップSC51に戻って処理を繰り返す。
 ステップSC56において、CPU31は、通信切断処理を行って、当該フローチャートによる処理を終了する。例えば、CPU31は、現在通信の相手となっている他のゲーム装置10との通信を終了(切断)し、通信が切断されたことを示す画面を下側LCD12および/または上側LCD22に表示し(図55左図または右図参照)、ユーザに現在の状況を通知する。
 このように、本実施形態に係るゲーム装置10は、画像データの受信先となった場合、当該画像データを受け取る送信元の装置を選択することができる。したがって、ゲーム装置10は、装置間で画像を送受信する際、ユーザが希望する送信側装置を選択して画像を受け取ることができる。
 なお、上述した説明では、画像データを受信する受信先のゲーム装置10rが当該画像データを送信する送信元のゲーム装置10tを選択する権利を有しているが、送信元のゲーム装置10tにおいても画像データを受信する受信先のゲーム装置10rを選択する権利を有するようにしてもかまわない。例えば、上記ステップSC65における送信開始を決定する処理において、ユーザが受信先となるゲーム装置10rを選択した後に送信開始を決定するようにすれば、送信元も同様に受信先の選択が可能となる。例えば、受信先のゲーム装置10rで送信元のユーザを選択した際、当該送信元のゲーム装置10tの表示画面に表示される受信先のユーザ名にチェックボックスが付与(例えば、ユーザ名Nr1~Nr3の横)される。そして、送信元のゲーム装置10tのユーザは、受信先のユーザ名に付与されたチェックボックスをタッチ操作によってチェックすることによって、当該チェックをした受信先のユーザにのみ画像データを送信することができる。
 また、上述した処理動作では、受信先のゲーム装置10rは、ユーザが所望するタイミングで画像を送受信するグループから抜けることができる。また、送信元のゲーム装置10tは、受信先のゲーム装置10rが上記グループから抜けたとしても、受信先のゲーム装置10rが少なくとも1台残っている限り、画像データの送信を継続することができる。これによって、受信先のゲーム装置10rが記憶可能残量の不足によって上記グループから抜けたとしても、送信元のゲーム装置10tおよび他の受信先のゲーム装置10rへ影響することがない。しかしながら、受信先のゲーム装置10rの全てが画像通信を継続することを要求した場合のみ画像データの送信を継続し、受信先のゲーム装置10rの少なくとも1台が上記グループから抜けた場合、上記グループに属する全ての通信を終了してもかまわない。
 また、上述した処理動作では、最初に送信元となるゲーム装置10tから送信元データを、不特定多数の相手に向かってデータを送信するブロードキャストで送信しているが、他の方式によって通信を開始してもかまわない。例えば、最初に受信先となるゲーム装置10rから受信先データを不特定多数の相手に向かって送信し、当該受信先データを受信した送信元のゲーム装置10tが送信元データを返信してもかまわない。この場合、最初に送信する受信先データには、当該受信先データを送信するゲーム装置10rのユーザ名を記述しなくてもかまわない。
 また、上述した処理手順では、送信元のゲーム装置10tと通信する受信先のゲーム装置10rを決定した後にゲーム装置10tからゲーム装置10rに送信する画像が選択されている。これによって、送信元のゲーム装置10tは、決定された受信先のゲーム装置10rに次々と選択した送信画像を送信することが可能となり、様々な画像を容易に送信することができる。しかしながら、このような効果を期待しない場合、他の手順で送信画像を決定してもかまわない。例えば、送信元のゲーム装置10tは、他のゲーム装置10に送信したい送信画像を決定した後に、受信先となるゲーム装置10rを決定する。この場合、最初に送信元となるゲーム装置10tから不特定多数の相手に向かって送信元データを送信する際、決定されている送信画像を示すデータと共に送信する。これによって、受信先となるゲーム装置10rのユーザは、送信元のユーザ名と共に送信予定の画像を見て画像データを受信したい送信元を選択することができるため、選択するための情報が増えてより希望に合った送信元の選択が可能となる。
 また、上述した処理手順では、ボタンBtをタッチ操作したときにカーソルCで囲まれるサムネイルの画像を、送信対象とする画像として選択している。つまり、画像は、1枚ずつ選択されて送信されることになるが、複数枚の画像を選択して送信するようにしてもよい。例えば、図52の左図においてサムネイル表示領域Atに表示されるサムネイル画像に対し選択操作(例えば直接タッチする操作)することで、当該サムネイル画像が強調表示されるとともに当該サムネイル画像に対応する画像が選択状態となる。そして、さらに上記選択操作を複数回行うことによって複数枚の画像を選択状態とし、その状態でボタンBtをタッチ操作することで、選択状態となった複数の画像が送信されるようにしてもよい。
 なお、前者の場合は、1枚ずつ画像が選択されて送信されるために、結果的に一度に送信される画像の枚数が1枚に制限されることになる。一方、後者の場合は、選択可能な枚数に制限を設けることによって、一度に送信される枚数が当該選択可能な枚数に制限されることになる。つまり、後者の場合、所定の枚数以上の画像を一度に選択できないようにしてもよいし、選択した画像の容量の合計が所定の容量以上になる場合はそれ以上画像が一度に選択できないようにしてもよい。また、選択可能な画像の枚数とは別に、一度に送信される画像の枚数を制限してもかまわない。この場合、一度に送信される画像の枚数より選択可能な画像の枚数を多く設定することもでき、一度の画像選択操作に対して、制限された枚数の画像送信処理が複数回繰り返されることによって選択された画像の送信処理が完了することになる。何れの画像選択/画像送信制限の態様によっても、受信側のゲーム装置10のユーザは、画像の受信途中でそれ以上の画像受信を取りやめることが可能であり、受信した画像枚数に基づいて受信を続けるかどうかを判断することができる。
 また、最初に送信元となるゲーム装置10tから不特定多数の相手に向かって送信元データを送信する際、他の情報をさらに含ませて受信先のゲーム装置10rへ送信してもかまわない。例えば、送信元となるゲーム装置10tから送信する予定となっている画像のタイトルや枚数を示す情報を上記送信元データに含ませて送信してもかまわない。これによって、受信先のゲーム装置10rでは、受信した送信元データに含まれる画像のタイトルや枚数を示す情報を、送信元のユーザ名と共に表示することができるため、受信先のユーザが送信元を選択するための情報が増えてより希望に合った送信元の選択が可能となる。なお、送信元データに含ませる画像のタイトルは、送信元のゲーム装置10tのユーザが予め決められた定型タイトルから選択してもいいし、ユーザが自由にタイトルを入力してもかまわない。また、送信元データに含ませる画像の枚数は、送信元のゲーム装置10tのユーザが送信予定枚数を入力してもいいし、ゲーム装置10tに保存されている写真の枚数を画像の枚数として含ませてもかまわない。
 また、上述した画面表示例は、単なる一例であり、他の画面表示を行ってもいいことは言うまでもない。例えば、図53に示した画面表示例では、画像データの送受信中にその状態であることを示す通知が表示されるが、当該画像データを送受信するための時間が極めて短い場合、当該通知を表示しなくてもかまわない。
 また、上述した説明では、ゲーム装置10で撮影した静止画像等を送信対象として、ゲーム装置10の間で送受信しているが、動画像を送受信してもかまわない。この場合、送信対象となる動画像は、ゲーム装置10で撮影した動画像でもいいし、他の装置から受け取った動画像や撮影以外で記憶されている動画像でもかまわない。
 また、上述した本実施形態では、ユーザが自ら送信終了や受信終了を選択した場合、ステップSC51に戻る、すなわち画像を他のゲーム装置10rに送るのか、画像を他のゲーム装置10tから受け取るのかの選択をユーザに促す処理に戻る動作例を用いたが、当該処理に戻らなくてもかまわない。例えば、ユーザが自ら送信終了や受信終了を選択した場合であっても、ステップSC56の処理を行う、すなわち通信の相手となっている他のゲーム装置10との通信を切断し、通信が切断されたことを示す画面を表示して(図55左図または右図参照)、上記フローチャートによる処理を終了してもかまわない。
 また、上述した本実施形態では、2画面分の液晶表示部の一例として、物理的に分離された下側LCD12および上側LCD22を互いに上下に配置した場合(上下2画面の場合)を説明した。しかしながら、2画面分の表示画面の構成は、他の構成でもかまわない。例えば、下側ハウジング11の一方主面に下側LCD12および上側LCD22を左右に配置してもかまわない。また、下側LCD12と横幅が同じで縦の長さが2倍のサイズからなる縦長サイズのLCD(すなわち、物理的には1つで、表示サイズが縦に2画面分あるLCD)を下側ハウジング11の一方主面に配設して、2つの画像を上下に表示(すなわち上下の境界部分無しに隣接して表示)するように構成してもよい。また、下側LCD12と縦幅が同じで横の長さが2倍のサイズからなる横長サイズのLCDを下側ハウジング11の一方主面に配設して、横方向に2つのゲーム画像を左右に表示(すなわち左右の境界部分無しに隣接して表示)するように構成してもよい。すなわち、物理的に1つの画面を2つに分割して使用することにより2つの画像を表示してもかまわない。いずれの画像の形態に対しても、上述した下側LCD12に表示していた表示画像が表示される画面上にタッチパネル13を配設すれば、同様に本発明を実現することができる。また、物理的に1つの画面を2つに分割して使用することにより上記2つの画像を表示する場合、当該画面全面にタッチパネル13を配設してもかまわない。
 また、上述した本実施形態では、ゲーム装置10にタッチパネル13が一体的に設けられているが、ゲーム装置とタッチパネルとを別体にして構成しても、本発明を実現できることは言うまでもない。また、上側LCD22の上面にタッチパネル13を設けて上側LCD22に上述した下側LCD12に表示していた表示画像を表示してもよい。さらに、本実施形態では表示画面を2つ(下側LCD12、上側LCD22)を設けたが、表示画面は1つであってもかまわない。すなわち、本実施形態において、上側LCD22を設けず単に下側LCD12のみを表示画面としてタッチパネル13を設けるように構成してもよい。また、本実施形態において、下側LCD12を設けずに上側LCD22の上面にタッチパネル13を設けて、上述した下側LCD12に表示していた表示画像を上側LCD22に表示してもよい。
 また、本実施形態では、座標入力を実現するゲーム装置10の入力手段としてタッチパネル13を用いたが、他のポインティングデバイスを用いてもかまわない。ここで、ポインティングデバイスは、画面上での入力位置や座標を指定する入力装置であり、例えば、マウス、トラックパッド、トラックボール等を入力手段として使用し、入力手段から出力される出力値から計算された画面座標系の位置情報を用いれば、本発明を同様に実現することができる。
 また、ゲームコントローラをプレイヤが把持してゲームを楽しむ据置型のゲーム装置の場合、他の態様のポインティングデバイスも考えられる。例えば、ゲームコントローラのハウジングに固設されたカメラを、上記ポインティングデバイスとして利用することも可能である。この場合、ゲームコントローラのハウジングで指し示した位置の変化に応じてカメラが撮像する撮像画像が変化する。したがって、この撮像画像を解析することにより、表示画面に対して上記ハウジングで指し示した座標を算出することができる。なお、本発明においては、ゲーム装置10にタッチパネル13等のポインティングデバイス自体が設けられていなくても実現可能であることは言うまでもない。
 また、本実施形態では、携帯型のゲーム装置10や据置型のゲーム装置を用いて説明したが、一般的なパーソナルコンピュータ等の情報処理装置で本発明の画像通信アプリケーションプログラムを実行して、本発明を実現してもかまわない。
 また、上述したゲーム装置10の形状や、それに設けられている操作ボタン14群やタッチパネル13の形状、数、および設置位置等は、単なる一例に過ぎず他の形状、数、および設置位置であっても、本発明を実現できることは言うまでもない。また、上述した画像通信処理で用いられる各ステップの実行順序や画面表示例等は、単なる一例に過ぎず他の実行順序や画面表示であっても、本発明を実現できることは言うまでもない。
 [9.サウンド機能]
 次に、図61~図101を参照して、サウンドアプリケーションプログラム57が起動されて実行されるサウンドプログラムにより提供される処理について説明する。
 <ゲーム装置の使用例>
 図61は、本実施形態に従うゲーム装置10におけるサウンド機能におけるサウンド選択画面400の一例を示す図である。
 図61を参照して、本実施形態に従うゲーム装置10は、サウンド機能として、ユーザが自由に本体のマイクで録音した録音データファイルを用いて再生したり、あるいはSDカードに格納された音楽データであるミュージックファイルを再生したりする機能等を含む複数の機能を搭載しており、ユーザは、図61に示すサウンド選択画面400上で所望する機能を任意に選択することが可能である。
 図61に示す例では、下側LCD12の画面にゲーム装置10に搭載された各機能に対応する複数のアイコン402,404が表示されている。
 ここで、「マイクで録音してあそぶ」アイコン404を選択すると、ユーザが自由に本体のマイクで録音して録音データファイルを作成したり、作成した録音データファイルを再生したり、作成した録音データファイルを編集したりする機能のマイク録音再生モードに移行する。
 一方、「SDカードの音楽であそぶ」アイコン404を選択すると、SDカードに格納された音楽データであるミュージックファイルを再生等したりする機能の音楽再生モードに移行する。なお、本実施例においては、SDカードのミュージックファイルの格納は、一例として、パーソナルコンピュータなどによって適宜行なわれるものとするが、上述した無線通信モジュール38を用いて、インターネットを介してミュージックファイルが格納されているサーバとの間でデータを送受信して、SDカードにダウンロードしたミュージックファイルを格納するようにしてもよい。
 また、ここで、「設定」アイコン408をユーザが選択すると、設定処理に関する機能をユーザが自由に選択することが可能である。
 また、「やめる」アイコン406が選択されると、サウンド機能を終了して図示しないメニュー画面へ戻るものとする。
 また、図61において、下側LCD12の画面下部に鳥の形状のオブジェクト410が表示されている。当該鳥の形状のオブジェクト410が表示されている場合は、後述する自動録音再生機能が実行されているものとする。
 以下、まず、SDカードに格納された音楽データであるミュージックファイルの再生処理等を実行する機能である音楽再生モードについて説明する。
 具体的には、「SDカードの演奏であそぶ」アイコン404を選択すると、音楽再生モードに移行して、音楽再生フォルダリスト選択画面500が表示される。
 図62は、本実施形態に従う音楽再生フォルダリスト選択画面500を説明する図である。
 図62(a)には、下側LCD12の画面に音楽再生フォルダリスト選択画面500が表示されている場合が示されている。
 また、図62(b)には、上側LCD22の画面に現在、選択されているフォルダ内に含まれているミュージックファイルのリスト画面500#が表示されている。
 図62(a)を参照して、ユーザは、タッチペン27等で下側LCD12の画面上にタッチして音楽再生フォルダリスト選択画面500におけるフォルダリスト表示範囲530の中から任意のフォルダを選択することが可能である。なお、一例としてフォルダリスト表示範囲530において、各フォルダは、円板の円周に沿って斜めに表示されている場合が示されている。
 例えば、カーソル520がフォルダリスト表示範囲530の一番上に表示されているフォルダを選択しているものとする。タッチペン27等で下側LCD12の画面上のフォルダリスト表示範囲530の別のフォルダが表示されている位置にタッチしたり、あるいは、画面上にタッチしてタッチしたままタッチペン27等を移動等させることで、タッチペンの軌跡に応じたフォルダリストのスクロール表示処理が実行される。なお、本例においては、一例としてカーソル520の位置は変わらず、現在、フォルダリスト表示範囲530で表示されているフォルダリストの一番上のフォルダを選択した状態に設定されるものとする。したがって、タッチペンの軌跡に応じて円板が回転するようにフォルダリストのスクロール表示処理が実行される。
 なお、本例においては、一例としてカーソル520の位置は変わらないものとして説明するが、カーソル520の位置をタッチペン27でタッチしたタッチ位置に応じた位置に移動させるようにすることも可能である。具体的には、画面上にタッチして、タッチした位置からタッチ位置を変更せずに、タッチした状態を解除する操作(タッチオフ)を実行した場合には、タッチ位置に応じてカーソル520のみが移動する。その際には、フォルダリストのスクロール表示処理は実行されない。具体的には、図62(a)において、「おまかせ」のフォルダをタッチした場合には、「おまかせ」のフォルダの位置にカーソル520のみが移動する。
 一方、画面上にタッチしてタッチしたままタッチペン27等を移動等させる、すなわち、タッチした位置からタッチした状態を継続しつつ、タッチ位置を変更する操作(ドラッグ操作)を実行した場合には、タッチペンの移動軌跡(移動距離)に応じてフォルダリストのスクロール表示処理が実行される。なお、その際には、カーソル520は、スクロール表示処理前のカーソル520の位置に維持される、あるいは、フォルダリストの一番上のフォルダについて選択された状態に設定することが可能である。
 また、カーソル520の位置が変化して、選択されたフォルダが変更された場合には、図62(b)は、当該カーソル520により選択されているフォルダ内に含まれているミュージックファイルのリスト画面500#に更新される。具体的には、後述するお気に入りフォルダをタッチした場合には、お気に入りフォルダに登録されたミュージックファイルのリスト(一覧)が表示される。また、おまかせのフォルダをタッチした場合には、後述するがランダム再生が実行されるとともに、ランダム再生で再生されるミュージックファイルのリスト(一覧)が表示される。なお、ランダム再生の場合には、既に再生されたミュージックファイルについては、ファイル名を表示し、未だ再生されていないミュージックファイルのファイル名については、別の記号等に置き換えて表示するようにすることも可能である。当該処理により、ユーザは、ランダム再生の場合に、次に、再生されるミュージックファイルを再生するまで認知することができないため期待感をもたせることができ、楽しく音楽データを再生することができる。
 また、カーソル520の位置が変化しない場合であっても、フォルダリストのスクロール表示処理に従って、カーソル520により選択されているフォルダが変更されるため、上側LCD22の画面に表示されるリスト画面500#について、選択されているフォルダ内のミュージックファイルのリストに更新される。
 また、ユーザは、タッチペン27等で下側LCD12の画面上に表示されているフォルダリストスクロールバー510のスライダ518を移動させることが可能である。
 フォルダリストスクロールバー510のスライダ518を移動させることにより、フォルダリスト表示範囲530に表示されているフォルダリストが更新され、カーソル位置に応じたフォルダリストが表示される。
 また、ユーザは、音量設定アイコン550をタッチペン27等で指定することによって、スピーカ等から出力される音量を設定することができる。
 また、ユーザは、「もどる」アイコン512を選択することによって、前の画面であるサウンド選択画面400に戻ることができる。
 また、「ひらく」アイコン514を選択することによりミュージックファイル選択画面が表示される。
 また、ユーザは、図62(a)の選択機能アイコン516を選択することにより選択機能アイコンに対応した機能を実行することができる。当該選択機能アイコンは、現在、カーソル520により選択されているフォルダに対応して表示および設定が切替えられるものとする。ここでは、一例として、お気に入りフォルダの1つである「ベスト10」のフォルダが選択されている場合が示されており、当該フォルダに対応して「すべて削除」の選択機能アイコン516が設けられている。「すべて削除」の選択機能アイコン516を選択した場合には、ベスト10のフォルダ内に登録されているミュージックファイルがすべて削除される処理が実行される。なお、後述するお気に入りフォルダは、フォルダ内にミュージックファイルが登録されている場合に表示され、登録されていない場合には、フォルダが表示されないようにすることも可能である。
 また、「ベスト10」のフォルダの次のフォルダには、「おまかせ」のフォルダが表示されており、当該「おまかせ」のフォルダを選択して実行した場合には、全ミュージックファイルの最初から最後までの再生順序がランダムに指定されて再生が開始されるものとする。そして、最後に指定されたミュージックファイルの再生が終了した場合には、再び、再生順序がランダムに指定されて再生が継続されるものとする。なお、「おまかせ」のフォルダが選択されている場合には、ランダム再生であるが再生順序が指定されているため、一度再生したミュージックファイルに戻って再生を繰り返すことも可能である。また、最後に指定されたミュージックファイルの再生が終了した場合に、次の再生順序がランダムに指定された際、最後に指定されたミュージックファイルと、次の最初のミュージックファイルとが同じ場合には、再生順序をやり直す処理を実行する。当該処理により、同じ曲が連続的に再生されることを抑制してユーザのストレスを抑制することが可能である。また、「おまかせ」のフォルダが選択された場合には、再生処理が自動的に開始されるため後述する再生動作選択画面503が表示されるものとする。
 また、ここでは、一例として、「ベスト10」の次に、「おまかせ」フォルダ、また、別のお気に入りフォルダである「思い出」フォルダ、「コレクション」フォルダが順番に表示されているが、特に、この表示順に限られず、自由に表示することが可能である。例えば、「おまかせ」フォルダと「ベスト10」を入れ替えて表示することも可能である。例えば、初期のカーソル520の位置が「おまかせ」フォルダの場合には、上記の再生処理が自動的に開始されるためユーザは何も選択しなくても音楽データを再生することが可能である。
 図63は、本実施形態に従う別の音楽再生フォルダリスト選択画面501を説明する図である。
 図63(a)には、下側LCD12の音楽再生フォルダリスト選択画面501が表示されている場合が示されている。
 また、図63(b)には、下側LCD12の画面に現在、選択されているフォルダ内に含まれているミュージックファイルのリスト画面501#が表示されている。
 例えば、図62(a)のフォルダリスト表示範囲530において、ユーザがタッチペン27等を用いて、フォルダリストをスクロール表示させた場合が示されている。
 具体的には、タッチペンをフォルダリスト表示範囲530において、一例として画面上にタッチしたまま移動(スライド操作)させることでその移動した軌跡に応じてフォルダリストが更新される。
 したがって、図63(a)においては、フォルダリストスクロールバー510のカーソル518#の位置が初期位置から移動した場合が示されている。
 また、カーソル520に従ってミュージックフォルダFAが選択された状態であり、そのミュージックフォルダFAに複数のミュージックファイルが格納されていることが図63(b)のリスト画面501#に示されている。その他の点については、図62で説明したのと同様であるのでその詳細な説明は繰り返さない。
 また、「ベスト10」等のお気に入りフォルダや、「おまかせ」のフォルダ等と、ミュージックフォルダとが同じフォルダリスト表示範囲230で並列に表示されるため指定したいフォルダを一見して把握することが可能であり、ユーザのフォルダリスト選択の操作性が向上する。
 図62(a)においては、一例として、お気に入りフォルダとして、「ベスト10」、「思い出」、「コレクション」が設けられている場合が示されているが、図示しないが上記フォルダに加えて、「れんしゅう中」のフォルダや、さらに、ユーザの嗜好性に合わせて特別な表示が可能なフォルダを設けることも可能である。例えば、「ひみつ」フォルダを設けて、当該フォルダに含まれているミュージックファイルの先頭の数文字のみを表示して、残りの文字は表示しない(ひみつにする)ようにするフォルダを設けることも可能である。当該フォルダの登録については後述する。
 図64は、本実施形態に従うミュージックファイル選択画面502を説明する図である。
 図64(a)を参照して、下側LCD12の画面上にミュージックファイルリスト540が表示されている。
 前の音楽再生フォルダリスト選択画面において、「ひらく」アイコン514が選択されると選択されたミュージックフォルダに含まれているミュージックファイルのリストが表示される。
 また、ユーザは、タッチペン27等で下側LCD12の画面上のファイルリストスクロールバー510#のスライダ518#を移動させることが可能である。
 ファイルリストスクロールバー510#のスライダを移動させることにより、ファイルリストの選択画面に表示されているファイルリストがスクロールされ、カーソル位置に応じたミュージックファイルのリストが表示される。
 また、ユーザは、図64(a)の選択機能アイコンを選択することにより選択機能アイコンに対応した機能を実行することができる。当該選択機能アイコンは、現在、カーソル520により選択されているフォルダに対応して表示および設定が切替えられるものとする。ここでは、「お気に入り」の選択機能アイコン515が設けられている。「お気に入り」の選択機能アイコン515を選択した場合には、お気に入りフォルダ選択画面が表示される。
 図102は、本実施形態に従うお気に入りフォルダ選択画面509を説明する図である。
 図102を参照して、下側LCD12の画面上にお気に入りフォルダである「ベスト10」登録アイコン700、「思い出」登録アイコン702、「コレクション」登録アイコン704、「れんしゅう中」登録アイコン706、「ひみつ」登録アイコン708が設けられている場合が示されている。
 ユーザは、お気に入りフォルダ選択画面509において、上記登録アイコンのいずれかを選択することにより、選択されたフォルダに、上記図64(a)でカーソル520#により選択されているミュージックファイルが登録され、表示されることになる。
 なお、「もどる」アイコン710を選択した場合には、前の画面であるミュージックファイル選択画面502が表示される。
 また、再び、図64(a)を参照して、ミュージックファイル選択画面502において、再生モード切替アイコン517が設けられている。
 また、ユーザは、再生モード切替アイコン517を選択することによりフォルダ内の再生モードの切替を実行することが可能である。具体的には、再生中のミュージックファイルを繰り返し再生する再生モード、順番に再生し、すべての再生が終わったら最初から繰り返す再生モード、順番に再生し、すべての再生が終わったら停止する再生モード、ランダムで再生する再生モード、設定した区間のみを繰り返し再生する再生モードを順番に切替えて実行することが可能である。
 また、選択されたミュージックフォルダに関する情報が図64(b)の上側LCD22に表示される。
 図64(a)において、ユーザは「スタート」アイコン516を選択することによりカーソル520#により選択されているミュージックファイルの再生動作を実行するとともに再生動作選択画面が表示される。
 図65は、本実施形態に従う再生動作選択画面503を説明する図である。
 図65(a)においては、下側LCD12において、再生動作等において音楽を変化させて動作させる再生動作選択画面503が表示されている場合が示されている。
 具体的には、たとえば、ユーザは、効果音選択アイコン532,534をタッチペン等により選択することにより、Rボタン14JおよびLボタン14Iをそれぞれユーザが押下したときにスピーカ等から出力される効果音を切替えることが可能である。
 また、ユーザは、速度音程調整アイコン541を選択することにより、再生信号の再生スピードや音程を変える機能を実行することができる。
 また、ユーザは、音色調整アイコン542を選択することにより、再生信号の周波数を変調したり、あるいはフィルタリング処理等を実行して別の音色に変える機能を実行することができる。
 また、ユーザは、録音データ選択アイコン544を選択することにより、後述する音声録音した録音データファイルを効果音としてスピーカから出力する機能を実行することができる。
 また、再生タイムバー511の表示範囲内において、ミュージックファイル全体の再生時間の再生位置に応じてスライダ519が移動するものとする。ユーザは、タッチペン27等により再生タイムバー511の表示範囲内をタッチした場合には、タッチ位置に応じた時間からミュージックファイルの再生処理を開始することが可能である。その場合には、再生処理を開始した位置にスライダ519が移動するものとする。なお、スライダ519をタッチペン27等により選択してスライド操作して、スライド操作した位置から再生処理を開始することも可能である。
 また、ユーザは、一時停止コマンドアイコン522を選択することにより再生中のミュージックファイルを一時停止することが可能である。また、ユーザは、次の選曲コマンドアイコン524を選択することによりフォルダに含まれている次のミュージックファイルを選択して再生動作を実行することが可能である。また、ユーザは、前の選曲コマンドアイコン520を選択することによりフォルダに含まれている前のミュージックファイルを選択して再生動作を実行することが可能である。
 また、ユーザは、ビジュアライザ切替アイコン531を押下することにより後述するビジュアライザ処理を実行することが可能である。
 また、ユーザは、再生モード切替アイコン517を押下することによりフォルダ内の再生モードの切替を実行することが可能である。具体的には、再生中のミュージックファイルを繰り返し再生する再生モード、順番に再生し、すべての再生が終わったら最初から繰り返す再生モード、順番に再生し、すべての再生が終わったら停止する再生モード、ランダムで再生する再生モード、設定した区間のみを繰り返し再生する再生モードを順番に切替えて実行することが可能である。
 また、ユーザは、「お気に入り」アイコン515を押下することにより、図102で説明したお気に入りフォルダ選択画面509が表示される。そして、上述したように、お気に入りフォルダ選択画面509において、登録アイコンのいずれかを選択することにより、選択されたフォルダに、現在再生されているミュージックファイルを登録し、表示することが可能である。
 また、図65(b)においては、図64(a)の下側LCD12の画面上に表示されていたミュージックファイルリスト540が上側LCD22の画面上にミュージックファイル選択リスト画面503#として表示されている場合が示されている。そして、再生中のミュージックファイルと同じフォルダに含まれているミュージックファイルについて方向入力ボタン14Aを操作することにより選択することができる。すなわち、図64(a)の下側LCD12の画面上において、タッチペン等によりミュージックファイルを選択(スタート押下)した後、図65(a)の下側LCD12の画面上において、再生動作選択画面において、タッチペン等により選択した対象であるミュージックファイルの再生動作に対する処理をタッチペン等により選択し、上側LCD22の画面上においては、ミュージックファイルを方向入力ボタン14Aで選択することが可能である。
 そして、たとえば、方向入力ボタン14Aを用いてミュージックファイルを選択して操作ボタン14B~14Eのいずれかを押すことにより再生中のミュージックファイルを選択したミュージックファイルに切替えて再生動作を実行することが可能である。
 したがって、下側LCD12の再生動作選択画面503における処理と、上側LCD22のミュージックファイル選択リスト画面503#における処理とを並列に処理することが可能であるためユーザの利便性に供する。
 以下、本実施形態に従うサウンド機能の詳細処理について説明する。
 上述した本実施形態に従う「サウンド機能」に係る処理手順について以下のフローを参照して説明する。なお、各ステップは、代表的にCPU31が、メモリカード29に記憶されたプログラム等をメインメモリ32に読出して実行することで実現される。
 <機能選択処理>
 図66は、本実施形態に従うゲーム装置10における機能選択に係る処理を説明するフローチャートである。なお、図66に示すフローは、図61のサウンド選択画面400における処理を説明するものである。
 図66を参照して、ゲーム装置10の電源が投入され、あるいはスタートボタンが押下された後、ユーザが図示しないメニュー画面から所定のアイコンを選択することでサウンド機能が実行される。
 ステップSD1において、CPU31は、図61に示すようなサウンド選択画面400を下側LCD12に表示する。
 そして、次に、CPU31は、自動録音再生処理を開始する(ステップSD2)。自動録音再生処理については後述する。なお、ステップSD1とSD2との順番を入れ替えることも可能である。
 そして、次に、CPU31は、タッチパネル13からタッチ位置のデータの入力があるかどうかを判断する(ステップSD3)。CPU31は、I/F回路42を介してタッチパネル13からタッチ位置データが入力されたか否かを判断する。すなわち、CPU31は、ユーザによるタッチペン27等によるタッチ操作の有無を判断する。タッチ位置データの入力がされていなければ(ステップSD3においてNO)、ステップSD3の処理が繰り返される。
 一方、タッチ位置データが入力されていれば(ステップSD3においてYES)、処理はステップSD4に進む。
 ステップSD4では、CPU31は、タッチ位置データの示す座標値が機能選択アイコンの表示範囲内の値であるかどうかを判断する。すなわち、CPU31は、「マイクで録音してあそぶ」アイコン402あるいは「SDカードの演奏であそぶ」アイコン404のいずれが選択されたか否かを判断する。
 そして、タッチ位置データの示す座標値が「マイクで録音してあそぶ」アイコン402あるいは「SDカードの演奏であそぶ」アイコン404の表示範囲内の値であれば(ステップSD4においてYES)、処理はステップSD8に進む。
 一方、タッチ位置データの示す座標値がいずれの「マイクで録音してあそぶ」アイコン402あるいは「SDカードの演奏であそぶ」404の表示範囲外であれば(ステップSD4においてNO)、処理はステップSD5に進む。
 ステップSD8において、CPU31は、ステップSD4においてタッチ位置の示す座標値が機能選択アイコンの表示範囲内の値であると判断した場合には、自動録音再生処理を終了する(ステップSD8)。
 そして、CPU31は、次に選択された機能モードの移行処理を実行する(ステップSD9)。選択された機能モードの移行処理については後述する。
 一方、CPU31は、ステップSD4においてタッチ位置の示す座標値が機能選択アイコンの表示範囲内の値ではないと判断した場合には、次にタッチ位置の示す座標値が「設定」アイコン408の表示範囲内の値であるかどうかを判断する(ステップSD5)。
 CPU31は、ステップSD5において、タッチ位置の示す座標値が「設定」アイコン408の表示範囲内の値であると判断した場合には自動録音再生処理を終了する(ステップSD10)。
 次に、CPU31は、設定処理を実行する(ステップSD11)。設定処理については後述する。
 一方、CPU31は、ステップSD5において、タッチ位置の示す座標値が「設定」アイコン408の表示範囲内の値ではないと判断した場合には次にタッチ位置の示す座標値が「終わる」アイコン406の表示範囲内の値であるかどうかを判断する(ステップSD6)。
 CPU31は、ステップSD6において、タッチ位置の示す座標値が「おわる」アイコン408の表示範囲内の値であると判断される場合には自動録音再生処理を終了して機能選択処理を終了する(エンド)。すなわち、これにより図示しないメニュー画面に戻る。
 一方、CPU31は、ステップSD6においてタッチ位置の示す座標値が「おわる」アイコン408の表示範囲内の値ではない場合にはステップSD3に戻る。
 図67は、図66における選択機能モード移行処理のサブルーチン処理を説明するフローチャートである。
 図67を参照して、CPU31は、タッチ位置の示す座標値が「SDカードの音楽で遊ぶ」アイコン404の表示範囲内の値あるいは「マイクで録音して遊ぶ」のアイコン402の表示範囲内のいずれであるかを判断する(ステップSD20)。
 CPU31は、タッチ位置の示す座標値が「SDカードの音楽で遊ぶ」アイコン404の表示範囲内の値である場合にはステップSD21に進む。
 そして、CPU31は、SDカードが挿入されているかどうかを判断する(ステップSD21)。CPU31は、SDカードが挿入されていると判断した場合には次に音楽再生モードに移行する(ステップSD22)。音楽再生モードについては後述する。音楽再生モードが終了した場合には、再び、図1のステップSD1のサウンド選択画面に戻る(リターン)。
 一方、CPU31は、ステップSD21においてSDカードが挿入されていないと判断した場合にはエラー表示処理を実行する(ステップSD23)。エラー表示処理は、一例として、「SDカードが挿入されていません」等の表示処理を実行してユーザにSDカードの挿入を促す処理である。そして、再び、ステップSD1に戻る(リターン)。
 一方、CPU31は、ステップSD20においてタッチ位置の示す座標値が「マイクで録音して遊ぶ」アイコン402の表示範囲内であると判断した場合にはマイク録音再生モードに移行する(ステップSD24)。マイク録音再生モードについては後述する。マイク録音再生モードが終了した場合には、再び、図1のステップSD1のサウンド選択画面に戻る(リターン)。
 <音楽再生モード>
 次に、音楽再生モードについて説明する。
 図68は、音楽再生モードにおけるサブルーチン処理を説明するフローチャートである。
 図68を参照して、まず、CPU31は、SDカード内のフォルダ検索処理を実行する(ステップSD30)。
 そして、CPU31は、次にフォルダリストを生成する(ステップSD31)。
 そして、CPU31は、次に、音楽再生フォルダリスト選択画面を表示する(ステップSD32)。上述した図62および図63は、音楽再生フォルダリスト選択画面500が表示された場合の一例図である。
 ここで、SDカード内のフォルダ検索処理について説明する。
 図69は、SDカード内のフォルダ検索処理のサブルーチン処理を説明するフローチャートである。
 図69を参照して、CPU31は、SDカード内における格納されたフォルダに対応付けられたパスのうち最初に探索する探索初期パスを設定する(ステップSD50)。そして、次に、CPU31は、探索初期パスに従ってミュージックファイルの探索処理を実行する(ステップSD51)。
 そして、CPU31は、探索初期パスに従うミュージックファイルの探索処理により、フォルダ内にミュージックファイルが存在するかどうかを判断する(ステップSD52)。
 ステップSD52において、CPU31は、ミュージックファイルが有ると判断した場合には、ミュージックファイルが含まれているミュージックフォルダを抽出する(ステップSD53)。
 なお、ミュージックファイルが存在するか否かは、一例としてファイルを識別するための拡張子を参照することにより判断することが可能である。なお、拡張子に限られず、ファイルのヘッダ等に格納されている識別情報を参照することにより判断することも可能であり、その判断方式は問わない。
 そして、次に、CPU31は、全てのパスについて探索が完了したかどうかを判断する(ステップSD54)。
 ステップSD54において、CPU31は、全てのパスについて探索が完了していないと判断した場合には、次に探索する探索次パスを設定する(ステップSD25)。
 そして、ステップSD51に戻り、上記の処理であるミュージックファイルの探索処理を実行する。
 そして、全てのパスについての探索が完了するまで上述したステップSD51~SD54の処理を繰り返す。ステップSD54において、CPU31は、全てのパスの探索が完了したと判断した場合には処理を終了する(リターン)。
 これにより、装着されたSDカードについて、ミュージックファイルが存在するすべてのフォルダを抽出することができる。
 図70は、フォルダリスト生成のサブルーチン処理を説明するフローチャートである。
 図70を参照して、まず、CPU31は、フォルダ名判定処理を実行する(ステップSD60)。そして、次に、CPU31は、フォルダ配列処理を実行する(ステップSD61)。
 図71は、フォルダ名判定処理のサブルーチン処理を説明するフローチャートである。
 図71を参照して、CPU31は、図69のフォルダ検索処理により抽出された最初のフォルダを選択する(ステップSD65)。そして、CPU31は、次に同一のフォルダ名があるかどうかを判断する(ステップSD66)。
 CPU31は、ステップSD66において同一のフォルダ名があると判断した場合にはフォルダをマージする(ステップSD67)。
 一方、CPU31は、ステップSD66において、同一のフォルダがないと判断した場合にはステップSD68に進む。CPU31は、ステップSD68において、図69のフォルダ検索処理により抽出されたすべてのフォルダについて判定が終了したかどうかを判断する。
 CPU31は、ステップSD68において、すべてのフォルダについて判定が終了していないと判断した場合には、図69のフォルダ検索処理により抽出された次のフォルダを選択する(ステップSD69)。そして、CPU31は、ステップSD66に戻り、上述したステップSD66~SD69の処理を繰り返す。
 CPU31は、ステップSD68において、すべてのフォルダについて判定が終了したと判断した場合には、次に図70のフォルダ配列処理(ステップSD61)に進む。
 再び図70を参照して、フォルダ配列処理(ステップSD61)においては、フォルダ名判定処理(ステップSD60)において、マージされたフォルダ等について名前あるいは記号等に従って所定の配列順序に従ってフォルダを配列する。
 そして再び、図68に戻る(リターン)。
 図68を参照して、次に、ステップSD32においてフォルダ配列処理(ステップSD61)において、配列されたフォルダ順序に従って音楽再生フォルダリスト選択画面においてフォルダリストが表示される(ステップSD32)。
 図72は、フォルダ検索処理を説明する具体例の一例を説明する図である。
 ここでは、一例として、1つのSDカードにおいて格納されているミュージックファイルとフォルダのリスト構造が示されている。
 図72を参照して、具体的には一例としてフォルダFD1とフォルダFD2が設けられ、フォルダFD1にはミュージックフォルダFAとミュージックフォルダFBとが設けられている場合が示されている。
 そして、ミュージックフォルダFAにはミュージックファイルMAA、ミュージックファイルMBB、…が含まれている場合が示されている。
 また、ミュージックフォルダFBにはミュージックファイル・・・が含まれている場合が示されている。
 フォルダFD2には、ミュージックフォルダFAとミュージックフォルダFCとが設けられている場合が示されている。
 そして、ミュージックフォルダFAにはミュージックファイルMX,MYが含まれている場合が示されている。
 また、ミュージックフォルダFCにはミュージックファイル・・・が含まれている場合が示されている。
 このようなツリー構造を有するフォルダがSDカード内に格納されている場合において、図69で説明したフローに従う処理により、ミュージックファイルが格納されているミュージックフォルダFA.FB,FA,FCの4つのミュージックフォルダが抽出される。
 そして、図71で説明したフローに従う処理により、フォルダFD1に格納されているミュージックフォルダFAとフォルダFD2に格納されているミュージックフォルダFAは同一のフォルダ名であるため、ミュージックフォルダFAとしてそれぞれのフォルダに格納されているミュージックファイルがマージされることになる。このようにマージされることにより、図63(b)に例示されるようなミュージックファイルのリスト画面501#や図70(b)に例示されるようなミュージックファイル選択リスト画面503#において、上述の例においては、ミュージックフォルダFAについて、当該フォルダに属するミュージックファイルとして、ミュージックファイルMAA、ミュージックファイルMBB、・・・、ミュージックファイルMX、ミュージックファイルMY、・・・が一覧表示されるように設定される。
 そして、当該処理により、同一のフォルダ名についてはマージされてフォルダリスト選択画面においてフォルダリストが表示されることになる。これによって、装着したメモリカード(SDカード)内に同一名称のフォルダが存在する場合には、同一グループとして一覧表示されることにより、同一のフォルダ名が複数存在する場合等のSDカードのフォルダ構成によりフォルダの抽出処理に不具合が生じることがなく、また、利便性を向上させることができる。
 なお、本実施例においては、装着したメモリカード(SDカード)内のミュージックファイルをグループ化するために、ミュージックファイル内の属性情報を利用することなく、メモリカードのフォルダ情報をそのまま利用する(同一フォルダに存在するミュージックファイルを同一グループとして扱う)。また、各フォルダが存在する階層に関わらず、音楽再生フォルダリスト選択画面500などにおいて、全てのフォルダを並列に(1つの階層で)表示する。すなわち、例えば、図14の例において、フォルダFD1およびフォルダFD2にもミュージックファイルが存在する場合には、音楽再生フォルダリスト選択画面500においては、フォルダFD1、フォルダFD2、ミュージックフォルダFA、ミュージックフォルダFB、ミュージックフォルダFCが並列に一覧表示されることになる。これにより、メモリカードの階層構成が複雑な場合であっても、所望のミュージックファイルを例えばユーザである子供などでも容易に見つけることができる。
 また、同一グループとして扱うフォルダの名称として、音楽再生フォルダリスト選択画面500などにおいて、メモリカードに登録されているフォルダ名称をそのまま利用するため所望のミュージックファイルをユーザは容易に探すことが可能であり、利便性が向上する。
 さらに、前述したとおり、音楽再生フォルダリスト選択画面500においては、メモリカードから抽出した各フォルダの名称(これは、各フォルダに属するミュージックファイルを一覧表示させるためのタッチボタンでもある)とともに、お気に入りフォルダ(これは、お気に入りに登録されたミュージックファイルを一覧表示させるためのタッチボタンでもある)を並列に(1つの階層で)表示するので、フォルダの選択操作が容易となり、さらに利便性が向上する。さらには、「おまかせ」のフォルダをそのようなリスト中に並列に表示するので、さらに利便性が向上する。
 再び、図68を参照して、ステップSD32において、音楽再生フォルダリスト選択画面が表示された後、CPU31は、次にタッチパネル13からタッチ位置データの入力があるかどうかを判断する(ステップSD33)。CPU31は、I/F回路42を介してタッチパネル13からタッチ位置データが入力されたか否かを判断する。すなわち、CPU31は、ユーザによるタッチペン27によるタッチ操作の有無を判断する。言い換えれば、CPU31は、タッチパネル13に対するユーザの操作によって入力された座標値が検出されるか否かを判断する。タッチ位置データが入力されていなければ(ステップSD33においてNO)、ステップSD33における処理が繰り返される。
 一方、タッチ位置データが入力されていれば(ステップSD33においてYES)、処理はステップSD34へ進む。
 そして、CPU31は、タッチ位置データを示す座標値がフォルダリスト表示範囲内の値であるかどうかを判断する(ステップSD34)。
 ステップSD34において、CPU31は、タッチ位置データの示す座標値がフォルダリストの表示範囲内の値であると判断した場合にはタッチ位置あるいはタッチペンのタッチ位置からの移動軌跡に応じてフォルダリストのスクロール表示処理を実行する(ステップSD35)。
 そして、次に、CPU31は、フォルダリスト中の選択されたフォルダの位置に応じてフォルダリストスクロールバー510のスライダ位置の移動処理を実行する(ステップSD35#)。そして、再び、ステップSD33に戻る。なお、ステップSD35とSD35#の処理の順序を入れ替えることも可能である。以下についても同様である。
 なお、本例においては、一例としてカーソル520の位置は変わらないものとして説明するため、フォルダリストのスクロール表示処理についてのみ説明したが、上述したように、カーソル520の位置をタッチペン27でタッチしたタッチ位置に応じた位置に移動させるように表示処理を実行することも可能である。
 その場合には、画面上にタッチして、タッチした位置からタッチ位置を変更せずに、タッチした状態を解除する操作(タッチオフ)を実行した場合には、タッチ位置に応じてカーソル520のみが移動する。その際には、フォルダリストのスクロール表示処理およびフォルダリストスクロールバーのスライダ位置の移動処理を実行しない。
 一方、画面上にタッチしてタッチしたままタッチペン27等を移動等させる、すなわち、タッチした位置からタッチした状態を継続しつつ、タッチ位置を変更する操作(ドラッグ操作)を実行した場合には、タッチペンの移動軌跡(移動距離)に応じてフォルダリストのスクロール表示処理が実行される。その際には、フォルダリストスクロールバーのスライダ位置についても移動処理が実行される。
 一方、ステップSD34において、CPU31は、タッチ位置データの示す座標値がフォルダリスト表示範囲内の値ではないと判断した場合には、タッチ位置データの示す座標値が音量設定アイコン550の表示範囲内の値であるかどうかを判断する(ステップSD36)。
 ステップSD36において、CPU31は、タッチ位置データの示す座標値が音量設定アイコン550の表示範囲内の値であると判断した場合には次に音量設定処理を実行する(ステップSD37)。そして、再び、ステップSD33に戻る。音量設定処理については後述する。
 ステップSD36において、CPU31は、タッチ位置データの示す座標値が音量設定アイコン550の表示範囲内の値ではないと判断した場合には、次にタッチ位置データの示す座標値が「ひらく」アイコン514の表示範囲内の値であるかどうかを判断する(ステップSD38)。
 ステップSD36において、CPU31は、タッチ位置データの示す座標値が「ひらく」アイコン514の表示範囲内の値であると判断した場合には、次にミュージックファイル選択処理を実行する(ステップSD39)。ミュージックファイル選択処理については後述する。
 一方、ステップSD38において、CPU31は、タッチ位置データの示す座標値が「ひらく」アイコン514の表示範囲内の値ではないと判断した場合には、次にタッチ位置データの示す座標値がフォルダリストスクロールバー510の表示範囲内の値であるかどうかを判断する(ステップSD40)。
 ステップSD40において、CPU31は、タッチ位置データの示す座標値がフォルダリストスクロールバー510の表示範囲内の値であると判断した場合には、タッチ位置に応じてフォルダリストのスクロール表示処理を実行する(ステップSD41)。
 そして、次に、フォルダリスト中の選択されたフォルダ位置に応じてフォルダリストスクロールバー510のスライダ位置の移動処理を実行する(ステップSD42)。そして、再び、ステップSD33に戻る。
 一方、ステップSD40において、CPU31は、タッチ位置データの示す座標中がフォルダリストスクロールバー510の表示範囲内の値ではないと判断した場合には、次にタッチ位置データの示す座標値が選択機能アイコン表示範囲内の値であるかどうかを判断する(ステップSD43)。
 ステップSD43において、CPU31は、タッチ位置データの示す座標値が選択機能アイコンの表示範囲内の値であると判断した場合には、選択機能アイコンに対応した機能を実行する(ステップSD44)。
 一方、ステップSD43において、CPU31は、タッチ位置データの示す座標値が選択機能アイコンの表示範囲内の値ではないと判断した場合には、次にタッチ位置データの示す座標値が「もどる」アイコン512の表示範囲内の値であるかどうかを判断する(ステップSD45)。
 ステップSD45において、CPU31は、タッチ位置データの示す座標値が「もどる」アイコン512の表示範囲内の値であると判断した場合には、音楽再生モードの処理を終了して、図66のステップSD1におけるサウンド選択画面が表示される。
 一方、ステップSD45において、CPU31は、タッチ位置データの示す座標値が「もどる」アイコン512の表示範囲内の値ではないと判断した場合には、ステップSD33に戻る。
 図73は、ミュージックファイル選択処理のサブルーチン処理を説明するフローチャートである。
 図73を参照して、CPU31は、まず、図64で説明したミュージックファイル選択画面502を表示する(ステップSD70)。
 次に、CPU31は、タッチパネル13からタッチ位置データの入力が有るかどうかを判断する(ステップSD70#)。CPU31は、I/F回路42を介してタッチパネル13からタッチ位置データが入力されたか否かを判断する。すなわち、CPU31は、ユーザによるタッチペン27によるタッチ操作の有無を判断する。言い換えれば、CPU31は、タッチパネル13に対するユーザの操作によって入力された座標値が検出されるか否かを判断する。タッチ位置データが入力されていなければ(ステップSD70#においてNO)、ステップSD70#における処理が繰り返される。
 一方、タッチ位置データが入力されていれば(ステップSD70#においてYES)、処理はステップSD71へ進む。
 そして、CPU31は、次にタッチ位置データの示す座標値がミュージックファイルリスト540の表示範囲内の値であるかどうかを判断する(ステップSD71)。
 ステップSD71において、CPU31は、タッチ位置データの示す座標値がミュージックファイルリスト540の表示範囲内の値であると判断した場合には、次にタッチ位置に応じてミュージックファイルリスト540のスクロール表示処理を実行する(ステップSD72)。
 そして、次に、CPU31は、ミュージックファイルリスト中の選択されたミュージックファイルの位置に応じてミュージックファイルリストのスクロールバー510#のスライダ位置の移動処理を実行する(ステップSD73)。そして、再びステップSD70#に戻る。
 一方、ステップSD71において、CPU31は、タッチ位置データの示す座標値がミュージックファイルリスト540の表示範囲内の値ではないと判断した場合には、次にタッチ位置データの示す座標値が音量設定アイコン550の表示範囲内の値であるかどうかを判断する(ステップSD74)。ステップSD74において、CPU31は、タッチ位置データの示す座標値が音量設定アイコン550の表示範囲内の値であると判断した場合には音量設定処理を実行する(ステップSD75)。そして、再びステップSD70#に戻る。音量設定処理については後述する。
 ステップSD74において、CPU31は、タッチ位置データの示す座標値が音量設定アイコン550の表示範囲内の値ではないと判断した場合には、タッチ位置データの示す座標値が「スタート」アイコン526の表示範囲内の値であるかどうかを判断する(ステップSD76)。
 ステップSD76において、CPU31は、タッチ位置データの示す座標値が「スタート」アイコン526の表示範囲内の値であると判断した場合には、ミュージックファイル再生処理を実行する(ステップSD76#)。ミュージックファイル再生処理については後述する。
 一方、ステップSD76において、CPU31は、タッチ位置データの示す座標値が「スタート」アイコン526の表示範囲内の値ではないと判断した場合には、次にタッチ位置データの示す座標値がミュージックファイルリストのスクロールバー510#の表示範囲内の値であるかどうかを判断する(ステップSD77)。
 ステップSD77において、CPU31は、タッチ位置データの示す座標値がミュージックファイルリストのスクロールバー510#の表示範囲内の値であると判断した場合にはタッチ位置データに応じてミュージックファイルリスト540のスクロール表示処理を実行する(ステップSD78)。
 そして、次に、CPU31は、ミュージックファイルリスト中の選択されたミュージックファイルの位置に応じてミュージックファイルリストのスクロールバー510#のスライダ位置の移動処理を実行する(ステップSD79)。そして、再びステップSD70#に戻る。
 一方、ステップSD77において、CPU31は、タッチ位置データの示す座標値がミュージックファイルリストのスクロールバー510#の表示範囲内の値ではないと判断した場合には、次にタッチ位置データの示す座標値が選択機能アイコンの表示範囲内の値であるかどうかを判断する(ステップSD80)。
 ステップSD80において、CPU31は、タッチ位置データの示す座標値が選択機能アイコンの表示範囲内の値ではあると判断した場合には、選択機能アイコンに対応した機能を実行する(ステップSD81)。そして再びステップSD70#に戻る。例えば、「お気に入り」の選択機能アイコン515の表示範囲内の値であると判断した場合には、上述した図102で説明したお気に入りフォルダ選択画面509が表示される。そして、登録アイコンのいずれかを選択することにより、選択されたフォルダ内に、ミュージックファイルを登録する処理が実行される。
 一方、ステップSD80において、CPU31は、タッチ位置データの示す座標値が選択機能アイコン表示範囲内の値ではないと判断した場合には、次にタッチ位置データの示す座標値が「もどる」アイコン512#の表示範囲内の値であるかどうかを判断する。
 ステップSD82において、タッチ位置データの示す座標値が「もどる」アイコン512#の表示範囲内の値であると判断した場合には、「A」に進み、図68のステップSD32の音楽再生フォルダリスト選択画面が表示される。
 図74は、ミュージックファイル再生処理のサブルーチン処理を説明する図である。
 図74を参照して、CPU31は、選択されたミュージックファイルの再生を開始する(ステップSD90)。
 なお、上述したように音声出力制御回路42cは、CPU31からの指示に従ってヘッドホン18が接続されている場合にはヘッドホン用アンプ48を介してヘッドホンに出力し、ヘッドホンが接続されていない場合は、アンプ44,46を介して右側スピーカ45,47に出力する。
 そして、次に、上側LCD22にミュージックファイル選択画面を表示するとともに下側LCD12に再生動作選択画面を表示する(ステップSD91)。
 そして、次に、CPU31は、タッチパネル13からタッチ位置データの入力があるかどうかを判断する(ステップSD92)。
 ステップSD92において、CPU31は、タッチパネル13からタッチ位置データの入力がないと判断した場合には、次に方向入力ボタン14Aによる操作があるかどうかを判断する(ステップSD93)。
 ステップSD93において、CPU31は、方向入力ボタン14Aによる操作があると判断した場合には、方向入力ボタン14Aの操作に応じてミュージックファイル選択画面におけるカーソル位置により選択されているミュージックファイルリストのスクロール表示処理を実行する(ステップSD94)。
 一方、ステップSD93において、CPU31は、方向入力ボタン14Aによる操作がないと判断した場合には、再び、ステップSD92に戻る。
 そして、CPU31は、次に所定ボタンの押下があるかどうかを判断する(ステップSD94♯)。
 ステップSD94♯において、CPU31は、所定ボタンの押下がある場合には、カーソル位置により選択されているミュージックファイルの再生を開始する(ステップSD90)。
 一方、CPU31は、ステップSD94♯において、所定ボタンの押下がない場合には再びステップSD92に戻る。ここで、所定ボタンは、操作ボタン14B~14Eのいずれかに設定されているものとする。
 ステップSD92において、CPU31は、タッチパネル13からタッチ位置データの入力があった場合には、次にタッチ位置データの示す座標値が再生タイムバー511の表示範囲内の値であるかどうかを判断する(ステップSD95)。
 ステップSD95において、CPU31は、タッチ位置データの示す表示が再生タイムバー511の表示範囲内の値であると判断した場合には、タッチ位置に応じた時間からミュージックファイルの再生処理を実行する(ステップSD96)。
 そして、CPU31は、タッチ位置に応じた再生タイムバー511における全体の再生時間における再生位置を示すスライダ位置の移動処理を実行する(ステップSD97)。そして、再びステップSD92に戻る。
 ステップSD95において、CPU31は、タッチ位置データの示す座標値が再生タイムバー511の表示範囲内の値ではないと判断した場合には、次にタッチ位置データの示す座標値が音量設定アイコン550の表示範囲内の値であるかどうか判断する(ステップSD98)。
 ステップSD98において、CPU31は、タッチ位置データの示す座標値が音量設定アイコン550の表示範囲内の値と判断した場合には音量設定処理を実行する(ステップSD99)。そして、再びステップSD92に戻る。音量設定処理については後述する。
 一方、ステップSD98において、CPU31は、タッチ位置データの示す座標値が音量設定アイコン550の表示範囲内の値ではない場合には、次にタッチ位置データの示す座標値がビジュアライザ切替アイコン531の範囲内の値であるかどうかを判断する(ステップSD100)。
 ステップSD100において、CPU31は、タッチ位置データの示す座標値がビジュアライザ切替アイコン531の表示範囲内の値であると判断した場合には、次にビジュアライザ表示処理を実行する(ステップSD101)。そして、再びステップSD92に戻る。ビジュアライザ表示処理については後述する。
 ステップSD100において、CPU31は、タッチ位置データの示す座標値がビジュアライザ切替アイコン531の表示範囲内の値ではないと判断した場合には、次にタッチ位置データの示す座標値が再生動作コマンドアイコンの表示範囲内の値であるかどうかを判断する(ステップSD402)。ここで、再生動作コマンドアイコンとしては、一時停止コマンドアイコン522、次の選曲コマンドアイコン524、前の選曲コマンドアイコン520が一例として設けられている。
 ステップSD402において、CPU31は、タッチ位置データの示す座標値が再生動作コマンドのアイコンの表示範囲内の値であると判断した場合には、再生動作コマンドに対応した機能を実行する(ステップSD103)。そして、再びステップSD92に戻る。
 具体的には、タッチ位置データの示す座標値が一時停止コマンドアイコン522の表示範囲内の値であると判断した場合には、CPU31は、再生動作を一時停止する。また、タッチ位置データの示す座標値が次の曲の選択コマンドアイコン524の表示範囲内の値であると判断した場合には、CPU31は、次の選択されたミュージックファイルの再生を開始する。一方、タッチ位置データの示す座標値が前の曲の選択コマンドアイコン520の表示範囲内の値であると判断した場合には、CPU31は、前の選択されたミュージックファイルの再生を開始する。
 ステップSD402において、CPU31は、タッチ位置データの示す座標値が再生動作コマンドアイコンの表示範囲内の値ではないと判断した場合には、次にタッチ位置データの示す座標値が選択機能アイコンの表示範囲内の値であるかどうかを判断する。
 ステップSD104において、CPU31は、タッチ位置データの示す座標値が選択機能アイコンの表示範囲内の値であると判断した場合には、次に選択機能アイコンに対応した機能を実行する(ステップSD105)。そして再びステップSD92に戻る。例えば、本例においては、選択機能アイコンとして、「お気に入り」アイコン515、再生モード切替アイコン517、速度音程調整アイコン541、音色調整アイコン542、録音データ選択アイコン544が表示されている。
 具体的には、上述したようにCPU31は、タッチ位置データの示す座標値が「お気に入り」アイコン515の表示範囲内の値であると判断した場合には、現在選択されているミュージックファイルをお気に入りフォルダに移動する処理を実行する。
 また、CPU31は、タッチ位置データの示す座標値が再生モード切替アイコン517の表示範囲内の値であると判断した場合には、再生モードの設定を切替えて表示する。
 また、CPU31は、タッチ位置データの示す座標値が速度音程調整アイコン541の表示範囲内の値であると判断した場合には、後述する再生スピードや音程を変える機能を実行する。
 また、CPU31は、タッチ位置データの示す座標値が音色調整アイコン542の表示範囲内の値であると判断した場合には、後述する周波数を変調するフィルタリング処理を実行して別の音色に変える機能を実行する。
 また、CPU31は、タッチ位置データの示す座標値が録音データ選択アイコン544の表示範囲内の値であると判断した場合には、後述する録音した音声データファイルを効果音としてスピーカから出力する機能を実行する。
 ステップSD104において、CPU31は、タッチ位置データの示す座標値が選択機能アイコンの表示範囲内の値ではないと判断した場合には、次にタッチ位置データの示す座標値が「もどる」アイコン512aの表示範囲内の値であるかどうかを判断する(ステップSD106)。
 ステップSD106において、CPU31は、タッチ位置データの示す座標値が「もどる」アイコン512aの表示範囲内の値ではないと判断した場合には、ステップSD92に戻る。
 一方、ステップSD106において、CPU31は、タッチ位置データの示す座標値が「もどる」アイコン512aの表示範囲内の値であると判断した場合には、「B」に進み、図73のステップSD70において、ミュージックファイル選択画面を表示する。
 <音量設定処理>
 次に、音量設定処理について説明する。
 図75は、音量設定アイコン550を拡大した図である。
 図75(a)を参照して、音量設定アイコン550には、一例として横軸において、左から右に行くほど音量が大きくなるスライダ552が設けられている。
 スライダ552は、音量レベルのパラメータ設定範囲内における現在値に応じた位置に表示されている。
 ここで、スライダ552が表示されている現在値に対応した位置よりも音量が小さい方向の領域を音量小領域554、スライダ552が表示されている現在値に対応した位置よりも音量が大きい方向の領域を音量大領域555とする。
 本発明の実施の形態においては、タッチペン等によりスライダ552を選択した場合には、その後のスライドタッチ操作(タッチオン状態を継続しつつ、タッチ位置を変更する操作)に応じて、現在値に対応した位置から音量小領域554および音量大領域555のいずれの方向においてもスライダを連続的に移動操作(いわゆるドラッグ操作)することが可能である。
 なお、タッチペン等によりスライダ552を選択した場合とは、(i)スライダ552上でタッチオンした場合、(ii)タッチ操作中のタッチ位置がスライダ552内に入った場合があるが、(i)の場合にのみスライダ552をドラッグ操作するようにしてもよいし、(ii)の場合にのみ当該ドラッグ操作するようにしてもよし、(i)または(ii)のいずれの場合であってもドラッグ操作することを可能としてもよい。
 図75(b)を参照して、
タッチペン等によりスライダ552以外の音量小領域554をタッチオンした場合には、スライダ552を当該タッチオンの位置に瞬時に移動操作することが可能である。これにより、現在の音量値よりも小さい音量への変更は瞬時に行うことができる。一方、タッチペン等によりスライダ552以外の音量大領域555をタッチオンした場合には、スライダ552を当該タッチオンの位置に瞬時に移動操作させない。これにより、現在の音量値よりも大きい音量への変更を瞬時に行うことができない。
 なお、音量小領域554上でタッチオンした場合とは、(i)音量小領域554内でタッチオンした場合、(ii)タッチ操作中のタッチ位置が音量小領域554内に入った場合があるが、(i)の場合にのみスライダ552をタッチオン位置に瞬時に移動するようにしてもよいし、(ii)の場合にのみスライダ552をタッチ位置に瞬時に移動するようにしてもよいし、(i)または(ii)のいずれの場合であっても瞬時に移動することを可能としてもよい。
 また、音量小領域554をタッチした場合には、スライダ552がタッチ位置に瞬時に移動するが、その後、スライド操作を継続した場合には、上述したようなドラッグ操作が可能である。
 図76は、本実施形態に従う音量設定処理のサブルーチン処理を説明するフローチャートである。
 図76を参照して、CPU31は、タッチ位置データの示す座標値が音量設定アイコン550の表示範囲内であると判断した場合には、タッチ位置データの示す座標値がスライダ552の表示範囲内の値かどうかを判断する(ステップSD110)。
 ステップSD110において、CPU31は、タッチ位置データの示す座標値がスライダ表示範囲内の値であると判断した場合には、画面上にタッチしたままタッチペンを移動(スライド操作)させることでその移動した軌跡に応じて、最新のタッチ位置にスライダ552が表示されるように移動表示する(ステップSD114)。すなわち、音量レベルのパラメータの設定範囲内におけるスライダ552の現在の位置から所望の位置への連続的な移動操作を受け付ける。
 そして、CPU31は、スライダ552の位置に応じた音量に設定する(ステップSD115)。すなわち、音量レベルのパラメータを移動操作に従うスライダ552の移動後の位置に応じた値に更新する。この点で、スライダ552は、現在の位置から所望の位置へ連続的に移動することになるので移動に伴って徐々に音量レベルのパラメータが調整される。
 一方、ステップSD110において、CPU31は、タッチ位置データの示す座標値がスライダ552の表示範囲内の値ではないと判断した場合には、次に、タッチ位置データの示す座標値が音量入力受付表示範囲内の値かどうかを判断する(ステップSD111)。
 ステップSD111において、CPU31は、タッチ位置データの示す座標値が音量入力受付表示範囲内の値であると判断した場合には、タッチペンにより入力された位置にスライダ552を移動表示する(ステップSD112)。そして、パラメータの設定範囲内におけるスライダ552の位置に応じた音量に設定する(ステップSD115)。
 一方、ステップSD111において、CPU31は、タッチ位置データの示す座標値が音量入力受付表示範囲内の値ではないと判断した場合には入力無効判定処理を実行する(ステップSD113)。すなわち、入力は無効であると判定処理する。そして処理を終了する。
 本実施形態においては、音量入力受付表示範囲内には、音量小領域が設定されているものとする。音量入力受付表示範囲内には、音量大領域555は設定されていない。すなわち、パラメータの現在値よりも小さくなる方向にスライダが移動するような場合、本例においては音量小領域には、スライダの所望の位置への移動操作である入力を受け付け、パラメータの現在値よりも大きくなる方向にスライダが移動するような場合、本例においては音量大領域には、スライダの所望の位置への移動操作である入力は受け付けない。
 したがって、タッチ位置において、スライダ552は音量小領域については即座に移動されてスライダ位置に応じた音量に設定されるが、音量大領域は入力無効判定処理となってスライダは移動されずスライダ位置に応じた音量には設定されない。
 当該処理によりタッチペンによって音量設定処理が実行された場合に、ユーザの誤操作によって音量がいきなり大きくなるようなことが生じることはない。すなわち、音量が小さくなる方向においてはタッチペンによってスライダの位置が変化して、スライダの位置に応じた音量設定処理を実行することができるが、音量が大きくなる方向においてはタッチペンによってスライダの位置は変わらず、音量が大きくなることはない。
 特に、タッチペンを用いた設定処理を実行する場合においては、タッチパネルの任意の位置をユーザが自由に指定することができるとともに、レイアウトの都合上、音量設定アイコン550の表示範囲を大きくとることはできない。それゆえ、音量設定処理を実行する場合には、注意して音量設定アイコン550の表示範囲内において所望の音量レベルに応じた位置を指定する必要があるが、誤操作により、音量が大きくなる方向にユーザがタッチペンによって指定しまう可能性も十分に考えられる。したがって、当該処理により、ユーザにとっては、音量が誤操作によりいきなり大きくなる可能性があるという不安を抱えつつゲーム装置10を操作するというストレスを抑制することが可能である。
 なお、上記においては、スライダの所望の位置への移動操作について、音量小領域については即座に移動されてスライダ位置に応じた音量に設定される場合について説明したが、スライダの連続的な移動操作の場合と同様に徐々に音量レベルのパラメータが調整されるように設定することも可能である。
 図77は、音量設定アイコンの別の例を説明する図である。
 図77(a)を参照して、ここでは右スピーカおよび左スピーカそれぞれから出力される音量を設定する音量設定領域が示されている。
 具体的には、縦軸(R)が右スピーカの音量レベルを示し、横軸(L)が左スピーカの音量レベルを示すものとする。すなわち、任意の点の座標値(位置)が右スピーカおよび左スピーカの音量レベルに対応付けられる。ここでは、現在の右スピーカおよび左スピーカの音量レベルに応じた位置を示すポイント552#が表示されている。
 ポイント552#をタッチペンでタッチすることにより、ポイント552#が選択され、画面上にタッチしたままタッチペンを移動(スライド操作)させることでその移動した軌跡に応じてポインタを移動表示する。一方、タッチペンでポイント552#以外をタッチした場合には、音声入力受付表示範囲内の値の場合には、タッチペンにより入力された位置にポイント552#が移動表示する。
 なお、ここでは、2種類のパラメータの設定、右スピーカおよび左スピーカの音量レベルが横軸および縦軸の座標値(位置)にそれぞれ対応付けられる場合について説明したが、2種類のパラメータに限られず、さらに複数種類のパラメータと対応付けることも可能である。なお、パラメータ設定範囲内の表示としては、パラメータが1つである場合には、例えば、パラメータの位置を横軸の一次元で表示させるようにすることも可能であるが、例えば、パラメータが2つの場合には、縦軸と横軸の2次元で平面的にパラメータの位置を表示させるようにすることも可能である。さらに、複数種類のパラメータを設定する場合には、種類の数に応じた多次元でパラメータの位置を表示させるようにすることも可能である。
 図77(b)を参照して、ここでは、音量入力受付表示範囲内に、タッチペンでタッチすることにより、当該位置に応じた音量レベルに即座に設定される場合が示されている。すなわち、音量入力受付表示範囲内は、例えば、タッチペンを用いて右スピーカおよび左スピーカの少なくともいずれか一方について音量を小さくする方向においては音量入力受付表示範囲内として設定されているが、それ以外の領域については音量入力受付表示範囲内として設定されていない。
 したがって、ポイント552#以外をタッチした場合に、音声入力受付表示範囲外の音量を大きくする方向においては、タッチペンでタッチした場合においてもポインタ552#が移動することなく、音量が過度に大きくなることを防止し、ユーザに不快感を与えることを抑制することができる。
 なお、本例においては、音量設定アイコン550の表示範囲内において、音声入力受付表示範囲内とそれ以外に分けられる場合について説明したが、音量設定に限られず、例えば、図65で説明した再生タイムバーにおいても入力受付表示範囲内とそれ以外とに分けることも可能である。例えば、既に再生された位置については入力受付表示範囲内とし、未だ再生されていない位置については、入力受付表示範囲外として、スライダ519の連続的な移動操作のみ可能とすることができる。当該処理により、タッチペンでタッチすることにより再生されていない位置から再生が開始されることを防止し、ユーザに不快感を与えることを抑制することができる。
 <速度音程調整処理>
 図78は、速度音程調整アイコン541を選択することにより再生スピードや音程を変える機能を説明する図である。
 図78を参照して、ここでは、速度音程調整アイコン541を押下することにより下側LCD12の画面に表示される速度音程調整画面が示されている。
 ここで、ユーザがタッチペン等を用いてスライダ553を選択して移動させることにより、移動位置に対応した再生スピードおよび音程に調整することが可能である。具体的には、現在のスライダ553の位置から右側にスライダを移動させることにより再生スピードを速くすることが可能である。逆に左側にスライダを移動させることにより再生スピードを遅くすることが可能である。また、現在のスライダ553の位置から上側にスライダ553を移動させることにより音程を高くすることが可能である。逆に下側にスライダ553を移動させることにより音程を低くすることが可能である。
 当該機能を実行することによりユーザの趣向に従って再生されて出力される音声信号に変化をもたせることができる。
 <音色調整処理>
 図79は、音色調整アイコン542を選択することにより再生信号の周波数を変調したり、あるいはフィルタリング処理等を実行して別の音色に変える機能を説明する図である。
 図79を参照して、ここでは、音色調整アイコン542を押下することにより下側LCD12の画面に表示される音色調整アイコン選択画面が示されている。
 ここでは、4つの音色調整選択アイコンが設けられている。具体的には、周波数を変調等することにより古いラジオから聞こえてくるような音色に調整する「ラジオ」アイコン542a、ステレオ音源の左右の音の減算に基づいてボーカルの声を抑制する「カラオケ」アイコン542b、フィルタリング処理によりエコーがかかる「エコー」アイコン542c、周波数を変調等することによりピコピコした音色の音に変化する「電子音」アイコン542dが設けられている。ユーザがタッチペン等を用いて4つの音色調整選択アイコンのいずれかを選択することにより選択されたアイコンの機能が実行される。
 なお、ここでは、4つの音色調整選択アイコンが設けられて、4種類の音色に調整可能である場合について説明したが、特に4つに限られず、何個でもよい。複数の音色調整の選択パターンを設けることにより、ユーザの趣向に応じた音色に調整することが可能である。
 なお、ここで、「カラオケ」アイコン542bの機能について、ステレオ音源の左右の音の減算に基づいてボーカルの声を抑制する場合について説明したが、当該処理を実行するのは、一般的に、ボーカルの音等は、ステレオ音源の音場の中央に定位しており、環境音等については、中央以外の左右に定位しているからである。なお、特にこの方式に限られず、別の方式に従ってボーカルの声を抑制することも可能である。
  <効果音選択処理>
 図80は、効果音選択アイコン532,534を選択することにより、Rボタン14JおよびLボタン14Iをユーザが操作したときにスピーカ等から出力される効果音を変更する場合を説明する図である。なお、本実施例では、Rボタン14JおよびLボタン14Iを操作することにより、ミュージックファイルに基づく音楽の再生中に効果音を追加して鳴らして楽しむことができる。
 図80を参照して、図65で表示される効果音選択アイコン532,534を選択することにより効果音を変更することができる。具体的には、初期状態としては「効果音なし」の状態に設定されている(ステップSD120)。次に、効果音選択アイコン532を1回選択することにより、「太鼓」の効果音に設定される(ステップSD121)。また、次に、効果音選択アイコン532を選択することにより、「シンバル」の効果音に設定される(ステップSD122)。そして、次に、効果音選択アイコン532を選択することにより、「トランペット」の効果音に設定される(ステップSD123)。そして、再び、効果音アイコン532を選択することにより、「効果音なし」の状態に設定される(ステップSD120)。すなわち、効果音選択アイコンの選択回数に従ってスピーカ等から出力される効果音を切替えることが可能である。本例においてはLボタン14IおよびRボタン14Jのそれぞれについて効果音選択アイコン532,534を選択することにより、それぞれのボタン操作に応じた効果音に設定することができる。
 なお、ここでは、「効果音なし」、「太鼓」、「シンバル」、「トランペット」の順に効果音が切替わる場合について説明したが、特にこの順序に限られず、任意の順序にすることが可能である。また、さらに、複数の効果音に切替わるように設定することも当然に可能である。また、Rボタン14JおよびLボタン14Iのそれぞれについて効果音の種類が異なるように設定することも可能である。
 <ビジュアライザ表示処理>
 図81は、本実施形態に従うビジュアライザ表示処理を説明する図である。
 CPU31は、図74のステップSD100においてタッチ位置データの示す座標値がビジュアライザ切替アイコン531の範囲内の値であると判断した場合にはビジュアライザ表示処理を実行する。
 図81(a)には、下側LCD12の再生動作選択画面が表示されている。図65で説明した内容と同様であるのでその詳細な説明は繰り返さない。
 図81(b)には、上側LCD22にビジュアライザ表示画面が示されている。
 図82は、ビジュアライザ表示処理のサブルーチン処理を説明するフローチャートである。
 図82を参照して、まず、音声出力レベルを検知する(ステップSD130)。具体的には、出力レベル検知回路42dは、音声出力制御回路42cからアンプ44,46に出力される音声信号の出力レベルを検知して、その結果をCPU31に出力する。
 次に、CPU31は、出力レベル検知回路42dにおいて検知された出力レベルに応じたオブジェクトを生成する(ステップSD131)。
 そして、次に、オブジェクトをスクロール表示する(ステップSD132)。再び、ステップSD130に戻って上記の処理を繰り返す。
 具体的には図81(b)において、再生中の音声信号の出力レベルを順次検知して、出力レベルに応じた位置に順次新たなオブジェクトを生成し、それをスクロール表示する。本実施例では、ビジュアライザの表示領域の右端において、出力レベルに応じた高さにオブジェクト801(具体的には、地面オブジェクト)を次々と生成し、全体を左にスクロール表示する。また、そのように生成される地面オブジェクト上で、別のオブジェクト(本例においては、一例としてオブジェクト802および803)が自動的に動作制御される(すなわち、地面に沿って、画面上を左右に移動したり、ジャンプしたりする)。
 本例においては、再生中の音声信号の右側および左側スピーカ45,47の合計の出力レベルにより、地面オブジェクトの高さが決定され、または、右側スピーカ45の出力レベルにより、第1オブジェクト(本実施例ではバイク形状のオブジェクト802)の動作制御内容(速度や加速度やジャンプの高さなど)が決定され、左側スピーカ47の出力レベルにより、第2オブジェクト(本実施例ではバイク形状のオブジェクト803)の動作制御内容が決定される。
 なお、これに限られず、さらに別の例としては、音声信号のうち右側スピーカ45用の信号の出力レベルにより第1オブジェクト(本実施例ではオブジェクト802)用の地面オブジェクトの高さが決定され、または、当該第1オブジェクトの動作制御内容(速度や加速度やジャンプの高さなど)が決定され、左側スピーカ47用の信号の出力レベルにより、第2オブジェクト(本実施例ではオブジェクト803)用の地面オブジェクトの高さが決定され、または、当該第2オブジェクトの動作制御内容が決定されるようにしてもよい。
 ユーザは、音声信号の出力レベルに応じた地形の高さから出力レベルの変化を視覚を通じて認識することができる。また、バイク形状の2台のオブジェクト802,803が地形の高さに応じてジャンピング動作するためオブジェクト802,803の変化からも音声信号の出力レベルの変化を視覚を通じて認識することが可能である。
 また、バイク形状の2台のオブジェクト802,803は、右側スピーカ45から出力される音声信号と、左側スピーカ47から出力される音声信号との音量レベルの差に従って2台のオブジェクト802,803の相対的な位置関係が変化するようにしてもよい。
 なお、選択されたミュージックファイルの再生処理が一時停止している場合においては、上記出力レベルに応じた地形の変化はないため平坦な地形オブジェクトのスクロール表示が実行される。その際、例えば、上述したLボタン14IおよびRボタン14Jをユーザが操作した場合には、スピーカ等から効果音が出力されるため、効果音の音声信号の出力レベルが検知され、当該音声信号の出力レベルに応じた地形オブジェクトが生成され、スクロール表示される。以下のビジュアライザ表示画面についても同様方式に従って処理される。
 図83は、別のビジュアライザ表示画面を説明する図である。
 図83(a),(b)を参照して、ここでは、上側LCD22に検知された音声信号の出力レベルに応じた大きさの雪玉形状のオブジェクト301aを生成して、スクロール表示するビジュアライザが示されている。雪玉形状のオブジェクト301aの下には斜面を示す地形がスクロール表示されて、雪玉形状のオブジェクト301aが斜面を転がり落ちるように見えるようにスクロール表示される。
 図83(a)と図83(b)とを比較して、検知された音声信号の出力レベルに従って図83(a)の雪玉形状のオブジェクト301aの方が図83の(b)の雪玉形状のオブジェクト301aよりも大きい場合が示されている。
 雪玉形状のオブジェクト301aの大きさが変化することによりユーザは雪玉形状のオブジェクト301aの大きさに従って、音声信号の出力レベルの変化を視覚を通じて認識することができる。
 また、斜面を示す地形がスクロール表示される所定のタイミングにおいて、雪玉形状のオブジェクト301aがバウンド動作するため雪玉形状のオブジェクト301aの大きさを視覚を通じてより認識することが可能である。
 図84は、さらに別のビジュアライザ表示画面を説明する図である。
 図84を参照して、ここでは、上側LCD22に検知された音声信号の出力レベルを検知して、出力レベルに応じた高さの位置に所定のキャラクタ形状のオブジェクト301#を生成して、スクロール表示するビジュアライザが示されている。また、画面の背景領域が右側の画面端から左側の画面端にスクロール表示されるととともに、所定のキャラクタ形状のオブジェクト301#の位置からコイン形状のオブジェクト606が所定間隔で連続的に配置されて右側の画面端から左側の画面端にスクロール表示されるように設定されている。
 さらに、別の所定のキャラクタ形状のオブジェクト605が表示され、ユーザ操作によって一例として画面内においてジャンピング動作が実行できるように設定されている。そして、当該所定のキャラクタ形状のオブジェクト605がコイン形状のオブジェクト606と重なった場合に、コイン形状のオブジェクト605の表示を消去して、コイン形状のオブジェクト605と重なった回数を画面左側の上欄に表示するように設定されている。
 したがって、オブジェクト301#の高さが変化することによりユーザは、音声信号の出力レベルの変化を視覚を通じて認識することができる。また、オブジェクト301#の高さに応じて、コイン形状のオブジェクト606も連続的に配置されるためコイン形状のオブジェクト606の高さからも、音声信号の出力レベルの変化を視覚を通じて認識することが可能である。
 すなわち、音声信号の出力レベルに応じて、第3オブジェクト(本実施例では、コイン形状のオブジェクト806)の表示位置が決定される。具体的には、第3オブジェクトは、仮想空間の表示領域の端部に、出力レベルに応じた高さで表示され、その後、反対端部方向にスクロール表示される。そして、ユーザ操作に応じて、第4オブジェクト(本実施例では所定のキャラクタ形状のオブジェクト805)の移動が制御される。そして、第3オブジェクトと第4オブジェクトの位置関係に応じて所定のゲーム処理をおこなう。これにより、音楽再生中に、出力レベルを確認できるとともに、操作による楽しみをユーザに与えることができる。
 また、ユーザは、操作入力に応じて、所定のキャラクタ形状のオブジェクト605を操作することが可能であり、コイン形状のオブジェクト606と重なった場合にコイン形状のオブジェクト606の表示を消去するため、ユーザは、自己の操作入力(ボタンの押下)からも音声信号の出力レベルの変化を認識することが可能である。
 本例においては、3つのパターンのビジュアライザ表示処理について説明したが、特に3つに限られず1つでも良く、さらに複数のパターンのビジュアライザ表示処理の機能を設けることも可能である。
 一例として、図81(a)に示される下側LCD12の再生動作選択画面のビジュアライザ切替アイコン531の表示範囲内をタッチペンでタッチするタッチ回数に応じて、順番に3つのパターンのビジュアライザ表示処理に切替わるように設定することが可能である。そして、例えば、4回目にビジュアライザ切替アイコン531の表示範囲内をタッチペンでタッチした場合には、ビジュアライザ表示処理が終了して、図65(b)の画面が表示されるように設定することが可能である。
 なお、前述の通り、本実施例では、ミュージックファイルに基づく音楽の再生中に、ユーザが所定の操作をすることにより効果音を追加して鳴らして楽しむことができるが、上述の音声信号の出力レベルの検出は、ミュージックファイルに基づく音楽の再生の出力のみならず、ユーザ操作に基づく効果音の出力が考慮される。すなわち、ミュージックファイルに基づく音声信号とユーザ操作に基づく効果音の音声信号の両方を合計した出力レベルが、上述の音声信号の出力レベルとして検知される。これにより、ユーザ操作に応じて、間接的にビジュアライザの表示内容が変化し、より具体的には、オブジェクトの表示位置や動作の内容が変化する。
 <ヘッドホン出力処理>
 図85は、本実施形態に従うヘッドホンが検知された場合のフローを説明する図である。なお、ヘッドホン出力処理は、サウンド機能が実行されている場合において、他の処理とは独立に動作する。
 図85を参照して、まずヘッドホンが検知されたかどうかを判断する(ステップSD140)。具体的には、I/F回路42は、例えば図2で説明したジャック62にヘッドホンのプラグが挿入されたことに伴って機械的スイッチがオン、あるいは、ジャック62にヘッドホンのプラグが挿入されたことに伴って電気的に導通状態となったことを検知して、ヘッドホンのプラグがジャックに挿入されたことを検知する。そして、I/F回路42は、当該検知結果をCPU31に出力し、CPU31は、I/F回路42からの当該検知結果を示す信号を受けて、ヘッドホンが検知されたものと判断する。
 そして、CPU31は、ヘッドホンが検知された場合には次にイコライザ調整処理を実行する(ステップSD141)。
 そして処理を終了する(エンド)。
 ユーザがヘッドホンを装着して再生された音声信号を聞く場合と、スピーカから再生された音声信号を聞く場合とでは、ヘッドホンを装着する場合には耳孔を塞いでしまうため、未装着時とで音響特性が大きく変化しユーザに違和感を感じさせる可能性がある。
 したがって、本実施形態においては、ヘッドホンが検知された場合には、音響特性の変化によってユーザにとって耳障りな音声信号とならないように音声データの所定の周波数帯域を調整するイコライズ調整処理を実行する。
 当該方式により、ヘッドホンで音楽データを聞く場合であっても、ユーザにとって聞きやすい音声信号を出力することが可能である。また、Lボタン14IおよびRボタン14Jのユーザ操作に応じて出力される効果音のボリュームを調整したり、あるいは図80で説明した効果音の種類をヘッドホンの検知に従って変化させることも可能である。
 なお、ここでは、ヘッドホンが検知された場合には所定の周波数帯域を調整するイコライズ調整処理を実行する場合について説明したが、特にこれに限られず、ヘッドホンが検知された場合には、スピーカから再生する場合と再生される音声信号自体を切替えることも可能である。例えば、スピーカから再生する場合には、違和感の無い高い音程の音について、ヘッドホンで聞くと音程が高く聞こえすぎる音を、音程の低い別の音に差し替えたり、ヘッドホンで聞くとノイズが聞こえる音を他の音に差し替えたりすることも可能である。
 あるいは、再生される音声信号自体を切替えるのではなく、ヘッドホンが検知された場合には、スピーカから再生する場合と再生される音声信号のボリュームを切替えることも可能である。例えば、スピーカから再生する場合には、違和感の無いバランスの良い再生される音声信号のボリュームについて、ヘッドホンで聞くと再生される音声信号のボリュームのバランスが悪い音のボリュームを大きくしたり、あるいは小さくすることにより、バランスよく聞こえるように調整することも可能である。
  <スリープ処理>
 図86は、ゲーム装置10を折り畳み位置に折り畳んだ場合におけるスリープ処理について説明するフローチャートである。
 図86を参照して、CPU31は、折り畳み位置を検出したかどうかを判断する(ステップSD150)。具体的には、折畳位置検出センサ50からの閉状態を示す判定信号の入力が有ったかどうかを判断する。折畳位置検出センサ50からの閉状態を示す判定信号の入力が有ったと判断した場合、すなわち、折り畳み位置を検出した場合には、ステップSD150において、CPU31は、次に音楽再生動作中かどうかを判断する(ステップSD151)。具体的には、CPU31は、上述したように「スタート」アイコンが選択されて選択されたミュージックファイルの再生処理が実行されているかどうかを判断する。
 CPU31は、折畳位置検出センサ50から出力される閉状態を示す判定信号の入力を受けて、たとえば、ゲーム装置10が動作中である場合には、動作を停止して、当該動作状態のデータを保存するいわゆるスリープ状態に設定する。一方、CPU31は、ゲーム装置10がスリープ状態となった後、折畳位置検出センサ50から出力される開状態を示す判定信号の入力を受けて、保存された動作状態のデータに基づいてスリープ状態から元の状態に復帰させる処理を実行する。
 ステップSD151において、CPU31は、音楽再生動作中ではないと判断した場合にはスリープ処理を実行する(ステップSD154)。すなわち、他の機能が動作している場合には、動作を停止して、当該動作状態のデータを保存する。これにより、スピーカで音楽を再生していたときには、ゲーム装置10を開いた状態から閉じた状態に折畳むことにより音楽再生は停止する。
 一方、ステップSD151において、CPU31は、音楽再生動作中であると判断した場合には、次に、ヘッドホンの検知があるかどうかを判断する(ステップSD152)。具体的には、上述したようにCPU31は、I/F回路42からのヘッドホンの装着に伴う検知結果を示す信号を受けたかどうかを判断する。一方、後述の通り、ヘッドホンで音楽を再生していたときには、ゲーム装置10を開いた状態から閉じた状態に折畳んだ後も音楽再生は継続する。
 ステップSD152において、CPU31は、ヘッドホンの検知がないと判断した場合にはスリープ処理を実行する(ステップSD154)。すなわち、CPU31は、音楽再生動作中である場合であっても、ヘッドホンの検知がない場合には、他の機能の動作と同様に、動作を停止して、当該動作状態のデータを保存する。
 一方、ステップSD152において、CPU31は、ヘッドホンの検知があると判断した場合には、スリープ音楽再生モードへ移行する(ステップSD153)。
 図87は、スリープ音楽再生モードのサブルーチン処理を説明するフローチャートである。
 図87を参照して、CPU31は、音楽再生機能のみ継続し、他の機能についてはスリープ処理を実行する(ステップSD160)。例えば、表示処理等についてはスリープ状態となる。
 そして、次に、CPU31は、連続再生動作の設定が有るかどうかを判断する(ステップSD161)。具体的には、再生モードが再生中のデータを繰り返し再生する再生モード、順番に再生し、すべての再生が終わったら最初から繰り返す再生モード、設定した区間のみを繰り返し再生する再生モード等に設定されているか、あるいは、「おまかせ」のフォルダが選択されて実行されているかどうかを判断する。
 ステップSD161において、CPU31は、連続再生動作の設定が有ると判断した場合には、音楽再生動作を継続する(ステップSD162)。
 一方、ステップSD161において、CPU31は、連続再生動作の設定がないと判断した場合には、現在のミュージックファイルで再生動作を終了する(ステップSD163)。そして、上述したスリープ処理を実行する(ステップSD164)。
 当該方式により、ユーザがゲーム装置10を折り畳んで操作しない状況の場合に、音楽再生動作中の場合以外には、スリープ処理を実行する。したがって、当該処理によりゲーム装置10の電源の寿命を延ばしたりすることが可能である。また、ユーザが、音楽再生機能を実行している場合に、ゲーム装置10を折り畳んだ場合には、ヘッドホンの検知が有り、連続再生動作が設定されている場合には音楽再生動作が継続される。
 一般的に、ユーザは、ゲーム装置10を折り畳んだ形状として鞄や洋服のポケット等に入れて携帯する可能性が高いと考えられる。したがって、そのような折り畳んだ形状の状態としては、ゲーム装置10を操作する可能性は低いため通常はスリープ処理となる。
 一方、ユーザは、ゲーム装置10を操作しない状況であっても、折り畳んだ形状として携帯しながら音楽再生動作の機能の実行が可能であれば利便性が高い。
 したがって、ゲーム装置10を折り畳んだ形状とした場合であっても、音楽再生動作中であり、かつ、ヘッドホンの検知が有り、連続再生動作が設定されている場合には、音楽再生動作を継続することによりユーザの利便性に供することができる。また、連続再生動作が設定されていない場合には、ユーザは、音楽再生動作の継続を希望していないと判断できるため、現在のミュージックファイルの再生動作が終了した後に、通常のスリープ処理を実行することによりユーザの利便性に供することができる。特に、現在のミュージックファイルの再生動作が終了した後に、通常のスリープ処理を実行するため音楽再生動作を楽しんでいるユーザに違和感を与えることなく、再生動作を終了することが可能である。
 <自動録音再生処理>
 自動録音再生処理においては、自動録音モードと自動再生モードとの2つの機能処理がそれぞれ独立に動作する。なお、図66のステップSD2で説明したように、サウンド選択画面400が表示された後、自動録音再生処理が開始される。
 図88は、本実施形態に従う自動録音モードを説明するフローチャートである。
 図88を参照して、マイク43からの入力音量がしきい値以上であるかどうかを判断する(ステップSD170)。具体的には、音声入力制御回路42bは、マイク43からの入力音量がしきい値以上であるかどうかを検知し、マイク43からの入力音量がしきい値以上となったことを検知した場合には、その検知結果をCPU31に出力する。
 ステップSD170において、CPU31は、マイク43からの入力音量がしきい値以上であると判断した場合には録音処理を実行する(ステップSD171)。具体的には、CPU31は、音声入力制御回路42bからのマイク43からの入力音量がしきい値以上となったことの検知結果の入力を受けて、録音処理を実行する。
 図89は、本実施形態に従う録音処理のサブルーチン処理を説明するフローチャートである。
 図89を参照して、まず、CPU31は、音声入力があるかどうかを判断する(ステップSD180)。そして、CPU31は、音声入力があると判断した場合には、音声入力制御回路42bから入力される録音データを一時保存する(ステップSD181)。具体的には、CPU31は、メインメモリに一時保存する。
 そして、次に、CPU31は、録音データはスロットに保存可能な容量に達したかどうかを判断する(ステップSD182)。ここで、スロットとは、保存用メモリ34に録音データファイルとして保存される録音データ保存領域を示すものとする。本例においては、保存用メモリ34に録音処理に用いられる複数のスロットが予め設けられているものとする。なお、本例においては、一例として、1つのスロットに10秒の録音データを保存できるものとする。
 ステップSD182において、CPU31は、、録音データがスロットに保存可能な容量に達していないと判断した場合にはステップSD180およびステップSD181の処理を繰り返して録音データを一時保存する。
 ステップSD182において、CPU31は、録音データがスロットに保存可能な容量に達したと判断した場合にはステップSD184に進み、録音を終了する。そして、図88に戻り、ステップSD172に進む。
 一方、ステップSD180において、CPU31は、音声入力がないと判断した場合には、次にステップSD183に進む。
 ステップSD183において、CPU31は、所定期間音声入力が無しかどうかを判断する。例えば、一例として、無音判定を実行するための所定期間としては3秒に設定することができる。当該期間は、一例であり、適切な期間に設定することが可能である。
 ステップSD183において、CPU31は、所定期間音声入力が無しと判断した場合には、録音を終了する(ステップSD184)。そして、図88に戻り、ステップSD172に戻る。
 一方、ステップSD183において、CPU31は、所定期間音声入力が無しと判断されなかった場合、すなわち、再び、音声入力が有った場合には、再びステップSD180に戻り、ステップSD181に進む。
 当該録音処理により、音声入力がある場合には、自動的に録音データがスロットに保存可能な容量の範囲内で録音データが保存され、音声入力が無くなった場合には、自動的に録音処理が終了する。
 これらの一連の処理(SD180~SD183)により、サウンド選択画面400において、自動的に音声が録音される。これによって、サウンド選択画面400でユーザが話したことが(意識せずにしゃべったことも含めて)自動的に録音データがスロットに保存可能な容量録音されることになる。
 再び、図88を参照して、次に、CPU31は、録音データが所定容量以上かどうかを判断する(ステップSD172)。具体的には、メインメモリに一時保存された録音データが容量以上であるかどうかを判断する。所定容量としては、例えば、再生した場合に、ユーザが音声信号として認識可能な最小の時間程度以上の容量に設定することが可能である。すなわち、所定容量未満の場合とは、ユーザが録音データを再生した場合に、音声信号として認識不可能な程度の容量の場合である。
 ステップSD172において、CPU31は、メインメモリに所定容量以上の録音データがあると判断した場合には、録音データ保存処理を実行する(ステップSD173)。一方、ステップSD172において、CPU31は、所定容量以上の録音データが無いと判断した場合には、録音データとして、保存されたデータ量が少ない認識不可能な録音データであるため一時保存された録音データを削除する(ステップSD174)。なお、所定容量は、スロットの保存可能な容量よりも小さいものとする。したがって、ユーザが音声信号として認識できないような長さのデータについては録音データが自動的に削除される。
 図90は、録音データ保存処理のサブルーチン処理を説明するフローチャートである。
 図90を参照して、まず、CPU31は、空きスロットを確認する(ステップSD190)。具体的には、保存用メモリ34に予め設けられた複数の録音データ保存領域である複数のスロットについて録音データが含まれていないスロットがあるか否かを確認する。
 そして、CPU31は、空きスロットがあるかどうかを判断する(ステップSD191)。
 ステップSD191において、CPU31は、空きスロットがあると判断した場合には、空きスロットに録音データを録音データファイルとして保存処理を実行する(ステップSD192)。具体的には、CPU31は、メモリ制御回路33を介して一時保存された録音データを録音データファイルとして保存用メモリ34に格納する。そして、図88のフローに戻る(リターン)。
 一方、ステップSD191において、CPU31は、空きスロットが無いと判断した場合には、複数のスロットの中から乱数を用いた処理で1つのスロットを決定し、乱数で決定したスロットに録音データを録音データファイルとして上書き処理を実行する(ステップSD193)。そして、図30のフローに戻る(リターン)。
 当該処理により、スロットに1つの録音データファイルが保存されることになる。
 一方、ステップSD191において、CPU31は、録音データが録音可能容量未満ではないと判断した場合には古い録音データファイルを削除する削除処理を実行する(ステップSD193)。そして、再びステップSD191に戻り、録音可能容量未満かどうかを判断し、録音可能容量未満となるまでステップSD193の処理を繰り返す。そして、録音データが録音可能容量未満となった場合に、録音データファイルとして上述した保存処理を実行する。したがって、古い録音データファイルが新しい録音データファイルに自動的に更新されることになる。
 次に自動再生モードについて説明する。
 図91は、本実施形態に従う自動再生モードのフローチャートである。
 図91を参照して、CPU31は、録音データファイルが保存されたスロットが有るかどうかを判断する(ステップSD200)。具体的には、CPU31は、メモリ制御回路33を介して保存用メモリ34に予め設けられた複数のスロットに録音データファイルが存在するかどうか判断する。
 ステップSD200において、CPU31は、スロットに録音データファイルが無い場合には、ステップSD200の処理を繰り返す。
 一方、ステップSD200において、CPU31は、スロットに録音データファイルが有ると判断した場合、当該録音データファイルの再生処理を実行する(ステップSD201)。そして、次に、CPU31は、待機処理を実行する(ステップSD202)。具体的には、CPU31は、所定期間待機して再び、ステップSD200に戻る。なお、待機処理は、所定の一定期間の待機であってもよいし、ランダムな期間の待機であってもよい。
 したがって、CPU31は、スロットに録音データファイルがある場合には、一定期間あるいはランダムな期間において再生処理の実行を繰り返す。
 また、再生処理は、保存用メモリ34の複数のスロットに録音データファイルがそれぞれ有ると判断した場合には、順番に各スロットに保存された録音データファイルの再生処理を実行するものとする。また、再生処理中には、図61の鳥の形状のオブジェクト410が動作するように表示することが可能である。当該表示処理により、ユーザは、鳥の形状のオブジェクト410の動作により、再生処理が実行されていることを視覚を通じて認識することが可能である。
 当該処理により、図61のサウンド選択画面において、ユーザがマイクの入力音量がしきい値を越えるような言葉で話した場合には、自動録音モードにより、話した言葉である音声信号が録音データファイルとしてスロットに保存される。そして、自動再生モードにより、録音データファイルとしてスロットに保存されている音声信号が自動的に再生され、再生処理が繰り返される。
 当該機能により、ユーザは、自身の音声信号を録音データファイルとして作成して、再生して楽しむことができる。
 なお、上記においては、録音データが所定の容量に達したかどうかに基づいて、録音処理あるいは録音保存処理を実行する方式について説明したが、容量に限られず、例えば録音時間に基づいて判断することも可能であるし、別のパラメータに基づいて判断することも可能である。
  <設定処理>
 図92は、本実施形態に従う設定処理のサブルーチン処理を説明するフローチャートである。
 図92を参照して、CPU31は、図61において、タッチ位置の示す座標値が「設定」アイコン408の表示範囲内の値であると判断した場合には設定画面の表示を実行する(ステップSD210)。
 図93は、本実施形態に従う設定画面508を説明する図である。
 図93を参照して、ここでは、「ヘッドホン」の設定項目560、「タッチ音」の設定項目562、「バックライト」の設定項目564が設けられている。そして、「ヘッドホン」の設定項目560として、「ステレオ」あるいは「モノラル」を選択して設定する選択機能アイコン561が設けられている。また、「タッチ音」の設定項目562として、「ならす」あるいは「ならさない」を選択して設定する選択機能アイコン563が設けられている。また、「バックライト」の設定項目564として、「いつもオン」あるいは「自動オフ」を選択して設定する選択機能アイコン565が設けられている。また、「セーブデータの初期化」アイコン566が設けられており、当該「セーブデータの初期化」アイコン566を選択することにより、自動録音再生処理における録音データファイルや、後述するマイク録音再生モードで作成される録音データファイルや、「お気に入り」に登録されたミュージックファイルの内容が削除される。また、「もどる」アイコン512bを選択することにより、1つ前のサウンド選択画面400に戻る。
 再び図92を参照して、CPU31は、タッチパネル13からタッチ位置データの入力があるかどうかを判断する(ステップSD211)。
 ステップSD211において、CPU31は、タッチパネル13からタッチ位置データの入力があると判断した場合には、タッチ位置データの示す座標値が「ヘッドホン」の機能選択アイコンの表示範囲内の値であるかどうかを判断する(ステップSD212)。
 ステップSD212において、CPU31は、タッチ位置データの示す座標値が「ヘッドホン」の機能選択アイコンの表示範囲内の値であると判断した場合には、現在「ステレオ」設定であるかどうかを判断する(ステップSD213)。
 ステップSD213において、CPU31は、現在「ステレオ」設定である場合にはモノラル設定に切替える(ステップSD214)。
 一方、ステップSD213において、CPU31は、現在「ステレオ」設定ではないと判断した場合には、ステレオ設定に切替える(ステップSD215)。
 「ステレオ」設定である場合、ヘッドホンが接続されているときには、音声出力はステレオで出力される。すなわち、右側用出力と左側用出力のそれぞれが別々に出力される。一方、「モノラル」設定である場合、ヘッドホンが接続されているときには、音声出力はモノラルで出力されるが、ヘッドホンが接続されていないときには、音声出力は当該設定に関わらずステレオで出力される。
 ステップSD212において、CPU31は、タッチ位置データの示す座標値が「ヘッドホン」の機能選択アイコンの表示範囲内の値ではないと判断した場合には、次にタッチ位置データの示す座標値が「タッチ音」の機能選択アイコンの表示範囲内の値であるかどうかを判断する(ステップSD216)。
 ステップSD216において、CPU31は、タッチ位置データの示す座標値が「タッチ音」の機能選択アイコンの表示範囲内の値であると判断した場合には現在「ならす」設定であるかどうかを判断する(ステップSD217)。
 ステップSD217において、CPU31は、現在「ならす」設定であると判断した場合には、タッチ音をならさない設定に切替える(ステップSD218)。
 そして、再びステップSD211に戻る。
 ステップSD217において、CPU31は、現在「ならす」設定ではないと判断した場合には、タッチ音をならす設定に切替える(ステップSD219)。
 ステップSD216において、CPU31は、タッチ位置データの示す座標値が「タッチ音」の機能選択アイコンの表示範囲内の値ではないと判断した場合には、次にタッチ位置データの示す座標値が「バックライトの機能」の機能選択アイコンの表示範囲内の値であるかどうかを判断する(ステップSD220)。
 ステップSD220において、CPU31は、タッチ位置データの示す座標値が「バックライト」の機能選択アイコンの表示範囲内の値であると判断した場合には現在「いつもオン」設定であるかどうかを判断する(ステップSD221)。
 ステップSD221において、CPU31は、現在「いつもオン」設定であると判断した場合には、自動オフ設定に切替える(ステップSD222)。自動オフ設定に切替えられることにより、一定時間ゲーム装置10を操作していないと判断された場合には、自動的にバックライトがオフされる処理が実行される。
 一方、ステップSD221において、CPU31は、現在「いつもオン」設定ではないと判断した場合には、いつもオン設定に切替える(ステップSD223)。そしてステップSD211に戻る。
 一方、ステップSD220において、CPU31は、タッチ位置データの示す座標値が「バックライト」の機能選択アイコンの表示範囲内の値ではないと判断した場合には、タッチ位置データの示す座標値が「セーブデータの初期化」の機能選択アイコンの表示範囲内の値であるかどうかを判断する(ステップSD224)。
 ステップSD224において、CPU31は、タッチ位置データの示す座標値が「セーブデータの初期化」の機能選択アイコンの表示範囲内の値であると判断した場合には、録音データファイルおよび「お気に入り」に登録された内容の削除処理を実行する(ステップSD225)。すなわち、保存用データメモリ34に保存された録音データファイルの削除処理等を実行する。
 ステップSD224において、CPU31は、タッチ位置データの示す座標値が「セーブデータの初期化」の機能選択アイコン表示範囲内の値ではないと判断した場合には、タッチ位置データの示す座標値が「もどる」の機能選択アイコンの表示範囲内の値であるかどうかを判断する。
 ステップSD226において、CPU31は、タッチ位置データの示す座標値が「もどる」の機能選択アイコンの表示範囲内の値であると判断した場合には、1つ前のサウンド選択画面400に戻る。
 当該設定処理により、ユーザの趣向に従って、例えば、ヘッドホンを装着時の再生処理に関して、片耳用の場合には、ステレオ設定をモノラル設定に切替えることが可能である。当該切替設定により、ヘッドホンの形式に応じて適切な再生処理を選択することが可能である。なお、両耳用の場合においてもモノラル設定に切替えることは当然可能である。
 <マイク録音再生モード>
 次に、マイク録音再生モードについて説明する。
 図94は、マイク録音再生モードにおけるサブルーチン処理を説明するフローチャートである。
 図94を参照して、CPU31は、マイク録音再生モードに移行した場合には、まず、マイクで録音して遊ぶときの録音データファイルリスト選択画面を表示する(ステップSD230)。
 図95は、本実施形態に従う録音データファイルリスト選択画面600を説明する図である。
 図95を参照して、下側LCD12の画面に録音データファイルリスト選択画面600が表示されている場合が示されている。
 ユーザは、タッチペン27等で下側LCD12の画面上にタッチして録音データファイルリストの中から任意の録音データファイルを選択することが可能である。なお、後述するが録音データファイルは、ユーザにより選択的に指定された表示色に設定されているものとする。ここで、録音データファイルリストの各録音データファイルは、保存用メモリ34において、録音処理に用いるために予め設けられた複数のスロットのうちの1つずつに対応している。
 例えば、一例として、カーソル590が録音データファイルリスト選択画面600の録音データファイルリスト610の一番左上に表示されている録音データファイルを選択しているものとする。例えば、タッチペン27等で録音データファイルリスト610に含まれる録音データファイルにタッチすることにより、タッチした録音データファイルにカーソル590が移動して、カーソル590により指定された録音データファイルが選択状態となる。
 また、画面上の任意の録音データファイルにタッチして、タッチしたまま、すなわち、当該カーソル590により指定された録音データファイルの選択状態を維持したまま、他の任意の録音データファイルの位置に移動(スライド操作)させることにより、録音データファイルの位置がそれぞれ入れ替わるものとする。
 ここで、例えば、録音データファイル615については、録音データが格納されていないファイルであるものとする。他のものについても同様である。一方、それ以外の録音データファイルについては、録音データが格納されているファイルであるものとする。本例においては、一例として、1つのファイルにつき10秒程度の音声信号の録音が可能であるものとする。
 また、ユーザは、音量設定アイコン550をタッチペン27等で指定することによって、スピーカ等から出力される音量を設定することができる。当該処理については、上述したのと同様であるのでその詳細な説明は繰り返さない。
 また、ユーザは、「もどる」アイコン620を選択することによって、前の画面であるサウンド選択画面400に戻ることができる。
 また、録音データファイルリスト選択画面600において、録音データファイルを選択して、「あそぶ」アイコン570を選択することにより、再生処理が開始されるとともに、録音データ再生動作選択画面301が表示される。
 一方、録音データファイルリスト選択画面600において、録音データが格納されていないファイルを選択した場合、当該「あそぶ」アイコン570は、「録音する」アイコン570#に切替わるものとする。そして、当該「録音する」アイコン570#を選択することにより、後述する録音開始画面602が表示される。
 また、「消す」アイコン571をタッチペン27等で選択することにより、現在選択されている録音データファイルを消去して、録音データが格納されていないファイルに設定することができる。
 また、録音データファイルの表示として、各ファイルの全体に対して含まれている録音データのデータ量が水位として表示されている。当該表示により、ユーザは、録音データファイルのデータ量を感覚的に認識することが可能となる。また、録音データファイルリスト610において、録音データファイルを示す形状が変化している場合が示されている。例えば、後述する音色調整アイコン542等による加工編集機能が実行されて、「うわがき」が選択された場合、すなわち、別の録音データに変更された場合には、加工編集に応じた録音データファイルの形状に変化するように表示処理される。
 当該表示により、ユーザは、録音データファイルが加工編集されたファイルであることを直感的に認識することが可能となり、ユーザの利便性に供する。
 図96は、本発明の実施の形態に従う録音データ再生動作選択画面601を説明する図である。
 図96(a)においては、下側LCD12において、録音データ再生動作選択画面601が表示されている場合が示されている。
 具体的には、ユーザは、タッチペン等により選択することにより録音データの再生動作等において音楽を変化させて動作させる機能を実行することができる。
 ここでは、選択機能アイコンとして、速度音程調整アイコン541、音色調整アイコン542、再生モード切替アイコン517、および「うわがき」アイコン586が設けられている場合が示されている。
 ユーザは、上述した速度音程調整アイコン541を選択することにより再生スピードや音程を変える機能を実行することができる。
 また、ユーザは、音色調整アイコン542を選択することにより再生信号の周波数を変調したり、あるいはフィルタリング処理等を実行して別の音色に加工編集する機能を実行することができる。具体的には、図79で説明したような音色調整アイコンを設けることも可能であるし、別の音色調整アイコンを設けることも可能である。
 また、ユーザは、再生動作コマンドアイコンとして、一時停止コマンドアイコン580を押下することにより再生中の録音データファイルを一時停止することが可能である。その際、一時停止コマンドアイコン580は、再生コマンドアイコン582#に表示が切替わる。また、再生動作コマンドアイコンとして、逆再生コマンドアイコン580も設けられている。逆再生コマンドアイコン580を選択すると逆再生処理が実行される。また、その際、逆再生コマンドアイコン580は、一時停止コマンドアイコン580#に表示が切替わる。当該コマンドアイコンとして、再生コマンド、逆再生コマンドの2つのアイコンが表示されており、選択されたアイコンは一時停止コマンドアイコンに切替わる。したがって、ユーザは、再生動作および逆再生動作をタッチペン27等によるワンアクションで切替えることが可能である。
 すなわち、音楽データ(ここでは、一例として音楽データについて説明するが映像データでもよい)の再生インターフェースにおいて、2つのコマンドアイコン領域を設け(第1のコマンドアイコン領域および第2のコマンドアイコン領域)、第1のコマンドアイコン領域には逆再生コマンドアイコンまたは一時停止コマンドアイコンのいずれかを切替えて表示し、第2のコマンドアイコン領域には再生コマンドアイコンまたは一時停止コマンドアイコンのいずれかを切替えて表示する。
 より具体的には、以下に示される。
 停止中:第1のコマンドアイコン領域に逆再生コマンドアイコンを表示し、第2のコマンドアイコン領域に再生コマンドアイコンを表示する。
 再生中:第1のコマンドアイコン領域に逆再生コマンドアイコンを表示し、第2のコマンドアイコン領域に一時停止コマンドアイコンを表示する。
 逆再生中:第1のコマンドアイコン領域に一時停止コマンドアイコンを表示し、第2のコマンドアイコン領域に再生コマンドアイコンを表示する。
 再生コマンドアイコン:タッチされると、音声データの順再生を開始する。
 逆再生コマンドアイコン:タッチされると、音声データの逆再生を開始する。
 一時停止コマンドアイコン:タッチされると、音声データの再生を一時停止する。
 なお、本例においては、一時停止する一時停止コマンドアイコンについて説明したが、一時停止ではなく停止する停止コマンドアイコンとすることも可能である。
 これにより、2つのコマンドアイコン領域を用いて、停止中、再生中、逆再生中のいずれの状態においても、再生、逆再生、停止のいずれへの移行もおこなうことができる。
 より一般的に言うと、3つの状態(第1状態、第2状態、第3状態)を取ることができる情報処理装置において、2つのボタン領域を設け、現在第1状態であるときには、第2状態への移行ボタンと第3状態への移行ボタンを表示する(i)。そして、(i)の状態から第2状態への移行ボタンを操作して第2状態へ移行したときには、第2状態への移行ボタンを第1状態への移行ボタンに変更して、第1状態への移行ボタンと第3状態への移行ボタンとを表示する(ii)。また、(i)の状態から第3状態への移行ボタンを操作して第3状態に移行したときには、第3状態への移行ボタンを第1状態への移行ボタンに変更し、第2状態への移行ボタンと第1状態への移行ボタンとを表示する(iii)。また、(ii)の状態から、第1状態への移行ボタンを操作して第1状態に移行したときには(i)の状態に戻る。また、(iii)の状態から、第1状態への移行ボタンを操作して第1状態に移行したときには(i)の状態に戻る。また、(ii)の状態から第3状態への移行ボタンを操作して第3状態に移行したときには、第1状態への移行ボタンを第2状態への移行ボタンに変更して、第3状態への移行ボタンを第1状態への移行ボタンに変更して、第2状態への移行ボタンと第1状態への移行ボタンを表示する。また、(iii)の状態から、第2状態への移行ボタンを操作して第2状態に移行したときには、第2状態への移行ボタンを第1状態への移行ボタンに変更し、第1状態への移行ボタンを第3状態への移行ボタンに変更する。
 これにより、2つのボタン領域を用いて、3つの状態へのいずれも効率的に移行することができる。
 また、ユーザは、再生モード切替アイコン517を押下することにより録音データファイルリスト内の再生モードの切替を実行することが可能である。具体的には、再生中のデータを繰り返し再生する再生モード、順番に再生し、すべての再生が終わったら最初から繰り返す再生モード、順番に再生し、すべての再生が終わったら停止する再生モード、ランダムで再生する再生モード、設定した区間のみを繰り返し再生する再生モードを順番に切替えて実行することが可能である。
 また、ユーザは、「うわがき」アイコン586を押下することにより、例えば録音データファイルに、音色調整アイコン588を選択してフィルタリング処理等により加工編集した録音データファイルを上書き保存することが可能である。
 また、図96(b)においては、図95の下側LCD12の画面上に表示されていた録音データファイルリスト610が上側LCD22の画面上に録音データファイル選択リスト画面601#として表示されている場合が示されている。そして、録音データファイルリスト610#に表示される録音データファイルについて方向入力ボタン14Aを操作することにより選択することができる。すなわち、図95の下側LCD12の画面上において、タッチペン等により録音データファイルを選択(あそぶ押下)した後、図96(a)の下側LCD12の画面上において、録音データ再生動作選択画面において、タッチペン等により選択した対象である録音データファイルの再生動作に対する処理をタッチペン等により選択し、上側LCD22の画面上においては、録音データファイルを方向入力ボタン14Aで選択することが可能である。
 そして、たとえば、方向入力ボタン14Aを用いて録音データファイルを選択して操作ボタン14B~14Eのいずれかを押すことにより再生中の録音データファイルを選択した録音データファイルに切替えて再生動作を実行することが可能である。
 したがって、下側LCD12の再生動作選択画面601における処理と、上側LCD22の録音データファイル選択リスト画面601#における処理とを並列に処理することが可能であるためユーザの利便性に供する。
 また、ユーザは、「うわがき」アイコン586を押下することにより、例えば録音データファイルに、音色調整アイコン588を選択してフィルタリング処理等により加工編集した録音データファイルを上書き保存することが可能である。
 すなわち、2画面(または2つの表示領域)を有する情報処理装置において、少なくとも一方画面(本実施例では、下側LCD12)に対して接触検出手段(本実施例では、タッチパネル)が設けられる。そして、当該一方画面において、複数の選択肢のそれぞれを示すアイコン群(第1のアイコン群;実施例では、各録音データファイルを示すアイコン615群)を表示して、当該接触検出手段により、いずれかのアイコンを選択可能にする。そして、接触検出手段により当該複数のアイコンの中からいずれかのアイコンを選択した後は、当該第1のアイコン群の表示を他方画面(本実施例では、上側LCD22)に移すとともに、当該一方画面には、別のアイコン群(第2のアイコン群;実施例では、541、542)を表示し、当該接触検出手段により、第2のアイコン群の中からいずれかのアイコンを選択可能にする。なお、第1のアイコン群は、当該他方画面に移った後も、キースイッチ(方向キーであり、実施例では、十字キー14A)により当該第1のアイコン群から1つのアイコンを選択することが可能である。これにより、第1のアイコン群からの選択と第2のアイコン群からの選択とを並行しておこなうことができる。例えば、第1のアイコン群で第1の選択をおこない、また、第2のアイコン群で、当該第1の選択で選択されたアイコンに関連する選択をおこなうようにしてもよい(本実施例では、第1の選択で、処理対象のデータを選択し、第2の選択で、選択されたデータに対する処理内容を選択する)。この場合、第1のアイコン群に対して第1の選択をおこなった後、第2の選択の場面に移行した後であっても、第1のアイコン群に対する選択をキースイッチの操作により変更することができるから、第2の選択の場面に移行した後に、第1の選択を並行してやり直すことができて利便性が向上する。
 再び、図94を参照して、CPU31は、タッチパネル13からタッチ位置データの入力があるかどうかを判断する(ステップSD231)。
 ステップSD231において、CPU31は、タッチパネル13からタッチ位置データの入力があると判断される場合には、次にタッチ位置データの示す座標値が録音データファイルリスト610の表示範囲内の値かどうかを判断する(ステップSD232)。
 ステップSD232において、CPU31は、タッチ位置データの示す座標値が録音データファイルリスト610の表示範囲内であると判断した場合には、次にタッチ位置に応じて録音データファイルを選択表示する(ステップSD233)。
 そして、CPU31は、録音データファイルに応じて機能アイコンボタンを変更表示する(ステップSD234)。そして、再びステップSD231に戻る。具体的には、カーソルが録音データファイルを選択表示している場合には、「あそぶ」アイコン570が表示され、カーソルが録音されていないファイルを選択表示している場合には、「録音する」アイコン570#が表示される。
 ステップSD232において、CPU31は、タッチ位置データの示す座標値が録音ファイルリスト610の表示範囲内の値ではないと判断した場合には、次にタッチ位置データの示す座標値が音量設定アイコン550の表示範囲内の値かどうかを判断する(ステップSD235)。
 ステップSD235において、CPU31は、タッチ位置データの示す座標値が音量設定アイコン550の表示範囲内の値であると判断した場合には、音量設定処理を実行する(ステップSD236)。音量設定処理については上述したのでその詳細な説明は繰り返さない。
 一方、ステップSD235において、CPU31は、タッチ位置データの示す座標値が音量設定アイコン550の表示範囲内の値ではないと判断した場合には、次にタッチ位置データの示す座標値が「あそぶ」アイコン570の表示範囲内の値かどうかを判断する(ステップSD237)。
 ステップSD237において、CPU31は、タッチ位置データの示す座標値が「あそぶ」アイコン570の表示範囲内の値であると判断した場合には、録音データファイル再生処理を実行する(ステップSD237#)。録音データファイル再生処理については後述する。
 一方、ステップSD237において、CPU31は、タッチ位置データの示す座標値が「あそぶ」アイコン570の表示範囲内の値ではないと判断した場合には、次にタッチ位置データの示す座標値が「消す」アイコン571の表示範囲内の値であるかどうかを判断する(ステップSD238)。
 ステップSD238において、CPU31は、タッチ位置データの示す座標値が「消す」アイコン571の表示範囲内の値であると判断した場合には、録音データファイルの消去処理を実行する(ステップSD239)。
 ステップSD238において、CPU31は、タッチ位置データの示す座標値が「消す」アイコン571の表示範囲内の値ではないと判断した場合には、次にタッチ位置データの示す座標値が「録音する」アイコン570#の表示範囲内の値であるかどうかを判断する(ステップSD240)。
 ステップSD240において、CPU31は、タッチ位置データの示す座標値が「録音する」アイコン570#の表示範囲内の値であると判断した場合には、録音データファイル作成処理を実行する(ステップSD241)。録音データファイル作成処理については後述する。
 ステップSD240において、CPU31は、タッチ位置データの示す座標値が「録音する」アイコン570#の表示範囲内の値ではないと判断した場合には、次にタッチ位置データの示す座標値が「もどる」アイコン620の表示範囲内の値であるかどうかを判断する(ステップSD242)。
 ステップSD242において、CPU31は、タッチ位置データの示す座標値が「もどる」アイコン620の表示範囲内の値ではないと判断した場合には再びステップSD231に進む。
 一方、ステップSD242において、CPU31は、タッチ位置データの示す座標値が「もどる」アイコン620の表示範囲内の値であると判断した場合には、図61に示すサウンド選択画面400が表示される。
 図97は、録音データファイル再生処理のサブルーチン処理を説明する図である。
 図97を参照して、ステップSD237において、CPU31は、タッチ位置データの示す座標値が「あそぶ」アイコン表示範囲内の値であると判断した場合には、次に選択された録音データファイルの再生処理を開始する(ステップSD250)。
 そして、次に、CPU31は、上側LCD22に録音データファイル選択リスト画面601#を表示するとともに、下側LCD12に再生動作選択画面601を表示する(ステップSD251)。
 そして、次に、CPU31は、タッチパネル13からタッチ位置データの入力があるかどうかを判断する(ステップSD252)。
 ステップSD252において、CPU31は、タッチパネル13からタッチ位置データの入力があると判断した場合には、次にタッチ位置データが示す座標値が再生タイムバー551の表示範囲内の値であるかどうか判断する(ステップSD253)。
 ステップSD252において、CPU31は、タッチパネル13からタッチ位置データの入力がないと判断した場合には、次に方向入力ボタン14Aによる操作があるかどうかを判断する(ステップSD264)。
 ステップSD264において、CPU31は、方向入力ボタン14Aによる操作があると判断した場合には、方向入力ボタン14Aの操作に応じて録音データファイル選択リスト画面601#における選択されている録音データファイルを示すカーソル位置のスクロール表示処理を実行する(ステップSD265)。
 一方、ステップSD264において、CPU31は、方向入力ボタン14Aによる操作がないと判断した場合には、再び、ステップSD252に戻る。
 そして、CPU31は、次に所定ボタンの押下があるかどうかを判断する(ステップSD266)。
 ステップSD266において、CPU31は、所定ボタンの押下がある場合には、カーソル位置により選択されている録音データファイルの再生を開始する(ステップSD250)。
 一方、CPU31は、ステップSD266において、所定ボタンの押下がない場合には再びステップSD252に戻る。ここで、所定ボタンは、操作ボタン14B~14Eのいずれかに設定されているものとする。
 一方、ステップSD252において、CPU31は、タッチパネル13からタッチ位置データの入力があると判断した場合には、次にタッチ位置データが示す座標値が再生タイムバー551の表示範囲内の値であるかどうか判断する(ステップSD253)
 ステップSD253において、CPU31は、タッチ位置データの示す座標値が再生タイムバー251の表示範囲内の値であると判断した場合には、次にタッチ位置に応じた時間から録音データファイルの再生処理を実行する(ステップSD254)。
 ステップSD254において、CPU31は、次にタッチ位置に応じた再生タイムバー251のスライダ位置の移動処理を実行する(ステップSD255)。
 ステップSD253において、CPU31は、タッチ位置データの示す座標値が再生タイムバー251の表示範囲内の値ではないと判断した場合には、次にタッチ位置データの示す座標値が音量設定アイコン550の表示範囲内の値であるかどうかを判断する(ステップSD256)。
 ステップSD256において、CPU31は、タッチ位置データの示す座標値が音量設定アイコン550の表示範囲内の値であると判断した場合には、音量設定処理を実行する(ステップSD257)。音量設定処理については上述したのでその詳細な説明は繰り返さない。
 ステップSD256において、CPU31は、タッチ位置データの示す座標値が音量設定アイコン550の表示範囲内の値ではないと判断した場合には、次にタッチ位置データの示す座標値が再生動作コマンドアイコンの表示範囲内の値であるかどうかを判断する(ステップSD258)。
 ステップSD258において、CPU31は、タッチ位置データの示す座標値が再生動作コマンドアイコンの表示範囲内の値であると判断した場合には、再生動作コマンドに対応した機能を実行する(ステップSD259)。
 そして、次に再生動作コマンドの表示を切替える(ステップSD260)。
 そして、再び、ステップSD252に戻る。
 ステップSD258において、CPU31は、タッチ位置データの示す座標値が再生動作コマンドアイコンの表示範囲内の値ではないと判断した場合には、次にタッチ位置データの示す座標値が選択機能アイコン表示範囲内の値であるかどうかを判断する(ステップSD261)。
 ステップSD261において、CPU31は、タッチ位置データの示す座標値が選択機能アイコン表示範囲内の値であると判断した場合には、選択機能アイコンに対応した機能を実行する(ステップSD262)。
 ステップSD261において、CPU31は、タッチ位置データの示す座標値が選択機能アイコン表示範囲内の値ではないと判断した場合には、タッチ位置の示す座標値が「もどる」アイコン513の表示範囲内の値であるかどうかを判断する。
 ステップSD263において、CPU31は、タッチ位置データの示す座標値が「もどる」アイコン513の表示範囲内の値ではあると判断した場合には、前の画面である録音データファイルリスト選択画面600を表示する(ステップSD230)。
 一方、ステップSD263において、CPU31は、タッチ位置の示す座標値が「もどる」アイコン513の表示範囲内の値ではないと判断した場合にはステップSD252に戻る。
 図98,図100は、録音データファイル作成処理のサブルーチン処理を説明するフローチャートである。
 上述したように、本実施形態においては、保存用メモリ34に録音処理に用いられる複数のスロットが予め設けられているものとする。
 図98を参照して、まず、CPU31は、録音開始画面602を表示する。
 図99は、本実施形態に従う録音開始画面602を説明する図である(ステップSD270)。
 図99を参照して、録音開始画面602において、録音コマンドアイコン610が設けられている。また、「やめる」アイコン615が設けられている。録音コマンドアイコン610を押下することにより録音が開始される。また、録音が開始された後、録音コマンドアイコン610は、停止コマンドアイコン610#に表示が切替わるものとする。そして、停止コマンドアイコン610#が押下されることにより録音が停止する。また、「やめる」アイコン615を押下することにより、前の画面である録音データファイルリスト選択画面600に戻るものとする。
 再び、図98を参照して、CPU31は、タッチパネル13からタッチ位置データの入力があるかどうかを判断する(ステップSD270#)。
 次に、CPU31は、タッチパネル13からタッチ位置データの入力があると判断した場合には、次にタッチ位置データの示す座標値が録音コマンドアイコン表示範囲内の値であるかどうかを判断する(ステップSD271)。
 ステップSD271において、CPU31は、タッチ位置データの示す座標値が録音コマンドアイコン610の表示範囲内の値であると判断した場合には、次にマイク入力音量がしきい値以上であるかどうかを判断する(ステップSD272)。
 CPU31は、マイク入力音量がしきい値以上であると判断した場合には、次に録音処理を開始する(ステップSD273)。
 そして、次に、CPU31は、録音コマンドの表示切替を実行する(ステップSD274)。具体的には、停止コマンドアイコン610#を表示する。
 そして、次に、CPU31は、タッチパネル13からタッチ位置データの入力があるかどうかを判断する(ステップSD275)。
 CPU31は、タッチパネル13からタッチ位置データの入力があると判断した場合には、タッチ位置データの示す座標値が停止コマンドアイコン610#の表示範囲内の値であるかどうかを判断する(ステップSD276)。
 ステップSD276において、CPU31は、タッチ位置データの示す座標値が停止コマンドアイコン610#の表示範囲内の値であると判断した場合には、録音処理を終了する(ステップSD277)。そして、「D」に進む。
 そして、図100を参照して、ステップSD277において、CPU31は、録音処理が終了した場合には、次に、次に録音データファイルを保存する(ステップSD290)。具体的には、CPU31は、メモリ制御回路33を介して録音データファイルを保存用データメモリ34に保存する。
 そして、次に、CPU31は、録音データファイル色指定画面を表示する(ステップSD291)。
 図101は、本実施形態に従う録音データファイル色指定画面603を説明する図である。
 図101を参照して、本実施形態に従う録音データファイル色指定画面603において、「録音できましたこの音声であそべます」が表示されている場合が示されている。そして、色指定範囲620が設けられ、赤、橙、黄色、緑、青、紺の色指定選択アイコン621~626が設けられる。ユーザは、いずれかの色指定アイコンにタッチペン27等を使ってタッチすることにより指定することができる。当該指定された色により指定されたスロットに対応する録音データファイルの表示色が登録される。また、「キャンセル」アイコン630を押下することにより、録音データファイルが削除されて、録音データファイルリスト選択画面600に戻る。
 再び、図100を参照して、CPU31は、タッチパネル13からタッチ位置データの入力があるかどうかを判断する(ステップSD292)。
 ステップSD292において、CPU31は、タッチパネル13からタッチ位置データの入力があると判断した場合には、次にタッチ位置データの示す座標値が色指定範囲内の値かどうかを判断する(ステップSD293)。
 ステップSD293において、CPU31は、タッチ位置データの示す座標値が色指定範囲内の値であると判断した場合には、指定された表示色を登録する(ステップSD294)。そして、CPU31は、録音データファイルリスト選択画面600を表示する。その際に、選択された録音データファイルは、指定された表示色で表示される。
 一方、ステップSD293において、CPU31は、タッチ位置データの示す座標値が色指定範囲内の値ではないと判断した場合には、次にタッチ位置データの示す座標値が「キャンセル」アイコン630の表示範囲内の値であるかどうかを判断する(ステップSD295)。
 ステップSD295において、CPU31は、タッチ位置データの示す座標値が「キャンセル」アイコン630の表示範囲内の値ではないと判断した場合には、ステップSD292に戻る。
 一方、ステップSD295において、CPU31は、タッチ位置データの示す座標値が「キャンセル」アイコン630の表示範囲内の値であると判断した場合には、指定したスロットに対応する録音データファイルを削除する(ステップSD296)。
 そして、CPU31は、録音データファイルリスト選択画面600を表示する。その際に、選択されたファイルは、録音データが格納されていないファイルとして表示される。
 再び、図98を参照して、ステップSD276において、CPU31は、タッチ位置データの示す座標値が停止コマンドアイコン610#の表示範囲内の値ではないと判断した場合には、ステップSD275に戻る。
 ステップSD275において、CPU31は、タッチパネル13からタッチ位置データの入力がない場合には録音データはスロットに保存可能な容量に達したかどうかを判断する(ステップSD278)。
 ステップSD278において、CPU31は、録音データがスロットに保存可能な容量に達しないと判断した場合には再びステップSD275に戻る。
 ステップSD278において、CPU31は、録音データががスロットに保存可能な容量に達しないと判断した場合には再びステップSD275に戻る。
 そして、ステップSD278において、CPU31は、録音データがスロットに保存可能な容量に達したと判断した場合には録音処理を終了する(ステップSD279)。そして、図100のステップSD290に進む。後の処理については、上述したのと同様である。
 一方、ステップSD271において、CPU31は、タッチ位置データの示す座標値が録音コマンドアイコン610の表示範囲内の値ではないと判断した場合には、次にタッチ位置データの示す座標値が「やめる」アイコン615の表示範囲内の値であるかどうかを判断する。
 ステップSD280において、CPU31は、タッチ位置データの示す座標値が「やめる」アイコン615の表示範囲内の値であると判断した場合には、CPU31は、図95で説明した録音データファイルリスト選択画面600を表示する。
 一方、ステップSD280において、CPU31は、タッチ位置データの示す座標値が「やめる」アイコン615の表示範囲内の値ではないと判断した場合には、ステップSD270#に進む。
 当該処理により、ユーザは、自由に本体のマイクで録音した録音データファイルを作成して、作成した録音データファイルを用いて再生することが可能である。また、作成した録音データファイルを図65で説明した録音データ選択アイコン544を選択することにより表示して、同様の方式に従って音声録音した録音データファイルを効果音としてスピーカから出力する機能を実行することも可能である。
 なお、上述の本実施形態においては、一例として、ゲーム装置10に内蔵されている保存用メモリ34に録音データファイルを保存するスロットを設けて格納する場合について説明したが、当該録音データファイルを保存用メモリ34に限られず、例えば、ユーザの操作指示に従ってSDカード等のメモリカードに保存するようにすることも可能である。
 [10.プログラムを記憶する記憶媒体]
 上述の説明では、少なくとも、保存用データメモリ34、メモリカード28、メモリカード29のいずれかに実行される各種アプリケーションプログラムが記憶されることを前提として説明した。以下、各記憶媒体に記憶されるアプリケーションプログラムのより好ましい形態について例示する。
 図103は、本実施形態に従うゲーム装置10が利用可能な記憶媒体を説明するための図である。
 図103を参照して、ゲーム装置10に内蔵される保存用データメモリ34には、プログラム領域およびデータ領域が区分して設けられる。プログラム領域には、典型的に、第1撮影機能プログラム901(例えば、前述の撮影機能プログラム52または撮影アプリケーションプログラム53)と、第1録音機能プログラム902(例えば、前述のサウンドアプリケーションプログラム57)と、第2撮影機能プログラム903(これまでに説明していないプログラムであり、例えば、前述の撮影アプリケーションプログラム53と同様のプログラムであり、さらに、撮影モードにおいて、装着中の専用規格カード内のメモリにも撮影画像を保存することができ、また、写真表示モードにおいて、装着中の専用規格カード内のメモリに保存された撮影画像を表示することができる)と、第2録音機能プログラム904(これまでに説明していないプログラムであり、例えば、前述のサウンドアプリケーションプログラム57と同様のプログラムであり、さらに、装着中の専用規格カード内のメモリにも音声データを保存することができ、また、装着中の専用規格カード内のメモリに保存された音声データを利用することができる)と、第1写真利用プログラム905(これまでに説明していないプログラムであり、例えば、前述の撮影アプリケーションプログラム53のうちの編集機能(前述の撮影モードのうちの編集機能のみ)と写真の閲覧機能(前述の写真表示モード)を有するプログラムである)と、第1音声利用プログラム906(これまでに説明していないプログラムであり、例えば、前述のサウンドアプリケーションプログラム57から録音機能を削除したプログラムである)と、第2写真利用プログラム907(これまでに説明していないプログラムであり、例えば、前述の撮影アプリケーションプログラム53のうちの写真表示モードのみを有するプログラムであり、さらに、装着中の専用規格カード内のメモリに保存された撮影画像を表示することができる)と、第2音声利用プログラム907(これまでに説明していないプログラムであり、例えば、前述のサウンドアプリケーションプログラム57から録音機能を削除したプログラムであり、さらに、装着中の専用規格カード内のメモリに保存された音声データを再生したり編集することができる)とが記憶可能である。
 これらのプログラムのうち、第1撮影機能プログラム901と、第1録音機能プログラム902と、第1写真利用プログラム905と、第1音声利用プログラム906とについては、ゲーム装置10の保存用データメモリ34に予め記憶(プリインストール)されているものとする。
 これに対して、第2撮影機能プログラム903と、第2録音機能プログラム904と、第2写真利用プログラム907と、第2音声利用プログラム907とについては、無線通信モジュール38、ローカル通信モジュール39、もしくはその他の通信手段を介して、図示しない配信サーバなどからダウンロードされる。
 また、データ領域909は、第1もしくは第2撮影機能プログラム901,903によって取得された撮像データ、および/または、第1もしくは第2録音機能プログラム902,904などによって取得された音声データを不揮発的に記憶可能である。なお、第1撮影機能プログラムによって取得された撮像データと、第2撮影機能プログラムによって取得された撮像データとを区別なく同じ領域に格納して相互に利用可能とすることも可能である。また、なお、第1録音機能プログラムによって取得された音声データと、第2録音機能プログラムによって取得された音声データとを区別なく同じ領域に格納して相互に利用可能とすることも可能である。
 なお、図103には、理解を容易にするために、典型的に保存用データメモリ34を実現するNAND型フラッシュメモリを示す「内蔵NAND」と記載している。なお、保存用メモリ34をNAND型フラッシュメモリ以外の不揮発性メモリで実現してもよいことは言うまでもない。
 さらに、本実施形態に従うゲーム装置10には、メモリカードインターフェース36(図18)を介して、汎用規格に基づく汎用規格カードからなるメモリカード28(典型的には、SDカード)が装着可能である。このメモリカード28は、各種データを不揮発的に記憶することができる。すなわち、メモリカード28には、データ領域910が設けられる。
 さらに、本実施形態に従うゲーム装置10には、メモリカードインターフェース37(図18)を介して、専用規格に基づく専用規格カードからなる各種のメモリカード29-1~29-4のいずれかが選択的に装着可能である。このメモリカード29-1~29-4の各々には、プログラム領域およびデータ領域が区分して設けられる。
 より具体的には、メモリカード28-1には、撮影機能プログラム921(前述した、撮影機能プログラム2と同様の機能を有するプログラムであるが、プログラムの具体的な内容は異なる)と、写真利用プログラム922(前述の第2写真利用プログラムと同様の機能を有するプログラムであるが、プログラムの具体的な内容は異なる)とが記憶されているものとする。また、メモリカード29-1には、撮像データおよび/または音声データを不揮発的に記憶可能なデータ領域923が設けられている。
 同様に、メモリカード29-2には、撮影機能プログラム931(前述した、撮影機能プログラム2と同様の機能を有するプログラムであるが、プログラムの具体的な内容は異なる。また、撮影した画像の保存先は自カード内の不揮発メモリ933に限られる)と、写真利用プログラム932(前述した、写真利用プログラム2と同様の機能を有するプログラムであるが、プログラムの具体的な内容は異なる。また、利用できるのは自カード内の不揮発メモリ933に保存された撮影画像に限られる)とが記憶されているものとする。また、メモリカード28-2には、撮像データおよび/または音声データを不揮発的に記憶可能なデータ領域933が設けられている。
 また、メモリカード29-3には、録音機能プログラム941(前述した、録音機能プログラム2と同様の機能を有するプログラムであるが、プログラムの具体的な内容は異なる)と、音声利用プログラム942(前述の音声利用プログラム2と同様の機能を有するプログラムであるが、プログラムの具体的な内容は異なる)とが記憶されているものとする。また、メモリカード28-3には、撮像データおよび/または音声データを不揮発的に記憶可能なデータ領域943が設けられている。
 同様に、メモリカード28-4には、録音機能プログラム951(前述した、録音機能プログラム2と同様の機能を有するプログラムであるが、プログラムの具体的な内容は異なる。また、録音した音声データの保存先は自カード内の不揮発メモリ953に限られる)と、音声利用プログラム952(前述した、音声利用プログラム2と同様の機能を有するプログラムであるが、プログラムの具体的な内容は異なる。また、利用できるのは自カード内の不揮発メモリ933に保存された音声データに限られる)とが記憶されているものとする。また、メモリカード28-4には、撮像データおよび/または音声データを不揮発的に記憶可能なデータ領域953が設けられている。
 これらのそれぞれの記憶媒体に記憶されるプログラムは、たとえば、同じ撮影機能を提供する撮影機能プログラムであっても、その提供される機能の一部または全部が異なったものとなっている。
 たとえば、ゲーム装置10の本体にプリインストールされている第1撮影機能プログラム901と、ダウンロードによってゲーム装置10に記憶される第2撮影機能プログラム903との間では、その撮影によって得られる画像データの保存先の選択可能範囲が異なったものとなっている。すなわち、第1撮影機能プログラム901では、取得した撮像データを、内蔵の保存用データメモリ34(データ領域909,内蔵NAND)、または、メモリカード28(SDカード)のいずれかに選択的に保存できる。一方、第2撮影機能プログラム903では、取得した撮像データを、内蔵の保存用データメモリ34(データ領域909,内蔵NAND)およびメモリカード28(SDカード)に加えて、ゲーム装置10に装着されるメモリカード29(専用規格カード)のいずれかに選択的に保存できる。すなわち、第2撮影機能プログラム903は、撮像データの保存先の選択可能範囲という点において、第1撮影機能プログラム901に比較してより高機能な処理を提供する。
 なお、CPU31がいずれかの撮影機能プログラムを実行することで、上述の図30に示すような処理が実現される。そして、同じ撮影機能プログラムの間での機能の相違に起因して、図31に示す保存先を選択できるボタン画像の数が異なったものとなる。
 同様に、第1録音機能プログラム902では、取得した音声データを、内蔵の保存用データメモリ34(データ領域909,内蔵NAND)、または、メモリカード28(SDカード)のいずれかに選択的に保存できる。一方、第2録音機能プログラム904では、取得した音声データを、内蔵の保存用データメモリ34(データ領域909,内蔵NAND)およびメモリカード28(SDカード)に加えて、ゲーム装置10に装着されるメモリカード29(専用規格カード)のいずれかに選択的に保存できる。すなわち、第2撮影録音プログラム904は、撮像データの保存先の選択可能範囲という点において、第1録音機能プログラム902に比較してより高機能な処理を提供する。なお、CPU31が録音機能プログラムを実行することで、上述の図30に示すような処理が実現される。
 なお、CPU31がいずれかの録音機能プログラムを実行することで、上述の図98に示すような処理が実現される。そして、同じ録音機能プログラムの間での機能の相違に起因して、図100のステップSD290に示す録音データファイルの選択可能な保存先が異なったものとなる。
 また、第1写真利用プログラム905では、内蔵の保存用データメモリ34(データ領域909,内蔵NAND)、または、メモリカード28(SDカード)のいずれかに保存された撮像データを選択的に利用可能である。一方、第2写真利用プログラム907では、内蔵の保存用データメモリ34(データ領域909,内蔵NAND)およびメモリカード28(SDカード)に加えて、ゲーム装置10に装着されるメモリカード29(専用規格カード)のいずれかに保存された撮像データを選択的に利用可能である。すなわち、第2写真利用プログラム907は、撮像データを読み出して利用できる記憶媒体の選択可能範囲という点において、第1写真利用プログラム905に比較してより高機能な処理を提供する。
 なお、CPU31がいずれかの写真利用プログラムを実行することで、上述の図32に示すような処理が実現される。すなわち、既に取得されている撮像データを閲覧(表示)したり、当該撮像データに対して各種の編集を行ったりできる。そして、同じ写真利用プログラムの間での機能の相違に起因して、図31に示す読出先を選択できるボタン画像の数などが異なったものとなる。
 同様に、第1音声利用プログラム906では、内蔵の保存用データメモリ34(データ領域909,内蔵NAND)、または、メモリカード28(SDカード)のいずれかに保存された音声データを選択的に利用可能である。一方、第2音声利用プログラム908では、内蔵の保存用データメモリ34(データ領域909,内蔵NAND)およびメモリカード28(SDカード)に加えて、ゲーム装置10に装着されるメモリカード29(専用規格カード)のいずれかに保存された音声データを選択的に利用可能である。すなわち、第2音声利用プログラム908は、音声データを読み出して利用できる記憶媒体の選択可能範囲という点において、第1音声利用プログラム906に比較してより高機能な処理を提供する。
 なお、CPU31がいずれかの音声利用プログラムを実行することで、上述の図97に示すような処理が実現される。そして、同じ音声利用プログラムの間での機能の相違に起因して、再生する音声データの読出先の選択可能範囲が異なったものとなる。
 メモリカード29-1に記憶される撮影機能プログラム921は、保存用データメモリ34に記憶される第2撮影機能プログラム903と同様の機能を提供する。すなわち、撮影機能プログラム921では、取得した撮像データを、ゲーム装置10本体に内蔵の保存用データメモリ34(データ領域909,内蔵NAND)およびメモリカード28(SDカード)に加えて、自メモリカード29-1(データ領域923)のいずれかに選択的に保存できる。すなわち、撮影機能プログラム921は、ゲーム装置10本体に内蔵の保存用データメモリ34に記憶される第1撮影機能プログラム901に比較して、撮像データの保存先の選択可能範囲という点においてより高機能な処理を提供する。
 これに対して、メモリカード29-2に記憶される撮影機能プログラム931は、撮影機能プログラム921に比較して、より提供可能な機能が制約される。すなわち、撮影機能プログラム931では、取得した撮像データを、自メモリカード29-2(データ領域933)にのみ保存できる。
 また、メモリカード29-1に記憶される写真利用プログラム922は、保存用データメモリ34に記憶される第2写真利用プログラム907と同様の機能を提供する。すなわち、写真利用プログラム922では、ゲーム装置10本体に内蔵の保存用データメモリ34(データ領域909,内蔵NAND)およびメモリカード28(SDカード)に加えて、自メモリカード29-1(データ領域923)のいずれかに保存された撮像データを選択的に利用可能である。すなわち、写真利用プログラム922は、ゲーム装置10本体に内蔵の保存用データメモリ34に記憶される第1写真利用プログラム905に比較して、撮像データを読み出して利用できる記憶媒体の選択可能範囲という点においてより高機能な処理を提供する。
 これに対して、メモリカード29-2に記憶される写真利用プログラム932は、写真利用プログラム922に比較して、より提供可能な機能が制約される。すなわち、写真利用プログラム932では、自メモリカード29-2(データ領域933)に保存された撮像データのみを利用可能である。
 同様に、メモリカード29-3に記憶される録音機能プログラム941は、保存用データメモリ34に記憶される第2録音機能プログラム904と同様の機能を提供する。すなわち、録音機能プログラム941では、取得した音声データを、ゲーム装置10本体に内蔵の保存用データメモリ34(データ領域909,内蔵NAND)およびメモリカード28(SDカード)に加えて、自メモリカード29-3(データ領域943)のいずれかに選択的に保存できる。すなわち、録音機能プログラム941は、ゲーム装置10本体に内蔵の保存用データメモリ34に記憶される第1録音機能プログラム902に比較して、音声データの保存先の選択可能範囲という点においてより高機能な処理を提供する。
 これに対して、メモリカード29-4に記憶される録音機能プログラム951は、録音機能プログラム941に比較して、より提供可能な機能が制約される。すなわち、録音機能プログラム951では、取得した音声データを、自メモリカード29-4(データ領域953)にのみ保存できる。
 また、メモリカード29-3に記憶される音声利用プログラム942は、保存用データメモリ34に記憶される第2音声利用プログラム908と同様の機能を提供する。すなわち、音声利用プログラム942では、ゲーム装置10本体に内蔵の保存用データメモリ34(データ領域909,内蔵NAND)およびメモリカード28(SDカード)に加えて、自メモリカード29-3(データ領域943)のいずれかに保存された撮像データを選択的に利用可能である。すなわち、音声利用プログラム942は、ゲーム装置10本体に内蔵の保存用データメモリ34に記憶される第1音声利用プログラム906に比較して、音声データを読み出して利用できる記憶媒体の選択可能範囲という点においてより高機能な処理を提供する。
 これに対して、メモリカード29-4に記憶される音声利用プログラム952は、音声利用プログラム942に比較して、より提供可能な機能が制約される。すなわち、音声利用プログラム942では、自メモリカード29-4(データ領域953)に保存された音声データのみを利用可能である。
 なお、本実施形態に従うゲーム装置100では、専用規格のメモリカードであるメモリカード29-1~29-4に記憶されたアプリケーションを読み出して実行することは許可されているが、汎用規格のメモリカードであるメモリカード28に記憶されたアプリケーションを読み出して実行することは禁止されている。
 このように、本実施形態に従うゲーム装置100では、各種の記憶媒体に記憶された様々なアプリケーションを実行することができる。そのため、アプリケーションプログラムの販売や配布を行う方法に自由度を高めることができる。たとえば、ゲーム装置10に内蔵の保存用データメモリ34には、ベーシックな機能のみを実行可能なアプリケーションプログラムをプレイストールしておき、より高度な機能を実行可能なアプリケーションプログラムをダウンロードや専用規格カードによって提供するようなアプリケーションプログラムの販売形態も可能である。
 [11.本実施形態の作用効果およびその他の構成]
 本発明は、上述したような実施形態として具現化されるが、本発明は、本質的に以下の局面を含む。なお、以下の記載においては、本発明の理解を助けるために上述の実施形態との対応関係を示すが、括弧内の参照符号および補足説明等は、本発明を何ら限定するものではない。
 <第1の局面>
 本発明の第1の局面によれば、第1のハウジング(下側ハウジング11)と、第2のハウジング(上側ハウジング21)と、第1の撮像部(外側カメラ25)と、第1の表示部(下側LCD12)と、接触座標検出手段(タッチパネル13)と、第1表示制御手段(ステップSB6を実行するCPU31)、変更手段(ステップSB5を実行するCPU31)とを備える、携帯型撮像装置(10)を提供する。第2のハウジングは、第1のハウジングと折り畳み可能に接続される。第1の撮像部は、第2のハウジングの折り畳み時における外側面に設けられる。第1の表示部は、第1のハウジングの折り畳み時における内側面に表示画面が設けられ。接触座標検出手段は、第1の表示部の表示画面に対する接触座標を検出する。第1表示制御手段は、第1の撮像部によって現在撮像されているライブ画像を第1の表示部に表示する。変更手段は、接触座標検出手段に対する入力に基づいてライブ画像に変更を加える。
 なお、上記における「接触座標検出手段に対する入力に基づいてライブ画像に変更を加える」とは、典型的には、以下が挙げられるが、以下の例に限られず、ライブ画像に対してタッチ入力させ、それにより、ライブ画像に所定の画像を合成する(典型的にはタッチ入力に基づく位置に合成する)こと、または、ライブ画像に所定の画像変換処理を行う(典型的にはタッチ入力に基づく位置または領域に対して画像変換処理をする)ことを含む。
・タッチ入力による手書きの画像をライブ画像に対して描画する。
・ライブ画像に対してタッチした位置にスタンプ画像を合成する。
・ライブ画像に対してタッチした位置または領域をゆがませる画像処理を行う。
・ライブ画像に対してタッチした位置または領域の色を変更する処理を行う。
 この局面によれば、以下の第1の課題を解決することができる。
 (第1の課題)
 特開2006-311224号公報(特許文献1)に記載の携帯電話機は、カメラによって撮像中の画像(ライブ画像;カメラから出力される撮像画像をリアルタイムに動画として表示する画像)は、カメラが取り付けられる方のハウジングに設けられる表示画面に表示される。これは、カメラの撮影方向とライブ画像を表示する方向とが反対向きとなるので、ライブ画像が現実世界で見たままの方向に表示され、現実世界のどこを撮影しているのかがユーザにとって認識しやすいからである。しかしながら、特開2006-311224号公報(特許文献1)に記載の携帯電話機は、ライブ画像に対する編集操作ができない。
 ここで、ライブ画像に対する編集操作とは、スタンプ画像やシール画像と呼ばれる予め用意された画像や、ユーザの手書きの画像をライブ画像に重ね合わせる等、ライブ画像に何らかの変更を加える操作である。このような編集操作が可能なものとして、特開平04-156791号公報(特許文献5)、特開平06-276478号公報(特許文献6)、特開平01-297986号公報(特許文献7)、特開2002-125176号公報(特許文献8)、および特開2004-320091号公報(特許文献9)がある。
 例えば、特開平04-156791号公報(特許文献5)に記載の撮像装置では、静止画またはライブ画像に対してタッチパネルを用いて入力を行うことが可能である。しかし、この撮像装置では、ライブ画像を表示する画面はカメラレンズの背面にあるため(特開平04-156791号公報の第1図参照)、タッチパネル面を上にして載置することが困難であり、ユーザは編集操作(タッチパネルに対する接触入力操作)を安定的に行うことができない。
 また、特開平06-276478号公報(特許文献6)に記載の音声画像記録表示装置では、表示部に表示されるライブ画像に対して手書き画像を追加するための入力装置として、マウスを用いている。そのため、ライブ画像に対して直接接触する直感的な編集操作を行うことができない。さらに、上記音声画像記録表示装置を載置した場合にはカメラの撮影方向を上下方向に変更することができないので、載置した場合には撮影の自由度が制限される。
 また、特開平01-297986号公報(特許文献7)に記載の装置によれば、デジタイザを用いてユーザが作成した画像を撮像画像に重ね合わせることが可能である。しかし、上記装置では、ユーザはデジタイザを用いて画像を予め作成しておき、作成しておいた画像を撮像した画像に重ね合わせるのみであり、ライブ画像に対して編集操作を行うことができない。また、デジタイザはカメラと別体に構成されるか(特開平01-297986号公報の第1図参照)、あるいは、カメラと一体に構成されるか(特開平01-297986号公報の第5および第6図参照)である。そのため、別体に構成される場合には、載置して使用するには適しているものの、把持して使用するには2つの装置(カメラとデジタイザ)を両方把持しなければならず、非常に操作しにくい。また、一体に構成される場合には、上記の特開平04-156791号公報(特許文献5)および特開平06-276478号公報(特許文献6)と同様、表示画面が載置面に対して垂直に配置されるので、デジタイザに対する操作が行いにくい。
 なお、特開2002-125176号公報(特許文献8)および特開2004-320091号公報(特許文献9)に記載の装置は据置型の装置であり、把持と載置との両方の使用態様が考慮されていない。
 (第1の局面による作用効果)
 第1の局面によれば、上記第1の課題に関して、ライブ画像に対する編集操作が行いやすい携帯型撮像装置を提供することができる。
 すなわち、第1の局面によれば、折り畳み型の携帯型撮像装置の上側のハウジング(第2のハウジング)にカメラが設けられ、カメラによって撮像中のライブ画像は、下側のハウジング(第1のハウジング)に設けられる画面に表示される。そして、当該画面に設けられるタッチパネルによって、ユーザはライブ画像に対して直接編集操作を行うことができる。以上の構成によれば、カメラの撮影方向を、ライブ画像に対する編集操作を行う面(タッチパネルの面)に対して独立させて変化させることができるので、ユーザは、把持して使用する態様であっても載置して使用する態様であっても、ユーザが操作しやすい角度でタッチパネルを配置させることができる。すなわち、ライブ画像に対する編集操作が行いやすくなる。換言すれば、ユーザが操作しやすい角度でタッチパネルを配置させても、カメラの撮影方向を自由に調整することができるので、撮影自体を行いやすくすることができる。
 第1の局面のより好ましい局面によれば、携帯型撮像装置は、第2の表示部(上側LCD22)と、記憶手段(保存用データメモリ34)と、保存手段(ステップSB9を実行するCPU31)と、第2表示制御手段(ステップSB10を実行するCPU31)とをさらに備えていてもよい。第2の表示部は、第2のハウジングの折り畳み時における内側面に表示画面が設けられる。保存手段は、所定操作に応じて、変更手段によって変更された後のライブ画像を保存画像として記憶手段に保存する。第2表示制御手段は、保存画像を第2の表示部に表示する。
 この局面によれば、カメラの撮影方向と逆方向を向く表示画面に撮像画像を表示することによって、ライブ画像とともにすでに撮像された保存画像をユーザに提示することができる。
 第1の局面のより好ましい局面によれば、第3の発明においては、第2表示制御手段は、所定操作によって保存される保存画像を当該所定操作が行われたことに応じて第2の表示部に表示するようにしてもよい。
 この局面によれば、ユーザが撮影操作を行った場合、撮影操作によって得られた画像が当該撮影操作の直後に第2の表示部に表示される。したがって、(カメラの撮影方向とライブ画像の表示方向とが対応しないものの)カメラの撮影方向と撮影画像の表示方向とを対応させることによって、撮影方向を分かりやすいように撮像画像をユーザに提示することができる。
 第1の局面のより好ましい局面によれば、第1の撮像部は、第2のハウジングの内側面において第2の表示部の左右の両側に設けられる非画面領域に対応する、第2ハウジングの外側面の領域において、上下方向の中央よりも第2のハウジングの下辺から遠い側に配置されてもよい。
 この局面によれば、上側のハウジング(第2のハウジング)の上側に第1の撮像部を配置することによって、携帯型撮像装置を把持して使用する態様においては、下側のハウジングを把持するユーザの手が撮像されてしまうことを防止することができる。また、携帯型撮像装置を載置して使用する態様においては、載置面から第1の撮像部までの距離が遠くなるので、載置面が撮像されてしまうことを防止することができる。さらに、上側のハウジングの非画面領域内にカメラを配置することによって、非画面領域のスペースを有効活用し、装置を小型化することができる。
 第1の局面のより好ましい局面によれば、第1の表示部には、撮影操作を行うための所定の画像が表示されてもよい。このとき、携帯型撮像装置は、記憶手段(保存用データメモリ34)と、保存手段(ステップSB9を実行するCPU31)とをさらに備える。保存手段は、所定の画像を座標入力手段によって指定する操作に応じて、変更手段によって変更された後のライブ画像を保存画像として記憶手段に保存する。
 この局面によれば、タッチパネルに対する操作によって撮影操作を行うことができる。つまり、タッチパネルによって編集操作と撮影操作との両方を行うことができるので、編集操作を行った後に撮影操作を行う操作がユーザにとっては非常に行いやすくなる。
 第1の局面のより好ましい局面によれば、携帯型撮像装置は、操作ボタン(ボタン14Iおよび/または14J)と、記憶手段(保存用データメモリ34)と、保存手段(ステップSB9を実行するCPU31)とをさらに備えていてもよい。操作ボタンは、第1のハウジングの上辺の左右両端の少なくとも一方に設けられる。保存手段は、操作ボタンに対する操作に応じて、変更手段によって変更された後のライブ画像を保存画像として記憶手段に保存する。
 この局面によれば、ユーザは、携帯型撮像装置を把持する手で操作ボタンを押下することによって撮影操作を行うことができる。すなわち、携帯型撮像装置を把持した状態でそのまま撮影操作を行うことができるので、撮影操作を容易に行うことができる。
 第1の局面のより好ましい局面によれば、操作ボタンは、第1のハウジングの上辺において第1のハウジングの内側面から見て左端に設けられてもよい。
 この局面によれば、ユーザは、左手で携帯型撮像装置を把持し、右手でライブ画像に対する編集操作を行いながら、左手で操作ボタンを押下することによって撮影操作を行うことができる。したがって、携帯型撮像装置を把持した状態において、右手で編集操作を行いながら左手ですばやく撮影操作を行うことができるので、ユーザは編集操作および撮影操作を容易に行うことができる。
 第1の局面のより好ましい局面によれば、操作ボタンは、第1のハウジングの上辺の左右両端に設けられてもよい。
 この局面によれば、右利きのユーザであっても左利きのユーザであっても、編集操作および撮影操作を容易に行うことができる。
 第1の局面のより好ましい局面によれば、携帯型撮像装置は、第2のハウジングの内側面に設けられる第2の撮像部(内側カメラ23)をさらに備えてもよい。このとき、第1表示制御手段は、第1の撮像部または第2の撮像部によって現在撮像されているライブ画像を第1の表示部に表示する。
 この局面によれば、第2のハウジングの内側面にも撮像手段を設けることによって、第1の撮像部による撮影方向の逆方向についても撮影を行うことができる。
 第1の局面のより好ましい局面によれば、携帯型撮像装置は、操作ボタン(ボタン14Iおよび/または14J)と、記憶手段(保存用データメモリ34)と、保存手段(ステップSB9を実行するCPU31)とをさらに備えていてもよい。操作ボタンは、第1のハウジングの上辺の左右両端の少なくとも一方に設けられる。保存手段は、操作ボタンに対する操作に応じて、変更手段によって変更された後のライブ画像を保存画像として記憶手段に保存する。第1のハウジングは、その内側面に対して垂直な方向に突起するように設けられる第1の軸部(11A)を有している。第2のハウジングは、第1の軸部と回転可能に接続される第2の軸部(21A)を有している。第2の撮像部は、第2の軸部に配置される。
 この局面によれば、第2の撮像部を軸部(第2の軸部)に設けることによって、装置の省スペース化を図ることができる。また、第2の軸部は第1のハウジングの内側面上に位置するので、2つのハウジングを折り畳んだ状態にした場合には、第2の撮像部は第1のハウジングと対向する向きとなる。そのため、携帯型撮像装置を閉状態にした場合には、第2の撮像部は第1のハウジングの内側面に隠れて露出することがなく、第2の撮像部を保護することができる。
 第1の局面の代替の局面によれば、上記記載の発明における機能を実現するために携帯型撮像装置のコンピュータにおいて実行されるプログラムとして提供されてもよい。このプログラムは、上記第1のハウジング、上記第2のハウジング、上記第1の撮像部と、上記第1の表示部、および上記接触座標検出手段とを備える携帯型撮像装置のコンピュータに実行されるプログラムを提供し、第1表示制御ステップ(SB6)と、変更ステップ(SB5)とをコンピュータに実行させるものである。第1表示制御ステップにおいては、コンピュータは、第1の撮像部によって現在撮像されているライブ画像を第1の表示部に表示する。変更ステップにおいて、コンピュータは、接触座標検出手段に対する入力に基づいてライブ画像に変更を加える。
 <第2の局面>
 この発明の第2の局面によれば、第1のハウジング(下側ハウジング11)と、第2のハウジング(上側ハウジング21)と、第1の表示部(下側LCD12)と、第1の撮像部(外側カメラ25)と、複数の操作ボタン(ボタン14A~14E)と、タッチパネル(13)とを備える撮像装置を提供する。第1のハウジングは横長形状である。第2のハウジングは、横長形状であり、その長辺が第1のハウジングの上側の長辺と折り畳み可能に接続される。第1の表示部は、第1および第2のハウジングを折り畳んだ場合に内側となる面である第1のハウジングの内側面に表示画面が設けられる。第1の撮像部は、第1および第2のハウジングを折り畳んだ場合に外側となる面である第2のハウジングの外側面に設けられ、第1のハウジングとの接続部分の反対側の端部に配置される。複数の操作ボタンは、第1のハウジングの内側面上であって、第1のハウジングの長手方向に関して表示画面の両側に設けられる。タッチパネルは、表示画面上に設けられる。
 この局面によれば、以下の第2の課題を解決することができる。
 (第2の課題)
 特開2006-311224号公報(特許文献1)に開示の撮像装置では、縦長の筐体が縦に並べて接続された構成であるので、両手で把持するには幅が狭すぎてユーザは両手でしっかりと撮像装置を把持することができない。また、筐体の全面に表示画面が設けられているので、ユーザが撮像装置を把持した場合、撮像装置を縦向きにして把持しても横向きにして把持しても画面の上に指がかかってしまい、画面の視認性やタッチパネルの操作性が悪くなる。一方、画面に指がかからないように把持しようとすると、筐体の裏面および側面のみで把持しなければならず、しっかりと撮像装置を把持することができない。また、特開2001-142564号公報(特許文献4)に開示の情報機器はノートパソコンであるので、撮像時には載置された状態で使用されることが前提であり、撮像時に手で把持して使用することはできない。
 以上のように、特開2006-311224号公報(特許文献1)および特開2001-142564号公報(特許文献4)にそれぞれ開示の撮像装置では、画面の視認性やタッチパネルの操作性を保ちながら、撮像時にユーザがしっかりと把持することはできなかった。そのため、撮像時に手ぶれが生じる可能性が高いという問題があった。また、撮像時にしっかりと把持することができないため、撮像時における操作も行いにくかった。
 (第2の局面による作用効果)
 第2の局面によれば、上記第2の課題に対して、撮像時に表示画面の視認性やタッチパネルの操作性を保ちながらユーザがしっかりと把持することが可能撮像装置を提供できる。
 すなわち、第2の局面によれば、撮像装置を横持ちで把持する場合には、第1のハウジングの表示画面の両側部分(操作ボタンが設けられた部分)を把持することによって、ユーザはしっかりと撮像装置を把持することができる。このとき、ユーザの手は操作ボタンにかかり、表示画面にかからないので、表示画面が手に隠れて見えなくなることもなく、表示画面の視認性を維持することができる。つまり、撮像時に表示画面の視認性を保ちながらユーザがしっかりと把持することのできる撮像装置を実現することができる。
 さらに、第2の局面によれば、ユーザが把持する第1のハウジングに表示部およびタッチパネルを設けている。したがって、撮像装置を把持して使用する場合であっても、机等に置いて使用する場合であっても、タッチパネルに対する操作が(第2のハウジングにタッチパネルが設けられている場合に比べて)行いやすい。
 第2の局面のより好ましい局面によれば、撮像装置は、第1および第2のハウジングを折り畳んだ場合に内側となる第2のハウジングの内側面に表示画面が設けられる第2の表示部(上側LCD22)をさらに備えていてもよい。このとき、第2のハウジングの内側面上における第2表示部の両側には、第1のハウジングの内側面において複数操作ボタンが設けられる領域(A1およびA2)と同じ幅の非表示画面領域(B1およびB2)が設けられる。
 第2の局面のより好ましい局面によれば、第2のハウジングの幅は第1のハウジングの幅と同じであってもよい。このとき、第1の表示部の表示画面と第2の表示部の表示画面とは同じ幅であり、かつ、長手方向に関して同じ位置に設けられる。
 第2の局面のより好ましい局面によれば、撮像装置は、第2のハウジングの非表示画面領域の内部に設けられるスピーカをさらに備えていてもよい。
 上記の各局面によれば、撮像装置は2つの表示画面を備えるので、より多くの情報を表示することができる。さらに、第2のハウジングにおける表示画面の両側に非表示画面領域が設けられる構成(上記(1-2))によれば、撮像装置を横持ちの状態から90°回転させて縦持ちにした場合でも、ユーザは撮像装置をしっかりと把持することができる。すなわち、撮像装置を縦持ちで把持する場合、ユーザは、第1のハウジングの操作ボタンが設けられる領域および上記非表示画面領域を親指で支持し、各ハウジングにおいて表示画面が設けられる面の裏面を人差し指から小指で支持することができる。これによって、ユーザは撮像装置をしっかりと把持することができるとともに、親指が表示画面にかかることがなく、表示画面の視認性も損なわれない。さらに、上記(4)の構成によれば、第2のハウジングの非表示画面領域の内部にスピーカを配置することによって、第2のハウジングの内部空間を有効に活用することができ、撮像装置を小型化することができる。
 第2の局面のより好ましい局面によれば、第2の表示部は、第1の撮像部で撮像された画像をリアルタイムで表示してもよい。このとき、第1の表示部は、撮像装置に対する操作を行うための操作画面を表示する(図42参照)。
 この局面によれば、リアルタイムの撮像画像が表示される表示画面と、当該撮像画像を撮像する第1の撮像部とはともに第2のハウジングに設けられることになる。これによれば、第1の撮像部の撮像方向を変化させれば、その変化に伴って表示画面の向きが変化することになるので、ユーザは、撮像方向を直感的にわかりやすく把握することができる。
 また、この局面によれば、ユーザが把持する第1のハウジングに設けられる表示画面に操作画面が表示されるので、入力手段(タッチパネルおよび操作ボタン)の近傍の表示画面に操作画面が表示されることとなる。したがって、ユーザは、操作画面を見ながらの操作を容易に行うことができる。
 第2の局面のより好ましい局面によれば、第1の表示部は、第1の撮像部で撮像されたリアルタイムの画像が第2の表示部に表示されている場合、タッチパネルに対する入力のための画像を操作画面として表示してもよい。これによれば、撮像装置に対する操作をタッチパネルを用いて容易に行うことができる。
 第2の局面のより好ましい局面によれば、第1の表示部は、撮像された画像に対して編集を行うための画像を表示してもよい。これによれば、ユーザは、編集処理をタッチパネルを用いて容易に行うことができる。
 第2の局面のより好ましい局面によれば、撮像装置は、第1および第2のハウジングを折り畳んだ場合に内側となる第2のハウジングの内側面に設けられ、かつ、第2の表示部の画面よりも第1および第2のハウジングの連結部分に近い側に設けられる第2の撮像部(内側カメラ23)をさらに備えていてもよい。これによれば、ユーザは撮像装置を持ち替えることなく、異なる2方向を撮像することができる。また、第2の撮像部を用いて撮影を行う場合においても第1の撮像部の場合と同様、第2のハウジングの角度を調整することにより、撮像方向を容易に変更することができ、特別な機構を設けなくても撮像部の撮像方向を変更することができる。さらに、第2の撮像部は、各ハウジングを折り畳んだ状態では外側に露出しないので、折り畳んだ状態とすることによって第2の撮像部を保護することができる。
 第2の局面のより好ましい局面によれば、撮像装置は、第1のハウジングの上側の長辺の右端に配置され、撮像された画像を保存する指示を行うための撮像指示ボタン(ボタン14J)をさらに備えていてもよい。これによれば、ユーザは、第1のハウジングを把持した状態において、人差し指で容易に撮影指示ボタンを押下することができる。
 第2の局面のより好ましい局面によれば、撮像装置は、第1のハウジングの上側の長辺の両端にそれぞれ配置され、撮像された画像を保存する指示を行うための2つの撮像指示ボタン(ボタン14Jおよび14I)をさらに備えていてもよい。これによれば、右利きのユーザであっても左利きのユーザであっても、第1のハウジングを把持した状態で人差し指で容易に撮影指示ボタンを押下することができる。
 第2の局面のより好ましい局面によれば、第1のハウジングおよびその内部に設けられる部品の重量は、第2のハウジングおよびその内部に設けられる部品の重量に比べて重くてもよい。
 第2の局面のより好ましい局面によれば、第1のハウジングの内部には、電池と、電子部品を実装した回路基板と、記憶媒体を着脱可能に接続するためのコネクタとが少なくとも設けられてもよい。
 上記の2つの局面によれば、撮像装置を机等に載置した場合において撮像装置を倒れにくくすることができる。また、ユーザが把持する第1のハウジングの方を第2のハウジングよりも重くすることによって、撮像装置を把持した際の安定感が増し、撮影時の手ぶれを防止することができる。
 第2の局面のより好ましい局面によれば、第2のハウジングは、第1のハウジングに対して180°よりも小さい角度に開いて固定することが可能であってもよい。これによれば、ハウジングの開閉角度を180°よりも若干小さい角度とすることによって、各ハウジングの外側面が手の形状にフィットするので、撮像装置をより持ちやすくなる。
 <第3の局面>
 この発明の第3の局面によれば、第1の撮像部(カメラ23または25)と、第1のハウジング(下側ハウジング11)と、第2のハウジング(上側ハウジング21)と、連結部(軸部11Aおよび21A)とを備える、折り畳み可能な撮像装置を提供する。連結部は、第1のハウジングと第2のハウジングとを折り畳み可能に連結する。また、撮像装置は、第1の撮像部によって撮像された画像の記録指示を行うための1以上の撮影ボタン(ボタン14Jおよび14I)を備える。1以上の撮影ボタンは、第1のハウジングの折り畳み時の内側の面を正面とした場合の側面であって、第1のハウジングおよび第2のハウジングを開いた場合に第2のハウジングが存在する側の側面に設けられる。
 この局面によれば、以下の第3の課題を解決することができる。
 (第3の課題)
 特開2003-333149号公報(特許文献10)に開示の携帯電話機では、ユーザが撮影を行う際には、下側の第2筐体を片手で把持しながら親指で第1シャッタボタンを押下する操作態様が想定される。つまり、ユーザは、親指を第2筐体の内側面に接触させるとともにその他の指を第2筐体の外側面に接触させるようにして(親指とその他の指とで第2筐体を挟むようにして)第2筐体を把持しながら、その親指で第1シャッタボタンを押下するのである。このような操作態様では、第1シャッタボタンを押下する際に親指を第2筐体から離さなければならないので第2筐体をしっかり把持することができない。そのため、第1シャッタボタンを押下しにくく、また、押下した際に手ぶれが生じるおそれがある。このように、従来の折り畳み式の撮像装置では、シャッタボタンを押下する撮影操作が行いにくいという課題があった。
 (第3の局面による作用効果)
 第3の局面によれば、上記第3の課題に対して、撮影操作の操作性を向上することができる。
 すなわち、第3の局面によれば、第1のハウジングにおいて第2のハウジングと連結される側の側面に撮影ボタンを設けることによって、ユーザは、親指を第1のハウジングの内側面に接触させるとともに中指等を第1のハウジングの外側面に接触させて第1のハウジングを把持した状態で、撮影ボタンを人差し指で押下することができる(図9および図10参照)。これによれば、第1のハウジングをしっかりと把持したまま撮影ボタンを押下することができるので、撮影操作時にボタンを押しやすく、また手ぶれが生じにくい。したがって、上記(2-1)の構成によれば、折り畳み式の撮像装置に対する撮影操作の操作性を向上することができる。
 さらに、第3の局面によれば、第1のハウジングの側面に撮影ボタンを設けているので、第1のハウジングの外側面を下にして撮像装置を置いた状態としても撮影操作を行うことが可能である。なお、撮像部は第2のハウジングに設けられるので、撮像装置を置いた状態であってもユーザは撮影方向を自由に変更することができる。
 第3の局面のより好ましい局面によれば、第1の撮像部は、第2のハウジングの折り畳み時の外側の面に設けられてもよい。
 この局面によれば、第1の撮像部は第2のハウジングに設けられるので、第1のハウジングに対する第2のハウジングの角度を変更することによって撮像方向を容易に変更することができる。また、第1の撮像部は第2のハウジングの外側面に設けられるので、ユーザの視線と同じ方向を撮影することができる。
 第3の局面のより好ましい局面によれば、第1の撮像部は、第2のハウジングの外側の面において、上下方向の中央よりも連結部から遠い側に配置されてもよい。なお、ここでは、第1のハウジングと第2のハウジングとが上下に連結されているものとし、第1のハウジングと第2のハウジングとの連結方向を上下方向としている。また、第1のハウジングと第2のハウジングとが連結されている軸の方向を左右方向としている。例えば第1のハウジングが横長形状である場合には、第1のハウジングの長手方向を左右方向としてもよい。
 なお、上述したように、ユーザは、第1のハウジングの側面に設けられた撮影ボタンを人差し指で押下するので、第1の撮像部の位置によっては人差し指が第1の撮像部の撮像範囲に入ってしまうおそれがある。これに対して、上記(2-3)の構成によれば、第1の撮像部は第1のハウジングとの接続部分から遠い側に配置されるので、第1の撮像部の撮像範囲に人差し指が入ってしまうことを防止することができる。
 第3の局面のより好ましい局面によれば、撮像装置には、1以上の撮影ボタンとして、第1および第2のボタンが側面における左右両端にそれぞれ設けられてもよい。
 この局面によれば、第1のハウジングの側面の左右両側に撮影ボタンが設けられるので、ユーザは右手および左手のいずれで撮像装置を把持する場合であっても、撮影ボタンを容易に押下することができる。したがって、上記(2-4)の構成によれば、ユーザは利き手に関係なく容易に撮影操作を行うことができる。
 第3の局面のより好ましい局面によれば、撮像装置は、第2の撮像部(内側カメラ23)をさらに備えていてもよい。第2の撮像部は、撮像装置を開いた場合において第1のハウジングの内側の面および第2のハウジングの内側の面によって形成される装置主面(操作面)に、左右方向に関して略中央に設けられる。
 この局面によれば、装置主面に第2の撮像部が設けられるので、第2の撮像部によってユーザの方向を撮像することができる。また、第2の撮像部は装置主面の左右に関して略中央に設けられるので、ユーザは、例えば自分を撮影する場合等に撮像装置の左右の位置を容易に合わせることができる。
 第3の局面のより好ましい局面によれば、撮像装置は、複数の操作ボタン(ボタン14A~14F)をさらに備えていてもよい。複数の操作ボタンは、第1のハウジングの内側の面において、第2の撮像部よりも右側および左側に設けられる。
 この局面によれば、第1のハウジングの内側面に操作ボタンが設けられることによって、操作ボタン上に親指を接触させるようにしてユーザに撮像装置を把持させることができる。操作ボタンは第2の撮像部よりも(左右方向に関して)外側に設けられるので、ユーザの親指は第2の撮像部よりも外側の位置に接触することとなる。したがって、上記(2-6)の構成によれば、(ユーザに特に意識させることなく、自然に)第2の撮像部の撮像範囲内に親指が入る可能性を低くすることができる。
 第3の局面のより好ましい局面によれば、撮像装置は、表示部(下側LCD12)と、複数の操作ボタン(ボタン14A~14F)とをさらに備えていてもよい。表示部は、第1のハウジングの内側の面において左右方向に関して略中央に表示画面が設けられる。複数の操作ボタンは、第1のハウジングの内側の面において表示画面の左右に設けられる。
 この局面によれば、第1のハウジングの内側面に操作ボタンが設けられることによって、操作ボタン上に親指を接触させるようにしてユーザに撮像装置を把持させることができる。ここで、操作ボタンは表示部の左右両側に設けられるので、ユーザの親指は表示部よりも外側の位置に接触することとなる。したがって、上記(2-7)の構成によれば、(ユーザに特に意識させることなく、自然に)表示部の表示画面内に親指が入ることによって親指が表示の邪魔になることを防止することができる。
 第3の局面のより好ましい局面によれば、撮像装置は、表示部(下側LCD12)と、座標入力部(タッチパネル13)と、制御部(CPU31)とをさらに備えていてもよい。表示部は、第1のハウジングの内側の面に表示画面が設けられる。座標入力部は、表示画面上の座標を入力可能な入力装置である。制御部は、表示画面に所定の画像を表示するとともに、座標入力手段による入力が当該所定の画像の領域内に行われた場合、第1の撮像部によって撮像された画像を記録する。
 この局面によれば、ユーザは、第1のハウジングの内側面に設けられる座標入力部によって撮影操作が可能となる。これによれば、第1のハウジングの外側面を下にして撮像装置を置いた状態で撮影操作を行う場合においてもユーザは容易に撮影操作を行うことができる。このように、座標入力部を用いた撮影操作を可能とすることによって、人差し指で撮影ボタンを操作する必要がなくなり、様々な持ち方(例えば第2のハウジングを下にして持つ持ち方等)で撮影操作を行うことが容易になる。
 第3の局面のより好ましい局面によれば、制御部は、第1のハウジングの左右方向に関して略中央となるように所定の画像を表示してもよい。
 この局面によれば、ユーザが撮影操作を行う場合にタッチすべき所定の画像は、第1のハウジングの略中央に表示されることとなるので、ユーザは、左右どちらの手でタッチパネルに対する操作を行う場合でも、容易に操作を行うことができる。したがって、この局面によれば、第1のハウジングの外側面を下にして撮像装置を置いた状態で撮影操作を行う場合においても、ユーザは利き手に関係なく容易に撮影操作を行うことができる。
 第3の局面のより好ましい局面によれば、第1のハウジングは、左右方向の長さが100mm以上150mm以下であり、上下方向の長さが60mm以上90mm以下であってもよい。
 この局面によれば、第1のハウジングの左右方向の長さを100mm以上150mm以下、上下方向の長さを60mm以上90mm以下という適度な長さとすることによって、撮像装置を片手で把持する場合であっても両手で把持する場合であっても把持しやすい形状とすることができる。すなわち、この局面によれば、左右方向に長すぎる形状とすることによって撮像装置が片手で持ちにくくなったり、左右方向に短すぎる形状とすることによって撮像装置が両手で持ちにくくなったりすることがない。また、上下方向の長さは第1のハウジングが掌に収まる程度の長さであるので、ユーザは、片手で把持する場合であっても両手で把持する場合であっても撮像装置を把持しやすい。
 <第4の局面>
 この発明の第4の局面によれば、第1のハウジング(下側ハウジング11)と、第2のハウジング(上側ハウジング21)と、第1の表示部(下側LCD12)と、第2の表示部(上側LCD22)と、撮像部(内側カメラ23)と、音声入力部(マイク42)とを備える撮像装置を提供する。第2のハウジングは、その下辺が第1のハウジングの上辺と折り畳み可能に接続される。第1の表示部は、第1のハウジングの折り畳み時における内側面に表示画面が設けられる。第2の表示部は、第2のハウジングの折り畳み時における内側面に表示画面が設けられる。撮像部は、第2のハウジングの内側面において、第1の表示部の表示画面と第2の表示部の表示画面との間に設けられる。音声入力部は、第2のハウジングの内側面において、第1の表示部の表示画面と第2の表示部の表示画面との間に設けられる。
 この局面によれば、以下の第4の課題を解決することができる。
 (第4の課題)
 上記の特開2004-274304号公報(特許文献2)、特開2005-184060号公報(特許文献11)、および特開2007-201727号公報(特許文献12)に記載の携帯機器のように、ハウジングの内側面と外側面とに1つずつ画面を設ける構成では、ユーザが同時に見ることができる画面は1つであるので、ユーザに対して一度に提示可能な情報量が少なくなってしまう。そのため、ユーザは、撮像・音声入力時に十分な情報を得る(見る)ことができないおそれがある。
 一方、上記の特開2006-311224号公報(特許文献1)および特開平09-247634号公報(特許文献13)の電話機においては、ユーザは2つの画面を同時に見ることができるので、ユーザに対して一度に提示可能な情報量は多くなる。しかし、これらの電話機においては、カメラやマイクの位置が適切でないために、以下の理由で撮像・音声入力が行いにくいという課題があった。
 上記の特開2006-311224号公報(特許文献1)および特開平09-247634号公報(特許文献13)の電話機においては、カメラおよびマイクは、異なるハウジングに設けられており、また、電話機の端部に配置されている。具体的には、一方のハウジングの端部にカメラが配置され、他方のハウジングの端部にマイクが配置されている。そのため、折り畳みの角度が180度でない場合においては、カメラの撮像方向とマイクの集音方向が異なる方向を向くことになる。また、このときには、マイクの集音方向と「カメラが設けられたハウジングの画面」の方向も異なる方向を向くことになる。折り畳み式の装置は、例えば机の上に置くなどして、折り畳みの角度を所望の角度に設定して使用することが有意義であるが、このとき、上側のハウジングの画面がユーザに正対するように設定すると使いやすいところ、これらの先行の電話機では、このような状況において、マイクの集音方向がユーザの口の向きと異なっている。
 さらには、上記の特開2006-311224号公報(特許文献1)および特開平09-247634号公報(特許文献13)の電話機では、カメラが各ハウジングの端部に設けてあり、2つの画面がいずれもカメラの下側に存在するので、カメラに視線を向けた状態から各画面に表示された情報を見るためには、必ず下方に視線を動かす必要があり、特に、下側の画面の情報を見るときの視線の移動量が大きい。また、ユーザは2つの画面の表示情報を均等に見るためには、視線を2つの画面の中央付近を基準にして動かすようにするのがよいが、上記の特開2006-311224号公報(特許文献1)または特開平09-247634号公報(特許文献13)の電話機では、このような視線の方向とカメラの撮影方向が異なっている。
 (第4の局面による作用効果)
 第4の局面によれば、上記第4の課題に対して、ユーザにとって撮像・音声入力が行いやすい撮像装置を提供できる。
 すなわち、第4の局面によれば、撮像部および音声入力部は2つの画面の間に設けられるので、ユーザが撮像・音声入力を行う際に2つの画面に正対すれば、カメラおよびマイクはいずれもユーザの正面に位置することになる。したがって、ユーザは、2つの画面に正対した向きのままで(顔の向きを変えなくても)撮像および音声入力をうまく行うことができる。また、例えばユーザ自身をカメラで撮像する場合には、ユーザは画面を見つつカメラの方を見て撮像操作を行うが、(3-1)の構成によれば2つの画面の間にカメラが配置されるので、ユーザは撮像操作の際に画面とカメラとの間で視線を動かす距離を最小限にすることができ、2つの画面を見ながらの撮像操作が容易になる。また、(3-1)の構成によれば、カメラおよびマイクが同じ第2のハウジングのほぼ同じ位置に配置されるので、撮像時にユーザがカメラの方を向けば自然にマイクの方に顔を向けることになるので音声入力部によってユーザの声を拾いやすく、音声を精度良く検知することができる。
 第4の局面のより好ましい局面によれば、撮像装置は、第1のハウジングに設けられる操作ボタン(ボタン14A~14F)をさらに備えていてもよい。
 この局面によれば、操作ボタンとマイクとは異なるハウジングに設けられるので、操作ボタンを操作した時の操作音(雑音)がマイクによって拾われにくくなり、所望の音声をマイクによって正確に検出することができる。また、(3-2)の構成によれば、第1のハウジングに操作ボタンが設けられるので、撮像を行う際にユーザは第1のハウジングを把持すると考えられる。したがって、ユーザは撮像装置を把持する姿勢を変えることなく(第1のハウジングを動かすことなく)第2のハウジングを所望の方向に向けることによって、撮像方向を所望の方向へと容易に変更することができる。
 第4の局面のより好ましい局面によれば、第2のハウジングは、第1のハウジングの上辺と回転可能に連結される軸部(21A)をその下辺に有していてもよい。このとき、撮像部および音声入力部は、軸部に配置される。
 この局面によれば、折り畳み構造を実現するための軸部に撮像部および音声入力部を配置することによって、第2の表示部の画面と軸部との間に撮像部および音声入力部を配置する場合に比べて、2つの画面の間の距離を短くすることができる。これによって、2つの画面をより近づけて配置することができ、ユーザにとっては2つの画面がより見やすくなる。
 第4の局面のより好ましい局面によれば、左右左右方向に関して第2のハウジングの略中央に設けられてもよい。
 第4の局面のより好ましい局面によれば、左右方向に関しても撮像部および音声入力部が略中央に配置されるので、撮像および音声入力がユーザにとってより行いやすくなる。
 第4の局面のより好ましい局面によれば、左右左右方向に関して略中央に配置されてもよい。このとき、音声入力部は、撮像部の位置から左右方向にずれた位置に配置される。
 第4の局面のより好ましい局面によれば、撮像部が左右方向に関して中央に配置されることによって、例えばユーザが自分自身を撮像する際において自分自身が撮像領域の中央に位置するように撮像することが容易になる。また、音声入力部は中央から多少ずれた位置に配置されていても検出精度に大きな影響がない。さらに、この局面によれば、撮像部および音声入力部を左右方向に並べて配置することができるので、撮像部および音声入力部を上下方向に並べて配置する場合に比べて2つの画面の間の距離を短くすることができる。以上より、この局面によれば、撮像および音声入力の行いやすさを維持しつつ、2つの画面がより見やすくなるように撮像部および音声入力部を配置することができる。
 第4の局面のより好ましい局面によれば、第2のハウジングの内側面において、左右方向に関して第2の表示部の表示画面の両側に設けられる音声出力部(スピーカ)をさらに備えていてもよい。
 この局面によれば、ユーザが2つの画面に正対する向きで撮像装置を把持すれば、左右の耳に対応する位置(顔の左右両側の位置)に音声出力部が配置されることとなるので、ステレオ効果を効果的に得ることができる。
 第4の局面のより好ましい局面によれば、第1のハウジング(下側ハウジング11)と、第2のハウジング(上側ハウジング21)と、第1の表示部(下側LCD12)と、第2の表示部(上側LCD22)と、撮像部(内側カメラ23)と、音声出力部(スピーカ)とを備える。第2のハウジングは、その下辺が第1のハウジングの上辺と折り畳み可能に接続される。第1の表示部は、第1のハウジングの折り畳み時における内側面に表示画面が設けられる。第2の表示部は、第2のハウジングの折り畳み時における内側面に表示画面が設けられる。撮像部は、第2のハウジングの内側面において、第1の表示部の画面と第2の表示部の画面との間に設けられる。音声出力部は、第2のハウジングの内側面において、左右方向に関して第2の表示部の表示画面の両側に設けられる。
 この局面によれば、先の局面と同様、ユーザが2つの画面に正対する向きで撮像装置を把持することによって、ステレオ効果を効果的に得ることができる。また、第1の発明と同様、ユーザが2つの画面に正対する向きとなった場合にはカメラがユーザの正面に位置することになるので、ユーザは、2つの画面に正対した向きのままで(顔の向きを変えなくても)撮像をうまく行うことができる。
 第4の局面のより好ましい局面によれば、第1のハウジング(下側ハウジング11)と、第2のハウジング(上側ハウジング21)と、第1の表示部(下側LCD12)と、第2の表示部(上側LCD22)と、撮像部(内側カメラ23)とを備える。第2のハウジングは、その下辺が第1のハウジングの上辺と折り畳み可能に接続される。第1の表示部は、第1のハウジングの折り畳み時における内側面に表示画面が設けられる。第2の表示部は、第2のハウジングの折り畳み時における内側面に表示画面が設けられる。撮像部は、第1のハウジングと第2のハウジングを開いたときにおける第1の表示部の表示画面と第2の表示部の表示画面との間であって、左右方向の中央部に設けられる。
この局面によれば、2画面の間の中央にカメラを設けることによって、カメラの方に視線を向けた状態から、上画面に表示された情報についても、下画面に表示された情報についても、視線の動きを最小限にして当該情報を得ることができる。また、上画面または下画面のいずれの情報を見ている状態においても、カメラの撮影方向と視線との差が少なく、カメラの方を向いたユーザを撮影することができる。
 第4の局面のより好ましい局面によれば、第1のハウジングと第2のハウジングとを開いたときにおける第1の表示部の表示画面と第2の表示部の表示画面との間であって、左右方向の中央部に設けられる音声入力部(マイク42)をさらに備えていてもよい。
 この局面によれば、カメラおよびマイクが同じ第2のハウジングのほぼ同じ位置に配置されるので、撮像時にユーザがカメラの方を向けば自然にマイクの方に顔を向けることになるので音声入力部によってユーザの声を拾いやすく、音声を精度良く検知することができる。
 第4の局面のより好ましい局面によれば、第1のハウジングと第2のハウジングを開いたときにおける第1の表示部の表示画面と第2の表示部の表示画面との間であって、左右方向の中央に設けられてもよい。このとき、音声入力部は、撮像部に近接して設けられる。
 この局面によれば、撮像および音声入力の行いやすさを維持しつつ、2つの画面がより見やすくなるように撮像部および音声入力部を配置することができる。
 この発明の第4の局面に類似した局面によれば、撮像装置は、第1のハウジングと第2のハウジングとを重ねて配置する第1形態と、第1のハウジングと第2のハウジングとを開いて配置する第2形態とを取り得るように変形可能に構成される。撮像装置は、第1のハウジングの第1形態における内側の面を正面とした場合の側面であって、第2形態において第2のハウジングが存在する側の側面に設けられ、撮像部によって撮像された画像の記録指示を行うための1以上の撮影ボタンとを備える。
 第4の局面のより好ましい局面によれば、第2形態における装置主面の左右方向における略中央に第2撮像部が設けられてもよい。このとき、撮像装置は、第1形態における第1のハウジングの内側の面において、第2の撮像部よりも右側および左側に設けられる複数の操作ボタンをさらに備える。
 第4の局面のより好ましい局面によれば、第1形態における第1のハウジングの内側の面の左右方向の略中央に表示画面が設けられてもよい。このとき、撮像装置は、第1のハウジングの内側の面において、表示画面の左右にそれぞれ設けられる操作ボタンをさらに備える。
 <第5の局面>
 この発明の第5の局面によれば、撮像手段(カメラ23および25)を有し、複数のアプリケーションプログラム(53~56)を記憶可能であり、かつ、当該アプリケーションプログラムとして当該撮像手段による撮影を行うための所定の撮影アプリケーションプログラム(53)が予め記憶された情報処理装置(10)のコンピュータ(CPU31)において実行される起動用プログラム(61)を提供する。この起動用プログラムは、上記複数のアプリケーションプログラムの中からユーザが所望するアプリケーションプログラムを選択的に起動するためのプログラムである。起動用プログラムは、第1起動操作受付手段(ステップSA6,SA11を実行するCPU31。以下、単にステップ番号のみを示す)と、第1起動手段(SA12)と、撮影処理手段(SA10)と、撮影可能操作受付手段(SA6,SA9)と、撮影操作受付手段(SA24,SA25)と、第2起動操作受付手段(SA24,SA28)と、第2起動手段(SA30)としてコンピュータを機能させる。第1起動操作受付手段は、複数のアプリケーションプログラムを選択的に起動する第1起動操作を受け付ける。第1起動手段は、第1起動操作が行われた場合、複数のアプリケーションプログラムのうち当該第1起動操作で選択されたアプリケーションプログラムを起動する。撮影処理手段は、所定の撮影操作に応じて撮像手段による撮像画像を情報処理装置の記憶手段に保存する撮影処理を実行する。撮影可能操作受付手段は、第1起動操作を受け付ける起動受付状態において、撮影操作に応じた撮影処理手段による撮影処理が可能な撮影可能状態とする撮影可能操作を受け付ける。撮影操作受付手段は、撮影可能操作が行われた場合、撮影操作を受け付ける。第2起動操作受付手段は、撮影可能状態において、撮影アプリケーションプログラムを起動する第2起動操作を受け付ける。第2起動手段は、第2起動操作が行われた場合、撮影アプリケーションプログラムを起動する。
 この局面によれば、以下の第5の課題を解決することができる。
 (第5の課題)
 上記“「ちょっとショット 取扱説明書」、株式会社ソニー・コンピュータエンタテインメント、2006年11月2日”(非特許文献1)に記載の情報処理装置において実行可能な上記第1および第2のアプリケーションプログラムは、(共通の機能もあるが)互いに異なる機能を有している。したがって、いずれかの一方のアプリケーションプログラムを実行することによってユーザが撮影を行っている状況において、他方のアプリケーションプログラムのみが有する機能を使用したくなる(あるいは使用する必要が生じる)場合が想定される。この場合、ユーザは、所望の機能を使用するためには、まず上記一方のアプリケーションプログラムの実行を終了させ、その後、メニュー画面等で他方のアプリケーションプログラムを選択し、さらに、当該他方のアプリケーションプログラムを起動するという、面倒な操作を行わなければならなかった。
 (第5の局面による作用効果)
 第5の局面によれば、上記第5の課題に対して、複数種類の撮影機能を簡易な操作で実行することができ、ユーザにとって使いやすい情報処理装置を提供することができる。
 第5の局面によれば、起動受付状態において、ユーザは、被選択アプリケーションプログラムを第1起動操作によって起動することができるとともに、撮影可能操作によって撮影処理手段による撮影処理を実行することができる。したがって、ユーザは、アプリケーションプログラムを起動するための起動受付状態においても、撮影処理手段の機能を容易かつ迅速に起動することができる。さらに、撮影可能状態においては、第2起動操作によって撮影アプリケーションプログラムを起動することができる。したがって、ユーザは、撮影処理手段による撮影処理を行っている最中であっても、第2起動操作によって撮影アプリケーションプログラムを容易かつ迅速に起動することができる。つまり、本実施形態によれば、撮影処理手段による撮影機能の使用中に、当該撮影処理手段にはない(撮影アプリケーションプログラムの)機能を使用したくなった場合であっても、ユーザは、第2起動操作によって容易かつ迅速に当該機能を使用することができる。以上のように、第1の発明によれば、撮影処理手段の機能および撮影アプリケーションプログラムによる機能の両方の撮影機能を簡易な操作で実行することができ、ユーザにとって使いやすい情報処理装置を提供することができる。
 また、第5の局面によれば、撮影処理手段による撮影機能の実行中に、撮影アプリケーションプログラムを直接起動することができる。つまり、一方の撮影機能(撮影処理手段による撮影機能)から他方の撮影機能(撮影アプリケーションプログラムによる撮影機能)を容易に起動することができるので、当該一方の機能の使用を介して当該他方の機能を使用させるようにユーザを誘導することができる。
 第5の局面のより好ましい局面によれば、撮影可能操作は、第1起動操作とは操作方法が異なっていてもよい。
 この局面によれば、被選択アプリケーションプログラムを起動する第1起動操作とは異なる操作によって撮影処理手段による撮影機能を容易に実行することができる。
 第5の局面のより好ましい局面によれば、撮影処理手段は、撮影アプリケーションプログラムの実行により可能となる撮影機能の一部のみの機能を有していてもよい。
 この局面によれば、相対的に簡易な機能である撮影処理手段の撮影機能が起動受付状態から迅速に起動することが可能であり、より多くの機能を有する撮影アプリケーションプログラムを撮影処理手段による撮影機能の実行中において直ちに起動することが可能である。この場合、まず簡易な機能の撮影処理手段の撮影機能によって情報処理装置を操作し、次に、より多機能な撮影アプリケーションプログラムによって各種の撮影機能を利用する、という順序でユーザに情報処理装置を使用させることができる。このような順序で情報処理装置を使用することによって、情報処理装置の操作にユーザが次第に慣れていくように使用させることができる。
 第5の局面のより好ましい局面によれば、上記起動用プログラムは、起動受付状態において、記憶手段に保存されている撮像画像(保存画像)を情報処理装置の表示手段に表示させる(図23)画像表示手段(SA5)としてコンピュータをさらに機能させてもよい。
 この局面によれば、過去に撮影された画像が起動受付状態において表示される。したがって、ユーザは、表示したい所望の画像を撮影することによって、起動受付状態における画面(メニュー画面)をユーザ毎(情報処理装置毎)にカスタマイズすることができる。また、情報処理装置に初めて触った(情報処理装置を初めて使用した)ユーザに対しても情報処理装置が撮影機能を有することを意識させることができる。
 第5の局面のより好ましい局面によれば、画像表示手段は、記憶手段に保存されている撮像画像のうちから、表示手段に表示すべき撮像画像を所定のタイミングで自動的に変更してもよい。
 この局面によれば、表示される画像の内容を所定のタイミングで変化させることによって、メニュー画面に変化を与え、ユーザを飽きさせないようにすることができる。
 第5の局面のより好ましい局面によれば、画像表示手段は、情報処理装置が起動されるタイミングで、表示手段に表示すべき撮像画像を変更してもよい。
 この局面によれば、起動受付状態において表示される画像が、情報処理装置を起動する度に変更される。これによれば、ユーザにとっては起動時に(「どの画像が表示されるのか」という)楽しみができる。また、情報処理装置の提供者側にとっては、このような楽しみをユーザに与えることによって、ユーザが情報処理装置を起動すること(すなわち、情報処理装置を使用すること)を促進させることができる。
 第5の局面のより好ましい局面によれば、画像表示手段は、起動受付状態において、直前の撮影可能状態において最後に保存された撮像画像を情報処理装置の表示手段に表示させてもよい。
 この局面によれば、撮影可能状態において撮影された画像が、当該撮影可能状態が終了した直後の起動受付状態において表示される。したがって、ユーザは、撮影可能状態において最後に撮影した画像を、起動受付状態において確認することができる。
 第5の局面のより好ましい局面によれば、上記起動用プログラムは、第1遷移手段(SA21)と、第2遷移手段(SA4)としてコンピュータをさらに機能させる。第1遷移手段は、撮影可能操作が行われたことに応じて、起動受付状態を終了して撮影可能状態へと遷移させる。第2遷移手段は、撮影可能状態において所定の操作が行われたことに応じて撮影可能状態を終了して起動受付状態へと遷移させる。
 この局面によれば、起動受付状態においては撮影操作が受け付けられないこととなるので、起動受付状態においてユーザが誤って撮影操作を行ってしまうことがない。また、撮影可能状態においては起動受付状態が終了されるので、第1起動操作をユーザに行わせるための表示(例えば、アプリケーションプログラムを表す画像を表示する等)が不要であるので、表示装置の画面には撮像画像を表示する等、表示領域を有効に利用することができる。また、撮影可能状態において第1起動操作が受け付けられないようにすることによって、撮影可能状態における操作をシンプルにすることができ、ユーザにとっては操作が簡単になる。
 第5の局面のより好ましい局面によれば、第2遷移手段において、上記所定の操作は撮影操作であってもよい。
 この局面によれば、撮影可能状態において撮影操作が行われた場合、(撮影処理が行われて)撮影可能状態が終了することとなる。つまり、撮影可能状態においてユーザが1回撮影操作を行うと、情報処理装置の状態は起動受付状態に戻るので、説明書等を見ていない初心者のユーザであっても、撮影操作を行うことで自然に起動受付状態へ戻ることができる。したがって、「ユーザが撮影可能状態から起動受付状態への戻り方がわからない」という状況を防止することができ、使いやすい情報処理装置を提供することができる。
 なお、この局面によれば、撮影操作によって撮影可能状態から起動受付状態へと遷移してしまうので、撮影結果の画像を撮影可能状態において表示することができない。ここで、先の局面に係る発明とこの局面に係る発明とを組み合わせる場合には、撮影可能状態において表示できなかった撮影結果の画像を、直後の起動受付状態においてユーザに見せることができ、特に有効である。
 第5の局面のより好ましい局面によれば、撮影可能操作は、撮影操作と同じ操作によって行われてもよい。
 この局面によれば、撮影可能操作と撮影操作とが同じであるので、撮影可能状態へ遷移してさらに撮影を行う一連の操作を1種類の操作で行うことができ、当該一連の操作を容易に行うことができる。さらに、先の局面に係る発明とこの局面に係る発明とを組み合わせる場合には、起動受付状態から撮影可能状態への遷移と、撮影可能状態から起動受付状態への遷移とを、同じ操作で行うことができる。したがって、仮にユーザが誤って撮影可能操作を行ったり、操作方法をよく理解しないまま撮影可能操作を行ったりする結果、撮影可能状態へ遷移してしまった場合であっても、ユーザは、同じ操作を再度行えば元の状態(起動受付状態)に戻ることができる。そのため、「撮影可能状態から起動受付状態への戻り方がわからない」という状況を防止することができ、使いやすい情報処理装置を提供することができる。
 第5の局面のより好ましい局面によれば、撮影可能操作および撮影操作は、所定のボタンを1回押下する操作であってもよい。
 この局面によれば、ユーザは、撮影可能操作および撮影操作を簡単な操作で行うことができる。したがって、撮影処理手段による撮影機能を簡単な操作で起動することができるとともに、撮像画像の保存を簡単な操作で行うことができる。
 第5の局面のより好ましい局面によれば、情報処理装置は、表示装置(下側LCD12)の画面上における座標位置を入力することが可能な座標入力手段(タッチパネル13)を備えていてもよい。このとき、第1起動操作受付手段は、複数のアプリケーションプログラムのそれぞれに対応する各画像のうちで少なくとも複数の画像(アイコン画像71a~71c)を画面に表示するとともに、表示される画像を画面をスクロールする操作に応じて変更し、表示中の当該画像の位置に対して座標入力手段を用いて行われた入力を第1起動操作として受け付ける。第1起動付手段は、第1起動操作受付手段において受け付けられた入力に係るアイコン画像に対応するアプリケーションプログラムを起動する。第2起動操作受付手段は、撮影アプリケーションプログラムを表す画像(72)を画面上の所定位置に表示するとともに、座標入力手段を用いて当該所定位置に対して行われた入力を第2起動操作として受け付ける。第2起動手段は、第2起動操作受付手段において受け付けられた入力に応じて撮影アプリケーションプログラムを起動する。
 この局面によれば、起動受付状態においては、各アプリケーションプログラムを表す複数の画像の中から1つの画像の位置を座標入力手段を用いて選択する操作によって、アプリケーションプログラムを起動することができるとともに、撮影可能状態においては、所定の位置に表示される、撮影アプリケーションを表す画像が表示される所定の位置を座標入力手段を用いて指定する操作によって、撮影アプリケーションプログラムを起動することができる。また、起動受付状態においては、複数のアプリケーションプログラムを表す各画像を選択しやすいように、スクロール操作によって表示される画像の種類(アプリケーションプログラムの種類)を変更するようにしている。そのため、ユーザは、起動受付状態において所望のアプリケーションプログラムを起動させるためには、画面をスクロールさせる操作と画像を指定する操作とを行わなければならない場合がある。これに対して、撮影可能状態においては、撮影アプリケーションプログラムを表す画像が所定位置に常に表示されるので、ユーザは、常に当該画像を指定する操作のみによって撮影アプリケーションプログラムを容易に起動することができる。
 第5の局面のより好ましい局面によれば、第2起動手段は、第2起動操作が行われた場合、撮影処理手段による撮影処理において設定されている情報の少なくとも一部を、撮影アプリケーションプログラムに渡されるべき引数としてとして用いて撮影アプリケーションプログラムをコンピュータに実行させてもよい。
 この局面によれば、撮影処理手段による撮影処理における設定が、撮影アプリケーションプログラムによる処理においても反映される。これによって、撮影処理手段による撮影処理から撮影アプリケーションプログラムによる処理へと移行する場合であっても、ユーザは同じように操作を行うことができ、設定を変更する必要がない。このように、第13の発明によれば、ユーザにとってより使いやすい情報処理装置を提供することができる。
 第5の局面のより好ましい局面によれば、上記プログラムは、初回起動判定手段(SA1)と、撮影誘導手段(SA2)としてコンピュータをさらに機能させてもよい。初回起動判定手段は、情報処理装置の起動後において、第1起動操作を受け付ける前に、情報処理装置の起動が初めてであるか否かを判定する。撮影誘導手段は、情報処理装置の起動が初めてであると判定された場合、情報処理装置の状態を撮影可能状態に設定する、または、撮影可能状態に設定するか否かをユーザに選択させる表示を行う。
 この局面によれば、情報処理装置が初めて起動された場合には、まず、ユーザに実際に撮影操作を体験させるようにすることができ、初心者のユーザを撮影操作に慣れさせることができる。さらに、先の局面に係る発明とこの局面に係る発明とを組み合わせる場合には、情報処理装置が初めて起動された場合に実行されるのは、相対的に簡易な機能の撮影処理手段の撮影処理となる。したがって、情報処理装置が初めて起動された場合においてはユーザは簡易な機能のみで撮影操作を行うことになるので、初めての操作であっても比較的容易に撮影操作を行うことができる。
 第5の局面のより好ましい局面によれば、撮影アプリケーションプログラムは、撮像画像を記憶手段に保存する処理を実行する機能と、撮影処理手段による撮影処理によってまたは撮影アプリケーションプログラムによる処理によって保存された撮像画像を閲覧する機能とを有していてもよい。
 この局面によれば、ユーザは、撮影アプリケーションプログラムを用いて、撮影処理手段の撮影機能および撮影アプリケーションプログラムのいずれによって撮影された画像であっても閲覧することができる。
 第5の局面のより好ましい局面によれば、撮影処理手段および撮影アプリケーションプログラムは、撮影処理手段の機能と撮影アプリケーションプログラムの実行により可能となる機能とにおいて共通の機能に関して、ユーザによる同一の操作に応じて当該機能を実行することが可能であってもよい。
 この局面によれば、撮影のために実行されるプログラムが変わっても、ユーザは、同じ機能に関しては同じ操作を行うことが可能であるので、ユーザにとって使いやすい操作体系を提供することができる。
 第5の局面のより好ましい局面によれば、起動用プログラムは、アプリケーションプログラムを起動する起動機能プログラム(51)と、撮影処理手段としてコンピュータを機能させる撮影機能プログラム(52)とを含んでいてもよい。このとき、撮影機能プログラムのデータサイズは、撮影アプリケーションプログラムのデータサイズに比べて小さい。
 この局面によれば、起動受付状態において起動可能なプログラムを、データサイズの小さい方のプログラムである撮影機能プログラムとすることにより、起動受付状態において撮影のためのプログラムを迅速に起動することができる。
 第5の局面のより好ましい局面によれば、起動用プログラムは、アプリケーションプログラムを起動する起動機能プログラム(51)と、撮影処理手段としてコンピュータを機能させる撮影機能プログラム(52)とを含んでいてもよい。このとき、上記起動用プログラムは、情報処理装置の起動後において、コンピュータによって実行されるプログラムを記憶するための所定の記憶手段に、起動制御プログラムが実行されるタイミングで起動機能プログラムとともに撮影機能プログラムを読み込む読込手段(SA4)としてコンピュータをさらに機能させてもよい。
 この局面によれば、起動機能プログラムと撮影機能プログラムとを一緒に読み出すことによって、起動受付状態において撮影機能プログラムを迅速に起動することができる。
 この発明の第5の局面の代替の局面によればによれば、上記の各局面における各手段を備える情報処理装置として提供されてもよい。
 <第6の局面>
 この発明の第6の局面によれば、所定の画像を記憶する画像記憶手段(28、32、34)を備える画像通信装置(1)を複数含み、当該画像通信装置の間で当該所定の画像を送受信する画像通信システムを提供する。複数の画像通信装置のうち、画像を送信する側の画像通信装置(10t)は、送信元情報送信制御手段(ステップSC63を実行するCPU31;以下、単にステップ番号のみを記載する)を、さらに備える。送信元情報送信制御手段は、不特定の他の画像通信装置に対して送信元を示す送信元情報(送信元データ)として自己の識別情報を送信する。複数の画像通信装置のうち、画像を受信する側の画像通信装置(10r)は、送信元情報受信手段(SC84)、選択手段(SC85)、および送信先情報送信制御手段(SC86、SC92)を、さらに備える。送信元情報受信手段は、送信元情報を受信する。選択手段は、受信した送信元情報に基づいて、表示手段(12)に送信元を示す表示(Nt1~Nt3)をおこない、当該送信元情報を送信した画像通信装置から画像を受信するか否かをユーザに選択させる。送信先情報送信制御手段は、選択手段によって受信することが選択された画像通信装置に対して、送信先を示す送信先情報(受信先データ)として自己の識別情報を送信する。送信する側の画像通信装置は、送信先情報受信制御手段(SC64)、送信先決定手段(SC64、SC65)、および画像送信手段(SC69)を、さらに備える。送信先情報受信制御手段は、送信先情報を受信する。送信先決定手段は、受信した送信先情報に基づいて、送信先となる画像通信装置を決定する。画像送信手段は、送信先決定手段によって決定した送信先に、画像記憶手段に記憶された画像のうちの少なくとも1つを送信する。受信する側の画像通信装置は、画像受信手段(SC90)および画像記憶制御手段(SC90)を、さらに備える。画像受信手段は、画像送信手段によって送信される画像を受信する。画像記憶制御手段は、画像受信手段によって受信した画像を画像記憶手段に記憶する。なお、送信元情報送信制御手段が送信元情報を送信する不特定の他の画像通信装置とは、宛先を特定せずに送信元情報を送信する送信や、不特定の画像通信装置からの要求に応じて当該画像通信装置に送信元情報を送信する送信等を含む。
 この局面によれば、以下の第6の課題を解決することができる。
 (第6の課題)
 上記特開平10-341388号公報(特許文献14)で開示された電子カメラは、赤外線で通信するため、送信側の電子カメラと受信側の電子カメラを対向するように配置する必要があった。また、受信側の電子カメラが通信可能な範囲に複数の送信側電子カメラが存在する場合、当該受信側の電子カメラが送信側電子カメラを選択することができなかった。
 (第6の局面による作用効果)
 第6の局面によれば、上記第6の課題に対して、装置間で画像を送受信する際、ユーザが希望する送信側装置から画像を受け取ることが可能な画像通信システム、画像通信装置、および画像通信プログラムを提供する。
 この発明の第6の局面によれば、画像を受信する側の画像通信装置は、送信元を見て画像を受信するか否か選択できるので、意図しない相手から画像を送信されることを防止することができる。また、画像を送信する側の画像通信装置は、予め画像を受信する相手を特定せず、画像を配布する相手を募集して配布することができる。
 第6の局面のより好ましい局面によれば、送信元情報受信手段は、不特定多数の画像通信装置に送信された複数の送信元情報を受信可能である。選択手段は、受信した送信元情報のそれぞれに基づいて、表示手段に当該送信元情報のそれぞれを示す表示をおこない、いずれかの当該送信元情報をユーザに選択させる。
 この局面によれば、画像を受信する側の画像通信装置は、画像データを受け取ることになる送信元を複数の送信元から選択することができる。例えば、画像を受信する側の画像通信装置は、送信する側の画像通信装置が複数存在している場合、当該複数の画像通信装置からユーザが希望する画像通信装置を選択して画像を受け取ることができる。
 第6の局面のより好ましい局面によれば、送信する側の画像通信装置は、送信元表示制御手段(SC65、図51)を、さらに備える。送信元表示制御手段は、画像を受信する側の画像通信装置から受信した送信先情報に基づいて、送信する側の画像通信装置の表示手段(12)に画像送信を要求している画像通信装置を示す表示(Nr1~Nr3)を行う。
 この局面によれば、画像を送信する側の画像通信装置のユーザは、画像を送信する送信先となる相手の画像通信装置を知ることができる。
 第6の局面のより好ましい局面によれば、送信元情報は、送信する側の画像通信装置のユーザによって設定可能な送信元ユーザ情報(Dc)を含む。選択手段は、送信元情報を送信している画像通信装置を示す通知として、当該送信元情報に含まれる送信元ユーザ情報を受信する側の画像通信装置の表示手段に表示する。
 この局面によれば、画像を送信する側の画像通信装置のユーザの個性を出すことができ、受信する画像通信装置側でも画像を送信する側の画像通信装置を識別しやすくなる。
 第6の局面のより好ましい局面によれば、送信先情報は、受信する側の画像通信装置のユーザによって設定可能な送信先ユーザ情報(Dc)を含み、送信元表示制御手段は、画像送信を要求している画像通信装置を示す通知として、送信先情報に含まれる送信元ユーザ情報を送信する側の画像通信装置の表示手段に表示する。
 この局面によれば、画像を受信する側の画像通信装置のユーザの個性を出すことができ、送信する画像通信装置側でも画像を受信する側の画像通信装置を識別しやすくなる。
 第6の局面のより好ましい局面によれば、送信する側の画像通信装置は、送信先情報を受信した後、当該送信先情報を送信した画像通信装置に送信する画像をユーザの操作に応じて選択する画像選択手段(SC66)を、さらに備える。画像送信手段は、画像選択手段が選択した画像を、送信先情報を送信した画像通信装置に送信する。
 この局面によれば、画像を送信する側の画像通信装置のユーザが所望する画像を選択して送信することができる。また、画像を受信する側の画像通信装置と画像を送信する側の画像通信装置とを決定した後に、当該画像を送信する側の画像通信装置から当該画像通信装置に送信する画像を選択することによって、画像を送信する側の画像通信装置は、受信する側の画像通信装置に送る画像の種類や枚数を変えることができる。
 さらに好ましい局面によれば、画像選択手段は、送信対象画像表示制御手段(図52)を含む。送信対象画像表示制御手段は、画像記憶手段に受信する側の画像通信装置への送信対象として記憶されている画像群を送信する側の画像通信装置の表示手段に表示することによって、当該画像群から受信する側の画像通信装置に送信する画像を選択することをユーザに促す。
 この局面によれば、送信対象として記憶されている画像群を表示手段に表示することによって、画像を送信する側の画像通信装置のユーザにおける画像の選択が容易となる。
 さらに好ましい局面によれば、送信する側の画像通信装置の画像記憶手段は、本体内蔵記憶手段(34)および本体着脱記憶手段(28)を含む。本体内蔵記憶手段は、当該画像通信装置本体に内蔵される。本体着脱記憶手段は、当該画像通信装置本体に着脱自在に構成される。画像選択手段は、記憶先選択手段(SC50)を含む。記憶先選択手段は、本体内蔵記憶手段および本体着脱記憶手段の何れか一方を選択する。画像選択手段は、記憶先選択手段によって選択された記憶手段に記憶されている画像群から、受信する側の画像通信装置に送信する画像をユーザの操作に応じて選択する。
 この局面によれば、送信対象とする画像を、予め決定された記憶手段に記憶されている画像に限定することができる。
 第6の局面のより好ましい局面によれば、受信する側の画像通信装置は、判断手段および画像送信継続要求送信手段を、さらに備える。判断手段は、画像受信手段が送信する側の画像通信装置から送信された画像を受信した後、当該送信する側の画像通信装置からさらに画像を受信するか否かを判断する。画像送信継続要求送信手段は、判断手段がさらに画像を受信すると判断した場合、選択手段が選択した送信する側の画像通信装置に画像送信継続要求を送信する。画像送信手段は、画像送信継続要求を受信したとき、画像送信継続要求を送信した画像通信装置に画像を送信する。
 この局面によれば、画像を送信する側の画像通信装置から受信する側の画像通信装置に段階的に画像を送信することができる。
 第6の局面のより好ましい局面によれば、送信する側の画像通信装置は、画像選択手段を、さらに備える。画像選択手段は、画像送信継続要求を受信した後、当該画像送信継続要求を送信した画像通信装置に送信する画像をユーザの操作に応じて選択する。画像送信手段は、画像送信継続要求を受信したとき、画像選択手段によって選択された画像を、画像送信継続要求を送信した画像通信装置に送信する。
 この局面によれば、受信側からの要求がある毎に送信する画像を選択して送信することができる。
 第6の局面のより好ましい局面によれば、送信する側の画像通信装置は、制限手段を、さらに備える。制限手段は、画像送信手段によって一度に送信される画像の枚数を制限する。
 この局面によれば、送信側の画像通信装置から画像を一定以下の枚数ずつ送信することになるため、受信側は受信した画像の枚数を確認しながら受信することができ、当該枚数に基づいて受信を続けるかどうかを判断することができる。
 さらに好ましい局面によれば、判断手段は、ユーザの操作に応じて、送信する側の画像通信装置からさらに画像を受信するか否かを判断する。受信する側の画像通信装置は、受信終了通知手段を、さらに備える。受信終了通知手段は、判断手段が画像を受信しないと判断した場合、選択手段が選択した画像通信装置に受信終了通知を送信する。画像送信手段は、画像送信要求を受信する毎に、受信終了通知を送信した画像通信装置を除いて画像送信要求を送信した画像通信装置のみに画像を送信する。
 この局面によれば、画像を受信する側の画像通信装置毎に、送信する側の画像通信装置が画像を送信する対象装置からユーザが好むタイミングで抜けることができる。
 さらに好ましい局面によれば、受信する側の画像通信装置は、残量監視手段を、さらに備える。残量監視手段は、画像をさらに記憶するために画像記憶手段が有している記憶容量の残量を監視する。受信終了通知手段は、残量が所定量以下となった場合、選択手段が選択した画像通信装置に受信終了通知を送信する。
 この局面によれば、画像を受信する側の画像通信装置は、画像データを記憶できる容量に応じて、自動的に画像を送信する側の画像通信装置が画像を送信する対象装置から抜けることができる。
 第6の局面のより好ましい局面によれば、受信する側の画像通信装置の画像記憶手段は、本体内蔵記憶手段および本体着脱記憶手段を含む。本体内蔵記憶手段は、当該画像通信装置本体に内蔵される。本体着脱記憶手段は、当該画像通信装置本体に着脱自在に構成される。受信する側の画像通信装置は、記憶対象決定手段(SC50)を、さらに備える。記憶対象決定手段は、本体内蔵記憶手段および本体着脱記憶手段の何れか一方を受信した画像を記憶する対象として予め決定する。画像記憶制御手段は、送信する側の画像通信装置から送信された画像を記憶対象決定手段が決定している対象に記憶する。
 この局面によれば、受信した画像データを、予め決定された記憶手段に限定して記憶することができる。
 第6の局面のより好ましい局面によれば、画像通信装置は、撮像手段および撮影手段を、それぞれさらに備える。撮影手段は、撮像手段によって撮像された画像をユーザの所定の操作に応じて画像記憶手段に記憶する。画像送信手段は、撮影手段によって画像記憶手段に記憶された画像を送信する。
 この局面によれば、画像通信装置で撮像した画像を送受信の対象とすることができる。
 第6の局面のより好ましい局面によれば、他の画像通信装置から画像を受信する画像通信装置(10r)である。画像通信装置は、記憶手段、送信元情報受信手段、選択手段、送信先情報送信制御手段、画像受信手段、および画像記憶制御手段を備える。送信元情報受信手段は、他の画像通信装置から送信元を示す送信元情報として当該他の画像通信装置の識別情報を受信する。選択手段は、受信した送信元情報に基づいて、表示手段に送信元を示す表示をおこない、当該送信元情報を送信した画像通信装置から画像を受信するか否かをユーザに選択させる。送信先情報送信制御手段は、選択手段によって受信することが選択された画像通信装置に対して、送信先を示す送信先情報として自己の識別情報を送信する。画像受信手段は、送信先情報を送信した画像通信装置から送信された画像を受信する。画像記憶制御手段は、画像受信手段によって受信した画像を記憶手段に記憶する。
 第6の局面のより好ましい局面によれば、他の画像通信装置へ画像を送信する画像通信装置(10t)である。画像通信装置は、画像記憶手段、送信元情報送信制御手段、送信先情報受信制御手段、送信先決定手段、および画像送信手段を備える。画像記憶手段は、所定の画像を記憶する。送信元情報送信制御手段は、不特定の他の画像通信装置に対して送信元を示す送信元情報として自己の識別情報を送信する。送信先情報受信制御手段は、他の画像通信装置から送信先を示す送信先情報として当該他の画像通信装置の識別情報を受信する。送信先決定手段は、受信した送信先情報に基づいて、送信先となる画像通信装置を決定する。画像送信手段は、送信先決定手段によって決定した送信先に、画像記憶手段に記憶された画像のうち少なくとも1つを送信する。
 第6の局面のより好ましい局面によれば、他の画像通信装置から画像を受信するまたは他の画像通信装置へ画像を送信する画像通信装置(1)である。画像通信装置は、画像記憶手段および送受信選択手段(SC51)を備える。画像記憶手段は、所定の画像を記憶する。送受信選択手段は、他の画像通信装置から画像を受信するか、他の画像通信装置へ画像を送信するかを選択する。画像通信装置は、送受信選択手段が他の画像通信装置から画像を受信する選択をした場合、送信元情報受信手段、選択手段、送信先情報送信制御手段、画像受信手段、および画像記憶制御手段を、さらに備える。送信元情報受信手段は、他の画像通信装置から送信元を示す送信元情報として当該他の画像通信装置の識別情報を受信する。選択手段は、受信した送信元情報に基づいて、表示手段に送信元を示す表示をおこない、当該送信元情報を送信した画像通信装置から画像を受信するか否かをユーザに選択させる。送信先情報送信制御手段は、選択手段によって受信することが選択された画像通信装置に対して、送信先を示す送信先情報として自己の識別情報を送信する。画像受信手段は、送信先情報を送信した画像通信装置から送信された画像を受信する。画像記憶制御手段は、画像受信手段によって受信した画像を画像記憶手段に記憶する。画像通信装置は、送受信選択手段が他の画像通信装置へ画像を送信する選択をした場合、送信元情報送信制御手段、送信先情報受信制御手段、送信先決定手段、および画像送信手段を、さらに備える。送信元情報送信制御手段は、不特定の他の画像通信装置に対して送信元を示す送信元情報として自己の識別情報を送信する。送信先情報受信制御手段は、他の画像通信装置から送信先を示す送信先情報として当該他の画像通信装置の識別情報を受信する。送信先決定手段は、受信した送信先情報に基づいて、送信先となる画像通信装置を決定する。画像送信手段は、送信先決定手段によって決定した送信先に、画像記憶手段に記憶された画像のうちの少なくとも1つを送信する。
 第6の局面のより好ましい局面によれば、他の画像通信装置から画像を受信する装置のコンピュータ(31)で実行される画像通信プログラムである。画像通信プログラムは、送信元情報受信手段、選択手段、送信先情報送信制御手段、画像受信手段、および画像記憶制御手段として、コンピュータを機能させる。送信元情報受信手段は、他の画像通信装置から送信元を示す送信元情報として当該他の画像通信装置の識別情報を受信する。選択手段は、受信した送信元情報に基づいて、表示手段に送信元を示す表示をおこない、当該送信元情報を送信した画像通信装置から画像を受信するか否かをユーザに選択させる。送信先情報送信制御手段は、選択手段によって受信することが選択された画像通信装置に対して、送信先を示す送信先情報として自己の識別情報を送信する。画像受信手段は、送信先情報を送信した画像通信装置から送信された画像を受信する。画像記憶制御手段は、画像受信手段によって受信した画像を記憶装置に記憶する。
 第6の局面のより好ましい局面によれば、他の画像通信装置から画像を受信するまたは他の画像通信装置へ画像を送信する装置のコンピュータで実行される画像通信プログラムである。装置の記憶装置には、所定の画像が記憶されている。画像通信プログラムは、送受信選択手段として、コンピュータを機能させる。送受信選択手段は、他の画像通信装置から画像を受信するか、他の画像通信装置へ画像を送信するかを選択する。画像通信プログラムは、送受信選択手段が他の画像通信装置から画像を受信する選択をした場合、送信元情報受信手段、選択手段、送信先情報送信制御手段、画像受信手段、および画像記憶制御手段として、コンピュータをさらに機能させる。送信元情報受信手段は、他の画像通信装置から送信元を示す送信元情報として当該他の画像通信装置の識別情報を受信する。選択手段は、受信した送信元情報に基づいて、表示手段に送信元を示す表示をおこない、当該送信元情報を送信した画像通信装置から画像を受信するか否かをユーザに選択させる。送信先情報送信制御手段は、選択手段によって受信することが選択された画像通信装置に対して、送信先を示す送信先情報として自己の識別情報を送信する。画像受信手段は、送信先情報を送信した画像通信装置から送信された画像を受信する。画像記憶制御手段は、画像受信手段によって受信した画像を画像記憶手段に記憶する。画像通信プログラムは、送受信選択手段が他の画像通信装置へ画像を送信する選択をした場合、送信元情報送信制御手段、送信先情報受信制御手段、送信先決定手段、および画像送信手段として、コンピュータをさらに機能させる。送信元情報送信制御手段は、不特定の他の画像通信装置に対して送信元を示す送信元情報として自己の識別情報を送信する。送信先情報受信制御手段は、他の画像通信装置から送信先を示す送信先情報として当該他の画像通信装置の識別情報を受信する。送信先決定手段は、受信した送信先情報に基づいて、送信先となる画像通信装置を決定する。画像送信手段は、送信先決定手段によって決定した送信先に、画像記憶手段に記憶された画像のうち少なくとも1つを送信する。
 また、この発明の第6の局面に類似した局面に従う画像通信装置および画像通信プログラムによれば、上述した画像通信システムと同様の効果を得ることができる。
 <第7の局面>
 この発明の第7の局面によれば、入力装置(13)からの入力に基づいて少なくとも一つのパラメータの値を設定するコンピュータ(1)において実行される情報処理プログラムを提供する。情報処理プログラムは、コンピュータ(1)を、所定の画面(500,501,502,503)における所定の表示領域内(250)において、パラメータの現在値に応じた位置からの変更操作を受け付ける第1の変更操作受付手段(SD110)と、第1の変更操作受付手段で受け付けられた変更操作に基づいて、パラメータを現在値から徐々に更新する第1の更新手段(SD114,SD115)と、所定の表示領域内において、パラメータの所望の値に応じた位置への変更操作を受け付ける第2の変更操作受付手段(SD111)と、第2の変更操作受付手段で受け付けられた変更操作に基づいて、パラメータを現在値から所望の値に更新する第2の更新手段(SD112,SD115)として機能させる。また、第2の更新手段は、所望の値がパラメータの現在値より小さい値のときに(SD111,SD112)、パラメータを現在値から所望の値に更新し(SD115)、所望の値がパラメータの現在値より大きい値のときに(SD111,SD113)、パラメータを現在値から所望の値に更新しない(SD113)。
 この局面によれば、以下の第7の課題を解決することができる。
 (第7の課題)
 一般的なメディアプレーヤでは、ユーザは、ボリューム調整部における最大音量、及びボリューム調整部と音量との対応付けについて見た目だけでは理解することができず、かつ同一の音量でも周囲の環境の変化によって聞こえ方が変化するために、ユーザの所望する音量に即時変更することは難しい。
 この点で、ユーザの所望する音量へ即時変更できなかった場合に、特に、ユーザの所望する音量よりも大きくなった場合には、ユーザ及びユーザ付近に存在する人に対して不快な思いすなわち、ストレスを感じさせる可能性が多くあった。
 (第7の局面による作用効果)
 第7の局面によれば、上記第7の課題に対して、パラメータの設定変更操作において、ユーザ操作に適したユーザインターフェイスを実現する情報処理プログラムおよび情報処理装置を提供する。
 この発明の第7の局面によれば、ユーザが入力装置(13)により現在値に応じた位置からの変更操作であるスライダ操作を受け付けると、スライダ位置に従って徐々にパラメータが更新される。一方、入力装置(13)により、所望の値に応じた位置への変更操作を受け付けると、所望の値がパラメータの現在値より小さい値のときに、パラメータを現在値から所望の値に更新し、所望の値がパラメータの現在値より大きい値のときに、パラメータを現在値から所望の値に更新しない。
 従って、ユーザは、入力装置(13)に対する一連の操作によって、パラメータを変更することができる。具体的には、パラメータを現在値から徐々に大きい値、あるいは小さい値に変更することができる。一方、パラメータを現在値から突然に大きくなる値に変更する操作入力が禁止される。このように、ユーザは、パラメータの設定変更操作において、パラメータの値が突然に大きくなる値への変更操作を禁止することにより誤操作によるパラメータの突然の変化によるユーザ等へのストレスを抑制してユーザ操作に適したユーザインターフェイスを実現することができる。
 また、この発明の第7の局面に類似した局面によれば、入力装置(13)からの入力に基づいて少なくとも一つのパラメータの値を設定するコンピュータにおいて実行される情報処理プログラムを提供する。情報処理プログラムは、コンピュータ(10)を、所定の画面(500,501,502,503)における所定の表示領域内(550)において、パラメータの現在値を示すスライダ(252)を表示するスライダ表示手段(SD32,SD70,SD91)と、パラメータの現在値に応じたスライダ(552)の位置から連続的な移動操作を受け付ける第1の移動操作受付手段(SD110,SD114)と、所定の表示領域内において、パラメータの所望の値に応じたスライダ(552)の位置への移動操作を受け付ける第2の移動操作受付手段(SD110,SD111)と、パラメータを受け付けられた移動操作に従うスライダ(552)の移動後の位置に応じた値に更新する更新手段(SD115)として機能させる。そして、第2の移動操作受付手段は、パラメータの現在値よりも小さくなる方向にスライダ(552)が移動するような場合には、スライダの所望の位置への移動操作を受け付け(SD112)、パラメータの現在値よりも大きくなる方向にスライダが移動するような場合には、スライダの所望の位置への移動操作を受け付けない(SD113)。
 この類似した局面によれば、ユーザが入力装置(13)により現在値に応じたスライダ(552)の位置から連続的な移動操作あるいは所望の値に応じたスライダの位置への移動操作を受け付けると、スライダ(552)の移動後の位置に応じた値にパラメータが更新される。一方、入力装置(13)により、スライダ(552)の移動操作が現在値よりも小さくなる方向にスライダが移動するような場合には、所望の位置への移動操作を受け付け、現在値よりも大きくなる方向にスライダが移動するような場合には、所望の位置への移動操作を受け付けない。
 従って、ユーザは、入力装置(13)に対する一連の操作によって、パラメータを変更することができる。具体的には、スライダを連続的に移動させて、パラメータを現在値から徐々に大きい値、あるいは小さい値に変更することができる。一方、スライダを所望の値に応じた位置へ移動操作させる場合、パラメータの現在値から大きくなる方向への移動操作は禁止される。このように、ユーザは、パラメータの設定変更操作において、パラメータの値が突然に大きくなる値への移動操作を禁止することにより誤操作によるパラメータの突然の変化によるユーザ等へのストレスを抑制してユーザ操作に適したユーザインターフェイスを実現することができる。
 第7の局面のより好ましい局面によれば、入力装置は、ポインティングデバイス(27)である。この局面によれば、ユーザはタッチペン(27)により、タッチパネルの任意の位置に対する入力を行うため、選択する際のユーザの操作性が向上する。
 第7の局面のより好ましい局面によれば、情報処理所望の値の位置への変更操作に基づいて、パラメータを現在値から所望の値に更新する手段は、パラメータを現在値から徐々に更新する。この局面によれば、パラメータが現在値から所望の値に更新される場合においても、パラメータを徐々に更新することにより、パラメータの変化が滑らかとなるため自然なパラメータの変化とすることが可能である。
 第7の局面のより好ましい局面によれば、コンピュータは、入力装置(13)からの入力に基づいて、複数種類のパラメータの値を設定する。所定の表示領域内における任意の位置には複数種類のパラメータの値がそれぞれ対応付けられている。
 この局面によれば、複数種類のパラメータと対応付けられるため入力装置からのパラメータの設定を簡易に実行することが可能である。
 特に、所定の表示領域は、コンピュータで設定されるパラメータの種類の数に応じた多次元の領域である。これによれば、パラメータの種類の数に応じた次元で表示されるため各パラメータの位置を容易に認識することが可能である。
 第7の局面のより好ましい局面によれば、パラメータは、コンピュータの出力装置から出力される音の音量レベルに相当する。この局面によれば、現在の音量から突然に音量が大きくなって、ユーザ及びユーザ付近に存在する人に対して不快な思いすなわち、ストレスを感じさせることを抑制することが可能である。
 第7の局面のより好ましい局面によれば、パラメータは、コンピュータにおいて再生されるファイルの再生時間に相当する。この局面によれば、再生されていない位置から再生が開始されることを防止し、ユーザに不快感を与えることを抑制することができる。
 この発明の第7の局面に類似した別の局面によれば、入力装置(13)からの入力に基づいて少なくとも一つのパラメータの値を設定する情報処理装置(10)を提供する。情報処理装置(10)は、所定の画面(500,501,502,503)における所定の表示領域内(550)において、パラメータの現在値に応じた位置からの変更操作を受け付ける第1の変更操作受付手段(552,SD110,SD114)と、第1の変更操作受付手段で受け付けられた変更操作に基づいて、パラメータを現在値から徐々に更新する第1の更新手段(SD114,SD115)と、所定の表示領域内において、パラメータの所望の値に応じた位置への変更操作を受け付ける第2の変更操作受付手段(554,555)と、第2の変更操作受付手段で受け付けられた変更操作に基づいて、パラメータを現在値から所望の値に更新する第2の更新手段(SD111,SD112,SD115)とを備える。第2の更新手段は、所望の値がパラメータの現在値より小さい値のときに(554)、パラメータを現在値から所望の値に更新し、所望の値がパラメータの現在値より大きい値のときに(555)、パラメータを現在値から所望の値に更新しない(SD113)。
 この発明の第7の局面に類似したさらに別の局面によれば、入力装置(13)からの入力に基づいて少なくとも一つのパラメータの値を設定する情報処理装置を提供する。情報処理装置(10)は、所定の画面(500,501,502,503)における所定の表示領域内(550)において、パラメータの現在値を示すスライダ(552)を表示するスライダ表示手段(SD32,SD70,SD91)と、パラメータの現在値に応じたスライダ(552)の位置から連続的な移動操作を受け付ける第1の移動操作受付手段(SD110,SD114)と、所定の表示領域内において、パラメータの所望の値に応じたスライダ(552)の位置への移動操作を受け付ける第2の移動操作受付手段(SD110,SD111)と、パラメータを受け付けられた移動操作に従うスライダ(552)の移動後の位置に応じた値に更新する更新手段(SD115)とを備える。第2の移動操作受付手段は、パラメータの現在値よりも小さくなる方向にスライダが移動するような場合には、スライダ(552)の所望の位置への移動操作を受け付け(554,SD112)、パラメータの現在値よりも大きくなる方向にスライダが移動するような場合には、スライダの所望の位置への移動操作を受け付けない(555,SD113)。
 <第8の局面>
 この発明の第8の局面によれば、上側部材(21)と下側部材(11)とが開閉可能に連結された、音楽データの再生が可能な情報処理装置(10)のコンピュータにおいて実行される情報処理プログラムを提供する。情報処理プログラムは、コンピュータを、音楽データの再生を行う音楽再生手段(SD90)と、上側部材と下側部材との開閉状態を検出する開閉検出手段(SD150)と、音楽再生手段による音楽データの再生中であり、開閉検出手段により上側部材と下側部材とが開いている状態から閉じている状態に遷移したことが検出された場合において、所定の外部出力機器との接続が検出された場合には、音楽再生手段による音楽データの再生を継続し、所定の外部出力機器との接続が検出された場合には、音楽再生手段による音楽データの再生を継続し、所定の外部出力機器との接続が検出されなかった場合には、音楽再生手段による音楽データの再生を停止するスリープ手段(SD153,SD154)として機能させる。
 この局面によれば、以下の第8の課題を解決することができる。
 (第8の課題)
 特開2003-216289号公報(特許文献1)には、コンピュータ装置が携帯端末装置であるノートブック型PCである場合において、ノートブック型PCを閉じた際(閉状態)には、スリープ処理を実行して表示等の動作を停止するスリープ状態に設定する点が示されている。一方、再び、ノートブック型PCを開いた際(開状態)には、スリープ状態からアクティブ状態に設定することが示されている。
 そして、当該スリープ処理を実行する場合においても、USBケーブルを介して音楽データを再生処理する再生装置と接続されている場合においては、当該USBケーブルを介してノートブック型PCから再生装置に対して必要なデータを送信するために部分的にアクティブ状態に設定する技術が開示されている。
 したがって、スリープ処理が実行される場合においても、音楽データの再生処理に関する一部の機能についてはスリープ処理を実行しないようにすることが可能である。
 しかしながら、特開2003-216289号公報(特許文献1)における情報端末装置では、当該情報処理装置にて音楽データを再生処理することが考慮されていなかったために、ユーザにとって利便性の高い再生処理を行うことができなかった。
 (第8の局面による作用効果)
 第8の局面によれば、上記第8の課題に対して、音楽データの再生において、ユーザにとって利便性の高い処理を実行する情報処理プログラムおよび情報処理装置を提供する。
 この発明の第8の局面によれば、ユーザが情報処理装置の開閉可能に連結された上側部材と下側部材とを閉じた場合には、上側部材と下側部材とが開いている状態から閉じている状態に遷移したことが検出され、所定の外部出力機器との接続が検出された場合には、音楽データの再生が継続され、所定の外部出力機器との接続が検出されなかった場合には、再生が停止される。
 典型的な実施の形態に示すように、ユーザが上側部材と下側部材とを開いた状態から閉じた状態とした場合に、所定の外部出力機器(典型的には、ヘッドホン)の接続が検出された場合には、再生機能が継続されるため、ヘッドホンから音声信号が出力される。したがって、装置のスピーカ等から音声信号は出力されないため、ユーザおよびユーザの付近に存在する周囲の人に対して不快な思いをさせることにならない。さらに、ヘッドホンの接続が検出されている場合に再生機能が継続され、そうでないヘッドホンの接続が検出されていない場合には再生機能が停止するスリープ状態となるため、装置を閉じた状態とすることにより再生が停止するスリープ状態に移行することを期待していたユーザにとって利便性が高い。
 第8の局面のより好ましい局面によれば、この情報プログラムは、コンピュータを、音楽データの再生を連続的に行う設定指示を受け付ける連続再生受付手段(517,SD161)としてさらに機能させる。音楽再生手段は、開閉検出手段により上側部材と下側部材とが開いている状態から閉じている状態に遷移したことが検出された場合において、設定指示を受け付けた場合には、音楽データの再生を連続的に行い(SD162)、設定指示を受け付けなかった場合には、現在実行されている音楽データの再生が終了したときに、音楽データの再生を停止する(SD163)。
 この局面によれば、ユーザが音楽データの再生を連続的に行う設定指示の入力をした場合には、上側部材と下側部材とが開いている状態から閉じている状態に遷移したことが検出された場合において、音楽データの再生を連続的に行ない、設定指示の入力がない場合には、現在実行されている音楽データの再生が終了したときに、音楽データの再生を停止する。
 典型的な実施の形態に示すように、ユーザが、「再生モード」切替アイコン517を選択して、繰り返し再生するすなわち、音楽データの再生を連続的に行う再生モードを選択した場合には、音楽データの再生を継続し、それ以外の再生モードを選択した場合には、現在実行されている音楽データの再生が終了したときに、再生を停止することにより、ユーザの再生を連続的に行う設定指示に従って、再生が継続されるか、否かが判断されるためユーザの意図に応じた再生を実行することが可能である。また、現在実行されている音楽データの再生が終了したときに、再生が停止することにより、ユーザに違和感を与えることなく、再生を終了することが可能である。
 第8の局面のより好ましい局面によれば、この情報処理プログラムは、コンピュータを、音楽再生手段による音楽データの再生において、ステレオ再生あるいはモノラル再生を切替える設定指示を受け付ける再生設定受付手段(561,SD212,SD213)としてさらに機能させる。音楽再生手段は、設定指示を受け付けた場合において、所定の外部出力機器との接続が検出された場合には、設定指示に従った再生を行い、所定の外部出力機器との接続が検出されなかった場合には、ステレオ再生を行う(SD214,SD215)。
 この局面によれば、音楽データの再生において、ステレオ再生あるいはモノラル再生を切替える設定指示を受け付ける再生設定手段が機能し、所定の外部出力機器との接続が検出された場合に、設定指示に従って、ステレオ再生あるいはモノラル再生が実行される。
 典型的な実施の形態に示すように、ユーザが、外部出力機器(典型的には、ヘッドホン)に対する再生において、「ヘッドホン」の機能選択アイコン561を選択して、切替えることにより、ヘッドホンの形式に応じて適切な再生処理を選択することが可能である。
 第8の局面のより好ましい局面によれば、この情報処理プログラムは、コンピュータを、所定の外部出力機器との接続が検出された場合(SD140)には、音楽再生手段において、再生が行われる音楽データの所定の周波数帯域を調整する調整手段(SD141)としてさらに機能させる。
 この局面によれば、外部出力機器(典型的には、ヘッドホン)との接続が検出された場合には、再生が行なわれる音楽データの所定の周波数帯域を調整する調整手段が機能する。
 典型的な実施の形態に示すように、ユーザが、外部出力機器(典型的には、ヘッドホン)を装着した場合に、イコライズ処理を実行することにより、ヘッドホンの装着により音響特性が大きく変化する場合においても、所定の周波数帯域を調整することにより、ユーザに違和感を与えることなく再生を実行することが可能となる。
 第8の局面のより好ましい局面によれば、この情報処理プログラムは、コンピュータを、所定の外部出力機器との接続が検出された場合には、音楽再生手段において、再生が行われる音楽データの所定の音色を調整する調整手段としてさらに機能させる。
 この局面によれば、外部出力機器(典型的には、ヘッドホン)との接続が検出された場合には、再生が行なわれる音楽データの所定の音色を調整する調整手段が機能する。
 典型的な実施の形態に示すように、ユーザが、外部出力機器(典型的には、ヘッドホン)を装着した場合に、例えば、スピーカから再生する場合には、違和感の無い高い音程の音について、ヘッドホンで聞くと音程が高く聞こえすぎる音を、音程の低い別の音に差し替えたり、ヘッドホンで聞くとノイズが聞こえる音を他の音に差し替えたりすることにより、ユーザに違和感を与えることなく再生を実行することが可能となる。
 第8の局面のより好ましい局面によれば、この情報処理プログラムは、コンピュータを、所定の外部出力機器との接続が検出された場合には、音楽再生手段において、再生が行われる音楽データの音量を調整する調整手段としてさらに機能させる。
 この局面によれば、外部出力機器(典型的には、ヘッドホン)との接続が検出された場合には、再生が行なわれる音楽データの音量を調整する調整手段が機能する。
 典型的な実施の形態に示すように、ユーザが、外部出力機器(典型的には、ヘッドホン)を装着した場合に、例えば、スピーカから再生する場合には、違和感の無いバランスの良い再生される音声信号のボリュームについて、ヘッドホンで聞くと再生される音声信号のボリュームのバランスが悪い音のボリュームを大きくしたり、あるいは小さくすることにより、バランスよく聞こえるように調整することにより、ユーザに違和感を与えることなく再生を実行することが可能となる。
 第8の局面のより好ましい局面によれば、スリープ手段は、開閉検出手段により上側部材と下側部材とが開いている状態から閉じている状態に遷移したことが検出された場合に、表示機能の少なくとも一部を停止する。
 この局面によれば、上側部材と下側部材とが開いている状態から閉じている状態に遷移したことが検出された場合において、表示機能の少なくとも一部を停止する。
 典型的な実施の形態に示すように、ユーザが上側部材と下側部材とを開いた状態から閉じた状態とした場合に、表示機能の少なくとも一部を停止することにより、動作させる必要の無い機能を停止して、スリープ状態とするため消費する電力を節電することが可能となる。
 第8の局面の別の局面によれば、音楽データの再生が可能な情報処理装置のコンピュータにおいて実行される情報処理プログラムであって、コンピュータを、音楽データの再生を行う音楽再生手段と、音楽再生手段による音楽データの再生において、ステレオ再生あるいはモノラル再生を切替える設定指示を受け付ける再生設定受付手段として機能させる。音楽再生手段は、設定指示を受け付けた場合において、所定の外部出力機器との接続が検出された場合には、設定指示に従った再生を行い、所定の外部出力機器との接続が検出されなかった場合には、ステレオ再生を行う。
 この局面によれば、音楽データの再生において、ステレオ再生あるいはモノラル再生を切替える設定指示を受け付ける再生設定手段が機能し、所定の外部出力機器との接続が検出された場合に、設定指示に従って、ステレオ再生あるいはモノラル再生が実行される。
 典型的な実施の形態に示すように、ユーザが、外部出力機器(典型的には、ヘッドホン)に対する再生において、「ヘッドホン」の機能選択アイコン561を選択して、切替えることにより、ヘッドホンの形式に応じて適切な再生処理を選択することが可能である。
 第8の局面のさらに別の局面によれば、上側部材(21)と下側部材(11)とが開閉可能に連結された、音楽データの再生が可能な情報処理装置(10)であって、音楽データの再生を行う音楽再生手段(SD90)と、上側部材と下側部材との開閉状態を検出する開閉検出手段(SD150)と、音楽再生手段による音楽データの再生中であり、開閉検出手段により上側部材と下側部材とが開いている状態から閉じている状態に遷移したことが検出された場合において、所定の外部出力機器との接続が検出された場合には、音楽再生手段による音楽データの再生を継続し、所定の外部出力機器との接続が検出された場合には、音楽再生手段による音楽データの再生を継続し、所定の外部出力機器との接続が検出されなかった場合には、音楽再生手段による音楽データの再生を停止するスリープ手段(SD153,SD154)とを備える。
 このさらに別の局面に従えば、音楽データの再生が可能な情報処理装置であって、音楽データの再生を行う音楽再生手段と、音楽再生手段による音楽データの再生において、ステレオ再生あるいはモノラル再生を切替える設定指示を受け付ける再生設定受付手段(SD261,SD212,SD213)とを備え、音楽再生手段は、設定指示を受け付けた場合において、所定の外部出力機器との接続が検出された場合には、設定指示に従った再生を行い、所定の外部出力機器との接続が検出されなかった場合には、ステレオ再生を行う(SD214,SD215)。
 今回開示された実施の形態はすべての点で例示であって制限的なものではないと考えられるべきである。本発明の範囲は、上記した説明ではなく、請求の範囲によって示され、請求の範囲と均等の意味および範囲内でのすべての変更が含まれることが意図される。

Claims (47)

  1.  複数のハウジング(11,21)により開閉可能な情報処理装置(10)であって、
     前記複数のハウジングの連結部分に設けられた、撮像手段(23)および音声入力手段(21C,42)と、
     記憶手段(34)と、
     前記撮像手段を用いて撮像データを取得する撮像データ取得手段(31,SA50)と、
     前記撮像データ取得手段により取得された撮像データを前記記憶手段に記憶する撮像データ記憶制御手段(31,SA54)と、
     前記音声入力手段を用いて音声データを取得する音声データ取得手段(31,SD171)と、
     前記音声データ取得手段により取得された音声データを前記記憶手段に記憶する音声データ記憶制御手段(33,SD173)とを備える、情報処理装置。
  2.  前記記憶手段に記憶された前記撮像データを再生する撮像データ再生手段(31,SA41)をさらに備える、請求の範囲第1項に記載の情報処理装置。
  3.  前記記憶手段に記憶された前記撮像データを編集する撮像データ編集手段(31,SA58)をさらに備える、請求の範囲第1項に記載の情報処理装置。
  4.  前記記憶手段に記憶された前記音声データを再生する音声データ再生手段(31,SD76#)をさらに備える、請求の範囲第1項に記載の情報処理装置。
  5.  前記記憶手段に記憶された前記音声データを編集する音声データ編集手段(31,SD262)をさらに備える、請求の範囲第1項に記載の情報処理装置。
  6.  近距離無線通信手段(38)と、
     前記記憶手段に記憶された撮像データを、前記近距離無線通信手段を用いて、他の前記情報処理装置に送信する撮像データ送信制御手段(31,SC52)と、
     他の前記情報処理装置から、前記近距離無線通信手段を用いて、撮像データを受信し、前記記憶手段に記憶する撮像データ受信制御手段(31,SC53)とをさらに備える、請求の範囲第1項に記載の情報処理装置。
  7.  前記開閉を検出する開閉検出手段(50)をさらに備え、
     前記撮像データ再生手段は、前記開閉検出手段により前記開閉が検出されるたびに、前記記憶手段に記憶された撮像データのうち、異なる撮像データに基づいて撮像画像を表示する(SA73)、請求の範囲第1項に記載の情報処理装置。
  8.  前記記憶手段は、
      前記情報処理装置のコンピュータを、前記撮像データ取得手段および前記撮像データ記憶制御手段として機能させる、撮像データ取得プログラム(53)と、
      前記情報処理装置のコンピュータを前記音声データ取得手段および前記音声データ記憶制御手段として機能させる、音声データ取得プログラム(57)と、をさらに記憶し、
     前記情報処理装置は、前記情報処理装置を起動したときに、少なくとも、前記撮像データ取得プログラムまたは前記音声データ取得プログラムのうちからいずれかを選択させ、当該選択されたプログラムを起動する起動制御手段(31,SA5~SA13)をさらに備え、
     前記起動制御手段は、前記撮像手段を用いて撮像データを取得して前記記憶手段に記憶する機能(31,SA10)を有する、請求の範囲第1項に記載の情報処理装置。
  9.  前記情報処理装置を開いたときに、前記複数のハウジングのうち1つのハウジングが存在する側の、前記複数のハウジングのうちの他の1つのハウジングの上面に設けられる第1操作手段(14I,14J)をさらに備え、
     前記撮像データ記録手段は、前記第1操作手段が操作されたときに、前記撮像手段を用いて撮像データを取得して、前記記憶手段に記憶する、請求の範囲第1項に記載の情報処理装置。
  10.  前記撮像手段および前記音声入力手段は、前記連結部の中央付近に設けられる、請求の範囲第1項に記載の情報処理装置。
  11.  前記撮像手段は、前記連結部の中央に設けられ、
     前記音声入力手段は、前記連結部の中央からオフセットされた位置に設けられる、請求の範囲第10項に記載の情報処理装置。
  12.  各ハウジングに設けられる表示手段(12,22)をさらに備える、請求の範囲第1項に記載の情報処理装置。
  13.  前記ハウジングは横長のハウジングである、請求の範囲第1項に記載の情報処理装置。
  14.  前記複数のハウジングのうち1つのハウジングにおいて、前記表示手段の左右にそれぞれ配置される第1および第2の操作手段(14A~14E)と、
     前記複数のハウジングのうち他の1つのハウジングにおいて、前記表示手段の左右にそれぞれ配置される第1および第2の音声出力手段(21D,45,47)とをさらに備える、請求の範囲第1項に記載の情報処理装置。
  15.  メモリカード(28,29)を着脱自在に装着するための接続手段(36,37)をさらに備える、請求の範囲第1項に記載の情報処理装置。
  16.  前記撮像データ記憶制御手段は、前記撮像データを、前記記憶手段と前記メモリカードとに選択的に記憶可能である、請求の範囲第15項に記載の情報処理装置。
  17.  前記音声データ記憶制御手段は、前記音声データを、前記記憶手段と前記メモリカードに選択的に記憶可能である、請求の範囲第15項に記載の情報処理装置。
  18.  前記情報処理装置のコンピュータを、前記撮像データ取得手段および前記撮像データ記憶制御手段として機能させるプログラムを内蔵の記憶手段に記憶し、当該プログラムを前記情報処理装置のコンピュータに実行させることが可能である、請求の範囲第1項に記載の情報処理装置。
  19.  前記メモリカードに記憶されたアプリケーションプログラムを読み出して、前記情報処理装置のコンピュータに実行させることが可能である、請求の範囲第15項に記載の情報処理装置。
  20.  請求の範囲第19項に記載の情報処理装置と、
     前記アプリケーションプログラムとして、前記情報処理装置のコンピュータを、前記撮像データ取得手段および前記撮像データ記憶制御手段として機能させるプログラムを記憶し、データを書き込み可能な前記メモリカードとを備え、
     前記撮像データ記憶制御手段は、前記撮像データを、前記記憶手段および前記メモリカードのいずれかに選択的に記憶可能である、情報処理システム。
  21.  請求の範囲第19項に記載の情報処理装置と、
     前記アプリケーションプログラムとして、前記情報処理装置のコンピュータを、前記記憶手段に記憶された撮像データを利用する撮像データ利用処理手段として機能させるプログラムを記憶する前記メモリカードとを備える、情報処理システム。
  22.  請求の範囲第19項に記載の情報処理装置と、
     前記アプリケーションプログラムとして、前記情報処理装置のコンピュータを、前記記憶手段および前記メモリカードに記憶された撮像データを利用する撮像データ利用処理手段として機能させるプログラムを記憶する前記メモリカードとを備える、情報処理システム。
  23.  請求の範囲第19項に記載の情報処理装置と、
     前記アプリケーションプログラムとして、前記情報処理装置のコンピュータを、前記音声データ取得手段および前記音声データ記憶制御手段として機能させるプログラムを記憶し、データを書き込み可能な前記メモリカードとを備え、
     前記音声データ記憶制御手段は、前記音声データを、前記記憶手段および前記メモリカードのいずれかに選択的に記憶可能である、情報処理システム。
  24.  請求の範囲第19項に記載の情報処理装置と、
     前記アプリケーションプログラムとして、前記情報処理装置のコンピュータを、前記記憶手段に記憶された音声データを利用する音声データ利用処理手段として機能させるプログラムを記憶する前記メモリカードとを備える、情報処理システム。
  25.  請求の範囲第19項に記載の情報処理装置と、
     前記アプリケーションプログラムとして、前記情報処理装置のコンピュータを、前記記憶手段および前記メモリカードに記憶された音声データを利用する音声データ利用処理手段として機能させるプログラムを記憶する前記メモリカードとを備える、情報処理システム。
  26.  メモリカードを着脱自在に装着するための前記接続手段を複数備える、請求の範囲第15項~第19項のいずれか1項に記載の情報処理装置。
  27.  前記接続手段は、
      汎用規格のメモリカード(28)を着脱自在に装着するための第1の接続手段と、
      専用規格のメモリカード(29)を着脱自在に装着するための第2の接続手段とを含む、請求の範囲第26項に記載の情報処理装置。
  28.  前記撮像データ記憶制御手段は、前記撮像データを、前記記憶手段と前記汎用規格のメモリカードと前記専用規格のメモリカードとに選択的に記憶可能である、請求の範囲第27項に記載の情報処理装置。
  29.  前記音声データ記憶制御手段は、前記音声データを、前記記憶手段と前記汎用規格のメモリカードと前記専用規格のメモリカードとに選択的に記憶可能である、請求の範囲第27項に記載の情報処理装置。
  30.  前記専用規格のメモリカードに記憶されたアプリケーションプログラムを読み出して、前記情報処理装置のコンピュータに実行させることは許可されており、
     前記汎用規格のメモリカードに記憶されたアプリケーションプログラムを読み出して、前記情報処理装置のコンピュータに実行させることは禁止されている、請求の範囲第27項に記載の情報処理装置。
  31.  請求の範囲第28項に記載の情報処理装置と、
     前記アプリケーションプログラムとして、前記情報処理装置のコンピュータを、第2の撮像データ取得手段および第2の撮像データ記憶制御手段として機能させるプログラムを記憶する前記専用規格のメモリカードとを備え、
     前記第2撮像データ記憶制御手段は、前記撮像データを、少なくとも、前記記憶手段、前記汎用規格のメモリカード、および前記専用規格のメモリカードのいずれかに選択的に記憶可能である、情報処理システム。
  32.  請求の範囲第28項に記載の情報処理装置と、
     前記アプリケーションプログラムとして、前記情報処理装置のコンピュータを、第2の音声データ取得手段および第2の音声データ記憶制御手段として機能させるプログラムを記憶する前記専用規格のメモリカードとを備え、
     前記第2の音声データ記憶制御手段は、前記音声データを、少なくとも、前記記憶手段、前記汎用規格のメモリカード、および前記専用規格のメモリカードのいずれかに選択的に記憶可能である、情報処理システム。
  33.  請求の範囲第28項に記載の情報処理装置と、
     前記アプリケーションプログラムとして、前記情報処理装置のコンピュータを、前記記憶手段および前記汎用規格のメモリカードおよび前記専用規格のメモリカードに記憶された撮像データを利用する撮像データ利用処理手段として機能させるプログラムを記憶する前記専用規格のメモリカードとを備える、情報処理システム。
  34.  メモリカード(28,29)と、
     前記メモリカードに記憶されたアプリケーションプログラムを読み出して処理を実行することが可能な情報処理装置(10)とを備え、
     前記情報処理装置は、
     撮像手段(23)と、
     内蔵の記憶手段(34)と、
     メモリカードを着脱自在に装着するための接続手段(36,37)と、
     内蔵のプログラム記憶手段(901~908)とを含み、前記内蔵のプログラム記憶手段は、前記情報処理装置のコンピュータを
      前記撮像手段を用いて撮像データを取得する第1の撮像データ取得手段、および
      前記撮像データ取得手段により取得された撮像データを前記内蔵の記憶手段に記憶する第1の撮像データ記憶制御手段、として機能させるプログラムを記憶し、
     前記メモリカードは、前記アプリケーションプログラムとして、前記情報処理装置のコンピュータを、
      前記撮像手段を用いて撮像データを取得する第2の撮像データ取得手段、および
      前記撮像データ取得手段により取得された撮像データを前記内蔵の記憶手段に記憶する第2の撮像データ記憶制御手段、として機能させるプログラムを記憶する、情報処理システム。
  35.  メモリカード(28,29)と、
     前記メモリカードに記憶されたアプリケーションプログラムを読み出して処理を実行することが可能な情報処理装置とを備え、
     前記情報処理装置は、
     撮像手段(23)と、
     内蔵の記憶手段(34)と、
     メモリカードを着脱自在に装着するための接続手段(36,37)と、
     内蔵のプログラム記憶手段(901~908)とを含み、前記内蔵のプログラム記憶手段は、前記情報処理装置のコンピュータを、
      前記撮像手段を用いて撮像データを取得する第1の撮像データ取得手段、および
      前記撮像データ取得手段により取得された撮像データを前記内蔵の記憶手段に記憶する第1の撮像データ記憶制御手段、として機能させるプログラムを記憶し、
      前記メモリカードは、前記アプリケーションプログラムとして、前記情報処理装置のコンピュータを、前記内蔵の記憶手段に記憶された撮像データを利用する撮像データ利用処理手段として機能させるプログラムを記憶する、情報処理システム。
  36.  撮像手段(23)を有し、複数のアプリケーションプログラムを記憶可能な情報処理装置(10)のコンピュータにおいて実行され、当該複数のアプリケーションプログラムの中からユーザが所望するアプリケーションプログラムを選択的に起動するための起動用プログラム(51)であって、
     前記複数のアプリケーションプログラムを選択的に起動する第1起動操作を受け付ける第1起動操作受付手段(SA6,SA11)と、
     前記第1起動操作が行われた場合、前記複数のアプリケーションプログラムのうち当該第1起動操作で選択されたアプリケーションプログラムを、前記コンピュータによって実行されるプログラムを記憶するための所定の記憶手段に読み込んで、当該アプリケーションプログラムを起動する第1起動手段(SA12)と、
     所定の撮影操作に応じて、前記撮像手段による撮像画像を記憶手段に保存する撮影処理を行う撮影処理手段(SA10)として前記コンピュータを機能させる、起動用プログラム。
  37.  前記撮影処理手段は、前記撮像手段による撮像画像を記憶手段に保存する撮影機能を有し、当該撮影機能により撮影した画像を編集する機能を有しない、請求の範囲第36項に記載の起動用プログラム。
  38.  前記撮影処理手段は、前記撮像手段による撮像画像を記憶手段に保存する撮影機能を有し、当該撮影機能により撮影した画像の中から任意に閲覧する機能を有しない、請求の範囲第36項に記載の起動用プログラム。
  39.  前記情報処理装置は、前記アプリケーションプログラムとして、前記撮像手段による撮像画像を記憶手段に保存する撮影機能を有する撮影アプリケーションプログラム(53)を記憶している、請求の範囲第36項に記載の起動用プログラム。
  40.  前記撮影アプリケーションプログラムは、撮影した画像を編集する機能をさらに有する、請求の範囲第39項に記載の起動用プログラム。
  41.  前記撮影アプリケーションプログラムは、撮影した画像の中から任意に閲覧する機能をさらに有する、請求の範囲第39項に記載の起動用プログラム。
  42.  前記撮影アプリケーションプログラムは、撮影した画像を前記記憶手段に保存する、請求の範囲第39項に記載の起動用プログラム。
  43.  前記記憶手段に保存された撮影画像を、他の前記情報処理装置と交換することが可能な、請求の範囲第36項に記載の起動用プログラム。
  44.  前記撮影アプリケーションプログラムは、前記撮影操作に応じて、撮影した画像を前記記憶手段に保存する、請求の範囲第39項に記載の起動用プログラム。
  45.  前記記憶手段に保存された撮影画像を、前記複数のアプリケーションプログラムを選択的に起動するための画像とともに表示する(SA5)、請求の範囲第36項に記載の起動用プログラム。
  46.  起動したアプリケーションプログラムが終了したときに、前記起動用プログラムの実行により、前記複数のアプリケーションプログラムを選択的に起動するための画像とともに表示するときに、前記記憶手段に保存された撮影画像のうち、前回とは異なる撮影画像を表示する(SA28)、請求の範囲第45項に記載の起動用プログラム。
  47.  請求の範囲第36項~第46項のいずれか1項に記載の起動用プログラムを記憶した記憶媒体。
PCT/JP2008/067864 2008-10-01 2008-10-01 情報処理装置、情報処理システム、ならびに起動用プログラムおよびそれを記憶した記憶媒体 WO2010038296A1 (ja)

Priority Applications (8)

Application Number Priority Date Filing Date Title
PCT/JP2008/067864 WO2010038296A1 (ja) 2008-10-01 2008-10-01 情報処理装置、情報処理システム、ならびに起動用プログラムおよびそれを記憶した記憶媒体
US12/531,586 US8848100B2 (en) 2008-10-01 2008-10-01 Information processing device, information processing system, and launch program and storage medium storing the same providing photographing functionality
JP2009508025A JPWO2010038296A1 (ja) 2008-10-01 2008-10-01 情報処理装置、情報処理システム、ならびに起動用プログラムおよびそれを記憶した記憶媒体
US13/954,509 US20130314578A1 (en) 2008-10-01 2013-07-30 Device Including Touchscreen
US13/954,491 US20130314570A1 (en) 2008-10-01 2013-07-30 Device Including Touch-Screen Interface
US14/466,614 US9630099B2 (en) 2008-10-01 2014-08-22 Information processing device, information processing system, and launch program and storage medium storing the same providing photographing functionality
US14/478,803 US10525334B2 (en) 2008-10-01 2014-09-05 System and device for communicating images
US14/478,779 US10124247B2 (en) 2008-10-01 2014-09-05 System and device for communicating images

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2008/067864 WO2010038296A1 (ja) 2008-10-01 2008-10-01 情報処理装置、情報処理システム、ならびに起動用プログラムおよびそれを記憶した記憶媒体

Related Child Applications (6)

Application Number Title Priority Date Filing Date
US12/531,586 A-371-Of-International US8848100B2 (en) 2008-10-01 2008-10-01 Information processing device, information processing system, and launch program and storage medium storing the same providing photographing functionality
US13/954,491 Division US20130314570A1 (en) 2008-10-01 2013-07-30 Device Including Touch-Screen Interface
US13/954,509 Division US20130314578A1 (en) 2008-10-01 2013-07-30 Device Including Touchscreen
US14/466,614 Continuation US9630099B2 (en) 2008-10-01 2014-08-22 Information processing device, information processing system, and launch program and storage medium storing the same providing photographing functionality
US14/478,779 Division US10124247B2 (en) 2008-10-01 2014-09-05 System and device for communicating images
US14/478,803 Division US10525334B2 (en) 2008-10-01 2014-09-05 System and device for communicating images

Publications (1)

Publication Number Publication Date
WO2010038296A1 true WO2010038296A1 (ja) 2010-04-08

Family

ID=42073089

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2008/067864 WO2010038296A1 (ja) 2008-10-01 2008-10-01 情報処理装置、情報処理システム、ならびに起動用プログラムおよびそれを記憶した記憶媒体

Country Status (3)

Country Link
US (6) US8848100B2 (ja)
JP (1) JPWO2010038296A1 (ja)
WO (1) WO2010038296A1 (ja)

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012068984A (ja) * 2010-09-24 2012-04-05 Nintendo Co Ltd 表示制御プログラム、表示制御装置、表示制御システム及び表示制御方法
JP2012073747A (ja) * 2010-09-28 2012-04-12 Nintendo Co Ltd 情報処理装置および情報処理システム
JP2013542479A (ja) * 2010-08-25 2013-11-21 サムスン エレクトロニクス カンパニー リミテッド 複合属性制御方法及びこれを支援する携帯端末機
JP2014096134A (ja) * 2012-11-12 2014-05-22 Samsung Electronics Co Ltd セット値を変更する電子装置及び方法
JP2016067024A (ja) * 2010-05-27 2016-04-28 任天堂株式会社 携帯型電子機器
EP2433683A3 (en) * 2010-09-27 2016-06-15 Nintendo Co., Ltd. Program, system and method for stereoscopic augmented reality applications
US9693039B2 (en) 2010-05-27 2017-06-27 Nintendo Co., Ltd. Hand-held electronic device
CN107890673A (zh) * 2017-09-30 2018-04-10 网易(杭州)网络有限公司 补偿声音信息的视觉显示方法及装置、存储介质、设备
CN108014495A (zh) * 2017-11-23 2018-05-11 网易(杭州)网络有限公司 视觉补偿声音信息的方法、存储介质及电子设备
US10015473B2 (en) 2010-06-11 2018-07-03 Nintendo Co., Ltd. Computer-readable storage medium, image display apparatus, image display system, and image display method

Families Citing this family (72)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8458612B2 (en) * 2007-07-29 2013-06-04 Hewlett-Packard Development Company, L.P. Application management framework for web applications
JP4260215B1 (ja) 2007-08-29 2009-04-30 任天堂株式会社 撮像装置
US8130275B2 (en) 2008-06-13 2012-03-06 Nintendo Co., Ltd. Information-processing apparatus, and storage medium storing a photographing application launch program executed by information-processing apparatus
JP4181211B1 (ja) 2008-06-13 2008-11-12 任天堂株式会社 情報処理装置およびそれにおいて実行される起動用プログラム
JPWO2010038296A1 (ja) 2008-10-01 2012-02-23 任天堂株式会社 情報処理装置、情報処理システム、ならびに起動用プログラムおよびそれを記憶した記憶媒体
US8576169B2 (en) 2008-10-20 2013-11-05 Sensor Platforms, Inc. System and method for determining an attitude of a device undergoing dynamic acceleration
WO2010061661A1 (ja) * 2008-11-25 2010-06-03 株式会社ソニー・コンピュータエンタテインメント 画像表示装置、画像表示方法及び情報記憶媒体
US8587519B2 (en) 2009-01-07 2013-11-19 Sensor Platforms, Inc. Rolling gesture detection using a multi-dimensional pointing device
US8874155B2 (en) * 2009-05-26 2014-10-28 Nec Corporation Base station device, and control method and program thereof
KR101566353B1 (ko) * 2009-06-02 2015-11-05 엘지전자 주식회사 이동 단말기 및 이동 단말기의 정보 표시 방법
US8301202B2 (en) * 2009-08-27 2012-10-30 Lg Electronics Inc. Mobile terminal and controlling method thereof
TW201122706A (en) * 2009-12-31 2011-07-01 Hon Hai Prec Ind Co Ltd Front projection system and method
KR20110116524A (ko) * 2010-04-19 2011-10-26 엘지전자 주식회사 휴대 단말기 및 그 동작 제어방법
US8384770B2 (en) 2010-06-02 2013-02-26 Nintendo Co., Ltd. Image display system, image display apparatus, and image display method
US9025030B2 (en) * 2010-06-08 2015-05-05 Cheryl Garcia Video system
JP2012003689A (ja) * 2010-06-21 2012-01-05 Sony Corp 情報処理装置、情報処理方法およびプログラム
US8854356B2 (en) 2010-09-28 2014-10-07 Nintendo Co., Ltd. Storage medium having stored therein image processing program, image processing apparatus, image processing system, and image processing method
US8957909B2 (en) * 2010-10-07 2015-02-17 Sensor Platforms, Inc. System and method for compensating for drift in a display of a user interface state
JP5782810B2 (ja) 2011-04-22 2015-09-24 ソニー株式会社 情報処理装置、情報処理方法およびプログラム
US10248293B2 (en) * 2011-09-30 2019-04-02 Nokia Technologies Oy Method, apparatus, computer program and user interface
US20130100042A1 (en) * 2011-10-21 2013-04-25 Robert H. Kincaid Touch screen implemented control panel
KR101820730B1 (ko) * 2011-12-13 2018-03-09 삼성전자 주식회사 이어폰 접속 검출 시스템 및 이를 지원하는 단말기
KR101919853B1 (ko) * 2011-12-23 2018-11-19 삼성전자주식회사 디스플레이 장치 및 그 잠금 해제 방법
US9459276B2 (en) 2012-01-06 2016-10-04 Sensor Platforms, Inc. System and method for device self-calibration
US9316513B2 (en) 2012-01-08 2016-04-19 Sensor Platforms, Inc. System and method for calibrating sensors for different operating environments
US9228842B2 (en) 2012-03-25 2016-01-05 Sensor Platforms, Inc. System and method for determining a uniform external magnetic field
JP5970937B2 (ja) 2012-04-25 2016-08-17 ソニー株式会社 表示制御装置および表示制御方法
JP5940394B2 (ja) * 2012-07-02 2016-06-29 オリンパス株式会社 撮像装置
JP5978844B2 (ja) * 2012-08-07 2016-08-24 富士ゼロックス株式会社 情報処理装置、画像形成装置およびプログラム
KR102009928B1 (ko) * 2012-08-20 2019-08-12 삼성전자 주식회사 협업 구현 방법 및 장치
US9319497B2 (en) * 2013-01-02 2016-04-19 Sony Corporation Portable terminal
CN105308948A (zh) * 2013-02-27 2016-02-03 谷歌技术控股有限责任公司 取景器工具
US20140298219A1 (en) * 2013-03-29 2014-10-02 Microsoft Corporation Visual Selection and Grouping
KR102633904B1 (ko) 2013-04-24 2024-02-07 가부시키가이샤 한도오따이 에네루기 켄큐쇼 표시 장치
KR102101850B1 (ko) * 2013-06-04 2020-04-17 삼성전자주식회사 전자 장치에서 이미지를 편집하기 위한 장치 및 방법
EP3036912A1 (en) * 2013-08-23 2016-06-29 Binauric SE External speaker/microphone apparatus for use with an electrical device for providing audio signals and/or for voice communication
KR102179813B1 (ko) * 2013-09-03 2020-11-17 엘지전자 주식회사 디스플레이 디바이스 및 제어 방법
FR3013470B1 (fr) * 2013-11-20 2017-05-19 Bigben Interactive Sa Dispositif de jeu video
JP6146350B2 (ja) * 2014-03-18 2017-06-14 パナソニックIpマネジメント株式会社 情報処理装置およびコンピュータプログラム
KR20150126193A (ko) * 2014-05-02 2015-11-11 삼성전자주식회사 복수의 디스플레이를 이용한 컨텐츠 출력 방법 및 그 장치
JP2015216484A (ja) * 2014-05-09 2015-12-03 キヤノン株式会社 撮像装置、画像処理方法、プログラム及び記憶媒体
JP6221961B2 (ja) * 2014-06-18 2017-11-01 株式会社デンソー 2個のディスプレイを制御するディスプレイ制御装置およびディスプレイ制御装置用のプログラム
JP6371717B2 (ja) * 2014-07-01 2018-08-08 キヤノン株式会社 情報処理装置及び制御方法及びプログラム
US9679194B2 (en) * 2014-07-17 2017-06-13 At&T Intellectual Property I, L.P. Automated obscurity for pervasive imaging
KR102222073B1 (ko) * 2014-08-29 2021-03-04 삼성전자주식회사 촬영 방법 및 전자 장치
JP5913759B1 (ja) * 2015-08-21 2016-04-27 株式会社ワコム スタイラス及び色情報伝送方法
CN105607810B (zh) * 2015-12-30 2019-08-16 努比亚技术有限公司 皮套窗口信息生成方法和装置
USD782521S1 (en) * 2016-01-15 2017-03-28 Thomson Reuters Global Resources Unlimited Company Display screen with animated graphical user interface
JP6187625B1 (ja) * 2016-03-24 2017-08-30 オンキヨー株式会社 音量調整装置、及び、音量調整プログラム
KR20170112491A (ko) * 2016-03-31 2017-10-12 엘지전자 주식회사 이동 단말기 및 그 제어방법
EP3254739B1 (en) * 2016-06-10 2020-03-25 Nintendo Co., Ltd. Game controller
EP3473310B1 (en) 2016-06-10 2020-01-22 Nintendo Co., Ltd. Game controller
JP7083226B2 (ja) 2016-06-10 2022-06-10 任天堂株式会社 ゲームコントローラ
USD841053S1 (en) 2016-10-07 2019-02-19 Siemens Aktiengesellschaft Display screen or portion thereof with an icon
GB2559792A (en) * 2017-02-20 2018-08-22 Sony Interactive Entertainment Inc Game application launch system and method
CN109302525B (zh) * 2017-07-25 2021-06-15 西安中兴新软件有限责任公司 一种播放声音的方法及多屏终端
US10599289B1 (en) 2017-11-13 2020-03-24 Snap Inc. Interface to display animated icon
JP6770502B2 (ja) * 2017-11-22 2020-10-14 キヤノン株式会社 通信装置、表示装置、それらの制御方法、プログラムならびに表示システム
USD876475S1 (en) * 2018-02-22 2020-02-25 Samsung Electronics Co., Ltd. Display screen or portion thereof with animated graphical user interface
US10335674B1 (en) * 2018-06-11 2019-07-02 Performance Designed Products Llc Video game controller
US20190041918A1 (en) * 2018-06-27 2019-02-07 Intel Corporation Spine assembly for a computing system with multiple computing parts
CN110874247A (zh) * 2018-08-31 2020-03-10 Oppo广东移动通信有限公司 应用程序的处理方法和电子设备
CN110221730B (zh) * 2019-06-17 2022-06-07 京东方科技集团股份有限公司 触控面板及触控显示装置
KR102304053B1 (ko) * 2019-06-19 2021-09-17 주식회사 비엘디 상하 배치된 폴더타입의 듀얼모니터
GB2586789A (en) * 2019-08-30 2021-03-10 Sony Interactive Entertainment Inc Controlling data processing
US11216169B2 (en) * 2019-10-02 2022-01-04 Facebook, Inc. Social network interactions
US11019021B2 (en) * 2019-10-02 2021-05-25 Facebook, Inc. Social network status
JP1667177S (ja) * 2019-12-24 2020-12-14
USD927531S1 (en) 2020-03-20 2021-08-10 Caterpillar Inc. Display screen with icon
USD954105S1 (en) * 2021-05-05 2022-06-07 Doom Solutions, LLC Display screen or portion thereof with a set of icons
USD1000461S1 (en) * 2021-12-29 2023-10-03 Cvrx, Inc. Display screen or a portion thereof with graphical user interface
US11774833B2 (en) * 2022-02-09 2023-10-03 Nikola Vladimir Bicanic Methods, systems, apparatuses, and devices for facilitating controlling operation of a content capturing device

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10240692A (ja) * 1997-02-28 1998-09-11 Toshiba Corp 携帯型情報端末器
JP2008131597A (ja) * 2006-11-24 2008-06-05 Fujitsu Ltd 携帯端末装置

Family Cites Families (231)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4007469A (en) 1975-04-21 1977-02-08 Polaroid Corporation Photographic apparatus with plurality of selectively determinable operational modes
FR2483090A1 (fr) 1980-05-23 1981-11-27 Parisot Daniel Lecteur de microfiches a recherche automatique utilisant un microordinateur
JPH01297986A (ja) 1988-05-26 1989-12-01 Canon Inc カメラ一体型記録装置
US4853733A (en) 1988-07-08 1989-08-01 Olympus Optical Company Limited Program rewritable camera
JPH03182732A (ja) 1989-12-13 1991-08-08 Konica Corp フィルム一体型カメラ
JP2979486B2 (ja) 1990-10-19 1999-11-15 株式会社日立製作所 カメラ
JP3328308B2 (ja) 1992-01-27 2002-09-24 シャープ株式会社 音量調整方法
JP3255995B2 (ja) * 1992-10-23 2002-02-12 株式会社日立製作所 テレビ電話装置
JP3300097B2 (ja) 1993-03-24 2002-07-08 オリンパス光学工業株式会社 電子カメラ
US5408287A (en) 1994-02-24 1995-04-18 Eastman Kodak Company Switchable camera functions for right-hand and left-hand user actuated buttons
US5506951A (en) 1994-03-01 1996-04-09 Ishikawa; Hiroshi Scroll bar with jump tags
US5477264A (en) 1994-03-29 1995-12-19 Eastman Kodak Company Electronic imaging system using a removable software-enhanced storage device
JP3496207B2 (ja) 1994-06-22 2004-02-09 ソニー株式会社 ビデオカメラ
WO1996009579A1 (en) 1994-09-22 1996-03-28 Izak Van Cruyningen Popup menus with directional gestures
US6122526A (en) * 1997-04-24 2000-09-19 Eastman Kodak Company Cellular telephone and electronic camera system with programmable transmission capability
US5615347A (en) 1995-05-05 1997-03-25 Apple Computer, Inc. Method and apparatus for linking images of sliders on a computer display
JPH09247634A (ja) 1996-03-07 1997-09-19 Sharp Corp テレビ電話装置
US6510325B1 (en) 1996-04-19 2003-01-21 Mack, Ii Gawins A. Convertible portable telephone
US20020024603A1 (en) * 1996-10-02 2002-02-28 Nikon Corporation Image processing apparatus, method and recording medium for controlling same
US20050041132A1 (en) * 1996-12-02 2005-02-24 Nikon Corporation Electronic camera
JPH10222168A (ja) 1997-02-05 1998-08-21 Kawai Musical Instr Mfg Co Ltd 電子楽器の音量制御装置
JPH10243273A (ja) 1997-02-24 1998-09-11 Canon Inc デジタルカメラ用画像表示方法
US6665015B1 (en) 1997-03-18 2003-12-16 Canon Kabushiki Kaisha Image sensing apparatus with simulated images for setting sensing condition
US6118480A (en) 1997-05-05 2000-09-12 Flashpoint Technology, Inc. Method and apparatus for integrating a digital camera user interface across multiple operating modes
JPH10336496A (ja) 1997-06-04 1998-12-18 Asahi Optical Co Ltd 薄型デジタルカメラ
US20040051785A1 (en) 1997-06-06 2004-03-18 Nikon Corporation Electronic camera having a communication function
JPH10341388A (ja) 1997-06-06 1998-12-22 Nikon Corp 通信機能を有する電子カメラ
JPH1141339A (ja) 1997-07-24 1999-02-12 Sony Corp 携帯情報端末
JP3516328B2 (ja) * 1997-08-22 2004-04-05 株式会社日立製作所 情報通信端末装置
US5923908A (en) * 1997-10-30 1999-07-13 Eastman Kodak Company Camera with touch sensitive control
JPH11136568A (ja) 1997-10-31 1999-05-21 Fuji Photo Film Co Ltd タッチパネル操作式カメラ
JPH11144040A (ja) 1997-11-05 1999-05-28 Nintendo Co Ltd 携帯形ゲーム機および携帯形ゲーム機用カートリッジ
JPH11160776A (ja) 1997-12-01 1999-06-18 Fuji Photo Film Co Ltd カメラ
JPH11212726A (ja) 1998-01-29 1999-08-06 Omron Corp 入力装置
US6222538B1 (en) 1998-02-27 2001-04-24 Flashpoint Technology, Inc. Directing image capture sequences in a digital imaging device using scripts
JP4541459B2 (ja) 1998-03-11 2010-09-08 キヤノン株式会社 デジタルカメラ
GB2372664B (en) 1998-05-08 2002-11-27 Orange Personal Comm Serv Ltd Mobile communications
US20020106199A1 (en) * 1998-05-27 2002-08-08 Osamu Ikeda Image signal recording/reproduction apparatus, method employed therein, and image signal recording apparatus
JP2000050117A (ja) 1998-07-28 2000-02-18 Canon Inc 撮影装置
JP2000056756A (ja) 1998-08-12 2000-02-25 Dainippon Printing Co Ltd 楽器練習の支援装置および楽器練習用情報の記録媒体
JP2000066285A (ja) 1998-08-25 2000-03-03 Fuji Photo Film Co Ltd レンズ付きフイルムユニット
JP2000112567A (ja) 1998-09-30 2000-04-21 Internatl Business Mach Corp <Ibm> 携帯型電子装置
JP2000132561A (ja) 1998-10-23 2000-05-12 Toshiba Corp 情報処理装置及びこれを用いた情報処理システム
US6154210A (en) 1998-11-25 2000-11-28 Flashpoint Technology, Inc. Method and system for implementing button interface compatibility in touch-screen equipped digital imaging device
JP2000184310A (ja) 1998-12-10 2000-06-30 Fujitsu Ltd 表示装置
JP4154053B2 (ja) 1998-12-25 2008-09-24 キヤノン株式会社 画像記録・再生システム、画像記録装置及び画像再生装置
JP4366746B2 (ja) 1999-01-28 2009-11-18 ソニー株式会社 情報処理装置および方法、並びに記録媒体
JP2000253113A (ja) * 1999-02-26 2000-09-14 Hitachi Ltd 情報通信端末装置
US6538665B2 (en) 1999-04-15 2003-03-25 Apple Computer, Inc. User interface for presenting media information
JP3674413B2 (ja) 1999-10-07 2005-07-20 日本ビクター株式会社 画像撮影装置
JP2001142564A (ja) 1999-11-11 2001-05-25 Sharp Corp 情報機器
US7046287B2 (en) * 1999-12-24 2006-05-16 Nec Corporation Portable information terminal equipped with camera
JP2001189880A (ja) 1999-12-28 2001-07-10 Minolta Co Ltd デジタルカメラ
JP3910775B2 (ja) 2000-01-06 2007-04-25 アルパイン株式会社 デジタル放送受信機
JP2001197462A (ja) 2000-01-17 2001-07-19 Nec Corp テレビ電話装置及びそれを備えるテレビ電話システム
DE60140320D1 (de) 2000-02-29 2009-12-10 Panasonic Corp Bildaufnahmesystem und fahrzeugmontiertes Sensorsystem
JP3775156B2 (ja) 2000-03-02 2006-05-17 ヤマハ株式会社 携帯電話機
US6811492B1 (en) 2000-03-20 2004-11-02 Nintendo Co., Ltd. Video game machine using digital camera and digital camera accessory for video game machine
US6567677B1 (en) 2000-08-14 2003-05-20 Seth David Sokoloff Notebook computer-telephone
EP1191424A3 (en) 2000-09-06 2004-11-10 Sony Corporation Information processing apparatus
JP3212592B1 (ja) 2000-10-18 2001-09-25 株式会社メイクソフトウェア 写真自販機
JP2002152624A (ja) 2000-11-07 2002-05-24 Funai Electric Co Ltd テレビジョン受像機
JP3914705B2 (ja) 2000-11-29 2007-05-16 富士フイルム株式会社 ディジタル・カメラおよびその動作制御方法
JP2002209163A (ja) 2001-01-12 2002-07-26 Nikon Corp 電子アルバムの表示方法および電子アルバム機能を備えた電子カメラおよび電子アルバムシステム
JP2002259036A (ja) 2001-02-28 2002-09-13 Sony Corp 情報処理装置及び情報処理方法、記録媒体並びにプログラム
JP2002352138A (ja) 2001-05-23 2002-12-06 Ibm Japan Ltd サーバ、検索システム、情報提供システム、情報提供端末、情報検索方法、情報提供方法、情報表示方法
US7540011B2 (en) 2001-06-11 2009-05-26 Arrowsight, Inc. Caching graphical interface for displaying video and ancillary data from a saved video
KR100539527B1 (ko) 2001-06-12 2005-12-29 엘지전자 주식회사 카메라를 구비한 휴대전화기
US6954491B1 (en) 2001-06-14 2005-10-11 Silicon Image, Inc. Methods and systems for sending side-channel data during data inactive period
JP3778490B2 (ja) 2001-06-15 2006-05-24 コニカミノルタフォトイメージング株式会社 カメラ付き折畳式携帯機器
JP3647395B2 (ja) * 2001-06-20 2005-05-11 キヤノン株式会社 通信装置
JP2002094629A (ja) 2001-06-26 2002-03-29 Hitachi Ltd 情報通信端末装置
JP2003023479A (ja) 2001-07-10 2003-01-24 Sharp Corp 携帯無線端末
US6788887B2 (en) 2001-09-19 2004-09-07 Fuji Photo Film Co., Ltd. Camera with indicator for determining position within the angle of view
JP4076057B2 (ja) * 2001-09-26 2008-04-16 富士フイルム株式会社 画像データ送信方法、デジタルカメラおよびプログラム
JP4436583B2 (ja) 2001-12-19 2010-03-24 富士フイルム株式会社 デジタルカメラ
US6842652B2 (en) * 2002-02-22 2005-01-11 Concord Camera Corp. Image capture device
JP2003264775A (ja) 2002-03-08 2003-09-19 Sony Corp 情報処理装置および方法、記録媒体、並びにプログラム
US7117450B1 (en) 2002-03-15 2006-10-03 Apple Computer, Inc. Method and apparatus for determining font attributes
JP2003274247A (ja) 2002-03-19 2003-09-26 Konica Corp 撮像装置
JP2003333149A (ja) 2002-05-17 2003-11-21 Sharp Corp 携帯端末装置
US20030220145A1 (en) 2002-05-22 2003-11-27 Erickson Craig S. Digital camera and networking accessories for a portable video game device
JP2004004309A (ja) 2002-05-31 2004-01-08 Fuji Photo Film Co Ltd カメラ
JP2004015779A (ja) 2002-06-12 2004-01-15 Nec Access Technica Ltd 携帯電子機器及びそれに用いる撮像装置搭載構造
JP3700687B2 (ja) 2002-07-08 2005-09-28 カシオ計算機株式会社 カメラ装置及び被写体の撮影方法
JP2004053699A (ja) 2002-07-17 2004-02-19 Funai Electric Co Ltd 撮影装置
US20050237424A1 (en) * 2002-08-05 2005-10-27 Koninklijke Philips Electronics N.V. Device for mobile image communication
JP4084136B2 (ja) 2002-09-05 2008-04-30 シャープ株式会社 カメラ付携帯電話機
US20050270396A1 (en) 2002-09-20 2005-12-08 Akihiro Miyashita Liquid crystal display device, and portable telephone device using liquid crystal display device
JP3675430B2 (ja) 2002-09-20 2005-07-27 株式会社日立製作所 携帯電話機
JP4104945B2 (ja) 2002-09-25 2008-06-18 シャープ株式会社 携帯機器
JP4085255B2 (ja) 2002-09-26 2008-05-14 富士フイルム株式会社 デジタルカメラ及び画像通信方法
JP2004120290A (ja) 2002-09-26 2004-04-15 Hitachi Ltd 携帯端末及び携帯端末の画像表示方法
JP2004120670A (ja) 2002-09-30 2004-04-15 Hitachi Ltd 折畳み式携帯端末装置
JP2004135177A (ja) 2002-10-11 2004-04-30 Sharp Corp 携帯電話機
KR100547792B1 (ko) * 2002-10-24 2006-01-31 삼성전자주식회사 배경화면의 이미지파일을 변경할 수 있는 무선 통신단말기 및 이를 이용한 배경화면의 이미지파일 표시방법
JP3948387B2 (ja) 2002-10-24 2007-07-25 松下電器産業株式会社 ディジタルカメラおよびディジタルカメラ付き携帯電話装置
JP2004165943A (ja) 2002-11-13 2004-06-10 Fujitsu Ltd 携帯電子機器及びその撮影方法
JP3499862B1 (ja) 2002-12-03 2004-02-23 株式会社メイクソフトウェア 写真プリント提供装置および方法ならびにプログラム
US7221330B2 (en) 2002-12-09 2007-05-22 Nokia Corporation Folding terminal with slider to fix terminal in a flat unfolded configuration
JP2004214946A (ja) * 2002-12-27 2004-07-29 Casio Comput Co Ltd 折り畳み式携帯情報機器
JP2004221908A (ja) 2003-01-14 2004-08-05 Sanyo Electric Co Ltd 表示制御方法とこの方法を利用可能な撮影画像出力システム、表示制御装置、液晶プロジェクタ、およびデジタルカメラ
CN100544405C (zh) 2003-02-07 2009-09-23 夏普株式会社 便携式蜂窝电话和便携式终端设备
JP2004297751A (ja) 2003-02-07 2004-10-21 Sharp Corp 合焦状態表示装置及び合焦状態表示方法
JP2004260760A (ja) 2003-02-27 2004-09-16 Kyocera Corp 携帯端末装置及び携帯端末装置のメール作成方法
WO2004080064A1 (ja) 2003-03-06 2004-09-16 Fujitsu Limited 情報処理装置、情報処理方法及び情報処理プログラム
JP4053444B2 (ja) 2003-03-07 2008-02-27 シャープ株式会社 携帯可能な多機能電子機器
JP4407137B2 (ja) 2003-03-18 2010-02-03 カシオ計算機株式会社 携帯電子機器、携帯電子機器の動作制御方法及びプログラム
JP4123994B2 (ja) 2003-03-20 2008-07-23 株式会社日立製作所 携帯電話機
JP2004297251A (ja) 2003-03-26 2004-10-21 Fuji Photo Film Co Ltd 携帯端末
JP4181907B2 (ja) 2003-03-27 2008-11-19 キヤノン株式会社 光学装置
JP4284701B2 (ja) 2003-07-28 2009-06-24 カシオ計算機株式会社 複合機器、電源供給制御方法、及び、電源供給制御プログラム
JP2005079910A (ja) 2003-08-29 2005-03-24 Kyocera Corp 無線通信装置
JP4282420B2 (ja) 2003-09-22 2009-06-24 オリンパス株式会社 カメラ
JP2005115536A (ja) 2003-10-06 2005-04-28 Hitachi Medical Corp 携帯情報端末
USD492275S1 (en) 2003-11-14 2004-06-29 Benq Corporation Folding mobile phone
KR20050056901A (ko) 2003-12-10 2005-06-16 마쯔시다덴기산교 가부시키가이샤 휴대 정보 단말 장치
JP2005184108A (ja) 2003-12-16 2005-07-07 Nikon Gijutsu Kobo:Kk デジタルカメラ
JP2005184060A (ja) 2003-12-16 2005-07-07 Sanyo Electric Co Ltd 電子カメラ
JP4118231B2 (ja) 2003-12-17 2008-07-16 シャープ株式会社 携帯通信端末
US20050135792A1 (en) 2003-12-19 2005-06-23 Microtek International, Inc. Compact multimedia player
JP4626145B2 (ja) 2003-12-19 2011-02-02 パナソニック株式会社 音声出力レベル設定方法及び装置
US20050153765A1 (en) 2004-01-08 2005-07-14 Shoostine Randy M. Electronic memory game
US7365787B2 (en) * 2004-02-26 2008-04-29 Research In Motion Limited Mobile device with integrated camera operations
USD503697S1 (en) 2004-02-27 2005-04-05 Nokia Corporation Handset
US8014763B2 (en) * 2004-02-28 2011-09-06 Charles Martin Hymes Wireless communications with proximal targets identified visually, aurally, or positionally
WO2005088390A1 (en) 2004-03-08 2005-09-22 Koninklijke Philips Electronics N.V. Display device
JP2005260879A (ja) 2004-03-15 2005-09-22 Fuji Photo Film Co Ltd デジタルカメラ
JP2005269399A (ja) 2004-03-19 2005-09-29 Fuji Photo Film Co Ltd カメラ付き携帯電話
JP2004274777A (ja) 2004-03-22 2004-09-30 Sharp Corp 携帯可能な多機能電子機器
JP2005286430A (ja) 2004-03-26 2005-10-13 Sharp Corp 携帯機器
US7837558B2 (en) 2004-03-31 2010-11-23 Nintendo Co., Ltd. Game console and emulator for the game console
JP4554259B2 (ja) 2004-04-09 2010-09-29 富士フイルム株式会社 Idカード発行システム
JP2005303561A (ja) 2004-04-09 2005-10-27 Fuji Photo Film Co Ltd 移動体端末装置
JP2005323241A (ja) 2004-05-11 2005-11-17 Mitsubishi Electric Corp 携帯電話機
JP4070745B2 (ja) 2004-05-21 2008-04-02 三洋電機株式会社 放送受信携帯端末
WO2005119404A1 (en) 2004-06-01 2005-12-15 Beech Technology Incorporated Portable, folding and separable multi-display computing system
US7671916B2 (en) 2004-06-04 2010-03-02 Electronic Arts Inc. Motion sensor using dual camera inputs
JP4756876B2 (ja) 2004-06-09 2011-08-24 キヤノン株式会社 画像表示制御装置、画像表示制御方法、プログラム、及び記憶媒体
JP4360491B2 (ja) 2004-07-15 2009-11-11 ソニー・エリクソン・モバイルコミュニケーションズ株式会社 携帯電話端末装置
KR100653893B1 (ko) 2004-07-21 2006-12-05 삼성전자주식회사 휴대단말기의 카메라모드 제어방법
KR100600750B1 (ko) 2004-07-27 2006-07-14 엘지전자 주식회사 듀얼카메라가 장착된 이동통신 단말기
JP2006039203A (ja) 2004-07-27 2006-02-09 Canon Inc 撮像装置、及び制御方法
US7463247B2 (en) 2004-08-02 2008-12-09 Nokia Corporation Flip cover for a portable electronic device
JP4365290B2 (ja) 2004-08-31 2009-11-18 ソフトバンクモバイル株式会社 携帯電話機
JP4403398B2 (ja) 2004-09-08 2010-01-27 ソニー株式会社 情報処理装置、情報処理方法、およびプログラム
EP1793588A4 (en) 2004-09-21 2011-04-27 Nikon Corp MOBILE INFORMATION DEVICE
US7607003B2 (en) 2004-09-21 2009-10-20 Cyberlink Corp. System and method for loading an operating system on a personal computer
JP4398832B2 (ja) 2004-09-24 2010-01-13 株式会社東芝 ネットワーク接続される放送受信装置
KR101058011B1 (ko) 2004-10-01 2011-08-19 삼성전자주식회사 터치 스크린을 이용한 디지털 카메라 조작 방법
JP2006107063A (ja) 2004-10-04 2006-04-20 Ntt Docomo Inc 問題解決支援装置、及び、問題解決支援方法
US20060077165A1 (en) 2004-10-12 2006-04-13 Samsung Electronics Co., Ltd. Wireless LCD device for displaying images received from a mobile communication terminal and an operation method thereof
US8169410B2 (en) 2004-10-20 2012-05-01 Nintendo Co., Ltd. Gesture inputs for a portable display device
WO2006046681A1 (ja) 2004-10-25 2006-05-04 Matsushita Electric Industrial Co., Ltd. 携帯電話装置
USD513505S1 (en) 2004-11-02 2006-01-10 Arima Communication Corp. Cellular phone
US7782384B2 (en) 2004-11-05 2010-08-24 Kelly Douglas J Digital camera having system for digital image composition and related method
JP2006140700A (ja) 2004-11-11 2006-06-01 Canon Inc デジタルカメラ
JP2006139676A (ja) 2004-11-15 2006-06-01 Canon Inc 情報管理装置
US20060103633A1 (en) 2004-11-17 2006-05-18 Atrua Technologies, Inc. Customizable touch input module for an electronic device
JP4411193B2 (ja) * 2004-12-09 2010-02-10 富士フイルム株式会社 ディスプレイ付き撮像装置及び画像表示装置
JP2006186589A (ja) 2004-12-27 2006-07-13 Olympus Imaging Corp 表示制御装置及び表示制御方法
US8069420B2 (en) 2004-12-29 2011-11-29 Karl Storz Endoscopy-America, Inc. System for controlling the communication of medical imaging data
JP4282610B2 (ja) 2005-01-07 2009-06-24 埼玉日本電気株式会社 カメラ、当該カメラを備えた携帯通信機器、撮影方法及びプログラム
JP2006201466A (ja) 2005-01-20 2006-08-03 Olympus Imaging Corp 入力制御装置
US20060183505A1 (en) 2005-02-15 2006-08-17 Willrich Scott Consulting Group, Inc. Digital mobile planner
JP2006230340A (ja) 2005-02-28 2006-09-07 Taka Sangyo Kk 釣り用ブラシ
US8019175B2 (en) 2005-03-09 2011-09-13 Qualcomm Incorporated Region-of-interest processing for video telephony
KR101106333B1 (ko) 2005-03-10 2012-01-19 엘지전자 주식회사 데이터 입력부 및 숫자 입력부를 갖는 복합 개폐형 이동통신 단말기
USD540769S1 (en) 2005-03-10 2007-04-17 Lg Electronics Inc. Mobile phone
US7158817B2 (en) 2005-03-17 2007-01-02 Masaharu Kubo Portable terminal
JP4683970B2 (ja) 2005-03-24 2011-05-18 任天堂株式会社 タッチ入力プログラムおよびタッチ入力装置
KR100703402B1 (ko) 2005-03-24 2007-04-03 삼성전자주식회사 다방향으로 촬영되는 카메라 렌즈 모듈을 구비한 휴대단말기
JP2006287288A (ja) 2005-03-31 2006-10-19 Hitachi Ltd 画像記憶装置付カメラ
JP2006311224A (ja) 2005-04-28 2006-11-09 Nec Saitama Ltd 折り畳み型携帯電話機
JP2006319561A (ja) 2005-05-11 2006-11-24 Sharp Corp 折り畳み機構を有する携帯端末
US20060268125A1 (en) 2005-05-31 2006-11-30 M-Systems Flash Disk Pioneers, Ltd. Digital camera system with recyclable memory card
JP2006350986A (ja) 2005-06-17 2006-12-28 Tokyo Institute Of Technology 顔写真付きメールを送受信できる携帯電話機
JP2007028229A (ja) 2005-07-15 2007-02-01 Olympus Imaging Corp 撮影装置
JP4510713B2 (ja) 2005-07-21 2010-07-28 富士フイルム株式会社 デジタルカメラ
JP2007036492A (ja) * 2005-07-25 2007-02-08 Pentax Corp El表示装置及びそれを用いたデジタルカメラ
US7873961B2 (en) 2005-07-29 2011-01-18 International Business Machines Corporation Supervisory operating system for running multiple child operating systems simultaneously and optimizing resource usage
JP2007041119A (ja) 2005-08-01 2007-02-15 Olympus Imaging Corp 撮像装置及び撮像方法
KR100640808B1 (ko) * 2005-08-12 2006-11-02 엘지전자 주식회사 촬상 이미지의 듀얼 디스플레이 기능을 갖는 이동통신단말기 및 그 방법
JP4352465B2 (ja) 2005-08-23 2009-10-28 日本電気株式会社 携帯端末
US8049678B2 (en) 2005-09-09 2011-11-01 Lg Electronics, Inc. Image capturing and displaying method and system
JP2007104038A (ja) 2005-09-30 2007-04-19 Casio Comput Co Ltd 撮像装置、高速起動撮影方法、及びプログラム
JP4661505B2 (ja) 2005-09-30 2011-03-30 ソニー株式会社 情報処理装置、情報処理方法及びそのプログラム
KR100736076B1 (ko) 2005-10-24 2007-07-06 삼성전자주식회사 화면 캡처 기능을 제공하는 휴대용 장치 및 그 방법
US7728866B2 (en) 2005-11-03 2010-06-01 Broadcom Corp. Video telephony image processing
JP4799144B2 (ja) 2005-11-18 2011-10-26 任天堂株式会社 ゲームプログラムおよびゲーム装置
JP4903425B2 (ja) 2005-11-29 2012-03-28 京セラ株式会社 携帯情報端末
US20070126877A1 (en) 2005-12-01 2007-06-07 Hong-Seok Yang Multifunctional video apparatus and method of providing user interface thereof
WO2007072467A1 (en) * 2005-12-19 2007-06-28 Thurdis Developments Limited An interactive multimedia apparatus
KR20070075243A (ko) 2006-01-10 2007-07-18 삼성전자주식회사 휴대용 통신 장치
JP2007201727A (ja) 2006-01-25 2007-08-09 Nec Saitama Ltd テレビ電話機能付き携帯電話機
JP2007201825A (ja) 2006-01-26 2007-08-09 Nikon Corp 携帯電話
JP5048249B2 (ja) * 2006-01-27 2012-10-17 任天堂株式会社 ゲーム装置およびゲームプログラム
US20070186177A1 (en) 2006-02-03 2007-08-09 Yahoo! Inc. Content navigation interfaces and associated methods
US7562310B2 (en) 2006-04-04 2009-07-14 International Business Machines Corporation Slider control movable in a two-dimensional region for simultaneously adjusting values of multiple variables
KR100800716B1 (ko) * 2006-05-10 2008-02-01 삼성전자주식회사 근거리 통신을 이용한 동영상 데이터 송수신 장치 및 그송수신 장치에서의 동영상 데이터 송수신 방법
US8175449B2 (en) 2006-05-30 2012-05-08 Konica Minolta Opto, Inc. Driving device, driving mechanism, and image sensing apparatus
TW200805015A (en) 2006-07-12 2008-01-16 Micro Star Int Co Ltd Method of volume controlling
US20080031607A1 (en) 2006-08-01 2008-02-07 Yi-Chia Liao Burglar alarm monitoring apparatus
KR100780438B1 (ko) 2006-08-22 2007-11-29 삼성전자주식회사 휴대용 단말기에서 카메라의 촬영정보를 설정하는 방법 및장치
JP2008060731A (ja) 2006-08-29 2008-03-13 Olympus Imaging Corp カメラ、出力画像選択方法、プログラム
US8564544B2 (en) 2006-09-06 2013-10-22 Apple Inc. Touch screen device, method, and graphical user interface for customizing display of content category icons
JP4888069B2 (ja) 2006-11-13 2012-02-29 カシオ計算機株式会社 撮像装置、表示制御方法及びプログラム
JP2008170671A (ja) 2007-01-11 2008-07-24 Seiko Epson Corp プロジェクタ本体およびリモートコントローラを備えるプロジェクタ、リモートコントローラ、および、プロジェクタ本体、並びに、画像表示装置本体およびリモートコントローラを備える画像表示装置
KR101342075B1 (ko) 2007-01-24 2013-12-18 삼성전자 주식회사 휴대용 정보처리장치
JP2008217545A (ja) 2007-03-06 2008-09-18 Nec Corp コンソール情報取得システム、コンソール情報取得方法及びコンソール情報取得プログラム
US7697054B2 (en) 2007-03-29 2010-04-13 Hewlett-Packard Development Company, L.P. Image Manipulator for a camera
JP2008249973A (ja) 2007-03-30 2008-10-16 Sony Corp ボリューム制御装置、ボリューム制御方法及びそのプログラム
JP4561767B2 (ja) 2007-04-09 2010-10-13 ソニー株式会社 撮像装置および方法、並びにプログラム
US20080303795A1 (en) 2007-06-08 2008-12-11 Lowles Robert J Haptic display for a handheld electronic device
US8497928B2 (en) 2007-07-31 2013-07-30 Palm, Inc. Techniques to automatically focus a digital camera
US8291209B2 (en) 2007-08-01 2012-10-16 Splashtop Inc. Integration model for instant-on environment
KR101442542B1 (ko) * 2007-08-28 2014-09-19 엘지전자 주식회사 입력장치 및 이를 구비한 휴대 단말기
JP4260215B1 (ja) 2007-08-29 2009-04-30 任天堂株式会社 撮像装置
EP2039398B1 (en) 2007-08-29 2016-05-04 Nintendo Co., Ltd. Imaging apparatus
US8917985B2 (en) 2007-08-29 2014-12-23 Nintendo Co., Ltd. Imaging apparatus
US8177441B2 (en) 2007-08-29 2012-05-15 Nintendo Co., Ltd. Imaging apparatus
CN101414097B (zh) 2007-10-16 2011-03-30 鸿富锦精密工业(深圳)有限公司 数码相机
JP4181211B1 (ja) 2008-06-13 2008-11-12 任天堂株式会社 情報処理装置およびそれにおいて実行される起動用プログラム
US8130275B2 (en) 2008-06-13 2012-03-06 Nintendo Co., Ltd. Information-processing apparatus, and storage medium storing a photographing application launch program executed by information-processing apparatus
US9552146B2 (en) 2008-07-07 2017-01-24 International Business Machines Corporation Notched slider control for a graphical user interface
JP4198190B1 (ja) 2008-07-11 2008-12-17 任天堂株式会社 画像通信システム、画像通信装置、および画像通信プログラム
US8237807B2 (en) * 2008-07-24 2012-08-07 Apple Inc. Image capturing device with touch screen for adjusting camera settings
USD603363S1 (en) 2008-08-18 2009-11-03 Samsung Electronics, Ltd. Mobile phone
US8289438B2 (en) * 2008-09-24 2012-10-16 Apple Inc. Using distance/proximity information when applying a point spread function in a portable media device
US8359547B2 (en) 2008-10-01 2013-01-22 Nintendo Co., Ltd. Movable user interface indicator of at least one parameter that is adjustable with different operations for increasing and decreasing the parameter and/or methods of providing the same
JPWO2010038296A1 (ja) 2008-10-01 2012-02-23 任天堂株式会社 情報処理装置、情報処理システム、ならびに起動用プログラムおよびそれを記憶した記憶媒体

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10240692A (ja) * 1997-02-28 1998-09-11 Toshiba Corp 携帯型情報端末器
JP2008131597A (ja) * 2006-11-24 2008-06-05 Fujitsu Ltd 携帯端末装置

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016067024A (ja) * 2010-05-27 2016-04-28 任天堂株式会社 携帯型電子機器
US9693039B2 (en) 2010-05-27 2017-06-27 Nintendo Co., Ltd. Hand-held electronic device
US10015473B2 (en) 2010-06-11 2018-07-03 Nintendo Co., Ltd. Computer-readable storage medium, image display apparatus, image display system, and image display method
JP2013542479A (ja) * 2010-08-25 2013-11-21 サムスン エレクトロニクス カンパニー リミテッド 複合属性制御方法及びこれを支援する携帯端末機
JP2012068984A (ja) * 2010-09-24 2012-04-05 Nintendo Co Ltd 表示制御プログラム、表示制御装置、表示制御システム及び表示制御方法
EP2433683A3 (en) * 2010-09-27 2016-06-15 Nintendo Co., Ltd. Program, system and method for stereoscopic augmented reality applications
JP2012073747A (ja) * 2010-09-28 2012-04-12 Nintendo Co Ltd 情報処理装置および情報処理システム
US9152301B2 (en) 2010-09-28 2015-10-06 Nintendo Co., Ltd. Information processing apparatus including plurality of display portions and information processing system
JP2014096134A (ja) * 2012-11-12 2014-05-22 Samsung Electronics Co Ltd セット値を変更する電子装置及び方法
CN107890673A (zh) * 2017-09-30 2018-04-10 网易(杭州)网络有限公司 补偿声音信息的视觉显示方法及装置、存储介质、设备
US10661172B2 (en) 2017-09-30 2020-05-26 Netease (Hangzhou) Networks Co., Ltd. Visual display method and apparatus for compensating sound information, storage medium and device
CN108014495A (zh) * 2017-11-23 2018-05-11 网易(杭州)网络有限公司 视觉补偿声音信息的方法、存储介质及电子设备

Also Published As

Publication number Publication date
JPWO2010038296A1 (ja) 2012-02-23
US8848100B2 (en) 2014-09-30
US20130314570A1 (en) 2013-11-28
US20140375863A1 (en) 2014-12-25
US20130314578A1 (en) 2013-11-28
US9630099B2 (en) 2017-04-25
US10124247B2 (en) 2018-11-13
US20140362254A1 (en) 2014-12-11
US10525334B2 (en) 2020-01-07
US20140375832A1 (en) 2014-12-25
US20110242361A1 (en) 2011-10-06

Similar Documents

Publication Publication Date Title
WO2010038296A1 (ja) 情報処理装置、情報処理システム、ならびに起動用プログラムおよびそれを記憶した記憶媒体
US8359547B2 (en) Movable user interface indicator of at least one parameter that is adjustable with different operations for increasing and decreasing the parameter and/or methods of providing the same
JP5430972B2 (ja) 情報処理装置、情報処理システム、ならびに起動用プログラムおよびそれを記憶した記憶媒体
JP4660573B2 (ja) 携帯型撮像装置およびプログラム
US9256449B2 (en) Menu screen for information processing apparatus and computer-readable storage medium recording information processing program
CN108769561B (zh) 视频录制方法及装置
CN109587549B (zh) 视频录制方法、装置、终端及存储介质
JP5256513B2 (ja) 情報処理プログラム、情報処理装置、情報処理装置の制御方法および情報処理システム
US8374656B2 (en) Mobile communication device and method for controlling the same
JP6244483B2 (ja) 情報処理装置、情報処理システム、ならびに起動用プログラムおよびそれを記憶した記憶媒体
JP6025771B2 (ja) 起動用プログラム、情報処理装置、および情報処理システム
JP5355017B2 (ja) 情報処理プログラムおよび情報処理装置
JP6133385B2 (ja) 情報処理装置および情報処理プログラム
JP2013093039A (ja) 情報処理装置、情報処理システム、ならびに起動用プログラムおよびそれを記憶した記憶媒体
JP2014140203A (ja) 起動用プログラム、情報処理装置、および情報処理システム
CN113473224A (zh) 视频处理方法、装置、电子设备及计算机可读存储介质
KR20070113647A (ko) 이동 통신 단말기의 제어 방법
JP2007183713A (ja) 情報処理装置および情報管理プログラム

Legal Events

Date Code Title Description
WWE Wipo information: entry into national phase

Ref document number: 2009508025

Country of ref document: JP

WWE Wipo information: entry into national phase

Ref document number: 12531586

Country of ref document: US

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 08877154

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 08877154

Country of ref document: EP

Kind code of ref document: A1