WO2012020751A1 - 電子機器及びその制御方法 - Google Patents

電子機器及びその制御方法 Download PDF

Info

Publication number
WO2012020751A1
WO2012020751A1 PCT/JP2011/068119 JP2011068119W WO2012020751A1 WO 2012020751 A1 WO2012020751 A1 WO 2012020751A1 JP 2011068119 W JP2011068119 W JP 2011068119W WO 2012020751 A1 WO2012020751 A1 WO 2012020751A1
Authority
WO
WIPO (PCT)
Prior art keywords
displayed
application
screen
display unit
image
Prior art date
Application number
PCT/JP2011/068119
Other languages
English (en)
French (fr)
Inventor
太士 岩下
Original Assignee
京セラ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 京セラ株式会社 filed Critical 京セラ株式会社
Priority to US13/814,863 priority Critical patent/US20130135200A1/en
Publication of WO2012020751A1 publication Critical patent/WO2012020751A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1626Constructional details or arrangements for portable computers with a single-body enclosure integrating a flat display, e.g. Personal Digital Assistants [PDAs]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1637Details related to the display arrangement, including those related to the mounting of the display in the housing
    • G06F1/1643Details related to the display arrangement, including those related to the mounting of the display in the housing the display being associated to a digitizer, e.g. laptops that can be used as penpads
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1684Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675
    • G06F1/1694Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675 the I/O peripheral being a single or a set of motion sensors for pointer control or gesture input obtained by sensing movements of the portable computer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures

Definitions

  • the present invention relates to an electronic device and a control method thereof.
  • Patent Document 1 when starting a desired application, the user needs to select one application from a menu of a plurality of applications, and a plurality of operations are necessary.
  • An object of the present invention is to provide an electronic device that can use a character input by a simple operation for a desired application and a control method thereof.
  • an electronic device displays a display unit that displays an image corresponding to each of a plurality of functions capable of inputting characters, and a first corresponding to a first function among the plurality of functions.
  • a first operation is detected in a state where the image is displayed or selected
  • a first function corresponding to a second function different from the first function is selected from the plurality of functions instead of the first image.
  • a control unit that displays or selects two images, and the control unit detects a second operation different from the first operation in a state where the second image is displayed or selected.
  • the second function is activated in a state where the input character is input.
  • the electronic device further includes an operation unit, and the input character is a character displayed on the display unit immediately before the first image is displayed or selected.
  • the control unit detects the first operation.
  • a second screen corresponding to the activation of the second function is displayed on the display unit as the second image, and the second operation is detected or operated in a state where the second screen is displayed.
  • the second function is activated with the input character being input.
  • the control unit detects the first image as the second image.
  • the state in which the second operation is detected or no operation is detected is the predetermined time.
  • control unit is configured to detect the second operation only when the second operation is detected or the operation is not detected for the predetermined time or longer in the state where the second image is displayed or selected. It is preferable to activate the second function.
  • the first operation is an operation of shaking the electronic device main body in a predetermined direction
  • the control unit controls the first image and the second according to a direction in which the electronic device main body is shaken. It is preferable to change the order in which the images are displayed on the display unit.
  • the first operation is an operation of sliding the display unit
  • the control unit displays the first image and the second image according to a direction in which the display unit is slid. It is preferable to change the order of display on the display unit.
  • the operation unit includes a plurality of operation keys in which letters and numbers are assigned to one key, and the control unit is configured to operate the plurality of operations in a state where a standby screen is displayed on the display unit.
  • the character and the number assigned to the operation key are input and displayed on the display unit, and either the displayed character or the number is input.
  • the order in which the first image and the second image are displayed on the display unit is preferably changed according to whether the characters are input as characters.
  • a step of displaying or selecting a first image corresponding to the first function among the plurality of functions and a first operation are detected. Then, in place of the first image, a step of displaying or selecting a second image corresponding to a second function different from the first function among the plurality of functions, and the second image
  • the second operation different from the first operation is detected in the displayed or selected state, or when no operation is detected for a predetermined time or longer, the input character is input and the second operation is continued. And activating the second function.
  • FIG. 1 is an external perspective view of a mobile phone according to an embodiment. It is a block diagram which shows the function structure of the mobile telephone which concerns on embodiment. It is a figure which shows the example of a screen transition displayed on the display part which concerns on 1st Embodiment. It is a flowchart (1) shown about the internal process of the example shown in FIG. It is a flowchart (2) shown about the internal process of the example shown in FIG. It is a figure which shows the example of a screen transition displayed on the display part which concerns on 2nd Embodiment. It is a flowchart (1) shown about the internal process of the example shown in FIG. It is a flowchart (2) shown about the internal process of the example shown in FIG. It is a figure which shows the example of a screen transition displayed on the display part which concerns on 3rd Embodiment. 10 is a flowchart showing internal processing of the example shown in FIG. 9.
  • FIG. 1 is an external perspective view of a mobile phone 1 according to the embodiment.
  • the mobile phone 1 has a housing 2.
  • the housing 2 includes a touch panel 10 (operation unit), a microphone 13, and a speaker 14.
  • the touch panel 10 includes a display unit 11 and a detection unit 12 (see FIG. 2).
  • the display unit 11 is a liquid crystal display panel or an organic EL (electroluminescence) display panel.
  • the detection unit 12 is a sensor that detects contact of an object such as a user's finger or a touch pen of the mobile phone 1 with respect to the display unit 11.
  • the detection unit 12 is arranged corresponding to the surface of the display unit 11, and for example, a capacitance type sensor or a resistance film type sensor can be used.
  • the microphone 13 is used to input a voice uttered by the user of the mobile phone 1 during a call.
  • the speaker 14 is used to output a voice uttered by a call partner of the user of the mobile phone 1.
  • FIG. 2 is a block diagram illustrating a functional configuration of the mobile phone 1 according to the embodiment.
  • the mobile phone 1 includes the touch panel 10 (the display unit 11 and the detection unit 12), the microphone 13, and the speaker 14 described above.
  • the mobile phone 1 includes a communication unit 15, a storage unit 16, a control unit 17, a motion sensor 18, and an operation unit 19.
  • the communication unit 15 includes a main antenna (not shown) and an RF circuit unit (not shown), and transmits or communicates with a predetermined contact.
  • the contact address transmitted by the communication unit 15 is an emergency contact address such as a police or a fire department.
  • a communication destination with which the communication unit 15 communicates is an external device that transmits / receives a telephone or mail to / from the mobile phone 1, an external device such as an external web server that the mobile phone 1 connects to the Internet, and the like.
  • the communication unit 15 communicates with an external device in a predetermined use frequency band. Specifically, the communication unit 15 demodulates the signal received by the main antenna and supplies the processed signal to the control unit 17. Further, the communication unit 15 modulates the signal supplied from the control unit 17 and transmits it to the external device (base station) via the main antenna.
  • the storage unit 16 includes, for example, a working memory and is used for arithmetic processing by the control unit 17. Further, the storage unit 16 stores one or more applications and databases that operate inside the mobile phone 1. The storage unit 16 may also serve as a removable external memory.
  • the control unit 17 controls the entire mobile phone 1 and controls the display unit 11 and the communication unit 15.
  • the motion sensor 18 is configured by any one of an acceleration sensor, a gyro sensor, a geomagnetic sensor, or a combination thereof.
  • the motion sensor 18 detects the displacement of the mobile phone 1 such as the position, direction, and movement, and transmits it to the control unit 17.
  • the operation unit 19 can detect operations according to a plurality of modes.
  • the operation unit 19 may be a virtual key (software key) displayed on the touch panel 10, and is a physical key that is separately arranged on the housing 2 and assigned letters, numbers, symbols, and the like. Also good.
  • the operation unit 19 when the operation unit 19 is a virtual key displayed on the touch panel 10, the operation unit 19 can detect operations according to a plurality of modes such as a contact operation and a sliding operation.
  • the mobile phone 1 according to the first embodiment has a function of starting an application using characters displayed on the display unit 11.
  • a configuration for executing the function will be described.
  • FIG. 3 is a diagram illustrating a screen transition example displayed on the display unit 11 according to the first embodiment.
  • the control unit 17 displays the received mail on the display unit 11 by an electronic mail application. That is, the control unit 17 displays a plurality of characters using an electronic mail application.
  • the characters include not only hiragana characters, katakana characters, and kanji, but also numbers, alphabetic characters, and symbols.
  • the character includes not only one character but also a character string.
  • the numbers include not only numbers but also characters (P (pause),-(hyphen), * (asterisk), # (sharp), etc.) used for outgoing calls.
  • the number includes not only one number but also a number string.
  • the control unit 17 detects the contact (long press) on the character “waterproof mobile phone” among the characters displayed on the screen D1 by the detection unit 12. In response to this (screen D2), the input character “waterproof mobile phone” is selected. The character selected on the display unit 11 is displayed in reverse video (screen D3).
  • control unit 17 performs a process of starting the application A that edits the input character in response to selection of the input character “waterproof mobile phone”.
  • the control unit 17 stores The screen (first image) of the memo pad application corresponding to the memo pad application (first function) among the plurality of applications (plural functions) stored in the unit 16 is displayed (screens D4 and D5).
  • the control unit 17 performs a notepad application corresponding to activation of the notepad application from the screen of the e-mail application.
  • the initial screen of the memo pad application is displayed on the display unit 11 (screen D5).
  • the control unit 17 continues the state where the input character “waterproof mobile phone” is selected on the screen D3, and causes the display unit 11 to display only the selected input character “waterproof mobile phone”.
  • the control unit 17 does not start the notepad application and displays only the initial screen of the notepad application.
  • the memo pad application may be activated to display the initial screen of the memo pad application on the display unit 11.
  • the control unit 17 replaces the initial screen of the memo pad application with the memo pad application.
  • An initial screen (second image) of a browser application corresponding to a different browser application is displayed (screen D6).
  • the control unit 17 switches from the initial screen of the memo pad application to the initial screen of the browser application corresponding to the startup of the browser application, An initial screen of the browser application is displayed on the display unit 11 (screen D6).
  • control unit 17 continues the state where the input character “waterproof mobile phone” is selected on the screen D3, and displays only the selected input character “waterproof mobile phone” on the display unit 11.
  • the control unit 17 does not start the browser application and displays only the initial screen of the browser application on the display unit 11.
  • the browser application may be activated and an initial screen of the browser application may be displayed on the display unit 11.
  • the control unit 17 detects that the detection unit 12 detects the release of contact with the input character “waterproof mobile phone” by the user's finger.
  • the input character “waterproof mobile phone” displayed on the display unit 11 is input to the search window in the initial screen of the browser application, and the browser application is Start (screen D7).
  • control unit 17 indicates that the operation is not detected for a predetermined time instead of the operation (second operation) in which the detection unit 12 detects that the user's finger is separated from the surface of the display unit 11 being detected.
  • the input character “waterproof mobile phone” displayed on the display unit 11 may be input to the search window in the initial screen of the browser application to start the browser application (screen D7).
  • the mobile phone 1 switches from the e-mail application to the initial screen of the memo pad application or the browser application, and changes the character input to the display unit 11 to the memo pad application or the browser application. It can be started in the input state. Therefore, the mobile phone 1 can easily use the characters input to the display unit 11 in an application that executes a desired function.
  • the input character may be a character selected according to an operation by the operation unit 19 among characters displayed on the display unit 11.
  • the mobile phone 1 can easily use the selected input character in a desired application. Can be improved.
  • the control unit 17 detects an operation in which the detection unit 12 releases the user's finger from the surface of the display unit 11 or an operation is not detected. Is continued for a predetermined time or longer, the memo pad application or browser application corresponding to the initial screen of the memo pad application or browser application displayed on the display unit 11 is started in a state where input characters are input.
  • the mobile phone 1 switches from the screen of the e-mail application to the initial screen of the memo pad application, and the user's finger is moved to the surface of the display unit 11
  • the memo pad application or browser application corresponding to the initial screen of the memo pad application or browser application is activated.
  • the mobile phone 1 can be activated in a state where characters are input to a desired application by an intuitive operation.
  • control unit 17 detects that an operation of releasing the user's finger from the surface of the display unit 11 in a state where the initial screen of the memo pad application or the browser application is displayed, or a state where the operation is not detected is longer than a predetermined time. Only when it continues, the memo pad application or browser application may be started by inputting the character displayed on the display unit 11 as an input character. Thereby, the mobile phone 1 activates the memo pad application or the browser application except when the operation of separating the user's finger from the surface of the display unit 11 is detected or when the operation is not detected for a predetermined time or longer. Therefore, it is possible to prevent an application not intended by the user from being activated.
  • control unit 17 may change the order in which the initial screen of the e-mail application, the memo pad application, or the browser application is displayed on the display unit 11 according to the direction in which the main body of the mobile phone 1 is shaken.
  • the control unit 17 sets an initial screen (standby screen) ⁇ notepad application ⁇ browser application ⁇ schedule.
  • the initial screen of the application displayed on the display unit 11 is switched in the order of application ⁇ e-mail application ⁇ initial screen (standby screen).
  • the control unit 17 starts the initial screen (standby screen) ⁇ e-mail application ⁇ schedule application ⁇ browser application ⁇ memo
  • the initial screen of the application to be displayed on the display unit 11 is switched in the order of book application ⁇ initial screen (standby screen)...
  • the cellular phone 1 changes the order in which the screen of the e-mail application, the memo pad application, or the browser application is displayed on the display unit 11 according to the direction in which the main body of the cellular phone 1 is swung.
  • the screen display of the e-mail application, notepad application, or browser application can be switched.
  • control unit 17 may change the order in which the screen of the e-mail application, the memo pad application, or the browser application is displayed on the display unit 11 according to the direction in which the display unit 11 is slid.
  • the control unit 17 starts an initial screen (standby screen) ⁇ notepad application ⁇ browser application ⁇
  • the initial screen of the application to be displayed on the display unit 11 is switched in the order of schedule application ⁇ e-mail application ⁇ initial screen (standby screen).
  • the control unit 17 starts an initial screen (standby screen) ⁇ e-mail application ⁇ schedule application ⁇ browser application ⁇
  • the initial screen of the application to be displayed on the display unit 11 is switched in the order of the memo pad application ⁇ initial screen (standby screen).
  • the sliding detected by the detection unit 12 may be sliding for a very short period (so-called flick) or sliding (so-called swipe) that continues for a certain period of time.
  • flick very short period
  • swipe sliding
  • an operation that simply touches the surface of the touch panel 10 that is, a touch operation may be performed.
  • the cellular phone 1 changes the order in which the first image and the second image are displayed on the display unit according to the direction in which the display unit 11 is slid or the number of times of contact with the display unit 11.
  • the initial screen of the e-mail application, notepad application, or browser application can be switched by an intuitive operation.
  • step S ⁇ b> 1 the control unit 17 determines whether or not the detection unit 12 has detected contact with the display unit 11 by the user's finger. If contact is detected (YES), the process proceeds to step S2. If no contact is detected (NO), the process of step S1 is repeated again.
  • step S ⁇ b> 2 the control unit 17 determines whether an icon is displayed at a location where contact is detected by the detection unit 12. If an icon is displayed at a location where contact is detected (YES), the process proceeds to step S3. If no icon is displayed at the location where contact is detected (NO), the process proceeds to step S4.
  • step S3 the control part 17 performs the function matched with the icon currently displayed in the location where contact was detected in step S2, and complete
  • step S4 the control unit 17 starts a long press timer and starts measuring time.
  • step S5 the control unit 17 determines whether or not the contact with the display unit 11 detected by the detection unit 12 has continued for a certain period of time, that is, whether or not the long press timer has expired. If the long press timer has expired (YES), the process proceeds to step S6. If the long press timer does not expire (NO), the process of step S5 is repeated again.
  • step S6 the control unit 17 sets the long press detection flag to “TRUE”.
  • step S7 the control unit 17 stops the long press timer.
  • step S ⁇ b> 8 the control unit 17 determines whether or not a character is displayed at a location where a long press is detected on the display unit 11. If a character is displayed (YES), the process proceeds to step S9. If no character is displayed (NO), the process is terminated.
  • step S9 the control unit 17 determines a character selected in sentence units (or word units, character units), and highlights the selected characters.
  • step S10 the control unit 17 determines whether or not an operation of shaking the main body of the mobile phone 1 is detected by the motion sensor 18. If an operation of shaking the main body of the mobile phone 1 is detected (YES), the process proceeds to step S11. When the operation of shaking the main body of the mobile phone 1 is not detected (NO), the process of step S10 is repeated again.
  • the control unit 17 may use a condition that the state where the operation is not detected by the motion sensor 18 and the operation unit 19 continues for a predetermined period or longer instead of the operation of shaking the main body of the mobile phone 1.
  • step S11 the control unit 17 determines whether or not the application A for editing characters is running. If the application A is being activated (YES), the process proceeds to step S13. If the application A is not active (NO), the process proceeds to step S12.
  • step S ⁇ b> 12 the control unit 17 activates the application A stored in the storage unit 16.
  • step S ⁇ b> 13 the control unit 17 determines in which direction the direction in which the main body of the mobile phone 1 is shaken is shaken. If it is shaken toward the left, the process proceeds to step S14. If it is swung in the right direction, the process proceeds to step S15. If it is swung in a direction other than the left or right direction, the process is terminated.
  • step S14 the control unit 17 selects an initial screen of an application to be displayed on the display unit 11.
  • the control unit 17 starts an initial screen (standby screen) ⁇ a notepad application ⁇ a browser application ⁇ a schedule application ⁇
  • the initial screen of the application to be displayed on the display unit 11 is switched in the order of e-mail application ⁇ initial screen (standby screen).
  • step S15 the control unit 17 selects an initial screen of the application to be displayed on the display unit 11.
  • the control unit 17 starts an initial screen (standby screen) ⁇ e-mail application ⁇ schedule application ⁇ browser application ⁇
  • the initial screen of the application to be displayed on the display unit 11 is switched in the order of the memo pad application ⁇ initial screen (standby screen).
  • step S16 the control unit 17 displays the initial screen of the application selected in step S14 or step S15 on the display unit 11 (screen D5 or D6 in FIG. 3).
  • step S ⁇ b> 17 the control unit 17 determines whether or not an operation to release the user's finger from the surface of the display unit 11 (an operation to release contact) is detected by the detection unit 12. If an operation for releasing the contact is detected (YES), the process proceeds to step S18. When the operation for releasing the contact is not detected (NO), the process of step S17 is repeated again.
  • step S ⁇ b> 18 the control unit 17 sets the long press detection flag to “FALSE”.
  • step S19 the control unit 17 causes the input character displayed on the display unit 11 to be input in the initial screen of the selected application, and activates the selected application (screen D7 in FIG. 3).
  • the mobile phone 1 can be started in a state where the initial screen of the selected application is switched and the characters input on the display unit 11 are input on the initial screen of the selected application. Therefore, the mobile phone 1 can easily use the characters input to the display unit 11 in an application that executes a desired function.
  • the mobile phone 1 displays an icon for starting the e-mail application, notepad application, or browser application on the display unit 11 instead of the initial screen of the e-mail application, notepad application, or browser application. This is different from the first embodiment.
  • FIG. 6 is a diagram illustrating a screen transition example displayed on the display unit 11 according to the second embodiment.
  • the control unit 17 displays the received mail on the display unit 11 by the electronic mail application. That is, the control unit 17 displays a plurality of characters using an electronic mail application.
  • the control unit 17 detects the contact (long press) on the character “waterproof mobile phone” among the characters displayed on the screen D11 by the detection unit 12. In response to this (screen D12), the input character “waterproof mobile phone” is selected. The character selected on the display unit 11 is displayed in reverse video (screen D13).
  • control unit 17 performs a process of starting the application A that edits the input character in response to selection of the input character “waterproof mobile phone”.
  • the control unit 17 stores The icon A1 (first image) of the memo pad application corresponding to the memo pad application (first function) is selected from the icons corresponding to the respective applications (plural functions) stored in the section 16 ( Screen D14).
  • the control unit 17 activates the notepad application while maintaining the display of the screen of the e-mail application.
  • the icon A1 to be selected is selected with a cursor or the like (screen D14).
  • control unit 17 continues the state where the input character “waterproof mobile phone” is selected on the screen D13, and causes the display unit 11 to display only the selected input character “waterproof mobile phone”.
  • the control unit 17 does not start the notepad application and selects the icon A1 of the notepad application. continue.
  • the control unit 17 replaces the icon A1 with the memo pad application among the icons corresponding to the plurality of applications.
  • the browser application icon A2 (second image) corresponding to a different browser application to be selected (screen D15).
  • the control unit 17 switches from the icon A1 to the browser application icon A2 corresponding to the activation of the browser application, and selects the icon A2. This state is continued (screen D15).
  • the control unit 17 continues the state where the input character “waterproof mobile phone” is selected on the screen D13, and causes the display unit 11 to display only the selected input character “waterproof mobile phone”.
  • the control unit 17 continues the state in which the browser application icon A2 is selected without starting the browser application when the input character “waterproof mobile phone” is still selected.
  • the browser application may be activated and the state in which the browser application icon A2 is selected may be continued.
  • the control unit 17 detects that the detection unit 12 detects the release of contact with the input character “waterproof mobile phone” by the user's finger, that is, the detection unit 12 causes the user's finger to be displayed on the display unit 11.
  • the input character “waterproof mobile phone” displayed on the display unit 11 is input to the search window in the initial screen of the browser application, and the browser application is Start up (screen D16).
  • control unit 17 indicates that the operation is not detected for a predetermined time in place of the detection unit 12 detecting an operation (second operation) for separating the user's finger from the surface of the display unit 11.
  • second operation for separating the user's finger from the surface of the display unit 11.
  • step S ⁇ b> 21 the control unit 17 determines whether or not the detection unit 12 has detected contact with the display unit 11 by the user's finger. If contact is detected (YES), the process proceeds to step S22. If no contact is detected (NO), the process of step S21 is repeated again.
  • step S22 the control unit 17 determines whether or not an icon is displayed at a location where contact is detected by the detection unit 12. If an icon is displayed at a location where contact is detected (YES), the process proceeds to step S23. If no icon is displayed at the location where contact is detected (NO), the process proceeds to step S24.
  • step S23 the control part 17 performs the function matched with the icon currently displayed on the location where contact was detected in step S22, and complete
  • step S24 the control unit 17 activates the long press timer and starts measuring time.
  • step S25 the control unit 17 determines whether or not the contact with the display unit 11 detected by the detection unit 12 has continued for a certain period of time, that is, whether or not the long press timer has expired. If the long press timer has expired (YES), the process proceeds to step S26. If the long press timer does not expire (NO), the process of step S25 is repeated again.
  • step S ⁇ b> 26 the control unit 17 sets the long press detection flag to “TRUE”.
  • step S27 the control unit 17 stops the long press timer.
  • step S ⁇ b> 28 the control unit 17 determines whether or not a character is displayed at a position where a long press is detected on the display unit 11. If a character is displayed (YES), the process proceeds to step S29. If no character is displayed (NO), the process is terminated.
  • step S29 the control unit 17 determines a character selected in sentence units (or word units, character units), and highlights the selected characters.
  • step S30 the control unit 17 determines whether or not an operation of shaking the main body of the mobile phone 1 is detected by the motion sensor 18. If an operation of shaking the main body of the mobile phone 1 is detected (YES), the process proceeds to step S31. If the operation of shaking the main body of the mobile phone 1 is not detected (NO), the process of step S30 is repeated again. In step S30, the control unit 17 may use a condition that the state in which no operation is detected by the motion sensor 18 and the operation unit 19 continues for a predetermined period or longer instead of the operation of shaking the main body of the mobile phone 1.
  • step S31 the control unit 17 determines whether or not the application A for editing characters is running. If the application A is being activated (YES), the process proceeds to step S33. If the application A is not activated (NO), the process proceeds to step S32.
  • step S ⁇ b> 32 the control unit 17 activates the application A stored in the storage unit 16.
  • step S ⁇ b> 33 the control unit 17 determines in which direction the direction in which the main body of the mobile phone 1 is shaken is shaken. If it is shaken toward the left, the process proceeds to step S34. If it is swung in the right direction, the process proceeds to step S35. If it is swung in a direction other than the left or right direction, the process is terminated.
  • step S34 the control unit 17 selects an application icon to be displayed on the display unit 11.
  • the control unit 17 starts the initial screen (standby screen) ⁇ the icon A1 of the notepad application ⁇ the browser application
  • the icon of the application to be selected is switched in the order of icon A2 ⁇ schedule application icon A3 ⁇ email application icon A4 ⁇ initial screen (standby screen).
  • step S35 the control unit 17 selects an application icon to be displayed on the display unit 11.
  • the control unit 17 sets an initial screen (standby screen) ⁇ e-mail application icon A4 ⁇ schedule application
  • the application icon to be selected is switched in the order of icon A3 ⁇ browser application icon A2 ⁇ notepad application icon A1 ⁇ initial screen (standby screen)...
  • step S36 the control unit 17 causes the application icon selected in step S34 or S35 to be selected with a cursor or the like (screen D15 in FIG. 6).
  • step S ⁇ b> 37 the control unit 17 determines whether or not the operation of releasing the user's finger from the surface of the display unit 11 (operation for releasing contact) is detected by the detection unit 12. If an operation for releasing the contact is detected (YES), the process proceeds to step S38. When the operation for releasing the contact is not detected (NO), the process of step S37 is repeated again.
  • step S38 the control unit 17 sets the long press detection flag to “FALSE”.
  • step S39 the control unit 17 causes the input character displayed on the display unit 11 to be input into the initial screen of the application associated with the selected icon, and starts the application (the screen of FIG. 6). D16).
  • FIG. 9 is a diagram illustrating a screen transition example displayed on the display unit 11 according to the third embodiment.
  • a standby screen (screen D21) is displayed on the display unit 11
  • the control unit 17 is assigned to an operation key when any one of the operation keys constituting the operation unit 19 is operated. Both the numbers and characters are input and displayed on the display unit 11.
  • the control unit 17 is an application that edits input characters when any one of the operation keys constituting the operation unit 19 is operated while the standby screen D21 as the initial screen is displayed. A process for starting A is performed, and the number “66666 * 1113311” assigned to the operation key by the application A is displayed (input) in the region R3, and the character “Blow” assigned to the operation key is displayed in the region R1. Is displayed (input). In addition, the control unit 17 displays the conversion candidates “waterproof” and “booster” of the input character “booster” in the region R2 (screen D22).
  • the control unit 17 inputs only the character “Busu” assigned to the operation key. You may make it display on area
  • the area R1 displayed on the upper stage of the display unit 11 is an area for mainly displaying characters
  • the area R2 displayed for interruption of the display unit 11 is an area for mainly displaying conversion candidates.
  • the region R3 displayed in the lower part of the part 11 is a region for mainly displaying numbers.
  • the input character “BOWUSUI” is selected in response to the selection of “BOUSUI” among the displayed characters and numbers.
  • the character selected on the display unit 11 is displayed in reverse video (screen D22).
  • control unit 17 performs a process of starting the application A that edits the input character in response to selection of the input character “BOWUSUI”.
  • the control unit 17 stores The screen (first image) of the memo pad application corresponding to the memo pad application (first function) among the plurality of applications (plural functions) stored in the unit 16 is displayed (screens D23 and D24).
  • the control unit 17 activates the notepad application from a screen on which characters, numbers, and conversion candidates are displayed. Is switched to the initial screen of the memo pad application corresponding to (screen D23), and the initial screen of the memo pad application is displayed on the display unit 11 (screen D24).
  • control unit 17 continues the state in which the input character “BOWUSUI” is selected in the screen D22, and displays only the selected input character “BOWUSUI” on the display unit 11.
  • the control unit 17 does not start the memo pad application and continues to display only the initial screen of the memo pad application when the input character “Busu” is still selected. To display.
  • the control unit 17 replaces the initial screen of the memo pad application with the memo pad application.
  • An initial screen (second image) of a browser application corresponding to a different browser application is displayed (screen D25).
  • the control unit 17 switches from the initial screen of the memo pad application to the initial screen of the browser application corresponding to the startup of the browser application, An initial screen of the browser application is displayed on the display unit 11 (screen D25).
  • the control unit 17 continues the state where the input character “BOWUSUI” is selected on the screen D22, and causes the display unit 11 to display only the selected input character “BOUSUI”.
  • the control unit 17 does not start the browser application and displays only the initial screen of the browser application on the display unit 11 when the state where the input character “BOWUSUI” is selected continues.
  • the browser application may be activated and an initial screen of the browser application may be displayed on the display unit 11.
  • the control unit 17 displays the input character “Busu” displayed on the display unit 11 in the initial screen of the browser application.
  • the browser application is activated by inputting in the search window (screen D26).
  • the mobile phone 1 switches from the standby screen to the initial screen of the memo pad application or browser application, and inputs the characters input on the display unit 11 to the memo pad application or browser application. It can be activated in the state of Therefore, the mobile phone 1 can easily use the characters input to the display unit 11 in an application that executes a desired function.
  • control unit 17 uses the character input in the region R1 for an application that executes a desired function, but based on the characters input in the region R1 and the numbers input in the region R3. Thus, it may be determined whether the user is inputting characters or numbers, and the order of switching the initial screen of the application may be changed according to the determination result.
  • the control unit 17 determines that the user is inputting the character, and the mobile phone 1
  • the motion sensor 18 detects an operation of shaking the main body in the left direction, the screen is switched to an initial screen of an application that mainly uses characters (for example, a notepad application).
  • the control unit 17 determines that the user has input a number, and the mobile phone 1
  • the screen is switched to an initial screen of an application (for example, a calculator application) mainly using numbers.
  • the mobile phone 1 determines whether the user is inputting characters or numbers, and changes the order of switching the initial screen of the application according to the determination result, thereby further improving the operability. Can be made.
  • the user may select either input characters or numbers using a cursor or the like.
  • FIG. 10 is a flowchart showing the internal processing of the example shown in FIG. It is assumed that the standby screen is displayed on the display unit 11.
  • step S ⁇ b> 40 the control unit 17 determines whether or not an operation of shaking the main body of the mobile phone 1 is detected by the motion sensor 18. If an operation of shaking the main body of the mobile phone 1 is detected (YES), the process proceeds to step S41. When the operation of shaking the main body of the mobile phone 1 is not detected (NO), the process of step S40 is repeated again.
  • the control unit 17 may use a condition that the state in which the operation is not detected by the motion sensor 18 and the operation unit 19 continues for a predetermined period or longer instead of the operation of shaking the main body of the mobile phone 1.
  • step S41 the control unit 17 determines whether or not the application A for editing characters is running. If the application A is being activated (YES), the process proceeds to step S43. If the application A is not active (NO), the process proceeds to step S42.
  • step S ⁇ b> 42 the control unit 17 activates the application A stored in the storage unit 16.
  • step S ⁇ b> 43 the control unit 17 determines in which direction the direction in which the main body of the mobile phone 1 is swung is directed. If it is shaken toward the left, the process proceeds to step S44. If it is swung in the right direction, the process proceeds to step S45. If it is swung in a direction other than the left or right direction, the process is terminated.
  • step S44 the control unit 17 selects an initial screen of the application to be displayed on the display unit 11.
  • the control unit 17 starts an initial screen (standby screen) ⁇ a notepad application ⁇ a browser application ⁇ a schedule application ⁇
  • the initial screen of the application to be displayed on the display unit 11 is switched in the order of e-mail application ⁇ initial screen (standby screen).
  • step S45 the control unit 17 selects an initial screen of an application to be displayed on the display unit 11.
  • the control unit 17 starts an initial screen (standby screen) ⁇ e-mail application ⁇ schedule application ⁇ browser application ⁇
  • the initial screen of the application to be displayed on the display unit 11 is switched in the order of notepad application ⁇ initial screen (standby screen)...
  • step S46 the control unit 17 displays the initial screen of the application selected in step S44 or step S45 on the display unit 11 (screen D24 or D25 in FIG. 9).
  • step S ⁇ b> 47 the control unit 17 determines whether or not the determination key constituting the operation unit 19 has been operated. If the enter key is operated (YES), the process proceeds to step S48. If the enter key is not operated (NO), the process of step S47 is repeated again.
  • step S48 the control unit 17 causes the input characters displayed on the display unit 11 to be input into the initial screen of the selected application, and activates the selected application (screen D26 in FIG. 9).
  • the mobile phone 1 as an electronic device has been described.
  • the present invention can also be applied to other electronic devices.
  • the electronic device of the present invention may be a digital camera, a PHS (registered trademark), a PDA (Personal Digital Assistant), a portable navigation device, a personal computer, a notebook computer, a portable game device, or the like.

Abstract

 簡易な操作により入力された文字を所望のアプリケーションに利用することが可能な電子機器及びその制御方法を提供すること。画面D5において、制御部17は、再度左方向に向かって振る操作がモーションセンサ18により検出されると、メモ帳アプリケーションの画面に代えて複数のアプリケーションのうち、メモ帳アプリケーションとは異なるブラウザアプリケーションに対応するブラウザアプリケーションの画面を表示させる。画面D6において、制御部17は、検出部12によりユーザの指を表示部11の表面から離す操作が検出された場合に、表示部11に表示されている入力文字「防水ケータイ」を、ブラウザアプリケーションの画面内の検索窓に入力させて、ブラウザアプリケーションを起動させる(画面D7)。

Description

電子機器及びその制御方法
 本発明は、電子機器及びその制御方法に関する。
 従来、表示部と操作部とを有する電子機器は、表示部に待ち受け画面が表示されている状態で操作部を操作すると、操作部に割り当てられている文字を入力して、表示部に表示する。そして、電子機器は、入力された文字が表示部に表示された状態で複数のアプリケーションのメニューの中から所望のアプリケーションを選択することにより、表示された文字を入力した状態で選択したアプリケーションを起動させていた(例えば、特許文献1参照)。
特開2007-200243号公報
 しかし、特許文献1に記載の電子機器では、所望のアプリケーションを起動させる場合に、ユーザが複数のアプリケーションのメニューの中から一のアプリケーションを選択する必要があり、複数の操作が必要であった。
 本発明は、簡易な操作により入力された文字を所望のアプリケーションに利用することが可能な電子機器及びその制御方法を提供することを目的とする。
 本発明に係る電子機器は、上記課題を解決するために、文字入力可能な複数の機能それぞれに対応する画像を表示する表示部と、前記複数の機能のうち第1の機能に対応する第1の画像が表示又は選択された状態で第1の操作が検出されると、前記第1の画像に代えて前記複数の機能のうち前記第1の機能とは異なる第2の機能に対応する第2の画像を表示又は選択させる制御部と、を備え、前記制御部は、前記第2の画像が表示又は選択された状態において、前記第1の操作とは異なる第2の操作が検出される、又は操作が検出されない状態が所定時間以上継続した場合に、入力文字を入力させた状態で前記第2の機能を起動させる。
 また、前記電子機器は、操作部をさらに備え、前記入力文字は、前記第1の画像が表示又は選択される直前に前記表示部に表示された文字であることが好ましい。
 また、前記制御部は、前記第1の画像として前記第1の機能の起動に対応する第1の画面が前記表示部に表示された状態で前記第1の操作が検出されると、前記第2の画像として前記第2の機能の起動に対応する第2の画面を前記表示部に表示させ、前記第2の画面が表示された状態において、前記第2の操作が検出される、又は操作が検出されない状態が前記所定時間以上継続した場合に、前記入力文字を入力させた状態で前記第2の機能を起動させることが好ましい。
 また、前記制御部は、前記第1の画像として前記第1の機能を起動させるための第1のアイコンが選択された状態で前記第1の操作が検出されると、前記第2の画像として前記第2の機能を起動させるための第2のアイコンを選択させ、前記第2のアイコンが選択された状態において、前記第2の操作が検出される、又は操作が検出されない状態が前記所定時間以上継続した場合に、前記入力文字を入力させた状態で前記第2の機能を起動させることが好ましい。
 また、前記制御部は、前記第2の画像が表示又は選択された状態において、前記第2の操作が検出される、又は操作が検出されない状態が前記所定時間以上継続した場合にのみ、前記第2の機能を起動させることが好ましい。
 また、前記第1の操作は、電子機器本体を所定方向に向かって振る操作であり、前記制御部は、前記電子機器本体が振られた方向に応じて、前記第1の画像及び前記第2の画像を前記表示部に表示させる順序を変更させることが好ましい。
 また、前記第1の操作は、前記表示部を摺動する操作であり、前記制御部は、前記表示部が摺動された方向に応じて、前記第1の画像及び前記第2の画像を前記表示部に表示させる順序を変更させることが好ましい。
 また、前記操作部は、一のキーに対して文字及び数字が割り当てられている複数の操作キーを備え、前記制御部は、前記表示部に待ち受け画面が表示された状態において、前記複数の操作キーのうちいずれかの操作キーが操作されると、当該操作キーに割り当てられる前記文字及び前記数字をそれぞれ入力して前記表示部に表示させ、表示させた前記文字又は前記数字のいずれを前記入力文字として入力させるかに応じて、前記第1の画像及び前記第2の画像を前記表示部に表示させる順序を変更させることが好ましい。
 本発明に係る電子機器の制御方法は、上記課題を解決するために、複数の機能のうち第1の機能に対応する第1の画像を表示又は選択させるステップと、第1の操作が検出されると、前記第1の画像に代えて前記複数の機能のうち前記第1の機能とは異なる第2の機能に対応する第2の画像を表示又は選択させるステップと、前記第2の画像が表示又は選択された状態において、前記第1の操作とは異なる第2の操作が検出される、又は操作が検出されない状態が所定時間以上継続した場合に、入力文字を入力させた状態で前記第2の機能を起動させるステップとを備える。
 本発明によれば、簡易な操作により入力された文字を所望のアプリケーションに利用することが可能な電子機器及びその制御方法を提供することができる。
実施形態に係る携帯電話機の外観斜視図である。 実施形態に係る携帯電話機の機能構成を示すブロック図である。 第1実施形態に係る表示部に表示される画面遷移例を示す図である。 図3に示す例の内部処理について示すフローチャート(1)である。 図3に示す例の内部処理について示すフローチャート(2)である。 第2実施形態に係る表示部に表示される画面遷移例を示す図である。 図6に示す例の内部処理について示すフローチャート(1)である。 図6に示す例の内部処理について示すフローチャート(2)である。 第3実施形態に係る表示部に表示される画面遷移例を示す図である。 図9に示す例の内部処理について示すフローチャートである。
 本発明の実施の形態を説明する。まず、本発明の電子機器の実施形態に係る携帯電話機1の基本構造を、図1を参照しながら説明する。図1は、実施形態に係る携帯電話機1の外観斜視図である。
 携帯電話機1は、筺体2を有する。筺体2は、タッチパネル10(操作部)と、マイク13と、スピーカ14とを有する。
 タッチパネル10は、表示部11と、検出部12とを有する(図2参照)。表示部11は、液晶表示パネル又は有機EL(エレクトロルミネッセンス)表示パネル等である。検出部12は、表示部11に対する携帯電話機1のユーザの指やタッチペン等の物体の接触を検出するセンサである。検出部12には、表示部11の表面に対応して配され、例えば、静電容量方式や抵抗膜方式等のセンサが利用可能である。
 マイク13は、携帯電話機1のユーザが通話時に発した音声を入力するために用いられる。
 スピーカ14は、携帯電話機1のユーザの通話相手が発した音声を出力するために用いられる。
 続いて、図2を参照しながら、本発明の実施形態に係る携帯電話機1の機能構成を説明する。図2は、実施形態に係る携帯電話機1の機能構成を示すブロック図である。
 携帯電話機1は、上述した、タッチパネル10(表示部11及び検出部12)と、マイク13と、スピーカ14とを有する。また、携帯電話機1は、通信部15と、記憶部16と、制御部17と、モーションセンサ18と、操作部19と、を有する。
 通信部15は、メインアンテナ(図示省略)とRF回路部(図示省略)とを有し、所定の連絡先に発信したり、通信したりする。通信部15が発信する連絡先は、例えば、警察や消防といった緊急連絡先である。また、通信部15が通信を行う通信先は、携帯電話機1と電話やメールの送受信を行う外部装置や、携帯電話機1がインターネットの接続を行う外部のwebサーバ等の外部装置等である。
 通信部15は、所定の使用周波数帯で外部装置と通信を行う。具体的には、通信部15は、上記のメインアンテナによって受信した信号を復調処理し、処理後の信号を制御部17に供給する。また、通信部15は、制御部17から供給された信号を変調処理し、上記のメインアンテナを介して外部装置(基地局)に送信する。
 記憶部16は、例えば、ワーキングメモリを含み、制御部17による演算処理に利用される。また、記憶部16は、携帯電話機1の内部で動作するアプリケーションやデータベースを1又は複数記憶する。なお、記憶部16は、着脱可能な外部メモリを兼ねていてもよい。
 制御部17は、携帯電話機1の全体を制御しており、表示部11及び通信部15に対して制御を行う。
 モーションセンサ18は、加速度センサ、ジャイロセンサ、地磁気センサ等のいずれか又はこれらを組み合わせて構成される。モーションセンサ18は、携帯電話機1の位置や、方向、動き等の変位を検出して、制御部17に送信する。
 操作部19は、複数の態様による操作を検出することができる。例えば、操作部19は、タッチパネル10上に表示される仮想的なキー(ソフトウェアキー)でもよく、筺体2に別途配置され、文字、数字、記号等が割り当てられている物理的なキーであってもよい。例えば、操作部19がタッチパネル10上に表示される仮想的なキーである場合に、操作部19は、接触操作や摺動操作といった複数の態様による操作を検出することができる。
<第1実施形態>
 第1実施形態に係る携帯電話機1は、表示部11に表示されている文字を利用してアプリケーションを起動させる機能を有している。以下、当該機能を実行させるための構成について説明する。
 図3は、第1実施形態に係る表示部11に表示される画面遷移例を示す図である。
 図3の画面D1において、制御部17は、電子メールアプリケーションにより受信メールを表示部11に表示させている。すなわち、制御部17は、電子メールアプリケーションにより複数の文字を表示させている。
 なお、本明細書において文字とは、平仮名文字、片仮名文字、漢字だけでなく、数字、英字、記号も含む。また、文字とは、一の文字だけでなく、文字列も含む。また、数字とは、数字だけでなく、電話発信に用いる文字(P(ポーズ)、‐(ハイフン)、*(アステリスク)、#(シャープ)等)も含む。また、数字とは、一の数字だけでなく、数字列も含む。
 画面D1において、すなわち、表示部11に文字が表示された状態において、制御部17は、画面D1に表示されている文字のうち文字「防水ケータイ」に対する接触(長押下)が検出部12により検出されたこと(画面D2)に応じて、入力文字「防水ケータイ」が選択される。表示部11において選択された文字は、反転表示される(画面D3)。
 また、制御部17は、入力文字「防水ケータイ」が選択されたことに応じて、入力される文字を編集するアプリケーションAを起動する処理を行う。
 画面D3において、制御部17は、携帯電話機1の本体を、表示部11を正面から見た場合における左方向に向かって振る操作(第1の操作)がモーションセンサ18により検出されると、記憶部16に記憶されている複数のアプリケーション(複数の機能)のうちメモ帳アプリケーション(第1の機能)に対応するメモ帳アプリケーションの画面(第1の画像)を表示させる(画面D4及びD5)。
 より詳細には、制御部17は、携帯電話機1の本体を左方向に向かって振る操作がモーションセンサ18により検出されると、電子メールアプリケーションの画面からメモ帳アプリケーションの起動に対応するメモ帳アプリケーションの初期画面に切り替わり(画面D4)、メモ帳アプリケーションの初期画面を表示部11に表示させる(画面D5)。
 画面D5において、制御部17は、画面D3において入力文字「防水ケータイ」が選択されている状態を継続し、かつ、選択されている入力文字「防水ケータイ」のみを表示部11に表示させる。また、画面D5において、制御部17は、入力文字「防水ケータイ」が選択されている状態が継続している場合に、メモ帳アプリケーションを起動させず、メモ帳アプリケーションの初期画面のみを表示部11に表示させてもよく、また、メモ帳アプリケーションを起動させて、メモ帳アプリケーションの初期画面を表示部11に表示させてもよい。
 続いて、画面D5において、制御部17は、再度左方向に向かって振る操作がモーションセンサ18により検出されると、メモ帳アプリケーションの初期画面に代えて複数のアプリケーションのうち、メモ帳アプリケーションとは異なるブラウザアプリケーションに対応するブラウザアプリケーションの初期画面(第2の画像)を表示させる(画面D6)。
 より詳細には、制御部17は、再度左方向に向かって振る操作がモーションセンサ18により検出されると、メモ帳アプリケーションの初期画面からブラウザアプリケーションの起動に対応するブラウザアプリケーションの初期画面に切り替わり、ブラウザアプリケーションの初期画面を表示部11に表示させる(画面D6)。
 画面D6において、制御部17は、画面D3において入力文字「防水ケータイ」が選択されている状態を継続し、かつ、選択されている入力文字「防水ケータイ」のみを表示部11に表示させる。また、画面D6において、制御部17は、入力文字「防水ケータイ」が選択されている状態が継続している場合に、ブラウザアプリケーションを起動させず、ブラウザアプリケーションの初期画面のみを表示部11に表示させてもよく、ブラウザアプリケーションを起動させて、ブラウザアプリケーションの初期画面を表示部11に表示させてもよい。
 続いて、画面D6において、制御部17は、ユーザの指による入力文字「防水ケータイ」に対する接触の解除が検出部12により検出されたこと、すなわち、検出部12によりユーザの指を表示部11の表面から離す操作(第2の操作)が検出された場合に、表示部11に表示されている入力文字「防水ケータイ」を、ブラウザアプリケーションの初期画面内の検索窓に入力させて、ブラウザアプリケーションを起動させる(画面D7)。
 また、画面D6において、制御部17は、検出部12によりユーザの指を表示部11の表面から離す操作(第2の操作)が検出されたことに代えて、操作が検出されない状態が所定時間以上継続した場合に、表示部11に表示されている入力文字「防水ケータイ」を、ブラウザアプリケーションの初期画面内の検索窓に入力させて、ブラウザアプリケーションを起動させてもよい(画面D7)。
 このように、第1実施形態によれば、携帯電話機1は、電子メールアプリケーションからメモ帳アプリケーション又はブラウザアプリケーションの初期画面に切り替えて、表示部11に入力された文字をメモ帳アプリケーション又はブラウザアプリケーションに入力させた状態で起動させることができる。したがって、携帯電話機1は、表示部11に入力された文字を所望の機能を実行するアプリケーションにおいて容易に利用することができる。
 また、携帯電話機1において、入力文字は、表示部11に表示されている文字のうち、操作部19による操作に応じて、選択された文字であってもよい。これにより、携帯電話機1は、入力文字が操作部19による操作に応じて選択された文字であるため、選択された入力文字を所望のアプリケーションにおいて容易に利用することができ、携帯電話機1の操作性を向上させることができる。
 また、制御部17は、メモ帳アプリケーション又はブラウザアプリケーションの初期画面が表示された状態において、検出部12によりユーザの指を表示部11の表面から離す操作が検出される、又は操作が検出されない状態が所定時間以上継続した場合に、入力文字を入力させた状態で、表示部11に表示されているメモ帳アプリケーション又はブラウザアプリケーションの初期画面に対応するメモ帳アプリケーション又はブラウザアプリケーションを起動させる。
 すなわち、携帯電話機1は、携帯電話機1の本体を左方向に向かって振る操作が検出されると、電子メールアプリケーションの画面からメモ帳アプリケーションの初期画面に切り替わり、ユーザの指を表示部11の表面から離す操作が検出される、又は操作が検出されない状態が所定時間以上継続すると、メモ帳アプリケーション又はブラウザアプリケーションの初期画面に対応するメモ帳アプリケーション又はブラウザアプリケーションを起動させる。これにより、携帯電話機1は、直感的な操作によって所望のアプリケーションに文字を入力させた状態で起動させることができる。
 また、制御部17は、メモ帳アプリケーション又はブラウザアプリケーションの初期画面が表示された状態において、ユーザの指を表示部11の表面から離す操作が検出される、又は操作が検出されない状態が所定時間以上継続した場合にのみ、表示部11に表示されている文字を入力文字として入力させて、メモ帳アプリケーション又はブラウザアプリケーションを起動させてもよい。これにより、携帯電話機1は、ユーザの指を表示部11の表面から離す操作が検出される、又は操作が検出されない状態が所定時間以上継続した場合以外には、メモ帳アプリケーション又はブラウザアプリケーションを起動させないため、ユーザが意図しないアプリケーションを起動させてしまうことを防止することができる。
 また、制御部17は、携帯電話機1本体が振られた方向に応じて、電子メールアプリケーション、メモ帳アプリケーション又はブラウザアプリケーションの初期画面を表示部11に表示させる順序を変更させてもよい。
 具体的には、制御部17は、携帯電話機1の本体が左方向に向かって振られることがモーションセンサ18により検出されるごとに、初期画面(待ち受け画面)→メモ帳アプリケーション→ブラウザアプリケーション→スケジュールアプリケーション→電子メールアプリケーション→初期画面(待ち受け画面)・・・の順序で表示部11に表示させるアプリケーションの初期画面を切り替える。
 一方、制御部17は、携帯電話機1の本体が右方向に向かって振られることがモーションセンサ18により検出されるごとに、初期画面(待ち受け画面)→電子メールアプリケーション→スケジュールアプリケーション→ブラウザアプリケーション→メモ帳アプリケーション→初期画面(待ち受け画面)・・・の順序、つまり、左方向に向かって振られた場合とは反対の順序で表示部11に表示させるアプリケーションの初期画面を切り替える。
 このように携帯電話機1は、携帯電話機1本体が振られた方向に応じて、電子メールアプリケーション、メモ帳アプリケーション又はブラウザアプリケーションの画面を表示部11に表示させる順序を変更させるため、直感的な操作によって電子メールアプリケーション、メモ帳アプリケーション又はブラウザアプリケーションの画面の表示を切り替えることができる。
 また、制御部17は、表示部11が摺動された方向に応じて、電子メールアプリケーション、メモ帳アプリケーション又はブラウザアプリケーションの画面を表示部11に表示させる順序を変更させてもよい。
 具体的には、制御部17は、タッチパネル10の表面が左方向に向かって摺動されたことが検出部12により検出されるごとに、初期画面(待ち受け画面)→メモ帳アプリケーション→ブラウザアプリケーション→スケジュールアプリケーション→電子メールアプリケーション→初期画面(待ち受け画面)・・・の順序で表示部11に表示させるアプリケーションの初期画面を切り替える。
 一方、制御部17は、タッチパネル10の表面が右方向に向かって摺動されたことが検出部12により検出されるごとに、初期画面(待ち受け画面)→電子メールアプリケーション→スケジュールアプリケーション→ブラウザアプリケーション→メモ帳アプリケーション→初期画面(待ち受け画面)・・・の順序、つまり、左方向に向かって摺動された場合とは反対の順序で表示部11に表示させるアプリケーションの初期画面を切り替える。
 また、検出部12により検出される摺動は、ごく短い期間の摺動(いわゆるフリック)でもよく、一定時間以上継続する摺動(いわゆるスワイプ)でもよい。又は、摺動操作ではなく、単にタッチパネル10の表面に接触する操作、すなわち、タッチ操作でもよい。
 このように携帯電話機1は、表示部11が摺動された方向又は表示部11への接触回数に応じて、第1の画像及び第2の画像を前記表示部に表示させる順序を変更させるため、直感的な操作によって電子メールアプリケーション、メモ帳アプリケーション又はブラウザアプリケーションの初期画面を切り替えることができる。
 図4及び図5は、図3に示す例の内部処理について示すフローチャートである。なお、文字入力が可能なアプリケーションにより文字が表示部11に表示されていることを前提とする。
 ステップS1において、制御部17は、検出部12により表示部11に対するユーザの指による接触が検出されたか否かを判定する。接触が検出された場合(YES)には、ステップS2へ進む。接触が検出されない場合(NO)には、再度ステップS1の処理を繰り返す。
 ステップS2において、制御部17は、検出部12により接触が検出された箇所にアイコンが表示されているか否かを判定する。接触が検出された箇所にアイコンが表示されている場合(YES)には、ステップS3へ進む。接触が検出された箇所にアイコンが表示されていない場合(NO)には、ステップS4へ進む。
 ステップS3において、制御部17は、ステップS2において接触が検出された箇所に表示されているアイコンに対応付けられている機能を実行し、処理を終了する。
 ステップS4において、制御部17は、長押しタイマーを起動して、時間の計測を開始する。
 ステップS5において、制御部17は、検出部12により検出される表示部11に対する接触が一定時間継続したか否か、すなわち、長押しタイマーが満了したか否かを判定する。長押しタイマーが満了した場合(YES)には、ステップS6へ進む。長押しタイマーが満了しない場合(NO)には、再度ステップS5の処理を繰り返す。
 ステップS6において、制御部17は、長押し検出フラグを「TRUE」に設定する。
 ステップS7において、制御部17は、長押しタイマーを停止する。
 ステップS8において、制御部17は、表示部11において長押しが検出された箇所に文字が表示されているか否かを判定する。文字が表示されている場合(YES)には、ステップS9へ進む。文字が表示されていない場合(NO)には、処理を終了する。
 ステップS9において、制御部17は、文章単位(又は単語単位、文字単位)で選択される文字を決定し、選択される文字を反転表示させる。
 ステップS10において、制御部17は、モーションセンサ18により携帯電話機1の本体を振る操作が検出されたか否かを判定する。携帯電話機1の本体を振る操作が検出された場合(YES)には、ステップS11へ進む。携帯電話機1の本体を振る操作が検出されない場合(NO)には、再度ステップS10の処理を繰り返す。なお、ステップS10において、制御部17は、携帯電話機1の本体を振る操作に代えて、モーションセンサ18及び操作部19により操作が検出されない状態が所定期間以上継続した場合を条件としてもよい。
 ステップS11において、制御部17は、文字を編集するアプリケーションAが起動中であるか否かを判定する。アプリケーションAが起動中である場合(YES)には、ステップS13へ進む。アプリケーションAが起動中でない場合(NO)には、ステップS12へ進む。
 ステップS12において、制御部17は、記憶部16に記憶されているアプリケーションAを起動させる。
 ステップS13において、制御部17は、携帯電話機1の本体が振られた方向がいずれの方向に向かって振られたか判定する。左方向に向かって振られた場合には、ステップS14へ進む。右方向に向かって振られた場合には、ステップS15へ進む。左又は右方向以外の方向に向かって振られた場合には、処理を終了する。
 ステップS14において、制御部17は、表示部11に表示させるアプリケーションの初期画面を選択する。ここで、制御部17は、携帯電話機1の本体が左方向に向かって振られることがモーションセンサ18により検出されるごとに、初期画面(待ち受け画面)→メモ帳アプリケーション→ブラウザアプリケーション→スケジュールアプリケーション→電子メールアプリケーション→初期画面(待ち受け画面)・・・の順序で表示部11に表示させるアプリケーションの初期画面を切り替える。
 ステップS15において、制御部17は、表示部11に表示させるアプリケーションの初期画面を選択する。ここで、制御部17は、携帯電話機1の本体が右方向に向かって振られることがモーションセンサ18により検出されるごとに、初期画面(待ち受け画面)→電子メールアプリケーション→スケジュールアプリケーション→ブラウザアプリケーション→メモ帳アプリケーション→初期画面(待ち受け画面)・・・の順序、つまり、ステップS14とは反対の順序で表示部11に表示させるアプリケーションの初期画面を切り替える。
 ステップS16において、制御部17は、ステップS14又はステップS15において選択されたアプリケーションの初期画面を表示部11に表示させる(図3の画面D5又はD6)。
 ステップS17において、制御部17は、検出部12によりユーザの指を表示部11の表面から離す操作(接触を解除する操作)が検出されたか否かを判定する。接触を解除する操作が検出された場合(YES)には、ステップS18へ進む。接触を解除する操作が検出されない場合(NO)には、再度ステップS17の処理を繰り返す。
 ステップS18において、制御部17は、長押し検出フラグを「FALSE」に設定する。
 ステップS19において、制御部17は、表示部11に表示されている入力文字を、選択されたアプリケーションの初期画面内に入力させて、選択されたアプリケーションを起動させる(図3の画面D7)。
 このように携帯電話機1は、選択されたアプリケーションの初期画面を切り替え、表示部11に入力された文字を選択されたアプリケーションの初期画面に入力させた状態で起動させることができる。したがって、携帯電話機1は、表示部11に入力された文字を所望の機能を実行するアプリケーションにおいて容易に利用することができる。
 次に、本発明の電子機器に係る第2の実施形態について説明する。第2の実施形態については、主として、第1実施形態とは異なる点を説明し、第1実施形態と同様の構成について同一符号を付し、説明を省略する。第2の実施形態について特に説明しない点については、第1実施形態についての説明が適宜適用される。
<第2実施形態>
 第2実施形態に係る携帯電話機1は、電子メールアプリケーション、メモ帳アプリケーション又はブラウザアプリケーションの初期画面に代えて、電子メールアプリケーション、メモ帳アプリケーション又はブラウザアプリケーションを起動させるためのアイコンを表示部11に表示させる点が第1実施形態とは異なる。
 図6は、第2実施形態に係る表示部11に表示される画面遷移例を示す図である。
 図6の画面D11において、制御部17は、電子メールアプリケーションにより受信メールを表示部11に表示させている。すなわち、制御部17は、電子メールアプリケーションにより複数の文字を表示させている。
 画面D11において、すなわち、表示部11に文字が表示された状態において、制御部17は、画面D11に表示されている文字のうち文字「防水ケータイ」に対する接触(長押下)が検出部12により検出されたこと(画面D12)に応じて、入力文字「防水ケータイ」が選択される。表示部11において選択された文字は、反転表示される(画面D13)。
 また、制御部17は、入力文字「防水ケータイ」が選択されたことに応じて、入力される文字を編集するアプリケーションAを起動する処理を行う。
 画面D13において、制御部17は、携帯電話機1の本体を、表示部11を正面から見た場合における左方向に向かって振る操作(第1の操作)がモーションセンサ18により検出されると、記憶部16に記憶されている複数のアプリケーション(複数の機能)それぞれに対応するアイコンのうちメモ帳アプリケーション(第1の機能)に対応するメモ帳アプリケーションのアイコンA1(第1の画像)を選択させる(画面D14)。
 より詳細には、制御部17は、携帯電話機1の本体を左方向に向かって振る操作がモーションセンサ18により検出されると、電子メールアプリケーションの画面の表示を維持した状態でメモ帳アプリケーションを起動させるためのアイコンA1をカーソル等により選択させる(画面D14)。
 画面D14において、制御部17は、画面D13において入力文字「防水ケータイ」が選択されている状態を継続し、かつ、選択されている入力文字「防水ケータイ」のみを表示部11に表示させる。また、画面D14において、制御部17は、入力文字「防水ケータイ」が選択されている状態が継続している場合に、メモ帳アプリケーションを起動させず、メモ帳アプリケーションのアイコンA1を選択した状態を継続する。
 続いて、画面D14において、制御部17は、再度左方向に向かって振る操作がモーションセンサ18により検出されると、アイコンA1に代えて複数のアプリケーションそれぞれに対応するアイコンのうち、メモ帳アプリケーションとは異なるブラウザアプリケーションに対応するブラウザアプリケーションのアイコンA2(第2の画像)を選択させる(画面D15)。
 より詳細には、制御部17は、再度左方向に向かって振る操作がモーションセンサ18により検出されると、アイコンA1からブラウザアプリケーションの起動に対応するブラウザアプリケーションのアイコンA2に切り替わり、アイコンA2を選択した状態を継続する(画面D15)。
 画面D15において、制御部17は、画面D13において入力文字「防水ケータイ」が選択されている状態を継続し、かつ、選択されている入力文字「防水ケータイ」のみを表示部11に表示させる。また、画面D15において、制御部17は、入力文字「防水ケータイ」が選択されている状態が継続している場合に、ブラウザアプリケーションを起動させず、ブラウザアプリケーションのアイコンA2を選択させた状態を継続させてもよく、ブラウザアプリケーションを起動させて、ブラウザアプリケーションのアイコンA2を選択させた状態を継続させてもよい。
 続いて、画面D15において、制御部17は、ユーザの指による入力文字「防水ケータイ」に対する接触の解除が検出部12により検出されたこと、すなわち、検出部12によりユーザの指を表示部11の表面から離す操作(第2の操作)が検出された場合に、表示部11に表示されている入力文字「防水ケータイ」を、ブラウザアプリケーションの初期画面内の検索窓に入力させて、ブラウザアプリケーションを起動させる(画面D16)。
 また、画面D15において、制御部17は、検出部12によりユーザの指を表示部11の表面から離す操作(第2の操作)が検出されたことに代えて、操作が検出されない状態が所定時間以上継続した場合に、表示部11に表示されている入力文字「防水ケータイ」を、ブラウザアプリケーションの初期画面内の検索窓に入力させて、ブラウザアプリケーションを起動させてもよい(画面D16)。
 図7及び8は、図6に示す例の内部処理について示すフローチャートである。なお、文字入力が可能なアプリケーションにより文字が表示部11に表示されていることを前提とする。
 ステップS21において、制御部17は、検出部12により表示部11に対するユーザの指による接触が検出されたか否かを判定する。接触が検出された場合(YES)には、ステップS22へ進む。接触が検出されない場合(NO)には、再度ステップS21の処理を繰り返す。
 ステップS22において、制御部17は、検出部12により接触が検出された箇所にアイコンが表示されているか否かを判定する。接触が検出された箇所にアイコンが表示されている場合(YES)には、ステップS23へ進む。接触が検出された箇所にアイコンが表示されていない場合(NO)には、ステップS24へ進む。
 ステップS23において、制御部17は、ステップS22において接触が検出された箇所に表示されているアイコンに対応付けられている機能を実行し、処理を終了する。
 ステップS24において、制御部17は、長押しタイマーを起動して、時間の計測を開始する。
 ステップS25において、制御部17は、検出部12により検出される表示部11に対する接触が一定時間継続したか否か、すなわち、長押しタイマーが満了したか否かを判定する。長押しタイマーが満了した場合(YES)には、ステップS26へ進む。長押しタイマーが満了しない場合(NO)には、再度ステップS25の処理を繰り返す。
 ステップS26において、制御部17は、長押し検出フラグを「TRUE」に設定する。
 ステップS27において、制御部17は、長押しタイマーを停止する。
 ステップS28において、制御部17は、表示部11において長押しが検出された箇所に文字が表示されているか否かを判定する。文字が表示されている場合(YES)には、ステップS29へ進む。文字が表示されていない場合(NO)には、処理を終了する。
 ステップS29において、制御部17は、文章単位(又は単語単位、文字単位)で選択される文字を決定し、選択される文字を反転表示させる。
 ステップS30において、制御部17は、モーションセンサ18により携帯電話機1の本体を振る操作が検出されたか否かを判定する。携帯電話機1の本体を振る操作が検出された場合(YES)には、ステップS31へ進む。携帯電話機1の本体を振る操作が検出されない場合(NO)には、再度ステップS30の処理を繰り返す。なお、ステップS30において、制御部17は、携帯電話機1の本体を振る操作に代えて、モーションセンサ18及び操作部19により操作が検出されない状態が所定期間以上継続した場合を条件としてもよい。
 ステップS31において、制御部17は、文字を編集するアプリケーションAが起動中であるか否かを判定する。アプリケーションAが起動中である場合(YES)には、ステップS33へ進む。アプリケーションAが起動中でない場合(NO)には、ステップS32へ進む。
 ステップS32において、制御部17は、記憶部16に記憶されているアプリケーションAを起動させる。
 ステップS33において、制御部17は、携帯電話機1の本体が振られた方向がいずれの方向に向かって振られたか判定する。左方向に向かって振られた場合には、ステップS34へ進む。右方向に向かって振られた場合には、ステップS35へ進む。左又は右方向以外の方向に向かって振られた場合には、処理を終了する。
 ステップS34において、制御部17は、表示部11に表示させるアプリケーションのアイコンを選択する。ここで、制御部17は、携帯電話機1の本体が左方向に向かって振られることがモーションセンサ18により検出されるごとに、初期画面(待ち受け画面)→メモ帳アプリケーションのアイコンA1→ブラウザアプリケーションのアイコンA2→スケジュールアプリケーションのアイコンA3→電子メールアプリケーションのアイコンA4→初期画面(待ち受け画面)・・・の順序で選択させるアプリケーションのアイコンを切り替える。
 ステップS35において、制御部17は、表示部11に表示させるアプリケーションのアイコンを選択する。ここで、制御部17は、携帯電話機1の本体が右方向に向かって振られることがモーションセンサ18により検出されるごとに、初期画面(待ち受け画面)→電子メールアプリケーションのアイコンA4→スケジュールアプリケーションのアイコンA3→ブラウザアプリケーションのアイコンA2→メモ帳アプリケーションのアイコンA1→初期画面(待ち受け画面)・・・の順序、つまり、ステップS34とは反対の順序で選択させるアプリケーションのアイコンを切り替える。
 ステップS36において、制御部17は、ステップS34又はステップS35において選択されたアプリケーションのアイコンをカーソル等により選択させる(図6の画面D15)。
 ステップS37において、制御部17は、検出部12によりユーザの指を表示部11の表面から離す操作(接触を解除する操作)が検出されたか否かを判定する。接触を解除する操作が検出された場合(YES)には、ステップS38へ進む。接触を解除する操作が検出されない場合(NO)には、再度ステップS37の処理を繰り返す。
 ステップS38において、制御部17は、長押し検出フラグを「FALSE」に設定する。
 ステップS39において、制御部17は、表示部11に表示されている入力文字を、選択されたアイコンに対応付けられているアプリケーションの初期画面内に入力させて、アプリケーションを起動させる(図6の画面D16)。
<第3実施形態>
 第3実施形態に係る携帯電話機1は、表示部11に待ち受け画面が表示された状態において、操作部19が操作されると、当該操作部19に割り当てられる文字及び数字をそれぞれ入力して表示部11に表示させる点が第1実施形態とは異なる。
 図9は、第3実施形態に係る表示部11に表示される画面遷移例を示す図である。
 制御部17は、表示部11に待ち受け画面(画面D21)が表示されている状態において、操作部19を構成する操作キーのうちいずれかの操作キーが操作された場合に、当該操作キーに割り当てられている数字及び文字を共に入力させて、表示部11に表示させる。
 制御部17は、初期画面としての待ち受け画面D21が表示されている状態において、操作部19を構成する操作キーのうちいずれかの操作キーが操作された場合に、入力される文字を編集するアプリケーションAを起動する処理を行い、アプリケーションAによって操作キーに割り当てられている数字「66666*11133311」を領域R3に表示(入力)させ、当該操作キーに割り当てられている文字「ぼうすい」を領域R1に表示(入力)させる。また、制御部17は、入力文字「ぼうすい」の変換候補「防水」及び「ぼうすい」を領域R2に表示させる(画面D22)。
 なお、制御部17は、初期画面として待ち受け画面D21が表示された状態において、操作キーの操作により入力文字「ぼうすい」が入力されると、操作キーに割り当てられる文字「ぼうすい」のみを入力させて表示部11の領域R1に表示させてもよい。また、表示部11の上段に表示される領域R1は、主に文字を表示させる領域であり、表示部11の中断に表示される領域R2は、主に変換候補を表示させる領域であり、表示部11の下段に表示される領域R3は、主に数字を表示させる領域である。
 画面D22において、表示されている文字及び数字のうち「ぼうすい」が選択されたことに応じて、入力文字「ぼうすい」が選択される。表示部11において選択された文字は、反転表示される(画面D22)。
 また、制御部17は、入力文字「ぼうすい」が選択されたことに応じて、入力された文字を編集するアプリケーションAを起動する処理を行う。
 画面D22において、制御部17は、携帯電話機1の本体を、表示部11を正面から見た場合における左方向に向かって振る操作(第1の操作)がモーションセンサ18により検出されると、記憶部16に記憶されている複数のアプリケーション(複数の機能)のうちメモ帳アプリケーション(第1の機能)に対応するメモ帳アプリケーションの画面(第1の画像)を表示させる(画面D23及びD24)。
 より詳細には、制御部17は、携帯電話機1の本体を左方向に向かって振る操作がモーションセンサ18により検出されると、文字、数字及び変換候補が表示される画面からメモ帳アプリケーションの起動に対応するメモ帳アプリケーションの初期画面に切り替わり(画面D23)、メモ帳アプリケーションの初期画面を表示部11に表示させる(画面D24)。
 画面D24において、制御部17は、画面D22において入力文字「ぼうすい」が選択されている状態を継続し、かつ、選択されている入力文字「ぼうすい」のみを表示部11に表示させる。また、画面24において、制御部17は、入力文字「ぼうすい」が選択されている状態が継続している場合に、メモ帳アプリケーションを起動させず、メモ帳アプリケーションの初期画面のみを表示部11に表示させる。
 続いて、画面D24において、制御部17は、再度左方向に向かって振る操作がモーションセンサ18により検出されると、メモ帳アプリケーションの初期画面に代えて複数のアプリケーションのうち、メモ帳アプリケーションとは異なるブラウザアプリケーションに対応するブラウザアプリケーションの初期画面(第2の画像)を表示させる(画面D25)。
 より詳細には、制御部17は、再度左方向に向かって振る操作がモーションセンサ18により検出されると、メモ帳アプリケーションの初期画面からブラウザアプリケーションの起動に対応するブラウザアプリケーションの初期画面に切り替わり、ブラウザアプリケーションの初期画面を表示部11に表示させる(画面D25)。
 画面D25において、制御部17は、画面D22において入力文字「ぼうすい」が選択されている状態を継続し、かつ、選択されている入力文字「ぼうすい」のみを表示部11に表示させる。また、画面D25において、制御部17は、入力文字「ぼうすい」が選択されている状態が継続している場合に、ブラウザアプリケーションを起動させず、ブラウザアプリケーションの初期画面のみを表示部11に表示させてもよく、ブラウザアプリケーションを起動させて、ブラウザアプリケーションの初期画面を表示部11に表示させてもよい。
 続いて、画面D25において、制御部17は、操作部19を構成する決定キーが操作された場合に、表示部11に表示されている入力文字「ぼうすい」を、ブラウザアプリケーションの初期画面内の検索窓に入力させて、ブラウザアプリケーションを起動させる(画面D26)。
 このように、第3実施形態によれば、携帯電話機1は、待ち受け画面からメモ帳アプリケーション又はブラウザアプリケーションの初期画面に切り替えて、表示部11に入力された文字をメモ帳アプリケーション又はブラウザアプリケーションに入力させた状態で起動させることができる。したがって、携帯電話機1は、表示部11に入力された文字を所望の機能を実行するアプリケーションにおいて容易に利用することができる。
 また、図9の例では、制御部17は、領域R1に入力された文字を所望の機能を実行するアプリケーションに利用したが、領域R1に入力される文字及び領域R3に入力される数字に基づいて、ユーザが文字又は数字を入力しているのか判定し、判定結果に応じてアプリケーションの初期画面を切り替える順序を変更してもよい。
 例えば、制御部17は、領域R1に入力された文字が記憶部16の辞書データベースに記憶されている文字と一致する場合には、ユーザが文字を入力していると判定し、携帯電話機1の本体を左方向に向かって振る操作がモーションセンサ18により検出されると、主に文字を用いるアプリケーション(例えば、メモ帳アプリケーション)の初期画面に切り替える。
 一方、制御部17は、領域R1に入力された文字が記憶部16の辞書データベースに記憶されている文字と一致しない場合には、ユーザが数字を入力していると判定し、携帯電話機1の本体を左方向に向かって振る操作がモーションセンサ18により検出されると、主に数字を用いるアプリケーション(例えば、電卓アプリケーション)の初期画面に切り替える。これにより、携帯電話機1は、ユーザが文字を入力しているか数字を入力しているかを判定して、その判定結果に応じてアプリケーションの初期画面を切り替える順序を変更するため、操作性をさらに向上させることができる。また、入力された文字又は数字のいずれかを用いるかユーザがカーソル等により選択してもよい。
 図10は、図9に示す例の内部処理について示すフローチャートである。なお、待ち受け画面が表示部11に表示されていることを前提とする。
 ステップS40において、制御部17は、モーションセンサ18により携帯電話機1の本体を振る操作が検出されたか否かを判定する。携帯電話機1の本体を振る操作が検出された場合(YES)には、ステップS41へ進む。携帯電話機1の本体を振る操作が検出されない場合(NO)には、再度ステップS40の処理を繰り返す。なお、ステップS40において、制御部17は、携帯電話機1の本体を振る操作に代えて、モーションセンサ18及び操作部19により操作が検出されない状態が所定期間以上継続した場合を条件としてもよい。
 ステップS41において、制御部17は、文字を編集するアプリケーションAが起動中であるか否かを判定する。アプリケーションAが起動中である場合(YES)には、ステップS43へ進む。アプリケーションAが起動中でない場合(NO)には、ステップS42へ進む。
 ステップS42において、制御部17は、記憶部16に記憶されているアプリケーションAを起動させる。
 ステップS43において、制御部17は、携帯電話機1の本体が振られた方向がいずれの方向に向かって振られたか判定する。左方向に向かって振られた場合には、ステップS44へ進む。右方向に向かって振られた場合には、ステップS45へ進む。左又は右方向以外の方向に向かって振られた場合には、処理を終了する。
 ステップS44において、制御部17は、表示部11に表示させるアプリケーションの初期画面を選択する。ここで、制御部17は、携帯電話機1の本体が左方向に向かって振られることがモーションセンサ18により検出されるごとに、初期画面(待ち受け画面)→メモ帳アプリケーション→ブラウザアプリケーション→スケジュールアプリケーション→電子メールアプリケーション→初期画面(待ち受け画面)・・・の順序で表示部11に表示させるアプリケーションの初期画面を切り替える。
 ステップS45において、制御部17は、表示部11に表示させるアプリケーションの初期画面を選択する。ここで、制御部17は、携帯電話機1の本体が右方向に向かって振られることがモーションセンサ18により検出されるごとに、初期画面(待ち受け画面)→電子メールアプリケーション→スケジュールアプリケーション→ブラウザアプリケーション→メモ帳アプリケーション→初期画面(待ち受け画面)・・・の順序、つまり、ステップS44とは反対の順序で表示部11に表示させるアプリケーションの初期画面を切り替える。
 ステップS46において、制御部17は、ステップS44又はステップS45において選択されたアプリケーションの初期画面を表示部11に表示させる(図9の画面D24又はD25)。
 ステップS47において、制御部17は、操作部19を構成する決定キーが操作されたか否かを判定する。決定キーが操作された場合(YES)には、ステップS48へ進む。決定キーが操作されない場合(NO)には、再度ステップS47の処理を繰り返す。
 ステップS48において、制御部17は、表示部11に表示されている入力文字を、選択されたアプリケーションの初期画面内に入力させて、選択されたアプリケーションを起動させる(図9の画面D26)。
 以上、本発明の実施形態について説明したが、本発明は上述した実施形態に制限されるものではなく、適宜変更が可能である。
 また、上述した実施形態において、電子機器としての携帯電話機1について説明したが、他の電子機器にも適用可能である。例えば、本発明の電子機器は、デジタルカメラ、PHS(登録商標;Personal Handy phone System)、PDA(Personal Digital Assistant)、ポータブルナビゲーション装置、パソコン、ノートパソコン、携帯ゲーム装置等であってもよい。
 1 携帯電話機(電子機器)
 10 タッチパネル(操作部)
 11 表示部
 12 検出部
 17 制御部

Claims (9)

  1.  文字入力可能な複数の機能それぞれに対応する画像を表示する表示部と、
     前記複数の機能のうち第1の機能に対応する第1の画像が表示又は選択された状態で第1の操作が検出されると、前記第1の画像に代えて前記複数の機能のうち前記第1の機能とは異なる第2の機能に対応する第2の画像を表示又は選択させる制御部と、を備え、
     前記制御部は、前記第2の画像が表示又は選択された状態において、前記第1の操作とは異なる第2の操作が検出される、又は操作が検出されない状態が所定時間以上継続した場合に、入力文字を入力させた状態で前記第2の機能を起動させる電子機器。
  2.  操作部をさらに備え、
     前記入力文字は、前記第1の画像が表示又は選択される直前に前記表示部に表示された文字である請求項1に記載の電子機器。
  3.  前記制御部は、
      前記第1の画像として前記第1の機能の起動に対応する第1の画面が前記表示部に表示された状態で前記第1の操作が検出されると、前記第2の画像として前記第2の機能の起動に対応する第2の画面を前記表示部に表示させ、
      前記第2の画面が表示された状態において、前記第2の操作が検出される、又は操作が検出されない状態が前記所定時間以上継続した場合に、前記入力文字を入力させた状態で前記第2の機能を起動させる請求項1に記載の電子機器。
  4.  前記制御部は、
      前記第1の画像として前記第1の機能を起動させるための第1のアイコンが選択された状態で前記第1の操作が検出されると、前記第2の画像として前記第2の機能を起動させるための第2のアイコンを選択させ、
      前記第2のアイコンが選択された状態において、前記第2の操作が検出される、又は操作が検出されない状態が前記所定時間以上継続した場合に、前記入力文字を入力させた状態で前記第2の機能を起動させる請求項1に記載の電子機器。
  5.  前記制御部は、
      前記第2の画像が表示又は選択された状態において、前記第2の操作が検出される、又は操作が検出されない状態が前記所定時間以上継続した場合にのみ、前記第2の機能を起動させる請求項1に記載の電子機器。
  6.  前記第1の操作は、電子機器本体を所定方向に向かって振る操作であり、
     前記制御部は、前記電子機器本体が振られた方向に応じて、前記第1の画像及び前記第2の画像を前記表示部に表示させる順序を変更させる請求項1に記載の電子機器。
  7.  前記第1の操作は、前記表示部を摺動する操作であり、
     前記制御部は、前記表示部が摺動された方向に応じて、前記第1の画像及び前記第2の画像を前記表示部に表示させる順序を変更させる請求項1に記載の電子機器。
  8.  前記操作部は、一のキーに対して文字及び数字が割り当てられている複数の操作キーを備え、
     前記制御部は、前記表示部に待ち受け画面が表示された状態において、前記複数の操作キーのうちいずれかの操作キーが操作されると、当該操作キーに割り当てられる前記文字及び前記数字をそれぞれ入力して前記表示部に表示させ、表示させた前記文字又は前記数字のいずれを前記入力文字として入力させるかに応じて、前記第1の画像及び前記第2の画像を前記表示部に表示させる順序を変更させる請求項2に記載の電子機器。
  9.  複数の機能のうち第1の機能に対応する第1の画像を表示又は選択させるステップと、
     第1の操作が検出されると、前記第1の画像に代えて前記複数の機能のうち前記第1の機能とは異なる第2の機能に対応する第2の画像を表示又は選択させるステップと、
     前記第2の画像が表示又は選択された状態において、前記第1の操作とは異なる第2の操作が検出される、又は操作が検出されない状態が所定時間以上継続した場合に、入力文字を入力させた状態で前記第2の機能を起動させるステップとを備える電子機器の制御方法。
PCT/JP2011/068119 2010-08-11 2011-08-09 電子機器及びその制御方法 WO2012020751A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US13/814,863 US20130135200A1 (en) 2010-08-11 2011-08-09 Electronic Device and Method for Controlling Same

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2010180640A JP2012038271A (ja) 2010-08-11 2010-08-11 電子機器及びその制御方法
JP2010-180640 2010-08-11

Publications (1)

Publication Number Publication Date
WO2012020751A1 true WO2012020751A1 (ja) 2012-02-16

Family

ID=45567714

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2011/068119 WO2012020751A1 (ja) 2010-08-11 2011-08-09 電子機器及びその制御方法

Country Status (3)

Country Link
US (1) US20130135200A1 (ja)
JP (1) JP2012038271A (ja)
WO (1) WO2012020751A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104035564A (zh) * 2014-06-25 2014-09-10 中科创达软件股份有限公司 一种浏览器页面控制方法及装置

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20140044881A (ko) * 2011-08-05 2014-04-15 톰슨 라이센싱 비디오 피킹
JP5737277B2 (ja) 2012-12-13 2015-06-17 カシオ計算機株式会社 情報表示装置及びプログラム
JP5740015B1 (ja) 2014-02-06 2015-06-24 ヤフー株式会社 端末装置、格納方法および情報処理プログラム
JP2016057860A (ja) * 2014-09-10 2016-04-21 Necパーソナルコンピュータ株式会社 情報処理装置及びプログラム
JP6378118B2 (ja) * 2015-03-13 2018-08-22 ヤフー株式会社 端末装置、格納方法および情報処理プログラム
JP5881878B2 (ja) * 2015-03-13 2016-03-09 ヤフー株式会社 端末装置、格納方法および情報処理プログラム
JP6141349B2 (ja) * 2015-04-16 2017-06-07 本田技研工業株式会社 プログラム及びアプリケーション制御方法
JP6408538B2 (ja) * 2016-11-28 2018-10-17 Kddi株式会社 表示制御方法、電子機器、表示制御用プログラム及び表示制御システム
KR20180080484A (ko) * 2017-01-04 2018-07-12 엘지전자 주식회사 이동 단말기
JP6466993B2 (ja) * 2017-04-28 2019-02-06 シャープ株式会社 表示装置
JP6702627B2 (ja) * 2018-07-26 2020-06-03 ヤフー株式会社 端末装置、格納方法および情報処理プログラム

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002330210A (ja) * 2001-02-27 2002-11-15 Nec Saitama Ltd 携帯端末
JP2003348273A (ja) * 2002-05-23 2003-12-05 Canon Inc 画像形成装置および画像形成装置における機能切替方法
JP2005339420A (ja) * 2004-05-31 2005-12-08 Sony Corp 車載装置、車載装置の情報提供方法、車載装置の情報提供方法のプログラム及び車載装置の情報提供方法のプログラムを記録した記録媒体
JP2007200243A (ja) * 2006-01-30 2007-08-09 Kyocera Corp 携帯端末装置、携帯端末装置の制御方法及びプログラム

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003241879A (ja) * 2002-02-14 2003-08-29 Sharp Corp 情報処理システム
WO2007057918A2 (en) * 2005-09-09 2007-05-24 Innomedia Technologies Pvt. Ltd. A hand-held thumb touch typable ascii/unicode keypad for a remote, mobile telephone or a pda
JP5658144B2 (ja) * 2008-05-28 2015-01-21 グーグル・インコーポレーテッド 視覚ナビゲーション方法、システム、およびコンピュータ可読記録媒体
US20110246944A1 (en) * 2010-04-06 2011-10-06 Google Inc. Application-independent text entry

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002330210A (ja) * 2001-02-27 2002-11-15 Nec Saitama Ltd 携帯端末
JP2003348273A (ja) * 2002-05-23 2003-12-05 Canon Inc 画像形成装置および画像形成装置における機能切替方法
JP2005339420A (ja) * 2004-05-31 2005-12-08 Sony Corp 車載装置、車載装置の情報提供方法、車載装置の情報提供方法のプログラム及び車載装置の情報提供方法のプログラムを記録した記録媒体
JP2007200243A (ja) * 2006-01-30 2007-08-09 Kyocera Corp 携帯端末装置、携帯端末装置の制御方法及びプログラム

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104035564A (zh) * 2014-06-25 2014-09-10 中科创达软件股份有限公司 一种浏览器页面控制方法及装置

Also Published As

Publication number Publication date
JP2012038271A (ja) 2012-02-23
US20130135200A1 (en) 2013-05-30

Similar Documents

Publication Publication Date Title
WO2012020751A1 (ja) 電子機器及びその制御方法
JP5184018B2 (ja) 電子機器
JP5739131B2 (ja) 携帯電子機器、携帯電子機器の制御方法及びプログラム
JP4853302B2 (ja) 携帯端末用コマンド入力装置および携帯端末用コマンド入力方法
JP5822662B2 (ja) 携帯電子機器、携帯電子機器の制御方法及びプログラム
KR20080111484A (ko) 기호 입력을 위한 전자 장치 및 방법
JP5547466B2 (ja) 携帯電子機器及び携帯電子機器の制御方法
JP5679782B2 (ja) 携帯電子機器、画面制御方法および画面制御プログラム
JP4285740B2 (ja) 携帯型情報入力装置
JP2006279361A (ja) 携帯端末装置及び携帯端末装置用プログラム
JPWO2009050941A1 (ja) 携帯端末および操作部表示方法
JP5755944B2 (ja) 電子機器、その制御方法及び制御プログラム
JP5875937B2 (ja) 携帯電子機器及び入力方法
JP5667632B2 (ja) 電子機器及びその制御方法
WO2011093409A1 (ja) 携帯端末装置及び表示制御方法
WO2010035774A1 (ja) 電子機器
JP2013138438A (ja) 電子機器
JP2012084086A (ja) 携帯電子機器、携帯電子機器の制御方法及びプログラム
JP2011146891A (ja) 携帯電子機器、及びその文字入力方法
JP5176342B2 (ja) 携帯電話機、その操作方法およびプログラム
JP2010113564A (ja) 端末装置及びプログラム
US8860662B2 (en) Electronic device
JP5751870B2 (ja) 電子機器、電子機器の制御方法及びプログラム
JP5352417B2 (ja) 電子機器及びアプリケーションの起動方法
KR101221891B1 (ko) 이동통신 단말기에서의 메뉴 표시 방법, 및 그 방법을구현하기 위한 이동통신 단말기

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 11816415

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 13814863

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 11816415

Country of ref document: EP

Kind code of ref document: A1