WO2005116811A1 - タッチパネル装置、カーナビゲーション装置、タッチパネル制御方法、タッチパネル制御プログラムおよび記録媒体 - Google Patents

タッチパネル装置、カーナビゲーション装置、タッチパネル制御方法、タッチパネル制御プログラムおよび記録媒体 Download PDF

Info

Publication number
WO2005116811A1
WO2005116811A1 PCT/JP2005/004779 JP2005004779W WO2005116811A1 WO 2005116811 A1 WO2005116811 A1 WO 2005116811A1 JP 2005004779 W JP2005004779 W JP 2005004779W WO 2005116811 A1 WO2005116811 A1 WO 2005116811A1
Authority
WO
WIPO (PCT)
Prior art keywords
touch
input
touch panel
display
touch input
Prior art date
Application number
PCT/JP2005/004779
Other languages
English (en)
French (fr)
Inventor
Koji Koga
Kenichiro Yano
Original Assignee
Pioneer Corporation
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Pioneer Corporation filed Critical Pioneer Corporation
Priority to JP2006513815A priority Critical patent/JPWO2005116811A1/ja
Publication of WO2005116811A1 publication Critical patent/WO2005116811A1/ja

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3664Details of the user input interface, e.g. buttons, knobs or sliders, including those provided on a touch screen; remote controllers; input using gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04886Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures by partitioning the display area of the touch-screen or the surface of the digitising tablet into independently controllable areas, e.g. virtual keyboards or menus
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B29/00Maps; Plans; Charts; Diagrams, e.g. route diagram
    • G09B29/10Map spot or coordinate position indicators; Map reading aids

Definitions

  • Touch panel device car navigation device, touch panel control method, touch panel control program, and recording medium
  • the present invention relates to a touch panel device, a car navigation device, a touch panel control method, a touch panel control program, and a recording medium.
  • the touch panel device can operate a function assigned to a button at a touched position by touching the display screen with a finger.
  • a driver who is a user, can select a button by groping without looking at a display screen for safe driving.
  • a configuration in which a different vibration or sound is generated and notified for each button is disclosed (for example, the following). See Patent Document 1.) o
  • Tatsuchi to Tatsuchipaneru discloses having a structure for performing the previous operation (e.g., see below Patent Document 2.) 0 that button when this technique was Tatsuchi Is now notified by voice whether the function is enabled or disabled! /
  • Patent Document 1 Japanese Patent Application Laid-Open No. 2002-149312
  • Patent Document 2 Japanese Utility Model Application Laid-Open No. 3-78335
  • Patent Document 1 While the technique disclosed in Patent Document 1 can be used to search for various buttons with blind touch, it is necessary to further push in to enable the function of the button found by groping. It is necessary to detect button press with. For this reason, a touch panel for detecting a groping touch and a touch panel for detecting pressing of a button must be provided, respectively, as an example.
  • the touch panel device includes a display unit that displays a screen including a selection area for operation, and a display unit that is displayed on the display unit.
  • Input means for detecting a touch input to the selected area
  • notification means for generating notification information set for each of the selected areas based on detection of the touch input by the input means, and This is a control instruction for the set operation, and is set in the selected area when it is detected that the single touch input has been released after the single touch input has been detected by the input means.
  • Operation control means for controlling and instructing the first operation.
  • a car navigation device is mounted on a vehicle, and in a car navigation device that guides a travel route of the vehicle, an operation selection for planning the travel route.
  • Display means for displaying a screen including an area; input means for detecting a touch input on the selected area displayed on the display means; and detecting the touch input by the input means for each of the selected areas.
  • the notifying means for generating the set notifying information, and controlling and instructing the operation set for each of the selected areas, and the touch means detects the touch once by the input means.
  • operation control means for instructing the first operation set in the selected area when detecting that the input has been released.
  • a touch panel control method provides a touch panel control method comprising: a display step of displaying a screen including a selection area for operation; and a touch input to the selection area displayed in the display step.
  • a touch panel control program causes a computer to execute the touch panel control method according to the twelfth aspect.
  • a computer-readable recording medium records the touch panel control program according to claim 14.
  • FIG. 1 is a block diagram showing a configuration of a touch panel device.
  • FIG. 2 is a block diagram showing an internal configuration of a control unit.
  • FIG. 3 is a diagram showing a display screen of the touch panel device.
  • FIG. 4 is a flowchart showing an operation content according to the first embodiment.
  • FIG. 5 is a flowchart showing an outline of an operation in a continuous touch mode according to the second embodiment.
  • FIG. 6 is a flowchart showing an operation of scrolling a map in a continuous touch mode according to the second embodiment.
  • FIG. 7 is a diagram showing a display screen when the map is scrolled by executing the process of FIG. 6 (part 1).
  • FIG. 8 is a diagram showing a display screen when the map is scrolled by executing the process of FIG. 6 (part 2).
  • FIG. 9 is a diagram showing a display screen when the map is scrolled by executing the process of FIG. 6 (part 3).
  • FIG. 10 is a flowchart showing the operation of changing the scale in the continuous touch mode according to the second embodiment.
  • FIG. 11 is a diagram showing a display screen when a scale is changed by executing the process of FIG. 10 (part 1).
  • FIG. 12 is a diagram showing a display screen when a scale is changed by executing the process of FIG. 10 (part 2).
  • FIG. 13 is a diagram showing a display screen when a scale is changed by executing the process of FIG. 10 ( Explanation of reference numerals
  • FIG. 1 is a block diagram showing a configuration of the touch panel device.
  • the touch panel device 1 includes a control unit (CPU) 2 for controlling the entire operation of the touch panel device, a storage unit including a ROM for storing a program for operating the control unit 2 and a RAM for temporarily storing data during control. (Touch memory) 3, an input unit 4 and a display unit 5 that constitute a touch panel, and a drive unit 6 that is driven by using vibration and sound when inputting an operation (touch) of the touch panel.
  • Reference numeral 7 denotes a bus for connecting each unit.
  • the touch panel is configured by arranging a transparent sheet-like switch constituting the input unit 4 on the display screen of the display unit 5 in an overlapping manner.
  • a matrix-type optical sensor or the like that detects the movement of the finger on the display screen of the display unit 5 (position on the display screen and pressed state).
  • Various keys and screens are displayed on the display screen of display 5. For example, when a finger is pressed (touched) at a location where a key is displayed, the transparent sheet-like key switch detects the touch at this location and outputs an operation signal.
  • the key switch can detect the touch position (operation area) in a vertical and horizontal matrix.
  • the input unit 4 outputs a signal indicating a key touch state (ON / OFF) and an operation area as an operation signal.
  • the input unit 4 may be provided at a different position that is not necessarily required to be arranged on the display screen of the display unit 5.
  • the input unit 4 may be separately provided at a position where the user (driver) can easily operate, unlike the arrangement position of the display unit 5 of the car navigation device.
  • the control unit 2 is set so that the arrangement position of the keys and the like on the display screen of the display unit 5 and the touch position of the keys on the input unit 4 match.
  • the driving unit 6 can be connected to a part of a touch panel, and connected to an actuator 8 for vibrating the touch panel and a speaker 9 for generating sound.
  • the drive unit 6 outputs a drive signal to the actuator 8 for causing the actuator 8 to vibrate at various frequencies.
  • a driving signal for generating sounds of various frequencies is output from the speaker 9.
  • the driving unit 6, the actuator 8, and the speaker 9 constitute a notifying means for notifying the user by vibration or sound.
  • FIG. 2 is a block diagram showing an internal configuration of the control unit.
  • An operation signal when the input unit 4 is touched is input to the control unit 2.
  • the operation state detection unit 11 detects an operation state (ON / OFF state) of an operation signal input from the input unit 4.
  • the operation area detection unit 12 detects an operation area when an on / off operation is performed based on an operation signal input from the input unit 4.
  • the operation control unit 13 receives the operation state detected by the operation state detection unit 11 and information on the operation area detected by the operation area detection unit 12.
  • the drive control unit 13a generates a drive signal corresponding to the combination of the operation state and the operation area, and supplies the drive signal to the drive unit 6.
  • the display control unit 13b generates a display signal to be displayed on the display unit 5 according to the combination of the operation state and the operation area.
  • the touch panel device according to the present invention can be used for a car navigation device mounted on a vehicle, a PDA, a mobile phone, a personal computer (PC), and the like.
  • Example 1 each embodiment of the control operation executed by the control unit 2 will be described. In the first embodiment, a description will be given of a configuration in which a desired key or the like is groped and selected.
  • FIG. 3 is a diagram showing a display screen of the touch panel device. On the display screen 30 of the display unit 5 shown in the figure, a navigation screen by the car navigation device is displayed. The vehicle 31 is indicated by a triangle ( ⁇ ) symbol, and is displayed together with the road 32 on which the vehicle 31 runs. In addition, the display screen 30 displays various keys 33 (33a-33g) for performing navigation operations.
  • the key 33a is a key for increasing the scale of the map displayed on the display screen to a wide area
  • the key 33b is a key for increasing the scale of the map
  • 33c is a key for displaying the current map. Is displayed, and the scale of the map is displayed, and is displayed in a distance unit (100 m in the illustrated example).
  • the key 33d is a key for displaying or hiding various keys.
  • New (MENU) key is a key for quick route search for searching the traveling route of the vehicle 31
  • the key 33f is a key for registering the current position of the vehicle 31
  • the key 33g is a key for registering a current position of the vehicle 31.
  • the menu key is on, and by operating the key 33d displayed as menu off (MENU OFF), these keys 33a-33g can be switched to the non-display state.
  • a plurality of areas 35 (35a-35c) having different area areas around the current position of the vehicle 31 are set, which are located substantially at the center of the display screen 30!
  • the areas 35a to 35c are vibration regions in which the actuator 8 vibrates based on a drive signal of the drive unit 6 which is not a display device, and is brought into a different vibration state.
  • the vibration area includes a vehicle 31 and a plurality of keys 33a to 33g.
  • the areas 35a to 35c, the vehicle 31 portion, the road 32 to be driven, and the plurality of keys 33a to 33g are all vibrated in different vibration patterns. For example, it can be set so that all the vibration patterns have different vibration frequencies and are continuously vibrated.
  • a configuration is adopted in which intermittent vibration is applied, and the period (period) of vibration and non-vibration in each vibration region, and the vibration amount S during vibration are set differently.
  • the vibration is not limited to the vibration of each vibration area, but may be performed when each area or key is operated.
  • a different voice may be output from the speaker 9 for each of these areas and keys.
  • different vibrations and different voices are output for each vibration area.
  • the display range of the keys 33a to 33g is set to be narrow in a rectangular shape.
  • the touched position moves slightly and the vibration pattern becomes different from the range of the keys 33a-33g.
  • areas 35a-35b have a wider range of the same vibration pattern. The user can easily determine whether the touched location is the key 33a-33g or the area 35a-35c by the change in the vibration pattern when touched.
  • FIG. 4 is a flowchart showing the operation content according to the first embodiment.
  • the operation state detection unit 11 waits for a touch input (step S1: No loop), and if there is a touch input (step S1: Yes), the operation area detection unit 12 detects the corresponding operation area.
  • the drive control unit 13a generates a drive signal of a vibration pattern of a vibration area corresponding to the operation area and outputs the signal to the drive unit 6.
  • the touch panel is vibrated in a vibration pattern set corresponding to the touch position (step S2).
  • Step S3 it is determined whether or not the force has been released from the touch input.
  • Step S3: Yes the vibration of the touch position is stopped (Step S4), the operation of the operation content set at the touch position is executed (Step S5), and the control is terminated. I do.
  • step S3 when the state where the touch input has not been released continues (step S3: No), it is determined that the touch position has been changed (step S6). If the touch position is changed while touch input is being performed (Step S6: Yes), the process returns to Step S2, and the touch panel is vibrated in the vibration pattern set at the new touch position. If there is no change in the touch position in step S6 (step S6: No), the process returns to step S3 to determine the release of the touch input.
  • step S2 causes the touch panel to vibrate in a vibration pattern unique to the key 33a and to be transmitted to the user's finger.
  • step S6 When the touch position is changed to the key 33b in the state, the key 33b vibrates in a vibration pattern unique to the key 33b and is transmitted to the finger.
  • the user can know only by touching that the area at the touched position has changed. Therefore, the user can groping for the operation position (blind touch) by sensuously receiving the change in the vibration pattern transmitted to the finger without looking at the display screen 30 of the content to be operated.
  • the operation set at the touch position is executed by executing step S5.
  • the display control unit 13b executes a process of displaying the display screen 30 in one-step detail (partial enlargement) and outputs the display to the display unit 5.
  • the operation in the areas 35a to 35c changes the display position so that, when the touch force is released, the position touched by the finger moves to the center of the display screen 30 (the position of the vehicle 31). be able to.
  • the touch panel vibrates in a different vibration pattern for each position, and this vibration is caused by the finger.
  • a plurality of operations can be selected and executed based on the vibration corresponding to the desired operation received by the user.
  • the user can fumble and select the desired operation key or the like without touching the display screen 30 and execute the operation.
  • a different sound is used for each touch position, or a groping operation can be performed in a configuration in which the vibration and the sound are used together.
  • the second embodiment is a modification of the touch input described in the first embodiment, and describes a process executed when the number of touches is performed twice within a predetermined time (referred to as a continuous touch mode).
  • the internal configuration and the like of the control unit 2 in the second embodiment are the same as those in the first embodiment (FIG. 2), and a description thereof will be omitted.
  • FIG. 5 is a flowchart showing an outline of an operation in the continuous touch mode according to the second embodiment.
  • step S11 and step S16 are the same as step S1 step S6 described in the first embodiment.
  • the operation state detection unit 11 waits for a touch input (step Sl: No loop), and if there is a touch input (step SI1: Yes), the operation area detection unit 12 The operation area to be detected is detected.
  • the drive control unit 13a generates a drive signal of a vibration pattern of the vibration area corresponding to the operation area, and outputs the drive signal to the drive unit 6.
  • the touch panel is vibrated in a vibration pattern set corresponding to the touch position (step S12).
  • Step S13 it is determined whether or not the force has been released from the touch input.
  • Step S13: Yes the touch input is released (Step S13: Yes)
  • the vibration of the touch position is stopped (Step S14)
  • the operation of the operation content set at the touch position is executed (Step S15). Execute
  • step S13 when the state where the touch input is not released continues (step S13: No), it is determined that the touch position has been changed (step S16). If the touch position is changed while the touch is being input (step S16: Yes), the process returns to step S12, and the touch panel is vibrated in the vibration pattern set at the new touch position. If there is no change in the touch position in step S16 (step S16: No), the process returns to step S13 to determine the release of the touch input.
  • step S17 the execution of the continuous touch mode is determined in step S17 and subsequent steps.
  • step S13: Yes it is determined again whether or not the touch input is made within a predetermined time (step S17). If there is no touch input again within a predetermined time (step S17: No), the process is terminated without executing the continuous touch mode.
  • step S18 If there is a touch input again within a predetermined time (step S17: Yes), the continuous touch mode is executed (step S18).
  • the continuous touch mode an operation of a preset operation content is executed during a period in which a second touch (pressed state with a finger) is continuous.
  • the operation performed at this time is another process different from the process in step S15.
  • step S19: No loop After that, it waits for the release of the touch input (step S19: No loop).
  • step S19: Yes the continuous touch mode is released (step S20), and the process ends.
  • the continuous touch mode is set, and it becomes possible to execute different processing.
  • FIG. 6 is a flowchart showing the operation of scrolling the map in the continuous touch mode according to the second embodiment.
  • the processing content shown in FIG. 6 is a specific example of the outline shown in FIG. 5, and the overall flow is the same as that in FIG.
  • a description will be given of a processing when a continuous touch operation is performed on a desired touch position 35ba belonging to the area 35b displayed on the display screen 30 of FIG.
  • step S31 it is determined whether or not there is a touch input on the input unit 4 on the display screen 30 (step S31).
  • the operation state detection unit 11 waits for a touch input (step S31: No loop), and if there is a touch input (step S31: Yes), the operation area detection unit 12 detects that the touch position 35ba is operated. I do.
  • the drive control unit 13a generates a drive signal of the vibration pattern set in the area 35b including the touch position 35ba, and outputs the drive signal to the drive unit 6.
  • the touch panel is vibrated in a vibration pattern set corresponding to the touch position 35ba (area 35b) (step S32).
  • step S33 it is determined whether or not the force at which the touch input with respect to the touch position 35ba has been released is performed.
  • step S33: Yes the touch input is released
  • step S34 the vibration in the vibration pattern set at the touch position 35ba (area 35b) is stopped
  • step S35 the operation content set at the touch position 35ba is set.
  • Step S37 the display control unit 13b executes a stepwise map scrolling process of moving the map display on the display screen 30 so that the touch position 35ba becomes the center of the screen, and outputs the map display to the display unit 5.
  • step S36 determines whether the touch position has been changed.
  • the process returns to Step S32, and the touch panel is vibrated in the vibration pattern set at the new touch position. . If there is no change in the touch position in step S36 (step S36: No), the process returns to step S33 to determine the release of the touch input. After that, the execution of the continuous touch mode is determined by the processing after step S37.
  • Step S33 After canceling the touch input to the touch position 35ba (Step S33: Yes), it is determined again within a certain time whether or not there is a touch input near the touch position 35ba (Step S37). If there is no touch input again within a fixed time (step S37: No), the process is terminated without executing the continuous touch mode.
  • step S38 If there is a touch input in the vicinity of the touch position 35ba again within a predetermined time (step S37: Yes), the continuous touch mode is executed (step S38).
  • the process in step S35 that is, another process different from the stepwise map scroll display process is executed during the period in which the touch (pressed state by the finger) is continued again.
  • step S38 a display in which the map scrolling is performed continuously instead of performing the map scrolling stepwise is performed during the continuous touching period. This display process is executed by the display control unit 13b.
  • step S39: No loop it waits for the release of the touch input to the touch position 35ba.
  • the touch input is released (Step S39: Yes)
  • the continuous touch mode is released (Step S40), and the process is terminated.
  • the map scroll display is performed stepwise until the continuous touch mode is entered, whereas when the touch position 35ba of the display screen 30 is continuously touched twice to enter the continuous touch mode, A display process for continuously scrolling the map while touch input is being performed can be executed.
  • FIGS. 7 to 9 are diagrams showing display screens when the map is scrolled by executing the processing of FIG. 6, respectively.
  • FIG. 7 shows a display screen at the time of the first touch.
  • the drive control unit 13a When there is a touch input at the touch position 35ba, the drive control unit 13a generates a drive signal of the vibration pattern set in the area 35b including the touch position 35ba and outputs it to the drive unit 6, and the touch position 35ba
  • the touch panel is vibrated in a vibration pattern indicating (area 35b) (the process of step S32 in FIG. 6).
  • FIG. 8 shows a display screen when the first touch is released.
  • the drive control unit 13a causes the vibration set at the touch position 35ba (area 35b) to be released.
  • the vibration in the pattern is stopped (the process of step S34 in FIG. 6).
  • the display control unit 13b The map displayed on the display screen 30 is displayed so that the map is scrolled stepwise so that the touch position 35ba where the finger is released is located at the center position P of the map (step S35 in FIG. 6).
  • the display contents in FIG. 8 show a state in which the map has moved downward relative to FIG.
  • the state shown in Fig. 7 is switched to the display shown in Fig. 8, so strictly speaking, the display is updated (switched) instead of scrolling the map. .
  • FIG. 9 shows a display screen when the user touches twice consecutively.
  • the continuous touch mode is set (Fig. 6). Step S38).
  • the map displayed on the display screen 30 is scrolled (moved) continuously by the display control unit 13b while the second touch is performed. Controlled.
  • the map is scrolled so that the map is continuously moved relatively downward so that the touch position 35ba is always at the center position P of the map. .
  • the map can be scrolled upward by setting the touch position below the display screen, that is, below the display position of the vehicle 31, to the right. If the vehicle 31 is touched diagonally upward, the map can be scrolled diagonally downward. In this manner, the map can be scrolled in all directions, up, down, left, and right, around the vehicle 31.
  • the map can be scrolled stepwise by touching the desired touch position by groping. Then, the continuous touch mode is entered by two consecutive touch inputs, and the map can be scrolled continuously until the second touch is released. As a result, the map can be easily moved to a desired position. In this way, different functions can be operated according to a change in the touch state for one key on one touch panel.
  • FIG. 10 is a flowchart illustrating the operation of changing the scale in the continuous touch mode according to the second embodiment.
  • the processing content shown in FIG. 10 is a specific example of the outline shown in FIG. 5, and the overall flow is the same as that in FIG.
  • a description will be given of a processing when a continuous touch operation is performed on the wide area key 33a on the display screen 30 of FIG.
  • step S51 it is determined whether there is a touch input on the input unit 4 on the display screen 30 (step S51).
  • the operation state detector 11 waits for a touch input (step S51: No loop). If there is a touch input (step S51: Yes), the operation area detector 12 determines that the wide area key 33a has been operated. To detect.
  • the drive control unit 13a generates a drive signal of the vibration pattern set in the operation area of the wide area key 33a and outputs the drive signal to the drive unit 6.
  • the touch panel is vibrated in a vibration pattern set corresponding to the wide area key 33a (step S52).
  • step S53 if or not the touch input to the wide area key 33a has been released (step S53).
  • step S53 if the state where the touch input to the wide area key 33a is not released (V) remains (step S53: No), it is determined whether the touch position has been changed (step S55).
  • Step S55 if the touch position is changed while the touch input is being made to the wide area key 33a (Step S55: Yes), the process returns to Step S52, and the touch panel is vibrated in the vibration pattern set to the new touch position. If there is no change in the touch position in step S55 (step S55: No), the process returns to step S53 to determine the release of the touch input.
  • step S53 when the touch input is released (step S53: Yes), the vibration in the vibration pattern is set to the wide area key 33a and stopped (step S54).
  • Step S56 it is determined whether or not the continuous touch mode is to be executed by the processing after step S56.
  • Step S53 Yes
  • Step S56 it is determined again within a certain time whether or not there is a touch input to the wide area key 33a (Step S56). If there is no touch input to the key 33a (step S56: No), the continuous touch mode is not executed.
  • a wide area key (I) Execute the process of changing the operation content set in 33a, that is, the display to the wide area (Step S60), and end the process.
  • the display control unit 13b executes a scale change process of displaying the display screen 30 in a one-step wide area, and outputs the display to the display unit 5.
  • Step S53: Yes After releasing the touch input to the wide area key 33a (Step S53: Yes), if there is another touch input to the wide area key 33a within a predetermined time (Step S56: Yes), the continuous touch mode is executed (Step S56: Yes). Step S57).
  • the process in step S60 that is, another process different from the process of displaying a one-step wide area is executed while the touch (pressed state with a finger) is continued again.
  • step S57 the display of the scale change that is continuously widened rather than performed in a stepwise manner during the period of continuous touch is performed. This display process is executed by the display control unit 13b.
  • step S58 No loop
  • step S58: Yes the continuous touch mode is released (step S59), and the process is terminated.
  • the display is gradually switched to a wide area.
  • the continuous touch mode is set, and the display while touch input is continuously changed to a wide area, so that it is possible to execute a stunning display process. become.
  • FIG. 11 and FIG. 13 are diagrams showing display screens when the scale is changed by executing the processing of FIG. 10, respectively.
  • FIG. 11 shows a display screen at the time of the first touch.
  • the drive control unit 13a When there is a touch input of the wide area key 33a, the drive control unit 13a generates a drive signal of the vibration pattern set for the wide area key 33a and outputs it to the drive unit 6, and outputs the wide area key 33a.
  • the touch panel is vibrated in the vibration pattern shown (the process of step S52 in FIG. 10).
  • FIG. 12 is a display screen showing a gradual scale change.
  • the drive control unit 13a uses the vibration pattern set for the wide-area key 33a. (Step S54 in FIG. 10).
  • the display control unit 13b responds to the operation of the wide area key 33a to display the display screen 3b. Change 0 to one-step wide-area display (step S60 in Fig. 10).
  • the display content in Fig. 12 is a one-step wider area (200m unit) compared to Fig. 11 (100m unit).
  • FIG. 13 shows a display screen when the user touches twice consecutively.
  • the continuous touch mode is set (step in Fig. 10). S57).
  • the display control unit 13b changes the scale of the display content displayed on the display screen 30 to the scale shown in FIG.
  • the display is controlled so that the area gradually increases from the unit (unit: 150 m). For example, from the state of 100 m unit, it is possible to display in 5 m units (105 m unit, 110 m unit,...) So as to gradually become wider.
  • a desired key or the like can be selected by groping, and if only a single touch is made, a gradual scale change can be performed. Then, continuous touch mode is set by two consecutive touch inputs, and the scale can be changed continuously. This makes it possible to display on the scale at the moment when the second touch is released, and display on the desired scale between the scales at each stage.
  • Example 2 above is an example in which the continuous touch mode is applied to the wide area key 33a and the scale is continuously changed to the wide area. Similarly, in the continuous touch mode for the detail key 33b, the scale can be continuously changed in detail.
  • Specific examples of the continuous touch mode in the above-described second embodiment include an item list (menu) for setting operations and the like, in addition to the map scroll described as the first specific example and the scale change described as the second specific example. It can be used for scrolling, zooming in and out, rotating the map, and adjusting the angle of the three-dimensional (3D) displayed map. Become.
  • the present invention can be applied to an operation that needs to be continuously changed, and can be used to perform a different process consciously or for use in releasing the touch and retouching.
  • vibrations having different vibration patterns are generated for each touched key or area.
  • the present invention is not limited to this, and it is possible to use sound, or to use both the vibration pattern and sound.
  • the voice when the voice is used, the content of the voice output is such that when the wide area key 33a is touched, “widen the area”, when scrolling, “up (down Z left Z right)” is displayed. -When you touch with the key 33d open, you close the menu.When you touch the key 31 on the vehicle, you say ⁇ Your vehicle is located. '' When you touch the road 32 you plan to drive, You can output a voice saying "Route.”
  • the touch panel control method described in the present embodiment can be realized by executing a prepared program on a computer such as a personal computer or a workstation.
  • This program is recorded on a computer-readable recording medium such as a hard disk, a flexible disk, a CD-ROM, an MO, and a DVD, and is executed by reading the recording medium power by the computer.
  • This program may be a transmission medium that can be distributed via a network such as the Internet.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Educational Technology (AREA)
  • Educational Administration (AREA)
  • Business, Economics & Management (AREA)
  • Automation & Control Theory (AREA)
  • Mathematical Physics (AREA)
  • Navigation (AREA)
  • Position Input By Displaying (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

 操作用の選択領域を含む画面を表示する表示部(5)と、表示部(5)に表示されている選択領域に対するタッチ入力を検出する入力部(4)と、入力部(4)によるタッチ入力の検出に基づいて、選択領域毎にそれぞれ設定されている報知情報を発生する駆動部(6)、アクチエータ(8)、スピーカ(9)と、選択領域毎に設定されている動作を制御指示するものであり、入力部(4)によって1度のタッチ入力が検出されてから1度のタッチ入力が解除されたことを検出したときに、選択領域に設定されている第1の動作を制御指示する制御部(2)と、を備える。

Description

明 細 書
タツチパネル装置、カーナビゲーシヨン装置、タツチパネル制御方法、タツ チパネル制御プログラムおよび記録媒体
技術分野
[0001] この発明は、タツチパネル装置、カーナビゲーシヨン装置、タツチパネル制御方法、 タツチパネル制御プログラムおよび記録媒体に関する。
背景技術
[0002] タツチパネル装置は、表示画面を指でタツチすることにより、タツチした位置のボタン に割り当てられている機能を動作させることができる。カーナビゲーシヨン装置等にお いては、ユーザである運転者は、安全運転のために表示画面を見ることなく手探りで ボタンを選択できることが望ましい。このように、手探り(ブラインドタッチ)でボタンを選 択して所望する機能を動作させるために、ボタン毎に異なる振動や音を発生させて 報知する構成のものが開示されている(例えば、下記特許文献 1参照。 ) o
[0003] また、タツチパネルにタツチした指を離したときに、直前の動作を行う構成のものが 開示されている(例えば、下記特許文献 2参照。 ) 0この技術は、タツチした際にその ボタンの機能が有効であるか無効であるかを音声を用いて報知するようになって!/、る
[0004] 特許文献 1:特開 2002— 149312号公報
特許文献 2:実開平 3— 78335号公報
発明の開示
発明が解決しょうとする課題
[0005] し力しながら、特許文献 1に開示されて!、る技術では、ブラインドタッチで各種ボタ ンを探ることはできるが、手探りで探し出したボタンの機能を有効にするには、さらに 押し込んでボタンの押下を検出する必要がある。このため、手探りのタツチを検出す るタツチパネルと、ボタンの押し込みを検出するタツチパネルをそれぞれ設けなけれ ばならな ヽと 、う問題が一例として挙げられる。
[0006] また、特許文献 2に開示されて 、る技術では、手探りで各種ボタンを選択できるが、 タツチしていた指を離したときには、ボタンに設定されている単一の機能を選択するこ としかできないという問題が一例として挙げられる。これにより、ボタンに対して連続し た処理を実行させる機能を割り当てることができず、連続した処理を行うには、同じボ タンを繰り返し何度もタツチしなければならな 、と 、う問題が一例として挙げられる。 課題を解決するための手段
[0007] 上述した課題を解決し、目的を達成するため、請求項 1の発明にかかるタツチパネ ル装置は、操作用の選択領域を含む画面を表示する表示手段と、前記表示手段に 表示されている前記選択領域に対するタツチ入力を検出する入力手段と、前記入力 手段によるタツチ入力の検出に基づいて、前記選択領域毎にそれぞれ設定されてい る報知情報を発生する報知手段と、前記選択領域毎に設定されている動作を制御 指示するものであり、前記入力手段によって 1度のタツチ入力が検出されてから当該 1度のタツチ入力が解除されたことを検出したときに、前記選択領域に設定されてい る第 1の動作を制御指示する動作制御手段と、を備えたことを特徴とする。
[0008] また、請求項 6の発明にかかるカーナビゲーシヨン装置は、車両に搭載され、当該 車両の走行経路を案内するカーナビゲーシヨン装置において、前記走行経路の案 内のための操作用の選択領域を含む画面を表示する表示手段と、前記表示手段に 表示されている前記選択領域に対するタツチ入力を検出する入力手段と、前記入力 手段によるタツチ入力の検出に基づいて、前記選択領域毎にそれぞれ設定されてい る報知情報を発生する報知手段と、前記選択領域毎に設定されている動作を制御 指示するものであり、前記入力手段によって 1度のタツチ入力が検出されてから当該 1度のタツチ入力が解除されたことを検出したときに、前記選択領域に設定されてい る第 1の動作を制御指示する動作制御手段と、を備えたことを特徴とする。
[0009] また、請求項 12の発明に力かるタツチパネル制御方法は、操作用の選択領域を含 む画面を表示する表示工程と、前記表示工程により表示された前記選択領域に対 するタツチ入力を検出する入力検出工程と、前記入力検出工程によるタツチ入力の 検出に基づ 、て、前記選択領域毎にそれぞれ設定されて!、る報知情報を発生させ る報知工程と、前記入力検出工程によって 1度のタツチ入力が検出されてから当該 1 度のタツチ入力が解除されたことを検出したときに、前記選択領域に設定されている 第 1の動作を制御指示する動作制御工程と、を含むことを特徴とする。
[0010] また、請求項 14の発明に力かるタツチパネル制御プログラムは、請求項 12に記載 のタツチパネル制御方法をコンピュータに実行させることを特徴とする。
[0011] また、請求項 15の発明にかかるコンピュータに読み取り可能な記録媒体は、請求 項 14に記載のタツチパネル制御プログラムを記録したことを特徴とする。
図面の簡単な説明
[0012] [図 1]図 1は、タツチパネル装置の構成を示すブロック図である。
[図 2]図 2は、制御部の内部構成を示すブロック図である。
[図 3]図 3は、タツチパネル装置の表示画面を示す図である。
[図 4]図 4は、実施例 1による動作内容を示すフローチャートである。
[図 5]図 5は、実施例 2の連続タツチモードによる動作概要を示すフローチャートであ る。
[図 6]図 6は、実施例 2の連続タツチモード時に地図スクロールさせる動作内容を示す フローチャートである。
[図 7]図 7は、図 6の処理実行による地図スクロール時の表示画面を示す図である(そ の 1)。
[図 8]図 8は、図 6の処理実行による地図スクロール時の表示画面を示す図である(そ の 2)。
[図 9]図 9は、図 6の処理実行による地図スクロール時の表示画面を示す図である(そ の 3)。
[図 10]図 10は、実施例 2の連続タツチモード時にスケール変更する動作内容を示す フローチャートである。
[図 11]図 11は、図 10の処理実行によるスケール変更時の表示画面を示す図である( その 1)。
[図 12]図 12は、図 10の処理実行によるスケール変更時の表示画面を示す図である( その 2)。
[図 13]図 13は、図 10の処理実行によるスケール変更時の表示画面を示す図である( 符号の説明
[0013] 1 タツチパネル装置
2 制御部(CPU)
§し' I思
4 入力部
5 表示部
6 駆動部
7 バス
11 操作状態検出部
12 操作エリア検出部
13 動作制御部
13a 駆動制御部
13b 表示制御部
発明を実施するための最良の形態
[0014] 以下に添付図面を参照して、この発明にかかるタツチパネル装置、カーナビゲーシ ヨン装置、タツチパネル制御方法、タツチパネル制御プログラムおよび記録媒体の好 適な実施の形態を詳細に説明する。
[0015] (実施の形態)
図 1は、タツチパネル装置の構成を示すブロック図である。タツチパネル装置 1は、 タツチパネル装置全体の動作を制御する制御部(CPU) 2と、制御部 2を動かすため のプログラムを格納する ROMや、制御時におけるデータを一時格納する RAM等か らなる記憶部 (メモリ) 3と、タツチパネルを構成する入力部 4と表示部 5と、このタツチ パネルの操作 (タツチ)入力時に振動や音を用いて駆動する駆動部 6と、により構成さ れている。 7は各部を接続するバスである。
[0016] タツチパネルは、表示部 5の表示画面上に入力部 4を構成する透明なシート状のキ 一スィッチを重合配置して構成されている。この他、表示部 5の表示画面上での指の 動き (表示画面上での位置および押下状態)を検出するマトリクス状の光センサ等で 構成することも考えられる。表示部 5の表示画面上には、各種キーや画面が表示され 、例えば、キーが表示されている箇所を指で押下 (タツチ)することにより、透明なシー ト状のキースィッチがこの箇所のタツチを検出し、操作信号を出力する。キースィッチ は、縦横のマトリクス状にタツチ位置 (操作エリア)を検出できる。入力部 4は、操作信 号としてキーのタツチ状態 (オン Zオフ)と、操作エリアを示す信号を出力する。
[0017] 入力部 4は、表示部 5の表示画面上に必ずしも配置する必要はなぐ異なる位置に 設けてもよい。例えば、カーナビゲーシヨン装置の表示部 5の配置位置と異なりユー ザ (運転者)が操作しやすい位置に別途入力部 4を設ける構成にもできる。制御部 2 は、表示部 5の表示画面上のキー等の配置位置と入力部 4におけるキーのタツチ位 置とがー致するように設定しておく。
[0018] 駆動部 6には、タツチパネルの一部に組み込み、タツチパネルを振動させるァクチ エータ 8や、音を発生させるスピーカ 9を接続することができる。駆動部 6は、ァクチェ ータ 8に対しては、このァクチエータ 8を各種周波数で振動させる駆動信号を出力す る。スピーカ 9に対しては、このスピーカ 9から各種周波数の音声を発生させる駆動信 号を出力する。これら駆動部 6と、ァクチエータ 8と、スピーカ 9は、ユーザに対して振 動や音で報知する報知手段を構成している。以下の説明では、ァクチエータ 8が接 続された構成例を用いて説明する。
[0019] 図 2は、制御部の内部構成を示すブロック図である。制御部 2には、入力部 4をタツ チしたときの操作信号が入力される。操作状態検出部 11は、入力部 4から入力され る操作信号の操作状態 (オン Zオフ状態)を検出する。操作エリア検出部 12は、入力 部 4から入力される操作信号に基づき、オン Zオフ操作されたときの操作エリアを検 出する。動作制御部 13には、操作状態検出部 11により検出された操作状態と、操作 エリア検出部 12により検出された操作エリアの情報が入力される。駆動制御部 13a は、これら操作状態と操作エリアの組み合わせに対応した駆動信号を生成して駆動 部 6に供給する。表示制御部 13bは、これら操作状態と操作エリアの組み合わせに 対応して、表示部 5に表示する表示信号を生成する。
[0020] この発明に力かるタツチパネル装置は、車両に搭載されるカーナビゲーシヨン装置 や、 PDA、携帯電話、パーソナル 'コンピュータ (PC)等に用いることができる。 実施例 1 [0021] 次に、制御部 2が実行する制御動作の各実施例について説明する。実施例 1では 、所望するキー等を手探りで選択する構成について説明する。図 3は、タツチパネル 装置の表示画面を示す図である。図示の表示部 5の表示画面 30には、カーナビゲ ーシヨン装置によるナビゲーシヨン画面が表示されている。車両 31は三角(△)状の 記号で表示されており、この車両 31が走行する道路 32とともに表示されている。この 他、表示画面 30には、ナビゲーシヨン操作を行うための各種キー 33 (33a— 33g)が 表示されている。
[0022] 例えば、キー 33aは、表示画面に表示されている地図の縮尺を広域にするための キーであり、キー 33bは、地図の縮尺を詳細にするためのキーであり、 33cは現在表 示されて!/、る地図の縮尺を表示されて 、る距離単位(図示の例では 100m)で表示 するためのキーであり、キー 33dは、各種キーを表示あるいは非表示にするためのメ ニュー(MENU)キーである。キー 33eは、車両 31の走行経路を検索するクイックル ート探索用のキーであり、キー 33fは、車両 31の現在地点を登録するための地点登 録用のキーであり、キー 33gは、走行経路上の周辺施設を検索するための周辺施設 検索用のキーである。図示の例では、メニューキーがオン状態であり、メニューオフ( MENU OFF)と表示されているキー 33dを操作することにより、これらのキー 33a— 33gを非表示状態に切り替えることができる。
[0023] また、図 3において表示画面 30の略中央位置に位置する、車両 31の現在位置を 中心として領域面積が異なる複数のエリア 35 (35a— 35c)が設定されて!、る。このェ リア 35a— 35cは、表示用のものではなぐ駆動部 6の駆動信号に基づいてァクチェ ータ 8が振動することにより異なる振動状態となる振動領域である。振動領域は、この 他に車両 31の部分と、複数のキー 33a— 33g部分がある。これらエリア 35a— 35cと 、車両 31部分と、走行予定の道路 32と、複数のキー 33a— 33g部分は、全て異なる 振動パターンで振動される。例えば、各振動パターン毎に全て異なる振動周波数を 有して連続的に振動させる設定とすることができる。この他、間欠的な振動を与える 構成とし、各振動領域でそれぞれ振動と非振動の期間 (周期)や、振動時の振動量 力 S異なるよう設定することちでさる。
[0024] なお、各振動領域に対する振動を行うに限らず、各エリアやキーの操作時に振動 ではなぐこれら各エリアやキー毎に全て異なる音声 (ブザー音や、肉声によるガイダ ンス音声)をスピーカ 9から音声出力する構成にもできる。さらに、振動領域毎に異な る振動ととち〖こ、異なる音声ち出力することちでさる。
[0025] また、複数のキー 33a— 33gは、これらキー 33a— 33gの表示範囲が矩形状に狭く 設定されている。手探りでいずれかのキー 33a— 33gをタツチしたときには、そのタツ チ位置が少し移動するだけでキー 33a— 33gの範囲から外れて異なる振動パターン となる。これに比べて、エリア 35a— 35bは、同じ振動パターンの範囲が広い。ユーザ は、タツチしている箇所がキー 33a— 33gである力、あるいはエリア 35a— 35cである かはタツチしたときの振動パターンの変化によって容易に判別できる。
[0026] 図 4は、実施例 1による動作内容を示すフローチャートである。はじめに、入力部 4 によるタツチ入力の有無を判断する (ステップ Sl)。ここでは、操作状態検出部 11は、 タツチ入力を待機し (ステップ S1: Noのループ)、タツチ入力があれば (ステップ S1: Yes)、操作エリア検出部 12は、該当する操作エリアを検出する。駆動制御部 13aは 、操作エリアに該当する振動領域の振動パターンの駆動信号を生成し、駆動部 6に 出力する。これにより、表示画面 30上をタツチすると、このタツチ位置に対応して設定 した振動パターンでタツチパネルを振動させる (ステップ S 2)。
[0027] この後、タツチ入力が解除された力否かを判断する (ステップ S3)。タツチ入力が解 除されると (ステップ S3: Yes)、タツチ位置の振動を停止した後 (ステップ S4)、タツチ 位置に設定されている操作内容の動作を実行し (ステップ S5)、制御を終了する。
[0028] 一方、ステップ S3において、タツチ入力が解除されない状態が続いたときには (ス テツプ S3 : No)、タツチ位置が変更された力判断する (ステップ S6)。タツチ入力され た状態のままタツチ位置が変更されたときには (ステップ S6: Yes)、ステップ S2に復 帰し、新たなタツチ位置に設定された振動パターンでタツチパネルを振動させる。ス テツプ S6においてタツチ位置に変更がないときには(ステップ S6 : No)、ステップ S3 に復帰してタツチ入力の解除を判断する。
[0029] 上記処理を具体的操作例を用いて説明する。図 3に示した表示画面 30上でキー 3 3aをタツチすると、ステップ S2の実行により、タツチパネルは、このキー 33aに固有の 振動パターンで振動し、ユーザの指に伝わる。ステップ S6の実行により、タツチした 状態のままタツチする位置をキー 33bに変更すると、キー 33bに固有に振動パターン で振動し、同じく指に伝わる。これにより、ユーザは、タツチした位置の領域が変わつ たことをタツチするだけで知ることができる。したがって、ユーザは、操作したい内容の 表示画面 30を見ることなぐ指に伝わる振動パターンの変化を感覚的に受けて操作 位置を手探りすること (ブラインドタッチ)ができるようになる。
[0030] そして、タツチした位置力 指を離したときには、ステップ S5の実行により、タツチ位 置に設定されている動作を実行する。例えば、エリア 35bにおいてタツチした位置か ら指を離すと、表示制御部 13bは、表示画面 30を 1段階詳細 (部分拡大)に表示させ る処理を実行して表示部 5に表示出力する。同様に、エリア 35a— 35cにおける動作 は、タツチした位置力も指を離したときには、指でタツチしていた位置が表示画面 30 の中央 (車両 31の位置)に移動するように表示位置を変更することができる。
[0031] 以上説明したように、実施例 1によれば、表示画面 30上におけるタツチ位置をタツ チした状態のまま変えると、タツチパネルは各位置毎に異なる振動パターンで振動し 、この振動を指で受けて所望する操作に対応した振動に基づき、複数の操作を選択 実行できるようになる。これにより、表示画面 30を見なくてもタツチした状態のまま手 探りで所望する操作のキー等を選択後、実行することができるようになる。なお、振動 に代えてタツチ位置毎に異なる音声を用いたり、振動と音声を併用する構成であつて も同様に手探りの操作が行える。
実施例 2
[0032] 実施例 2は、実施例 1において説明したタツチ入力の変形例であり、所定時間内で タツチ回数を 2回行ったときに実行される処理 (連続タツチモードと称す)について説 明する。実施例 2における制御部 2の内部構成等は前述した実施例 1 (図 2)と同様で あり、説明を省略する。
[0033] 図 5は、実施例 2の連続タツチモードによる動作概要を示すフローチャートである。
ステップ S 11一ステップ S 16の各処理は実施例 1において説明したステップ S 1ース テツプ S6と同様である。はじめに、入力部 4によるタツチ入力の有無を判断する (ステ ップ Sl l)。ここでは、操作状態検出部 11は、タツチ入力を待機し (ステップ Sl l : No のループ)、タツチ入力があれば (ステップ SI 1 : Yes)、操作エリア検出部 12は、該当 する操作エリアを検出する。駆動制御部 13aは、操作エリアに該当する振動領域の 振動パターンの駆動信号を生成し、駆動部 6に出力する。これにより、表示画面 30上 をタツチすると、このタツチ位置に対応して設定した振動パターンでタツチパネルを振 動させる (ステップ S 12)。
[0034] この後、タツチ入力が解除された力否かを判断する (ステップ S13)。タツチ入力が 解除されると (ステップ S 13: Yes)、タツチ位置の振動を停止した後 (ステップ S 14)、 タツチ位置に設定されている操作内容の動作を実行し (ステップ S15)、ステップ S17 を実行する。
[0035] 一方、ステップ S 13において、タツチ入力が解除されない状態が続いたときには (ス テツプ S13 : No)、タツチ位置が変更された力判断する (ステップ S16)。タツチ入力さ れた状態のままタツチ位置が変更されたときには (ステップ S16: Yes)、ステップ S12 に復帰し、新たなタツチ位置に設定された振動パターンでタツチパネルを振動させる 。ステップ S 16においてタツチ位置に変更がないときには (ステップ S 16 : No)、ステツ プ S 13に復帰してタツチ入力の解除を判断する。
[0036] この後、ステップ S17以降により連続タツチモードの実行を判断する。まず、タツチ 入力の解除後 (ステップ S13: Yes)、一定時間以内に再度タツチ入力の有無を判断 する (ステップ S 17)。一定時間以内に再度のタツチ入力がなければ (ステップ S17 : No)、連続タツチモードを実行せず、処理を終了する。
[0037] 一定時間以内に再度タツチ入力があれば (ステップ S 17 : Yes)、連続タツチモード を実行する (ステップ S 18)。この連続タツチモードは、再度のタツチ (指による押下状 態)が連続している期間、予め設定されている操作内容の動作を実行する。この際に 実行される動作内容は、ステップ S 15における処理と異なる他の処理である。この後 、タツチ入力の解除を待つ(ステップ S 19 : Noのループ)。タツチ入力が解除されると( ステップ S19 : Yes)、連続タツチモードを解除し (ステップ S20)、処理を終了する。こ のように、表示画面 30を 2回連続してタツチしたときには、連続タツチモードとなり、そ れまでと異なる処理を実行できるようになる。
[0038] (実施例 2の具体的処理例 1一地図スクロール)
次に、実施例 2の具体的処理例について説明する。実施例 2の処理例 1は、連続タ ツチモードにより表示画面の地図スクロール (表示位置)を変更するものである。図 6 は、実施例 2の連続タツチモード時に地図スクロールさせる動作内容を示すフローチ ヤートである。図 6に記載した処理内容は、図 5に示した概要を具体的にしたものであ り、全体の流れは図 5と同様である。図 6の処理例では、図 2の表示画面 30上に表示 されているエリア 35bに属する所望のタツチ位置 35baに対して連続したタツチ操作を 行ったときの処理にっ 、て説明する。
[0039] はじめに、表示画面 30上の入力部 4におけるタツチ入力の有無を判断する(ステツ プ S31)。操作状態検出部 11は、タツチ入力を待機し (ステップ S31 : Noのループ)、 タツチ入力があれば (ステップ S31 : Yes)、操作エリア検出部 12は、タツチ位置 35ba が操作されたことを検出する。駆動制御部 13aは、このタツチ位置 35baを含むエリア 35bに設定されている振動パターンの駆動信号を生成し、駆動部 6に出力する。これ により、表示画面 30上のタツチ位置 35baをタツチすると、このタツチ位置 35ba (エリ ァ 35b)に対応して設定されている振動パターンでタツチパネルを振動させる (ステツ プ S32)。
[0040] この後、タツチ位置 35baに対するタツチ入力が解除された力否かを判断する (ステ ップ S33)。タツチ入力が解除されると(ステップ S33 : Yes)、タツチ位置 35ba (エリア 35b)に設定されていた振動パターンでの振動を停止した後 (ステップ S34)、タツチ 位置 35baに設定されている操作内容の動作を実行し (ステップ S35)、ステップ S37 を実行する。この際、表示制御部 13bは、表示画面 30上の地図表示をタツチ位置 35 baが画面の中心となるように移動させる段階的な地図スクロールの処理を実行して 表示部 5に表示出力する。
[0041] 一方、ステップ S33において、タツチ位置 35baに対するタツチ入力が解除されない 状態が続いたときには (ステップ S33 : No)、タツチ位置が変更された力判断する (ス テツプ S36)。入力部 4上でのタツチ入力がなされた状態のままタツチ位置が変更され たときには (ステップ S36 : Yes)、ステップ S32に復帰し、新たなタツチ位置に設定さ れた振動パターンでタツチパネルを振動させる。ステップ S36にお 、てタツチ位置に 変更がないときには (ステップ S36 :No)、ステップ S33に復帰してタツチ入力の解除 を判断する。 [0042] この後、ステップ S37以降の処理により連続タツチモードの実行を判断する。まず、 タツチ位置 35baに対するタツチ入力の解除後 (ステップ S33 : Yes)、一定時間以内 に再度、タツチ位置 35ba近傍でのタツチ入力の有無を判断する (ステップ S37)。一 定時間以内に再度、タツチ入力がなければ (ステップ S37 : No)、連続タツチモードを 実行せず、処理を終了する。
[0043] 一定時間以内に再度、タツチ位置 35ba近傍でのタツチ入力があれば (ステップ S3 7 : Yes)、連続タツチモードを実行する (ステップ S38)。この連続タツチモードでは、 再度のタツチ (指による押下状態)が連続している期間、ステップ S35における処理、 すなわち、段階的な地図スクロールの表示処理と異なる他の処理が実行される。ステ ップ S38では、連続的にタツチされている期間は、地図スクロールを段階的に行うの ではなぐ地図スクロールを連続的に行う表示を行う。この表示処理は、表示制御部 13bが実行する。
[0044] この後、タツチ位置 35baに対するタツチ入力の解除を待つ(ステップ S39 : Noのル 一プ)。タツチ入力が解除されると (ステップ S39 : Yes)、連続タツチモードを解除し( ステップ S40)、処理を終了する。このように、連続タツチモードに入るまでの間は、地 図スクロール表示を段階的に行うのに対して、表示画面 30のタツチ位置 35baを 2回 連続してタツチして連続タツチモードとなったときには、タツチ入力されている間の地 図を連続的にスクロールする表示処理を実行できるようになる。
[0045] 図 7—図 9は、それぞれ図 6の処理実行による地図スクロール時の表示画面を示す 図である。はじめに、図 7は、 1回目のタツチ時の表示画面である。タツチ位置 35baの タツチ入力があると、駆動制御部 13aは、このタツチ位置 35baを含むエリア 35bに設 定されている振動パターンの駆動信号を生成して駆動部 6に出力し、このタツチ位置 35ba (エリア 35b)を示す振動パターンでタツチパネルを振動させる(図 6のステップ S 32の処理)。
[0046] 次に、図 8は、 1回目のタツチを離したときの表示画面である。図 7を用いた説明の 如ぐタツチ位置 35baを 1回タツチした後に、このタツチ位置 35baのタツチを離したと き、駆動制御部 13aは、タツチ位置 35ba (エリア 35b)に設定されていた振動パター ンでの振動を停止させる(図 6のステップ S34の処理)。そして、表示制御部 13bは、 表示画面 30に表示されている地図について、指を離したタツチ位置 35baがこの地 図の中心位置 Pに位置するように段階的に地図スクロールを行うよう表示する(図 6の ステップ S35)。図 8の表示内容は、図 7に比べて相対的に地図が下方に移動した状 態の表示となっている。タツチ位置 35baから指を離したときに図 7の状態が図 8に表 示に切り替わるものであるため、厳密に言えば、地図スクロールではなく表示の更新( 切り替え)の処理が行われることになる。
[0047] 次に、図 9は、連続して 2回タツチしたときの表示画面である。図 8を用いた説明の 如ぐタツチ位置 35baの 1回目のタツチを離した後に、このタツチ位置 35ba近傍に対 して一定時間以内に 2度目のタツチを行うと、連続タツチモードとなる(図 6のステップ S38の処理)。図 9に示す例では、連続タツチモードとなると、 2度目のタツチがされて いる間は、表示制御部 13bにより、表示画面 30に表示されている地図が連続的にス クロール (移動)するよう表示制御される。このとき、 2度目のタツチ位置 35baがタツチ 状態である間、常にタツチ位置 35ba部分力この地図の中心位置 Pに位置するように 、相対的に地図を下方に連続的に移動させる地図スクロールを行う。
[0048] 上述の説明では、表示画面 30の上方をタツチ位置とすることにより、地図を下方に スクロールさせる処理を説明した。これに限らず、表示画面の下方、すなわち車両 31 の表示位置より下方をタツチ位置とすれば地図を上方にスクロールさせることができ、 また、車両 31の左方をタツチ位置とすれば地図を右方にスクロールでき、また、車両 31に対して斜め上方をタツチすれば、地図を斜め下方にスクロールさせることができ る。このように、車両 31を中心として上下左右斜めの全方向に対して地図をスクロー ノレさせることができる。
[0049] 以上のように、連続タツチモードの実行前は手探りで所望するタツチ位置をタツチす ることにより、段階的な地図スクロールを行うことができる。そして、連続する 2回のタツ チ入力により連続タツチモードとなり、 2度目のタツチを離すまで連続的に地図をスク ロールさせることができる。これにより、所望する位置まで地図を移動させることが容 易に行えるようになる。このように、 1つのタツチパネルのある 1つのキーに対するタツ チ状態の変化に応じてそれぞれ異なる機能を動作させることができるようになる。
[0050] (実施例 2の具体的処理例 2—スケール変更) 次に、実施例 2の処理例 2は、連続タツチモードにより表示画面のスケール (縮尺) を変更するものである。図 10は、実施例 2の連続タツチモード時にスケール変更する 動作内容を示すフローチャートである。図 10に記載した処理内容は、図 5に示した概 要を具体的にしたものであり、全体の流れは図 5と同様である。図 10の処理例では、 図 3の表示画面 30上で広域のキー 33aに対して連続したタツチ操作を行ったときの 処理について説明する。
[0051] はじめに、表示画面 30上の入力部 4におけるタツチ入力の有無を判断する(ステツ プ S51)。操作状態検出部 11は、タツチ入力を待機し (ステップ S51 : Noのループ)、 タツチ入力があれば (ステップ S51 : Yes)、操作エリア検出部 12は、広域のキー 33a が操作されたことを検出する。駆動制御部 13aは、この広域のキー 33aの操作エリア に設定されている振動パターンの駆動信号を生成し、駆動部 6に出力する。これによ り、表示画面 30上の広域のキー 33aをタツチすると、この広域のキー 33aに対応して 設定されて 、る振動パターンでタツチパネルを振動させる (ステップ S52)。
[0052] この後、広域のキー 33aに対するタツチ入力が解除されたか否かを判断する (ステツ プ S53)。ステップ S53において、広域のキー 33aに対するタツチ入力が解除されな V、状態が続 、たときには (ステップ S53: No)、タツチ位置が変更されたか判断する( ステップ S55)。広域のキー 33aに対するタツチ入力がなされた状態のままタツチ位置 が変更されたときには (ステップ S55 : Yes)、ステップ S52に復帰し、新たなタツチ位 置に設定された振動パターンでタツチパネルを振動させる。ステップ S55においてタ ツチ位置に変更がないときには(ステップ S55 :No)、ステップ S53に復帰してタツチ 入力の解除を判断する。
[0053] ステップ S53において、タツチ入力が解除されると (ステップ S53 : Yes)、広域のキ 一 33aに設定されて 、た振動パターンでの振動を停止する(ステップ S54)。
[0054] この後、ステップ S56以降の処理により連続タツチモードの実行の有無を判断する 。まず、広域のキー 33aに対するタツチ入力の解除後(ステップ S53 : Yes)、一定時 間以内に再度、広域のキー 33aに対するタツチ入力の有無を判断する (ステップ S56 ) o一定時間以内に再度、広域のキー 33aに対するタツチ入力がなければ (ステップ S 56 : No)、連続タツチモードを実行しない。そして、この一定時間経過後に広域のキ 一 33aに設定されている操作内容、すなわち、広域の表示に変える処理を実行し (ス テツプ S60)、処理を終了する。この際、表示制御部 13bは、表示画面 30を 1段階広 域なエリアを表示させるスケール変更の処理を実行して表示部 5に表示出力する。
[0055] 広域のキー 33aに対するタツチ入力の解除後(ステップ S53: Yes)、一定時間以内 に再度、広域のキー 33aに対するタツチ入力があれば (ステップ S56 : Yes)、連続タ ツチモードを実行する (ステップ S57)。この連続タツチモードでは、再度のタツチ (指 による押下状態)が連続している期間、ステップ S60における処理、すなわち、 1段階 広域なエリアを表示させる処理と異なる他の処理が実行される。ステップ S57では、 連続的にタツチされている期間は、スケール変更を段階的に行うのではなぐ連続的 に広域となるスケール変更の表示を行う。この表示処理は、表示制御部 13bが実行 する。
[0056] この後、広域のキー 33aに対するタツチ入力の解除を待つ(ステップ S58 : Noのル 一プ)。広域のキー 33aに対するタツチ入力が解除されると (ステップ S58 : Yes)、連 続タツチモードを解除し (ステップ S59)、処理を終了する。このように、連続する 2回 のタツチの間隔が一定時間以内でなければ (一定時間を超えれば)、表示を段階的 に広域に切り替える。また、連続する 2回のタツチの間隔が一定時間以内に行われれ ば、連続タツチモードとなり、タツチ入力されている間の表示が連続的に広域に変更 して 、くような表示処理を実行できるようになる。
[0057] 図 11一図 13は、それぞれ図 10の処理実行によるスケール変更時の表示画面を示 す図である。はじめに、図 11は、 1回目のタツチ時の表示画面である。広域のキー 33 aのタツチ入力があると、駆動制御部 13aは、この広域のキー 33aに設定されている 振動パターンの駆動信号を生成して駆動部 6に出力し、この広域のキー 33aを示す 振動パターンでタツチパネルを振動させる(図 10のステップ S52の処理)。
[0058] 次に、図 12は、段階的なスケール変更を示す表示画面である。図 11を用いた説明 の如ぐ広域のキー 33aを 1回タツチした後に、この広域のキー 33aへのタツチを解除 すると、駆動制御部 13aは、広域のキー 33aに設定されていた振動パターンでの振 動を停止させる(図 10のステップ S54の処理)。この後、一定時間以内に再度のタツ チ入力がないと、表示制御部 13bは、広域のキー 33aの操作に対応して表示画面 3 0を 1段階だけ広域の表示に変える(図 10のステップ S60)。図 12の表示内容は、図 11 (100m単位)に比べて 1段階広域(200m単位)の表示となっている。
[0059] 次に、図 13は、連続して 2回タツチしたときの表示画面である。図 12を用いた説明 の如ぐ広域のキー 33aの 1回目のタツチを離した後に、この広域のキー 33aを一定 時間以内に 2度目のタツチを行うと、連続タツチモードとなる(図 10のステップ S57の 処理)。図 13に示す例では、連続タツチモードとなると、 2度目のタツチがされている 間は、表示制御部 13bにより、表示画面 30に表示されている表示内容のスケールが 図 11に示したスケール(100m単位)から次第に広域となるよう表示制御される(図 1 3に示す状態は 150m単位の状態)。例えば、 100m単位の状態から 5m単位(105 m単位、 110m単位、…;)で次第に広域となるように表示できる。
[0060] 以上のように、連続タツチモードの実行前は手探りで所望するキー等を選択するこ とができ、 1度のタツチだけであれば、段階的なスケール切り替えを行うことができる。 そして、連続する 2回のタツチ入力により連続タツチモードとなり、連続的にスケール を変えることができる。これにより、 2度目のタツチを離した瞬間のスケールによる表示 が可能となり、各段階のスケールの間で所望するスケールによる表示が可能となる。 上記具体例 2は、連続タツチモードを広域のキー 33aに適用してスケールを連続的 に広域に変更する例とした。同様に、詳細のキー 33bに対する連続タツチモードでは 、スケールを連続的に詳細に変更することができる。
[0061] 上述した実施例 2における連続タツチモードの具体例は、具体例 1として説明した 地図スクロールや、具体例 2として説明したスケール変更以外にも、設定操作等のた めの項目リスト (メニュー)のスクロールを行ったり、地図の縮小や拡大、回転、 3次元( 3D)表示した地図の角度調整等に用いることもでき、 V、ずれにお 、ても表示状態を 連続的に変更できるようになる。この他、連続的に変更させたい操作に適用でき、ュ 一ザが意識的に、あるいはー且タツチを離して再度タツチする用途に用いて、異なる 処理を実行できるようになる。
[0062] 実施例 2における連続タツチモードでは、表示されているキー以外の機能を操作す ることもできるようになる。カーナビゲーシヨン装置における表示部 5は、表示画面 30 の大きさに制限が生じるため、相対的に表示画面 30上に表示するキーを拡大表示 することにより、操作性を向上することができる。例えば、複数のキーが表示画面 30 一杯に表示される構成としたとき、連続タツチモードではこれら各キーの機能と異なる 機能を操作するように構成することもできる。具体的には、 2回の連続タツチにより各 キーを表示画面 30—杯に表示させたり、表示画面 30—杯に表示されている各キー を縮小させたり、各キーの表示を消すなどの表示処理が行える。この他に、既に機能 して 、る動作を 2度のタツチにより取り消す (動作禁止にする)構成にもできる。
[0063] また、上述した実施例 1および実施例 2における説明では、手探りでタツチ位置を判 別するためにタツチしたキーやエリア毎に異なる振動パターンの振動を発生させる構 成とした。これに限らず、音声を用いたり、振動パターンと音声を併用できる。具体的 に音声を用いたときの音声出力の内容は、広域のキー 33aのタツチ時には「広域にし ます」としたり、スクロール時には「上(下 Z左 Z右)にスクロールします」としたり、メ- ユーのキー 33dが開いている状態でのタツチ時には「メニューを閉じます」としたり、車 両のキー 31のタツチ時には「自車位置です」としたり、走行予定の道路 32のタツチ時 には「ルートです」と音声出力することができる。
[0064] なお、本実施の形態で説明したタツチパネルの制御方法は、予め用意されたプログ ラムをパーソナル 'コンピュータやワークステーション等のコンピュータで実行すること により実現することができる。このプログラムは、ハードディスク、フレキシブルディスク 、 CD-ROM, MO、 DVD等のコンピュータで読み取り可能な記録媒体に記録され、 コンピュータによって記録媒体力も読み出されることによって実行される。またこのプ ログラムは、インターネット等のネットワークを介して配布することが可能な伝送媒体で あってもよい。

Claims

請求の範囲
[1] 操作用の選択領域を含む画面を表示する表示手段と、
前記表示手段に表示されている前記選択領域に対するタツチ入力を検出する入力 手段と、
前記入力手段によるタツチ入力の検出に基づいて、前記選択領域毎にそれぞれ設 定されて!/、る報知情報を発生する報知手段と、
前記選択領域毎に設定されている動作を制御指示するものであり、前記入力手段 によって 1度のタツチ入力が検出されてから当該 1度のタツチ入力が解除されたことを 検出したときに、前記選択領域に設定されている第 1の動作を制御指示する動作制 御手段と、
を備えたことを特徴とするタツチパネル装置。
[2] 前記動作制御手段は、前記入力手段によって連続する 2度のタツチ入力が検出さ れたときには、当該 2度目のタツチ入力が検出されている期間は、前記第 1の動作と 異なる第 2の動作を制御指示することを特徴とする請求項 1に記載のタツチパネル装 置。
[3] 前記報知手段は、前記選択領域毎に異なる振動パターンの振動を与える振動手 段を備えたことを特徴とする請求項 1または 2に記載のタツチパネル装置。
[4] 前記報知手段は、前記選択領域毎に異なる音声を出力する音声出力手段を備え たことを特徴とする請求項 1または 2に記載のタツチパネル装置。
[5] 前記表示手段の表示画面上に前記入力手段としての透明なシート状のキーを配 置したことを特徴とする請求項 1または 2に記載のタツチパネル装置。
[6] 車両に搭載され、当該車両の走行経路を案内するカーナビゲーシヨン装置におい て、
前記走行経路の案内のための操作用の選択領域を含む画面を表示する表示手段 と、
前記表示手段に表示されている前記選択領域に対するタツチ入力を検出する入力 手段と、
前記入力手段によるタツチ入力の検出に基づいて、前記選択領域毎にそれぞれ設 定されて!/、る報知情報を発生する報知手段と、
前記選択領域毎に設定されている動作を制御指示するものであり、前記入力手段 によって 1度のタツチ入力が検出されてから当該 1度のタツチ入力が解除されたことを 検出したときに、前記選択領域に設定されている第 1の動作を制御指示する動作制 御手段と、
を備えたことを特徴とするカーナビゲーシヨン装置。
[7] 前記動作制御手段は、前記入力手段によって連続する 2度のタツチ入力が検出さ れ、当該 2度目のタツチ入力が継続的に検出されている期間は、前記第 1の動作と異 なる第 2の動作を制御指示することを特徴とする請求項 6に記載のカーナビゲーショ ン装置。
[8] 前記動作制御手段は、前記タツチ入力された選択領域が前記表示手段に表示さ れている走行経路の案内地図を広域、あるいは詳細に切り替えるためのキーであり、 当該キーの前記 1度のタツチ入力が検出されたときには、前記第 1の動作として前記 案内地図を段階的に広域、あるいは詳細に表示させる制御指示を行うことを特徴と する請求項 6または 7に記載のカーナビゲーシヨン装置。
[9] 前記動作制御手段は、前記走行経路の案内地図を広域、あるいは詳細に切り替え るためのキーに対して連続する前記 2度のタツチ入力が検出され、前記第 2の動作と して前記キーが継続的にタツチされている間は、前記案内地図を連続的に広域、あ るいは詳細に表示させる制御指示を行うことを特徴とする請求項 8に記載のカーナビ ゲーシヨン装置。
[10] 前記動作制御手段は、前記タツチ入力された選択領域が前記表示手段に表示さ れている走行経路の案内地図をスクロールさせる位置であり、当該選択領域に対す る前記 1度のタツチ入力が検出されたときには、前記第 1の動作として前記案内地図 を前記タツチ位置が前記表示画面の中心位置となるように表示を更新させる制御指 示を行うことを特徴とする請求項 6または 7に記載のカーナビゲーシヨン装置。
[11] 前記動作制御手段は、前記走行経路の案内地図をスクロールさせる位置の選択領 域に対して連続する前記 2度のタツチ入力が検出され、前記第 2の動作として前記キ 一が継続的にタツチされて ヽる間は、前記タツチ位置が前記表示画面の中心位置と なるように前記案内地図を連続的にスクロールさせる制御指示を行うことを特徴とす る請求項 10に記載のカーナビゲーシヨン装置。
[12] 操作用の選択領域を含む画面を表示する表示工程と、
前記表示工程により表示された前記選択領域に対するタツチ入力を検出する入力 検出工程と、
前記入力検出工程によるタツチ入力の検出に基づいて、前記選択領域毎にそれぞ れ設定されて!、る報知情報を発生させる報知工程と、
前記入力検出工程によって 1度のタツチ入力が検出されてから当該 1度のタツチ入 力が解除されたことを検出したときに、前記選択領域に設定されている第 1の動作を 制御指示する動作制御工程と、
を含むことを特徴とするタツチパネル制御方法。
[13] 前記動作制御工程は、前記入力検出工程によって連続する 2度のタツチ入力が検 出され、当該 2度目のタツチ入力が継続的に検出されている期間は、前記第 1の動作 と異なる第 2の動作を制御指示することを特徴とする請求項 12に記載のタツチパネル 制御方法。
[14] 請求項 12または 13に記載のタツチパネル制御方法をコンピュータに実行させるこ とを特徴とするタツチパネル制御プログラム。
[15] 請求項 14に記載のタツチパネル制御プログラムを記録したことを特徴とするコンビ ユータに読み取り可能な記録媒体。
PCT/JP2005/004779 2004-05-31 2005-03-17 タッチパネル装置、カーナビゲーション装置、タッチパネル制御方法、タッチパネル制御プログラムおよび記録媒体 WO2005116811A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006513815A JPWO2005116811A1 (ja) 2004-05-31 2005-03-17 タッチパネル装置、カーナビゲーション装置、タッチパネル制御方法、タッチパネル制御プログラムおよび記録媒体

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2004-162087 2004-05-31
JP2004162087 2004-05-31

Publications (1)

Publication Number Publication Date
WO2005116811A1 true WO2005116811A1 (ja) 2005-12-08

Family

ID=35451045

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2005/004779 WO2005116811A1 (ja) 2004-05-31 2005-03-17 タッチパネル装置、カーナビゲーション装置、タッチパネル制御方法、タッチパネル制御プログラムおよび記録媒体

Country Status (2)

Country Link
JP (1) JPWO2005116811A1 (ja)
WO (1) WO2005116811A1 (ja)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008033120A (ja) * 2006-07-31 2008-02-14 Xanavi Informatics Corp 地図表示装置
JP2008046844A (ja) * 2006-08-15 2008-02-28 Ntt Docomo Inc 移動体端末装置及びその操作支援方法
JP2009529170A (ja) * 2006-03-07 2009-08-13 ソニー エリクソン モバイル コミュニケーションズ, エービー プログラマブルキーパッド
JP2010055282A (ja) * 2008-08-27 2010-03-11 Nec Saitama Ltd タッチパネル振動方法およびタッチパネル装置
WO2012081182A1 (ja) * 2010-12-13 2012-06-21 パナソニック株式会社 電子機器
JP2014534544A (ja) * 2011-12-02 2014-12-18 ジーティーテレコム タッチスクリーン上における画面操作方法
JP2015201239A (ja) * 2014-04-07 2015-11-12 三菱電機株式会社 メディア再生装置
CN106248097A (zh) * 2015-12-21 2016-12-21 北京智谷睿拓技术服务有限公司 导航方法和设备
JPWO2016038675A1 (ja) * 2014-09-09 2017-04-27 三菱電機株式会社 触感制御システムおよび触感制御方法

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11272163A (ja) * 1998-03-23 1999-10-08 Aisin Aw Co Ltd 無段階縮尺地図表示装置及び記録媒体
JP2002323850A (ja) * 2001-04-24 2002-11-08 Matsushita Electric Ind Co Ltd 地図スクロール方法および地図表示装置
JP2003016502A (ja) * 2001-06-27 2003-01-17 Oki Electric Ind Co Ltd 自動取引装置

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11272163A (ja) * 1998-03-23 1999-10-08 Aisin Aw Co Ltd 無段階縮尺地図表示装置及び記録媒体
JP2002323850A (ja) * 2001-04-24 2002-11-08 Matsushita Electric Ind Co Ltd 地図スクロール方法および地図表示装置
JP2003016502A (ja) * 2001-06-27 2003-01-17 Oki Electric Ind Co Ltd 自動取引装置

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009529170A (ja) * 2006-03-07 2009-08-13 ソニー エリクソン モバイル コミュニケーションズ, エービー プログラマブルキーパッド
JP2008033120A (ja) * 2006-07-31 2008-02-14 Xanavi Informatics Corp 地図表示装置
JP2008046844A (ja) * 2006-08-15 2008-02-28 Ntt Docomo Inc 移動体端末装置及びその操作支援方法
JP2010055282A (ja) * 2008-08-27 2010-03-11 Nec Saitama Ltd タッチパネル振動方法およびタッチパネル装置
WO2012081182A1 (ja) * 2010-12-13 2012-06-21 パナソニック株式会社 電子機器
JPWO2012081182A1 (ja) * 2010-12-13 2014-05-22 パナソニック株式会社 電子機器
JP2014534544A (ja) * 2011-12-02 2014-12-18 ジーティーテレコム タッチスクリーン上における画面操作方法
JP2015201239A (ja) * 2014-04-07 2015-11-12 三菱電機株式会社 メディア再生装置
JPWO2016038675A1 (ja) * 2014-09-09 2017-04-27 三菱電機株式会社 触感制御システムおよび触感制御方法
CN106248097A (zh) * 2015-12-21 2016-12-21 北京智谷睿拓技术服务有限公司 导航方法和设备

Also Published As

Publication number Publication date
JPWO2005116811A1 (ja) 2008-07-31

Similar Documents

Publication Publication Date Title
WO2005116811A1 (ja) タッチパネル装置、カーナビゲーション装置、タッチパネル制御方法、タッチパネル制御プログラムおよび記録媒体
US7339581B2 (en) Input control apparatus and method for responding to input
US7345679B2 (en) Input control apparatus and input accepting method
JP5654114B2 (ja) タッチセンサを備えた電子機器
KR100727954B1 (ko) 사용자 인터페이스 표시장치 및 방법
EP2590067A2 (en) Systems and methods for multi-pressure interaction on touch-sensitive surfaces
JP2014102660A (ja) 操作支援システム、操作支援方法及びコンピュータプログラム
CN110294009A (zh) 用于基于触摸控制操作方向盘的装置和方法
US20130314355A1 (en) Electronic device
JP4743832B2 (ja) 表示式入力装置
JP2007310496A (ja) タッチ操作入力装置
JP2020518897A (ja) タッチ感知及びタッチ圧力感知が可能な装置及び制御方法
JP4548325B2 (ja) 車載用表示装置
JP2014102656A (ja) 操作支援システム、操作支援方法及びコンピュータプログラム
JP2020518914A (ja) タッチ感知及びタッチ圧力感知が可能な装置及び制御方法
US6894680B1 (en) Groping operation apparatus
KR20100061259A (ko) 휴대 단말기의 입력 장치 및 방법
CN109564469B (zh) 显示操作装置
JP2008033763A (ja) 車載電子機器およびナビゲーション装置
JP2008015584A (ja) 操作装置,画像形成装置
JP2008145170A (ja) 車載用表示装置
JP2010281572A (ja) 車載装置および車載装置の制御方法
JP2014100998A (ja) 操作支援システム、操作支援方法及びコンピュータプログラム
KR101021757B1 (ko) 한 손으로 조작 가능한 터치스크린 인터페이스 제어 장치
JP2014102658A (ja) 操作支援システム、操作支援方法及びコンピュータプログラム

Legal Events

Date Code Title Description
AK Designated states

Kind code of ref document: A1

Designated state(s): AE AG AL AM AT AU AZ BA BB BG BR BW BY BZ CA CH CN CO CR CU CZ DE DK DM DZ EC EE EG ES FI GB GD GE GH GM HR HU ID IL IN IS JP KE KG KP KR KZ LC LK LR LS LT LU LV MA MD MG MK MN MW MX MZ NA NI NO NZ OM PG PH PL PT RO RU SC SD SE SG SK SL SM SY TJ TM TN TR TT TZ UA UG US UZ VC VN YU ZA ZM ZW

AL Designated countries for regional patents

Kind code of ref document: A1

Designated state(s): BW GH GM KE LS MW MZ NA SD SL SZ TZ UG ZM ZW AM AZ BY KG KZ MD RU TJ TM AT BE BG CH CY CZ DE DK EE ES FI FR GB GR HU IE IS IT LT LU MC NL PL PT RO SE SI SK TR BF BJ CF CG CI CM GA GN GQ GW ML MR NE SN TD TG

121 Ep: the epo has been informed by wipo that ep was designated in this application
DPEN Request for preliminary examination filed prior to expiration of 19th month from priority date (pct application filed from 20040101)
WWE Wipo information: entry into national phase

Ref document number: 2006513815

Country of ref document: JP

NENP Non-entry into the national phase

Ref country code: DE

WWW Wipo information: withdrawn in national office

Country of ref document: DE

122 Ep: pct application non-entry in european phase