WO2020255388A1 - 入力制御装置、入力装置、及び入力制御方法 - Google Patents

入力制御装置、入力装置、及び入力制御方法 Download PDF

Info

Publication number
WO2020255388A1
WO2020255388A1 PCT/JP2019/024770 JP2019024770W WO2020255388A1 WO 2020255388 A1 WO2020255388 A1 WO 2020255388A1 JP 2019024770 W JP2019024770 W JP 2019024770W WO 2020255388 A1 WO2020255388 A1 WO 2020255388A1
Authority
WO
WIPO (PCT)
Prior art keywords
touch
layer
touch position
area
vibration
Prior art date
Application number
PCT/JP2019/024770
Other languages
English (en)
French (fr)
Inventor
謙太郎 坂梨
Original Assignee
三菱電機株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 三菱電機株式会社 filed Critical 三菱電機株式会社
Priority to PCT/JP2019/024770 priority Critical patent/WO2020255388A1/ja
Priority to JP2021528607A priority patent/JP7118271B2/ja
Publication of WO2020255388A1 publication Critical patent/WO2020255388A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures

Definitions

  • the present invention relates to an input control device, an input device, and an input control method.
  • the operation of the navigation device or the like can be performed by voice recognition or by a remote controller (hereinafter referred to as "remote control"). It is limited to operation methods that do not need to be watched.
  • voice recognition has a problem that the music being played in the car or the conversation with the passenger is erroneously recognized as the utterance of the driver.
  • remote control operation has a problem that the number of parts increases.
  • the touch sensor includes a touch panel integrally configured with a display device, a touch pad not provided with the display device, and the like.
  • the touch panel is installed on a dashboard or the like.
  • the touch pad is installed on a handle, an armrest, or the like.
  • the tactile input / output device described in Patent Document 1 reproduces video content that is equipped in the vehicle with respect to the first touched touch position when the driver's three fingers are touched by the touch sensor. Assign the operation item “rewind” of the device, assign the operation item “play / pause” to the second touched touch position, and assign the operation item "fast forward” to the third touched touch position. assign.
  • the driver performs the "play / pause” operation, the driver touches the touch sensor with the first touched finger and the third touched finger, and then temporarily touches the second touched finger from the touch sensor. Release and touch again within the specified time. Tap input is performed.
  • the touch position of the tap input corresponds to the second touch position described above based on the relative positional relationship between the touch position of the tap input and the two touch positions that are still touched. Is determined, and the operation item "play / pause" assigned to the second touched touch position is instructed to the video content playback device.
  • the conventional input control device as described in Patent Document 1 has a configuration in which an operation item is determined based on the relative positional relationship of a plurality of touch positions, for example, the second touched touch position and tap input If the touch position of is significantly deviated, the relative positional relationship between the touch position of the tap input and the remaining two touch positions changes, and an erroneous determination of the operation item occurs.
  • the relative positional relationship of the three touch positions also changes when the driver continuously taps the finger that is touched second and then taps the finger that is touched third. Since it is easy to perform, an erroneous judgment of an operation item occurs.
  • the present invention has been made to solve the above problems, and an object of the present invention is to prevent erroneous determination of operation items in an input device using a touch sensor.
  • the input control device has a position acquisition unit that acquires information indicating the touch position detected by the touch sensor, and a predetermined first position when the position acquisition unit acquires information indicating the first touch position. Shows the pressure detected by the vibration control unit that vibrates the vibration mechanism provided integrally with the touch sensor and the pressure sensor provided integrally with the touch sensor with a predetermined vibration pattern corresponding to the operation items of the first layer.
  • the pressure for the first touch position is detected when the vibration mechanism vibrates based on the pressure acquisition unit that acquires information and the information indicating the pressure acquired by the pressure acquisition unit, it corresponds to the vibration pattern of the vibration mechanism.
  • the input device using the touch sensor is used. It is possible to prevent erroneous determination of the operation item in.
  • FIG. It is a block diagram which shows the structural example of the input device which concerns on Embodiment 1.
  • FIG. It is a figure which shows the example of the operation item of the 1st layer and the operation item of the 2nd layer in Embodiment 1.
  • FIG. It is a figure which shows the state which the middle finger which is a 1st finger touches a touch operation area of a touch sensor. It is a figure which shows the state which the middle finger which is the first finger which touched the touch operation area of a touch sensor performed a pushing operation. It is a figure which shows an example of the method of dividing a touch operation area by the 2nd determination part of Embodiment 1.
  • FIG. It is a figure which shows another example of the method of dividing a touch operation area by the 2nd determination part of Embodiment 1.
  • FIG. It is a flowchart which shows the operation example of the input control apparatus which concerns on Embodiment 1.
  • FIG. It is a figure which shows an example of the hardware composition of the input device which concerns on Embodiment 1.
  • FIG. It is a figure which shows another example of the hardware composition of the input device which concerns on Embodiment 1.
  • FIG. It is a figure which shows the example which the middle finger which is the 1st finger slides and moves in the direction of an arrow.
  • FIG. 1 is a block diagram showing a configuration example of the input device 1 according to the first embodiment.
  • the input device 1 includes a touch sensor 2, a pressure sensor 3, a vibration mechanism 4, and an input control device 10.
  • the input device 1 is mounted on a vehicle and is connected to various in-vehicle equipment 20 mounted on the vehicle. A touch operation by the occupant for operating the in-vehicle equipment 20 is input to the input device 1.
  • a driver is assumed as an example of an occupant.
  • the touch sensor 2 is, for example, a touch panel integrally configured with a display device installed on the dashboard of a vehicle.
  • the touch sensor 2 may be a touch pad or the like installed on the driver's armrest or steering wheel. The touch sensor 2 detects the position touched by the driver's finger.
  • the pressure sensor 3 is provided integrally with the touch sensor 2.
  • the pressure sensor 3 detects the pressure on the touch sensor 2.
  • the vibration mechanism 4 is provided integrally with the touch sensor 2 and the pressure sensor 3. By vibrating the touch sensor 2, the vibration mechanism 4 provides information to the driver's finger touching the touch sensor 2 through a tactile sense.
  • the information provided by the vibration mechanism 4 is, for example, an operation item of the first layer and an operation item of the second layer for operating the in-vehicle equipment 20.
  • the operation items of the first layer and the operation items of the second layer will be described in detail with reference to FIG.
  • the in-vehicle equipment 20 is equipment mounted on the vehicle, such as an audio device, a roof controller, an air conditioner, or a navigation device.
  • the input control device 10 includes a position acquisition unit 11, a vibration control unit 12, a pressure acquisition unit 13, a first determination unit 14, and a second determination unit 15.
  • the position acquisition unit 11 acquires information indicating the touch position detected by the touch sensor 2 from the touch sensor 2.
  • the driver performs a touch operation using three fingers, and the position of the first finger (for example, the middle finger) that the driver first touches the touch sensor 2, that is, 1
  • the second touch position detected by the touch sensor 2 is referred to as a "first touch position”.
  • the touch sensor 2 is second at the position of the second finger (for example, either the index finger or the ring finger) that the driver second touches the touch sensor 2, that is, at a position different from the first touch position.
  • the detected touch position is referred to as a "second touch position”.
  • the position acquisition unit 11 outputs the information indicating the first touch position to the vibration control unit 12, and outputs the information indicating the second touch position to the second determination unit 15.
  • the information indicating the touch position is represented by a Cartesian coordinate system of the X-axis and the Y-axis defined for the touch operation area composed of the touch sensor 2. In the following, it is assumed that the X-axis is the horizontal direction of the touch operation area and the Y-axis is the vertical direction of the touch operation area. Further, in the first embodiment, the position acquisition unit 11 includes not only the touch position but also the contents of touch operations such as tap operation, long press operation, and flick operation in the information indicating the touch position.
  • the vibration control unit 12 When the vibration control unit 12 receives the information indicating the first touch position from the position acquisition unit 11, the vibration control unit 12 controls the vibration mechanism 4 so as to vibrate in a vibration pattern corresponding to the operation item of the first layer. Further, the vibration control unit 12 outputs the information indicating the operation item of the first layer corresponding to the vibration pattern instructed to the vibration mechanism 4 and the information indicating the first touch position to the first determination unit 14.
  • FIG. 2 is a diagram showing an example of an operation item of the first layer and an operation item of the second layer in the first embodiment.
  • the operation items of the first layer include music selection operation of the audio device, volume operation and audio source operation, roof opening / closing operation of the roof controller, temperature operation and air volume operation of the air conditioner, and display tilt adjustment of the navigation device. The operation is included. Further, each of the operation items of the first layer is associated with the operation item of the second layer. For example, four items of next track reproduction, fast forward, previous track reproduction, and fast rewind are associated with the music selection operation which is the operation item of the first layer as the operation items of the second layer.
  • the vibration control unit 12 stores in advance the vibration patterns corresponding to each of the operation items in the first layer.
  • the vibration pattern corresponding to the "music selection operation” is one short vibration called “bull”.
  • the vibration pattern corresponding to the "volume operation” is two short vibrations called “blu-blu”.
  • the vibration pattern corresponding to "audio source operation” is three short vibrations called “blu blu blu”.
  • the vibration pattern corresponding to the "roof opening / closing operation” is a combination of one long vibration and one short vibration called "Beau Bleu".
  • the vibration control unit 12 when the vibration control unit 12 receives information indicating the first touch position from the position acquisition unit 11, the vibration control unit 12 switches the vibration pattern at predetermined time intervals (for example, every second) to vibrate the vibration mechanism 4.
  • the vibration mechanism 4 vibrates the touch sensor 2 as "bull” under the control of the vibration control unit 12 while the driver touches the touch sensor 2 with the first finger. Then, one second later, it vibrates with "buru buru", and one second later, it vibrates with "buru buru buru”.
  • the vibration control unit 12 may instruct the vibration mechanism 4 to repeat the vibration patterns of "bull", "bull blu", and "blu blu blu”.
  • the driver When the driver recognizes the vibration of the vibration pattern corresponding to the operation item of the first layer desired by himself / herself, he / she touches the first finger touching the touch sensor 2 before the vibration of the next vibration pattern starts. The operation of pushing toward the touch sensor 2 is performed. By performing this pushing operation, the driver can select and confirm the desired operation item of the first layer by the action of the pressure acquisition unit 13 and the first determination unit 14 described below.
  • the vibration control unit 12 when the vibration control unit 12 receives the information indicating the first touch position from the position acquisition unit 11, the vibration control unit 12 performs a flick operation each time the first touch position moves by a predetermined distance, that is, the driver performs a flick operation.
  • the vibration pattern may be switched each time.
  • the vibration control unit 12 may control the vibration mechanism 4 so as to vibrate in a vibration pattern corresponding to the first touch position.
  • the touch operation area of the touch sensor 2 is divided into a plurality of areas, and one operation item of the first layer and its vibration pattern are associated with one divided area.
  • the vibration control unit 12 instructs the vibration mechanism 4 of the vibration pattern of the operation item of the first layer associated with the divided region including the first touch position.
  • the pressure acquisition unit 13 acquires information indicating the pressure on the touch sensor 2 detected by the pressure sensor 3 from the pressure sensor 3 and outputs the information to the first determination unit 14.
  • the pressure acquisition unit 13 outputs information indicating the pressure to the first determination unit 14 when the pressure detected by the pressure sensor 3 becomes equal to or higher than a predetermined threshold value.
  • the predetermined threshold value is a value for determining whether or not the driver has performed an operation of pushing a finger.
  • the first confirmation unit 14 receives information indicating an operation item of the first layer corresponding to the current vibration pattern and information indicating the first touch position from the vibration control unit 12. Further, the first determination unit 14 receives information indicating the pressure corresponding to the pushing operation at the first touch position from the pressure acquisition unit 13. When the first determining unit 14 receives information indicating the pressure corresponding to the pushing operation from the vibration control unit 12, the first determining unit 14 determines the operation items of the first layer corresponding to the vibration pattern when the pushing operation is performed. The first confirmation unit 14 outputs the information indicating the confirmed operation item of the first layer and the information indicating the first touch position to the second confirmation unit 15.
  • the first determination unit 14 may vibrate the vibration mechanism 4 via the vibration control unit 12 in order to provide the driver that the operation items of the first layer have been determined. Further, the first confirmation unit 14 may display the confirmed operation item name of the first layer on a head-up display (not shown) in order to provide the driver that the operation item of the first layer has been confirmed. Alternatively, audio output such as the operation item name of the first layer confirmed may be output from a speaker (not shown).
  • FIG. 3 is a diagram showing a state in which the middle finger 41, which is the first finger, touches the touch operation area 30 of the touch sensor 2.
  • FIG. 4 is a diagram showing a state in which the middle finger 41, which is the first finger that touches the touch operation area 30 of the touch sensor 2, performs a pushing operation.
  • the first determination unit 14 receives information from the vibration control unit 12 indicating the operation item “music selection operation” of the first layer corresponding to the vibration pattern “bull”. Further, the first determination unit 14 receives information indicating the pressure corresponding to the pushing operation at the first touch position from the pressure acquisition unit 13. Then, the first confirmation unit 14 confirms the "music selection operation” as an operation item of the first layer.
  • the second confirmation unit 15 receives information indicating the confirmed operation item of the first layer and information indicating the first touch position from the first confirmation unit 14. Further, the second determination unit 15 receives information indicating the second touch position from the position acquisition unit 11. The second determination unit 15 divides the touch operation area 30 of the touch sensor 2 into two areas based on the information indicating the first touch position, based on the first touch position. Then, the second determination unit 15 associates the operation items of the second layer as shown in FIG. 2 with each of the divided regions.
  • FIG. 5 is a diagram showing an example of a method of dividing the touch operation area 30 by the second determination unit 15 of the first embodiment.
  • the second determination unit 15 sets the touch operation area 30 on the right side of the first touch position with reference to the Y-axis coordinate position (shown by the broken line in FIG. 5) included in the information indicating the first touch position. It is divided into a region 30R and a left region 30L on the left side of the first touch position. For example, when the operation item of the first layer confirmed by the first confirmation unit 14 is "music selection operation", the second confirmation unit 15 sets the operation item "next track reproduction" of the second layer with respect to the right side area 30R.
  • the second determination unit 15 receives the information indicating the second touch position from the position acquisition unit 11, if the second touch position is the right side area 30R, the second determination unit 15 has a second layer associated with the right side area 30R. Confirm the operation item. On the other hand, if the second touch position is the left side region 30L, the second determination unit 15 determines the operation item of the second layer associated with the left side region 30L. As shown in FIG. 2, when the operation items of the second layer change according to the content of the touch operation, the second confirmation unit 15 has the second layer according to the second touch position and the content of the touch operation. It suffices to confirm the operation item of. The second confirmation unit 15 outputs information indicating the confirmed operation items of the second layer to the in-vehicle equipment 20. Upon receiving the information indicating the operation item of the second layer from the second determination unit 15, the in-vehicle equipment 20 executes the operation corresponding to the operation item of the second layer.
  • the middle finger 41 which is the first finger
  • the index finger 42 which is the second finger
  • the second confirmation unit 15 “selects music”. Confirm "next track playback" as an operation item of the second layer related to "operation”.
  • the middle finger 41 which is the first finger
  • the ring finger which is the second finger
  • 43 is pressed and held on the touch sensor 2.
  • the ring finger 43 is shown by a chain double-dashed line in FIG. In this case, since the second touch position of the second confirmation unit 15 is the left side region 30L and the touch operation of the ring finger 43, which is the second finger, is "long press", the second confirmation unit 15 is ". "Fast rewind" is confirmed as an operation item of the second layer related to "music selection operation".
  • the second determination unit 15 may vibrate the vibration mechanism 4 via the vibration control unit 12 in order to provide the driver that the operation items of the second layer have been determined. Further, in order to provide the driver that the operation items of the second layer have been confirmed, the second confirmation unit 15 may display the confirmed operation item names of the second layer on a head-up display (not shown). Alternatively, audio output such as the operation item name of the second layer confirmed may be output from a speaker (not shown).
  • FIG. 6 is a diagram showing another example of a method of dividing the touch operation area 30 by the second determination unit 15 of the first embodiment.
  • the example of FIG. 6 is based on the premise that the touch sensor 2 has a function of recognizing a fingerprint.
  • the second determination unit 15 acquires information indicating the touch position and the fingerprint of the middle finger 41, which is the first finger, from the touch sensor 2 via the position acquisition unit 11.
  • the second fixing unit 15 estimates the direction of the middle finger 41 based on the fingerprint of the middle finger 41, and sets the touch operation area 30 as the left side area 30L with reference to the estimated direction of the middle finger 41 (shown by a broken line in FIG. 6). It is divided into a right area 30R.
  • the second fixing unit 15 may acquire information indicating the touch position and the touch area of the middle finger 41, which is the first finger, from the touch sensor 2 via the position acquisition unit 11.
  • the second fixing unit 15 estimates the touch shape 41a (shown by the alternate long and short dash line in FIG. 6) based on the touch area of the middle finger 41, and sets the longitudinal direction of the estimated touch shape 41a as the direction of the middle finger 41. ..
  • the second fixing unit 15 divides the touch operation area 30 into a left side area 30L and a right side area 30R with reference to the direction of the middle finger 41 (shown by a broken line in FIG. 6).
  • FIG. 7 is a flowchart showing an operation example of the input control device 10 according to the first embodiment.
  • the input control device 10 repeats the operation shown in the flowchart of FIG. 7.
  • step ST1 the position acquisition unit 11 acquires the first touch position from the touch sensor 2.
  • step ST1 “YES” the process of the input control device 10 Proceeds to step ST2.
  • step ST1 “NO” the position acquisition unit 11 does not acquire the first touch position from the touch sensor 2, that is, when the driver's first finger does not touch the touch sensor 2.
  • step ST1 “NO” the process of the input control device 10 returns to step ST1.
  • step ST2 the vibration control unit 12 vibrates the vibration mechanism 4 while switching the vibration pattern corresponding to the operation item of the first layer at predetermined time intervals, for example.
  • step ST3 the pressure acquisition unit 13 acquires the pressure at the first touch position from the pressure sensor 3.
  • the pressure acquisition unit 13 acquires a pressure equal to or higher than a predetermined threshold value from the pressure sensor 3, that is, when the driver pushes the first finger (step ST3 “YES”)
  • the processing of the input control device 10 is performed.
  • step ST4 the pressure acquisition unit 13 acquires a pressure less than the predetermined threshold value from the pressure sensor 3, that is, when the driver does not push the first finger (step ST3 “NO”)
  • the input control device returns to step ST2.
  • the vibration control unit 12 vibrates the vibration mechanism 4 with a vibration pattern corresponding to the next operation item of the first layer when the predetermined time has elapsed from the previous step ST2. ..
  • step ST4 when the first determination unit 14 receives the information indicating the pressure from the pressure acquisition unit 13, the operation item of the first layer corresponding to the vibration pattern instructed by the vibration control unit 12 to the vibration mechanism 4 To confirm.
  • the second confirmation unit 15 uses the information indicating the first touch position received from the first confirmation unit 14 to set the left side region 30L and the right side region 30R with respect to the first touch position. , Set for the touch operation area 30 of the touch sensor 2. Further, the second confirmation unit 15 associates the operation items of the second layer related to the operation items of the first layer determined by the first confirmation unit 14 with the left side region 30L and the right side region 30R.
  • step ST5 the position acquisition unit 11 acquires the second touch position from the touch sensor 2.
  • step ST6 the process of the input control device 10 Proceeds to step ST6.
  • step ST5 “NO” the position acquisition unit 11 does not acquire the second touch position from the touch sensor 2, that is, when the driver's second finger does not touch the touch sensor 2.
  • step ST6 the second determination unit 15 receives the information indicating the second touch position from the position acquisition unit 11 and associates it with the area including the second touch position among the left side area 30L and the right side area 30R. Confirm the operation items of the second layer.
  • the second confirmation unit 15 outputs information indicating the confirmed operation items of the second layer to the in-vehicle equipment 20.
  • step ST7 the position acquisition unit 11 determines whether or not the touch of the first finger to the first touch position is completed.
  • the position acquisition unit 11 determines that the touch of the first finger to the first touch position is completed, that is, when the driver's first finger is separated from the touch sensor 2 (step ST7 “YES”). Since the driver has no intention of further operating the in-vehicle equipment 20, the process of the input control device 10 ends.
  • Step ST7 “NO”) Since the driver intends to continue to operate the in-vehicle equipment 20, the process of the input control device 10 returns to step ST5.
  • the second confirmation unit 15 sets the operation items of the second layer corresponding to the second touch position newly acquired by the position acquisition unit 11 to the left side area 30L already set in step ST4. Determined using the right region 30R. For example, when the driver wants to play the track five songs ahead, it is necessary to repeat the tap operation of the second finger five times in the right area 30R.
  • the second confirmation unit 15 uses the left side area 30L and the right side area 30R that have been set with reference to the first tap position each time the tap operation is performed by the second finger, and the operation item “Next” of the second layer is used. Confirm "track playback". Therefore, even if the tap operations are continuously performed, and even if the touch positions of those tap operations are deviated each time, the second touch position is within the right side area 30R, so that the second determination unit 15 is The correct operation item of the second layer can be confirmed.
  • FIGS. 8 and 9 are diagrams showing a hardware configuration example of the input device 1 according to the first embodiment.
  • the touch sensor 2, the pressure sensor 3, the vibration mechanism 4, and the input control device 10 constituting the input device 1 are connected by a bus 103 or the like.
  • the functions of the position acquisition unit 11, the vibration control unit 12, the pressure acquisition unit 13, the first determination unit 14, and the second determination unit 15 in the input control device 10 are realized by the processing circuit. That is, the input control device 10 includes a processing circuit for realizing the above functions.
  • the processing circuit may be a processing circuit 100 as dedicated hardware, or a processor 101 that executes a program stored in the memory 102.
  • the processing circuit 100 may be, for example, a single circuit, a composite circuit, a programmed processor, a parallel programmed processor, or an ASIC (Application Special Integrated Circuit). ), FPGA (Field Processor Gate Array), or a combination thereof.
  • the functions of the position acquisition unit 11, the vibration control unit 12, the pressure acquisition unit 13, the first determination unit 14, and the second determination unit 15 may be realized by a plurality of processing circuits 100, or the functions of each unit may be collectively 1 It may be realized by one processing circuit 100.
  • the functions of the position acquisition unit 11, the vibration control unit 12, the pressure acquisition unit 13, the first determination unit 14, and the second determination unit 15 are software. It is realized by firmware or a combination of software and firmware.
  • the software or firmware is described as a program and stored in the memory 102.
  • the processor 101 realizes the functions of each part by reading and executing the program stored in the memory 102. That is, the input control device 10 includes a memory 102 for storing a program in which the step shown in the flowchart of FIG. 7 is eventually executed when executed by the processor 101. Further, it can be said that this program causes the computer to execute the procedure or method of the position acquisition unit 11, the vibration control unit 12, the pressure acquisition unit 13, the first determination unit 14, and the second determination unit 15.
  • the processor 101 is a CPU (Central Processing Unit), a processing device, an arithmetic unit, a microprocessor, or the like.
  • the memory 102 may be a non-volatile or volatile semiconductor memory such as a RAM (Random Access Memory), a ROM (Read Only Memory), an EPROM (Erasable Programmable ROM), or a flash memory, and may be a non-volatile or volatile semiconductor memory such as a hard disk or a flexible disk. It may be a magnetic disk of the above, or an optical disk such as a CD (Compact Disc) or a DVD (Digital Versaille Disc).
  • the vibration control unit 12 the pressure acquisition unit 13, the first confirmation unit 14, and the second confirmation unit 15, some of them are realized by dedicated hardware, and some of them are software or firmware. It may be realized by.
  • the processing circuit in the input control device 10 can realize the above-mentioned functions by hardware, software, firmware, or a combination thereof.
  • the input control device 10 includes a position acquisition unit 11, a vibration control unit 12, a pressure acquisition unit 13, a first determination unit 14, and a second determination unit 15.
  • the position acquisition unit 11 acquires information indicating the touch position detected by the touch sensor 2.
  • the vibration control unit 12 has a predetermined vibration pattern corresponding to a predetermined operation item of the first layer, and the touch sensor 2
  • the vibration mechanism 4 provided integrally with the vibration mechanism 4 is vibrated.
  • the pressure acquisition unit 13 acquires information indicating the pressure detected by the pressure sensor 3 provided integrally with the touch sensor 2.
  • the first determination unit 14 changes the vibration pattern of the vibration mechanism 4 when the pressure with respect to the first touch position is detected when the vibration mechanism 4 vibrates.
  • the operation item of the corresponding first layer is confirmed.
  • the position acquisition unit 11 acquires information indicating a second touch position different from the first touch position. In the case, two areas are set with reference to the first touch position, and the operation items of the second layer related to the determined operation items of the first layer are associated with each of the set two areas. .. Then, the second determination unit 15 determines the operation item of the second layer associated with the area including the second touch position of the two areas.
  • the input control device 10 determines the operation items of the second layer based on the two areas set with reference to the first touch position and the second touch position, so that the driver can determine the operation items. If the right side of the middle finger 41 of the left hand is touched with the index finger 42, the operation item of the second layer associated with the right area 30R is confirmed, and if the left side of the middle finger 41 is touched with the ring finger 43, the left side is confirmed. It is possible to determine the operation items of the second layer associated with the area 30L. Therefore, the input control device 10 can prevent erroneous determination of operation items in the input device 1 using the touch sensor 2. Further, since the driver can determine the operation item of the first layer based on the vibration pattern to the finger, the driver can perform the touch operation without looking at the hand.
  • the middle finger 41 of the left hand is the first finger and the index finger 42 and the ring finger 43 are the second fingers, but the first finger and the second finger are these fingers.
  • the index finger of the left hand may be the first finger
  • the thumb and middle finger may be the second finger.
  • the hand performing the touch operation may be a left hand or a right hand.
  • the second determination unit 15 of the first embodiment includes the contents of the operation items of the second layer corresponding to one of the left side regions 30L of the left side region 30L and the right side region 30R set with reference to the first touch position.
  • the content of the operation item of the second layer corresponding to the other right area 30R is set to the opposite content.
  • the operation items of the second layer which are determined by touching the finger to the right of the first finger and touching the finger to the left, are opposite, such as "fast forward" and "fast rewind". By the content, the driver can intuitively grasp the content of the operation item of the second layer.
  • the second fixing unit 15 of the first embodiment may set the left side region 30L and the right side region 30R with reference to the direction of the first finger touching the first touch position.
  • the input control device 10 has a left side region 30L and a right side region corresponding to the positional relationship between the first finger and the second finger when the driver touches the touch sensor 2 from an oblique direction or a lateral direction. 30R can be set. Therefore, the input control device 10 can prevent erroneous determination of the operation item even when the driver touches the touch sensor 2 from an oblique direction or a lateral direction. Further, since the driver does not have to worry about the positional relationship between the touch sensor 2 and his / her own hand, the driver can perform the touch operation without looking at his / her hand.
  • the vibration control unit 12 of the first embodiment has information indicating a different vibration pattern for each operation item of the first layer, and switches the vibration pattern at predetermined time intervals to vibrate the vibration mechanism 4.
  • the vibration control unit 12 switches the vibration pattern to vibrate the vibration mechanism 4.
  • FIG. 10 is a diagram showing an example in which the middle finger 41, which is the first finger, slides in the direction of the arrow.
  • the middle finger 41 which is the first finger
  • the middle finger 41A can be slidably moved to a position where the touch operation of the second finger is easy (the position of the middle finger 41A in FIG. 10).
  • the position acquisition unit 11 acquires information indicating the touch position of the middle finger 41A after movement from the touch sensor 2 and outputs the information to the second determination unit 15.
  • the second fixing unit 15 resets the left side region 30L and the right side region 30R with reference to the touch position of the middle finger 41A after movement. In this way, the second determination unit 15 always sets the left side region 30L and the right side region 30R with reference to the latest first touch position. As a result, the driver can move the first finger to a position where the touch operation by the second finger is easy.
  • FIG. 11 is a diagram showing a modified example of the method of dividing the left side region 30L and the right side region 30R in FIG.
  • the second determination unit 15 sets the touch operation area 30 on the right side of the first touch position with reference to the coordinate position of the Y axis included in the information indicating the first touch position. It is divided into a region 30R and a left region 30L on the left side of the first touch position. Further, the second determination unit 15 sets the left side region 30L as the upper first region 30L-1 and the lower second region 30L with reference to the coordinate position of the X axis included in the information indicating the first touch position. Divide into 30L-2.
  • the second determination unit 15 sets the right side region 30R as the upper third region 30R-1 and the lower fourth region 30R with reference to the coordinate position of the X axis included in the information indicating the first touch position. Divide into 30R-2. Subsequently, the second determination unit 15 allocates a large amount of operation items of the operation items of the second layer to the first area 30L-1 and the third area 30R-1, and assigns the second area 30L-2 and the fourth area 30R. Allocate a small amount of operation for the operation items in the second layer to -2.
  • the operation item of the first layer is "volume operation”
  • the operation item of the second layer corresponding to the left side area 30L is “volume down”
  • the operation item of the second layer corresponding to the right side area 30R is “volume operation”. It is assumed that the volume is increased.
  • the second determination unit 15 assigns "two-step volume down” to the first region 30L-1 and "two-step volume up” to the third region 30R-1. Further, the second determination unit 15 assigns "one step volume down” to the second area 30L-2 and "one step volume up” to the fourth area 30R-2.
  • the driver when the driver touches the second finger above the first finger, the driver can cause the in-vehicle equipment 20 to perform an operation with a larger amount of operation, and the second finger is below the first finger.
  • the in-vehicle equipment 20 can perform an operation with a smaller amount of operation.
  • the second determination unit 15 allocates a large amount of operation to the area above the first finger and a small amount of operation to the area below the first finger. On the contrary, a small amount of operation may be assigned to the area above the first finger, and a large amount of operation may be assigned to the area below the first finger.
  • FIG. 12 is a diagram showing a modified example of the method of dividing the left side region 30L and the right side region 30R in FIG.
  • the second determination unit 15 sets the touch operation area 30 to the right side area 30R on the right side of the first touch position with reference to the direction of the first finger corresponding to the first touch position. And the left side area 30L on the left side of the first touch position. Further, the second determination unit 15 sets the left side region 30L as the upper first region 30L-1 and the lower second region 30L-2 with reference to the axis orthogonal to the direction of the first finger. Divide into.
  • the second determination unit 15 sets the right side region 30R as the upper third region 30R-1 and the lower fourth region 30R-2 with reference to the axis orthogonal to the direction of the first finger. Divide into. Subsequently, the second determination unit 15 allocates a large operation amount of the operation items of the second layer to the first area 30L-1 and the third area 30R-1 as in the example of FIG. 11, and the second area A small amount of operation of the operation items of the second layer is assigned to 30L-2 and the fourth area 30R-2.
  • the driver sees not only the operation items of the second layer for executing the operation of the in-vehicle equipment 20 but also the operation amount of the operation items of the second layer. It can be easily touch-operated. Further, since the second determination unit 15 sets the first region 30L-1, the second region 30L-2, the third region 30R-1, and the fourth region 30R-2 with reference to the first touch position.
  • the input control device 10 can prevent erroneous determination of operation items in the input device 1 using the touch sensor 2.
  • the input device allows the user to perform a touch operation without looking at the hand, a touch panel integrally configured with a display device installed on the dashboard of the vehicle, or a driver's input device. It is suitable for input devices used for touch pads installed on arm rests or handles.
  • 1 Input device 2 Touch sensor, 3 Pressure sensor, 4 Vibration mechanism, 10 Input control device, 11 Position acquisition unit, 12 Vibration control unit, 13 Pressure acquisition unit, 14 1st confirmation unit, 15 2nd confirmation unit, 20 In-vehicle equipment, 30 Touch Operation area, 30L left area, 30L-1 first area, 30L-2 second area, 30R right area, 30R-1 third area, 20R-2 fourth area, 41, 41A middle finger, 41a touch shape, 42 index finger , 43 Ring finger, 100 processing circuit, 101 processor, 102 memory, 103 bus.

Abstract

第2確定部(15)は、第1確定部(14)により第1階層の操作項目が確定された後、位置取得部(11)により第1のタッチ位置とは異なる第2のタッチ位置を示す情報がタッチセンサ(2)から取得された場合に、第1のタッチ位置を基準とした左側領域(30L)と右側領域(30R)を設定する。第2確定部(15)は、左側領域(30L)と右側領域(30R)のそれぞれに対して、確定された第1階層の操作項目に関連する第2階層の操作項目を対応付ける。そして、第2確定部(15)は、左側領域(30L)と右側領域(30R)のうち、第2のタッチ位置が含まれる領域に対応付けた第2階層の操作項目を確定する。

Description

入力制御装置、入力装置、及び入力制御方法
 この発明は、入力制御装置、入力装置、及び入力制御方法に関するものである。
 車両の運転者は、運転中に表示装置の画面を注視することができないため、ナビゲーション装置等の操作は、音声認識による操作又はリモートコントローラ(以下、「リモコン」と称する)による操作等、画面を注視する必要のない操作方法に制限されている。しかしながら、音声認識による操作には、車中で再生されている音楽又は同乗者との会話等を、運転者の発話として誤認識するといった問題があった。また、リモコンによる操作には、部品点数が増えるといった問題があった。
 そこで、近年、運転者が画面を注視することなく車内装備を操作する手段として、タッチセンサが用いられている(例えば、特許文献1参照)。当該タッチセンサは、表示装置と一体に構成されたタッチパネル、及び、表示装置を備えないタッチパッド等を含む。タッチパネルは、ダッシュボード等に設置される。タッチパッドは、ハンドル、又はアームレスト等に設置される。
国際公開第2014/097499号
 特許文献1に記載されている触覚入出力装置は、運転者の3本の指がタッチセンサに対してタッチされた場合、1番目にタッチされたタッチ位置に対して車内装備である映像コンテンツ再生機器の操作項目「巻戻し」を割り当て、2番目にタッチされたタッチ位置に対して操作項目「再生/一時停止」を割り当て、3番目にタッチされたタッチ位置に対して操作項目「早送り」を割り当てる。運転者は、「再生/一時停止」の操作を行う場合、1番目にタッチした指と3番目にタッチした指とをタッチセンサにタッチさせたまま、2番目にタッチした指を一旦タッチセンサから離し、所定の時間内に再度タッチするタップ入力を行う。触覚入出力装置は、タップ入力のタッチ位置と、タッチされたままの2つのタッチ位置との相対位置関係に基づいて、タップ入力のタッチ位置が上記2番目にタッチされたタッチ位置に相当することを判定し、上記2番目にタッチされたタッチ位置に割り当てた操作項目「再生/一時停止」を映像コンテンツ再生機器に対して指示する。
 特許文献1に記載されたような従来の入力制御装置は、複数のタッチ位置の相対位置関係に基づいて操作項目を判定する構成であるため、例えば、2番目にタッチされたタッチ位置とタップ入力のタッチ位置とが大きくずれた場合、タップ入力のタッチ位置と残り2つのタッチ位置との相対位置関係が変化してしまい、操作項目の誤判定が発生する。また、運転者が、2番目にタッチした指のタップ入力に続けて、3番目にタッチした指のタップ入力等を連続して行った場合等にも、3つのタッチ位置の相対位置関係が変化しやすくなるため、操作項目の誤判定が発生する。
 この発明は、上記のような課題を解決するためになされたもので、タッチセンサを利用した入力装置における操作項目の誤判定を防止することを目的とする。
 この発明に係る入力制御装置は、タッチセンサが検知するタッチ位置を示す情報を取得する位置取得部と、位置取得部により第1のタッチ位置を示す情報が取得された場合、予め定められた第1階層の操作項目に対応する予め定められた振動パターンで、タッチセンサと一体に設けられた振動機構を振動させる振動制御部と、タッチセンサと一体に設けられた圧力センサが検知する圧力を示す情報を取得する圧力取得部と、圧力取得部により取得された圧力を示す情報に基づき、振動機構が振動した場合に第1のタッチ位置に対する圧力が検知されると、振動機構の振動パターンに対応する第1階層の操作項目を確定する第1確定部と、第1確定部により第1階層の操作項目が確定された後、位置取得部により第1のタッチ位置とは異なる第2のタッチ位置を示す情報が取得された場合、第1のタッチ位置を基準とした2つの領域を設定し、設定した2つの領域のそれぞれに対して、確定された第1階層の操作項目に関連する第2階層の操作項目を対応付け、2つの領域のうちの第2のタッチ位置が含まれる領域に対応付けた第2階層の操作項目を確定する第2確定部とを備えるものである。
 この発明によれば、第1のタッチ位置を基準として設定した2つの領域と第2のタッチ位置とに基づいて第2階層の操作項目を確定するようにしたので、タッチセンサを利用した入力装置における操作項目の誤判定を防止することができる。
実施の形態1に係る入力装置の構成例を示すブロック図である。 実施の形態1における第1階層の操作項目と第2階層の操作項目の例を示す図である。 タッチセンサのタッチ操作領域に第1の指である中指がタッチした状態を示す図である。 タッチセンサのタッチ操作領域にタッチした第1の指である中指が押し込み操作を行った状態を示す図である。 実施の形態1の第2確定部によるタッチ操作領域の分割方法の一例を示す図である。 実施の形態1の第2確定部によるタッチ操作領域の分割方法の別の例を示す図である。 実施の形態1に係る入力制御装置の動作例を示すフローチャートである。 実施の形態1に係る入力装置のハードウェア構成の一例を示す図である。 実施の形態1に係る入力装置のハードウェア構成の別の例を示す図である。 第1の指である中指が矢印方向へスライド移動した例を示す図である。 図5における左側領域と右側領域の分割方法の変形例を示す図である。 図6における左側領域と右側領域の分割方法の変形例を示す図である。
 以下、この発明をより詳細に説明するために、この発明を実施するための形態について、添付の図面に従って説明する。
実施の形態1.
 図1は、実施の形態1に係る入力装置1の構成例を示すブロック図である。入力装置1は、タッチセンサ2、圧力センサ3、振動機構4、及び入力制御装置10を備える。入力装置1は、車両に搭載され、当該車両に搭載された各種の車内装備20に接続される。この入力装置1には、車内装備20を操作するための、乗員によるタッチ操作が入力される。以下では、乗員の一例として運転者を想定する。
 タッチセンサ2は、例えば、車両のダッシュボードに設置された表示装置と一体に構成されたタッチパネルである。または、タッチセンサ2は、運転者のアームレスト又はハンドルに設置されたタッチパッド等であってもよい。タッチセンサ2は、運転者の指がタッチした位置を検知する。
 圧力センサ3は、タッチセンサ2と一体に設けられている。圧力センサ3は、タッチセンサ2に対する圧力を検知する。
 振動機構4は、タッチセンサ2及び圧力センサ3と一体に設けられている。振動機構4は、タッチセンサ2を振動させることによって、タッチセンサ2にタッチしている運転者の指に対して触覚を通じて情報を提供する。実施の形態1では、振動機構4が提供する情報は、例えば、車内装備20を動作させる第1階層の操作項目及び第2階層の操作項目である。第1階層の操作項目及び第2階層の操作項目は、図2にて詳述する。
 車内装備20は、オーディオ装置、ルーフコントローラ、エアコン、又はナビゲーション装置等の、車両に搭載された装備である。
 入力制御装置10は、位置取得部11、振動制御部12、圧力取得部13、第1確定部14、及び第2確定部15を備える。
 位置取得部11は、タッチセンサ2が検知するタッチ位置を示す情報を、タッチセンサ2から取得する。実施の形態1では、運転者が3本の指を用いてタッチ操作を行うことを前提とし、運転者が最初にタッチセンサ2にタッチした第1の指(例えば、中指)の位置、つまり1番目にタッチセンサ2が検知したタッチ位置を「第1のタッチ位置」と称する。また、運転者が2番目にタッチセンサ2にタッチした第2の指(例えば、人差し指又は薬指のいずれか一方)の位置、つまり第1のタッチ位置とは異なる位置において2番目にタッチセンサ2が検知したタッチ位置を「第2のタッチ位置」と称する。位置取得部11は、第1のタッチ位置を示す情報を振動制御部12へ出力し、第2のタッチ位置を示す情報を第2確定部15へ出力する。タッチ位置を示す情報は、タッチセンサ2で構成されるタッチ操作領域に対して定義されたX軸とY軸の直交座標系で表される。以下では、X軸はタッチ操作領域の左右方向であり、Y軸はタッチ操作領域の上下方向であるものとする。また、実施の形態1では、位置取得部11は、タッチ位置を示す情報に、タッチ位置だけでなく、タップ操作、長押し操作、及びフリック操作といったタッチ操作の内容も含めることとする。
 振動制御部12は、第1のタッチ位置を示す情報を位置取得部11から受け取った場合、第1階層の操作項目に対応する振動パターンで振動するように振動機構4を制御する。また、振動制御部12は、振動機構4に指示した振動パターンに対応する第1階層の操作項目を示す情報と第1のタッチ位置を示す情報とを、第1確定部14へ出力する。
 図2は、実施の形態1における第1階層の操作項目と第2階層の操作項目の例を示す図である。図2の例では、第1階層の操作項目には、オーディオ装置の選曲操作、音量操作及びオーディオソース操作、ルーフコントローラのルーフ開閉操作、エアコンの温度操作及び風量操作、並びにナビゲーション装置のディスプレイチルト調整操作が含まれる。また、第1階層の操作項目のそれぞれには、第2階層の操作項目が対応付けられている。例えば、第1階層の操作項目である選曲操作に対して、第2階層の操作項目として、次のトラック再生、早送り、前のトラック再生、及び早戻しの4項目が対応付けられている。
 振動制御部12は、第1階層の操作項目のそれぞれに対応する振動パターンを予め記憶している。例えば、「選曲操作」に対応する振動パターンは、「ブル」という短い振動1回である。また、例えば、「音量操作」に対応する振動パターンは、「ブルブル」という短い振動2回である。また、例えば、「オーディオソース操作」に対応する振動パターンは、「ブルブルブル」という短い振動3回である。また、例えば、「ルーフ開閉操作」に対応する振動パターンは、「ブーブル」という長い振動1回と短い振動1回の組み合わせである。
 例えば、振動制御部12は、第1のタッチ位置を示す情報を位置取得部11から受け取った場合、予め定められた時間ごと(例えば、1秒ごと)に振動パターンを切り替えて振動機構4を振動させる。車内装備20がオーディオ装置のみである場合、運転者がタッチセンサ2に第1の指をタッチしている間、振動制御部12の制御によって、振動機構4がタッチセンサ2を「ブル」と振動させ、その1秒後に「ブルブル」と振動させ、その1秒後に「ブルブルブル」と振動させる。振動制御部12は、「ブル」、「ブルブル」、「ブルブルブル」の振動パターンを繰り返すように振動機構4に指示してもよい。
 運転者は、自身が希望する第1階層の操作項目に対応する振動パターンの振動を認識した場合、次の振動パターンの振動が始まる前に、タッチセンサ2にタッチしている第1の指をタッチセンサ2に向かって押し込む操作を行う。運転者は、この押し込み操作を行うことにより、以降に記載する圧力取得部13及び第1確定部14の作用によって、希望する第1階層の操作項目を選択し確定することができる。
 または、振動制御部12は、第1のタッチ位置を示す情報を位置取得部11から受け取った場合、この第1のタッチ位置が予め定められた距離移動する都度、つまり運転者がフリック操作を行う都度、振動パターンを切り替えてもよい。
 または、振動制御部12は、第1のタッチ位置を示す情報を位置取得部11から受け取った場合、この第1のタッチ位置に対応する振動パターンで振動するように振動機構4を制御してもよい。この場合、タッチセンサ2のタッチ操作領域が複数の領域に分割され、1つの分割領域に対して1つの第1階層の操作項目とその振動パターンとが対応付けられる。振動制御部12は、第1のタッチ位置を含む分割領域に対応付けられている第1階層の操作項目の振動パターンを振動機構4に指示する。
 圧力取得部13は、圧力センサ3が検知するタッチセンサ2に対する圧力を示す情報を、圧力センサ3から取得して第1確定部14へ出力する。なお、圧力取得部13は、圧力センサ3が検知した圧力が予め定められた閾値以上となった場合に、圧力を示す情報を第1確定部14へ出力する。予め定められた閾値は、運転者が指を押し込む操作を行ったか否かを判定するための値である。
 第1確定部14は、振動制御部12から現在の振動パターンに対応する第1階層の操作項目を示す情報と第1のタッチ位置を示す情報とを受け取る。また、第1確定部14は、圧力取得部13から第1のタッチ位置における押し込み操作に相当する圧力を示す情報を受け取る。第1確定部14は、押し込み操作に相当する圧力を示す情報を振動制御部12から受け取った場合、当該押し込み操作が行われたときの振動パターンに対応する第1階層の操作項目を確定する。第1確定部14は、確定した第1階層の操作項目を示す情報と第1のタッチ位置を示す情報とを、第2確定部15へ出力する。
 なお、第1確定部14は、第1階層の操作項目を確定したことを運転者に提供するために、振動制御部12を介して振動機構4を振動させてもよい。また、第1確定部14は、第1階層の操作項目を確定したことを運転者に提供するために、図示しないヘッドアップディスプレイに確定した第1階層の操作項目名等の表示をさせてもよいし、図示しないスピーカから確定した第1階層の操作項目名等の音声出力をさせてもよい。
 図3は、タッチセンサ2のタッチ操作領域30に第1の指である中指41がタッチした状態を示す図である。図4は、タッチセンサ2のタッチ操作領域30にタッチした第1の指である中指41が押し込み操作を行った状態を示す図である。図3に示されるように、運転者がタッチセンサ2に中指41をタッチし、「ブル」という振動パターンで振動機構4が振動した際に、図4に示されるように、この振動パターンに対応する第1階層の操作項目を確定させるために中指41を押し込んだとする。この場合、第1確定部14は、「ブル」という振動パターンに対応する第1階層の操作項目「選曲操作」を示す情報を、振動制御部12から受け取る。また、第1確定部14は、第1のタッチ位置における押し込み操作に相当する圧力を示す情報を圧力取得部13から受け取る。そして、第1確定部14は、第1階層の操作項目として「選曲操作」を確定する。
 第2確定部15は、確定された第1階層の操作項目を示す情報と第1のタッチ位置を示す情報とを第1確定部14から受け取る。また、第2確定部15は、第2のタッチ位置を示す情報を位置取得部11から受け取る。第2確定部15は、第1のタッチ位置を示す情報に基づき、当該第1のタッチ位置を基準として、タッチセンサ2のタッチ操作領域30を2つの領域に分割する。そして、第2確定部15は、分割した領域それぞれに対し、図2に示されるような第2階層の操作項目を対応付ける。
 図5は、実施の形態1の第2確定部15によるタッチ操作領域30の分割方法の一例を示す図である。第2確定部15は、第1のタッチ位置を示す情報に含まれるY軸の座標位置(図5に破線で示す)を基準にして、タッチ操作領域30を第1のタッチ位置より右側の右側領域30Rと第1のタッチ位置より左側の左側領域30Lとに分割する。例えば、第1確定部14により確定された第1階層の操作項目が「選曲操作」である場合、第2確定部15は、右側領域30Rに対して第2階層の操作項目「次のトラック再生」と「早送り」を対応付け、左側領域30Lに対して第2階層の操作項目「前のトラック再生」と「早戻し」を対応付ける。右側領域30Rに対応付けられた「次のトラック再生」と左側領域30Lに対応付けられた「前のトラック再生」とは、反対の操作内容である。同様に、右側領域30Rに対応付けられた「早送り」と左側領域30Lに対応付けられた「早戻し」とは、反対の操作内容である。
 第2確定部15は、位置取得部11から第2のタッチ位置を示す情報を受け取った場合、当該第2のタッチ位置が右側領域30Rであれば、右側領域30Rに対応付けた第2階層の操作項目を確定する。一方、第2確定部15は、当該第2のタッチ位置が左側領域30Lであれば、左側領域30Lに対応付けた第2階層の操作項目を確定する。なお、第2確定部15は、図2に示されるようにタッチ操作の内容に応じて第2階層の操作項目が変わる場合、第2のタッチ位置とタッチ操作の内容とに応じて第2階層の操作項目を確定すればよい。第2確定部15は、確定した第2階層の操作項目を示す情報を、車内装備20へ出力する。車内装備20は、第2階層の操作項目を示す情報を第2確定部15から受け取ると、第2階層の操作項目に対応する動作を実行する。
 図5に示されるように、運転者が第1階層の操作項目として「選曲操作」を確定させた後、タッチセンサ2に第1の指である中指41を押し込んだまま(又はタッチしたまま)、第2の指である人差し指42をタッチセンサ2にタップしたとする。この場合、第2確定部15は、第2のタッチ位置が右側領域30Rであり、第2の指である人差し指42のタッチ操作が「タップ」であるため、第2確定部15は、「選曲操作」に関連する第2階層の操作項目として「次のトラック再生」を確定する。
 運転者が第1階層の操作項目として「選曲操作」を確定させた後、タッチセンサ2に第1の指である中指41を押し込んだまま(又はタッチしたまま)、第2の指である薬指43をタッチセンサ2に長押ししたとする。薬指43は、図5に二点鎖線で示される。この場合、第2確定部15は、第2のタッチ位置が左側領域30Lであり、第2の指である薬指43のタッチ操作が「長押し」であるため、第2確定部15は、「選曲操作」に関連する第2階層の操作項目として「早戻し」を確定する。
 なお、第2確定部15は、第2階層の操作項目を確定したことを運転者に提供するために、振動制御部12を介して振動機構4を振動させてもよい。また、第2確定部15は、第2階層の操作項目を確定したことを運転者に提供するために、図示しないヘッドアップディスプレイに確定した第2階層の操作項目名等の表示をさせてもよいし、図示しないスピーカから確定した第2階層の操作項目名等の音声出力をさせてもよい。
 第1のタッチ位置を基準としたタッチ操作領域30の分割方法は、図5に示される方法に限定されない。
 図6は、実施の形態1の第2確定部15によるタッチ操作領域30の分割方法の別の例を示す図である。図6の例は、タッチセンサ2が指紋を認識する機能を有する前提である。第2確定部15は、第1の指である中指41のタッチ位置と指紋とを示す情報を、位置取得部11を介してタッチセンサ2から取得する。第2確定部15は、中指41の指紋に基づいて中指41の向きを推定し、推定した中指41の向き(図6に破線で示す)を基準にして、タッチ操作領域30を左側領域30Lと右側領域30Rとに分割する。
 また、例えば、第2確定部15は、第1の指である中指41のタッチ位置とタッチ面積とを示す情報を、位置取得部11を介してタッチセンサ2から取得してもよい。この場合、第2確定部15は、中指41のタッチ面積に基づいてタッチ形状41a(図6に二点鎖線で示す)を推定し、推定したタッチ形状41aの長手方向を中指41の向きとする。そして、第2確定部15は、中指41の向き(図6に破線で示す)を基準にして、タッチ操作領域30を左側領域30Lと右側領域30Rとに分割する。
 次に、入力制御装置10の動作を説明する。
 図7は、実施の形態1に係る入力制御装置10の動作例を示すフローチャートである。入力制御装置10は、図7のフローチャートに示される動作を繰り返し行う。
 ステップST1において、位置取得部11は、第1のタッチ位置をタッチセンサ2から取得する。位置取得部11が第1のタッチ位置をタッチセンサ2から取得した場合、つまり、運転者の第1の指がタッチセンサ2にタッチした場合(ステップST1“YES”)、入力制御装置10の処理はステップST2へ進む。一方、位置取得部11が第1のタッチ位置をタッチセンサ2から取得しなかった場合、つまり、運転者の第1の指がタッチセンサ2にタッチしていない場合(ステップST1“NO”)、入力制御装置10の処理はステップST1へ戻る。
 ステップST2において、振動制御部12は、例えば、予め定められた時間ごとに第1階層の操作項目に対応する振動パターンを切り替えながら振動機構4を振動させる。
 ステップST3において、圧力取得部13は、第1のタッチ位置における圧力を圧力センサ3から取得する。圧力取得部13が予め定められた閾値以上の圧力を圧力センサ3から取得した場合、つまり、運転者が第1の指を押し込んだ場合(ステップST3“YES”)、入力制御装置10の処理はステップST4へ進む。一方、圧力取得部13が上記予め定められた閾値未満の圧力を圧力センサ3から取得した場合、つまり、運転者が第1の指を押し込まなかった場合(ステップST3“NO”)、入力制御装置10の処理はステップST2へ戻る。その場合、ステップST2において、振動制御部12は、前回のステップST2から上記予め定められた時間が経過した時点で、次の第1階層の操作項目に対応する振動パターンで振動機構4を振動させる。
 ステップST4において、第1確定部14は、圧力取得部13から圧力を示す情報を受け取った際に、振動制御部12が振動機構4に指示していた振動パターンに対応する第1階層の操作項目を確定する。
 また、この際、第2確定部15は、第1確定部14から受け取った第1のタッチ位置を示す情報を用いて、第1のタッチ位置を基準とした左側領域30Lと右側領域30Rとを、タッチセンサ2のタッチ操作領域30に対して設定する。さらに、第2確定部15は、第1確定部14により確定された第1階層の操作項目に関連する第2階層の操作項目を、左側領域30Lと右側領域30Rとに対応付ける。
 ステップST5において、位置取得部11は、第2のタッチ位置をタッチセンサ2から取得する。位置取得部11が第2のタッチ位置をタッチセンサ2から取得した場合、つまり、運転者の第2の指がタッチセンサ2にタッチした場合(ステップST5“YES”)、入力制御装置10の処理はステップST6へ進む。一方、位置取得部11が第2のタッチ位置をタッチセンサ2から取得しなかった場合、つまり、運転者の第2の指がタッチセンサ2にタッチしていない場合(ステップST5“NO”)、入力制御装置10の処理はステップST7へ進む。
 ステップST6において、第2確定部15は、位置取得部11から第2のタッチ位置を示す情報を受け取り、左側領域30Lと右側領域30Rのうち、第2のタッチ位置が含まれる領域に対応付けた第2階層の操作項目を確定する。第2確定部15は、確定した第2階層の操作項目を示す情報を、車内装備20へ出力する。
 ステップST7において、位置取得部11は、第1のタッチ位置への第1の指のタッチが終了したか否かを判断する。位置取得部11が第1のタッチ位置への第1の指のタッチが終了したと判断した場合、つまり、運転者の第1の指がタッチセンサ2から離れた場合(ステップST7“YES”)、運転者はこれ以上の車内装備20の操作を行う意思がないため、入力制御装置10の処理は終了する。
 一方、位置取得部11が第1のタッチ位置への第1の指のタッチが継続していると判断した場合、つまり、運転者の第1の指がタッチセンサ2にタッチしたままである場合(ステップST7“NO”)、運転者は引き続き車内装備20の操作を行う意思があるため、入力制御装置10の処理はステップST5へ戻る。その場合、ステップST5において、第2確定部15は、新たに位置取得部11が取得した第2のタッチ位置に対応する第2階層の操作項目を、ステップST4にて設定済みの左側領域30Lと右側領域30Rとを用いて確定する。例えば、運転者が5曲先のトラックを再生させようとする場合、右側領域30Rにおいて第2の指のタップ操作を5回繰り返す必要がある。この場合、第2確定部15は、第2の指によるタップ操作の都度、第1のタップ位置を基準として設定済みの左側領域30Lと右側領域30Rとを用いて第2階層の操作項目「次のトラック再生」を確定する。そのため、連続してタップ操作が行われた場合でも、また、それらのタップ操作のタッチ位置が毎回ずれたとしても、第2のタッチ位置が右側領域30R内に収まるため、第2確定部15は正しい第2階層の操作項目を確定することができる。
 次に、実施の形態1に係る入力装置1のハードウェア構成を説明する。
 図8及び図9は、実施の形態1に係る入力装置1のハードウェア構成例を示す図である。入力装置1を構成するタッチセンサ2、圧力センサ3、振動機構4、及び入力制御装置10は、バス103等により接続される。入力制御装置10における位置取得部11、振動制御部12、圧力取得部13、第1確定部14、及び第2確定部15の機能は、処理回路により実現される。即ち、入力制御装置10は、上記機能を実現するための処理回路を備える。処理回路は、専用のハードウェアとしての処理回路100であってもよいし、メモリ102に格納されるプログラムを実行するプロセッサ101であってもよい。
 図8に示されるように、処理回路が専用のハードウェアである場合、処理回路100は、例えば、単一回路、複合回路、プログラム化したプロセッサ、並列プログラム化したプロセッサ、ASIC(Application Specific Integrated Circuit)、FPGA(Field Programmable Gate Array)、又はこれらを組み合わせたものが該当する。位置取得部11、振動制御部12、圧力取得部13、第1確定部14、及び第2確定部15の機能を複数の処理回路100で実現してもよいし、各部の機能をまとめて1つの処理回路100で実現してもよい。
 図9に示されるように、処理回路がプロセッサ101である場合、位置取得部11、振動制御部12、圧力取得部13、第1確定部14、及び第2確定部15の機能は、ソフトウェア、ファームウェア、又はソフトウェアとファームウェアとの組み合わせにより実現される。ソフトウェア又はファームウェアはプログラムとして記述され、メモリ102に格納される。プロセッサ101は、メモリ102に格納されたプログラムを読みだして実行することにより、各部の機能を実現する。即ち、入力制御装置10は、プロセッサ101により実行されるときに、図7のフローチャートで示されるステップが結果的に実行されることになるプログラムを格納するためのメモリ102を備える。また、このプログラムは、位置取得部11、振動制御部12、圧力取得部13、第1確定部14、及び第2確定部15の手順又は方法をコンピュータに実行させるものであるとも言える。
 ここで、プロセッサ101とは、CPU(Central Processing Unit)、処理装置、演算装置、又はマイクロプロセッサ等のことである。
 メモリ102は、RAM(Random Access Memory)、ROM(Read Only Memory)、EPROM(Erasable Programmable ROM)、又はフラッシュメモリ等の不揮発性もしくは揮発性の半導体メモリであってもよいし、ハードディスク又はフレキシブルディスク等の磁気ディスクであってもよいし、CD(Compact Disc)又はDVD(Digital Versatile Disc)等の光ディスクであってもよい。
 なお、位置取得部11、振動制御部12、圧力取得部13、第1確定部14、及び第2確定部15の機能について、一部を専用のハードウェアで実現し、一部をソフトウェア又はファームウェアで実現するようにしてもよい。このように、入力制御装置10における処理回路は、ハードウェア、ソフトウェア、ファームウェア、又はこれらの組み合わせによって、上述の機能を実現することができる。
 以上のように、実施の形態1に係る入力制御装置10は、位置取得部11、振動制御部12、圧力取得部13、第1確定部14、及び第2確定部15を備える。位置取得部11は、タッチセンサ2が検知するタッチ位置を示す情報を取得する。振動制御部12は、位置取得部11により第1のタッチ位置を示す情報が取得された場合に、予め定められた第1階層の操作項目に対応する予め定められた振動パターンで、タッチセンサ2と一体に設けられた振動機構4を振動させる。圧力取得部13は、タッチセンサ2と一体に設けられた圧力センサ3が検知する圧力を示す情報を取得する。第1確定部14は、圧力取得部13により取得された圧力を示す情報に基づき、振動機構4が振動した場合に第1のタッチ位置に対する圧力が検知されると、振動機構4の振動パターンに対応する第1階層の操作項目を確定する。第2確定部15は、第1確定部14により第1階層の操作項目が確定された後、位置取得部11により第1のタッチ位置とは異なる第2のタッチ位置を示す情報が取得された場合に、第1のタッチ位置を基準とした2つの領域を設定し、設定した2つの領域のそれぞれに対して、確定された第1階層の操作項目に関連する第2階層の操作項目を対応付ける。そして、第2確定部15は、2つの領域のうちの第2のタッチ位置が含まれる領域に対応付けた第2階層の操作項目を確定する。このように、入力制御装置10は、第1のタッチ位置を基準として設定した2つの領域と第2のタッチ位置とに基づいて第2階層の操作項目を確定するようにしたので、運転者は左手の中指41をタッチした状態でその右側を人差し指42でタッチ操作すれば右側領域30Rに対応付けられた第2階層の操作項目を確定させ、中指41の左側を薬指43でタッチ操作すれば左側領域30Lに対応付けられた第2階層の操作項目を確定させることができる。したがって、入力制御装置10は、タッチセンサ2を利用した入力装置1における操作項目の誤判定を防止することができる。また、運転者は、指への振動パターンに基づいて第1階層の操作項目を確定させることができるため、手元を見ることなくタッチ操作を行うことができる。
 なお、実施の形態1では、左手の中指41を第1の指、人差し指42及び薬指43を第2の指とした例が示されたが、第1の指と第2の指はこれらの指に限定されない。例えば、左手の人差し指が第1の指、親指及び中指が第2の指であってもよい。また、タッチ操作を行う手は、左手であってもよいし右手であってもよい。
 また、実施の形態1の第2確定部15は、第1のタッチ位置を基準として設定した左側領域30Lと右側領域30Rのうち、一方の左側領域30Lに対応付ける第2階層の操作項目の内容と、もう一方の右側領域30Rに対応付ける第2階層の操作項目の内容とを、反対の内容にする。第1の指の右隣りの指をタッチ操作した場合と左隣りの指をタッチ操作した場合とで確定される第2階層の操作項目が、「早送り」と「早戻し」のような反対の内容であることにより、運転者は、第2階層の操作項目の内容を直感的に把握することができる。
 また、実施の形態1の第2確定部15は、第1のタッチ位置にタッチしている第1の指の向きを基準として左側領域30Lと右側領域30Rを設定してもよい。これにより、入力制御装置10は、運転者が斜め方向又は横方向からタッチセンサ2をタッチした場合に、第1の指と第2の指との位置関係に対応させた左側領域30Lと右側領域30Rを設定することができる。したがって、入力制御装置10は、運転者が斜め方向又は横方向からタッチセンサ2をタッチした場合でも、操作項目の誤判定を防止することができる。また、運転者は、タッチセンサ2と自身の手との位置関係を気にする必要がないため、手元を見ることなくタッチ操作を行うことができる。
 また、実施の形態1の振動制御部12は、第1階層の操作項目ごとに異なる振動パターンを示す情報を有し、予め定められた時間ごとに振動パターンを切り替えて振動機構4を振動させる。または、振動制御部12は、第1のタッチ位置が予め定められた距離移動すると、つまりフリック操作されると、振動パターンを切り替えて振動機構4を振動させる。これらの構成により、入力制御装置10は、振動パターンによって、確定可能な第1階層の操作項目に関する情報を運転者に提供することができる。よって、運転者は、手元を見ることなくタッチ操作を行うことができる。
 次に、実施の形態1に係る入力制御装置10の変形例を説明する。
 図10は、第1の指である中指41が矢印方向へスライド移動した例を示す図である。第1の指である中指41を最初にタッチした位置が、タッチ操作領域30の端部であった場合、第2の指のタッチ操作がしにくい。そのため、第1の指である中指41が、第2の指のタッチ操作がしやすい位置(図10の中指41Aの位置)までスライド移動可能であることが好ましい。この構成を実現するために、位置取得部11は、移動後の中指41Aのタッチ位置を示す情報を、タッチセンサ2から取得して第2確定部15へ出力する。第2確定部15は、移動後の中指41Aのタッチ位置を基準として左側領域30Lと右側領域30Rを再設定する。このように、第2確定部15は、常に、最新の第1のタッチ位置を基準とした左側領域30Lと右側領域30Rを設定する。これにより、運転者は、第2の指によるタッチ操作をしやすい位置へ第1の指を移動させることができる。
 図11は、図5における左側領域30Lと右側領域30Rの分割方法の変形例を示す図である。図11に示されるように、第2確定部15は、第1のタッチ位置を示す情報に含まれるY軸の座標位置を基準にして、タッチ操作領域30を第1のタッチ位置より右側の右側領域30Rと第1のタッチ位置より左側の左側領域30Lとに分割する。さらに、第2確定部15は、第1のタッチ位置を示す情報に含まれるX軸の座標位置を基準にして、左側領域30Lを、上側の第1領域30L-1と下側の第2領域30L-2とに分割する。また、第2確定部15は、第1のタッチ位置を示す情報に含まれるX軸の座標位置を基準にして、右側領域30Rを、上側の第3領域30R-1と下側の第4領域30R-2とに分割する。続いて、第2確定部15は、第1領域30L-1と第3領域30R-1に対して第2階層の操作項目の大きい操作量を割り当て、第2領域30L-2と第4領域30R-2に対して第2階層の操作項目の小さい操作量を割り当てる。
 例えば、第1階層の操作項目が「音量操作」であり、左側領域30Lに対応する第2階層の操作項目が「音量ダウン」であり、右側領域30Rに対応する第2階層の操作項目が「音量アップ」であるものとする。この場合、第2確定部15は、第1領域30L-1に対して「2段階の音量ダウン」を割り当て、第3領域30R-1に対して「2段階の音量アップ」を割り当てる。また、第2確定部15は、第2領域30L-2に対して「1段階の音量ダウン」を割り当て、第4領域30R-2に対して「1段階の音量アップ」を割り当てる。これにより、運転者は、第1の指より上側に第2の指をタッチした場合、より大きい操作量の動作を車内装備20に実行させることができ、第1の指より下側に第2の指をタッチした場合、より小さい操作量の操作を車内装備20に実行させることができる。なお、第2確定部15は、この例では、第1の指より上側の領域に対して大きい操作量を割り当て、第1の指より下側の領域に対して小さい操作量を割り当てたが、反対に、第1の指より上側の領域に対して小さい操作量を割り当て、第1の指より下側の領域に対して大きい操作量を割り当ててもよい。
 図12は、図6における左側領域30Lと右側領域30Rの分割方法の変形例を示す図である。図12に示されるように、第2確定部15は、第1のタッチ位置に対応する第1の指の向きを基準にして、タッチ操作領域30を第1のタッチ位置より右側の右側領域30Rと第1のタッチ位置より左側の左側領域30Lとに分割する。さらに、第2確定部15は、第1の指の向きに対して直交する軸を基準にして、左側領域30Lを、上側の第1領域30L-1と下側の第2領域30L-2とに分割する。また、第2確定部15は、第1の指の向きに対して直交する軸を基準にして、右側領域30Rを、上側の第3領域30R-1と下側の第4領域30R-2とに分割する。続いて、第2確定部15は、図11の例と同様に、第1領域30L-1と第3領域30R-1に対して第2階層の操作項目の大きい操作量を割り当て、第2領域30L-2と第4領域30R-2に対して第2階層の操作項目の小さい操作量を割り当てる。
 図11及び図12に示される分割方法の場合、運転者は、車内装備20の動作を実行させる第2階層の操作項目だけでなく、第2階層の操作項目の操作量を、手元を見ることなく容易にタッチ操作することができる。また、第2確定部15が第1のタッチ位置を基準にして第1領域30L-1、第2領域30L-2、第3領域30R-1、及び第4領域30R-2を設定するため、入力制御装置10は、タッチセンサ2を利用した入力装置1における操作項目の誤判定を防止することができる。
 なお、本発明はその発明の範囲内において、実施の形態の任意の構成要素の変形、又は実施の形態の任意の構成要素の省略が可能である。
 この発明に係る入力装置は、ユーザが手元を見ることなくタッチ操作を行うことができるようにしたので、車両のダッシュボードに設置された表示装置と一体に構成されたタッチパネル、又は、運転者のアームレスト若しくはハンドルに設置されたタッチパッド等に用いられる入力装置に適している。
 1 入力装置、
 2 タッチセンサ、3 圧力センサ、4 振動機構、10 入力制御装置、11 位置取得部、12 振動制御部、13 圧力取得部、14 第1確定部、15 第2確定部、20 車内装備、30 タッチ操作領域、30L 左側領域、30L-1 第1領域、30L-2 第2領域、30R 右側領域、30R-1 第3領域、20R-2 第4領域、41,41A 中指、41a タッチ形状、42 人差し指、43 薬指、100 処理回路、101 プロセッサ、102 メモリ、103 バス。

Claims (9)

  1.  タッチセンサが検知するタッチ位置を示す情報を取得する位置取得部と、
     前記位置取得部により第1のタッチ位置を示す情報が取得された場合、予め定められた第1階層の操作項目に対応する予め定められた振動パターンで、前記タッチセンサと一体に設けられた振動機構を振動させる振動制御部と、
     前記タッチセンサと一体に設けられた圧力センサが検知する圧力を示す情報を取得する圧力取得部と、
     前記圧力取得部により取得された圧力を示す情報に基づき、前記振動機構が振動した場合に前記第1のタッチ位置に対する圧力が検知されると、前記振動機構の前記振動パターンに対応する前記第1階層の操作項目を確定する第1確定部と、
     前記第1確定部により前記第1階層の操作項目が確定された後、前記位置取得部により前記第1のタッチ位置とは異なる第2のタッチ位置を示す情報が取得された場合、前記第1のタッチ位置を基準とした2つの領域を設定し、設定した前記2つの領域のそれぞれに対して、確定された前記第1階層の操作項目に関連する第2階層の操作項目を対応付け、前記2つの領域のうちの前記第2のタッチ位置が含まれる領域に対応付けた第2階層の操作項目を確定する第2確定部とを備える入力制御装置。
  2.  前記第2確定部は、前記第1のタッチ位置を基準として設定した前記2つの領域のうちの一方の領域に対応付ける第2階層の操作項目の内容と、もう一方の領域に対応付ける第2階層の操作項目の内容とを、反対の内容にすることを特徴とする請求項1記載の入力制御装置。
  3.  前記第2確定部は、前記第1のタッチ位置にタッチしている指の向きを基準として前記2つの領域を設定することを特徴とする請求項1記載の入力制御装置。
  4.  前記振動制御部は、前記第1階層の操作項目ごとに異なる前記振動パターンを示す情報を有し、予め定められた時間ごとに前記振動パターンを切り替えて前記振動機構を振動させることを特徴とする請求項1記載の入力制御装置。
  5.  前記振動制御部は、前記第1階層の操作項目ごとに異なる前記振動パターンを示す情報を有し、前記第1のタッチ位置が予め定められた距離移動すると前記振動パターンを切り替えて前記振動機構を振動させることを特徴とする請求項1記載の入力制御装置。
  6.  前記第2確定部は、前記第1のタッチ位置が移動した場合、移動後の前記第1のタッチ位置を基準として前記2つの領域を再設定することを特徴とする請求項1記載の入力制御装置。
  7.  前記第2確定部は、前記第1のタッチ位置を基準として設定した前記2つの領域のうちの一方の領域を、前記第1のタッチ位置を基準として第1領域と第2領域とに分割し、前記一方の領域に対応付けた前記第2階層の操作項目の大きい操作量を前記第1領域に割り当てると共に小さい操作量を前記第2領域に割り当て、前記もう一方の領域を、前記第1のタッチ位置を基準として第3領域と第4領域とに分割し、前記もう一方の領域に対応付けた前記第2階層の操作項目の大きい操作量を前記第3領域に割り当てると共に小さい操作量を前記第4領域に割り当てることを特徴とする請求項2記載の入力制御装置。
  8.  タッチセンサと、
     前記タッチセンサと一体に設けられた圧力センサと、
     前記タッチセンサと一体に設けられた振動機構と、
     請求項1記載の入力制御装置とを備える入力装置。
  9.  位置取得部が、タッチセンサが検知するタッチ位置を示す情報を取得し、
     振動制御部が、前記位置取得部により第1のタッチ位置を示す情報が取得された場合、予め定められた第1階層の操作項目に対応する予め定められた振動パターンで、前記タッチセンサと一体に設けられた振動機構を振動させ、
     圧力取得部が、前記タッチセンサと一体に設けられた圧力センサが検知する圧力を示す情報を取得し、
     第1確定部が、前記圧力取得部により取得された圧力を示す情報に基づき、前記振動機構が振動した場合に前記第1のタッチ位置に対する圧力が検知されると、前記振動機構の前記振動パターンに対応する前記第1階層の操作項目を確定し、
     第2確定部が、前記第1確定部により前記第1階層の操作項目が確定された後、前記位置取得部により前記第1のタッチ位置とは異なる第2のタッチ位置を示す情報が取得された場合、前記第1のタッチ位置を基準とした2つの領域を設定し、設定した前記2つの領域のそれぞれに対して、確定された前記第1階層の操作項目に関連する第2階層の操作項目を対応付け、前記2つの領域のうちの前記第2のタッチ位置が含まれる領域に対応付けた第2階層の操作項目を確定する入力制御方法。
PCT/JP2019/024770 2019-06-21 2019-06-21 入力制御装置、入力装置、及び入力制御方法 WO2020255388A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
PCT/JP2019/024770 WO2020255388A1 (ja) 2019-06-21 2019-06-21 入力制御装置、入力装置、及び入力制御方法
JP2021528607A JP7118271B2 (ja) 2019-06-21 2019-06-21 入力制御装置、入力装置、及び入力制御方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2019/024770 WO2020255388A1 (ja) 2019-06-21 2019-06-21 入力制御装置、入力装置、及び入力制御方法

Publications (1)

Publication Number Publication Date
WO2020255388A1 true WO2020255388A1 (ja) 2020-12-24

Family

ID=74040417

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2019/024770 WO2020255388A1 (ja) 2019-06-21 2019-06-21 入力制御装置、入力装置、及び入力制御方法

Country Status (2)

Country Link
JP (1) JP7118271B2 (ja)
WO (1) WO2020255388A1 (ja)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000066784A (ja) * 1998-08-26 2000-03-03 Nissan Motor Co Ltd 自動車用表示・操作装置
JP2007310496A (ja) * 2006-05-16 2007-11-29 Alps Electric Co Ltd タッチ操作入力装置
JP2012194731A (ja) * 2011-03-16 2012-10-11 Ricoh Co Ltd 表示装置、表示装置の表示方法、プログラム、コンピュータ読み取り可能な記録媒体、画像形成装置
JP2016103047A (ja) * 2014-11-27 2016-06-02 アルパイン株式会社 電子機器、該電子機器を備えた車載機器及び該電子機器を用いて実行すべき処理の指示方法
WO2018173179A1 (ja) * 2017-03-23 2018-09-27 三菱電機株式会社 タッチ入力判定装置、タッチパネル入力装置、タッチ入力判定方法、及びタッチ入力判定プログラム

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000066784A (ja) * 1998-08-26 2000-03-03 Nissan Motor Co Ltd 自動車用表示・操作装置
JP2007310496A (ja) * 2006-05-16 2007-11-29 Alps Electric Co Ltd タッチ操作入力装置
JP2012194731A (ja) * 2011-03-16 2012-10-11 Ricoh Co Ltd 表示装置、表示装置の表示方法、プログラム、コンピュータ読み取り可能な記録媒体、画像形成装置
JP2016103047A (ja) * 2014-11-27 2016-06-02 アルパイン株式会社 電子機器、該電子機器を備えた車載機器及び該電子機器を用いて実行すべき処理の指示方法
WO2018173179A1 (ja) * 2017-03-23 2018-09-27 三菱電機株式会社 タッチ入力判定装置、タッチパネル入力装置、タッチ入力判定方法、及びタッチ入力判定プログラム

Also Published As

Publication number Publication date
JPWO2020255388A1 (ja) 2021-10-21
JP7118271B2 (ja) 2022-08-15

Similar Documents

Publication Publication Date Title
US10936108B2 (en) Method and apparatus for inputting data with two types of input and haptic feedback
US10967737B2 (en) Input device for vehicle and input method
US20110169750A1 (en) Multi-touchpad multi-touch user interface
JP5491409B2 (ja) タッチ面を有する制御装置の制御方法およびその制御装置
JP6625372B2 (ja) 入力装置および車載装置
JP2007310496A (ja) タッチ操作入力装置
KR20190111095A (ko) 사람 장치간 인터페이스를 조작하기 위한 방법 및 사람 장치간 인터페이스
JP2017138738A (ja) 入力装置、表示装置および入力装置の制御方法
WO2022214043A1 (zh) 一种多手势交互带有振动反馈触控方向盘控制系统
US11144193B2 (en) Input device and input method
JP2009286175A (ja) 車両用表示装置
US20130201126A1 (en) Input device
JP6552342B2 (ja) 入力装置、統合入力システム、入力装置の制御方法およびプログラム
JP6960716B2 (ja) 入力装置、表示装置、入力装置の制御方法およびプログラム
WO2020255388A1 (ja) 入力制御装置、入力装置、及び入力制御方法
JP6201864B2 (ja) 車両用操作装置
JP2015184841A (ja) ジェスチャ入力装置
US20160170507A1 (en) Touch pad module, remote input system, and method of controlling a remote input system
JP2005071246A (ja) 操作入力装置及び操作入力方法
JP2017049699A (ja) 入力装置、統合入力システム、入力装置の制御方法およびプログラム
JP6429699B2 (ja) 車両用入力システム
WO2016199309A1 (ja) 電子機器
JP2017224195A (ja) 入力装置
JP6610512B2 (ja) 入力装置
JP2016103047A (ja) 電子機器、該電子機器を備えた車載機器及び該電子機器を用いて実行すべき処理の指示方法

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 19933944

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2021528607

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 19933944

Country of ref document: EP

Kind code of ref document: A1