WO2014162699A1 - 入力装置 - Google Patents

入力装置 Download PDF

Info

Publication number
WO2014162699A1
WO2014162699A1 PCT/JP2014/001777 JP2014001777W WO2014162699A1 WO 2014162699 A1 WO2014162699 A1 WO 2014162699A1 JP 2014001777 W JP2014001777 W JP 2014001777W WO 2014162699 A1 WO2014162699 A1 WO 2014162699A1
Authority
WO
WIPO (PCT)
Prior art keywords
finger
groove
control unit
input
operation surface
Prior art date
Application number
PCT/JP2014/001777
Other languages
English (en)
French (fr)
Inventor
剛志 鈴木
Original Assignee
株式会社デンソー
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社デンソー filed Critical 株式会社デンソー
Priority to DE112014001851.1T priority Critical patent/DE112014001851T5/de
Priority to US14/780,984 priority patent/US9778764B2/en
Priority to CN201480018825.4A priority patent/CN105121228B/zh
Publication of WO2014162699A1 publication Critical patent/WO2014162699A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0354Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
    • G06F3/03547Touch pads, in which fingers can move on a surface
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Arrangement of adaptations of instruments
    • B60K35/10
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3664Details of the user input interface, e.g. buttons, knobs or sliders, including those provided on a touch screen; remote controllers; input using gestures
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3688Systems comprising multiple parts or multiple output devices (not client-server), e.g. detachable faceplates, key fobs or multiple output screens
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1684Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675
    • G06F1/169Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675 the I/O peripheral being an integrated pointing device, e.g. trackball in the palm rest area, mini-joystick integrated between keyboard keys, touch pads or touch stripes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0416Control or interface arrangements specially adapted for digitisers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04886Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures by partitioning the display area of the touch-screen or the surface of the digitising tablet into independently controllable areas, e.g. virtual keyboards or menus
    • B60K2360/141
    • B60K2360/1446
    • B60K2360/146
    • B60K2360/1468
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/041Indexing scheme relating to G06F3/041 - G06F3/045
    • G06F2203/04106Multi-sensing digitiser, i.e. digitiser using at least two different sensing technologies simultaneously or alternatively, e.g. for detecting pen and finger, for saving power or for improving position detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/041Indexing scheme relating to G06F3/041 - G06F3/045
    • G06F2203/04108Touchless 2D- digitiser, i.e. digitiser detecting the X/Y position of the input means, finger or stylus, also when it does not touch, but is proximate to the digitiser's interaction surface without distance measurement in the Z direction

Definitions

  • This disclosure relates to an input device that performs input for information display on a display unit by an operator's finger operation.
  • Patent Document 1 As a conventional input device, for example, the one disclosed in Patent Document 1 is known.
  • a remote touchpad unit for a user to perform a touch operation, and various modes of the multimedia system according to a three-dimensional signal received from the remote touchpad unit.
  • a display unit for displaying and a control unit for controlling the multimedia system to operate according to the three-dimensional signal of the remote touchpad unit are provided.
  • the operation standby screen can be switched on the radio main screen.
  • the above-mentioned screen operation is performed according to the distance (height) from the surface of the remote touchpad to the finger in the above-mentioned patent document 1, so that it is erroneously performed.
  • the finger (hand) is brought close to the remote touchpad, there is a possibility that an unintended input (erroneous operation) may be made on the display on the display unit.
  • the present disclosure has been made in view of the above, and is to provide an input device that can prevent an input unintended by a user.
  • the input device adopts the following configuration.
  • the input device is mounted on the vehicle and formed separately from the display unit that displays the images divided into a plurality of layers in a switchable manner, and operates the image by a user's finger operation on the operation surface. It is an input device in which input is performed.
  • the input device includes a groove portion in which a user's fingertip is inserted into the depression, and the finger can slide in the longitudinal direction in which the depression is continuous, a detection unit that detects the presence or absence of a finger in the groove, and a finger operation on the operation surface.
  • the control unit prohibits input by finger operation on the operation surface. Therefore, even if the user inadvertently brings his finger close to the operation surface, the input for operating the image is not executed, and thus it is possible to prevent an input unintended by the user.
  • the control unit determines from the detection result of the finger by the detection unit that the user's finger slides in the groove portion, the control unit cancels the prohibition of input. Therefore, the user can input again by finger operation on the operation surface by sliding the finger with respect to the groove. In this case, the finger operation intended by the user is performed.
  • FIG. 1 is an explanatory diagram for explaining the arrangement of the navigation device and the remote operation device according to the first embodiment in a vehicle cabin.
  • FIG. 2 is a configuration diagram showing the configurations of the navigation apparatus and the remote operation device in the first embodiment.
  • FIG. 3 is a perspective view showing the remote control device of the first embodiment.
  • FIG. 4 is a cross-sectional view showing the IV-IV part in FIG.
  • FIG. 5 is a perspective view showing the touch sensor and the first and second sensors.
  • FIG. 6 is a diagram for explaining the relationship between the sensitivity value detected by the touch sensor and the operation state determined by the operation control unit in the remote operation device according to the first embodiment.
  • FIG. 1 is an explanatory diagram for explaining the arrangement of the navigation device and the remote operation device according to the first embodiment in a vehicle cabin.
  • FIG. 2 is a configuration diagram showing the configurations of the navigation apparatus and the remote operation device in the first embodiment.
  • FIG. 3 is a perspective view showing the remote control device of the first embodiment.
  • FIG. 7 is a diagram illustrating a relationship between each sensitivity threshold value, an operation state, and a screen display stored in the operation control unit of the first embodiment.
  • FIG. 8 is a flowchart illustrating an input process performed by the operation control unit in the remote operation device according to the first embodiment.
  • FIG. 9 is a diagram for explaining the display state of the display screen accompanying the finger operation on the groove in the remote operation device according to the first embodiment.
  • FIG. 10 is an explanatory diagram for explaining the arrangement of the navigation device and the remote operation device according to the second embodiment in the passenger compartment.
  • FIG. 11 is a configuration diagram illustrating configurations of the navigation apparatus and the remote operation device according to the second embodiment.
  • FIG. 12 is a flowchart illustrating an input process performed by the operation control unit in the remote operation device according to the second embodiment.
  • FIG. 13 is a diagram for explaining a display state of a display screen associated with a finger operation on the groove in the remote operation device according to the second embodiment.
  • FIG. 14 is an explanatory diagram for explaining the arrangement of the navigation device and the remote operation device according to the third embodiment in the vehicle interior.
  • FIG. 15 is a configuration diagram showing configurations of the navigation apparatus and the remote operation device in the third embodiment.
  • FIG. 16 is a flowchart illustrating an input process performed by the operation control unit in the remote operation device according to the third embodiment.
  • FIG. 17 is a diagram for explaining the display state of the display screen accompanying the finger operation on the groove in the remote operation device according to the third embodiment.
  • the input device of the present disclosure is applied to a remote operation device 100 for operating a navigation device 50.
  • FIG. The remote operation device 100 is mounted on a vehicle and constitutes the display system 10 together with the navigation device 50 and the like.
  • the remote control device 100 is installed at a position adjacent to the palm rest 39 at the center console of the vehicle, and is within a reach of an operator (a user, here a driver).
  • the operation surface 32 is exposed.
  • the remote operation device 100 has a touch sensor 31 (FIGS. 2 and 3), and the surface of the touch sensor 31 is formed as the operation surface 32 on which an operator's finger operation is performed. Note that “F” in FIG. 1 indicates an operator's finger.
  • the navigation device 50 exposes the display screen 53 of the liquid crystal display 52 so that it can be viewed by the operator, and with the display screen 53 facing the driver's seat and the passenger's seat side, It is installed in the center of (vehicle width direction).
  • the display system 10 liquid crystal display 52
  • the remote control device 100 is formed separately from the navigation device 50 and is set at a position away from the navigation device 50.
  • the remote operation device 100 is connected to a Controller Area Network bus (hereinafter referred to as a CAN bus) 90, an external battery 91, and the like.
  • the CAN bus 90 is a transmission path used for data transmission between in-vehicle devices in an in-vehicle communication network formed by connecting a plurality of in-vehicle devices mounted on a vehicle.
  • the remote operation device 100 can communicate with the navigation device 50 located remotely via the CAN bus 90.
  • the remote operation device 100 is formed in a rectangular box shape as a whole.
  • the sensor 34a and 34b, the operation control part 35, etc. are comprised.
  • Each power supply interface 21, 22 stabilizes the power supplied from the battery 91 and supplies it to the operation control unit 35.
  • One power interface 21 is always supplied with power from the battery 91.
  • the other power interface 22 is supplied with electric power from the battery 91 when the switch 92 is energized when the accessory (ACC) power source of the vehicle is turned on.
  • the communication control unit 23 and the communication interface 24 are configured to output information processed by the operation control unit 35 to the CAN bus 90 and to acquire information output to the CAN bus 90 from other in-vehicle devices.
  • the communication control unit 23 and the communication interface 24 are connected to each other by a transmission signal line TX and a reception signal line RX.
  • the touch sensor 31 is a capacitance type detection unit (an example of a detection unit), is formed in a rectangular flat plate shape, and detects an operation state with a finger on the sensor surface.
  • the touch sensor 31 is provided at a position corresponding to the operation surface 32.
  • the touch sensor 31 is formed by arranging electrodes extending along the x-axis direction and electrodes extending along the y-axis direction in a lattice shape. These electrodes are connected to the operation control unit 35.
  • Each electrode is configured such that the generated capacitance changes according to the position of the finger close to the sensor surface (x, y, z coordinate position in FIG. 3).
  • a signal (sensitivity value) is output to the operation control unit 35.
  • the sensor surface is covered with an insulating sheet made of an insulating material.
  • the operation surface 32 is a flat portion on which the operator performs finger operations, and is formed by, for example, a material that improves the sliding of the fingers over the entire insulating sheet on the sensor surface.
  • the operation surface 32 is formed in a rectangular shape in a region on the vehicle rear side on the front surface of the rectangular parallelepiped remote operation device 100.
  • Input for operation on the display image 60 (see FIG. 9) displayed on the display screen 53 can be performed by an operator's finger operation on the operation surface 32 in the x-axis direction, the y-axis direction, or the z-axis direction. Is set.
  • the groove 33 is a groove formed so that the driver's fingertip can be inserted into the depression and the finger can slide in the longitudinal direction where the depression is continuous.
  • the groove portion 33 is disposed in a region on the front side of the vehicle with respect to the operation surface 32 on the front surface of the rectangular parallelepiped remote operation device 100.
  • the groove portion 33 (the bottom portion of the groove portion 33) is disposed so as to be flush with the operation surface 32.
  • the longitudinal direction of the groove portion 33 is set in the vehicle front-rear direction and is disposed so as to face the operation surface 32.
  • Groove portion 33 is arranged at approximately the center in the left-right direction of vehicle in remote operation device 100.
  • the cross-sectional shape of the groove part 33 is formed in, for example, an arc shape (semi-circular shape) having the same width as the fingertip. Therefore, as shown in FIG. 4, a plurality of fingers, palms and the like cannot be inserted into the groove 33.
  • the first and second sensors 34 a and 34 b are a plurality of detection units that detect the presence or absence of the driver's finger in the groove 33.
  • the first and second sensors 34a and 34b are provided at positions corresponding to the groove 33 (further below the bottom of the groove 33).
  • the first sensor 34 a is provided so as to correspond to one end side of the groove portion 33 which is on the side far from the operation surface 32.
  • the second sensor 34 b is provided so as to correspond to the other end side of the groove 33 that is closer to the operation surface 32.
  • the first sensor 34a corresponds to the far-side detection unit of the present disclosure
  • the second sensor 34b corresponds to an example of the near-side detection unit of the present disclosure.
  • the first and second sensors 34a and 34b are formed from the same electrodes as the touch sensor 31. As shown in FIG. 5, in the present embodiment, the touch sensor 31 is disposed on one end side of the touch sensor 31. And is formed integrally. The electrodes of the first and second sensors 34 a and 34 b are connected to the operation control unit 35 via the touch sensor 31. The electrodes of the first and second sensors 34 a and 34 b change in capacitance when a finger approaches or comes into contact with the groove 33, and a generated capacitance signal (sensitivity value) is output to the operation control unit 35. It has come to be.
  • the operation control unit 35 corresponds to an example of the control unit of the present disclosure, and includes a processor that performs various types of arithmetic processing, a RAM that functions as a work area for arithmetic processing, a flash memory that stores programs used for arithmetic processing, and the like It is constituted by.
  • the operation control unit 35 is connected to each of the power supply interfaces 21 and 22, the communication control unit 23, the touch sensor 31, and the first and second sensors 34a and 34b.
  • the operation control unit 35 acquires a sensitivity value (Hth) as a measurement value of the touch sensor 31 by measuring a capacitance signal of each electrode of the touch sensor 31 by executing a predetermined program. When the operator's finger is close to the operation surface 32 (sensor surface), electric charge is stored between the electrode and the finger.
  • the operation control unit 35 includes an x-coordinate and a y-coordinate indicating the relative operation position (hereinafter referred to as “relative position”) of the finger in the direction in which the surface of the operation surface 32 spreads.
  • the z coordinate corresponding to (hereinafter referred to as “operation distance”) is calculated by a calculation process based on the sensitivity value.
  • the operation control unit 35 calculates a part (x coordinate position, y coordinate position) where the largest sensitivity value is obtained among the electrodes on the x axis and the y axis as the current relative position of the finger. ing.
  • the operation control unit 35 calculates the current z-coordinate position of the finger, that is, the operation distance based on the magnitude of the obtained sensitivity value.
  • the operation control unit 35 operates the finger on the operation state (the finger operation distance in the z-axis direction) and the operation on the display image 60 to be described later with respect to the obtained sensitivity value.
  • the operation control unit 35 includes a plurality of sensitivity threshold values Hth1 and Hth2 for determining an operation state in advance, and determines an operation state of a finger according to the sensitivity threshold value.
  • the operation state includes a “contact state” in which the finger is in contact with the operation surface 32 or is not actually in contact but is almost in contact, and a “proximity state” in which the finger is in proximity to the operation surface 32. , And the “non-contact state” in which the finger is further away from the operation surface 32 than the “proximity state”.
  • the “contact state” may be an operation state only when the finger substantially contacts the operation surface 32.
  • the “contact state” is referred to as “in contact”
  • the “proximity state” is referred to as “in proximity”
  • the “non-contact state” is referred to as “non-contact”.
  • the upper thresholds Hth1U and Hth2U corresponding to positions separated by a predetermined distance are set above the sensitivity thresholds Hth1 and Hth2, respectively (side closer to the operation surface 32).
  • lower thresholds Hth1D and Hth2D corresponding to positions separated by a predetermined distance are set below the sensitivity thresholds Hth1 and Hth2, respectively (the side far from the operation surface 32).
  • the upper threshold values Hth1U and Hth2U serve as sensitivity thresholds for determining the operation state.
  • the lower threshold values Hth1D and Hth2D are used for determining the operation state. Sensitivity threshold.
  • the operation control unit 35 detects a pressing operation (touch operation) when the operator gently presses the operation surface 32 with a finger. Then, the operation control unit 35 outputs the x, y, z coordinates indicating the position of the finger accompanying the finger slide operation and the presence / absence of the pressing operation to the CAN bus 90 through the communication control unit 23 and the communication interface 24.
  • a pressing operation touch operation
  • the operation control unit 35 outputs the x, y, z coordinates indicating the position of the finger accompanying the finger slide operation and the presence / absence of the pressing operation to the CAN bus 90 through the communication control unit 23 and the communication interface 24.
  • the operation control unit 35 measures the capacitance signals of the electrodes of the first and second sensors 34a and 34b by executing a predetermined program, whereby the first and second sensors 34a and 34b are measured. Get the sensitivity value as the measured value.
  • the operation control unit 35 determines that the finger is in the groove 33 when the obtained sensitivity value is equal to or greater than a predetermined value. Conversely, if the obtained sensitivity value is less than the predetermined value, the operation control unit 35 determines that there is no finger in the groove 33.
  • the operation control unit 35 detects that the driver's finger is detected by all of the first and second sensors 34a and 34b, and that the detection is in the order of the first sensor 34a and the second sensor 34b. It is determined that there is a finger slide. That is, when the operation control unit 35 determines that there is a finger from the signal of the first sensor 34a and then determines that there is a finger from the signal of the second sensor 34b, the driver determines that one end side of the groove 33 (operation It is determined that the finger has been slid from the side far from the surface 32 toward the other end (side closer to the operation surface 32).
  • the navigation device 50 has an air conditioning operation setting function for the vehicle air conditioning device, an audio operation setting function for the vehicle audio, and various information retrieval via the Internet. It has a browsing function.
  • the navigation device 50 is connected to the CAN bus 90 so as to be able to communicate with the remote operation device 100 and the like, and includes a display control unit 51 and a liquid crystal display 52.
  • the display control unit 51 includes a processor that performs various arithmetic processes, a RAM that functions as a work area for arithmetic processes, a graphic processor that performs image drawing processes, a graphic RAM that functions as a work area for drawing processes, and the like.
  • the display control unit 51 has a flash memory for storing data used for arithmetic processing and drawing processing, a communication interface connected to the CAN bus 90, and a video output interface for outputting drawn image data to the liquid crystal display 52. is doing.
  • the display control unit 51 draws a display image 60 to be displayed on the display screen 53 based on information acquired from the CAN bus 90.
  • the display control unit 51 sequentially outputs the image data of the drawn display image 60 to the liquid crystal display 52 through the video output interface.
  • the liquid crystal display 52 is a dot matrix type display unit that realizes color display by controlling a plurality of pixels arranged on the display screen 53.
  • the liquid crystal display 52 displays video by continuously forming image data sequentially acquired from the display control unit 51 on the display screen 53.
  • the display image 60 displayed on the display screen 53 corresponds to an example of the image of the present disclosure, and is composed of images divided into a plurality of layers.
  • the image of the first layer is a plurality of main images for using various functions (navigation, air conditioner, audio, Internet, etc.) of the navigation device 50.
  • a main image for an air conditioner is shown as one main image.
  • a menu 61 is provided in which a plurality of types (names) of main images are used as menu items and these menu items are arranged in the left-right direction.
  • the menu 61 is always displayed in the same form regardless of the hierarchy of the display image 60.
  • the operator selects one of the desired menus 61 on the operation surface 32 by a finger operation, the selected main image is displayed on the display screen 53.
  • the operator can scroll the main images sequentially by sliding the finger on the operation surface 32 without operating the menu 61 when any main image is displayed.
  • the main image can be made.
  • the display image 60 is provided with a plurality of icons 62 for operating the image.
  • icons 62 for operating the image.
  • an air volume setting icon, a temperature setting icon, a dual setting icon, a blowing mode setting icon, etc. in the air conditioner operation are shown.
  • a pointer 63 is displayed on the display image 60.
  • the pointer 63 indicates the position of the finger on the operation surface 32 so as to correspond to the display image 60.
  • the index finger indicates the position when the finger is operated.
  • the pointer 63 may be a pointer having a basic design. The pointer 63 is displayed on the display image 60 when the contact state of the finger is in contact and in proximity.
  • a frame-like focus 64 indicating that the icon 62 has been selected is displayed.
  • the finger is lightly pressed on the operation surface 32 so as to correspond to the position of the selected icon 62 (touch operation)
  • the icon 62 is determined, and the image of the second hierarchy, that is, determined.
  • the operation image corresponding to the icon is transferred, and various functions can be used in sequence.
  • the display image 60 includes lock information 65 (FIG. 9) indicating that the input is prohibited. Is displayed.
  • step 100 the operation control unit 35 determines from the detection signals of the first and second sensors 34 a and 34 b of the groove portion 33 that the driver has moved from one end side (point A in FIG. 9) It is determined whether or not the finger has been slid (traced) toward the end side (point B in FIG. 9).
  • the operation control unit 35 determines that there is a finger slide in the groove 33 when a sensitivity value equal to or higher than a predetermined value is obtained in the order of the first sensor 34a and the second sensor 34b. It is determined that there is no slide.
  • step S100 If NO in step S100, that is, it is determined that there is no finger slide, the operation control unit 35 assumes that the input prohibited (locked) state by the finger operation in step S240, which will be described later, continues and is currently locked in step S110. Is displayed on the display image 60 and recognized by the driver. Specifically, lock information (LOCKED) 65 is displayed on the display image 60 as shown in the left frame of FIG.
  • LOCKED lock information
  • step S120 the operation control part 35 performs highlighting with respect to a driver
  • step S140 the operation control unit 35 cancels the input inhibition (lock) by the finger operation. As a result, a finger input operation on the operation surface 32 is enabled.
  • step S100 means that the driver slides his / her finger from the point A side to the point B side with respect to the groove 33, and the driver's finger is naturally on the operation surface 32. You will be in the area.
  • step S150 the operation control part 35 performs the acquisition process which acquires the sensitivity value detected with each electrode of the touch sensor 31, and progresses to step S160.
  • step S160 calculation processing of the x coordinate indicating the relative position of the finger with respect to the operation surface 32, the y coordinate, and the z coordinate indicating the operation distance is performed from the sensitivity value acquired in step S150. Then, from the calculated value of the z coordinate indicating the operation distance, it is calculated whether the operation state of the finger is in contact, in proximity, or non-contact.
  • step S170 it is determined whether the calculated finger operation state is not in contact and the sensitivity value is Hth1 or more (actually, the upper threshold value Hth1U or more). If an affirmative determination is made here, the operator's finger approaches the operation surface 32 from a non-contact or approaching state and is in contact with the operation surface 32. In step S180, the operation state of the finger is contacted. Update inside.
  • the operation control unit 35 updates the display screen 53 to the contact screen.
  • the contact screen is a screen on which the original menu 61, icon 62, pointer 63, and focus 64 are displayed on the display image 60, as shown in FIG. 9 (in the right frame).
  • the focus 64 indicates the current operation state (operation setting state) of the device corresponding to the main image to be displayed.
  • the operator can perform original screen operations, that is, selection and determination of each menu 61 and various icons 62 by finger operation (slide, touch operation, etc.).
  • step S190 the operation control unit 35 is in a non-contact operation state as a first condition, and the sensitivity value is Hth2 or more (actually, the upper threshold value Hth2U or more). Whether the operation state is in contact and the sensitivity value is Hth1 or less (actually the lower threshold value Hth1D or less) is determined as a second condition. If an affirmative determination is made here, the operator's finger approaches the operation surface 32 from non-contact or is slightly away from the operation surface 32 during contact, and the operation state of the finger is approaching in step S200. Update to
  • the operation control unit 35 updates the display screen 53 to the close proximity screen.
  • the in-proximity screen is a screen on which the pointer 63 and the focus 64 are not displayed on the above-mentioned contact screen.
  • the operator can switch the main image by the menu 61 by a finger operation (gesture such as flick) during proximity.
  • step S210 the operation control unit 35 determines whether or not the operation state is non-contact and the sensitivity value is Hth2 or less (actually, the lower threshold value Hth2D or less). Determine. If an affirmative determination is made here, the operator's finger is in a state of being largely separated from the operating surface 32 from the state of being in contact or in proximity, and the operation state of the finger is updated to non-contact in step S220.
  • the operation control unit 35 updates the display screen 53 to a non-contact screen.
  • the non-contact screen is a screen on which the pointer 63 is not displayed in the above-described contact screen.
  • the focus 64 indicates the current operation state (operation setting state) of the device corresponding to the displayed main image.
  • the operator's finger is clearly separated from the operation surface 32, the operator has no intention to operate the display image 60, and the operator simply displays the display image 60 with the current device. It can be seen as a confirmation screen for confirming the operating state of
  • step S230 the operation control unit 35 performs the finger operation of the driver on the operation surface 32 based on the sensitivity value of the touch sensor 31. It is determined whether or not the state that has not been continued for a predetermined time or more. If an affirmative determination is made in step S230, the operation control unit 35 prohibits (locks) input by a finger operation on the operation surface 32 in step S240. If a negative determination is made in step S230, step S230 is repeatedly executed.
  • the operation control unit 35 prohibits input by finger operation on the operation surface 32 when the driver's finger operation on the operation surface 32 has not been performed for a predetermined time or longer (Ste S240). Therefore, even if the driver carelessly brings his finger close to the operation surface 32, the input for operating the display image 60 is not executed, and therefore it is possible to prevent an input unintended by the driver. It becomes.
  • the operation control unit 35 determines that the finger slides in the groove 33 and cancels the prohibition of input. (Step S140). Therefore, the driver can again input by operating the finger on the operation surface 32 by sliding the finger with respect to the groove portion 33. In this case, the finger operation intended by the driver is performed.
  • step S240 when the input is prohibited (step S240), the operation control unit 35 does not slide the finger in the groove 33 even if the driver performs a finger operation on the operation surface 32 (No in step S100). If it is determined (determination), the fact that the input is prohibited is displayed on the display image 60 (liquid crystal display 52) as the lock information 65 (step S110). Thus, the driver can clearly understand that the input operation cannot be performed, and is not confused when performing the finger operation.
  • a plurality of detection units are provided as detection units for detecting a finger slide in the groove 33. Then, when both (all) of the first and second sensors 34a and 34b detect that the driver's finger is present, the operation control unit 35 determines that the finger is slid. Thereby, since the detection accuracy of a finger slide can be improved, erroneous determination can be reduced.
  • the groove 33 is disposed on the same surface as the operation surface 32 so that the longitudinal direction thereof faces the operation surface 32, and the operation control unit 35 includes the first and second sensors 34a and 34b.
  • the second sensor 34b on the near side (point B side) is detected after the first sensor 34a on the far side (point A side) with respect to the operation surface 32, it is determined that there is a finger slide.
  • the driver slides his / her finger from the point A side to the point B side with respect to the groove portion 33, and then performs a finger operation on the operation surface 32. Operation becomes possible.
  • first and second sensors 34 a and 34 b in the groove 33 are formed integrally with the touch sensor 31 on the operation surface 32. Thereby, it is possible to easily form the touch sensor 31 and the first and second sensors 34a and 34b without providing dedicated sensors, and it is possible to cope with the low cost.
  • the shape of the groove 33 as the operation part for canceling the prohibition of input, a plurality of fingers, palms and the like cannot be inserted into the groove 33, and an erroneous operation can be prevented. Furthermore, by performing a finger slide operation along the groove 33, a blind operation during driving can be performed without directly viewing the operation screen 32 and the display screen 53 of the liquid crystal display 52.
  • FIGS. A remote operation device 100A of the second embodiment is shown in FIGS.
  • an input process of the display image 60 for the driver in the driver seat and the passenger in the passenger seat is added as an operator to the first embodiment. .
  • the remote control device 100A includes a plurality of (here, two) grooves, that is, a driver seat groove 33a and a passenger seat groove 33b, arranged in the left-right direction. Is provided.
  • the driver seat groove 33a is located on the driver's seat side (right side) of the remote operation device 100A and is a groove associated with the driver. As in the first embodiment, the driver seat groove 33a is provided with first and second sensors 34a1 and 34b1. The signals detected by the first and second sensors 34a1, 34b1 are output to the operation control unit 35 as signals indicating that the driver's finger is in the driver's seat groove 33a.
  • the passenger seat groove portion 33b is located on the passenger seat side (left side) of the remote operation device 100A and is a groove portion associated with the passenger seat passenger.
  • first and second sensors 34a2 and 34b2 are provided in the passenger seat groove 33b. The signals detected by the first and second sensors 34a2, 34b2 are output to the operation control unit 35 as signals indicating that the passenger's finger is in the passenger seat groove 33b.
  • the operation control unit 35 determines whether the operator for each of the grooves 33a and 33b is a driver based on the signals from the first and second sensors 34a1 and 34b1 or the first and second sensors 34a2 and 34b2. Can be determined.
  • Step S141, S142, and S143 for determining and setting the screen display according to the determination result are added between step S140 and step S150.
  • the operation control unit 35 first determines whether or not the driver or passenger's finger slides on the grooves 33a and 33b in step S100 and makes a negative determination. Steps S110 to S130 are performed, and if an affirmative determination is made, step S140 is performed.
  • step S141 the operation control unit 35 determines whether the operator is a driver or a passenger seat from the output signals of the first and second sensors 34a1 and 34b1 or the first and second sensors 34b1 and 34b2 in step S100. Determine whether. Specifically, when the operation control unit 35 determines that there is a finger slide in the driver seat groove 33a based on the output signals from the first and second sensors 34a1 and 34b1, the operator is determined to be a driver. To do. Further, when the operation control unit 35 determines that the finger slide is present in the passenger seat groove portion 33b based on the output signals from the first and second sensors 34a2 and 34b2, the operation control unit 35 determines that the operator is a passenger seat passenger. Note that “D seat” in FIG. 12 means a driver seat, and “P seat” means a passenger seat.
  • step S142 the operation control unit 35 performs screen display settings for the driver. That is, the original display image 60 is switched to the driver exclusive image 60a.
  • the driver-specific image 60a is an image on which various icons 62, a pointer 63, and a focus 64 are displayed, as shown in the right frame of FIG. Then, in the driver-specific image 60a, instead of the menu 61, a driver-specific display 60a1 indicating that this screen is a driver-specific screen is additionally displayed.
  • the external shape of the driver-specific image 60a is changed so as to face the driver. That is, in the driver-specific image 60a, the original horizontally long rectangular appearance of the display image 60a becomes a parallelogram-like appearance.
  • the external shape of the parallelogram is a shape in which the bottom side is shifted to the driver side (right side), and the left and right sides are inclined from the upper side to the lower side to the driver side. That is, the driver-specific image 60a is an image that allows the driver himself to intuitively recognize that the original display image 60 is an image directed toward the driver.
  • step S143 the operation control unit 35 performs screen display settings for the passenger seat. That is, the original display image 60 is switched to the passenger seat exclusive image 60b.
  • the passenger seat exclusive image 60b is an image in which various icons 62, a pointer 63, and a focus 64 are displayed as shown in the left frame of FIG.
  • a passenger seat dedicated display 60b1 indicating that this screen is a passenger seat dedicated screen is additionally displayed in the passenger seat dedicated image 60b.
  • the appearance shape of the passenger seat exclusive image 60b is changed so as to face the passenger seat side.
  • the original laterally rectangular external appearance shape of the display image 60a becomes the parallelogram external appearance shape.
  • the external shape of the parallelogram is a shape in which the bottom is shifted to the passenger seat side (left side), and the left and right sides are inclined from the upper side to the lower side toward the passenger seat side. That is, the passenger seat exclusive image 60b is an image that allows the passenger seat himself to intuitively recognize that the original display image 60 is an image directed toward the passenger seat seat side.
  • step S142 and step S143 the operation control unit 35 performs steps S150 to S240 similarly to the first embodiment, and performs input control according to the operation state of the operator's finger, Further, when the state without finger operation continues for a predetermined time or longer, input to the operation surface 32 is prohibited.
  • the driver's target is the driver and the passenger seat, and the driver's seat groove portion 33a associated with the driver and the passenger seat as the groove portion, and the assistant.
  • a plurality of groove portions called seat groove portions 33b are provided.
  • the operation control unit 35 displays the display image 60, the driver-specific image 60a, or the passenger seat so as to correspond to the groove 33a or the groove 33b that is determined to have a finger slide among the grooves 33a and 33b. The image is switched to one of the user-dedicated images 60 b and displayed on the liquid crystal display 52.
  • the operator can confirm that the current display image 60 (driver's exclusive image 60a or passenger's exclusive image 60b) is based on the operator's own input.
  • the current display image 60 driver's exclusive image 60a or passenger's exclusive image 60b
  • a remote operation device 100B of the third embodiment is shown in FIGS.
  • a plurality of groove portions are provided as groove portions in the first embodiment, and are displayed by a finger operation on each groove portion.
  • a function for selecting a desired image is added.
  • the remote operation device 100B includes a plurality of (here, three) grooves, that is, a navigation groove 331, an audio groove 332, and an air conditioner arranged in the left-right direction.
  • a groove portion 333 is provided.
  • the navigation groove 331 is located on the left side of the remote operation device 100B, and is a groove associated with, for example, a navigation screen display in the first hierarchy. As in the first embodiment, the navigation groove 331 is provided with first and second sensors 34aA and 34bA. The signals detected by the first and second sensors 34aA and 34bA are output to the operation control unit 35 as signals indicating that the operator's finger is in the navigation groove 331.
  • the audio groove 332 is located at the center in the left-right direction of the remote operation device 100B, and is, for example, a groove associated with the audio screen display in the first layer.
  • the audio groove 332 is provided with first and second sensors 34aB and 34bB. The signals detected by the first and second sensors 34aB and 34bB are output to the operation control unit 35 as signals indicating that the operator's finger is in the audio groove 332.
  • the air conditioner groove 333 is located on the right side of the remote operation device 100B, and is a groove associated with, for example, an air conditioner screen display in the first hierarchy.
  • the air conditioner groove 333 is provided with first and second sensors 34aC and 34bC, as in the first embodiment.
  • the signals detected by the first and second sensors 34aC and 34bC are output to the operation control unit 35 as signals indicating that the operator's finger is in the air conditioner groove 333.
  • the operation control unit 35 determines which one of the operators is based on the signals from the first and second sensors 34aA and 34bA, the first and second sensors 34aB and 34bB, or the first and second sensors 34aC and 34bC. It is possible to determine whether or not the groove portion has been operated (slid).
  • Step S145, Step S146, Step S147, and Step S148 for setting screen display according to the determination result are added between Step S140 and Step S150.
  • the operation control unit 35 first determines whether or not the operator's finger slides on the grooves 331, 332, and 333 in step S100, and if a negative determination is made, step S110 is performed. Step S130 is executed, and if an affirmative determination is made, step S140 is executed.
  • step S145 the operation control unit 35 determines the output signal from the first and second sensors 34aA and 34bB, the first and second sensors 34aB and 34bB, or the first and second sensors 34aC and 34bC in step S100.
  • the operator determines which groove part the finger is slid.
  • the operation control unit 35 determines that there is a finger slide in the navigation groove 331 based on the output signals from the first and second sensors 34aA and 34bA. Further, the operation control unit 35 determines that there is a finger slide in the audio groove 332 based on the output signals from the first and second sensors 34aB and 34bB. Further, the operation control unit 35 determines that there is a finger slide in the air conditioner groove 333 based on the output signals from the first and second sensors 34aC and 34bC.
  • the operation control unit 35 performs screen display setting for switching the original display image 60 to the navigation image 601 in step S146.
  • the navigation image 601 is an image corresponding to “Map” in the menu 61, and shows a map near the current traveling, the position of the vehicle on this map, and the like. It is an image.
  • the operation control unit 35 performs screen display setting for switching the original display image 60 to the audio image 602 in step S147.
  • the audio image 602 is an image corresponding to “Media” in the menu 61, and can select a desired audio device and reproduce music, images, and the like. The image is displayed with an icon.
  • step S145 If it is determined in step S145 that the finger is slid in the air conditioner groove 333, the operation control unit 35 performs screen display setting for switching the original display image 60 to the air conditioner image 603 in step S148.
  • An air conditioner image 603 (in the right frame in FIG. 17) is an image for operating the air conditioner described in the first and second embodiments.
  • step S146, step S147, and step S148 the operation control unit 35 performs steps S150 to S240 as in the first embodiment, and performs input control according to the operation state of the operator's finger. Further, when the state without finger operation continues for a predetermined time or longer, input to the operation surface 32 is prohibited.
  • a plurality of groove portions (navigation groove portion 331, audio groove portion 332, and air conditioner groove portion 333) corresponding to a plurality of images in a predetermined hierarchy are provided as groove portions.
  • the operation control part 35 cancels
  • the operation control section 35 displays the display image 60 so as to correspond to the navigation groove section 331, the audio groove section 332, or the air conditioner groove section 333 that is determined to have a finger slide among the groove sections 331, 332, and 333. Is switched to either the navigation image 601, the audio image 602, or the air conditioner image 603 and displayed on the liquid crystal display 52.
  • the operator can cancel the input prohibition state on the operation surface 32 while simultaneously selecting the desired display image 60, and the operability can be improved.
  • the operator can select a desired display image 60 by sliding one of the grooves 331, 332, and 333 with a finger, so that an image can be selected by a blind operation.
  • step S110 the lock information 65 is flushed (flashed) in step S120.
  • Step S120 may be abolished.
  • step S130 after returning to the normal image in step S130, the return to the normal image corresponding to step S130 may be performed when the input prohibition in step S140 is canceled after the affirmative determination in step S100 is abolished. .
  • first and second sensors are provided for each groove part, but one sensor may be used for one groove part.
  • the direction in which the finger is slid may be from either side (point A side or point B side) of both ends of the groove.
  • the sliding direction from the point A side to the point B side is determined in advance as an operation procedure, continuous operation on the operation surface 32 from each groove portion becomes possible.
  • the operation surface 32 and each groove portion are provided on the same surface, and the longitudinal direction of the groove portion faces the inside of the operation surface 32.
  • the groove portion is formed on the operation surface 32.
  • it may be provided on the upper side with a step.
  • first and second sensors are provided integrally with the touch sensor 31, they may be provided as dedicated sensors.
  • a predetermined input function for example, canceling the current input operation, or 1 by sliding a finger on two or more grooves simultaneously among a plurality of grooves, or 1 Or return to the main screen of the first hierarchy, or shift to the setting menu).
  • the capacitive touch sensor 31 is used as the detection unit (detection means), the present invention is not limited to this, and other pressure-sensitive touch sensors may be used.
  • a push switch may be provided in the remote operation device 100, 100A, 100B, and when the content (icon etc.) selected by the finger operation is determined, it may be determined by pressing this push switch.

Abstract

 使用者の意図しない入力を防止可能とする入力装置を提供する。入力装置において、溝部33における指の有無を検出する検出部34a、34bと、操作面32に対する指操作が所定時間以上実施されていないときに、操作面32への指操作による入力の禁止を行うと共に、検出部34a、34bによって溝部33に指があると検出されると、溝部33における指のスライド有りと判定して、入力の禁止を解除する制御部35とを設ける。

Description

入力装置 関連出願の相互参照
 本出願は、2013年4月3日に出願された日本国特許出願2013-77849号に基づくものであり、ここにその開示を参照により援用する。
 本開示は、操作者の指操作によって表示部における情報表示のための入力を行う入力装置に関するものである。
 従来の入力装置として、例えば特許文献1に示されるものが知られている。特許文献1の入力装置(操作用ユーザーインターフェイス装置)では、ユーザーがタッチ操作を行うための遠隔タッチパッド部と、遠隔タッチパッド部から受信された3次元信号に応じてマルチメディアシステムの各種モードを表示するディスプレイ部と、遠隔タッチパッド部の3次元信号に応じて、マルチメディアシステムが作動するように制御する制御部とを備えている。
 特許文献1の入力装置では、ユーザーの指の位置が、遠隔タッチパッド部の表面から第1高さの範囲にあるときに、ディスプレイ部に指の位置(ポインタ)を表示し、ポインタの移動、およびメニューの移動による微細操作が可能となっている。
 また、ユーザーの指の位置が、第1高さから第2高さの範囲にあるときに、ワイプパスジェスチャーによる第1モードおよび第2モードの切替え、更には、ホーム、メイン、サブ画面の移動が可能となっている。
 更に、ユーザーの指の位置が、第2高さから第3高さの範囲にあるときに、ラジオメイン画面において、操作待機画面に切替えられるようになっている。
特開2011―118857号公報
 しかしながら、本願発明者の検討によれば、上記特許文献1では、遠隔タッチパッドの表面から指までの距離(高さ)に応じて、上記のような画面操作が行われてしまうので、誤って指(手)を遠隔タッチパッドに近づけた際に、ディスプレイ部における表示に対して、意図しない入力(誤操作)をしてしまうおそれがあった。
 本開示は、上記に鑑みてなされたものであって、使用者の意図しない入力を防止可能とする入力装置を提供することにある。
 本開示の一例に係る入力装置は、以下の構成を採用する。
 入力装置は、車両に搭載されて、複数の階層に分かれた画像を切替え可能に表示する表示部に対して別体で形成されており、操作面に対する使用者の指操作によって、画像を操作するための入力が行われる入力装置である。入力装置は、窪みに使用者の指先が挿入されて、窪みが連続する長手方向に指のスライドが可能となる溝部と、溝部における指の有無を検出する検出部と、操作面に対する指操作が所定時間以上実施されていないときに、操作面への指操作による入力の禁止を行うと共に、検出部によって溝部に指があると検出されると、溝部における指のスライド有りと判定して、入力の禁止を解除する制御部とを備える。
 このような入力装置によれば、使用者の指操作が所定時間以上実施されていないときに、制御部は、操作面への指操作による入力の禁止を行う。よって、使用者は不用意に指を操作面に近づけてしまっても、画像を操作するための入力が実行されることがないので、使用者の意図しない入力を防止することが可能となる。
 そして、制御部は、検出部による指の検出結果から、溝部における使用者の指のスライド有りと判定すると入力の禁止を解除する。よって、使用者は、溝部に対して指をスライドさせることで、操作面への指操作による入力が再び可能となる。この場合は、使用者の意図した指操作が行われることになる。
図1は、第1実施形態のナビゲーション装置および遠隔操作デバイスの車室内での配置を説明するための説明図である。 図2は、第1実施形態におけるナビゲーション装置および遠隔操作デバイスの構成を示す構成図である。 図3は、第1実施形態の遠隔操作デバイスを示す斜視図である。 図4は、図3におけるIV-IV部を示す断面図である。 図5は、タッチセンサおよび第1、第2センサを示す斜視図である。 図6は、第1実施形態の遠隔操作デバイスにおいて、タッチセンサにより検出される感度値と、操作制御部により判定される操作状態との関係を説明するための図である。 図7は、第1実施形態の操作制御部に記憶されている各感度閾値、操作状態、および画面表示の関係を示す図である。 図8は、第1実施形態の遠隔操作デバイスにおいて、操作制御部により実施される入力処理を示すフローチャートである。 図9は、第1実施形態の遠隔操作デバイスにおいて、溝部への指操作に伴う表示画面の表示状態を説明するための図である。 図10は、第2実施形態のナビゲーション装置および遠隔操作デバイスの車室内での配置を説明するための説明図である。 図11は、第2実施形態におけるナビゲーション装置および遠隔操作デバイスの構成を示す構成図である。 図12は、第2実施形態の遠隔操作デバイスにおいて、操作制御部により実施される入力処理を示すフローチャートである。 図13は、第2実施形態の遠隔操作デバイスにおいて、溝部への指操作に伴う表示画面の表示状態を説明するための図である。 図14は、第3実施形態のナビゲーション装置および遠隔操作デバイスの車室内での配置を説明するための説明図である。 図15は、第3実施形態におけるナビゲーション装置および遠隔操作デバイスの構成を示す構成図である。 図16は、第3実施形態の遠隔操作デバイスにおいて、操作制御部により実施される入力処理を示すフローチャートである。 図17は、第3実施形態の遠隔操作デバイスにおいて、溝部への指操作に伴う表示画面の表示状態を説明するための図である。
 以下、本開示の複数の実施形態を図面に基づいて説明する。尚、各実施形態において対応する構成要素には同一の符号を付すことにより、重複する説明を省略する場合がある。各実施形態において構成の一部分のみを説明している場合、当該構成の他の部分については、先行して説明した他の実施形態の構成を適用することができる。また、各実施形態の説明において明示している構成の組み合わせばかりではなく、特に組み合わせに支障が生じなければ、明示していなくても複数の実施形態の構成同士を部分的に組み合せることができる。
 (第1実施形態)
 第1実施形態(図1~図9)は、本開示の入力装置を、ナビゲーション装置50を操作するための遠隔操作デバイス100に適用したものである。遠隔操作デバイス100は、車両に搭載され、ナビゲーション装置50等と共に表示システム10を構成している。
 図1に示すように、遠隔操作デバイス100は、車両のセンターコンソールにてパームレスト39と隣接する位置に設置され、操作者(使用者でありここでは運転者とする)の手の届き易い範囲に操作面32を露出させている。遠隔操作デバイス100は、タッチセンサ31を有しており(図2、図3)、タッチセンサ31の表面が、操作者の指操作が行われる上記の操作面32として形成されている。尚、図1中の「F」は操作者の指を示している。
 また、ナビゲーション装置50は、操作者から目視されるよう液晶ディスプレイ52の表示画面53を露出させ且つ表示画面53を運転席および助手席側に向けた姿勢にて、車両のインストルメントパネルの左右方向(車両の幅方向)の中央に設置されている。表示システム10(液晶ディスプレイ52)は、種々の表示画像60を表示画面53に切替えて表示する。上記の遠隔操作デバイス100は、ナビゲーション装置50に対して別体で形成されており、ナビゲーション装置50から離れた位置に設定されている。
 以下、遠隔操作デバイス100、およびナビゲーション装置50の各構成について、図2~図5を加えて詳しく説明する。
 遠隔操作デバイス100は、Controller Area Networkバス(以下、CANバス)90、および外部のバッテリ91等と接続されている。CANバス90は、車両に搭載された複数の車載装置を相互に接続してなる車内通信ネットワークにおいて、各車載装置間でのデータの伝送に用いられる伝送路である。遠隔操作デバイス100は、CANバス90を通じて、離れて位置するナビゲーション装置50と通信可能となっている。
 遠隔操作デバイス100は、外観全体が直方体の箱状に形成されており、電源インターフェース21、22、通信制御部23、通信インターフェース24、タッチセンサ31、操作面32、溝部33、第1、第2センサ34a、34b、および操作制御部35、等によって構成されている。各電源インターフェース21、22は、バッテリ91から供給される電力を安定化して、操作制御部35に供給する。一方の電源インターフェース21には、バッテリ91から常に電力が供給されている。他方の電源インターフェース22には、車両のアクセサリ(ACC)電源がオン状態とされたことに基づいてスイッチ92が通電状態となることにより、バッテリ91から電力が供給されるようになっている。
 通信制御部23および通信インターフェース24は、操作制御部35によって処理された情報をCANバス90に出力すると共に、他の車載装置からCANバス90に出力された情報を取得するための構成である。通信制御部23および通信インターフェース24は、送信用の信号線TXおよび受信用の信号線RXによって互いに接続されている。
 タッチセンサ31は、静電容量式の検出部(検出手段の一例)であって、矩形の平板状に形成されており、センサ表面に対する指による操作状態を検出する。タッチセンサ31は、操作面32に対応する位置に設けられている。タッチセンサ31は、x軸方向に沿って延びる電極と、y軸方向に沿って延びる電極とが格子状に配列されることにより形成されている。これら電極は、操作制御部35と接続されている。各電極は、センサ表面に近接する指の位置(図3のx、y、z座標位置)に応じて、発生される静電容量が変化するようになっており、発生される静電容量の信号(感度値)が操作制御部35に出力されるようになっている。センサ表面は、絶縁材よりなる絶縁シートによって覆われている。
 操作面32は、操作者が指操作を行う平面部であり、例えば、センサ表面の絶縁シート全体にわたって指の滑りを良くする素材等が設けられることで形成されている。操作面32は、直方体の遠隔操作デバイス100の表側の面において、車両後方側となる領域に矩形状を成して形成されている。操作面32上におけるx軸方向、y軸方向、あるいはz軸方向の操作者の指操作により、表示画面53に表示される表示画像60(図9参照)に対する操作のための入力ができるように設定されている。
 溝部33は、窪みに運転者の指先が挿入可能であり、窪みが連続する長手方向に指のスライドが可能となるように形成された溝となっている。溝部33は、直方体の遠隔操作デバイス100の表側の面において、操作面32に対して車両前方側となる領域に配置されている。溝部33(溝部33の底部)は、操作面32と同一面上となるように配置されている。更に、溝部33の長手方向は、車両前後方向に設定されて、操作面32内を向くように配置されている。溝部33は、遠隔操作デバイス100において、車両左右方向のほぼ中央に配置されている。
 溝部33の断面形状は、例えば、指先と同程度の幅を有する円弧状(半円形)に形成されている。よって、図4に示すように、複数の指や掌等は、溝部33には挿入できないようになっている。
 第1、第2センサ34a、34bは、溝部33における運転者の指の有無を検出する複数の検出部である。第1、第2センサ34a、34bは、溝部33に対応する位置(溝部33の底部の更に下側)に設けられている。第1センサ34aは、操作面32に対して遠い側となる溝部33の一端側に対応するように設けられている。また、第2センサ34bは、操作面32に対して近い側となる溝部33の他端側に対応するように設けられている。第1センサ34aは、本開示の遠い側の検出部に対応し、第2センサ34bは、本開示の近い側の検出部の一例に対応する。
 第1、第2センサ34a、34bは、上記タッチセンサ31と同様の電極から形成されるものであって、図5に示すように、本実施形態では、タッチセンサ31の一端側にタッチセンサ31と一体的に形成されている。第1、第2センサ34a、34bの電極は、タッチセンサ31を介して操作制御部35と接続されている。第1、第2センサ34a、34bの電極は、溝部33に指が近接あるいは接触すると、静電容量が変化して、発生される静電容量の信号(感度値)が操作制御部35に出力されるようになっている。
 操作制御部35は、本開示の制御部の一例に対応し、各種の演算処理を行うプロセッサ、演算処理の作業領域として機能するRAM、および演算処理に用いられるプログラム等が格納されたフラッシュメモリ等によって構成されている。加えて、操作制御部35は、各電源インターフェース21、22、通信制御部23、タッチセンサ31、および第1、第2センサ34a、34b等と接続されている。
 操作制御部35は、所定のプログラムを実行することによってタッチセンサ31の各電極の静電容量の信号を計測することにより、タッチセンサ31の計測値としての感度値(Hth)を取得する。操作者の指が操作面32(センサ表面)に近接すると、電極と指との間に電荷が蓄えられる。操作制御部35は、操作面32の面の拡がる方向における指の相対的な操作位置(以下、「相対位置」という)を示すx座標およびy座標、更には、操作面32から指までの距離(以下、「操作距離」という)に相当するz座標を、感度値に基づく算出処理によって算出するようになっている。
 具体的には、図6に示すように、例えば、x軸方向に並ぶ電極に対して、ある任意の電極部の位置に対応する操作面32上で指を接触させると感度値は大きく得られ、接触位置から離れた位置になるほど、指の接触状態がなくなっていくことから、感度値は小さくなっていく。y軸方向に並ぶ電極に対しても同様である。よって、操作制御部35は、x軸およびy軸における電極の中で、最も大きな感度値が得られる部位(x座標位置、y座標位置)を、現在の指の相対位置として算出するようになっている。
 z軸方向については、指が操作面32に近づくほど、感度値は大きくなり、逆に指が操作面32から遠ざかるほど、感度値は小さくなる。よって、操作制御部35は、得られる感度値の大小によって、現在の指のz座標位置、即ち、操作距離を算出するようになっている。
 また、操作制御部35は、図6、図7に示すように、得られる感度値に対して、指の操作状態(z軸方向における指の操作距離)、および後述する表示画像60への操作処置を関連付けするようになっている。操作制御部35は、操作状態を判定するための、複数の感度閾値Hth1、Hth2を予め備えており、その感度閾値に応じて、指の操作状態を判定するようにしている。操作状態としては、指が操作面32に接触する、あるいは実際には接触していないがほとんど接触に近い「接触状態」と、指が操作面32に対して近接している「近接状態」と、指が「近接状態」よりも操作面32から更に遠ざかっている「非接触状態」とに区分けされている。尚、「接触状態」については、指が操作面32に実質的に接触する場合のみの操作状態とするようにしても良い。
 例えば、操作制御部35は、感度閾値として、Hht1=count200、Hht2=count100を備えている。そして、感度値がHth1(200)以上であると指は操作面32に対して「接触状態」であると判定する。また、感度値がHth1~Hth2(200~101)の間にあると指は操作面32に対して「近接状態」であると判定する。また、感度値がHth2(100)以下であると指は操作面32に対して「非接触状態」であると判定する。以下、「接触状態」を「接触中」、「近接状態」を「近接中」、「非接触状態」を「非接触」と呼ぶことにする。
 尚、各感度閾値Hth1、Hth2近傍で指が微妙に上下移動すると、操作制御部35による操作状態の判定結果に反転繰返し(ハンチング)が発生してしまう。よって、各感度閾値Hth1、Hth2の上側(操作面32に近い側)には、所定距離だけ離れた位置に対応する上側閾値Hth1U、Hth2Uがそれぞれ設定されている。また、各感度閾値Hth1、Hth2の下側(操作面32に遠い側)には、所定距離だけ離れた位置に対応する下側閾値Hth1D、Hth2Dがそれぞれ設定されている。指が各感度閾値Hth1、Hth2の下側(遠い側)から上側(近い側)に向けて移動される際には、各上側閾値Hth1U、Hth2Uが、操作状態を判定する際の感度閾値となる。逆に、指が各感度閾値Hth1、Hth2の上側(近い側)から下側(遠い側)に向けて移動される際には、各下側閾値Hth1D、Hth2Dが、操作状態を判定する際の感度閾値となる。
 更に、操作制御部35は、操作者が操作面32を指で軽く押さえたときの押圧操作(タッチ操作)を検知する。そして操作制御部35は、指のスライド操作に伴う指の位置を示すx、y、z座標、および押圧操作の有無を、通信制御部23および通信インターフェース24を通じて、CANバス90に出力する。
 加えて、操作制御部35は、所定のプログラムを実行することによって第1、第2センサ34a、34bの各電極の静電容量の信号を計測することにより、第1、第2センサ34a、34bの計測値としての感度値を取得する。操作者の指が溝部33に近接あるいは接触すると、電極と指との間に電荷が蓄えられる。操作制御部35は、得られた感度値が予め定めた所定値以上あると、溝部33に指が有ると判定するようになっている。逆に、操作制御部35は、得られた感度値が所定値未満であると、溝部33に指は無いと判定するようになっている。
 そして、操作制御部35は、第1、第2センサ34a、34bのすべてが運転者の指を検出し、且つ、その検出が第1センサ34a、第2センサ34bの順であると溝部33における指のスライド有りと判定する。つまり、操作制御部35は、第1センサ34aの信号から指有りの判定をし、更に、続けて第2センサ34bの信号から指有りと判定すると、運転者は、溝部33の一端側(操作面32から遠い側)から他端側(操作面32に近い側)に向けて、指をスライドしたものと判定するようになっている。
 ナビゲーション装置50は、地図上における現在の位置表示や目的地案内等を行うナビゲーション機能に加えて、車両用空調装置に対する空調作動設定機能、車両用オーディオに対するオーディオ作動設定機能、およびインターネットによる各種情報検索閲覧機能等を備えている。ナビゲーション装置50は、遠隔操作デバイス100等と通信可能なようにCANバス90と接続されており、表示制御部51および液晶ディスプレイ52を有している。
 ナビゲーション装置50における上記の各種機能については、後述する液晶ディスプレイ52の表示画像60中のメニュー61において、「Climate(エアコン操作)」、「Map(地図表示)」、「Destination(目的地設定)」、「Media(オーディオ操作)」、「Network(インターネット操作)」等のように表示されるようになっている(図9)。
 表示制御部51は、各種の演算処理を行うプロセッサ、演算処理の作業領域として機能するRAM、画像の描画処理を行うグラフィックプロセッサ、描画処理の作業領域として機能するグラフィックRAM等によって構成されている。加えて表示制御部51は、演算処理および描画処理に用いられるデータを格納するフラッシュメモリ、CANバス90と接続される通信インターフェース、および描画した画像データを液晶ディスプレイ52に出力する映像出力インターフェースを有している。表示制御部51は、CANバス90から取得する情報に基づいて、表示画面53に表示する表示画像60を描画する。そして表示制御部51は、描画した表示画像60の画像データを、映像出力インターフェースを通じて液晶ディスプレイ52に逐次出力する。
 液晶ディスプレイ52は、表示画面53に配列された複数の画素を制御することにより、カラー表示を実現するドットマトリクス方式の表示部である。液晶ディスプレイ52は、表示制御部51から逐次取得する画像データを表示画面53に連続的に形成することにより、映像を表示する。
 表示画面53に表示される表示画像60は、本開示の画像の一例に対応するものであり、複数の階層に分かれた画像から構成されている。例えば、複数の階層の画像のうち、第1階層(所定階層)の画像は、ナビゲーション装置50の各種機能(ナビゲーション、エアコン、オーディオ、インターネット等)を使用するための複数のメイン画像となっている。例えば、図9では、1つのメイン画像として、エアコン用のメイン画像を示している。
 表示画像60の上側には、複数のメイン画像の種類(名称)をメニュー項目として、これらメニュー項目が左右方向に並ぶように形成されたメニュー61が設けられている。メニュー61は、表示画像60がどの階層の画像に切替えられても、常に同一の形で表示されるようになっている。操作者は、所望するメニュー61のうちの1つを操作面32上で指操作により選択すると、表示画面53には、選択されたメイン画像が表示されるようになっている。あるいは、操作者は、任意のメイン画像が表示されているときに、メニュー61を操作することなく、操作面32上で指をスライド操作することで、メイン画像を順次スクロールすることができ、所望のメイン画像にすることができるようになっている。
 また、表示画像60には、画像を操作するための複数のアイコン62が設けられている。図9の例では、エアコン操作における風量設定アイコン、温度設定アイコン、デュアル設定アイコン、吹出しモード設定アイコン等を示している。また、表示画像60には、ポインタ63が表示されるようになっている。ポインタ63は、操作面32上における指の位置を表示画像60と対応するように示すものであり、例えば、手のデザインを基に、人差し指(指先)が指操作時の位置を示すものとなっている。尚、ポインタ63としては、その他にも矢印を基本デザインとしたもの等としても良い。ポインタ63は、表示画像60上において、指の接触状態が、接触中、および近接中の場合に表示されるようになっている。
 操作者は、操作面32上で指をスライド操作し、ポインタ63によって所望のアイコン62を選択すると、そのアイコン62が選択されたことを示す枠状のフォーカス64が表示されるようになっている。更に、選択されたアイコン62の位置に対応するように操作面32上で指を軽く押さえてやると(タッチ操作すると)、そのアイコン62が決定状態となり、第2階層の画像、つまり決定されたアイコンに対応する操作用の画像に移行し、順次、各種機能が使用できるようになっている。
 加えて、後述するように、操作制御部35によって操作面32への指操作による入力禁止が実行されると、表示画像60には、入力禁止中である旨を示すロック情報65(図9)が表示されるようになっている。
 次に、操作制御部35によるタッチセンサ31、および第1、第2センサ34a、34bからの入力処理の詳細を図8、図9に基づいて説明する。
 図8において、まず、ステップ100では、操作制御部35は、溝部33の第1、第2センサ34a、34bの検出信号から、運転者が溝部33の一端側(図9のポイントA)から他端側(図9のポイントB)に向けて指をスライド(なぞり)したか否かを判定する。操作制御部35は、第1センサ34a、第2センサ34bの順に所定値以上の感度値が得られたときに、溝部33における指のスライド有りと判定し、それ以外の場合は溝部33における指のスライド無しと判定する。
 ステップS100で否、つまり指のスライド無しと判定すると、操作制御部35は、後述するステップS240での指操作による入力禁止(ロック)状態が継続しているものとして、ステップS110で、現在ロック中である旨を表示画像60に表示して、運転者に認識される。具体的には、図9の左側の枠内に示すように、表示画像60にロック情報(LOCKED)65を表示する。
 そして、ステップS120で、操作制御部35は、ロック情報65を表示画面60上でフラッシング(点滅)させることで運転者に対して強調表示を行う。そして、上記フラッシングをした後に、ステップS130で、表示画像60を通常の画像に戻し(ロック情報65を消す)、ステップS100に戻る。
 一方、ステップS100で、肯定判定、つまり指のスライド有りと判定すると、ステップS140で、操作制御部35は、指操作による入力禁止(ロック)を解除する。これにより、操作面32における指の入力操作が可能な状態となる。
 尚、上記ステップS100での肯定判定をしたということは、運転者は溝部33に対して指をポイントA側からポイントB側にスライドしており、運転者の指は、自ずと、操作面32のエリア内に至っていることになる。
 そして、ステップS150で、操作制御部35は、タッチセンサ31の各電極にて検出される感度値を取得する取得処理を実施し、ステップS160に進む。ステップS160では、ステップS150にて取得される感度値から、操作面32に対する指の相対位置を示すx座標、y座標、および操作距離を示すz座標の計算処理を実施する。そして、操作距離を示すz座標の計算値から、指の操作状態が、接触中、近接中、あるいは非接触のいずれにあるかを算出する。
 具体的には、タッチセンサ31によって検出される感度値がHth1(Hth1U)よりも大きいときは接触中、また、感度値がHth2(Hth2U)~Hth1(Hth1D)の間にあるときは近接中、更に、感度値がHth2(Hth2D)よりも小さいときは非接触と算出する。
 そして、ステップS170で、算出された指の操作状態は接触中ではなく、且つ感度値がHth1以上(実際には上側閾値Hth1U以上)あるか否かを判定する。ここで肯定判定すると、操作者の指は非接触あるいは近接中の状態から操作面32に近づき、操作面32に対して接触した状態にあることになり、ステップS180で、指の操作状態を接触中に更新する。
 接触中においては、操作制御部35は、表示画面53を接触中画面に更新する。接触中画面とは、図9(右側の枠内)に示すように、表示画像60に本来のメニュー61、アイコン62、ポインタ63、およびフォーカス64が表示される画面である。フォーカス64は、表示されるメイン画像に対応する機器の現時点での作動状態(作動設定状態)を示す。
 接触中画面においては、操作者は、指操作(スライド、タッチ操作等)によって、本来の画面操作、つまり各メニュー61、および各種アイコン62の選択、および決定等が可能となる。
 次に、ステップS170で否と判定すると、ステップS190で、操作制御部35は、1つ目の条件として操作状態は非接触であり、且つ感度値がHth2以上(実際には上側閾値Hth2U以上)あるか、または2つ目の条件として操作状態は接触中であり、且つ感度値がHth1以下(実際には下側閾値Hth1D以下)であるか、のいずれかであるか否かを判定する。ここで肯定判定すると、操作者の指は非接触から操作面32に近づく、あるいは接触中から操作面32に対して多少離れる状態にあることになり、ステップS200で、指の操作状態を近接中に更新する。
 近接中においては、操作制御部35は、表示画面53を近接中画面に更新する。近接中画面とは、上記の接触中画面において、ポインタ63、およびフォーカス64が非表示とされる画面である。近接中画面においては、操作者は、近接中における指操作(フリック等のジェスチャ)によって、メニュー61によるメイン画像の切替えが可能となる。
 次に、ステップS190で否と判定すると、ステップS210で、操作制御部35は、操作状態は非接触ではなく、且つ感度値がHth2以下(実際には下側閾値Hth2D以下)であるか否かを判定する。ここで肯定判定すると、操作者の指は接触中あるいは近接中の状態から操作面32に対して大きく離れる状態にあることになり、ステップS220で、指の操作状態を非接触に更新する。
 非接触においては、操作制御部35は、表示画面53を非接触画面に更新する。非接触画面とは、上記の接触中画面において、ポインタ63が非表示とされる画面である。非接触画面においては、フォーカス64は、表示されるメイン画像に対応する機器の現時点での作動状態(作動設定状態)を示す。
 非接触画面においては、操作者の指は操作面32から明らかに離れた状態にあり、操作者には表示画像60を操作する意志は無く、操作者は表示画像60を、単純に現在の機器の作動状態を確認するための確認用画面として見ることができる。
 そして、ステップS180、ステップS200、ステップS220、および否定判定したステップS210の後に、ステップS230で、操作制御部35は、タッチセンサ31の感度値より、操作面32に対する運転者の指操作が成されていない状態が、所定時間以上継続しているか否かを判定する。ステップS230で、肯定判定すると、ステップS240で、操作制御部35は、操作面32への指操作による入力を禁止(ロック)する。尚、ステップS230で、否定判定すると、このステップS230を繰り返し実行する。
 以上のように、本実施形態では、操作制御部35は、操作面32に対する運転者の指操作が所定時間以上実施されていないときに、操作面32への指操作による入力の禁止を行う(ステップS240)ようにしている。よって、運転者は不用意に指を操作面32に近づけてしまっても、表示画像60を操作するための入力が実行されることがないので、運転者の意図しない入力を防止することが可能となる。
 そして、操作制御部35は、第1、第2センサ34a、34bによって溝部33に運転者の指が有ると検出されると、溝部33における指のスライド有りと判定して、入力の禁止を解除する(ステップS140)ようにしている。よって、運転者は、溝部33に対して指をスライドさせることで、操作面32への指操作による入力が再び可能となる。この場合は、運転者の意図した指操作が行われることになる。
 また、操作制御部35は、入力の禁止を行っているときに(ステップS240)、運転者による操作面32への指操作が行われても、溝部33における指のスライド無し(ステップS100で否定判定)と判定すると、入力の禁止を行っている旨をロック情報65として表示画像60(液晶ディスプレイ52)に表示させるようにしている(ステップS110)。これにより、運転者は、入力操作ができない状態にあることを明確に理解することができ、指操作するにあたって戸惑うことがない。
 また、溝部33における指のスライドを検出する検出部として、複数の検出部(第1、第2センサ34a、34b)を設けている。そして、操作制御部35は、第1、第2センサ34a、34bの両者(すべて)が、運転者の指の有ることを検出すると、指のスライド有りと判定するようにしている。これにより、指のスライドの検出精度を高めることができるので、誤判定を低減させることができる。
 また、溝部33は、操作面32と同一面上に、且つ長手方向が操作面32内に向くように配置されており、操作制御部35は、第1、第2センサ34a、34bのうち、操作面32に対して遠い側(ポイントA側)となる第1センサ34aの後に、近い側(ポイントB側)となる第2センサ34bが指の有ることを検出すると、指のスライド有りと判定するようにしている。これにより、運転者は、指を溝部33に対してポイントA側からポイントB側にスライドした後に、操作面32に対して指操作することとなり、溝部33から操作面32に対して連続的な操作が可能となる。
 また、溝部33における第1、第2センサ34a、34bは、操作面32におけるタッチセンサ31と一体的に形成さるようにしている。これにより、それぞれ専用のセンサを設けることなく、容易に、タッチセンサ31、および第1、第2センサ34a、34bを形成することができ、安価な対応が可能となる。
 また、入力禁止を解除するための操作部として、溝部33形状とすることにより、複数の指や掌等は溝部33には挿入できないようになっており、誤操作を防止することができる。更に、溝部33に沿った指のスライド操作をすることで、操作面32および液晶ディスプレイ52の表示画面53を直視しなくても、運転中のブラインド操作が可能となる。
 (第2実施形態)
 第2実施形態の遠隔操作デバイス100Aを図10~図13に示す。第2実施形態は、上記第1実施形態に対して、操作者として、運転席における運転者、および助手席における助手席者を対象とした表示画像60の入力処理を付加したものとなっている。
 図10、図11、図13に示すように、遠隔操作デバイス100Aには、左右方向に並ぶように複数(ここでは2つ)の溝部、即ち、運転席用溝部33a、および助手席用溝部33bが設けられている。
 運転席用溝部33aは、遠隔操作デバイス100Aの運転席側(右側)に位置し、運転者用として対応付けされた溝部となっている。運転席用溝部33aには、上記第1実施形態と同様に、第1、第2センサ34a1、34b1が設けられている。第1、第2センサ34a1、34b1の検知する信号は、運転者の指が運転席用溝部33aに有ることを示す信号として操作制御部35に出力されるようになっている。
 また、助手席用溝部33bは、遠隔操作デバイス100Aの助手席側(左側)に位置し、助手席者用として対応付けされた溝部となっている。助手席用溝部33bには、上記第1実施形態と同様に、第1、第2センサ34a2、34b2が設けられている。第1、第2センサ34a2、34b2の検知する信号は、助手席者の指が助手席用溝部33bに有ることを示す信号として操作制御部35に出力されるようになっている。
 よって、操作制御部35は、第1、第2センサ34a1、34b1、あるいは第1、第2センサ34a2、34b2からの信号に基づいて、各溝部33a、33bに対する操作者が運転者か、助手席者かを判定できるようになっている。
 操作制御部35が行う入力処理のフローチャートは、図12に示すように、上記第1実施形態で説明したフローチャート(図8)に対して、操作者が運転者か助手席者かのいずれかを判定して、判定結果に応じた画面表示の設定を行うためのステップS141、ステップS142、およびステップS143が、ステップS140とステップS150との間に追加されたものとなっている。
 操作制御部35は、まず、上記の第1実施形態と同様に、ステップS100において各溝部33a、33bに対する運転者あるいは助手席者の指のスライドがあったか否かを判定して、否定判定をするとステップS110~ステップS130を実施し、肯定判定をするとステップS140を実施する。
 そして、ステップS141で、操作制御部35は、ステップS100における第1、第2センサ34a1、34b1、あるいは第1、第2センサ34b1、34b2の出力信号から、操作者は、運転者か助手席者かを判定する。具体的には、操作制御部35は、第1、第2センサ34a1、34b1からの出力信号によって、運転席用溝部33aにおいて、指のスライド有りと判定すると、操作者は運転者であると判定する。また、操作制御部35は、第1、第2センサ34a2、34b2からの出力信号によって、助手席用溝部33bにおいて、指のスライド有りと判定すると、操作者は助手席者であると判定する。尚、図12中の「D席」は運転席(Driver seat)を意味し、また、「P席」は助手席(Passenger seat)を意味している。
 ステップS141で、操作者は運転者であると判定すると、ステップS142で、操作制御部35は、運転者用の画面表示設定を行う。つまり、本来の表示画像60を運転者用専用画像60aに切替える。運転者用専用画像60aは、図13の右側の枠内に示すように、各種アイコン62、ポインタ63、およびフォーカス64が表示される画像となっている。そして、運転者用専用画像60aには、メニュー61の代わりに、この画面が運転者専用の画面であることを示す運転者用専用表示60a1が追加表示されるようになっている。
 加えて、運転者用専用画像60aは、運転者側を向くように外観形状が変更される。つまり、運転者用専用画像60aにおいては、表示画像60aの本来の横長長方形の外観形状が、平行四辺形の外観形状となる。平行四辺形の外観形状は、底辺が運転者側(右側)にずれた形となって、左右の辺が上側から下側に向けて、運転者側に傾いたものとなっている。つまり、運転者用専用画像60aは、本来の表示画像60が運転者側に向けられたイメージの画像であることを、運転者自身が直感的に認識できる画像となっている。
 一方、ステップS141で、操作者は助手席者であると判定すると、ステップS143で、操作制御部35は、助手席者用の画面表示設定を行う。つまり、本来の表示画像60を助手席者用専用画像60bに切替える。助手席者用専用画像60bは、図13の左側の枠内に示すように、各種アイコン62、ポインタ63、およびフォーカス64が表示される画像となっている。そして、助手席者用専用画像60bには、メニュー61の代わりに、この画面が助手席者専用の画面であることを示す助手席者用専用表示60b1が追加表示されるようになっている。
 加えて、助手席者用専用画像60bは、助手席者側を向くように外観形状が変更される。つまり、助手席者用専用画像60bにおいては、表示画像60aの本来の横長長方形の外観形状が、平行四辺形の外観形状となる。平行四辺形の外観形状は、底辺が助手席者側(左側)にずれた形となって、左右の辺が上側から下側に向けて、助手席者側に傾いたものとなっている。つまり、助手席者用専用画像60bは、本来の表示画像60が助手席者側に向けられたイメージの画像であることを、助手席者自身が直感的に認識できる画像となっている。
 そして、操作制御部35は、ステップS142、およびステップS143の後に、上記第1実施形態と同様に、ステップS150~ステップS240を実施し、操作者の指の操作状態に応じた入力制御を行い、更に、指操作なしの状態が所定時間以上継続すると、操作面32に対する入力の禁止を行う。
 以上のように、本実施形態においては、操作者の対象を運転者と助手席者としており、溝部として運転者用、および助手席者用にそれぞれ対応付けられた運転席用溝部33aと、助手席用溝部33bという複数の溝部を設けている。そして、操作制御部35は、各溝部33a、33bに対する指操作に応じて、操作面32に対する入力の禁止を解除する。加えて、操作制御部35は、各溝部33a、33bのうち、指のスライド有りと判定した溝部33a、あるいは溝部33bに対応するように表示画像60を、運転者用専用画像60a、あるいは助手席者用専用画像60bのいずれかに切替えて液晶ディスプレイ52に表示する。
 これにより、操作者(運転者あるいは助手席者)は、現在の表示画像60(運転者用専用画像60a、あるいは助手席者用専用画像60b)が、操作者自身の入力に基づくものであることが直感的に分かり、運転者あるいは助手席者のいずれの操作者が操作しているのか迷うことがなく、操作性を向上させることができる。
 (第3実施形態)
 第3実施形態の遠隔操作デバイス100Bを図14~図17に示す。第3実施形態は、上記第1実施形態に対して、溝部として複数の溝部(ナビ用溝部331、オーディオ用溝部332、エアコン用溝部333)を設けて、各溝部への指操作によって、表示させたい画像(例えば複数の階層のうち、第1階層における複数のメイン画像)の選択機能を付加したものとなっている。
 図14、図15、図17に示すように、遠隔操作デバイス100Bには、左右方向に並ぶように複数(ここでは3つ)の溝部、即ち、ナビ用溝部331、オーディオ用溝部332、およびエアコン用溝部333が設けられている。
 ナビ用溝部331は、遠隔操作デバイス100Bの左側に位置し、例えば第1階層におけるナビ画面の表示用として対応付けされた溝部となっている。ナビ用溝部331には、上記第1実施形態と同様に、第1、第2センサ34aA、34bAが設けられている。第1、第2センサ34aA、34bAの検知する信号は、操作者の指がナビ用溝部331に有ることを示す信号として操作制御部35に出力されるようになっている。
 また、オーディオ用溝部332は、遠隔操作デバイス100Bの左右方向の中央に位置し、例えば第1階層におけるオーディオ画面の表示用として対応付けされた溝部となっている。オーディオ用溝部332には、上記第1実施形態と同様に、第1、第2センサ34aB、34bBが設けられている。第1、第2センサ34aB、34bBの検知する信号は、操作者の指がオーディオ用溝部332に有ることを示す信号として操作制御部35に出力されるようになっている。
 また、エアコン用溝部333は、遠隔操作デバイス100Bの右側に位置し、例えば第1階層におけるエアコン画面の表示用として対応付けされた溝部となっている。エアコン用溝部333には、上記第1実施形態と同様に、第1、第2センサ34aC、34bCが設けられている。第1、第2センサ34aC、34bCの検知する信号は、操作者の指がエアコン用溝部333に有ることを示す信号として操作制御部35に出力されるようになっている。
 よって、操作制御部35は、第1、第2センサ34aA、34bA、あるいは第1、第2センサ34aB、34bB、あるいは第1、第2センサ34aC、34bCからの信号に基づいて、操作者がいずれの溝部を操作(スライド)したかが判定できるようになっている。
 操作制御部35が行う入力処理のフローチャートは、図16に示すように、上記第1実施形態で説明したフローチャート(図8)に対して、操作者がいずれの溝部を操作したかを判定して、判定結果に応じた画面表示の設定を行うためのステップS145、ステップS146、ステップS147、およびステップS148が、ステップS140とステップS150との間に追加されたものとなっている。
 操作制御部35は、まず、上記の第1実施形態と同様に、ステップS100において各溝部331、332、333に対する操作者の指のスライドがあったか否かを判定して、否定判定をするとステップS110~ステップS130を実施し、肯定判定をするとステップS140を実施する。
 そして、ステップS145で、操作制御部35は、ステップS100における第1、第2センサ34aA、34bB、あるいは第1、第2センサ34aB、34bB、あるいは第1、第2センサ34aC、34bCの出力信号から、操作者は、いずれの溝部に対して指をスライドさせたかを判定する。
 具体的には、操作制御部35は、第1、第2センサ34aA、34bAからの出力信号によって、ナビ用溝部331における指のスライド有りと判定する。また、操作制御部35は、第1、第2センサ34aB、34bBからの出力信号によって、オーディオ用溝部332における指のスライド有りと判定する。また、操作制御部35は、第1、第2センサ34aC、34bCからの出力信号によって、エアコン用溝部333における指のスライド有りと判定する。
 ステップS145で、ナビ用溝部331において指がスライドされたと判定すると、ステップS146で、操作制御部35は、本来の表示画像60をナビ画像601に切替えるための画面表示設定を行う。ナビ画像601は、図17の左側の枠内に示すように、メニュー61における「Map」に対応する画像であり、現在走行中近辺の地図、およびこの地図上における自車両の位置等が示される画像となっている。
 また、ステップS145で、オーディオ用溝部332において指がスライドされたと判定すると、ステップS147で、操作制御部35は、本来の表示画像60をオーディオ画像602に切替えるための画面表示設定を行う。オーディオ画像602は、図17の真ん中の枠内に示すように、メニュー61における「Media」に対応する画像であり、所望するオーディオ機器の選択、および音楽、画像等の再生等が可能となる各種アイコンが表示される画像となっている。
 また、ステップS145で、エアコン用溝部333において指がスライドされたと判定すると、ステップS148で、操作制御部35は、本来の表示画像60をエアコン画像603に切替えるための画面表示設定を行う。エアコン画像603(図17の右側の枠内)は、上記第1、第2実施形態で説明したエアコン操作用の画像である。
 そして、操作制御部35は、ステップS146、ステップS147、およびステップS148の後に、上記第1実施形態と同様に、ステップS150~ステップS240を実施し、操作者の指の操作状態に応じた入力制御を行い、更に、指操作なしの状態が所定時間以上継続すると、操作面32に対する入力の禁止を行う。
 以上のように、本実施形態においては、溝部として、所定階層における複数の画像と対応する複数の溝部(ナビ用溝部331、オーディオ用溝部332、およびエアコン用溝部333)を設けている。そして、操作制御部35は、各溝部331、332、333に対する指操作に応じて、操作面32に対する入力の禁止を解除する。加えて、操作制御部35は、各溝部331、332、333のうち、指のスライド有りと判定したナビ用溝部331、あるいはオーディオ用溝部332、あるいはエアコン用溝部333に対応するように表示画像60を、ナビ画像601、あるいはオーディオ画像602、あるいはエアコン画像603のいずれかに切替えて液晶ディスプレイ52に表示する。
 これにより、操作者は、所望する表示画像60の選択をしながら、同時に操作面32への入力禁止状態を解除でき、操作性を向上させることができる。また、操作者は、いずれかの溝部331、332、333を指でスライドすることで、所望する表示画像60を選択できるため、ブラインド操作による画像選択が可能となる。
 (その他の実施形態)
 上記各実施形態では、ステップS110の後に、ステップS120でロック情報65をフラッシング(点滅)するようにしたが、ロック情報65を表示すること自体で、操作者に対する注意喚起ができるようであれば、ステップS120は廃止しても良い。
 また、ステップS130における通常画像への復帰を廃止して、ステップS100で肯定判定した後に、ステップS140における入力禁止を解除した時に、ステップS130に相当する通常画像への復帰を行うようにしても良い。
 また、各溝部に対してそれぞれ複数のセンサ(第1、第2センサ)を設けるようにしたが、1つの溝部に対して1つのセンサにて対応するようにしても良い。この場合、指をスライドさせる方向は、溝部の両端部のどちら側(ポイントA側、あるいはポイントB側)からでも良いものとすることができる。ただし、上記各実施形態と同様に、ポイントA側からポイントB側へのスライド方向を操作要領として予め決めておけば、各溝部から操作面32に対する連続的な操作が可能となる。
 また、操作面32と各溝部は同一面上に設けられ、且つ、溝部の長手方向が操作面32内を向くようにしたが、これに限定されることなく、例えば、溝部が操作面32に対して段差をもって上側に設けられるようにしても良い。あるいは、溝部が直方体を成す遠隔操作デバイス100、100A、100Bの側面部に設けられるようにしても良い。
 また、第1、第2センサは、タッチセンサ31と一体的に設けられるようにしたが、それぞれ専用のセンサとして設けるようにしても良い。
 また、第2、第3実施形態において、複数の溝のうち、同時に2つ以上の溝に対して指をスライドさせることで、所定の入力機能(例えば、今の入力操作をキャンセルする、あるいは1つ前の画面に戻る、あるいは第1階層のメイン画面に戻る、あるいは設定メニューに移行する等)を持たせるようにしても良い。
 また、検出部(検出手段)として静電容量式のタッチセンサ31を用いたが、これに限定されるものではなく、他の感圧式のタッチセンサ等としても良い。
 また、遠隔操作デバイス100、100A、100Bにプッシュスイッチを設けて、指操作によって選択した内容(アイコン等)を決定する際に、このプッシュスイッチを押込むことで、決定するようにしても良い。
 以上、本開示に係る実施の形態および構成を例示したが、本開示に係る実施の形態および構成は、上述した各実施の形態および各構成に限定されるものではない。異なる実施の形態および構成にそれぞれ開示された技術的要素を適宜組み合わせて得られる実施の形態および構成についても本開示に係る実施の形態および構成の範囲に含まれる。

Claims (8)

  1.  車両に搭載されて、複数の階層に分かれた画像(60)を切替え可能に表示する表示部(52)に対して別体で形成されており、操作面(32)に対する使用者の指操作によって、前記画像(60)を操作するための入力が行われる入力装置であって、
     窪みに前記使用者の指先が挿入されて、前記窪みが連続する長手方向に指のスライドが可能となる溝部(33)と、
     前記溝部(33)における前記指の有無を検出する検出部(34a、34b)と、
     前記操作面(32)に対する前記指操作が所定時間以上実施されていないときに、前記操作面(32)への前記指操作による入力の禁止を行うと共に、前記検出部(34a、34b)によって前記溝部(33)に前記指があると検出されると、前記溝部(33)における前記指のスライド有りと判定して、前記入力の禁止を解除する制御部(35)とを備える入力装置。
  2.  前記制御部(35)は、前記入力の禁止を行っているときに、前記使用者による前記操作面(32)への指操作が行われても、前記溝部(33)における前記指のスライド無しと判定すると、前記入力の禁止を行っている旨を前記表示部(52)に表示させる請求項1に記載の入力装置。
  3.  前記検出部(34a、34b)は、前記溝部(33)の長手方向に複数設けられ、
     前記制御部(35)は、複数の前記検出部(34a、34b)のすべてが、前記指の有ることを検出すると、前記指のスライド有りと判定する請求項1または請求項2に記載の入力装置。
  4.  前記溝部(33)は、前記操作面(32)と同一面上に、且つ前記長手方向が前記操作面(32)内に向くように配置されており、
     前記制御部(35)は、複数の前記検出部(34a、34b)のうち、前記操作面(32)に対して遠い側の検出部(34a)の後に、近い側の検出部(34b)が前記指の有ることを検出すると、前記指のスライド有りと判定する請求項3に記載の入力装置。
  5.  前記溝部(33)は、前記操作面(32)と同一面上に、且つ前記長手方向が前記操作面(32)内に向くように配置されている請求項1または請求項2に記載の入力装置。
  6.  前記操作面(32)には、前記操作面(32)に対する前記指の位置を検出するタッチセンサ(31)が設けられており、
     前記検出部(34a、34b)は、前記タッチセンサ(31)と一体的に形成されている請求項1~請求項5のいずれか1つに記載の入力装置。
  7.  前記使用者は、前記車両の運転者および助手席者を含み、
     前記溝部(33)は、複数設けられており、
     複数の前記溝部(33a、33b)は、前記運転者用、および前記助手席者用にそれぞれ対応付けされており、
     前記制御部(35)は、複数の前記溝部(33a、33b)のうち、前記指のスライド有りと判定した前記溝部(33a、33b)に対応するように前記運転者用、あるいは前記助手席者用の専用画像(60a、60b)を前記表示部(52)に表示させる請求項1~請求項6のいずれか1つに記載の入力装置。
  8.  前記溝部(33)は、複数設けられており、
     複数の前記溝部(331、332、333)は、複数の階層に分かれた前記画像(601、602、603)とそれぞれ対応付けされており、
     前記制御部(35)は、複数の前記溝部(331、332、333)のうち、前記指のスライド有りと判定した前記溝部(331、332、333)に対応する前記画像(601、602、603)を前記表示部(52)に表示させる請求項1~請求項6のいずれか1つに記載の入力装置。
PCT/JP2014/001777 2013-04-03 2014-03-27 入力装置 WO2014162699A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
DE112014001851.1T DE112014001851T5 (de) 2013-04-03 2014-03-27 Eingabevorrichtung
US14/780,984 US9778764B2 (en) 2013-04-03 2014-03-27 Input device
CN201480018825.4A CN105121228B (zh) 2013-04-03 2014-03-27 输入装置

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2013-077849 2013-04-03
JP2013077849A JP5928397B2 (ja) 2013-04-03 2013-04-03 入力装置

Publications (1)

Publication Number Publication Date
WO2014162699A1 true WO2014162699A1 (ja) 2014-10-09

Family

ID=51658013

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2014/001777 WO2014162699A1 (ja) 2013-04-03 2014-03-27 入力装置

Country Status (5)

Country Link
US (1) US9778764B2 (ja)
JP (1) JP5928397B2 (ja)
CN (1) CN105121228B (ja)
DE (1) DE112014001851T5 (ja)
WO (1) WO2014162699A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9594466B2 (en) 2013-04-02 2017-03-14 Denso Corporation Input device

Families Citing this family (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016086343A1 (en) * 2014-12-01 2016-06-09 Xiamen Zkteco Biometric Identification Technology Co., Ltd System and method for personal identification based on multimodal biometric information
WO2016086341A1 (en) * 2014-12-01 2016-06-09 Dongguan Zkteco Electronic Technology Co., Ltd System and method for acquiring multimodal biometric information
JP6473610B2 (ja) * 2014-12-08 2019-02-20 株式会社デンソーテン 操作装置、及び、操作システム
US10429930B2 (en) * 2015-01-30 2019-10-01 Ncr Corporation Accessible tactile features for blind and partially sighted PIN entry and touchscreen usage
JP6747941B2 (ja) * 2016-11-04 2020-08-26 アルパイン株式会社 タッチ式入力装置および操作検出方法
CA3049120A1 (en) * 2017-01-03 2018-07-12 Brilliant Home Technology, Inc. Home device controller with a touch control groove
JP2018169756A (ja) * 2017-03-29 2018-11-01 富士フイルム株式会社 タッチ式操作システムとその作動方法および作動プログラム
JP2018169755A (ja) * 2017-03-29 2018-11-01 富士フイルム株式会社 タッチ式操作装置とその作動方法および作動プログラム
KR20190041632A (ko) * 2017-10-13 2019-04-23 현대자동차주식회사 차량 및 그 제어 방법
WO2019111515A1 (ja) * 2017-12-08 2019-06-13 パナソニックIpマネジメント株式会社 入力装置、及び、入力方法
USD944216S1 (en) 2018-01-08 2022-02-22 Brilliant Home Technology, Inc. Control panel with sensor area
DE102018001200B3 (de) * 2018-02-14 2019-04-25 Daimler Ag Verfahren und Vorrichtung zur Bestimmung einer Nutzereingabe
CN108762051A (zh) * 2018-04-08 2018-11-06 天芯智能(深圳)股份有限公司 一种指针式智能手表的控制方法及装置
GB2577480B (en) * 2018-09-11 2022-09-07 Ge Aviat Systems Ltd Touch screen display assembly and method of operating vehicle having same
USD945973S1 (en) 2019-09-04 2022-03-15 Brilliant Home Technology, Inc. Touch control panel with moveable shutter
JP6806223B1 (ja) * 2019-12-06 2021-01-06 トヨタ自動車株式会社 表示制御装置、車両、表示の制御方法及びプログラム
US11715943B2 (en) 2020-01-05 2023-08-01 Brilliant Home Technology, Inc. Faceplate for multi-sensor control device
US20220297704A1 (en) * 2021-03-18 2022-09-22 Wind River Systems, Inc. Detecting Vehicle Infotainment User Position

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH02240715A (ja) * 1989-03-15 1990-09-25 Matsushita Electric Ind Co Ltd 接触位置検出装置
JP2000353269A (ja) * 1999-06-11 2000-12-19 Nec Kofu Ltd 現金自動預金支払機
JP2008541222A (ja) * 2005-06-02 2008-11-20 サムスン エレクトロニクス カンパニー リミテッド ユーザ命令を3次元的に入力可能な電子装置
JP2010013081A (ja) * 2008-07-01 2010-01-21 Dong-A Univ Research Foundation For Industry-Academy Cooperation タッチパッドモジュールを利用した自動車の機能制御装置及び方法
JP2010061256A (ja) * 2008-09-02 2010-03-18 Alpine Electronics Inc 表示装置

Family Cites Families (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20090273574A1 (en) * 1995-06-29 2009-11-05 Pryor Timothy R Programmable tactile touch screen displays and man-machine interfaces for improved vehicle instrumentation and telematics
JPH1115599A (ja) 1997-06-26 1999-01-22 Tokai Rika Co Ltd タッチ操作情報出力装置
JP3792920B2 (ja) 1998-12-25 2006-07-05 株式会社東海理化電機製作所 タッチ操作入力装置
JP2006011614A (ja) * 2004-06-23 2006-01-12 Sharp Corp 指紋認識機能付き指輪、指紋認識装置、およびこれらを用いた情報処理システム
US8926535B2 (en) * 2006-09-14 2015-01-06 Martin B. Rawls-Meehan Adjustable bed position control
US8676007B2 (en) * 2008-06-19 2014-03-18 Neonode Inc. Light-based touch surface with curved borders and sloping bezel
JP5364925B2 (ja) * 2009-02-27 2013-12-11 現代自動車株式会社 車載機器の入力装置
JP5455557B2 (ja) 2009-10-27 2014-03-26 京セラ株式会社 携帯端末装置
KR101092722B1 (ko) 2009-12-02 2011-12-09 현대자동차주식회사 차량의 멀티미디어 시스템 조작용 사용자 인터페이스 장치
US20150309316A1 (en) * 2011-04-06 2015-10-29 Microsoft Technology Licensing, Llc Ar glasses with predictive control of external device based on event input
JP5638330B2 (ja) 2010-09-28 2014-12-10 京セラ株式会社 携帯端末、プログラム及び表示制御方法
JP2012247890A (ja) 2011-05-26 2012-12-13 Nippon Seiki Co Ltd タッチパネル入力操作装置
JP5617783B2 (ja) * 2011-07-17 2014-11-05 株式会社デンソー 車両用の操作入力装置及び制御システム
JP5452566B2 (ja) * 2011-10-31 2014-03-26 本田技研工業株式会社 車両用入力装置
JP5812054B2 (ja) 2012-08-23 2015-11-11 株式会社デンソー 操作デバイス
US9001035B2 (en) * 2012-10-19 2015-04-07 Red Bird Rising, Llc Configured input display for communicating to computational apparatus
US10185416B2 (en) * 2012-11-20 2019-01-22 Samsung Electronics Co., Ltd. User gesture input to wearable electronic device involving movement of device
US9477313B2 (en) * 2012-11-20 2016-10-25 Samsung Electronics Co., Ltd. User gesture input to wearable electronic device involving outward-facing sensor of device
US20140267282A1 (en) * 2013-03-14 2014-09-18 Robert Bosch Gmbh System And Method For Context Dependent Level Of Detail Adjustment For Navigation Maps And Systems
JP5858059B2 (ja) 2013-04-02 2016-02-10 株式会社デンソー 入力装置
JP2014203177A (ja) 2013-04-02 2014-10-27 株式会社デンソー 入力装置

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH02240715A (ja) * 1989-03-15 1990-09-25 Matsushita Electric Ind Co Ltd 接触位置検出装置
JP2000353269A (ja) * 1999-06-11 2000-12-19 Nec Kofu Ltd 現金自動預金支払機
JP2008541222A (ja) * 2005-06-02 2008-11-20 サムスン エレクトロニクス カンパニー リミテッド ユーザ命令を3次元的に入力可能な電子装置
JP2010013081A (ja) * 2008-07-01 2010-01-21 Dong-A Univ Research Foundation For Industry-Academy Cooperation タッチパッドモジュールを利用した自動車の機能制御装置及び方法
JP2010061256A (ja) * 2008-09-02 2010-03-18 Alpine Electronics Inc 表示装置

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9594466B2 (en) 2013-04-02 2017-03-14 Denso Corporation Input device

Also Published As

Publication number Publication date
CN105121228A (zh) 2015-12-02
US20160054822A1 (en) 2016-02-25
CN105121228B (zh) 2017-03-15
JP5928397B2 (ja) 2016-06-01
US9778764B2 (en) 2017-10-03
DE112014001851T5 (de) 2015-12-24
JP2014203206A (ja) 2014-10-27

Similar Documents

Publication Publication Date Title
JP5928397B2 (ja) 入力装置
JP5812054B2 (ja) 操作デバイス
JP5858059B2 (ja) 入力装置
JP6035828B2 (ja) 表示操作装置および表示システム
JP6310787B2 (ja) 車両用入力装置および車両用コックピットモジュール
US10025402B2 (en) Operating device for vehicle
US10137781B2 (en) Input device
WO2014054208A1 (ja) 操作装置
WO2013153750A1 (ja) 表示システム、表示装置、及び操作装置
JP5954145B2 (ja) 入力装置
JP5754483B2 (ja) 操作デバイス
WO2016031152A1 (ja) 車両用入力インターフェイス
WO2014162698A1 (ja) 入力装置
EP3361367A1 (en) In-vehicle input device, in-vehicle input system, and in-vehicle input device control method
WO2016031148A1 (ja) 車両用タッチパッドおよび車両用入力インターフェイス
JP2012063831A (ja) 遠隔操作装置
EP3352067A1 (en) Vehicular input device and method of controlling vehicular input device
CN110554830A (zh) 显示装置、显示控制方法以及存储程序的存储介质
JP2015168268A (ja) 車両用操作装置

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 14779390

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 14780984

Country of ref document: US

WWE Wipo information: entry into national phase

Ref document number: 1120140018511

Country of ref document: DE

Ref document number: 112014001851

Country of ref document: DE

122 Ep: pct application non-entry in european phase

Ref document number: 14779390

Country of ref document: EP

Kind code of ref document: A1