WO2013080774A1 - 車両用操作装置 - Google Patents

車両用操作装置 Download PDF

Info

Publication number
WO2013080774A1
WO2013080774A1 PCT/JP2012/079122 JP2012079122W WO2013080774A1 WO 2013080774 A1 WO2013080774 A1 WO 2013080774A1 JP 2012079122 W JP2012079122 W JP 2012079122W WO 2013080774 A1 WO2013080774 A1 WO 2013080774A1
Authority
WO
WIPO (PCT)
Prior art keywords
user
width
input unit
operating device
predetermined
Prior art date
Application number
PCT/JP2012/079122
Other languages
English (en)
French (fr)
Inventor
裕二 今井
Original Assignee
日本精機株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 日本精機株式会社 filed Critical 日本精機株式会社
Priority to EP12852995.5A priority Critical patent/EP2786902B1/en
Priority to KR1020147013627A priority patent/KR20140104415A/ko
Priority to US14/359,510 priority patent/US9207856B2/en
Priority to CN201280058382.2A priority patent/CN103958282B/zh
Publication of WO2013080774A1 publication Critical patent/WO2013080774A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/10Input arrangements, i.e. from user to vehicle, associated with vehicle functions or specially adapted therefor
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/60Instruments characterised by their location or relative disposition in or on vehicles
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R16/00Electric or fluid circuits specially adapted for vehicles and not otherwise provided for; Arrangement of elements of electric or fluid circuits specially adapted for vehicles and not otherwise provided for
    • B60R16/02Electric or fluid circuits specially adapted for vehicles and not otherwise provided for; Arrangement of elements of electric or fluid circuits specially adapted for vehicles and not otherwise provided for electric constitutive elements
    • B60R16/023Electric or fluid circuits specially adapted for vehicles and not otherwise provided for; Arrangement of elements of electric or fluid circuits specially adapted for vehicles and not otherwise provided for electric constitutive elements for transmission of signals between vehicle parts or subsystems
    • B60R16/027Electric or fluid circuits specially adapted for vehicles and not otherwise provided for; Arrangement of elements of electric or fluid circuits specially adapted for vehicles and not otherwise provided for electric constitutive elements for transmission of signals between vehicle parts or subsystems between relatively movable parts of the vehicle, e.g. between steering wheel and column
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0354Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
    • G06F3/03547Touch pads, in which fingers can move on a surface
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/143Touch sensitive instrument input devices
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/146Instrument input by gesture
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/146Instrument input by gesture
    • B60K2360/1468Touch gesture
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/77Instrument locations other than the dashboard
    • B60K2360/782Instrument locations other than the dashboard on the steering wheel
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R16/00Electric or fluid circuits specially adapted for vehicles and not otherwise provided for; Arrangement of elements of electric or fluid circuits specially adapted for vehicles and not otherwise provided for
    • B60R16/02Electric or fluid circuits specially adapted for vehicles and not otherwise provided for; Arrangement of elements of electric or fluid circuits specially adapted for vehicles and not otherwise provided for electric constitutive elements
    • B60R16/023Electric or fluid circuits specially adapted for vehicles and not otherwise provided for; Arrangement of elements of electric or fluid circuits specially adapted for vehicles and not otherwise provided for electric constitutive elements for transmission of signals between vehicle parts or subsystems

Definitions

  • the present invention relates to a vehicle operation device, and particularly to a vehicle operation device provided in a steering.
  • a conventional vehicle operating device includes a touch pad configured by a plurality of touch sensors arranged in a spoke spoke portion, a detection unit, a determination unit, and a control unit. An operation input based on a combination of gestures detected from the touchpad is selected, and the control unit controls a device such as a car navigation device based on the selected operation (see Patent Document 1). ).
  • the conventional vehicular operating device for example, when moving the menu item displayed on the screen of the car navigation device in the vertical direction, performs a gesture that forms a linear trajectory in the vertical direction on the touch pad. There was a need.
  • the gesture becomes an arc-shaped trajectory with the base of the thumb as a fulcrum, and the gesture detected by the detection unit Is not necessarily a straight line, and there are cases where gestures are detected incorrectly or cannot be detected, and the gesture is repeated many times or the operation is performed while viewing the touchpad, and the operability is not good. was there.
  • an object of the present invention is to solve the above-described problems, improve the recognition accuracy of gesture operations performed while holding a steering wheel, and provide a vehicular operating device with good operability.
  • the present invention provides an input unit that is provided in a steering wheel and detects a user operation, and determines a user operation detected by the input unit and outputs a control signal that controls the device. And a control unit, wherein the control unit determines that the user's operation is a straight line when a locus of the user's operation matches a predetermined condition.
  • the predetermined condition is that the user's operation trajectory does not exceed a predetermined width.
  • the predetermined width is a horizontal width in the horizontal direction with respect to the vertical direction of the input unit passing through the starting point of the user's operation.
  • the predetermined width is a vertical width in the vertical direction with respect to the horizontal direction of the input unit passing through the start point of the user's operation.
  • the predetermined width is a horizontal width in a horizontal direction with respect to a vertical direction of the input unit passing through a starting point of the user's operation.
  • the left side width is larger than the right side width.
  • the predetermined width is a horizontal width in a horizontal direction with respect to a vertical direction of the input unit passing through a starting point of the user's operation.
  • the right side width is larger than the left side width.
  • the predetermined width is the vertical width in the vertical direction with respect to the horizontal direction of the input unit passing through the start point of the user's operation, and the upper width is larger than the lower width.
  • an arc design that fits within the predetermined width is provided in the input section.
  • the arc design is provided such that the longitudinal direction thereof is along the vertical direction of the input portion.
  • the design of the arc is provided so that the longitudinal direction thereof is along the horizontal direction of the input portion.
  • the predetermined condition is that the user's operation trajectory is equal to or greater than a predetermined turning radius.
  • the locus connecting the start point and the final contact point of the user operation is equal to or greater than a predetermined turning radius.
  • control unit recognizes the start point as a position immediately before a predetermined time from the final contact point of the user's operation.
  • the present invention it is possible to achieve the intended purpose, improve the recognition accuracy of the gesture operation performed while holding the steering wheel, and provide a vehicular operating device with good operability.
  • the block diagram which shows the electric constitution of the operating device for vehicles of embodiment of this invention.
  • Explanatory drawing which shows the predetermined width recognized as a straight line.
  • Explanatory drawing which shows the predetermined width recognized as a straight line.
  • the flowchart figure which shows the process of the control part of the embodiment.
  • the vehicle operating device 100 is mainly composed of an input unit 110 and a control unit 120.
  • Reference numeral 130 denotes a device that is operated by the vehicular operating device 100.
  • the device 130 is connected to the vehicle operating device 100, and its operation and setting contents are controlled in accordance with the operation of the input unit 110.
  • the device 130 will be described using a car navigation device as an example.
  • the device 130 is not limited to a car navigation device, but may be an audio device or the like. Further, the number of devices 130 is not limited to one, and a plurality of devices 130 may be provided.
  • the input unit 110 is, for example, a capacitive touch pad.
  • a plurality of sensors are arranged in the left and right direction and the vertical direction, and the sensor value of the input unit 110 is detected by touching the surface of the input unit 110 with a finger U or the like. Changes.
  • the input unit 110 converts the sensor value sensed by the input unit 110 into an operation input signal and outputs the operation input signal to the control unit 120 using the position of the finger U and the locus of movement L as a gesture operation.
  • the input unit 110 is provided only on the right side of the steering 101 held by a user seated in the driver's seat of the vehicle.
  • the control unit 120 includes a microcomputer having a CPU, a ROM, a RAM, an input / output interface, and the like.
  • the control unit 120 is mounted on a circuit board provided in the vehicle operation device 100 and the operation input signal of the input unit 110. And the coordinate value (x, y) of the finger U on the input unit 110 is detected.
  • the ROM which is a non-volatile memory, stores gesture operation table data including a plurality of gesture operations respectively corresponding to a plurality of control signals for operating the device 130.
  • the control unit 120 uses the coordinate value of the finger U on the input unit 110 to perform a gesture operation such as a vertical slide operation and a flick operation (a touch operation to pay) as illustrated in FIGS. 2 and 3. Recognize each. Then, the recognized gesture operation is compared with the gesture operation table data, and a control signal corresponding to the corresponding gesture operation is transmitted to the device 130 to control the device 130.
  • a gesture operation such as a vertical slide operation and a flick operation (a touch operation to pay) as illustrated in FIGS. 2 and 3. Recognize each. Then, the recognized gesture operation is compared with the gesture operation table data, and a control signal corresponding to the corresponding gesture operation is transmitted to the device 130 to control the device 130.
  • process S2 When the user's finger U touches the input unit 110, the process proceeds to process S2 by determining that input is being performed in process S1 for determining that the input unit 110 is currently inputting.
  • step S6 If the user's finger U is not touching the input unit 110, the process proceeds from step S1 to step S6, and it is determined whether or not the input unit 110 is being input until immediately before (for example, 10 milliseconds before). If the user has been inputting to the input unit 110 until immediately before, the process proceeds to the process S3 (calculating the feature amount of the gesture), and the user is inputting to the input unit 110 until just before. If not, the process returns to step S1.
  • the current coordinates (final contact point) touched by the user per predetermined unit time are calculated, and the past coordinates for the predetermined time are held.
  • the process S3 is a process for calculating the feature amount of the gesture operation.
  • the movement distance, the movement direction, and the finger U of the user's finger U are touched using the current coordinate (final contact point) and the past coordinate.
  • the feature amount of the gesture operation is calculated using the time (movement time), the rotation radius, and the rotation angle.
  • the control unit 120 allows the user's gesture operation when the trajectory L connecting the start point S of the user's operation and the end point E, which is the final contact point, does not exceed the predetermined width W. Is determined to be a straight line.
  • the final contact point is the end point E at which the user's operation is completed, but the final contact point may be not only the time when the user's operation is completed, but also the latest time point during the user's operation. .
  • the horizontal width W1 of the input unit 110 that is, the horizontal width WL in the horizontal direction with respect to the vertical direction of the input unit 110 passing through the start point S of the user's operation. , WR.
  • the left and right widths WL and WR are obtained by making the left side width WL larger than the right side width WR.
  • the vertical width W2 of the input unit 110 within a predetermined width W that is, the vertical direction with respect to the horizontal direction of the input unit 110 passing through the start point S of the user's operation.
  • the widths WU and WD are used.
  • the predetermined vertical width W2 is the vertical width in the vertical direction with respect to the horizontal direction of the input unit 110 passing through the user's starting point S.
  • the upper width WU is larger than the lower width WD. is there.
  • Process S4 determines the gesture operation calculated in process S3. That is, the feature amount of the gesture operation is compared with the predetermined gesture operation table data recorded in advance in the ROM in the control unit 120, and the feature amount of the gesture operation matches the gesture operation table data. In this case, the process proceeds to process S5, and if the feature amount of the gesture operation does not match the gesture operation table data, the process proceeds to process S1.
  • Process S5 transmits a control signal assigned to the gesture operation detected in process S4 to the device (car navigation device) 130.
  • a gesture operation of an arc-shaped upward flick operation is detected, and the arc-shaped gesture operation centered on the base of the finger U performed by the user's finger (for example, thumb) U is performed.
  • the trajectory L of the user does not exceed a predetermined width
  • the user's operation is determined to be a straight line
  • the device (car navigation device) 130 displays according to the amount of gesture operation (menu item display, etc.) Send the control signal to send up.
  • the gesture operation trajectory L exceeds a predetermined width
  • the user's operation is not determined to be a straight line
  • the device (car navigation device) 130 according to the operation amount of the gesture operation is determined.
  • Send a control signal when the gesture operation trajectory L exceeds a predetermined width, the user's operation is not determined to be a straight line, and the device (car navigation device) 130 according to the operation amount of the gesture operation is determined.
  • the gesture operation of the arc-shaped downward flick operation is detected, and the arc-shaped gesture operation centered on the base of the finger U performed by the user's finger (for example, the thumb) U is performed.
  • the trajectory L of the user does not exceed a predetermined width
  • the user's operation is determined to be a straight line
  • a display (menu item display, etc.) corresponding to the operation amount of the gesture operation is displayed on the device (car navigation device) 130.
  • the gesture operation trajectory L exceeds a predetermined width
  • the user's operation is not determined to be a straight line, and the device (car navigation device) 130 according to the operation amount of the gesture operation is determined.
  • the input unit 110 is a touch pad, not only the flick operation but also a slide operation may be used.
  • the slide operation and the flick operation are determined at a speed of 100 milliseconds before the end point E when the user's finger leaves the input unit 110 and the operation is completed.
  • control signal may be assigned to an operation used for controlling a device (for example, an air conditioner) used in the vehicle.
  • a device for example, an air conditioner
  • the user can easily trace the design 111 even with the finger U holding the steering wheel 101.
  • the intended gesture operation can be input accurately and quickly, so that the driving operation can be performed more concentratedly.
  • the arc design 111 fits within a predetermined width W, and the arc design 111 is provided such that its longitudinal direction is along the vertical direction of the input unit 110.
  • the arc design is not limited to the arc design 111 extending in the vertical direction of the input unit 110 described above, and is provided such that the longitudinal direction of the arc design is along the horizontal direction of the input unit 110. There may be. Further, the arc design may be provided so that the arc design intersects the vertical direction of the input unit 110 along the horizontal direction.
  • the input unit 110 is provided on the right side of the steering wheel 101 held by the user seated in the driver's seat of the vehicle.
  • the input unit 110 is not provided only on the right side of the steering wheel 101. It may be provided on the left side. Further, it may be provided on the left and right of the steering 101.
  • the predetermined width W1 in the lateral direction is the right and left width in the horizontal direction with respect to the vertical direction of the input unit 110 passing through the starting point S of the user's operation. Is made larger than the width WL on the left side.
  • the steering 101 can be operated satisfactorily without loosening the grip of the steering 101 from a state where the steering 101 is firmly held.
  • the user's gesture operation is determined to be a straight line, but is not limited to the above embodiment.
  • the user's finger U has a rotation radius of 40 mm or more
  • the user's gesture operation is determined to be a straight line.
  • the rotation radius of the finger U is determined in advance by setting the center of the rotation radius. The rotation radius is determined according to the distance between the start point S where the user's finger U touches the input unit 110 and the center. It is what you want.
  • the turning radius is 40 mm or more, if the turning radius changes below a predetermined value between the starting point S of the user's gesture operation and the end point E that is the final contact point, the user's operation is performed. Misrecognition can be prevented by not recognizing it as a straight line. Since the final contact point includes during the user's operation, even if the turning radius changes to a predetermined value or less during the user's gesture operation, it is not recognized as a straight line.
  • the starting point S is determined as the place where the user's finger U touches the input unit 110.
  • the position of 300 milliseconds immediately before the time may be set as the start point S.
  • the start point S is set to the position 300 milliseconds immediately before the time of the final contact point of the user's operation, but the time before the time of the final contact point is set between 200 and 400 milliseconds. Also good.
  • the present invention is suitable for a vehicle operation device provided in a steering of a vehicle that operates equipment mounted on the vehicle.

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Mechanical Engineering (AREA)
  • Chemical & Material Sciences (AREA)
  • Combustion & Propulsion (AREA)
  • Transportation (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

ステアリングを把持した状態で行ったジェスチャ操作の認識精度を向上させ、操作性が良好な車両用操作装置を提供する。 ステアリング101に設けられ、ユーザの操作を検出する入力部110と、入力部110で検出した前記ユーザの操作を判定するとともに機器130を制御する制御信号を出力する制御部120と、を備えた車両用操作装置100であって、制御部120は、前記ユーザの操作の軌跡Lが、所定の幅Wを超えない場合、前記ユーザの操作を直線と判定するものである。

Description

車両用操作装置
 本発明は、車両用操作装置に関し、特に、ステアリングに設けた車両用操作装置に関するものである。 
 従来の車両用操作装置は、ステアリングのスポーク部に配置された複数のタッチセンサで構成されたタッチパッドと、検出部と、判定部と、制御部から構成されており、前記判定部は、前記タッチパッドから検出されたジェスチャの組み合わせに基づいて入力された操作を選択し、前記制御部は、選択された操作に基づいてカーナビゲーション装置などの機器を制御するものであった(特許文献1参照)。
特開2009-298285号公報
 しかし、従来の車両用操作装置は、例えば、カーナビゲーション装置の画面に表示されているメニューの項目を上下方向に移動する場合、前記タッチパッド上を、上下方向に直線の軌跡となるジェスチャを行う必要があった。
 しかし、ステアリングを把持した状態で、親指で上下方向に直線の軌跡となるジェスチャを行った場合、親指の付け根の部分を支点とした円弧状の軌跡のジェスチャとなり、前記検出部で検出されたジェスチャが必ずしも直線にならず、ジェスチャの誤検出、又は検出できないといった場合があり、ジェスチャを何度も繰り返すか、前記タッチパッドを視認した状態で操作を行うこととなり、操作性が良好でないという問題点があった。
 そこで本発明は、前記問題点を解消し、ステアリングを把持した状態で行ったジェスチャ操作の認識精度を向上させ、操作性が良好な車両用操作装置を提供することを目的とするものである。
 本発明は、前記課題を解決するために、ステアリングに設けられ、ユーザの操作を検出する入力部と、前記入力部で検出した前記ユーザの操作を判定するとともに機器を制御する制御信号を出力する制御部と、を備えた車両用操作装置であって、前記制御部は、前記ユーザの操作の軌跡が、所定の条件に合致した場合、前記ユーザの操作を直線と判定するものである。
 また、前記所定の条件は、前記ユーザの操作の軌跡が、所定の幅を超えないものである。 
 また、前記所定の幅は、前記ユーザの操作の始点を通る前記入力部の垂直方向に対して水平方向の左右の幅としたものである。 
 また、前記所定の幅は、前記ユーザの操作の始点を通る前記入力部の水平方向に対して垂直方向の上下の幅としたものである。 
 また、前記入力部を前記ステアリングの右側に設けた前記車両用操作装置において、前記所定の幅は、前記ユーザの操作の始点を通る前記入力部の垂直方向に対して水平方向の左右の幅は、左側の幅を右側の幅より大きくしたものである。
 また、前記入力部を前記ステアリングの左側に設けた前記車両用操作装置において、前記所定の幅は、前記ユーザの操作の始点を通る前記入力部の垂直方向に対して水平方向の左右の幅は、右側の幅を左側の幅より大きくしたものである。
 また、前記所定の幅は、前記ユーザの操作の始点を通る前記入力部の水平方向に対して垂直方向の上下の幅は、上側の幅を下側の幅より大きくしたものである。
 また、前記所定の幅に収まる円弧の意匠を前記入力部に設けたものである。 
 また、前記円弧の意匠は、その長手方向が前記入力部の垂直方向に沿うように設けたものである。 
 また、前記円弧の意匠は、その長手方向が前記入力部の水平方向に沿うように設けたものである。 
 また、前記所定の条件は、前記ユーザの操作の軌跡が、所定の回転半径以上である。 
 また、前記ユーザの操作の始点と最終接触点を結ぶ軌跡が、所定の回転半径以上である。 
 また、前記制御部は、前記始点を前記ユーザの操作の最終接触点から所定時間直前の位置と認識するものである。 
 本発明によれば、所期の目的を達成でき、ステアリングを把持した状態で行ったジェスチャ操作の認識精度を向上させ、操作性が良好な車両用操作装置を提供できる。
本発明の実施形態の車両用操作装置の電気的構成を示すブロック図。 同実施形態のジェスチャを示す図。 同実施形態の他のジェスチャを示す図。 直線と認識する所定の幅を示す説明図。 直線と認識する所定の幅を示す説明図。 同実施形態の入力部の正面図。 同実施形態の制御部の処理を示すフローチャート図。
 以下、図に基づいて、本発明の実施形態の車両用操作装置を説明する。 
 図1において、本実施形態の車両用操作装置100は、入力部110と、制御部120とから主に構成されている。なお、130は、車両用操作装置100が操作する機器である。
 機器130は、車両用操作装置100と接続されており、入力部110の操作に応じて、その動作や設定内容が制御される。機器130は、本実施形態の場合、カーナビゲーション装置を一例として説明する。なお、機器130は、カーナビゲーション装置に限るものではなく、オーディオ装置などであってもよい。また、機器130は、1つに限定されるものではなく、複数であってもよい。
 入力部110は、例えば、静電容量式のタッチパッドであり、左右方向及び上下方向に複数のセンサが配置され、入力部110の表面を指Uなどで触れることによって、入力部110のセンサ値が変化する。入力部110は、指Uの位置や動きの軌跡Lをジェスチャ操作として、入力部110で感知したセンサ値を操作入力信号に変換して制御部120に出力するものである。
 本実施形態では、入力部110は、車両の運転席に着座したユーザが把持するステアリング101の右側にのみ設けられている。 
 制御部120は、CPU、ROM、RAM及び入出力インターフェイス等を有するマイクロコンピュータからなり、本実施形態の場合、車両用操作装置100に備えられる回路基板に実装され、入力部110の前記操作入力信号を入力し、入力部110上の指Uの座標値(x,y)を検出する。不揮発性メモリである前記ROMには、機器130を操作する複数の制御信号と各々対応した複数のジェスチャ操作を備えたジェスチャ操作テーブルデータを記憶している。
 制御部120は、入力部110上の指Uの座標値を用いて、図2及び図3に記載されるような上下方向のスライド操作及びフリック操作(払うようにタッチする操作)のジェスチャ操作をそれぞれ認識する。そして、認識したジェスチャ操作と前記ジェスチャ操作テーブルデータと比較し、該当するジェスチャ操作に対応する制御信号を機器130に送信し、機器130の制御を行う。
 次に、本実施形態における車両用操作装置100の動作について、図7に基づいて説明する。 
 ユーザの指Uが、入力部110に触れると、入力部110の入力中を判定する処理S1で、入力中と判定し処理S2へ進む。 
 また、ユーザの指Uが、入力部110に触れていない場合には、処理S1から処理S6へ進み、直前(例えば、10ミリ秒前)まで入力部110に入力中であるか否かを判定する処理S6を実行し、直前までユーザが、入力部110に入力中であった場合には、(ジェスチャの特徴量を算出する)処理S3へ進み、直前までユーザが、入力部110に入力中でなかった場合には、処理S1へ戻る。
 処理S2では、所定の単位時間あたりのユーザが触れている現在座標(最終接触点)を算出し、さらに、所定の時間の過去座標を保持する。
 処理S3は、ジェスチャ操作の特徴量を算出する処理を行うものであり、前記現在座標(最終接触点)と前記過去座標を用いて、ユーザの指Uの移動距離、移動方向、指Uが触れてから離すまでの時間(移動時間)、所定の座標を中心とした指Uの回転半径、所定の座標を中心とした指Uの回転角度を算出し、さらに、前記移動距離、前記移動方向、前記時間(移動時間)、前記回転半径及び前記回転角度を用いてジェスチャ操作の特徴量を算出する。
 本実施形態の車両用操作装置100では、制御部120は、ユーザの操作の始点Sと最終接触点である終点Eとを結ぶ軌跡Lが、所定の幅Wを超えない場合、ユーザのジェスチャ操作を直線と判定するものである。この場合、最終接触点は、ユーザの操作が完了した終点Eであったが、最終接触点は、ユーザの操作が完了した時点のみではなく、ユーザの操作中の最新の時点であってもよい。
 図4で示すように、所定の幅Wの内、入力部110の横方向の幅W1、すなわち、ユーザの操作の始点Sを通る入力部110の垂直方向に対して水平方向の左右の幅WL、WRとしたものである。
 本実施形態のように、入力部110をステアリング101の右側に設けた場合、左右の幅WL、WRは、左側の幅WLを右側の幅WRより大きくしたものである。
 また、図5で示すように、所定の幅Wの内、入力部110の縦方向の幅W2、すなわち、ユーザの操作の始点Sを通る入力部110の水平方向に対して垂直方向の上下の幅WU、WDとしたものである。
 所定の縦方向の幅W2は、前記ユーザの操作の始点Sを通る入力部110の水平方向に対して垂直方向の上下の幅は、上側の幅WUを下側の幅WDより大きくしたものである。
 処理S4は、処理S3で算出したジェスチャ操作の判定を行う。すなわち、前記ジェスチャ操作の特徴量と、制御部120内の前記ROMにあらかじめ記録している所定のジェスチャ操作テーブルデータとを比較し、前記ジェスチャ操作の特徴量が、前記ジェスチャ操作テーブルデータと合致する場合、処理S5へ進み、前記ジェスチャ操作の特徴量が、前記ジェスチャ操作テーブルデータと合致しない場合、処理S1へ進む。
 処理S5は、処理S4によって検出された前記ジェスチャ操作に割り当てられた制御信号を、機器(カーナビゲーション装置)130に対して送信する。
 例えば、図2に示すように、円弧状の上方向のフリック操作のジェスチャ操作を検出し、ユーザの指(例えば、親指)Uで行った指Uの付け根を中心とした円弧状の前記ジェスチャ操作の軌跡Lが、所定の幅を超えない場合、前記ユーザの操作を直線と判定し、機器(カーナビゲーション装置)130に対して、ジェスチャ操作の操作量に応じた表示(メニューの項目表示など)を上に送る前記制御信号を送信する。また、前記ジェスチャ操作の軌跡Lが、所定の幅を超えた場合、前記ユーザの操作を直線とは判定せず、機器(カーナビゲーション装置)130に対して、ジェスチャ操作の操作量に応じた前記制御信号を送信する。
 また、図3に示すように、円弧状の下方向のフリック操作のジェスチャ操作を検出し、ユーザの指(例えば、親指)Uで行った指Uの付け根を中心とした円弧状の前記ジェスチャ操作の軌跡Lが、所定の幅を超えない場合、前記ユーザの操作を直線と判定し、機器(カーナビゲーション装置)130に対して、前記ジェスチャ操作の操作量に応じた表示(メニューの項目表示など)を下に送る前記制御信号を送信する。また、前記ジェスチャ操作の軌跡Lが、所定の幅を超えた場合、前記ユーザの操作を直線とは判定せず、機器(カーナビゲーション装置)130に対して、ジェスチャ操作の操作量に応じた前記制御信号を送信する。
 入力部110が、タッチパッドであるため、フリック操作に限らず、スライド操作であってもよい。なお、本実施形態では、スライド操作とフリック操作の判定は、ユーザの指が入力部110から離れて操作が完了した終点Eより前の100ミリ秒の速度によって行うものである。
 なお、前記制御信号は、車両で使用される機器(例えば、エアコン)の制御に使われる操作に割り当ててもよい。 
 前記ジェスチャを検出する処理S4において、円弧状の前記ジェスチャ操作を直線として認識することによって、ステアリング101を把持した状態の指(例えば、親指)Uでもジェスチャの入力が容易となり、運転姿勢を維持したまま安全に機器を操作することができる。
 さらに、図6に示されるように、前記ジェスチャを教示する円弧の意匠111を入力部110に設けることで、ユーザは、その意匠111上を、ステアリング101を把持した状態の指Uでも容易になぞることができ、意図するジェスチャ操作を正確にすばやく入力することができるため、運転操作をより集中して行うことができる。
 円弧の意匠111は、所定の幅Wに収まるものであり、また、円弧の意匠111は、その長手方向が入力部110の垂直方向に沿うように設けてある。
 また、円弧の意匠は、前述した入力部110の垂直方向に延びる円弧の意匠111に限定されるものではなく、円弧の意匠の長手方向が入力部110の水平方向に沿うように設けたものであってもよい。また、円弧の意匠は、円弧の意匠は、入力部110の垂直方向と水平方向に沿って交差するように設けてもよい。
 本実施形態では、入力部110は、車両の運転席に着座したユーザが把持するステアリング101の右側に設けられていたが、入力部110は、ステアリング101の右側のみ設けられるものではなく、ステアリング101の左側に設けてもよい。また、ステアリング101の左右に設けてもよい。
 なお、入力部110をステアリング101の左側に設けた場合、横方向の所定の幅W1は、ユーザの操作の始点Sを通る入力部110の垂直方向に対して水平方向の左右の幅は、右側の幅WRを左側の幅WLより大きくする。
 以上の構成によって、ステアリング101をしっかりと把持した状態からステアリング101の把持を緩めることなく、良好に操作することができる。
 ユーザのジェスチャ操作を直線と判定するものとして、前記実施形態に限定されるものではなく、例えば、ユーザの指Uの回転半径40mm以上の場合、ユーザのジェスチャ操作を直線と判定するものであってもよい。この指Uの回転半径の求め方は、本実施形態では、回転半径の中心を予め定めており、ユーザの指Uが入力部110に触れた始点Sと前記中心との距離によって、回転半径を求めるものである。
 また、回転半径が40mm以上であっても、ユーザのジェスチャ操作の始点Sと最終接触点である終点Eとの間で、回転半径がある所定の値以下に変動した場合は、ユーザの操作を直線とは認識しないようにすることで、誤認識を防止することができる。最終接触点は、ユーザの操作中も含むので、ユーザのジェスチャ操作中に回転半径が所定の値以下に変動した場合も、直線とは認識しない。
 前記各実施形態では、始点Sをユーザの指Uが、入力部110に触れた箇所と判定していたが、本実施形態に限定されるものではなく、例えば、ユーザの操作の最終接触点の時点から直前の300ミリ秒の位置を始点Sとしてもよい。このように始点Sの位置を認識することによって、ユーザの指Uが入力部110に触れてから速やかに操作せずに、ユーザの指Uが、入力部110上を移動し、前記所定の幅又は前記所定の回転半径を超えた場合でも、ユーザの操作を認識できずにキャンセルせず、直線と認識することができる。このように構成したことによって、例えば、ユーザが入力部110に触れた状態で、操作などの選択に暫く迷い、その後、操作を行った場合でも、ユーザの操作を認識することが可能となる。なお、始点Sをユーザの操作の最終接触点の時点から直前の300ミリ秒の位置としたが、最終接触点の時点から前の時間の設定は、200から400ミリ秒の間に設定しても良い。
 本発明は、車両に搭載される機器を操作する車両のステアリングに設けた車両用操作装置に好適である。 
 100  車両用操作装置 
 101  ステアリング 
 110  入力部(タッチパッド) 
 111  意匠 
 120  制御部 
 130  機器 
   E  終点 
   L  ジェスチャ操作の軌跡 
   S  始点 
   U  指(ユーザ) 
   W  幅 
   W1 横方向の幅 
   W2 縦方向の幅 
   WD 下側の幅 
   WL 左側の幅 
   WR 右側の幅 
   WU 上側の幅 

Claims (13)

  1. ステアリングに設けられ、ユーザの操作を検出する入力部と、前記入力部で検出した前記ユーザの操作を判定するとともに機器を制御する制御信号を出力する制御部と、を備えた車両用操作装置であって、前記制御部は、前記ユーザの操作の軌跡が、所定の条件に合致した場合、前記ユーザの操作を直線と判定することを特徴とする車両用操作装置。
  2. 前記所定の条件は、前記ユーザの操作の軌跡が、所定の幅を超えないことを特徴とする請求項1に記載の車両用操作装置。 
  3. 前記所定の幅は、前記ユーザの操作の始点を通る前記入力部の垂直方向に対して水平方向の左右の幅としたことを特徴とする請求項2に記載の車両用操作装置。
  4. 前記所定の幅は、前記ユーザの操作の始点を通る前記入力部の水平方向に対して垂直方向の上下の幅としたことを特徴とする請求項2に記載の車両用操作装置。
  5. 前記入力部を前記ステアリングの右側に設けた前記車両用操作装置において、前記所定の幅は、前記ユーザの操作の始点を通る前記入力部の垂直方向に対して水平方向の左右の幅は、左側の幅を右側の幅より大きくしたことを特徴とする請求項2に記載の車両用操作装置。
  6. 前記入力部を前記ステアリングの左側に設けた前記車両用操作装置において、前記所定の幅は、前記ユーザの操作の始点を通る前記入力部の垂直方向に対して水平方向の左右の幅は、右側の幅を左側の幅より大きくしたことを特徴とする請求項2に記載の車両用操作装置。
  7. 前記所定の幅は、前記ユーザの操作の始点を通る前記入力部の水平方向に対して垂直方向の上下の幅は、上側の幅を下側の幅より大きくしたことを特徴とする請求項2に記載の車両用操作装置。
  8. 前記所定の幅に収まる円弧の意匠を前記入力部に設けたことを特徴とする請求項2に記載の車両用操作装置。 
  9. 前記円弧の意匠は、その長手方向が前記入力部の垂直方向に沿うように設けたことを特徴とする請求項8に記載の車両用操作装置。 
  10. 前記円弧の意匠は、その長手方向が前記入力部の水平方向に沿うように設けたことを特徴とする請求項8に記載の車両用操作装置。 
  11. 前記所定の条件は、前記ユーザの操作の軌跡が、所定の回転半径以上であることを特徴とする請求項1に記載の車両用操作装置。 
  12. 前記ユーザの操作の始点と最終接触点を結ぶ軌跡が、所定の回転半径以上であることを特徴とする請求項11に記載の車両用操作装置。
  13. 前記制御部は、前記始点を前記ユーザの操作の最終接触点から所定時間直前の位置と認識することを特徴とする請求項3または12に記載の車両用操作装置。
PCT/JP2012/079122 2011-11-29 2012-11-09 車両用操作装置 WO2013080774A1 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
EP12852995.5A EP2786902B1 (en) 2011-11-29 2012-11-09 Vehicle operating device
KR1020147013627A KR20140104415A (ko) 2011-11-29 2012-11-09 차량용 조작장치
US14/359,510 US9207856B2 (en) 2011-11-29 2012-11-09 Vehicula touch input device with determination of straight line gesture
CN201280058382.2A CN103958282B (zh) 2011-11-29 2012-11-09 车辆用操作装置

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2011-260830 2011-11-29
JP2011260830A JP5850229B2 (ja) 2011-11-29 2011-11-29 車両用操作装置

Publications (1)

Publication Number Publication Date
WO2013080774A1 true WO2013080774A1 (ja) 2013-06-06

Family

ID=48535241

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2012/079122 WO2013080774A1 (ja) 2011-11-29 2012-11-09 車両用操作装置

Country Status (6)

Country Link
US (1) US9207856B2 (ja)
EP (1) EP2786902B1 (ja)
JP (1) JP5850229B2 (ja)
KR (1) KR20140104415A (ja)
CN (1) CN103958282B (ja)
WO (1) WO2013080774A1 (ja)

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106240623A (zh) * 2015-06-15 2016-12-21 操纵技术Ip控股公司 可缩回方向盘手势控制
US10029725B2 (en) 2015-12-03 2018-07-24 Steering Solutions Ip Holding Corporation Torque feedback system for a steer-by-wire vehicle, vehicle having steering column, and method of providing feedback in vehicle
US10112639B2 (en) 2015-06-26 2018-10-30 Steering Solutions Ip Holding Corporation Vehicle steering arrangement and method of making same
US10160477B2 (en) 2016-08-01 2018-12-25 Steering Solutions Ip Holding Corporation Electric power steering column assembly
US10239552B2 (en) 2016-10-14 2019-03-26 Steering Solutions Ip Holding Corporation Rotation control assembly for a steering column
US10384708B2 (en) 2016-09-12 2019-08-20 Steering Solutions Ip Holding Corporation Intermediate shaft assembly for steer-by-wire steering system
US10399591B2 (en) 2016-10-03 2019-09-03 Steering Solutions Ip Holding Corporation Steering compensation with grip sensing
US10449927B2 (en) 2017-04-13 2019-10-22 Steering Solutions Ip Holding Corporation Steering system having anti-theft capabilities
US10496102B2 (en) 2016-04-11 2019-12-03 Steering Solutions Ip Holding Corporation Steering system for autonomous vehicle
US10562561B2 (en) 2016-04-25 2020-02-18 Steering Solutions Ip Holding Corporation Electrical power steering control using system state predictions
US10780915B2 (en) 2016-12-07 2020-09-22 Steering Solutions Ip Holding Corporation Vehicle steering system having a user experience based automated driving to manual driving transition system and method

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014128784A1 (ja) * 2013-02-20 2014-08-28 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ 携帯情報端末の制御方法及びプログラム
EP2907730B1 (en) 2014-01-29 2017-09-06 Steering Solutions IP Holding Corporation Hands on steering wheel detect
JP6234283B2 (ja) * 2014-03-12 2017-11-22 アルプス電気株式会社 入力装置及び車両用操作装置
JP2018022318A (ja) * 2016-08-03 2018-02-08 株式会社東海理化電機製作所 操作入力装置
US10481602B2 (en) 2016-10-17 2019-11-19 Steering Solutions Ip Holding Corporation Sensor fusion for autonomous driving transition control
US11032698B2 (en) * 2016-10-27 2021-06-08 International Business Machines Corporation Gesture based smart download
US10310605B2 (en) 2016-11-15 2019-06-04 Steering Solutions Ip Holding Corporation Haptic feedback for steering system controls
JP6915815B2 (ja) * 2018-05-14 2021-08-04 株式会社ユピテル 電子情報システム及びそのプログラム
JP2020024508A (ja) * 2018-08-06 2020-02-13 株式会社デンソー 入力装置
US10759461B2 (en) 2019-01-31 2020-09-01 Toyota Motor Engineering & Manufacturing North America, Inc. Multi-function vehicle input apparatuses with rotatable dials for vehicle systems control and methods incorporating the same
JP2020160788A (ja) * 2019-03-26 2020-10-01 株式会社東海理化電機製作所 操作装置

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07182446A (ja) * 1993-10-15 1995-07-21 Xerox Corp 機械作動方法
JPH10214152A (ja) * 1997-01-29 1998-08-11 Canon Inc 情報機器及び情報機器における軌跡情報処理方法
JP2005518612A (ja) * 2002-02-26 2005-06-23 サーク・コーポレーション 高精細用および低精細用の分解能を有するタッチパッド
JP2009298285A (ja) 2008-06-12 2009-12-24 Tokai Rika Co Ltd 入力装置
JP2013012021A (ja) * 2011-06-29 2013-01-17 Sony Corp 情報処理装置、情報処理方法、プログラム、および遠隔操作システム

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5457476A (en) * 1992-05-27 1995-10-10 Apple Computer, Inc. Method for controlling a computerized organizer
US5564005A (en) * 1993-10-15 1996-10-08 Xerox Corporation Interactive system for producing, storing and retrieving information correlated with a recording of an event
JP3930288B2 (ja) * 2001-10-30 2007-06-13 株式会社東海理化電機製作所 車載装置制御システム
US20050003851A1 (en) * 2003-06-05 2005-01-06 Visteon Global Technologies, Inc. Radio system with touch pad interface
TW200824940A (en) * 2006-12-15 2008-06-16 Elan Microelectronics Corp Integrated vehicle control interface and module
US20100188343A1 (en) * 2009-01-29 2010-07-29 Edward William Bach Vehicular control system comprising touch pad and vehicles and methods
US9405449B2 (en) * 2010-01-14 2016-08-02 Microsoft Technology Licensing, Llc Layout constraint manipulation via user gesture recognition
US20110169750A1 (en) * 2010-01-14 2011-07-14 Continental Automotive Systems, Inc. Multi-touchpad multi-touch user interface
US9542091B2 (en) * 2010-06-04 2017-01-10 Apple Inc. Device, method, and graphical user interface for navigating through a user interface using a dynamic object selection indicator
US20120216113A1 (en) * 2011-02-18 2012-08-23 Google Inc. Touch gestures for text-entry operations
US20120304107A1 (en) * 2011-05-27 2012-11-29 Jennifer Nan Edge gesture
CN103180812A (zh) * 2011-08-31 2013-06-26 观致汽车有限公司 车辆交互系统
KR20130027774A (ko) * 2011-09-08 2013-03-18 삼성전자주식회사 잠금 상태 제어를 위한 사용자 인터페이스 제공 방법 및 장치
US9128605B2 (en) * 2012-02-16 2015-09-08 Microsoft Technology Licensing, Llc Thumbnail-image selection of applications

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07182446A (ja) * 1993-10-15 1995-07-21 Xerox Corp 機械作動方法
JPH10214152A (ja) * 1997-01-29 1998-08-11 Canon Inc 情報機器及び情報機器における軌跡情報処理方法
JP2005518612A (ja) * 2002-02-26 2005-06-23 サーク・コーポレーション 高精細用および低精細用の分解能を有するタッチパッド
JP2009298285A (ja) 2008-06-12 2009-12-24 Tokai Rika Co Ltd 入力装置
JP2013012021A (ja) * 2011-06-29 2013-01-17 Sony Corp 情報処理装置、情報処理方法、プログラム、および遠隔操作システム

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP2786902A4

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106240623A (zh) * 2015-06-15 2016-12-21 操纵技术Ip控股公司 可缩回方向盘手势控制
US10442441B2 (en) 2015-06-15 2019-10-15 Steering Solutions Ip Holding Corporation Retractable handwheel gesture control
US10112639B2 (en) 2015-06-26 2018-10-30 Steering Solutions Ip Holding Corporation Vehicle steering arrangement and method of making same
US10029725B2 (en) 2015-12-03 2018-07-24 Steering Solutions Ip Holding Corporation Torque feedback system for a steer-by-wire vehicle, vehicle having steering column, and method of providing feedback in vehicle
US10496102B2 (en) 2016-04-11 2019-12-03 Steering Solutions Ip Holding Corporation Steering system for autonomous vehicle
US10562561B2 (en) 2016-04-25 2020-02-18 Steering Solutions Ip Holding Corporation Electrical power steering control using system state predictions
US10160477B2 (en) 2016-08-01 2018-12-25 Steering Solutions Ip Holding Corporation Electric power steering column assembly
US10384708B2 (en) 2016-09-12 2019-08-20 Steering Solutions Ip Holding Corporation Intermediate shaft assembly for steer-by-wire steering system
US10399591B2 (en) 2016-10-03 2019-09-03 Steering Solutions Ip Holding Corporation Steering compensation with grip sensing
US10239552B2 (en) 2016-10-14 2019-03-26 Steering Solutions Ip Holding Corporation Rotation control assembly for a steering column
US10780915B2 (en) 2016-12-07 2020-09-22 Steering Solutions Ip Holding Corporation Vehicle steering system having a user experience based automated driving to manual driving transition system and method
US10449927B2 (en) 2017-04-13 2019-10-22 Steering Solutions Ip Holding Corporation Steering system having anti-theft capabilities

Also Published As

Publication number Publication date
US20140292652A1 (en) 2014-10-02
CN103958282B (zh) 2016-07-06
US9207856B2 (en) 2015-12-08
KR20140104415A (ko) 2014-08-28
JP5850229B2 (ja) 2016-02-03
EP2786902B1 (en) 2017-10-18
CN103958282A (zh) 2014-07-30
JP2013112207A (ja) 2013-06-10
EP2786902A4 (en) 2015-08-19
EP2786902A1 (en) 2014-10-08

Similar Documents

Publication Publication Date Title
JP5850229B2 (ja) 車両用操作装置
US20190073122A1 (en) System, apparatus and method for vehicle command and control
US8773394B2 (en) Vehicular operating device
KR101575650B1 (ko) 단말기, 그를 가지는 차량 및 그 제어 방법
JP2009248629A (ja) 車載機器の入力装置及び車載機器の入力方法
JP5617783B2 (ja) 車両用の操作入力装置及び制御システム
JP4966764B2 (ja) タッチパネル表示装置およびタッチパネル制御方法
US9703375B2 (en) Operating device that can be operated without keys
US20080192024A1 (en) Operator distinguishing device
JP2006347215A (ja) タッチスイッチ
US9298306B2 (en) Control apparatus and computer program product for processing touchpad signals
EP3202623B1 (en) Vehicle and steering unit
JP6230851B2 (ja) 入力装置
JP2011063103A (ja) 車載機器操作システム
JP2010049460A (ja) 操作入力装置
JP2012242924A (ja) タッチパネル装置およびタッチパネル装置の制御方法
JP6217535B2 (ja) 車両用入力装置
KR101550602B1 (ko) 차량용 운전 조작 장치 및 이의 조작 방법
JP5849597B2 (ja) 車両用操作装置
KR102428266B1 (ko) 차량 조향 보조 장치 및 방법
JP2013136296A (ja) 車両用操作装置
KR102002842B1 (ko) 감응형 터치 노브 제어 장치 및 그 제어 방법
JP6824129B2 (ja) 操作装置
KR101922454B1 (ko) 전하량 변화를 이용한 제스처 인식 시스템 및 방법
CN108473053B (zh) 车辆方向盘上的触摸表面

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 12852995

Country of ref document: EP

Kind code of ref document: A1

REEP Request for entry into the european phase

Ref document number: 2012852995

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 14359510

Country of ref document: US

ENP Entry into the national phase

Ref document number: 20147013627

Country of ref document: KR

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE