KR20170124487A - Vehicle, and control method for the same - Google Patents

Vehicle, and control method for the same Download PDF

Info

Publication number
KR20170124487A
KR20170124487A KR1020170140137A KR20170140137A KR20170124487A KR 20170124487 A KR20170124487 A KR 20170124487A KR 1020170140137 A KR1020170140137 A KR 1020170140137A KR 20170140137 A KR20170140137 A KR 20170140137A KR 20170124487 A KR20170124487 A KR 20170124487A
Authority
KR
South Korea
Prior art keywords
touch
hovering
item
input device
user
Prior art date
Application number
KR1020170140137A
Other languages
Korean (ko)
Inventor
홍기범
민정상
이정엄
주시현
Original Assignee
현대자동차주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 현대자동차주식회사 filed Critical 현대자동차주식회사
Priority to KR1020170140137A priority Critical patent/KR20170124487A/en
Publication of KR20170124487A publication Critical patent/KR20170124487A/en

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/60Instruments characterised by their location or relative disposition in or on vehicles
    • B60K37/02
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • B60W50/16Tactile feedback to the driver, e.g. vibration or force feedback to the driver on the steering wheel or the accelerator pedal
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0412Digitisers structurally integrated in a display
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • B60K2350/1024
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo, light or radio wave sensitive means, e.g. infrared sensors

Landscapes

  • Engineering & Computer Science (AREA)
  • Automation & Control Theory (AREA)
  • Human Computer Interaction (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Chemical & Material Sciences (AREA)
  • Combustion & Propulsion (AREA)
  • Position Input By Displaying (AREA)

Abstract

The present invention provides a method for controlling a vehicle, and a vehicle comprising: a display where a user interface is displayed; a touch input device sensing hovering in a touch space; and a processor providing feedback to a function executed when the touch input device is touched through the user interface when hovering is sensed in the touch space.

Description

차량, 및 그 제어방법{VEHICLE, AND CONTROL METHOD FOR THE SAME}VEHICLE, AND CONTROL METHOD FOR THE SAME

터치입력으로 기능의 제어가 가능한 차량 및 그 제어방법에 관한 발명이다. The present invention relates to a vehicle capable of controlling functions by touch input and a control method thereof.

일반적으로 전자통신 기술의 발전을 통해 다양한 전자기기들이 만들어지고 있으며, 이러한 전자기기들은 점차 사용자의 조작 편의성과 더불어 디자인의 수려함을 강조하는 추세에 있다. 이러한 추세에 따라 강조되는 것은 키보드 혹은 키패드로 대표되던 입력장치의 다변화이다.Generally, various electronic devices are being developed through the development of electronic communication technology, and these electronic devices are increasingly emphasizing the ease of design of users with ease of operation. What is emphasized in this trend is the diversification of input devices represented by keyboards or keypads.

입력장치는 휴대용 단말기, 노트북, 스마트폰, 스마트패드, 스마트TV 등 사용자에게 정보를 제공하는 다양한 종류의 디스플레이 시스템에 사용되고 있다. 최근에는 전자기기의 발전과 함께 조작키, 다이얼 등을 이용하여 입력하는 방법 이외에 터치를 이용하여 명령 신호를 입력하는 방법이 사용되고 있다.Input devices are used in various types of display systems that provide information to users such as portable terminals, notebooks, smart phones, smart pads, and smart TVs. Recently, a method of inputting a command signal by using a touch has been used in addition to a method of inputting using an operation key, a dial, or the like in conjunction with the development of an electronic device.

터치 입력장치는 각종 디스플레이를 이용하는 정보통신기기와 사용자 간의 인터페이스를 구성하는 입력장치 중 하나로, 사용자가 손가락이나 터치펜 등의 입력도구를 이용하여 터치패드 또는 터치스크린을 직접 접촉하거나 이에 근접함으로써 정보통신기기와 사용자 간의 인터페이스가 가능하게 해준다.The touch input device is one of the input devices constituting the interface between the information communication device and the user using various displays. The touch input device is a touch input device such as a finger or a touch pen, It enables the interface between the device and the user.

터치 입력장치는 손가락 또는 터치펜 등의 입력도구를 접촉하는 것만으로 남녀노소 누구나 쉽게 사용할 수 있기 때문에 ATM(Automated Teller Machine), PDA(Personal Digital Assistant), 핸드폰 등 다양한 기기에서 활용되고 있으며, 그 분야 역시도 은행, 관공서, 관광 및 교통안내 등 많은 분야에서 다양하게 활용되고 있다.The touch input device is utilized by various devices such as an automated teller machine (ATM), a personal digital assistant (PDA), and a mobile phone because a touch input device such as a finger or a touch pen can be easily used by anyone, It is also widely used in many fields such as banks, government offices, sightseeing and traffic information.

최근에는 건강 또는 의료 관련 제품과 차량에 터치 입력장치를 적용하려는 노력들을 계속되고 있다. 특히 터치패널은 터치스크린과 함께 사용되거나 디스플레이 시스템에 독자적으로 사용될 수 있으므로 그 활용도가 높아지고 있다. 또한 최근에는 터치를 이용하여 포인트(Point)를 이동시키는 기능 이외에 제스처를 입력할 수 있는 기능이 개발되고 있다. 제스처를 입력할 수 있는 터치 입력장치의 경우 제스처의 인식률을 향상시키고자 하는 노력이 계속되고 있다.In recent years, efforts have been made to apply touch input devices to health or medical products and vehicles. Especially, the use of the touch panel is increasing because it can be used with the touch screen or can be used independently in the display system. Recently, a function of inputting a gesture in addition to a function of moving a point by using a touch has been developed. In the case of a touch input device capable of inputting a gesture, efforts are being made to improve the recognition rate of a gesture.

사용자에게 터치 시에 실행될 기능에 대한 피드백을 제공하는 차량 및 그 제어방법을 제공하고자 한다. And provides a vehicle and a control method thereof that provide feedback to a user about a function to be executed at the time of touch.

상술한 과제를 해결하기 위한 일 양상에 따른 차량은 사용자 인터페이스가 표시되는 디스플레이;와 내측으로 요입된 터치 공간을 가지고, 터치 공간에서의 호버링 발생을 감지하는 터치 입력장치;와 터치 공간에 호버링이 감지되면, 사용자 인터페이스를 통해 터치 입력장치의 터치 시에 실행될 기능에 대해 피드백을 제공하는 프로세서;를 포함한다.According to an aspect of the present invention, there is provided a vehicle including a display for displaying a user interface, a touch input device for detecting occurrence of hovering in a touch space, And a processor for providing feedback on a function to be executed when the touch input device is touched through the user interface.

이때, 프로세서는, 터치로 실행된 기능에 대응되는 적어도 하나의 아이템이 포함되도록 사용자 인터페이스를 구성할 수 있다.At this time, the processor may configure the user interface to include at least one item corresponding to the function executed by the touch.

또한, 프로세서는, 적어도 하나의 아이템 중 터치 입력장치의 터치 시에 실행될 기능에 대해 피드백을 제공할 실행 아이템을 결정할 수 있다. Further, the processor may determine an execution item to provide feedback on a function to be executed at the touch of the touch input device among at least one item.

또한, 프로세서는, 호버링의 발생 좌표에 기초하여 실행 아이템을 결정할 수 있다. The processor may also determine an execution item based on the origin of the hovering.

또한, 프로세서는, 적어도 하나의 아이템의 배치에 따라 터치 공간을 복수의 영역으로 분할하고, 복수의 영역 중 호버링의 발생 좌표에 대응되는 영역의 아이템을 실행 아이템으로 결정할 수 있다.Further, the processor may divide the touch space into a plurality of areas according to the arrangement of the at least one item, and determine an item of the area corresponding to the occurrence coordinates of the hovering among the plurality of areas as the execution item.

또한, 프로세서는, 호버링의 발생 좌표 변화에 대응하여 실행 아이템을 변경할 수 있다. Further, the processor can change the execution item in response to the coordinate change of occurrence of the hovering.

한편, 입력 장치는, 터치 영역이 마련된 요입부와 요입부 외측에 마련되어 터치 공간을 형성하는 돌출부;를 포함할 수 있다. Meanwhile, the input device may include a concave portion provided with a touch region and a protrusion provided outside the concave portion to form a touch space.

또한, 터치 입력장치는 돌출부의 상측에 마련되어 호버링을 검출하는 호버링 센서를 포함할 수 있다.Further, the touch input device may include a hovering sensor provided on the upper side of the projection to detect hovering.

또한, 호버링 센서는 미리 설정된 광로를 통해 조사되는 광을 검출하는 복수의 광원 센서;를 포함할 수 있다. 이때, 프로세서는, 복수의 광원 센서의 출력에 기초하여 광로의 차단 여부를 판단하고, 광로의 차단 여부에 기초하여 호버링이 발생된 좌표를 판단할 수 있다.In addition, the hovering sensor may include a plurality of light source sensors for detecting light irradiated through a preset optical path. At this time, the processor can determine whether or not the optical path is blocked based on the outputs of the plurality of light source sensors, and can determine the coordinate where the hovering occurred based on whether or not the optical path is blocked.

또한, 터치 입력장치는 요입부 및 돌출부에 마련되어 사용자의 터치를 감지하는 터치 센서;를 더 포함할 수 있다. The touch input device may further include a touch sensor provided on the concave and convex portions to sense a user's touch.

또한, 터치 입력장치는, 돌출부의 내측면 또는 등성이에 마련되어 사용자의 터치를 감지하는 터치 센서를 포함할 수 있다.In addition, the touch input device may include a touch sensor provided on the inner surface or the isosceles of the protrusion to sense a user's touch.

또한, 터치 센서는 사용자의 시계 방향 또는 반시계 방향으로의 터치를 감지할 수 있다.Also, the touch sensor can sense a touch of the user in the clockwise or counterclockwise direction.

또한, 프로세서는 터치 센서에서 사용자의 터치가 감지되면 사용자 인터페이스를 통해 호버링에 대한 피드백과 다른 피드백을 사용자에게 제공할 수 있다.In addition, the processor can provide the user with feedback on hovering and other feedback through the user interface when a touch of the user is detected on the touch sensor.

상술한 과제를 해결하기 위한 일 양상에 따른 차량의 제어방법은, 사용자 인터페이스를 표시하는 표시 단계;와 터치 공간에서 호버링 발생을 감지하는 감지 단계;와 터치 공간에 호버링이 감지되면 사용자 인터페이스를 통해 터치 입력장치의 터치 시에 실행될 기능에 대해 피드백을 제공하는 피드백 단계;를 포함한다. According to another aspect of the present invention, there is provided a method of controlling a vehicle, the method comprising: displaying a user interface; sensing a hovering occurrence in a touch space; And a feedback step of providing feedback on a function to be executed when the input device is touched.

이때, 표시 단계는, 터치로 실행된 기능에 대응되는 적어도 하나의 아이템이 포함되도록 사용자 인터페이스를 구성하는 단계;를 포함할 수 있다. In this case, the displaying step may include configuring the user interface so that at least one item corresponding to the function executed by the touch is included.

또한, 피드백 단계는, 적어도 하나의 아이템 중 터치 입력장치의 터치 시에 실행될 기능에 대응되는 실행 아이템을 결정하는 단계;를 포함할 수 있다.Further, the feedback step may include determining an execution item corresponding to a function to be executed at the touch of the touch input device among at least one item.

또한, 피드백 단계는, 호버링의 발생 좌표에 기초하여 실행 아이템을 결정하는 단계;를 포함할 수 있다.The feedback step may also include determining an execution item based on the origin of the hovering.

또한, 피드백 단계는, 적어도 하나의 아이템의 배치에 따라 터치 공간을 복수의 영역으로 분할하는 단계;와 호버링의 발생 좌표에 대응되는 영역을 결정하는 단계;와 결정된 영역에 대응되는 아이템을 실행 아이템으로 결정하는 단계;를 더 포함할 수 있다.According to another aspect of the present invention, there is provided a method for generating a hovering object, the method comprising the steps of: dividing a touch space into a plurality of regions according to an arrangement of at least one item; And determining the number of times the data is transmitted.

또한, 피드백 단계는, 호버링의 발생 좌표 변화에 대응하여 실행 아이템을 변경하는 단계;를 더 포함할 수 있다.Further, the feedback step may further include changing the execution item in response to the coordinate change of occurrence of the hovering.

차량의 제어방법은 사용자의 터치가 감지되면 실행 아이템에 대응되는 기능을 실행하는 단계;를 더 포함할 수 있다.The method of controlling a vehicle may further include executing a function corresponding to an execution item when a user's touch is sensed.

터치 공간의 호버링을 감지하고, 이에 따라 실행될 기능에 대한 피드백을 제공함으로써, 사용자의 터치 입력장치 조작을 용이하게 할 수 있으며, 터치 입력 실수를 최소화할 수 있다. By detecting the hovering of the touch space and providing the feedback on the function to be performed accordingly, the user can easily operate the touch input device, and the touch input mistake can be minimized.

또한, 사용자 인터페이스를 통한 피드백을 통해 터치 입력장치로 시선 분산을 최소화할 수 있다. In addition, it is possible to minimize gaze dispersion with a touch input device through feedback through a user interface.

도 1은 일 실시예에 따른 차량의 외관을 개략적으로 도시한 사시도이다.
도 2는 일 실시예에 따른 차량의 실내를 개략적으로 도시한 사시도이다.
도 3은 일 실시예에 따른 차량의 제어 블록도이다.
도 4는 본 발명의 제1 실시예에 따른 터치 입력장치를 나타내는 사시도이다.
도 5는 본 발명의 제1 실시예에 따른 터치 입력장치를 나타내는 평면도이다.
도 6은 도 5의 A-A 단면도이다.
도 7은 요입부의 변형례를 도시한 도면이다.
도 8은 제2 실시예에 따른 터치 입력장치를 나타내는 사시도이다.
도 9은 제2 실시예에 따른 터치 입력장치를 나타내는 단면도이다.
도 10은 광전 센서가 구비된 터치 입력장치를 개략적으로 도시한 사시도이다.
도 11은 터치 공간에 형성되는 광로를 도시한 도면이다.
도 12는 광전 센서를 이용한 호버링 검출을 설명하기 위한 터치 입력장치의 단면도이다.
도 13은 일 실시예에 따른 호버링에 따른 피드백 제공 방법을 설명하기 위한 순서도이다.
도 14는 사용자 인터페이스의 일 실시예를 도시한 도면이다.
도 15는 다른 실시예에 따른 호버링에 따른 피드백 제공 방법을 설명하기 위한 순서도이다.
도 16은 호버링의 발생 좌표에 따른 피드백 제공의 일례를 설명하기 위한 도면이다.
도 17은 호버링의 발생 좌표에 따른 피드백 기능 선택의 다른례를 설명하기 위한 도면이다.
도 18는 또 다른 실시예에 따른 호버링에 따른 피드백 제공 방법을 설명하기 위한 순서도이다.
도 19는 호버링 좌표의 변경을 이용한 실행 기능 변경을 설명하기 위한 도면이다.
1 is a perspective view schematically showing an appearance of a vehicle according to an embodiment.
2 is a perspective view schematically showing an interior of a vehicle according to an embodiment.
3 is a control block diagram of a vehicle according to an embodiment.
4 is a perspective view illustrating a touch input device according to a first embodiment of the present invention.
5 is a plan view showing a touch input device according to the first embodiment of the present invention.
6 is a sectional view taken along the line AA in Fig.
7 is a view showing a modification of the recessed portion.
8 is a perspective view showing the touch input device according to the second embodiment.
9 is a sectional view showing a touch input device according to the second embodiment.
10 is a perspective view schematically showing a touch input device provided with a photoelectric sensor.
11 is a view showing an optical path formed in the touch space.
12 is a cross-sectional view of a touch input device for explaining hovering detection using a photoelectric sensor.
13 is a flowchart illustrating a method of providing feedback according to hovering according to an embodiment.
14 is a diagram illustrating an embodiment of a user interface.
FIG. 15 is a flowchart for explaining a method of providing feedback according to hovering according to another embodiment.
Fig. 16 is a diagram for explaining an example of providing feedback according to the occurrence coordinates of hovering.
17 is a diagram for explaining another example of the feedback function selection according to the occurrence coordinates of hovering.
18 is a flowchart for explaining a method of providing feedback according to hovering according to another embodiment.
19 is a diagram for explaining an execution function change using a change of hovering coordinates.

본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나 본 발명은 이하에서 개시되는 실시예들에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있으며, 단지 본 실시예들은 본 발명의 개시가 완전하도록 하고, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다.Brief Description of the Drawings The advantages and features of the present invention, and how to accomplish them, will become apparent with reference to the embodiments described hereinafter with reference to the accompanying drawings. The present invention may, however, be embodied in many different forms and should not be construed as limited to the embodiments set forth herein. Rather, these embodiments are provided so that this disclosure will be thorough and complete, and will fully convey the scope of the invention to those skilled in the art. To fully disclose the scope of the invention to those skilled in the art, and the invention is only defined by the scope of the claims.

아래에서는 첨부한 도면을 참고하여 본 발명의 실시예에 대하여 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 상세히 설명한다. 그리고 도면에서 본 발명을 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략한다.Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings so that those skilled in the art can easily carry out the present invention. In order to clearly explain the present invention in the drawings, parts not related to the description will be omitted.

도 1은 일 실시예에 따른 차량의 외관을 개략적으로 도시한 사시도이고, 도 2는 일 실시예에 따른 차량의 실내를 개략적으로 도시한 사시도이다.FIG. 1 is a perspective view schematically showing an appearance of a vehicle according to an embodiment. FIG. 2 is a perspective view schematically showing an interior of a vehicle according to an embodiment.

도 1을 참조하면, 차량(1)은 외관을 형성하는 차체(10), 차량(1)을 이동시키는 차륜(12, 13)을 포함한다.Referring to Fig. 1, a vehicle 1 includes a vehicle body 10 forming an outer appearance, and wheels 12 and 13 for moving the vehicle 1. As shown in Fig.

차체(10)는 엔진 등과 같이 차량(1)에 구동에 필요한 각종 장치를 보호하는 후드(11a), 실내 공간을 형성하는 루프 패널(11b), 수납 공간이 마련된 트렁크 리드(11c), 차량(1)의 측면에 마련된 프런트 휀더(11d)와 쿼터 패널(11e)을 포함할 수 있다. 또한, 차체(11)의 측면에는 차체와 흰지 결합된 복수 개의 도어(15)가 마련될 수 있다. The vehicle body 10 includes a hood 11a for protecting various devices necessary for driving the vehicle 1 such as an engine, a roof panel 11b for forming an interior space, a trunk lid 11c provided with a storage space, A front fender 11d and a quarter panel 11e. A plurality of doors 15 joined to the vehicle body by a white paper may be provided on the side surface of the vehicle body 11. [

후드(11a)와 루프 패널(11b) 사이에는 차량(1) 전방의 시야를 제공하는 프런트 윈도우(19a)가 마련되고, 루프 패널(11b)과 트렁크 리드(11c) 사이에는 후방의 시야를 제공하는 리어 윈도우(19b)가 마련될 수 있다. 또한, 도어(15)의 상측에는 측면의 시야를 제공하는 측면 윈도우(19c)가 마련될 수 있다. A front window 19a is provided between the hood 11a and the roof panel 11b to provide a view of the front of the vehicle 1 and a rear window is provided between the roof panel 11b and the trunk lid 11c A rear window 19b may be provided. Further, on the upper side of the door 15, a side window 19c for providing a side view can be provided.

또한, 차량(1)의 전방에는 차량(1)의 진행 방향으로 조명을 조사하는 헤드램프(15, Headlamp)가 마련될 수 있다. A headlamp 15 for illuminating the vehicle 1 in the traveling direction of the vehicle 1 may be provided in front of the vehicle 1. [

또한, 차량(1)의 전방, 후방에는 차량(1)의 진행 방향을 지시하기 위한 방향지시램프(16, Turn Signal Lamp)가 마련될 수 있다. 차량(1)은 방향지시램프(16)의 점멸하여 그 진행방향으로 표시할 수 있다. A turn signal lamp 16 for indicating the traveling direction of the vehicle 1 may be provided on the front and rear of the vehicle 1. [ The vehicle 1 can flicker the direction indicator lamp 16 and display it in the traveling direction thereof.

또한, 차량(1)의 후방에는 테일램프(17)가 마련될 수 있다. 테일램프(17)는 차량(1)의 후방에 마련되어 차량(1)의 기어 변속 상태, 브레이크 동작 상태 등을 표시할 수 있다. Further, a tail lamp 17 may be provided at the rear of the vehicle 1. [ The tail lamp 17 is provided behind the vehicle 1 and can display the gear shift state of the vehicle 1, the brake operation state, and the like.

도 2를 참조하면, 차량(1) 내부에는 복수 개의 좌석(S1, S2)이 마련되고, 좌석(S1, S2)의 정면에는 운전에 필요한 각종 계기들이 마련되는 대시보드(50)가 위치한다. Referring to FIG. 2, a plurality of seats S1 and S2 are provided in the vehicle 1, and a dashboard 50 is provided on the front of the seats S1 and S2.

대시보드(50)에는 차량(1)의 주행 방향을 제어하기 위한 스티어링 휠(40)이 마련된다. 스티어링 휠(40)은 조향을 위한 장치로, 운전자에 의해 파지되는 림(41)과 림과 조향을 위한 회전축을 연결하는 스포크(42)를 포함한다. 또한, 필요에 따라 스티어링 휠(40)에는 편의 장치를 조작하기 위한 조작장치(43)가 더 포함될 수 있다. The dashboard 50 is provided with a steering wheel 40 for controlling the running direction of the vehicle 1. [ The steering wheel 40 is a device for steering and includes a rim 41 gripped by a driver and a spoke 42 connecting the rim and a rotational axis for steering. Further, if necessary, the steering wheel 40 may further include an operation device 43 for operating a convenience device.

또한, 대시보드(50)는 차량(1)의 주행 상태와 각 구성의 작동에 관한 정보를 전달하는 계기판을 더 포함할 수 있다. 계기판의 위치는 그 제한이 없으나, 운전자의 시인성을 고려하여 스티어링 휠(40) 후방에 마련될 수 있다.In addition, the dashboard 50 may further include an instrument panel for transmitting information on the running state of the vehicle 1 and the operation of each structure. The position of the instrument panel is not limited thereto, but may be provided behind the steering wheel 40 in consideration of the visibility of the driver.

도 3은 일 실시예에 따른 차량의 제어 블록도이다. 3 is a control block diagram of a vehicle according to an embodiment.

도 3을 참조하면, 일 실시예에 따른 차량(1)은 정보를 표시하는 디스플레이(400), 터치를 통해 사용자의 제어 명령을 입력 받는 터치 입력장치(100), 터치 입력장치(100)를 통해 입력된 제어 명령에 따라 차량(1)의 기능을 제어하는 프로세서(300)를 포함할 수 있다. 3, a vehicle 1 according to an embodiment includes a display 400 for displaying information, a touch input device 100 for receiving a control command of a user through a touch, a touch input device 100 And a processor 300 that controls the function of the vehicle 1 according to the input control command.

디스플레이(400)는 도 2에 도시된 것과 같이 대시보드(50)의 중앙에 마련될 수 있으나, 디스플레이(400)의 위치가 이에 한정되는 것은 아니다. The display 400 may be provided at the center of the dashboard 50 as shown in FIG. 2, but the position of the display 400 is not limited thereto.

디스플레이(400)는 차량(1)의 구동에 관한 정보뿐만 아니라, 차량(1)에 마련된 각종 편의 장치에 대한 정보를 표시할 수 있다. 또한, 디스플레이(400)는 사용자가 차량(1)의 각종 편의 장치를 제어하기 위한 사용자 인터페이스를 표시할 수 있다. The display 400 can display not only information on the driving of the vehicle 1 but also information on various convenience devices provided in the vehicle 1. [ In addition, the display 400 may display a user interface for controlling the various convenience devices of the vehicle 1 by the user.

이와 같은 디스플레이(400)는 플라즈마 디스플레이 패널(Plasma Display Panel, PDP), 액정 디스플레이(Liquid Crystal Display: LCD) 패널, 발광 다이오드(Light Emitting Diode: LED) 패널, 또는 유기 발광 다이오드(Organic Light Emitting Diode: OLED) 패널, 능동형 유기 발광 다이오드(Active-matrix Organic Light-Emitting Diode, AMOLED) 패널 등의 수단으로 구현될 수 있으나, 이에 한정되는 것이 아니다. The display 400 may be a plasma display panel (PDP), a liquid crystal display (LCD) panel, a light emitting diode (LED) panel, or an organic light emitting diode (OLED) panel, an active-matrix organic light-emitting diode (AMOLED) panel, and the like, but the present invention is not limited thereto.

또한, 디스플레이(400)는 사용자의 터치를 인식하는 터치 인식 수단이 더 포함된 터치 스크린 패널(Touch Screen Panel: TSP)으로도 구현될 수 있다. 디스플레이(400)가 터치 스크린 패널로 구현된 경우, 사용자는 디스플레이(400)를 터치하여 각종 편의기능을 제어할 수 있다. In addition, the display 400 may be implemented as a touch screen panel (TSP) including a touch recognition means for recognizing a user's touch. When the display 400 is implemented as a touch screen panel, the user can touch the display 400 to control various convenience functions.

터치 입력장치(100)는 도 2에 도시된 것과 같이 센터 콘솔(70)에 마련될 수 있으나, 터치 입력장치(100)의 위치가 이에 한정되는 것은 아니다.The touch input device 100 may be provided on the center console 70 as shown in FIG. 2, but the position of the touch input device 100 is not limited thereto.

터치 입력장치(100)는 포인터를 통해 제어 명령을 입력 받을 수 있다. 포인터는 손가락과 같은 사용자의 신체 또는 터치 팬과 같은 터치 장치를 의미하는 것으로, 사용자는 포인터를 이용하여 터치 제스처를 입력할 수 있다. The touch input device 100 can receive a control command through a pointer. The pointer means a touch device such as a user's body or a touch fan, such as a finger, and a user can input a touch gesture using a pointer.

예를 들어, 사용자는 플리킹(Flicking) 또는 스와이핑(Swiping), 롤링(Rolling), 서클링(Circling) 또는 스핀(Spin), 또는 탭(Tap) 등의 터치 제스처를 통해 제어 명령을 입력할 수 있다.For example, a user can enter control commands through a touch gesture such as Flicking or Swiping, Rolling, Circling or Spin, or Tap. have.

여기서, 플리킹 또는 스와이핑은 포인터가 터치 영역에 접촉된 상태에서 일 방향으로 이동 후 접촉 상태를 해제하는 터치 입력을, 롤링은 터치 영역의 중앙을 중심으로 원호를 그리는 터치 입력을, 서클링 또는 스핀은 터치 영역의 중앙을 중심으로 원을 그리는 터치 입력을, 탭은 터치 영역을 두드리는 터치 입력을 의미한다. Here, the flicking or sweeping is a touch input for releasing the contact state after moving the pointer in one direction in a state where the pointer is in contact with the touch region, the rolling is a touch input for drawing an arc around the center of the touch region, Means a touch input for drawing a circle around the center of the touch area, and a tab means a touch input for tapping the touch area.

사용자는 플리킹, 스와이핑, 롤링, 서클링 등을 통해 실행될 기능을 선택하고, 탭을 통해 선택된 기능이 실행하는 방식으로 소정의 기능을 실행시킬 수 있다.The user can select a function to be executed through flicking, swiping, rolling, circling, and the like, and can execute a predetermined function in such a manner that the selected function is executed through the tab.

터치 입력장치(100)는 요입된 터치 영역을 포함한다. 이하, 요입된 터치 영역을 포함하는 터치 입력장치(100)의 다양한 실시예에 대해 설명한다. The touch input device 100 includes a recessed touch area. Hereinafter, various embodiments of the touch input device 100 including the recessed touch area will be described.

도 4는 본 발명의 제1 실시예에 따른 터치 입력장치를 나타내는 사시도이고, 도 5는 본 발명의 제1 실시예에 따른 터치 입력장치를 나타내는 평면도이고, 도 6은 도 5의 A-A 단면도이다. 그리고, 도 7은 요입부의 변형례를 설명하기 위한 도면이다. FIG. 4 is a perspective view showing a touch input device according to a first embodiment of the present invention, FIG. 5 is a plan view showing a touch input device according to the first embodiment of the present invention, and FIG. 6 is a sectional view taken along the line A-A in FIG. 7 is a view for explaining a modification of the recessed portion.

도 4 내지 도 6를 참조하면, 제1 실시예에 따른 터치 입력장치(100)는 장착면(140)에 설치된다. 장착면(140)은 터치 입력장치(100)의 주위를 둘러싸도록 마련될 수 있으며, 터치 입력장치(100)와 별도의 부재로 마련될 수 있다.4 to 6, the touch input device 100 according to the first embodiment is installed on the mounting surface 140. [ The mounting surface 140 may surround the touch input device 100 and may be formed as a separate member from the touch input device 100.

한편, 도면과 달리 장착면(140)은 사용자가 요입부(110)를 터치하기 용이하도록 요입부(110)보다 높게 위치할 수 있다. 장착면(140)이 요입부(110)보다 높게 마련된 경우, 사용자는 손목을 꺽지 않고 장착면(140)에 손목을 지지한 상태에서 터치 제스처를 입력할 수 있다. Meanwhile, the mounting surface 140 may be positioned higher than the concave portion 110 so that the user can easily touch the concave portion 110, unlike the drawing. When the mounting surface 140 is provided higher than the concave portion 110, the user can input the touch gesture while holding the wrist on the mounting surface 140 without bending the wrist.

터치 입력장치(100)는 요입된 터치 영역이 마련된 요입부(110)를 포함한다. 이하, 주위보다 요입된 공간을 터치 공간(150)이라 하고, 터치 센서(190)가 마련되어 포인터의 터치를 감지하는 영역을 터치 영역이라 정의한다.The touch input device 100 includes a recessed portion 110 provided with a recessed touch region. Hereinafter, a space that is recessed from the periphery is referred to as a touch space 150, and an area where a touch sensor 190 is provided to sense a touch of a pointer is defined as a touch area.

요입부(110)에는 터치 센서(190)가 마련될 수 있다. 터치 센서(190)는 포인터의 터치를 감지하고, 감지된 터치 위치에 대응되는 전기적 신호를 출력하는 장치로, 터치 센서(190)는 정전용량식 기술(capacitive technology), 저항식 기술(resistive), 적외선 기술(infrared technology) 및 표면 음파 기술(surface acoustic wave technology)을 사용하여 사용자의 터치를 인식할 수 있으나, 이에 한정되는 것이 아니고, 이미 공지된 다른 기술 또는 추후 개발될 기술을 사용하여 터치를 인식할 수도 있다. A touch sensor 190 may be provided at the concave portion 110. The touch sensor 190 senses a touch of a pointer and outputs an electrical signal corresponding to the sensed touch position. The touch sensor 190 is a capacitive technology, a resistive technology, Although the user's touch can be recognized using infrared technology and surface acoustic wave technology, the present invention is not limited to this, and it is possible to recognize a touch using another technology that is already known or a technology to be developed in the future You may.

또한, 터치 센서(190)는 터치 패드, 터치 필름, 및 터치 시트 형태로 마련될 수 있다. In addition, the touch sensor 190 may be provided in the form of a touch pad, a touch film, and a touch sheet.

요입부(110)는 다양한 형상으로 마련될 수 있으나, 도면에 도시된 것과 같이 원형으로 형성될 수 있다. 요입부(110)가 원형으로 마련되는 경우 오목한 터치 영역을 형성하기가 용이할 수 있다. 또한, 요입부(110)가 원형으로 마련됨에 따라 사용자는 촉감으로 터치 영역을 위치를 인지할 수 있다.The recessed portion 110 may be formed in various shapes, but may be formed in a circular shape as shown in the drawings. When the recessed portion 110 is provided in a circular shape, it is easy to form a concave touch region. In addition, since the concave portion 110 is provided in a circular shape, the user can recognize the position of the touch region by touch.

이때, 요입부(110)가 형성하는 터치 영역의 직경은 인체공학적으로 설계될 수 있다. 예컨대, 성인의 평균적인 손가락 길이를 고려할 때, 손목을 고정한 상태에서 자연스러운 손가락의 움직임만으로 한 번에 손가락을 움직일 수 있는 범위는 80mm이내로, 요입부(110)의 직경이 80mm를 초과하면, 원을 그리는 터치 입력이 부자연스러워지고, 필요 이상으로 손목을 사용하게 된다. 이에 요입부(110)의 직격은 80mm이내에서 에서 선택될 수 있다. At this time, the diameter of the touch region formed by the recessed portion 110 can be ergonomically designed. For example, in consideration of the average finger length of an adult, the range of the fingers that can be moved at one time by the movement of a natural finger in a fixed state of the wrist is within 80 mm, and when the diameter of the recessed portion 110 exceeds 80 mm, Touch input is unnatural, and the wrist is used more than necessary. Thus, the straightness of the recessed portion 110 can be selected within 80 mm.

아울러, 요입부(110)의 직경이 50mm 보다 작아지는 경우 터치 영역의 면적이 축소되어 사용자의 터치 입력의 다양성이 손실될 수 있으며, 터치 입력의 오류가 증가할 수 있다. 그러므로, 요입부(110)의 직경은 50mm 내지 80mm 내에서 선택될 수 있다. In addition, when the diameter of the recessed portion 110 is less than 50 mm, the area of the touch area may be reduced, resulting in a loss of diversity of the touch input by the user and an increase in errors of the touch input. Therefore, the diameter of the recessed portion 110 can be selected within a range of 50 mm to 80 mm.

또한, 요입부(110)는 도 6에 도시된 것과 같이 평면으로 형성될 수 있다. 즉, 요입부(110)는 평편한 터치 영역을 포함할 수 있다. 그러나, 요입부(110)가 형성하는 터치 영역의 형상이 이에 한정되는 것은 아니다. In addition, the recessed portion 110 may be formed in a plane as shown in Fig. That is, the recessed portion 110 may include a flat touch region. However, the shape of the touch region formed by the recessed portion 110 is not limited to this.

일 실시예로, 요입부(110)는 도 7a에 도시된 것과 같이 소정의 곡률에 따라 오목하게 형성될 수 있다. 이때, 요입부(110)의 오목한 정도는 요입부(110)의 깊이를 직경으로 나눈 값으로 정의될 수 있다.In one embodiment, the recessed portion 110 may be recessed according to a predetermined curvature as shown in FIG. 7A. At this time, the concave degree of the recessed portion 110 can be defined as a value obtained by dividing the depth of the recessed portion 110 by the diameter.

요입부(110)가 형성하는 영역의 직경과 깊이는 인체공학적으로 설정될 수 있다. 예컨대, 요입부(110)의 깊이/직경 값이 0.1 보다 커지는 경우, 오목한 형상의 곡률이 커지게 되어 곡면을 따라 손가락을 움직였을 때 손가락에 필요 이상의 힘이 들어가게 되어 인위적인 조작감이 느껴지게 되므로 사용자의 터치감이 불편해진다. The diameter and depth of the region formed by the incision 110 can be ergonomically set. For example, when the depth / diameter value of the recessed portion 110 is greater than 0.1, the curvature of the concave shape becomes large, and when the finger is moved along the curved surface, more force than necessary is inserted into the finger, I feel uncomfortable.

반대로, 요입부(110)의 깊이/직경값이 0.04 보다 작아지면 사용자가 평면에서 제스처를 그리는 것과 비교하여 조작감의 차이를 느끼기 힘들게 된다. 그러므로, 사용자의 자연스러운 손가락 움직임에서 손가락 끝이 그리는 곡선의 곡률과 일치하도록 요입부(110)의 깊이/직경값은 0.04 내지 0.1 내에서 선택될 수 있다. Conversely, if the depth / diameter value of the recessed portion 110 is smaller than 0.04, it is difficult for the user to feel the difference in the operation feeling as compared with the case in which the user draws the gesture in the plane. Therefore, the depth / diameter value of the recessed portion 110 can be selected from 0.04 to 0.1 so that the fingertip matches the curvature of the curve drawn by the user's natural finger motion.

한편, 요입부(110)의 곡률은 서로 다르게 마련될 수 있다. 예컨대, 중앙부의 곡률은 작고(곡률반경이 큰 것을 의미), 외곽부의 곡률은 크게(곡률반경이 작은 것을 의미) 마련될 수 있다. Meanwhile, the curvatures of the concave portions 110 may be different from each other. For example, the curvature of the central portion is small (meaning that the radius of curvature is large), and the curvature of the outer portion is large (meaning that the radius of curvature is small).

다른 실시예로, 요입부(110)는 도 7b에 도시된 것과 같이 복수의 터치 영역으로 구성될 수 있다. 구체적으로, 요입부(110)는 오목한 곡면으로 마련되는 중앙 터치 영역(110a)과 중앙 터치 영역 주위에 마련된 외곽 터치 영역(110b)를 포함할 수 있다. In another embodiment, the recessed portion 110 may be composed of a plurality of touch regions as shown in FIG. 7B. Specifically, the recessed portion 110 may include a center touch region 110a provided with a concave curved surface and an outer touch region 110b provided around the center touch region.

이와 같이 복수의 터치 영역(110a, 110b)으로 요입부(110)가 구성된 경우, 각 터치 영역(110a, 110b)은 지정된 터치만을 인식할 수 있다. 예컨대, 중앙 터치 영역(110a)은 탭 터치를 인식하고, 외곽 터치 영역(110b)은 롤링 또는 서클링 터치를 인식할 수 있다.When the concave portions 110 are formed by the plurality of touch regions 110a and 110b, the respective touch regions 110a and 110b can recognize only the designated touch. For example, the center touch region 110a recognizes a tap touch and the outer touch region 110b can recognize a rolling or circling touch.

다시 도 4 내지 도 6를 참조하면, 터치 입력장치(100)는 터치 공간(150)을 형성하는 돌출부(120)를 포함할 수 있다. 돌출부(120)는 요입부(110)로부터 돌출되어, 요입부(110)와 함께 터치 공간(150)을 형성할 수 있다.4 to 6, the touch input apparatus 100 may include a protrusion 120 forming a touch space 150. [ The protrusion 120 protrudes from the recessed portion 110 to form the touch space 150 together with the recessed portion 110.

돌출부(120)는 요입부(110)의 외측에 돌출되어 마련된다. 돌출부(120)의 수평 단면의 형상은 요입부(110)의 형상과 대응된다. 예컨대, 요입부(110)가 원형으로 마련되면 돌출부(120)의 수평 단면은 링 형상으로 마련될 수 있다. The protrusion 120 protrudes outside the recessed portion 110. The shape of the horizontal cross section of the protrusion 120 corresponds to the shape of the recessed portion 110. For example, if the recessed portion 110 is formed in a circular shape, the horizontal cross section of the protruded portion 120 may be provided in a ring shape.

돌출부(120)는 장착면(140)과 연결되는 외측면(123)과 요입부(110)와 연결되는 내측면(121)을 포함할 수 있다. 외측면(123)과 내측면(121)은 소정의 곡률을 가지는 곡면으로 형성될 수도 있다. 예컨대, 외측면(123)은 장착면(140)과 부드럽게 연결되도록 볼록하게 형성되고, 내측면(121)은 터치 공간(150)이 완만하게 형성되도록 오목하게 형성될 수 있다. The protrusion 120 may include an outer surface 123 connected to the mounting surface 140 and an inner surface 121 connected to the recessed portion 110. The outer side surface 123 and the inner side surface 121 may be formed as curved surfaces having a predetermined curvature. For example, the outer side surface 123 may be convexly connected to the mounting surface 140, and the inner side surface 121 may be concave so that the touch space 150 is gently formed.

한편, 도면과 달리 장착면(140)이 요입부(110)보다 높게 위치하는 경우 외측면(123)은 생략될 수도 있다. On the other hand, when the mounting surface 140 is positioned higher than the concave portion 110, the outer surface 123 may be omitted.

또한, 돌출부(120)의 내측면(121)은 터치 입력이 가능하도록 마련될 수 있다. 즉, 내측면(121)에도 터치 센서(190)가 마련될 수 있다. 이때, 터치 센서(190)는 요입부(110)와 일체로 마련될 수 있으나 이에 한정되는 것은 아니다. 내측면(121)에 터치 센서(190)가 마련되면 내측면(121)도 터치 영역으로 정의될 수 있다.In addition, the inner surface 121 of the protrusion 120 may be provided to enable touch input. That is, the touch sensor 190 may be provided on the inner surface 121. At this time, the touch sensor 190 may be provided integrally with the incision 110 but is not limited thereto. When the touch sensor 190 is provided on the inner side surface 121, the inner side surface 121 may be defined as a touch area.

내측면(121)에 대한 터치 입력은 다이얼(Dial)의 회전 입력에 대응될 수 있다. 다이얼(Dail)은 노브 등에 장착되고 물리적으로 회전 가능한 장치를 의미하는 것으로, 내측면(121)에 대한 터치는 다이얼의 회전 입력과 대응되는 기능을 가질 수 있다. 예컨대, 차량은 내측면(121)의 원주를 따라 회전하는 터치에 따라 볼륨이 조절될 수 있다. The touch input to the inner side 121 may correspond to the rotation input of the dial. Dail means a device that is mounted on a knob or the like and is physically rotatable. A touch on the inner surface 121 may have a function corresponding to a rotation input of the dial. For example, the vehicle can be adjusted in volume according to a touch that rotates along the circumference of the inner surface 121.

도 8은 제2 실시예에 따른 터치 입력장치를 나타내는 사시도이고, 도 9은 제2 실시예에 따른 터치 입력장치를 나타내는 단면도이다.FIG. 8 is a perspective view showing a touch input device according to a second embodiment, and FIG. 9 is a sectional view showing a touch input device according to a second embodiment.

도 8 및 도 9를 참조하면, 제2 실시예에 따른 터치 입력장치(101)는 연결부(130)를 더 포함할 수 있다. 연결부(130)는 요입부(110)와 돌출부(120) 사이에 마련될 수 있다. 요입부(110)는 소정의 곡률로 마련될 수 있으며, 외측에서 볼 때 오목하게 형성될 수 있다. Referring to FIGS. 8 and 9, the touch input device 101 according to the second embodiment may further include a connection unit 130. FIG. The connection part 130 may be provided between the concave part 110 and the protrusion part 120. The recessed portion 110 may have a predetermined curvature and may be concave when viewed from the outside.

연결부(130)는 터치 입력이 가능하도록 마련될 수 있다. 이를 위해, 연결부(130)에도 터치 센서(190)가 마련될 수 있다. 이때, 터치 센서(190)는 요입부(110)와 일체로 마련될 수 있으나 이에 한정되는 것은 아니다.The connection unit 130 may be provided to enable touch input. To this end, a touch sensor 190 may be provided in the connection unit 130. [ At this time, the touch sensor 190 may be provided integrally with the incision 110 but is not limited thereto.

연결부(130)의 터치에 따라 실행되는 기능과 요입부(110)의 터치에 의해 동작되는 기능이 서로 다르게 설정될 수 있다. 예를 들어, 연결부(130)에 대한 롤링 터치는 제1 기능(예컨대, 채널 조절)으로 설정되고, 요입부(110)에 대한 롤링 터치는 제2 기능(예컨대, 볼륨 조절)으로 설정될 수 있다. The functions executed according to the touch of the connection unit 130 and the functions operated by the touch of the recessed part 110 may be set to be different from each other. For example, a rolling touch to the connection 130 may be set to a first function (e.g., channel control), and a rolling touch to the recessed portion 110 may be set to a second function (e.g., volume control) .

연결부(130)는 눈금(131)을 포함할 수 있다. 눈금(131)은 연결부(130)를 따라 음각 또는 양각으로 마련되어, 사용자에게 촉각적인 피드백을 제공할 수 있다. 즉, 사용자는 눈금(131)으로 인해 제공되는 촉각적인 피드백을 통해 터치가 이루어진 거리를 인지할 수 있다. 또한, 디스플레이(400)에 표시되는 인터페이스 역시 눈금(131) 단위로 변화될 수 있다. 예컨대, 터치가 이루어지는 눈금(131)의 개수에 따라 디스플레이(400)에 표시되는 커서가 이동하거나, 선택되는 문자가 변경될 수 있다. The connection 130 may include a scale 131. The scale 131 may be provided in an engraved or embossed fashion along the connection 130 to provide tactile feedback to the user. That is, the user can recognize the distance of the touch through the tactile feedback provided by the scale 131. In addition, the interface displayed on the display 400 may also be changed in increments of the scale 131. For example, the cursor displayed on the display 400 may be moved or the selected character may be changed according to the number of the scales 131 on which the touch is made.

다시 도 3을 참조하면, 터치 입력장치(100)는 호버링 센서(200)를 더 포함한다. 호버링은 포인터가 터치 입력장치(100)와 기계적으로 접촉하지 않고 터치 공간(150)에 위치하는 것을 의미한다.Referring again to FIG. 3, the touch input device 100 further includes a hovering sensor 200. Hovering means that the pointer is located in the touch space 150 without being in mechanical contact with the touch input device 100. [

호버링 센서(200)는 정전용량 방식, 자기 방식, 광전 방식을 사용하여 포인터의 호버링을 인식할 수 있다. 정전용량 방식은 포인터의 의해 발생하는 전계의 변화에 기초하여 포인터의 호버링을 검출하는 방식이고, 자기 방식은 포인터의 의해 발생하는 자계의 변화에 기초하여 포인터의 호버링을 검출하는 방식이고, 광전 방식은 광전 센서(221 내지 226)를 통해 포인터의 위치를 검출하는 방식이다. The hovering sensor 200 can recognize the hovering of the pointer by using a capacitive method, a magnetic method, or a photoelectric method. The electrostatic capacity method is a method of detecting the hovering of the pointer based on the change of the electric field generated by the pointer, the magnetic method is a method of detecting the hovering of the pointer based on the change of the magnetic field generated by the pointer, And the position of the pointer is detected through the photoelectric sensors 221 to 226.

도 3에는 호버링 센서(200)가 터치 센서(190)와 별도로 마련된 것으로 도시되어 있으나, 호버링 센서(200)와 터치 센서(190)는 일체로 마련될 수 있다. 또한, 호버링 센서(200)의 호버링 인식 방법이 정전용량 방식, 자기 방식, 또는 광전 방식에 한정되는 것이 아니고, 이미 공지된 다른 기술 또는 추후 개발될 기술을 사용하여 터치를 인식할 수도 있다. 3, the hovering sensor 200 is shown separately from the touch sensor 190. However, the hovering sensor 200 and the touch sensor 190 may be integrally formed. Further, the hovering recognition method of the hovering sensor 200 is not limited to the electrostatic capacity type, the magnetic type, or the photoelectric type, and the touch may be recognized by using another known technique or a technology to be developed in the future.

이하, 도면을 참조하여 광전 센서(221 내지 226)를 이용한 호버링 검출 방법에 대해 상세히 설명한다. Hereinafter, a hovering detection method using the photoelectric sensors 221 to 226 will be described in detail with reference to the drawings.

도 10은 광전 센서(221 내지 226)가 구비된 터치 입력장치를 개략적으로 도시한 사시도이고, 도 11은 터치 공간에 형성되는 광로를 도시한 도면이고, 도 12는 광전 센서(221 내지 226)를 이용한 호버링 검출을 설명하기 위한 터치 입력장치의 단면도이다. 10 is a perspective view schematically showing a touch input device provided with the photoelectric sensors 221 to 226, FIG. 11 is a view showing an optical path formed in the touch space, FIG. 12 is a view showing the photoelectric sensors 221 to 226 Fig. 2 is a cross-sectional view of a touch input device for explaining hovering detection used;

도 10 및 도 11을 참조하면, 일 실시예에 따른 호버링 센서(200)는 광원(211 내지 216)과 광전 센서(221 내지 226)를 포함한다. 10 and 11, a hovering sensor 200 according to an embodiment includes light sources 211 to 216 and photoelectric sensors 221 to 226.

광원(211 내지 216)은 미리 설정된 광로를 따라 광을 조사한다. 광원(211 내지 216)은 터치 공간(150)의 상부에 광로가 형성되도록 돌출부(120)의 내측면(121) 상부에 배치될 수 있다. The light sources 211 to 216 irradiate light along a predetermined optical path. The light sources 211 to 216 may be disposed on the inner side surface 121 of the protrusion 120 such that an optical path is formed on the upper portion of the touch space 150. [

광원(211 내지 216)은 특정 범위의 파장(예컨대, 적외선)을 가지는 광을 조사할 수 있다. 복수의 광원(211 내지 216) 각각은 서로 다른 광로(X1 내지 X3, Y1 내지 Y3)를 따라 광을 조사할 수 있다. 예컨대, 복수의 광원(211 내지 216)은 도 11에 도시된 것과 같이 격자 무늬의 광로(X1 내지 X3, Y1 내지 Y3)를 따라 광을 조사할 수 있으나, 광원(211 내지 216)의 의해 형성되는 광로의 형상이 이에 한정되는 것은 아니다.The light sources 211 to 216 can irradiate light having a specific range of wavelengths (e.g., infrared rays). Each of the plurality of light sources 211 to 216 may emit light along different optical paths X1 to X3, Y1 to Y3. For example, the plurality of light sources 211 to 216 may irradiate light along the lattice pattern optical paths X1 to X3, Y1 to Y3 as shown in FIG. 11, but may be formed by the light sources 211 to 216 The shape of the optical path is not limited thereto.

광전 센서(221 내지 226)는 광을 검출한다. 복수의 광전 센서(221 내지 226) 각각은 복수의 광원(211 내지 216)이 형성하는 광로(X1 내지 X3, Y1 내지 Y3)의 대응되는 위치에 배치되어 광로(X1 내지 X3, Y1 내지 Y3)의 차단 여부를 검출할 수 있다. The photoelectric sensors 221 to 226 detect light. Each of the plurality of photoelectric sensors 221 to 226 is disposed at a corresponding position of the optical paths X1 to X3 and Y1 to Y3 formed by the plurality of light sources 211 to 216 to form the optical paths X1 to X3 and Y1 to Y3 It is possible to detect whether it is blocked or not.

또한, 광원(211 내지 216)이 특정 범위의 파장을 가지는 광을 조사하는 경우 광전 센서(221 내지 226)는 광원(211 내지 216)에서 조사되는 광의 파장과 대응되는 파장의 광만을 검출할 수 있다. 예를 들어, 광원(211 내지 216)이 적외선을 조사하는 경우, 광전 센서(221 내지 226)는 적외선의 검출할 수 있다. Also, when the light sources 211 to 216 irradiate light having a wavelength in a specific range, the photoelectric sensors 221 to 226 can detect only light having a wavelength corresponding to the wavelength of the light emitted from the light sources 211 to 216 . For example, when the light sources 211 to 216 irradiate infrared rays, the photoelectric sensors 221 to 226 can detect infrared rays.

광전 센서(221 내지 226)에 의해 검출된 광로(X1 내지 X3, Y1 내지 Y3)의 차단 여부에 기초하여 호버링 발생 여부가 검출될 수 있다. 도 12를 참조하면, 손가락이 터치 공간(150)의 높이(D1)보다 낮은 높이(D2)에 위치하면, 광원(211)에서 조사된 광이 손가락에 의해 차단된다. 즉, 호버링이 발생하면 손가락에 의해 광원(211)과 광전 센서(221) 사이에 형성된 광로(X1)가 차단된다. 그러므로, 프로세서(300)는 복수의 광전 센서(221 내지 226)를 이용하여 터치 공간(150)에 형성된 광로의 차단 여부를 판단하고, 복수의 광로 중 적어도 하나의 광로가 차단되면 호버링이 발생한 것으로 판단할 수 있다. Whether or not hovering has occurred can be detected based on whether or not the optical paths X1 to X3, Y1 to Y3 detected by the photoelectric sensors 221 to 226 are blocked. 12, when the finger is located at a height D2 lower than the height D1 of the touch space 150, the light emitted from the light source 211 is blocked by the finger. That is, when hovering occurs, the optical path X1 formed between the light source 211 and the photoelectric sensor 221 is blocked by the finger. Therefore, the processor 300 determines whether or not the optical path formed in the touch space 150 is blocked by using the plurality of photoelectric sensors 221 to 226, and determines that hovering occurs when at least one optical path among the plurality of optical paths is blocked can do.

광원(211 내지 216)과 광전 센서(221 내지 226)는 광로(X1 내지 X3, Y1 내지 Y3)가 터치 공간(150)의 상부에 형성되도록 돌출부(120)의 내측면(121)의 상부에 배치될 수 있다. 이와 같이 광로(X1 내지 X3, Y1 내지 Y3)를 터치 공간(150)의 상부에 배치함으로써, 호버링이 신속하게 검출될 수 있다. The light sources 211 to 216 and the photoelectric sensors 221 to 226 are disposed on the upper side of the inner side surface 121 of the protrusion 120 such that the optical paths X1 to X3 and Y1 to Y3 are formed on the upper portion of the touch space 150 . By disposing the optical paths X1 to X3, Y1 to Y3 in the upper portion of the touch space 150, hovering can be detected quickly.

또한, 프로세서(300)는 광전 센서(221 내지 226)의 광 검출 여부에 따라 복수의 광로의 차단 여부를 판단하고, 차단된 광로의 위치에 따라 호버링의 발생 좌표를 판단할 수 있다. In addition, the processor 300 may determine whether or not the plurality of optical paths are blocked according to whether the photoelectric sensors 221 to 226 detect light, and determine the occurrence coordinates of the hovering according to the position of the blocked optical path.

호버링의 위치에 따라 손가락에 의해 차단되는 광로는 달라지므로, 프로세서(300)는 광전 센서(221 내지 226)에 의해 검출된 광로의 차단 여부에 따라 호버링의 발생 좌표를 판단할 수 있다. 예컨대, 도 11에 도시된 것과 같이 제1 위치(P1)에 사용자의 손가락이 호버링되면, 손가락에 의하여 제1 위치(P1)를 지나는 광이 차단되므로, 광로 X1에 대응되는 광전 센서(221)와 광로 Y2에 대응되는 광전 센서(224)에서 광이 검출되지 않는다. 즉, 프로세서는 X1 광로와 Y1 광로가 모두 지나는 제1 위치(P1)를 호버링의 발생 좌표로 판단할 수 있다. Since the optical path blocked by the finger varies depending on the position of the hovering, the processor 300 can determine the origin of hovering depending on whether the optical path detected by the photoelectric sensors 221 to 226 is blocked. For example, as shown in FIG. 11, when the user's finger is hovered at the first position P1, the light passing through the first position P1 by the finger is blocked, so that the photoelectric sensor 221 corresponding to the optical path X1 Light is not detected in the photoelectric sensor 224 corresponding to the optical path Y2. That is, the processor can determine the first position P1 at which both the X1 optical path and the Y1 optical path pass, as the occurrence coordinates of the hovering.

한편, 도 11에서는 하나의 광원이 하나의 광로로 광을 조사하는 것으로 도시되어 있으나, 하나의 광원에 의해 복수의 광로가 형성될 수 있다. In FIG. 11, one light source irradiates light to one optical path, but a plurality of optical paths can be formed by one light source.

다시 도 3을 참조하면, 프로세서(300)는 차량(1)을 전반적으로 제어한다. 프로세서(300)는 터치 입력장치(100)를 통해 입력된 제어 명령에 따라 차량(1)의 기능을 전반적으로 제어할 수 있다. 프로세서(300)는 다수개의 논리 게이트들의 어레이로 구현될 수 있으며, 프로세서(300)에서 실행될 프로그램이 저장된 메모리를 포함할 수 있다. 또한, 프로세서(300)는 CPU 또는 GPU와 같은 범용적인 장치로 구현될 수 있으나, 이에 한정되는 것은 아니다. Referring again to FIG. 3, the processor 300 controls the vehicle 1 as a whole. The processor 300 can control the function of the vehicle 1 in accordance with the control command input through the touch input device 100. [ The processor 300 may be implemented as an array of logic gates and may include a memory in which programs to be executed by the processor 300 are stored. In addition, the processor 300 may be implemented as a general purpose apparatus such as a CPU or a GPU, but is not limited thereto.

프로세서(300)는 디스플레이(400)를 제어하여 사용자 인터페이스를 제공하고, 터치 입력장치(100)를 통해 입력된 터치를 인식하고, 인식된 터치에 따라 기능이 수행되도록 차량(1)의 각 구성에 제어 신호를 출력할 수 있다. 즉, 사용자는 디스플레이(400)에 표시되는 사용자 인터페이스를 보면서, 터치 입력장치(100)를 터치하여 차량(1)의 기능을 제어할 수 있다. The processor 300 controls the display 400 to provide a user interface and recognizes the touch input through the touch input device 100 and displays the touch on each configuration of the vehicle 1 so that the function is performed according to the recognized touch A control signal can be output. That is, the user can control the function of the vehicle 1 by touching the touch input device 100, while viewing the user interface displayed on the display 400. [

프로세서(300)는 사용자 인터페이스를 통해 터치가 발생하기 이전에 터치로 실행될 기능을 미리 표시하여 사용자의 조작을 용이하게 할 수 있다. 차량(1)의 경우 사용자 인터페이스가 표시되는 디스플레이(400)와 터치가 이루어지는 터치 입력장치(100)가 별도로 마련된다. 그러므로, 사용자는 터치 입력장치(100)를 터치할 때 어떠한 기능이 수행될지 명확히 인지하기 어렵다. 이에 프로세서(300)는 호버링 센서(200)에 의해 호버링이 감지되면 사용자의 터치가 발생한 것으로 판단하고, 사용자 인터페이스를 통해 터치로 실행된 기능에 대해 피드백을 제공할 수 있다. The processor 300 may display a function to be executed by a touch before the touch occurs through the user interface, thereby facilitating the operation of the user. In the case of the vehicle 1, a display 400 on which a user interface is displayed and a touch input device 100 on which a touch is performed are provided separately. Therefore, it is difficult for the user to clearly know what function will be performed when touching the touch input device 100. [ When the hovering sensor 200 detects the hovering, the processor 300 determines that the user's touch is generated, and provides feedback on the function performed through the user interface.

이와 같이 터치가 발생하기 이전에 터치로 실행될 기능에 대해 피드백을 제공함으로써, 터치 입력장치(100)로의 시선 분산을 최소화하고, 사용자의 터치 입력 오류를 최소화할 수 있다. 이하, 호버링에 따른 피드백 제공 방법에 대해 구체적으로 설명한다. By providing the feedback on the function to be executed by the touch before the touch occurs, it is possible to minimize the dispersion of the line of sight to the touch input device 100 and minimize the error of the touch input by the user. Hereinafter, a method of providing feedback according to hovering will be described in detail.

도 13은 일 실시예에 따른 호버링에 따른 피드백 제공 방법을 설명하기 위한 순서도이고, 도 14는 사용자 인터페이스의 일 실시예를 도시한 도면이다. FIG. 13 is a flowchart illustrating a method of providing feedback according to hovering according to an embodiment, and FIG. 14 is a diagram illustrating an embodiment of a user interface.

도 13를 참조하면, 차량(1)은 사용자 인터페이스를 표시한다(610). 사용자 인터페이스는 디스플레이(400)를 통해 제공될 수 있다. 사용자 인터페이스(410)는 도 14에 도시된 것과 같이 복수의 아이템(411 내지 414)을 포함할 수 있다. 복수의 아이템(411 내지 414) 각각은 소정의 기능과 매칭되어, 사용자가 아이템(411 내지 414)을 선택하면, 선택된 아이템(411 내지 414)에 대응되는 기능이 수행된다. 이때, 복수의 아이템(211 내지 214)은 터치 입력장치(100)의 형상에 대응되는 형상으로 배치될 수 있으나, 이에 한정되는 것은 아니다. Referring to FIG. 13, the vehicle 1 displays a user interface (610). The user interface may be provided via the display 400. The user interface 410 may include a plurality of items 411-414, as shown in FIG. Each of the plurality of items 411 to 414 is matched with a predetermined function, and when the user selects items 411 to 414, functions corresponding to the selected items 411 to 414 are performed. At this time, the plurality of items 211 to 214 may be arranged in a shape corresponding to the shape of the touch input device 100, but the present invention is not limited thereto.

차량(1)은 터치 공간(150)에 호버링 발생 여부를 판단한다(620). 호버링 센서(200)는 터치 공간(150)에 포인터가 위치하는지 판단하고, 터치 공간(150)에 포인터가 위치하면 호버링이 발생한 것으로 판단할 수 있다. 이때, 터치 공간(150)에 포인터가 위치하는지 판단하는 방법은 호버링 센서(200)의 종류에 따라 달라질 수 있다. 예를 들어, 호버링 센서(200)가 도 12과 같이 광원(211 내지 216)과 광전 센서(221 내지 226)로 구성되는 경우 광로의 차단 여부에 기초하여 호버링을 판단할 수 있다. The vehicle 1 determines whether hovering has occurred in the touch space 150 (620). The hovering sensor 200 may determine whether a pointer is positioned in the touch space 150 and determine that hovering has occurred when the pointer is positioned in the touch space 150. [ At this time, the method of determining whether the pointer is located in the touch space 150 may vary depending on the type of the hovering sensor 200. For example, when the hovering sensor 200 is composed of the light sources 211 to 216 and the photoelectric sensors 221 to 226 as shown in FIG. 12, hovering can be determined based on whether or not the optical path is blocked.

또한, 프로세서(300)는 터치 센서(190)의 출력에 기초하여 터치와 호버링을 구분할 수 있다. 프로세서(300)는 호버링 센서(200)에 의해 호버링이 감지될 때 터치가 감지되면 사용자의 터치 입력으로 인식하고, 사용자의 터치가 감지되지 않으면 포인터의 호버링이 발생한 것으로 인식할 수 있다. In addition, the processor 300 can distinguish the touch from the hovering based on the output of the touch sensor 190. The processor 300 recognizes that the hovering is detected when the hovering is detected by the hovering sensor 200, and recognizes that the hovering of the pointer occurs when the user's touch is not detected.

호버링 발생이 감지되면(620의 예), 차량(1)은 터치시 실행될 기능에 대해 피드백을 표시한다(630). 즉, 프로세서(300)는 호버링이 감지되면 사용자가 터치를 입력할 것으로 판단하고, 사용자 인터페이스를 통해 사용자가 터치 영역을 터치할 경우 선택될 기능에 대응에 대해 피드백을 제공할 수 있다. If the hovering occurrence is detected (620), the vehicle 1 displays 630 feedback on the function to be performed upon touching. That is, the processor 300 determines that the user inputs a touch when hovering is detected, and can provide feedback on the corresponding function to be selected when the user touches the touch area through the user interface.

일례로, 터치시 실행될 기능이 화면 전체에 관한 것이면, 화면 전체가 깜빡이는 형태로 피드백이 제공될 수 있다. For example, if the function to be executed at the time of touching is related to the entire screen, feedback can be provided in a form in which the entire screen blinks.

다른례로, 터치 영역의 터치시 실행되는 기능이 사용자 인터페이스에 포함된 아이템에 대응되는 경우, 터치로 실행될 아이템을 다른 아이템에 비하여 선명하게 표시하거나, 크게 표시하여 실행될 기능에 대한 피드백을 제공할 수 있다. For example, when the function executed when the touch area is touched corresponds to the item included in the user interface, the item to be executed by the touch may be clearly displayed or displayed larger than the other items, thereby providing feedback on the function to be executed have.

이와 같이, 사용자 인터페이스를 통해 터치가 발생하기 이전에 터치로 실행될 기능을 표시함으로써, 사용자의 시선이 터치 입력장치(100)로 분산되는 것을 방지할 수 있으며, 사용자에게 터치로 실행될 기능에 대해 명확한 피드백을 제공하여 터치 입력장치(100)의 조작 실수를 최소화할 수 있다. By displaying the functions to be executed by the touch before the touch is generated through the user interface, it is possible to prevent the user's line of sight from being dispersed to the touch input device 100, and it is possible to provide the user with clear feedback Thereby minimizing the number of operation mistakes of the touch input device 100.

한편, 프로세서(300)는 터치 입력장치(100)의 터치 영역을 복수의 영역으로 분할하고, 각 영역별로 다른 기능을 매칭할 수 있다. 즉, 프로세서(300)는 터치가 발생한 영역에 따라 다른 기능을 수행할 수 있다. 이하, 도면을 참조하여 터치 발생 위치에 따라 다른 기능이 수행되는 경우의 피드백 제공 방법에 대해 설명한다. Meanwhile, the processor 300 may divide the touch area of the touch input device 100 into a plurality of areas, and may match different functions in each area. That is, the processor 300 may perform different functions depending on the area where the touch occurs. Hereinafter, a method of providing feedback when another function is performed according to the location of the touch occurrence will be described with reference to the drawings.

도 15는 다른 실시예에 따른 호버링에 따른 피드백 제공 방법을 설명하기 위한 순서도이다. FIG. 15 is a flowchart for explaining a method of providing feedback according to hovering according to another embodiment.

도 15를 참조하면, 차량(1)은 사용자 인터페이스를 표시하고(710), 터치 공간(150)에 호버링 발생 여부를 판단한다(720). 프로세서(300)는 호버링이 발생되면 호버링의 발생 좌표를 판단할 수 있다. 호버링의 발생 좌표는 호버링이 감지된 위치를 의미하는 것으로, 호버링 발생 좌표는 터치 영역과 대응되는 X-Y평면으로 정의될 수 있다. Referring to FIG. 15, the vehicle 1 displays a user interface 710, and determines whether hovering occurs in the touch space 150 (720). Processor 300 may determine the origin of hovering when hovering occurs. The occurrence coordinate of the hovering means a position where the hovering is sensed, and the hovering occurrence coordinate can be defined as the X-Y plane corresponding to the touch region.

호버링의 발생 좌표 판단 방법은 호버링 센서(200)의 종류에 따라 달라질 수 있다. 예컨대, 호버링 센서(200)가 정전용량 방식으로 포인터의 호버링을 인식하는 경우 정전용량의 변화 좌표에 기초하여 호버링 발생 좌표를 결정하고, 호버링 센서(200)가 자기 방식으로 포인터의 호버링을 인식하는 경우, 자기 변화의 좌표에 기초하여 호버링 발생 좌표를 결정하고, 호버링 센서(200)가 광전 방식으로 포인터의 호버링을 인식하는 경우, 도 11에 도시된 것과 같이 복수의 광전 센서(221 내지 226)에 의해 검출된 광로의 차단 여부에 기초하여 호버링 발생 좌표를 결정할 수 있다. The method of determining the occurrence coordinates of the hovering may vary depending on the type of the hovering sensor 200. [ For example, when the hovering sensor 200 recognizes the hovering of the pointer in a capacitive manner, the hovering occurrence coordinate is determined based on the coordinate of the capacitance change, and when the hovering sensor 200 recognizes the hovering of the pointer in a self- , The hovering occurrence coordinate is determined based on the coordinates of the magnetic change, and when the hovering sensor 200 recognizes the hovering of the pointer by photoelectric method, it is determined by the plurality of photoelectric sensors 221 to 226 The hovering occurrence coordinates can be determined based on whether or not the detected optical path is blocked.

호버링 발생이 감지되면(720의 예), 차량(1)은 호버링의 발생 좌표에 따라 피드백을 제공할 기능을 결정하고(730), 사용자 인터페이스를 통해 결정된 기능에 대한 피드백을 제공한다(740). 이하, 도 16 및 도 17에 기초하여 피드백 제공에 대해 구체적으로 설명한다.If hovering occurrence is detected (720 example), the vehicle 1 determines 730 the function to provide feedback according to the origin of the hovering, and provides 740 feedback on the determined functionality via the user interface. Hereinafter, feedback provision will be described in detail based on Figs. 16 and 17. Fig.

도 16은 호버링의 발생 좌표에 따른 피드백 제공의 일례를 설명하기 위한 도면이다. Fig. 16 is a diagram for explaining an example of providing feedback according to the occurrence coordinates of hovering.

도 16을 참조하면, 메뉴를 표시하는 메뉴 인터페이스(410)는 사용자의 터치로 실행될 기능에 대응되는 복수의 아이템(411 내지 414)을 포함한다. 구체적으로, 메뉴 인터페이스(410)는 네비게이션 기능을 실행하는 네비게이션 아이템(211), 음악 재생을 수행하는 음악 아이템(212), 인터넷을 실행하는 인터넷 아이템(413), 및 전화 기능을 실행하는 전화 아이템(414)을 포함한다. 복수의 아이템(411 내지 414)은 터치 입력장치(100)의 터치 영역의 형상에 대응되도록 원형으로 배치될 수 있다. Referring to FIG. 16, a menu interface 410 for displaying a menu includes a plurality of items 411 to 414 corresponding to functions to be executed by a user's touch. Specifically, the menu interface 410 includes a navigation item 211 for executing a navigation function, a music item 212 for performing music reproduction, an internet item 413 for executing the Internet, and a telephone item 414). The plurality of items 411 to 414 may be arranged in a circle so as to correspond to the shape of the touch region of the touch input apparatus 100.

프로세서(300)는 복수의 아이템의 배치에 기초하여 터치 영역을 가상으로 분할할 수 있다. 예컨대, 프로세서(300)는 터치 영역을 상단 영역(U), 하단 영역(D), 좌측 영역(L), 및 우측 영역(R)으로 분할할 수 있다. The processor 300 may virtually divide the touch region based on the arrangement of the plurality of items. For example, the processor 300 may divide the touch region into an upper region U, a lower region D, a left region L, and a right region R. [

프로세서(300)는 터치가 발생하면 터치가 발생한 영역에 대응되는 아이템을 실행한다. 예컨대, 사용자가 상단 영역을 터치하면 네비게이션 아이템(411)에 대응되는 네비게이션 기능을 실행하고, 사용자가 하단 영역을 터치하면 인터넷 아이템(413)에 대응되는 인터넷 기능을 수행한다. When a touch occurs, the processor 300 executes an item corresponding to an area where the touch occurs. For example, when the user touches the upper area, the navigation function corresponding to the navigation item 411 is executed. When the user touches the lower area, the Internet function corresponding to the Internet item 413 is performed.

프로세서(300)는 호버링이 발생하면, 호버링 발생 좌표에 대응되는 위치를 터치할 경우 실행될 기능에 대해 피드백을 제공할 수 있다. The processor 300 may provide feedback on the function to be executed when a position corresponding to the hovering occurrence coordinate is touched when hovering occurs.

구체적으로, 호버링이 발생하면, 프로세서(300)는 호버링의 발생 좌표에 판단하고, 호버링의 발생 좌표에서 터치가 입력되는 경우 실행될 아이템을 결정한다. 이와 같이 호버링의 발생 좌표에 따라 결정되는 아이템을 실행 아이템으로 정의한다. Specifically, when hovering occurs, the processor 300 determines the occurrence coordinate of the hovering, and determines the item to be executed when a touch is input in the occurrence coordinate of the hovering. In this way, an item determined according to the occurrence coordinates of hovering is defined as an execution item.

예컨대, 호버링 발생 좌표가 상단 영역이면 상단 영역에 대응되는 네비게이션 아이템(411)이, 호버링 발생 좌표가 우측 영역이면 우측 영역에 대응되는 음악 아이템(412)이, 호버링 발생 좌표가 하단 영역이면 하단 영역에 대응되는 인터넷 아이템(413)이, 호버링 발생 좌표가 우측 영역이면 우측 영역에 대응되는 전화 아이템(414)이 실행 아이템으로 결정된다. For example, if the hovering occurrence coordinate is the upper region, the navigation item 411 corresponding to the upper region is a music item 412 corresponding to the right region if the hovering occurrence coordinate is the right region, The corresponding Internet item 413 is determined as the execution item if the hovering occurrence coordinate is the right side area, and the telephone item 414 corresponding to the right side area is determined.

그리고, 프로세서(300)는 결정된 실행 아이템에 대한 피드백이 제공되도록 메뉴 인터페이스를 변경할 수 있다. 예컨대, 사용자가 터치 영역을 터치할 때 실행될 실행 아이템이 네비게이션 아이템(411)이면, 네비게이션 아이템(411)을 다른 아이템(412 내지 414)보다 선명하게 표시하여, 현재 호버링 위치를 터치할 때 네비게이션 기능이 실행됨을 피드백할 수 있다. The processor 300 may then change the menu interface to provide feedback for the determined execution item. For example, if the execution item to be executed when the user touches the touch area is the navigation item 411, the navigation item 411 is displayed more clearly than the other items 412 to 414 so that when the current hovering position is touched, Can be fed back.

도 17은 호버링의 발생 좌표에 따른 피드백 기능 선택의 다른례를 설명하기 위한 도면이다. 17 is a diagram for explaining another example of the feedback function selection according to the occurrence coordinates of hovering.

도 17를 참조하면, 음악 제공 인터페이스(420)는 사용자의 터치로 실행된 기능에 대응되는 복수의 아이템(421 내지 423)을 포함한다. 구체적으로, 음악 제공 인터페이스는 재생되는 음악을 이전 음악으로 변경하는 되감기 아이템(421), 재생되는 음악을 정지하는 정지 아이템(422), 재생되는 음악을 다음 음악으로 변경하는 건너뛰기 아이템(423)을 포함할 수 있다. Referring to FIG. 17, the music providing interface 420 includes a plurality of items 421 to 423 corresponding to functions executed by a user's touch. Specifically, the music providing interface includes a rewind item 421 for changing the music to be played back to the previous music, a stop item 422 for stopping the music to be played back, and a skip item 423 for changing the music to be played back to the next music .

프로세서(300)는 3개의 아이템(421 내지 423) 배치에 기초하여 터치 공간(150)을 3개의 영역(L, C, R)으로 분할할 수 있다. 예컨대, 프로세서(300)는 되감기 아이템(421)에 대응되는 좌측 영역(L), 정지 아이템(422)에 대응되는 중앙 영역(C), 건너뛰기 아이템(423)에 대응되는 우측 영역(R)으로 터치 영역을 분할할 수 있다. The processor 300 may divide the touch space 150 into three areas L, C, and R based on the arrangement of the three items 421 to 423. For example, the processor 300 may include a left area L corresponding to the rewind item 421, a center area C corresponding to the stop item 422, and a right area R corresponding to the skip item 423 The touch area can be divided.

그리고, 프로세서(300)는 사용자의 터치가 발생하면 터치가 발생한 영역에 대응되는 아이템을 실행한다. 예컨대, 사용자가 중앙 영역(C)을 터치하면 정지 아이템(422)에 대응되는 음악의 정지를 수행하고, 사용자가 좌측 영역(L)을 터치하면 되감기 아이템(421)에 대응되는 이전 음악의 재생을 수행한다. Then, the processor 300 executes an item corresponding to the area where the touch occurs when a touch of the user occurs. For example, if the user touches the center area C, music corresponding to the stop item 422 is stopped. If the user touches the left area L, playback of the previous music corresponding to the rewind item 421 is performed .

한편, 호버링이 발생하면 호버링 좌표에 대응되는 위치를 터치할 경우 실행될 기능에 대한 피드백을 제공할 수 있다. On the other hand, if hovering occurs, it is possible to provide feedback on a function to be performed when a position corresponding to hovering coordinates is touched.

프로세서(300)는 호버링의 발생 좌표에 따라 피드백이 제공될 실행 아이템을 결정하고, 음악 제공 인터페이스(420)를 이에 대한 피드백을 제공할 수 있다. 예컨대, 호버링의 발생 좌표가 좌측 영역(L)인 경우 좌측 영역(L)에 대응되는 건너뛰기 아이템(211)을 실행 아이템으로 결정하고, 건너뛰기 아이템(211)을 더 크고 선명하게 표시할 수 있다. The processor 300 may determine an execution item to be fed back based on the origin of the hovering and provide the music providing interface 420 with feedback thereon. For example, when the occurrence coordinate of the hovering is the left area L, the skip item 211 corresponding to the left area L can be determined as an execution item, and the skip item 211 can be displayed larger and clear .

이와 같이 호버링의 발생 좌표에 따라 터치시에 실행된 기능에 대해 피드백을 제공함으로써, 사용자의 터치 조작의 더 직관적이고 편리하게 할 수 있다. 또한, 사용자는 터치 입력장치(100)로 시선을 분산하지 않고, 호버링을 통해 터치로 실행될 기능을 선택할 수 있다. In this manner, the feedback of the function executed at the time of touching is provided in accordance with the coordinates of occurrence of the hovering, so that the touch operation of the user can be performed more intuitively and conveniently. In addition, the user can select a function to be executed by touching through the hovering without dispersing the line of sight to the touch input device 100. [

도 18는 또 다른 실시예에 따른 호버링에 따른 피드백 제공 방법을 설명하기 위한 순서도이다. 18 is a flowchart for explaining a method of providing feedback according to hovering according to another embodiment.

도 19는 호버링 좌표의 변경을 이용한 실행 기능 변경을 설명하기 위한 도면이다.19 is a diagram for explaining an execution function change using a change of hovering coordinates.

도 18를 참조하면, 차량(1)은 사용자 인터페이스를 표시하고(810), 터치 공간(150)에 호버링 발생 여부를 판단한다(820). Referring to FIG. 18, the vehicle 1 displays a user interface 810, and determines whether hovering occurs in the touch space 150 (820).

호버링 발생이 감지되면(820의 예), 차량(1)은 터치 영역 선택시 실행될 기능에 대한 피드백을 제공한다(830). 이때, 실행될 기능은 미리 선택될 것일 수 있으나, 도 15 내지 도 17에서 설명한 것과 같이 호버링의 발생 좌표에 따라 결정될 수도 있다. If hovering occurrence is detected (820 example), the vehicle 1 provides feedback on the function to be performed in touch region selection (830). At this time, the function to be executed may be selected in advance, but may be determined according to the occurrence coordinates of the hovering as described in Figs.

차량(1)은 호버링 발생 좌표 변경 여부를 판단한다(840). 호버링 발생 좌표가 변경되면(840의 예), 차량(1)은 호버링 발생 좌표의 변경에 기초하여 실행될 기능을 선택하고(850), 선택된 기능에 대한 피드백을 제공한다(860). The vehicle 1 determines whether the hovering occurrence coordinate has been changed (840). If the hovering origin coordinate is changed (840 example), the vehicle 1 selects a function to be performed (850) based on the change of the hovering origin coordinate and provides feedback for the selected function (860).

일 실시예로, 도 16 및 도 17과 같이 터치 영역이 복수의 영역으로 가상으로 분할되어 사용되는 경우, 호버링의 발생 좌표의 영역 변경에 따라 터치로 실행될 기능이 달라진다. 그러므로, 프로세서(300)는 호버링 발생 좌표의 영역이 변경될 때마다, 변경된 영역에 대응되는 기능을 선택하고, 선택된 기능에 대응되는 아이템을 실행 아이템으로 결정하고, 결정된 실행 아이템에 대한 피드백을 제공할 수 있다. 16 and 17, when the touch area is divided into a plurality of areas, the function to be performed by the touch changes depending on the area change of the occurrence coordinates of hovering. Therefore, each time the area of the hovering occurrence coordinate is changed, the processor 300 selects a function corresponding to the changed area, determines an item corresponding to the selected function as an execution item, and provides feedback on the determined execution item .

다른 실시예로, 프로세서(300)는 호버링의 발생 좌표에 변경에 따라 터치로 실행될 기능을 변경할 수 있다. 예컨대, 도 19에 도시된 것과 같이 호버링의 발생 좌표가 제1 위치(P1)에서 제2 위치(P2)로 회전되면, 프로세서(300)는 호버링 발생 좌표의 이동에 따라 실행될 실행 아이콘을 음악 아이콘(432), 영화 아이콘(433), 전화 아이콘(434) 순서로 변경되고, 호버링에 의해 선택된 실행 아이콘은 다른 아이콘보다 선명하게 표시될 수 있다.In another embodiment, the processor 300 may change the function to be performed with a touch according to the change in the origin of hovering. 19, when the occurrence coordinate of the hovering is rotated from the first position P1 to the second position P2, the processor 300 sets the execution icon to be executed according to the movement of the hovering occurrence coordinates to the music icon ( 432, movie icon 433, and telephone icon 434, and the execution icon selected by hovering can be displayed more clearly than other icons.

한편, 또 다른 실시예에 따르면, 터치 입력장치(100)의 내측면(121) 및 내측면(121)과 외측면(123)을 연결하는 등성이(122; ridge) 중 적어도 어느 하나는 터치 입력이 가능하도록 마련될 수 있다. 이하, 도 20 내지 도 22를 참조하여 터치 입력이 가능하도록 구현된 내측면(121) 또는 등성이(122)에 대하여 설명한다.According to another embodiment of the present invention, at least one of the ridges 122 connecting the inner side surface 121 and the inner side surface 121 and the outer side surface 123 of the touch input device 100 is a touch input . Hereinafter, the inner side surface 121 or the equipotential surface 122 implemented to enable touch input will be described with reference to FIGS. 20 to 22. FIG.

도 20은 또 다른 실시예에 따른 터치 입력장치의 조작 예시도이고, 도 21은 도 20과 또 다른 실시예에 따른 터치 입력장치의 조작 예시도이며, 도 22는 도 20 또는 도 21에 도시된 실시예에 따라 터치 입력장치를 조작했을 경우, 및 호버링이 발생한 경우 표시되는 화면의 예시도이다.Fig. 20 is an operational example of a touch input device according to still another embodiment, Fig. 21 is an operational example of the touch input device according to still another embodiment with Fig. 20, and Fig. FIG. 8 is an exemplary view of a screen displayed when the touch input device is operated according to the embodiment, and when hovering occurs.

도 20을 참조하면, 또 다른 실시예에 따른 터치 입력장치(100)의 내측면(121)에는 도 3과 관련하여 전술한 터치 센서(190)가 마련될 수 있고, 내측면(121)은 사용자가 내측면(121)을 따라 시계 방향(CL) 또는 반시계 방향(CCL)으로 제스처를 용이하게 입력 가능하도록 오목한 곡면으로 구현될 수도 있다.20, the touch sensor 190 described above with reference to FIG. 3 may be provided on the inner surface 121 of the touch input device 100 according to another embodiment, May be embodied as a concave curved surface so that the gesture can be easily entered in the clockwise direction CL or in the counterclockwise direction CCL along the inner side 121.

또한, 도 21을 참조하면, 또 다른 실시에에 따른 터치 입력장치(100)의 등성이(122)의 경우에도, 도 3과 관련하여 전술한 터치 센서(190)가 마련될 수 있고, 등성이(122)는 사용자로부터 시계 방향(CL) 또는 반시계 방향(CCL)으로의 제스처를 입력 받을 수 있다.21, the touch sensor 190 described above with reference to FIG. 3 may be provided in the case of the touch pad 122 of the touch input device 100 according to still another embodiment, May receive a gesture from the user in the clockwise direction CL or in the counterclockwise direction CCL.

한편, 도 16과 관련하여 전술한 바와 달리, 프로세서(300)는 터치 입력장치(100)의 내측면(121) 또는 등성이(122)에 입력된 사용자의 터치 신호에 따라 가상으로 분할된 영역을 이동하며 실행 아이템을 결정하고, 실행 아이템이 결정되면, 사용자의 호버링 입력에 따라 실행 아이템이 표시되는 영역 내에서 커서가 세밀하게 이동하도록 할 수 있다.16, the processor 300 moves the virtually divided area according to the user's touch signal input to the inner side 121 or the equipotential 122 of the touch input device 100, And determine an execution item, and when the execution item is determined, the cursor may be moved finely in an area where the execution item is displayed according to the hovering input of the user.

도 22를 참조하면, 프로세서(300)는 내측면(121) 또는 등성이(122)에서 터치 입력이 발생하면 터치 입력의 방향에 따라 실행 아이템을 결정한다. Referring to FIG. 22, the processor 300 determines an execution item according to the direction of the touch input when a touch input occurs in the inner side 121 or the isosceles 122.

예컨대, 현재 실행 아이템이 전화 아이템(414)인 상태에서 시계 방향으로 내측면(121) 또는 등성이(122)에서 터치 신호가 입력된 경우 시계 방향에 대응되는 네비게이션 아이템(411)이 다음 실행 아이템으로서 결정되고, 반시계 방향으로 내측면(121) 또는 등성이(122)에서 터치 신호가 입력된 경우 반시계 방향에 대응되는 인터넷 아이템(413)이 다음 실행 아이템으로서 결정된다.For example, when a touch signal is input from the inner side surface 121 or the isosceles 122 in the clockwise direction with the current execution item being the telephone item 414, the navigation item 411 corresponding to the clockwise direction is determined as the next execution item And when the touch signal is inputted from the inner side surface 121 or the isosceles 122 in the counterclockwise direction, the internet item 413 corresponding to the counterclockwise direction is determined as the next execution item.

그리고, 프로세서(300)는 결정된 다음 실행 아이템에 대한 피드백이 제공되도록 메뉴 인터페이스를 변경할 수 있다. 예컨대, 다음 실행 아이템이 네비게이션 아이템(411)으로서 결정된 경우, 프로세서(300)는 네비게이션 아이템(411)을 다른 아이템(412 내지 414)보다 선명하게 표시하여, 현재 네비게이션 기능이 결정됨을 사용자에게 피드백할 수 있다. Then, the processor 300 can change the menu interface so that feedback is provided for the next determined execution item. For example, if the next executable item is determined as the navigation item 411, the processor 300 may display the navigation item 411 more clearly than the other items 412-414 to feedback to the user that the current navigation function is determined have.

더 나아가, 프로세서(300)는 사용자의 호버링 입력에 따라 메뉴 인터페이스(410) 상에서 커서(415)가 세밀하게 이동하도록 할 수 있다. Further, the processor 300 may cause the cursor 415 to move finely on the menu interface 410 in accordance with the hovering input of the user.

예컨대, 네비게이션 아이템(411)이 다음 실행 아이템으로서 결정된 경우, 프로세서(300)는 실행 아이템이 표시되는 영역 내에서 사용자의 호버링 입력에 따라 커서(415)를 이동시킬 수 있고, 커서(415)의 이동방향은 시계 방향 또는 반시계 방향 등에 제한되지 않을 수 있다. 이러한 커서(415)의 이동은 호버링 발생 좌표에 대응하도록 메뉴 인터페이스(410) 상에서 표시될 수 있다.이상에서는 개시된 발명의 일 실시예에 대하여 도시하고 설명하였지만, 개시된 발명은 상술한 특정의 실시예에 한정되지 아니하며 청구범위에서 청구하는 요지를 벗어남 없이 개시된 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의하여 다양한 변형실시가 가능함을 물론이고 이러한 변형실시들은 개시된 발명으로부터 개별적으로 이해될 수 없다.For example, if the navigation item 411 is determined as the next execution item, the processor 300 may move the cursor 415 in accordance with the user's hovering input within the area in which the execution item is displayed, The direction may not be limited to clockwise or counterclockwise direction or the like. The movement of the cursor 415 may be displayed on the menu interface 410 so as to correspond to the hovering occurrence coordinates. Although the embodiment of the disclosed invention has been shown and described above, the disclosed invention is not limited to the specific embodiment It will be understood by those skilled in the art that various changes in form and details may be made therein without departing from the spirit and scope of the invention as defined by the appended claims.

1: 차량
100: 터치 입력장치
200: 호버링 센서
300: 프로세서
400: 디스플레이
1: vehicle
100: Touch input device
200: hovering sensor
300: Processor
400: Display

Claims (20)

사용자 인터페이스가 표시되는 디스플레이;
내측으로 요입된 터치 공간을 가지고, 상기 터치 공간에서의 호버링 발생을 감지하는 터치 입력장치; 및
상기 터치 공간에 호버링이 감지되면, 상기 사용자 인터페이스를 통해 상기 터치 입력장치의 터치 시에 실행될 기능에 대해 피드백을 제공하는 프로세서;를 포함하되,
상기 터치 입력장치는, 터치 영역이 마련된 요입부와, 상기 요입부 외측에 마련되어 상기 터치 공간을 형성하는 돌출부와, 상기 돌출부의 내측면, 및 등성이에 마련되어 사용자의 터치를 감지하는 터치 센서를 포함하고,
상기 등성이에 마련된 터치 센서는 사용자로부터 시계방향 또는 반시계방향의 제스처를 입력받는 차량.
A display on which a user interface is displayed;
A touch input device having a touched space internally recessed to sense occurrence of hovering in the touch space; And
And a processor for providing feedback on a function to be executed at the touch of the touch input device through the user interface when hovering is detected in the touch space,
The touch input device includes a recessed portion provided with a touch region, a protrusion provided outside the recessed portion to form the touch space, and a touch sensor provided on an inner side of the protrusion, ,
Wherein the touch sensor provided on the isosceles receives a clockwise or counterclockwise gesture from a user.
제1항에 있어서,
상기 프로세서는, 터치로 실행된 기능에 대응되는 적어도 하나의 아이템이 포함되도록 상기 사용자 인터페이스를 구성하는 차량.
The method according to claim 1,
Wherein the processor configures the user interface such that at least one item corresponding to a function executed with a touch is included.
제2항에 있어서,
상기 프로세서는, 상기 적어도 하나의 아이템 중 상기 터치 입력장치의 터치 시에 실행될 기능에 대해 피드백을 제공할 실행 아이템을 결정하는 차량.
3. The method of claim 2,
Wherein the processor determines an execution item to provide feedback on a function to be executed at the touch of the touch input device among the at least one item.
제3항에 있어서,
상기 프로세서는, 상기 호버링의 발생 좌표에 기초하여 상기 실행 아이템을 결정하는 차량.
The method of claim 3,
Wherein the processor determines the execution item based on the occurrence coordinates of the hovering.
제4항에 있어서,
상기 프로세서는, 상기 적어도 하나의 아이템의 배치에 따라 상기 터치 공간을 복수의 영역으로 분할하고, 상기 복수의 영역 중 상기 호버링의 발생 좌표에 대응되는 영역의 아이템을 상기 실행 아이템으로 결정하는 차량.
5. The method of claim 4,
Wherein the processor divides the touch space into a plurality of areas in accordance with the arrangement of the at least one item and determines an item of an area corresponding to the occurrence coordinates of the hovering among the plurality of areas as the execution item.
제3항에 있어서,
상기 프로세서는, 상기 호버링의 발생 좌표 변화에 대응하여 상기 실행 아이템을 변경하는 차량.
The method of claim 3,
Wherein the processor changes the execution item in response to a coordinate change of occurrence of the hovering.
제1항에 있어서,
상기 터치 입력장치는 상기 돌출부의 상측에 마련되어 상기 호버링을 검출하는 호버링 센서를 포함하는 차량.
The method according to claim 1,
Wherein the touch input device comprises a hovering sensor provided above the projection to detect the hovering.
제7항에 있어서,
상기 호버링 센서는 미리 설정된 광로를 통해 조사되는 광을 검출하는 복수의 광원 센서;를 포함하는 차량.
8. The method of claim 7,
Wherein the hovering sensor comprises a plurality of light source sensors for detecting light irradiated through a predetermined optical path.
제8항에 있어서,
상기 프로세서는, 상기 복수의 광원 센서의 출력에 기초하여 상기 광로의 차단 여부를 판단하고, 상기 광로의 차단 여부에 기초하여 상기 호버링이 발생된 좌표를 판단하는 차량.
9. The method of claim 8,
Wherein the processor determines whether or not the optical path is blocked based on the outputs of the plurality of light source sensors and determines coordinates where the hovering has occurred based on whether or not the optical path is blocked.
제1항에 있어서,
상기 터치 입력장치는, 상기 요입부 및 상기 돌출부에 마련되어 사용자의 터치를 감지하는 터치 센서;를 더 포함하는 차량.
The method according to claim 1,
Wherein the touch input device further comprises a touch sensor provided on the concave portion and the protrusion for sensing a touch of a user.
제1항에 있어서,
상기 터치 입력장치는, 상기 돌출부의 내측면 또는 등성이에 마련되어 사용자의 터치를 감지하는 터치 센서를 포함하는 차량.
The method according to claim 1,
Wherein the touch input device comprises a touch sensor provided on an inner surface or an isosceles of the protrusion for sensing a touch of a user.
제11항에 있어서,
상기 터치 센서는 사용자의 시계 방향 또는 반시계 방향으로의 터치를 감지하는 차량.
12. The method of claim 11,
Wherein the touch sensor senses a touch of a user in a clockwise or counterclockwise direction.
제11항에 있어서,
상기 프로세서는 상기 터치 센서에서 사용자의 터치가 감지되면 상기 사용자 인터페이스를 통해 상기 호버링에 대한 피드백과 다른 피드백을 사용자에게 제공하는 차량.
12. The method of claim 11,
Wherein the processor provides the user with feedback on the hovering and other feedback via the user interface when a touch of the user is detected on the touch sensor.
내측으로 요입된 터치 공간을 가지는 터치 입력 장치를 포함한 차량의 제어방법에 있어서,
사용자 인터페이스를 표시하는 표시 단계;
상기 터치 공간에서 호버링 발생을 감지하는 감지 단계;
상기 터치 공간에 호버링이 감지되면 상기 사용자 인터페이스를 통해 상기 터치 입력장치의 터치 시에 실행될 기능에 대해 피드백을 제공하는 피드백 단계;를 포함하되,
상기 터치 입력 장치는, 터치 영역이 마련된 요입부와, 상기 요입부 외측에 마련되어 상기 터치 공간을 형성하는 돌출부와, 상기 돌출부의 내측면, 및 등성이에 마련되어 사용자의 터치를 감지하는 터치 센서를 포함하고, 상기 등성이에 마련된 터치 센서는 사용자로부터 시계방향 또는 반시계방향의 제스처를 입력받는 차량의 제어방법.
A method of controlling a vehicle including a touch input device having a touch space recessed inward,
A display step of displaying a user interface;
Sensing a hovering occurrence in the touch space;
And a feedback step of providing feedback on a function to be executed when the touch input device is touched through the user interface when hovering is detected in the touch space,
The touch input device includes a recessed portion provided with a touch region, a protrusion provided outside the recessed portion to form the touch space, and a touch sensor provided on an inner side of the protrusion, And the touch sensor provided in the isosceles receives a clockwise or counterclockwise gesture from a user.
제14항에 있어서,
상기 표시 단계는, 터치로 실행된 기능에 대응되는 적어도 하나의 아이템이 포함되도록 상기 사용자 인터페이스를 구성하는 단계;를 포함하는 차량의 제어방법.
15. The method of claim 14,
And configuring the user interface so that at least one item corresponding to a function executed by a touch is included in the display step.
제15항에 있어서,
상기 피드백 단계는, 상기 적어도 하나의 아이템 중 상기 터치 입력장치의 터치 시에 실행될 기능에 대응되는 실행 아이템을 결정하는 단계;를 포함하는 차량의 제어방법.
16. The method of claim 15,
Wherein the feedback step comprises the step of determining an execution item corresponding to a function to be executed at the touch of the touch input device among the at least one item.
제16항에 있어서,
상기 피드백 단계는, 상기 호버링의 발생 좌표에 기초하여 상기 실행 아이템을 결정하는 단계;를 더 포함하는 차량의 제어방법.
17. The method of claim 16,
Wherein the feedback step further comprises: determining the execution item based on the occurrence coordinates of the hovering.
제17항에 있어서,
상기 피드백 단계는, 상기 적어도 하나의 아이템의 배치에 따라 상기 터치 공간을 복수의 영역으로 분할하는 단계;
상기 호버링의 발생 좌표에 대응되는 영역을 결정하는 단계;
상기 결정된 영역에 대응되는 아이템을 상기 실행 아이템으로 결정하는 단계;를 더 포함하는 차량의 제어방법.
18. The method of claim 17,
Wherein the feedback step comprises: dividing the touch space into a plurality of regions according to the arrangement of the at least one item;
Determining an area corresponding to the occurrence coordinate of the hovering;
And determining an item corresponding to the determined area as the execution item.
제16항에 있어서,
상기 피드백 단계는, 상기 호버링의 발생 좌표 변화에 대응하여 상기 실행 아이템을 변경하는 단계;를 더 포함하는 차량의 제어방법.
17. The method of claim 16,
Wherein the feedback step further comprises changing the execution item in response to a change in the occurrence coordinate of the hovering.
제16항에 있어서,
사용자의 터치가 감지되면 상기 실행 아이템에 대응되는 기능을 실행하는 단계;를 더 포함하는 차량의 제어방법.
17. The method of claim 16,
And executing a function corresponding to the execution item when a touch of the user is detected.
KR1020170140137A 2017-10-26 2017-10-26 Vehicle, and control method for the same KR20170124487A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020170140137A KR20170124487A (en) 2017-10-26 2017-10-26 Vehicle, and control method for the same

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020170140137A KR20170124487A (en) 2017-10-26 2017-10-26 Vehicle, and control method for the same

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
KR1020150126351A Division KR20170029254A (en) 2015-09-07 2015-09-07 Vehicle, and control method for the same

Publications (1)

Publication Number Publication Date
KR20170124487A true KR20170124487A (en) 2017-11-10

Family

ID=60386798

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020170140137A KR20170124487A (en) 2017-10-26 2017-10-26 Vehicle, and control method for the same

Country Status (1)

Country Link
KR (1) KR20170124487A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110682921A (en) * 2019-10-09 2020-01-14 广州小鹏汽车科技有限公司 Vehicle interaction method and device, vehicle and machine readable medium

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110682921A (en) * 2019-10-09 2020-01-14 广州小鹏汽车科技有限公司 Vehicle interaction method and device, vehicle and machine readable medium

Similar Documents

Publication Publication Date Title
US10146386B2 (en) Touch input device, vehicle including the same, and manufacturing method thereof
CN107193398B (en) Touch input device and vehicle including the same
KR101575650B1 (en) Terminal, vehicle having the same and method for controlling the same
KR101721963B1 (en) Controlling apparatus using touch input, vehicle comprising the same
KR101685891B1 (en) Controlling apparatus using touch input and controlling method of the same
US20160378200A1 (en) Touch input device, vehicle comprising the same, and method for controlling the same
US9665269B2 (en) Touch input apparatus and vehicle having the same
CN106314151B (en) Vehicle and method of controlling vehicle
KR20170029180A (en) Vehicle, and control method for the same
US11474687B2 (en) Touch input device and vehicle including the same
KR101681987B1 (en) Control apparatus using touch and vehicle comprising the same
KR101696596B1 (en) Vehicle, and control method for the same
US20170060312A1 (en) Touch input device and vehicle including touch input device
KR20170124487A (en) Vehicle, and control method for the same
KR102080725B1 (en) Vehicle user interface apparatus using stretchable display and operating method thereof
KR102265372B1 (en) Control apparatus using touch and vehicle comprising the same
KR20170029254A (en) Vehicle, and control method for the same
KR20170029207A (en) Control apparatus using touch and vehicle comprising the same
KR20180071020A (en) Input apparatus and vehicle
KR101696592B1 (en) Vehicle and controlling method of the same
KR20180070086A (en) Vehicle, and control method for the same
WO2015093005A1 (en) Display system
KR20180069297A (en) Vehicle, and control method for the same
KR101681994B1 (en) Controlling apparatus using touch input, vehicle comprising the same
KR101744736B1 (en) Controlling apparatus using touch input and controlling method of the same

Legal Events

Date Code Title Description
A107 Divisional application of patent
A201 Request for examination
E902 Notification of reason for refusal
AMND Amendment
E601 Decision to refuse application
AMND Amendment