KR20170124487A - Vehicle, and control method for the same - Google Patents
Vehicle, and control method for the same Download PDFInfo
- Publication number
- KR20170124487A KR20170124487A KR1020170140137A KR20170140137A KR20170124487A KR 20170124487 A KR20170124487 A KR 20170124487A KR 1020170140137 A KR1020170140137 A KR 1020170140137A KR 20170140137 A KR20170140137 A KR 20170140137A KR 20170124487 A KR20170124487 A KR 20170124487A
- Authority
- KR
- South Korea
- Prior art keywords
- touch
- hovering
- item
- input device
- user
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims abstract description 50
- 230000003287 optical effect Effects 0.000 claims description 34
- 230000008859 change Effects 0.000 claims description 19
- 230000004044 response Effects 0.000 claims description 4
- 230000006870 function Effects 0.000 description 63
- 238000010586 diagram Methods 0.000 description 10
- 238000005516 engineering process Methods 0.000 description 8
- 238000005096 rolling process Methods 0.000 description 6
- 210000000707 wrist Anatomy 0.000 description 4
- 238000001514 detection method Methods 0.000 description 3
- 229920001621 AMOLED Polymers 0.000 description 2
- 238000004891 communication Methods 0.000 description 2
- 238000011161 development Methods 0.000 description 2
- 239000006185 dispersion Substances 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 238000005452 bending Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 230000005684 electric field Effects 0.000 description 1
- 230000036541 health Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 229940127554 medical product Drugs 0.000 description 1
- 238000010079 rubber tapping Methods 0.000 description 1
- 238000010897 surface acoustic wave method Methods 0.000 description 1
- 238000010408 sweeping Methods 0.000 description 1
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60K—ARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
- B60K35/00—Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60K—ARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
- B60K35/00—Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
- B60K35/60—Instruments characterised by their location or relative disposition in or on vehicles
-
- B60K37/02—
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W50/00—Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
- B60W50/08—Interaction between the driver and the control system
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W50/00—Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
- B60W50/08—Interaction between the driver and the control system
- B60W50/14—Means for informing the driver, warning the driver or prompting a driver intervention
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W50/00—Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
- B60W50/08—Interaction between the driver and the control system
- B60W50/14—Means for informing the driver, warning the driver or prompting a driver intervention
- B60W50/16—Tactile feedback to the driver, e.g. vibration or force feedback to the driver on the steering wheel or the accelerator pedal
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/041—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
- G06F3/0412—Digitisers structurally integrated in a display
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
-
- B60K2350/1024—
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2420/00—Indexing codes relating to the type of sensors based on the principle of their operation
- B60W2420/40—Photo, light or radio wave sensitive means, e.g. infrared sensors
Landscapes
- Engineering & Computer Science (AREA)
- Automation & Control Theory (AREA)
- Human Computer Interaction (AREA)
- Transportation (AREA)
- Mechanical Engineering (AREA)
- General Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Chemical & Material Sciences (AREA)
- Combustion & Propulsion (AREA)
- Position Input By Displaying (AREA)
Abstract
Description
터치입력으로 기능의 제어가 가능한 차량 및 그 제어방법에 관한 발명이다. The present invention relates to a vehicle capable of controlling functions by touch input and a control method thereof.
일반적으로 전자통신 기술의 발전을 통해 다양한 전자기기들이 만들어지고 있으며, 이러한 전자기기들은 점차 사용자의 조작 편의성과 더불어 디자인의 수려함을 강조하는 추세에 있다. 이러한 추세에 따라 강조되는 것은 키보드 혹은 키패드로 대표되던 입력장치의 다변화이다.Generally, various electronic devices are being developed through the development of electronic communication technology, and these electronic devices are increasingly emphasizing the ease of design of users with ease of operation. What is emphasized in this trend is the diversification of input devices represented by keyboards or keypads.
입력장치는 휴대용 단말기, 노트북, 스마트폰, 스마트패드, 스마트TV 등 사용자에게 정보를 제공하는 다양한 종류의 디스플레이 시스템에 사용되고 있다. 최근에는 전자기기의 발전과 함께 조작키, 다이얼 등을 이용하여 입력하는 방법 이외에 터치를 이용하여 명령 신호를 입력하는 방법이 사용되고 있다.Input devices are used in various types of display systems that provide information to users such as portable terminals, notebooks, smart phones, smart pads, and smart TVs. Recently, a method of inputting a command signal by using a touch has been used in addition to a method of inputting using an operation key, a dial, or the like in conjunction with the development of an electronic device.
터치 입력장치는 각종 디스플레이를 이용하는 정보통신기기와 사용자 간의 인터페이스를 구성하는 입력장치 중 하나로, 사용자가 손가락이나 터치펜 등의 입력도구를 이용하여 터치패드 또는 터치스크린을 직접 접촉하거나 이에 근접함으로써 정보통신기기와 사용자 간의 인터페이스가 가능하게 해준다.The touch input device is one of the input devices constituting the interface between the information communication device and the user using various displays. The touch input device is a touch input device such as a finger or a touch pen, It enables the interface between the device and the user.
터치 입력장치는 손가락 또는 터치펜 등의 입력도구를 접촉하는 것만으로 남녀노소 누구나 쉽게 사용할 수 있기 때문에 ATM(Automated Teller Machine), PDA(Personal Digital Assistant), 핸드폰 등 다양한 기기에서 활용되고 있으며, 그 분야 역시도 은행, 관공서, 관광 및 교통안내 등 많은 분야에서 다양하게 활용되고 있다.The touch input device is utilized by various devices such as an automated teller machine (ATM), a personal digital assistant (PDA), and a mobile phone because a touch input device such as a finger or a touch pen can be easily used by anyone, It is also widely used in many fields such as banks, government offices, sightseeing and traffic information.
최근에는 건강 또는 의료 관련 제품과 차량에 터치 입력장치를 적용하려는 노력들을 계속되고 있다. 특히 터치패널은 터치스크린과 함께 사용되거나 디스플레이 시스템에 독자적으로 사용될 수 있으므로 그 활용도가 높아지고 있다. 또한 최근에는 터치를 이용하여 포인트(Point)를 이동시키는 기능 이외에 제스처를 입력할 수 있는 기능이 개발되고 있다. 제스처를 입력할 수 있는 터치 입력장치의 경우 제스처의 인식률을 향상시키고자 하는 노력이 계속되고 있다.In recent years, efforts have been made to apply touch input devices to health or medical products and vehicles. Especially, the use of the touch panel is increasing because it can be used with the touch screen or can be used independently in the display system. Recently, a function of inputting a gesture in addition to a function of moving a point by using a touch has been developed. In the case of a touch input device capable of inputting a gesture, efforts are being made to improve the recognition rate of a gesture.
사용자에게 터치 시에 실행될 기능에 대한 피드백을 제공하는 차량 및 그 제어방법을 제공하고자 한다. And provides a vehicle and a control method thereof that provide feedback to a user about a function to be executed at the time of touch.
상술한 과제를 해결하기 위한 일 양상에 따른 차량은 사용자 인터페이스가 표시되는 디스플레이;와 내측으로 요입된 터치 공간을 가지고, 터치 공간에서의 호버링 발생을 감지하는 터치 입력장치;와 터치 공간에 호버링이 감지되면, 사용자 인터페이스를 통해 터치 입력장치의 터치 시에 실행될 기능에 대해 피드백을 제공하는 프로세서;를 포함한다.According to an aspect of the present invention, there is provided a vehicle including a display for displaying a user interface, a touch input device for detecting occurrence of hovering in a touch space, And a processor for providing feedback on a function to be executed when the touch input device is touched through the user interface.
이때, 프로세서는, 터치로 실행된 기능에 대응되는 적어도 하나의 아이템이 포함되도록 사용자 인터페이스를 구성할 수 있다.At this time, the processor may configure the user interface to include at least one item corresponding to the function executed by the touch.
또한, 프로세서는, 적어도 하나의 아이템 중 터치 입력장치의 터치 시에 실행될 기능에 대해 피드백을 제공할 실행 아이템을 결정할 수 있다. Further, the processor may determine an execution item to provide feedback on a function to be executed at the touch of the touch input device among at least one item.
또한, 프로세서는, 호버링의 발생 좌표에 기초하여 실행 아이템을 결정할 수 있다. The processor may also determine an execution item based on the origin of the hovering.
또한, 프로세서는, 적어도 하나의 아이템의 배치에 따라 터치 공간을 복수의 영역으로 분할하고, 복수의 영역 중 호버링의 발생 좌표에 대응되는 영역의 아이템을 실행 아이템으로 결정할 수 있다.Further, the processor may divide the touch space into a plurality of areas according to the arrangement of the at least one item, and determine an item of the area corresponding to the occurrence coordinates of the hovering among the plurality of areas as the execution item.
또한, 프로세서는, 호버링의 발생 좌표 변화에 대응하여 실행 아이템을 변경할 수 있다. Further, the processor can change the execution item in response to the coordinate change of occurrence of the hovering.
한편, 입력 장치는, 터치 영역이 마련된 요입부와 요입부 외측에 마련되어 터치 공간을 형성하는 돌출부;를 포함할 수 있다. Meanwhile, the input device may include a concave portion provided with a touch region and a protrusion provided outside the concave portion to form a touch space.
또한, 터치 입력장치는 돌출부의 상측에 마련되어 호버링을 검출하는 호버링 센서를 포함할 수 있다.Further, the touch input device may include a hovering sensor provided on the upper side of the projection to detect hovering.
또한, 호버링 센서는 미리 설정된 광로를 통해 조사되는 광을 검출하는 복수의 광원 센서;를 포함할 수 있다. 이때, 프로세서는, 복수의 광원 센서의 출력에 기초하여 광로의 차단 여부를 판단하고, 광로의 차단 여부에 기초하여 호버링이 발생된 좌표를 판단할 수 있다.In addition, the hovering sensor may include a plurality of light source sensors for detecting light irradiated through a preset optical path. At this time, the processor can determine whether or not the optical path is blocked based on the outputs of the plurality of light source sensors, and can determine the coordinate where the hovering occurred based on whether or not the optical path is blocked.
또한, 터치 입력장치는 요입부 및 돌출부에 마련되어 사용자의 터치를 감지하는 터치 센서;를 더 포함할 수 있다. The touch input device may further include a touch sensor provided on the concave and convex portions to sense a user's touch.
또한, 터치 입력장치는, 돌출부의 내측면 또는 등성이에 마련되어 사용자의 터치를 감지하는 터치 센서를 포함할 수 있다.In addition, the touch input device may include a touch sensor provided on the inner surface or the isosceles of the protrusion to sense a user's touch.
또한, 터치 센서는 사용자의 시계 방향 또는 반시계 방향으로의 터치를 감지할 수 있다.Also, the touch sensor can sense a touch of the user in the clockwise or counterclockwise direction.
또한, 프로세서는 터치 센서에서 사용자의 터치가 감지되면 사용자 인터페이스를 통해 호버링에 대한 피드백과 다른 피드백을 사용자에게 제공할 수 있다.In addition, the processor can provide the user with feedback on hovering and other feedback through the user interface when a touch of the user is detected on the touch sensor.
상술한 과제를 해결하기 위한 일 양상에 따른 차량의 제어방법은, 사용자 인터페이스를 표시하는 표시 단계;와 터치 공간에서 호버링 발생을 감지하는 감지 단계;와 터치 공간에 호버링이 감지되면 사용자 인터페이스를 통해 터치 입력장치의 터치 시에 실행될 기능에 대해 피드백을 제공하는 피드백 단계;를 포함한다. According to another aspect of the present invention, there is provided a method of controlling a vehicle, the method comprising: displaying a user interface; sensing a hovering occurrence in a touch space; And a feedback step of providing feedback on a function to be executed when the input device is touched.
이때, 표시 단계는, 터치로 실행된 기능에 대응되는 적어도 하나의 아이템이 포함되도록 사용자 인터페이스를 구성하는 단계;를 포함할 수 있다. In this case, the displaying step may include configuring the user interface so that at least one item corresponding to the function executed by the touch is included.
또한, 피드백 단계는, 적어도 하나의 아이템 중 터치 입력장치의 터치 시에 실행될 기능에 대응되는 실행 아이템을 결정하는 단계;를 포함할 수 있다.Further, the feedback step may include determining an execution item corresponding to a function to be executed at the touch of the touch input device among at least one item.
또한, 피드백 단계는, 호버링의 발생 좌표에 기초하여 실행 아이템을 결정하는 단계;를 포함할 수 있다.The feedback step may also include determining an execution item based on the origin of the hovering.
또한, 피드백 단계는, 적어도 하나의 아이템의 배치에 따라 터치 공간을 복수의 영역으로 분할하는 단계;와 호버링의 발생 좌표에 대응되는 영역을 결정하는 단계;와 결정된 영역에 대응되는 아이템을 실행 아이템으로 결정하는 단계;를 더 포함할 수 있다.According to another aspect of the present invention, there is provided a method for generating a hovering object, the method comprising the steps of: dividing a touch space into a plurality of regions according to an arrangement of at least one item; And determining the number of times the data is transmitted.
또한, 피드백 단계는, 호버링의 발생 좌표 변화에 대응하여 실행 아이템을 변경하는 단계;를 더 포함할 수 있다.Further, the feedback step may further include changing the execution item in response to the coordinate change of occurrence of the hovering.
차량의 제어방법은 사용자의 터치가 감지되면 실행 아이템에 대응되는 기능을 실행하는 단계;를 더 포함할 수 있다.The method of controlling a vehicle may further include executing a function corresponding to an execution item when a user's touch is sensed.
터치 공간의 호버링을 감지하고, 이에 따라 실행될 기능에 대한 피드백을 제공함으로써, 사용자의 터치 입력장치 조작을 용이하게 할 수 있으며, 터치 입력 실수를 최소화할 수 있다. By detecting the hovering of the touch space and providing the feedback on the function to be performed accordingly, the user can easily operate the touch input device, and the touch input mistake can be minimized.
또한, 사용자 인터페이스를 통한 피드백을 통해 터치 입력장치로 시선 분산을 최소화할 수 있다. In addition, it is possible to minimize gaze dispersion with a touch input device through feedback through a user interface.
도 1은 일 실시예에 따른 차량의 외관을 개략적으로 도시한 사시도이다.
도 2는 일 실시예에 따른 차량의 실내를 개략적으로 도시한 사시도이다.
도 3은 일 실시예에 따른 차량의 제어 블록도이다.
도 4는 본 발명의 제1 실시예에 따른 터치 입력장치를 나타내는 사시도이다.
도 5는 본 발명의 제1 실시예에 따른 터치 입력장치를 나타내는 평면도이다.
도 6은 도 5의 A-A 단면도이다.
도 7은 요입부의 변형례를 도시한 도면이다.
도 8은 제2 실시예에 따른 터치 입력장치를 나타내는 사시도이다.
도 9은 제2 실시예에 따른 터치 입력장치를 나타내는 단면도이다.
도 10은 광전 센서가 구비된 터치 입력장치를 개략적으로 도시한 사시도이다.
도 11은 터치 공간에 형성되는 광로를 도시한 도면이다.
도 12는 광전 센서를 이용한 호버링 검출을 설명하기 위한 터치 입력장치의 단면도이다.
도 13은 일 실시예에 따른 호버링에 따른 피드백 제공 방법을 설명하기 위한 순서도이다.
도 14는 사용자 인터페이스의 일 실시예를 도시한 도면이다.
도 15는 다른 실시예에 따른 호버링에 따른 피드백 제공 방법을 설명하기 위한 순서도이다.
도 16은 호버링의 발생 좌표에 따른 피드백 제공의 일례를 설명하기 위한 도면이다.
도 17은 호버링의 발생 좌표에 따른 피드백 기능 선택의 다른례를 설명하기 위한 도면이다.
도 18는 또 다른 실시예에 따른 호버링에 따른 피드백 제공 방법을 설명하기 위한 순서도이다.
도 19는 호버링 좌표의 변경을 이용한 실행 기능 변경을 설명하기 위한 도면이다.1 is a perspective view schematically showing an appearance of a vehicle according to an embodiment.
2 is a perspective view schematically showing an interior of a vehicle according to an embodiment.
3 is a control block diagram of a vehicle according to an embodiment.
4 is a perspective view illustrating a touch input device according to a first embodiment of the present invention.
5 is a plan view showing a touch input device according to the first embodiment of the present invention.
6 is a sectional view taken along the line AA in Fig.
7 is a view showing a modification of the recessed portion.
8 is a perspective view showing the touch input device according to the second embodiment.
9 is a sectional view showing a touch input device according to the second embodiment.
10 is a perspective view schematically showing a touch input device provided with a photoelectric sensor.
11 is a view showing an optical path formed in the touch space.
12 is a cross-sectional view of a touch input device for explaining hovering detection using a photoelectric sensor.
13 is a flowchart illustrating a method of providing feedback according to hovering according to an embodiment.
14 is a diagram illustrating an embodiment of a user interface.
FIG. 15 is a flowchart for explaining a method of providing feedback according to hovering according to another embodiment.
Fig. 16 is a diagram for explaining an example of providing feedback according to the occurrence coordinates of hovering.
17 is a diagram for explaining another example of the feedback function selection according to the occurrence coordinates of hovering.
18 is a flowchart for explaining a method of providing feedback according to hovering according to another embodiment.
19 is a diagram for explaining an execution function change using a change of hovering coordinates.
본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나 본 발명은 이하에서 개시되는 실시예들에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있으며, 단지 본 실시예들은 본 발명의 개시가 완전하도록 하고, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다.Brief Description of the Drawings The advantages and features of the present invention, and how to accomplish them, will become apparent with reference to the embodiments described hereinafter with reference to the accompanying drawings. The present invention may, however, be embodied in many different forms and should not be construed as limited to the embodiments set forth herein. Rather, these embodiments are provided so that this disclosure will be thorough and complete, and will fully convey the scope of the invention to those skilled in the art. To fully disclose the scope of the invention to those skilled in the art, and the invention is only defined by the scope of the claims.
아래에서는 첨부한 도면을 참고하여 본 발명의 실시예에 대하여 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 상세히 설명한다. 그리고 도면에서 본 발명을 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략한다.Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings so that those skilled in the art can easily carry out the present invention. In order to clearly explain the present invention in the drawings, parts not related to the description will be omitted.
도 1은 일 실시예에 따른 차량의 외관을 개략적으로 도시한 사시도이고, 도 2는 일 실시예에 따른 차량의 실내를 개략적으로 도시한 사시도이다.FIG. 1 is a perspective view schematically showing an appearance of a vehicle according to an embodiment. FIG. 2 is a perspective view schematically showing an interior of a vehicle according to an embodiment.
도 1을 참조하면, 차량(1)은 외관을 형성하는 차체(10), 차량(1)을 이동시키는 차륜(12, 13)을 포함한다.Referring to Fig. 1, a
차체(10)는 엔진 등과 같이 차량(1)에 구동에 필요한 각종 장치를 보호하는 후드(11a), 실내 공간을 형성하는 루프 패널(11b), 수납 공간이 마련된 트렁크 리드(11c), 차량(1)의 측면에 마련된 프런트 휀더(11d)와 쿼터 패널(11e)을 포함할 수 있다. 또한, 차체(11)의 측면에는 차체와 흰지 결합된 복수 개의 도어(15)가 마련될 수 있다. The
후드(11a)와 루프 패널(11b) 사이에는 차량(1) 전방의 시야를 제공하는 프런트 윈도우(19a)가 마련되고, 루프 패널(11b)과 트렁크 리드(11c) 사이에는 후방의 시야를 제공하는 리어 윈도우(19b)가 마련될 수 있다. 또한, 도어(15)의 상측에는 측면의 시야를 제공하는 측면 윈도우(19c)가 마련될 수 있다. A
또한, 차량(1)의 전방에는 차량(1)의 진행 방향으로 조명을 조사하는 헤드램프(15, Headlamp)가 마련될 수 있다. A
또한, 차량(1)의 전방, 후방에는 차량(1)의 진행 방향을 지시하기 위한 방향지시램프(16, Turn Signal Lamp)가 마련될 수 있다. 차량(1)은 방향지시램프(16)의 점멸하여 그 진행방향으로 표시할 수 있다. A
또한, 차량(1)의 후방에는 테일램프(17)가 마련될 수 있다. 테일램프(17)는 차량(1)의 후방에 마련되어 차량(1)의 기어 변속 상태, 브레이크 동작 상태 등을 표시할 수 있다. Further, a
도 2를 참조하면, 차량(1) 내부에는 복수 개의 좌석(S1, S2)이 마련되고, 좌석(S1, S2)의 정면에는 운전에 필요한 각종 계기들이 마련되는 대시보드(50)가 위치한다. Referring to FIG. 2, a plurality of seats S1 and S2 are provided in the
대시보드(50)에는 차량(1)의 주행 방향을 제어하기 위한 스티어링 휠(40)이 마련된다. 스티어링 휠(40)은 조향을 위한 장치로, 운전자에 의해 파지되는 림(41)과 림과 조향을 위한 회전축을 연결하는 스포크(42)를 포함한다. 또한, 필요에 따라 스티어링 휠(40)에는 편의 장치를 조작하기 위한 조작장치(43)가 더 포함될 수 있다. The
또한, 대시보드(50)는 차량(1)의 주행 상태와 각 구성의 작동에 관한 정보를 전달하는 계기판을 더 포함할 수 있다. 계기판의 위치는 그 제한이 없으나, 운전자의 시인성을 고려하여 스티어링 휠(40) 후방에 마련될 수 있다.In addition, the
도 3은 일 실시예에 따른 차량의 제어 블록도이다. 3 is a control block diagram of a vehicle according to an embodiment.
도 3을 참조하면, 일 실시예에 따른 차량(1)은 정보를 표시하는 디스플레이(400), 터치를 통해 사용자의 제어 명령을 입력 받는 터치 입력장치(100), 터치 입력장치(100)를 통해 입력된 제어 명령에 따라 차량(1)의 기능을 제어하는 프로세서(300)를 포함할 수 있다. 3, a
디스플레이(400)는 도 2에 도시된 것과 같이 대시보드(50)의 중앙에 마련될 수 있으나, 디스플레이(400)의 위치가 이에 한정되는 것은 아니다. The
디스플레이(400)는 차량(1)의 구동에 관한 정보뿐만 아니라, 차량(1)에 마련된 각종 편의 장치에 대한 정보를 표시할 수 있다. 또한, 디스플레이(400)는 사용자가 차량(1)의 각종 편의 장치를 제어하기 위한 사용자 인터페이스를 표시할 수 있다. The
이와 같은 디스플레이(400)는 플라즈마 디스플레이 패널(Plasma Display Panel, PDP), 액정 디스플레이(Liquid Crystal Display: LCD) 패널, 발광 다이오드(Light Emitting Diode: LED) 패널, 또는 유기 발광 다이오드(Organic Light Emitting Diode: OLED) 패널, 능동형 유기 발광 다이오드(Active-matrix Organic Light-Emitting Diode, AMOLED) 패널 등의 수단으로 구현될 수 있으나, 이에 한정되는 것이 아니다. The
또한, 디스플레이(400)는 사용자의 터치를 인식하는 터치 인식 수단이 더 포함된 터치 스크린 패널(Touch Screen Panel: TSP)으로도 구현될 수 있다. 디스플레이(400)가 터치 스크린 패널로 구현된 경우, 사용자는 디스플레이(400)를 터치하여 각종 편의기능을 제어할 수 있다. In addition, the
터치 입력장치(100)는 도 2에 도시된 것과 같이 센터 콘솔(70)에 마련될 수 있으나, 터치 입력장치(100)의 위치가 이에 한정되는 것은 아니다.The
터치 입력장치(100)는 포인터를 통해 제어 명령을 입력 받을 수 있다. 포인터는 손가락과 같은 사용자의 신체 또는 터치 팬과 같은 터치 장치를 의미하는 것으로, 사용자는 포인터를 이용하여 터치 제스처를 입력할 수 있다. The
예를 들어, 사용자는 플리킹(Flicking) 또는 스와이핑(Swiping), 롤링(Rolling), 서클링(Circling) 또는 스핀(Spin), 또는 탭(Tap) 등의 터치 제스처를 통해 제어 명령을 입력할 수 있다.For example, a user can enter control commands through a touch gesture such as Flicking or Swiping, Rolling, Circling or Spin, or Tap. have.
여기서, 플리킹 또는 스와이핑은 포인터가 터치 영역에 접촉된 상태에서 일 방향으로 이동 후 접촉 상태를 해제하는 터치 입력을, 롤링은 터치 영역의 중앙을 중심으로 원호를 그리는 터치 입력을, 서클링 또는 스핀은 터치 영역의 중앙을 중심으로 원을 그리는 터치 입력을, 탭은 터치 영역을 두드리는 터치 입력을 의미한다. Here, the flicking or sweeping is a touch input for releasing the contact state after moving the pointer in one direction in a state where the pointer is in contact with the touch region, the rolling is a touch input for drawing an arc around the center of the touch region, Means a touch input for drawing a circle around the center of the touch area, and a tab means a touch input for tapping the touch area.
사용자는 플리킹, 스와이핑, 롤링, 서클링 등을 통해 실행될 기능을 선택하고, 탭을 통해 선택된 기능이 실행하는 방식으로 소정의 기능을 실행시킬 수 있다.The user can select a function to be executed through flicking, swiping, rolling, circling, and the like, and can execute a predetermined function in such a manner that the selected function is executed through the tab.
터치 입력장치(100)는 요입된 터치 영역을 포함한다. 이하, 요입된 터치 영역을 포함하는 터치 입력장치(100)의 다양한 실시예에 대해 설명한다. The
도 4는 본 발명의 제1 실시예에 따른 터치 입력장치를 나타내는 사시도이고, 도 5는 본 발명의 제1 실시예에 따른 터치 입력장치를 나타내는 평면도이고, 도 6은 도 5의 A-A 단면도이다. 그리고, 도 7은 요입부의 변형례를 설명하기 위한 도면이다. FIG. 4 is a perspective view showing a touch input device according to a first embodiment of the present invention, FIG. 5 is a plan view showing a touch input device according to the first embodiment of the present invention, and FIG. 6 is a sectional view taken along the line A-A in FIG. 7 is a view for explaining a modification of the recessed portion.
도 4 내지 도 6를 참조하면, 제1 실시예에 따른 터치 입력장치(100)는 장착면(140)에 설치된다. 장착면(140)은 터치 입력장치(100)의 주위를 둘러싸도록 마련될 수 있으며, 터치 입력장치(100)와 별도의 부재로 마련될 수 있다.4 to 6, the
한편, 도면과 달리 장착면(140)은 사용자가 요입부(110)를 터치하기 용이하도록 요입부(110)보다 높게 위치할 수 있다. 장착면(140)이 요입부(110)보다 높게 마련된 경우, 사용자는 손목을 꺽지 않고 장착면(140)에 손목을 지지한 상태에서 터치 제스처를 입력할 수 있다. Meanwhile, the mounting
터치 입력장치(100)는 요입된 터치 영역이 마련된 요입부(110)를 포함한다. 이하, 주위보다 요입된 공간을 터치 공간(150)이라 하고, 터치 센서(190)가 마련되어 포인터의 터치를 감지하는 영역을 터치 영역이라 정의한다.The
요입부(110)에는 터치 센서(190)가 마련될 수 있다. 터치 센서(190)는 포인터의 터치를 감지하고, 감지된 터치 위치에 대응되는 전기적 신호를 출력하는 장치로, 터치 센서(190)는 정전용량식 기술(capacitive technology), 저항식 기술(resistive), 적외선 기술(infrared technology) 및 표면 음파 기술(surface acoustic wave technology)을 사용하여 사용자의 터치를 인식할 수 있으나, 이에 한정되는 것이 아니고, 이미 공지된 다른 기술 또는 추후 개발될 기술을 사용하여 터치를 인식할 수도 있다. A
또한, 터치 센서(190)는 터치 패드, 터치 필름, 및 터치 시트 형태로 마련될 수 있다. In addition, the
요입부(110)는 다양한 형상으로 마련될 수 있으나, 도면에 도시된 것과 같이 원형으로 형성될 수 있다. 요입부(110)가 원형으로 마련되는 경우 오목한 터치 영역을 형성하기가 용이할 수 있다. 또한, 요입부(110)가 원형으로 마련됨에 따라 사용자는 촉감으로 터치 영역을 위치를 인지할 수 있다.The recessed
이때, 요입부(110)가 형성하는 터치 영역의 직경은 인체공학적으로 설계될 수 있다. 예컨대, 성인의 평균적인 손가락 길이를 고려할 때, 손목을 고정한 상태에서 자연스러운 손가락의 움직임만으로 한 번에 손가락을 움직일 수 있는 범위는 80mm이내로, 요입부(110)의 직경이 80mm를 초과하면, 원을 그리는 터치 입력이 부자연스러워지고, 필요 이상으로 손목을 사용하게 된다. 이에 요입부(110)의 직격은 80mm이내에서 에서 선택될 수 있다. At this time, the diameter of the touch region formed by the recessed
아울러, 요입부(110)의 직경이 50mm 보다 작아지는 경우 터치 영역의 면적이 축소되어 사용자의 터치 입력의 다양성이 손실될 수 있으며, 터치 입력의 오류가 증가할 수 있다. 그러므로, 요입부(110)의 직경은 50mm 내지 80mm 내에서 선택될 수 있다. In addition, when the diameter of the recessed
또한, 요입부(110)는 도 6에 도시된 것과 같이 평면으로 형성될 수 있다. 즉, 요입부(110)는 평편한 터치 영역을 포함할 수 있다. 그러나, 요입부(110)가 형성하는 터치 영역의 형상이 이에 한정되는 것은 아니다. In addition, the recessed
일 실시예로, 요입부(110)는 도 7a에 도시된 것과 같이 소정의 곡률에 따라 오목하게 형성될 수 있다. 이때, 요입부(110)의 오목한 정도는 요입부(110)의 깊이를 직경으로 나눈 값으로 정의될 수 있다.In one embodiment, the recessed
요입부(110)가 형성하는 영역의 직경과 깊이는 인체공학적으로 설정될 수 있다. 예컨대, 요입부(110)의 깊이/직경 값이 0.1 보다 커지는 경우, 오목한 형상의 곡률이 커지게 되어 곡면을 따라 손가락을 움직였을 때 손가락에 필요 이상의 힘이 들어가게 되어 인위적인 조작감이 느껴지게 되므로 사용자의 터치감이 불편해진다. The diameter and depth of the region formed by the
반대로, 요입부(110)의 깊이/직경값이 0.04 보다 작아지면 사용자가 평면에서 제스처를 그리는 것과 비교하여 조작감의 차이를 느끼기 힘들게 된다. 그러므로, 사용자의 자연스러운 손가락 움직임에서 손가락 끝이 그리는 곡선의 곡률과 일치하도록 요입부(110)의 깊이/직경값은 0.04 내지 0.1 내에서 선택될 수 있다. Conversely, if the depth / diameter value of the recessed
한편, 요입부(110)의 곡률은 서로 다르게 마련될 수 있다. 예컨대, 중앙부의 곡률은 작고(곡률반경이 큰 것을 의미), 외곽부의 곡률은 크게(곡률반경이 작은 것을 의미) 마련될 수 있다. Meanwhile, the curvatures of the
다른 실시예로, 요입부(110)는 도 7b에 도시된 것과 같이 복수의 터치 영역으로 구성될 수 있다. 구체적으로, 요입부(110)는 오목한 곡면으로 마련되는 중앙 터치 영역(110a)과 중앙 터치 영역 주위에 마련된 외곽 터치 영역(110b)를 포함할 수 있다. In another embodiment, the recessed
이와 같이 복수의 터치 영역(110a, 110b)으로 요입부(110)가 구성된 경우, 각 터치 영역(110a, 110b)은 지정된 터치만을 인식할 수 있다. 예컨대, 중앙 터치 영역(110a)은 탭 터치를 인식하고, 외곽 터치 영역(110b)은 롤링 또는 서클링 터치를 인식할 수 있다.When the
다시 도 4 내지 도 6를 참조하면, 터치 입력장치(100)는 터치 공간(150)을 형성하는 돌출부(120)를 포함할 수 있다. 돌출부(120)는 요입부(110)로부터 돌출되어, 요입부(110)와 함께 터치 공간(150)을 형성할 수 있다.4 to 6, the
돌출부(120)는 요입부(110)의 외측에 돌출되어 마련된다. 돌출부(120)의 수평 단면의 형상은 요입부(110)의 형상과 대응된다. 예컨대, 요입부(110)가 원형으로 마련되면 돌출부(120)의 수평 단면은 링 형상으로 마련될 수 있다. The
돌출부(120)는 장착면(140)과 연결되는 외측면(123)과 요입부(110)와 연결되는 내측면(121)을 포함할 수 있다. 외측면(123)과 내측면(121)은 소정의 곡률을 가지는 곡면으로 형성될 수도 있다. 예컨대, 외측면(123)은 장착면(140)과 부드럽게 연결되도록 볼록하게 형성되고, 내측면(121)은 터치 공간(150)이 완만하게 형성되도록 오목하게 형성될 수 있다. The
한편, 도면과 달리 장착면(140)이 요입부(110)보다 높게 위치하는 경우 외측면(123)은 생략될 수도 있다. On the other hand, when the mounting
또한, 돌출부(120)의 내측면(121)은 터치 입력이 가능하도록 마련될 수 있다. 즉, 내측면(121)에도 터치 센서(190)가 마련될 수 있다. 이때, 터치 센서(190)는 요입부(110)와 일체로 마련될 수 있으나 이에 한정되는 것은 아니다. 내측면(121)에 터치 센서(190)가 마련되면 내측면(121)도 터치 영역으로 정의될 수 있다.In addition, the
내측면(121)에 대한 터치 입력은 다이얼(Dial)의 회전 입력에 대응될 수 있다. 다이얼(Dail)은 노브 등에 장착되고 물리적으로 회전 가능한 장치를 의미하는 것으로, 내측면(121)에 대한 터치는 다이얼의 회전 입력과 대응되는 기능을 가질 수 있다. 예컨대, 차량은 내측면(121)의 원주를 따라 회전하는 터치에 따라 볼륨이 조절될 수 있다. The touch input to the
도 8은 제2 실시예에 따른 터치 입력장치를 나타내는 사시도이고, 도 9은 제2 실시예에 따른 터치 입력장치를 나타내는 단면도이다.FIG. 8 is a perspective view showing a touch input device according to a second embodiment, and FIG. 9 is a sectional view showing a touch input device according to a second embodiment.
도 8 및 도 9를 참조하면, 제2 실시예에 따른 터치 입력장치(101)는 연결부(130)를 더 포함할 수 있다. 연결부(130)는 요입부(110)와 돌출부(120) 사이에 마련될 수 있다. 요입부(110)는 소정의 곡률로 마련될 수 있으며, 외측에서 볼 때 오목하게 형성될 수 있다. Referring to FIGS. 8 and 9, the
연결부(130)는 터치 입력이 가능하도록 마련될 수 있다. 이를 위해, 연결부(130)에도 터치 센서(190)가 마련될 수 있다. 이때, 터치 센서(190)는 요입부(110)와 일체로 마련될 수 있으나 이에 한정되는 것은 아니다.The
연결부(130)의 터치에 따라 실행되는 기능과 요입부(110)의 터치에 의해 동작되는 기능이 서로 다르게 설정될 수 있다. 예를 들어, 연결부(130)에 대한 롤링 터치는 제1 기능(예컨대, 채널 조절)으로 설정되고, 요입부(110)에 대한 롤링 터치는 제2 기능(예컨대, 볼륨 조절)으로 설정될 수 있다. The functions executed according to the touch of the
연결부(130)는 눈금(131)을 포함할 수 있다. 눈금(131)은 연결부(130)를 따라 음각 또는 양각으로 마련되어, 사용자에게 촉각적인 피드백을 제공할 수 있다. 즉, 사용자는 눈금(131)으로 인해 제공되는 촉각적인 피드백을 통해 터치가 이루어진 거리를 인지할 수 있다. 또한, 디스플레이(400)에 표시되는 인터페이스 역시 눈금(131) 단위로 변화될 수 있다. 예컨대, 터치가 이루어지는 눈금(131)의 개수에 따라 디스플레이(400)에 표시되는 커서가 이동하거나, 선택되는 문자가 변경될 수 있다. The
다시 도 3을 참조하면, 터치 입력장치(100)는 호버링 센서(200)를 더 포함한다. 호버링은 포인터가 터치 입력장치(100)와 기계적으로 접촉하지 않고 터치 공간(150)에 위치하는 것을 의미한다.Referring again to FIG. 3, the
호버링 센서(200)는 정전용량 방식, 자기 방식, 광전 방식을 사용하여 포인터의 호버링을 인식할 수 있다. 정전용량 방식은 포인터의 의해 발생하는 전계의 변화에 기초하여 포인터의 호버링을 검출하는 방식이고, 자기 방식은 포인터의 의해 발생하는 자계의 변화에 기초하여 포인터의 호버링을 검출하는 방식이고, 광전 방식은 광전 센서(221 내지 226)를 통해 포인터의 위치를 검출하는 방식이다. The hovering
도 3에는 호버링 센서(200)가 터치 센서(190)와 별도로 마련된 것으로 도시되어 있으나, 호버링 센서(200)와 터치 센서(190)는 일체로 마련될 수 있다. 또한, 호버링 센서(200)의 호버링 인식 방법이 정전용량 방식, 자기 방식, 또는 광전 방식에 한정되는 것이 아니고, 이미 공지된 다른 기술 또는 추후 개발될 기술을 사용하여 터치를 인식할 수도 있다. 3, the hovering
이하, 도면을 참조하여 광전 센서(221 내지 226)를 이용한 호버링 검출 방법에 대해 상세히 설명한다. Hereinafter, a hovering detection method using the
도 10은 광전 센서(221 내지 226)가 구비된 터치 입력장치를 개략적으로 도시한 사시도이고, 도 11은 터치 공간에 형성되는 광로를 도시한 도면이고, 도 12는 광전 센서(221 내지 226)를 이용한 호버링 검출을 설명하기 위한 터치 입력장치의 단면도이다. 10 is a perspective view schematically showing a touch input device provided with the
도 10 및 도 11을 참조하면, 일 실시예에 따른 호버링 센서(200)는 광원(211 내지 216)과 광전 센서(221 내지 226)를 포함한다. 10 and 11, a hovering
광원(211 내지 216)은 미리 설정된 광로를 따라 광을 조사한다. 광원(211 내지 216)은 터치 공간(150)의 상부에 광로가 형성되도록 돌출부(120)의 내측면(121) 상부에 배치될 수 있다. The
광원(211 내지 216)은 특정 범위의 파장(예컨대, 적외선)을 가지는 광을 조사할 수 있다. 복수의 광원(211 내지 216) 각각은 서로 다른 광로(X1 내지 X3, Y1 내지 Y3)를 따라 광을 조사할 수 있다. 예컨대, 복수의 광원(211 내지 216)은 도 11에 도시된 것과 같이 격자 무늬의 광로(X1 내지 X3, Y1 내지 Y3)를 따라 광을 조사할 수 있으나, 광원(211 내지 216)의 의해 형성되는 광로의 형상이 이에 한정되는 것은 아니다.The
광전 센서(221 내지 226)는 광을 검출한다. 복수의 광전 센서(221 내지 226) 각각은 복수의 광원(211 내지 216)이 형성하는 광로(X1 내지 X3, Y1 내지 Y3)의 대응되는 위치에 배치되어 광로(X1 내지 X3, Y1 내지 Y3)의 차단 여부를 검출할 수 있다. The
또한, 광원(211 내지 216)이 특정 범위의 파장을 가지는 광을 조사하는 경우 광전 센서(221 내지 226)는 광원(211 내지 216)에서 조사되는 광의 파장과 대응되는 파장의 광만을 검출할 수 있다. 예를 들어, 광원(211 내지 216)이 적외선을 조사하는 경우, 광전 센서(221 내지 226)는 적외선의 검출할 수 있다. Also, when the
광전 센서(221 내지 226)에 의해 검출된 광로(X1 내지 X3, Y1 내지 Y3)의 차단 여부에 기초하여 호버링 발생 여부가 검출될 수 있다. 도 12를 참조하면, 손가락이 터치 공간(150)의 높이(D1)보다 낮은 높이(D2)에 위치하면, 광원(211)에서 조사된 광이 손가락에 의해 차단된다. 즉, 호버링이 발생하면 손가락에 의해 광원(211)과 광전 센서(221) 사이에 형성된 광로(X1)가 차단된다. 그러므로, 프로세서(300)는 복수의 광전 센서(221 내지 226)를 이용하여 터치 공간(150)에 형성된 광로의 차단 여부를 판단하고, 복수의 광로 중 적어도 하나의 광로가 차단되면 호버링이 발생한 것으로 판단할 수 있다. Whether or not hovering has occurred can be detected based on whether or not the optical paths X1 to X3, Y1 to Y3 detected by the
광원(211 내지 216)과 광전 센서(221 내지 226)는 광로(X1 내지 X3, Y1 내지 Y3)가 터치 공간(150)의 상부에 형성되도록 돌출부(120)의 내측면(121)의 상부에 배치될 수 있다. 이와 같이 광로(X1 내지 X3, Y1 내지 Y3)를 터치 공간(150)의 상부에 배치함으로써, 호버링이 신속하게 검출될 수 있다. The
또한, 프로세서(300)는 광전 센서(221 내지 226)의 광 검출 여부에 따라 복수의 광로의 차단 여부를 판단하고, 차단된 광로의 위치에 따라 호버링의 발생 좌표를 판단할 수 있다. In addition, the
호버링의 위치에 따라 손가락에 의해 차단되는 광로는 달라지므로, 프로세서(300)는 광전 센서(221 내지 226)에 의해 검출된 광로의 차단 여부에 따라 호버링의 발생 좌표를 판단할 수 있다. 예컨대, 도 11에 도시된 것과 같이 제1 위치(P1)에 사용자의 손가락이 호버링되면, 손가락에 의하여 제1 위치(P1)를 지나는 광이 차단되므로, 광로 X1에 대응되는 광전 센서(221)와 광로 Y2에 대응되는 광전 센서(224)에서 광이 검출되지 않는다. 즉, 프로세서는 X1 광로와 Y1 광로가 모두 지나는 제1 위치(P1)를 호버링의 발생 좌표로 판단할 수 있다. Since the optical path blocked by the finger varies depending on the position of the hovering, the
한편, 도 11에서는 하나의 광원이 하나의 광로로 광을 조사하는 것으로 도시되어 있으나, 하나의 광원에 의해 복수의 광로가 형성될 수 있다. In FIG. 11, one light source irradiates light to one optical path, but a plurality of optical paths can be formed by one light source.
다시 도 3을 참조하면, 프로세서(300)는 차량(1)을 전반적으로 제어한다. 프로세서(300)는 터치 입력장치(100)를 통해 입력된 제어 명령에 따라 차량(1)의 기능을 전반적으로 제어할 수 있다. 프로세서(300)는 다수개의 논리 게이트들의 어레이로 구현될 수 있으며, 프로세서(300)에서 실행될 프로그램이 저장된 메모리를 포함할 수 있다. 또한, 프로세서(300)는 CPU 또는 GPU와 같은 범용적인 장치로 구현될 수 있으나, 이에 한정되는 것은 아니다. Referring again to FIG. 3, the
프로세서(300)는 디스플레이(400)를 제어하여 사용자 인터페이스를 제공하고, 터치 입력장치(100)를 통해 입력된 터치를 인식하고, 인식된 터치에 따라 기능이 수행되도록 차량(1)의 각 구성에 제어 신호를 출력할 수 있다. 즉, 사용자는 디스플레이(400)에 표시되는 사용자 인터페이스를 보면서, 터치 입력장치(100)를 터치하여 차량(1)의 기능을 제어할 수 있다. The
프로세서(300)는 사용자 인터페이스를 통해 터치가 발생하기 이전에 터치로 실행될 기능을 미리 표시하여 사용자의 조작을 용이하게 할 수 있다. 차량(1)의 경우 사용자 인터페이스가 표시되는 디스플레이(400)와 터치가 이루어지는 터치 입력장치(100)가 별도로 마련된다. 그러므로, 사용자는 터치 입력장치(100)를 터치할 때 어떠한 기능이 수행될지 명확히 인지하기 어렵다. 이에 프로세서(300)는 호버링 센서(200)에 의해 호버링이 감지되면 사용자의 터치가 발생한 것으로 판단하고, 사용자 인터페이스를 통해 터치로 실행된 기능에 대해 피드백을 제공할 수 있다. The
이와 같이 터치가 발생하기 이전에 터치로 실행될 기능에 대해 피드백을 제공함으로써, 터치 입력장치(100)로의 시선 분산을 최소화하고, 사용자의 터치 입력 오류를 최소화할 수 있다. 이하, 호버링에 따른 피드백 제공 방법에 대해 구체적으로 설명한다. By providing the feedback on the function to be executed by the touch before the touch occurs, it is possible to minimize the dispersion of the line of sight to the
도 13은 일 실시예에 따른 호버링에 따른 피드백 제공 방법을 설명하기 위한 순서도이고, 도 14는 사용자 인터페이스의 일 실시예를 도시한 도면이다. FIG. 13 is a flowchart illustrating a method of providing feedback according to hovering according to an embodiment, and FIG. 14 is a diagram illustrating an embodiment of a user interface.
도 13를 참조하면, 차량(1)은 사용자 인터페이스를 표시한다(610). 사용자 인터페이스는 디스플레이(400)를 통해 제공될 수 있다. 사용자 인터페이스(410)는 도 14에 도시된 것과 같이 복수의 아이템(411 내지 414)을 포함할 수 있다. 복수의 아이템(411 내지 414) 각각은 소정의 기능과 매칭되어, 사용자가 아이템(411 내지 414)을 선택하면, 선택된 아이템(411 내지 414)에 대응되는 기능이 수행된다. 이때, 복수의 아이템(211 내지 214)은 터치 입력장치(100)의 형상에 대응되는 형상으로 배치될 수 있으나, 이에 한정되는 것은 아니다. Referring to FIG. 13, the
차량(1)은 터치 공간(150)에 호버링 발생 여부를 판단한다(620). 호버링 센서(200)는 터치 공간(150)에 포인터가 위치하는지 판단하고, 터치 공간(150)에 포인터가 위치하면 호버링이 발생한 것으로 판단할 수 있다. 이때, 터치 공간(150)에 포인터가 위치하는지 판단하는 방법은 호버링 센서(200)의 종류에 따라 달라질 수 있다. 예를 들어, 호버링 센서(200)가 도 12과 같이 광원(211 내지 216)과 광전 센서(221 내지 226)로 구성되는 경우 광로의 차단 여부에 기초하여 호버링을 판단할 수 있다. The
또한, 프로세서(300)는 터치 센서(190)의 출력에 기초하여 터치와 호버링을 구분할 수 있다. 프로세서(300)는 호버링 센서(200)에 의해 호버링이 감지될 때 터치가 감지되면 사용자의 터치 입력으로 인식하고, 사용자의 터치가 감지되지 않으면 포인터의 호버링이 발생한 것으로 인식할 수 있다. In addition, the
호버링 발생이 감지되면(620의 예), 차량(1)은 터치시 실행될 기능에 대해 피드백을 표시한다(630). 즉, 프로세서(300)는 호버링이 감지되면 사용자가 터치를 입력할 것으로 판단하고, 사용자 인터페이스를 통해 사용자가 터치 영역을 터치할 경우 선택될 기능에 대응에 대해 피드백을 제공할 수 있다. If the hovering occurrence is detected (620), the
일례로, 터치시 실행될 기능이 화면 전체에 관한 것이면, 화면 전체가 깜빡이는 형태로 피드백이 제공될 수 있다. For example, if the function to be executed at the time of touching is related to the entire screen, feedback can be provided in a form in which the entire screen blinks.
다른례로, 터치 영역의 터치시 실행되는 기능이 사용자 인터페이스에 포함된 아이템에 대응되는 경우, 터치로 실행될 아이템을 다른 아이템에 비하여 선명하게 표시하거나, 크게 표시하여 실행될 기능에 대한 피드백을 제공할 수 있다. For example, when the function executed when the touch area is touched corresponds to the item included in the user interface, the item to be executed by the touch may be clearly displayed or displayed larger than the other items, thereby providing feedback on the function to be executed have.
이와 같이, 사용자 인터페이스를 통해 터치가 발생하기 이전에 터치로 실행될 기능을 표시함으로써, 사용자의 시선이 터치 입력장치(100)로 분산되는 것을 방지할 수 있으며, 사용자에게 터치로 실행될 기능에 대해 명확한 피드백을 제공하여 터치 입력장치(100)의 조작 실수를 최소화할 수 있다. By displaying the functions to be executed by the touch before the touch is generated through the user interface, it is possible to prevent the user's line of sight from being dispersed to the
한편, 프로세서(300)는 터치 입력장치(100)의 터치 영역을 복수의 영역으로 분할하고, 각 영역별로 다른 기능을 매칭할 수 있다. 즉, 프로세서(300)는 터치가 발생한 영역에 따라 다른 기능을 수행할 수 있다. 이하, 도면을 참조하여 터치 발생 위치에 따라 다른 기능이 수행되는 경우의 피드백 제공 방법에 대해 설명한다. Meanwhile, the
도 15는 다른 실시예에 따른 호버링에 따른 피드백 제공 방법을 설명하기 위한 순서도이다. FIG. 15 is a flowchart for explaining a method of providing feedback according to hovering according to another embodiment.
도 15를 참조하면, 차량(1)은 사용자 인터페이스를 표시하고(710), 터치 공간(150)에 호버링 발생 여부를 판단한다(720). 프로세서(300)는 호버링이 발생되면 호버링의 발생 좌표를 판단할 수 있다. 호버링의 발생 좌표는 호버링이 감지된 위치를 의미하는 것으로, 호버링 발생 좌표는 터치 영역과 대응되는 X-Y평면으로 정의될 수 있다. Referring to FIG. 15, the
호버링의 발생 좌표 판단 방법은 호버링 센서(200)의 종류에 따라 달라질 수 있다. 예컨대, 호버링 센서(200)가 정전용량 방식으로 포인터의 호버링을 인식하는 경우 정전용량의 변화 좌표에 기초하여 호버링 발생 좌표를 결정하고, 호버링 센서(200)가 자기 방식으로 포인터의 호버링을 인식하는 경우, 자기 변화의 좌표에 기초하여 호버링 발생 좌표를 결정하고, 호버링 센서(200)가 광전 방식으로 포인터의 호버링을 인식하는 경우, 도 11에 도시된 것과 같이 복수의 광전 센서(221 내지 226)에 의해 검출된 광로의 차단 여부에 기초하여 호버링 발생 좌표를 결정할 수 있다. The method of determining the occurrence coordinates of the hovering may vary depending on the type of the hovering
호버링 발생이 감지되면(720의 예), 차량(1)은 호버링의 발생 좌표에 따라 피드백을 제공할 기능을 결정하고(730), 사용자 인터페이스를 통해 결정된 기능에 대한 피드백을 제공한다(740). 이하, 도 16 및 도 17에 기초하여 피드백 제공에 대해 구체적으로 설명한다.If hovering occurrence is detected (720 example), the
도 16은 호버링의 발생 좌표에 따른 피드백 제공의 일례를 설명하기 위한 도면이다. Fig. 16 is a diagram for explaining an example of providing feedback according to the occurrence coordinates of hovering.
도 16을 참조하면, 메뉴를 표시하는 메뉴 인터페이스(410)는 사용자의 터치로 실행될 기능에 대응되는 복수의 아이템(411 내지 414)을 포함한다. 구체적으로, 메뉴 인터페이스(410)는 네비게이션 기능을 실행하는 네비게이션 아이템(211), 음악 재생을 수행하는 음악 아이템(212), 인터넷을 실행하는 인터넷 아이템(413), 및 전화 기능을 실행하는 전화 아이템(414)을 포함한다. 복수의 아이템(411 내지 414)은 터치 입력장치(100)의 터치 영역의 형상에 대응되도록 원형으로 배치될 수 있다. Referring to FIG. 16, a
프로세서(300)는 복수의 아이템의 배치에 기초하여 터치 영역을 가상으로 분할할 수 있다. 예컨대, 프로세서(300)는 터치 영역을 상단 영역(U), 하단 영역(D), 좌측 영역(L), 및 우측 영역(R)으로 분할할 수 있다. The
프로세서(300)는 터치가 발생하면 터치가 발생한 영역에 대응되는 아이템을 실행한다. 예컨대, 사용자가 상단 영역을 터치하면 네비게이션 아이템(411)에 대응되는 네비게이션 기능을 실행하고, 사용자가 하단 영역을 터치하면 인터넷 아이템(413)에 대응되는 인터넷 기능을 수행한다. When a touch occurs, the
프로세서(300)는 호버링이 발생하면, 호버링 발생 좌표에 대응되는 위치를 터치할 경우 실행될 기능에 대해 피드백을 제공할 수 있다. The
구체적으로, 호버링이 발생하면, 프로세서(300)는 호버링의 발생 좌표에 판단하고, 호버링의 발생 좌표에서 터치가 입력되는 경우 실행될 아이템을 결정한다. 이와 같이 호버링의 발생 좌표에 따라 결정되는 아이템을 실행 아이템으로 정의한다. Specifically, when hovering occurs, the
예컨대, 호버링 발생 좌표가 상단 영역이면 상단 영역에 대응되는 네비게이션 아이템(411)이, 호버링 발생 좌표가 우측 영역이면 우측 영역에 대응되는 음악 아이템(412)이, 호버링 발생 좌표가 하단 영역이면 하단 영역에 대응되는 인터넷 아이템(413)이, 호버링 발생 좌표가 우측 영역이면 우측 영역에 대응되는 전화 아이템(414)이 실행 아이템으로 결정된다. For example, if the hovering occurrence coordinate is the upper region, the
그리고, 프로세서(300)는 결정된 실행 아이템에 대한 피드백이 제공되도록 메뉴 인터페이스를 변경할 수 있다. 예컨대, 사용자가 터치 영역을 터치할 때 실행될 실행 아이템이 네비게이션 아이템(411)이면, 네비게이션 아이템(411)을 다른 아이템(412 내지 414)보다 선명하게 표시하여, 현재 호버링 위치를 터치할 때 네비게이션 기능이 실행됨을 피드백할 수 있다. The
도 17은 호버링의 발생 좌표에 따른 피드백 기능 선택의 다른례를 설명하기 위한 도면이다. 17 is a diagram for explaining another example of the feedback function selection according to the occurrence coordinates of hovering.
도 17를 참조하면, 음악 제공 인터페이스(420)는 사용자의 터치로 실행된 기능에 대응되는 복수의 아이템(421 내지 423)을 포함한다. 구체적으로, 음악 제공 인터페이스는 재생되는 음악을 이전 음악으로 변경하는 되감기 아이템(421), 재생되는 음악을 정지하는 정지 아이템(422), 재생되는 음악을 다음 음악으로 변경하는 건너뛰기 아이템(423)을 포함할 수 있다. Referring to FIG. 17, the
프로세서(300)는 3개의 아이템(421 내지 423) 배치에 기초하여 터치 공간(150)을 3개의 영역(L, C, R)으로 분할할 수 있다. 예컨대, 프로세서(300)는 되감기 아이템(421)에 대응되는 좌측 영역(L), 정지 아이템(422)에 대응되는 중앙 영역(C), 건너뛰기 아이템(423)에 대응되는 우측 영역(R)으로 터치 영역을 분할할 수 있다. The
그리고, 프로세서(300)는 사용자의 터치가 발생하면 터치가 발생한 영역에 대응되는 아이템을 실행한다. 예컨대, 사용자가 중앙 영역(C)을 터치하면 정지 아이템(422)에 대응되는 음악의 정지를 수행하고, 사용자가 좌측 영역(L)을 터치하면 되감기 아이템(421)에 대응되는 이전 음악의 재생을 수행한다. Then, the
한편, 호버링이 발생하면 호버링 좌표에 대응되는 위치를 터치할 경우 실행될 기능에 대한 피드백을 제공할 수 있다. On the other hand, if hovering occurs, it is possible to provide feedback on a function to be performed when a position corresponding to hovering coordinates is touched.
프로세서(300)는 호버링의 발생 좌표에 따라 피드백이 제공될 실행 아이템을 결정하고, 음악 제공 인터페이스(420)를 이에 대한 피드백을 제공할 수 있다. 예컨대, 호버링의 발생 좌표가 좌측 영역(L)인 경우 좌측 영역(L)에 대응되는 건너뛰기 아이템(211)을 실행 아이템으로 결정하고, 건너뛰기 아이템(211)을 더 크고 선명하게 표시할 수 있다. The
이와 같이 호버링의 발생 좌표에 따라 터치시에 실행된 기능에 대해 피드백을 제공함으로써, 사용자의 터치 조작의 더 직관적이고 편리하게 할 수 있다. 또한, 사용자는 터치 입력장치(100)로 시선을 분산하지 않고, 호버링을 통해 터치로 실행될 기능을 선택할 수 있다. In this manner, the feedback of the function executed at the time of touching is provided in accordance with the coordinates of occurrence of the hovering, so that the touch operation of the user can be performed more intuitively and conveniently. In addition, the user can select a function to be executed by touching through the hovering without dispersing the line of sight to the
도 18는 또 다른 실시예에 따른 호버링에 따른 피드백 제공 방법을 설명하기 위한 순서도이다. 18 is a flowchart for explaining a method of providing feedback according to hovering according to another embodiment.
도 19는 호버링 좌표의 변경을 이용한 실행 기능 변경을 설명하기 위한 도면이다.19 is a diagram for explaining an execution function change using a change of hovering coordinates.
도 18를 참조하면, 차량(1)은 사용자 인터페이스를 표시하고(810), 터치 공간(150)에 호버링 발생 여부를 판단한다(820). Referring to FIG. 18, the
호버링 발생이 감지되면(820의 예), 차량(1)은 터치 영역 선택시 실행될 기능에 대한 피드백을 제공한다(830). 이때, 실행될 기능은 미리 선택될 것일 수 있으나, 도 15 내지 도 17에서 설명한 것과 같이 호버링의 발생 좌표에 따라 결정될 수도 있다. If hovering occurrence is detected (820 example), the
차량(1)은 호버링 발생 좌표 변경 여부를 판단한다(840). 호버링 발생 좌표가 변경되면(840의 예), 차량(1)은 호버링 발생 좌표의 변경에 기초하여 실행될 기능을 선택하고(850), 선택된 기능에 대한 피드백을 제공한다(860). The
일 실시예로, 도 16 및 도 17과 같이 터치 영역이 복수의 영역으로 가상으로 분할되어 사용되는 경우, 호버링의 발생 좌표의 영역 변경에 따라 터치로 실행될 기능이 달라진다. 그러므로, 프로세서(300)는 호버링 발생 좌표의 영역이 변경될 때마다, 변경된 영역에 대응되는 기능을 선택하고, 선택된 기능에 대응되는 아이템을 실행 아이템으로 결정하고, 결정된 실행 아이템에 대한 피드백을 제공할 수 있다. 16 and 17, when the touch area is divided into a plurality of areas, the function to be performed by the touch changes depending on the area change of the occurrence coordinates of hovering. Therefore, each time the area of the hovering occurrence coordinate is changed, the
다른 실시예로, 프로세서(300)는 호버링의 발생 좌표에 변경에 따라 터치로 실행될 기능을 변경할 수 있다. 예컨대, 도 19에 도시된 것과 같이 호버링의 발생 좌표가 제1 위치(P1)에서 제2 위치(P2)로 회전되면, 프로세서(300)는 호버링 발생 좌표의 이동에 따라 실행될 실행 아이콘을 음악 아이콘(432), 영화 아이콘(433), 전화 아이콘(434) 순서로 변경되고, 호버링에 의해 선택된 실행 아이콘은 다른 아이콘보다 선명하게 표시될 수 있다.In another embodiment, the
한편, 또 다른 실시예에 따르면, 터치 입력장치(100)의 내측면(121) 및 내측면(121)과 외측면(123)을 연결하는 등성이(122; ridge) 중 적어도 어느 하나는 터치 입력이 가능하도록 마련될 수 있다. 이하, 도 20 내지 도 22를 참조하여 터치 입력이 가능하도록 구현된 내측면(121) 또는 등성이(122)에 대하여 설명한다.According to another embodiment of the present invention, at least one of the
도 20은 또 다른 실시예에 따른 터치 입력장치의 조작 예시도이고, 도 21은 도 20과 또 다른 실시예에 따른 터치 입력장치의 조작 예시도이며, 도 22는 도 20 또는 도 21에 도시된 실시예에 따라 터치 입력장치를 조작했을 경우, 및 호버링이 발생한 경우 표시되는 화면의 예시도이다.Fig. 20 is an operational example of a touch input device according to still another embodiment, Fig. 21 is an operational example of the touch input device according to still another embodiment with Fig. 20, and Fig. FIG. 8 is an exemplary view of a screen displayed when the touch input device is operated according to the embodiment, and when hovering occurs.
도 20을 참조하면, 또 다른 실시예에 따른 터치 입력장치(100)의 내측면(121)에는 도 3과 관련하여 전술한 터치 센서(190)가 마련될 수 있고, 내측면(121)은 사용자가 내측면(121)을 따라 시계 방향(CL) 또는 반시계 방향(CCL)으로 제스처를 용이하게 입력 가능하도록 오목한 곡면으로 구현될 수도 있다.20, the
또한, 도 21을 참조하면, 또 다른 실시에에 따른 터치 입력장치(100)의 등성이(122)의 경우에도, 도 3과 관련하여 전술한 터치 센서(190)가 마련될 수 있고, 등성이(122)는 사용자로부터 시계 방향(CL) 또는 반시계 방향(CCL)으로의 제스처를 입력 받을 수 있다.21, the
한편, 도 16과 관련하여 전술한 바와 달리, 프로세서(300)는 터치 입력장치(100)의 내측면(121) 또는 등성이(122)에 입력된 사용자의 터치 신호에 따라 가상으로 분할된 영역을 이동하며 실행 아이템을 결정하고, 실행 아이템이 결정되면, 사용자의 호버링 입력에 따라 실행 아이템이 표시되는 영역 내에서 커서가 세밀하게 이동하도록 할 수 있다.16, the
도 22를 참조하면, 프로세서(300)는 내측면(121) 또는 등성이(122)에서 터치 입력이 발생하면 터치 입력의 방향에 따라 실행 아이템을 결정한다. Referring to FIG. 22, the
예컨대, 현재 실행 아이템이 전화 아이템(414)인 상태에서 시계 방향으로 내측면(121) 또는 등성이(122)에서 터치 신호가 입력된 경우 시계 방향에 대응되는 네비게이션 아이템(411)이 다음 실행 아이템으로서 결정되고, 반시계 방향으로 내측면(121) 또는 등성이(122)에서 터치 신호가 입력된 경우 반시계 방향에 대응되는 인터넷 아이템(413)이 다음 실행 아이템으로서 결정된다.For example, when a touch signal is input from the
그리고, 프로세서(300)는 결정된 다음 실행 아이템에 대한 피드백이 제공되도록 메뉴 인터페이스를 변경할 수 있다. 예컨대, 다음 실행 아이템이 네비게이션 아이템(411)으로서 결정된 경우, 프로세서(300)는 네비게이션 아이템(411)을 다른 아이템(412 내지 414)보다 선명하게 표시하여, 현재 네비게이션 기능이 결정됨을 사용자에게 피드백할 수 있다. Then, the
더 나아가, 프로세서(300)는 사용자의 호버링 입력에 따라 메뉴 인터페이스(410) 상에서 커서(415)가 세밀하게 이동하도록 할 수 있다. Further, the
예컨대, 네비게이션 아이템(411)이 다음 실행 아이템으로서 결정된 경우, 프로세서(300)는 실행 아이템이 표시되는 영역 내에서 사용자의 호버링 입력에 따라 커서(415)를 이동시킬 수 있고, 커서(415)의 이동방향은 시계 방향 또는 반시계 방향 등에 제한되지 않을 수 있다. 이러한 커서(415)의 이동은 호버링 발생 좌표에 대응하도록 메뉴 인터페이스(410) 상에서 표시될 수 있다.이상에서는 개시된 발명의 일 실시예에 대하여 도시하고 설명하였지만, 개시된 발명은 상술한 특정의 실시예에 한정되지 아니하며 청구범위에서 청구하는 요지를 벗어남 없이 개시된 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의하여 다양한 변형실시가 가능함을 물론이고 이러한 변형실시들은 개시된 발명으로부터 개별적으로 이해될 수 없다.For example, if the
1: 차량
100: 터치 입력장치
200: 호버링 센서
300: 프로세서
400: 디스플레이1: vehicle
100: Touch input device
200: hovering sensor
300: Processor
400: Display
Claims (20)
내측으로 요입된 터치 공간을 가지고, 상기 터치 공간에서의 호버링 발생을 감지하는 터치 입력장치; 및
상기 터치 공간에 호버링이 감지되면, 상기 사용자 인터페이스를 통해 상기 터치 입력장치의 터치 시에 실행될 기능에 대해 피드백을 제공하는 프로세서;를 포함하되,
상기 터치 입력장치는, 터치 영역이 마련된 요입부와, 상기 요입부 외측에 마련되어 상기 터치 공간을 형성하는 돌출부와, 상기 돌출부의 내측면, 및 등성이에 마련되어 사용자의 터치를 감지하는 터치 센서를 포함하고,
상기 등성이에 마련된 터치 센서는 사용자로부터 시계방향 또는 반시계방향의 제스처를 입력받는 차량.A display on which a user interface is displayed;
A touch input device having a touched space internally recessed to sense occurrence of hovering in the touch space; And
And a processor for providing feedback on a function to be executed at the touch of the touch input device through the user interface when hovering is detected in the touch space,
The touch input device includes a recessed portion provided with a touch region, a protrusion provided outside the recessed portion to form the touch space, and a touch sensor provided on an inner side of the protrusion, ,
Wherein the touch sensor provided on the isosceles receives a clockwise or counterclockwise gesture from a user.
상기 프로세서는, 터치로 실행된 기능에 대응되는 적어도 하나의 아이템이 포함되도록 상기 사용자 인터페이스를 구성하는 차량.The method according to claim 1,
Wherein the processor configures the user interface such that at least one item corresponding to a function executed with a touch is included.
상기 프로세서는, 상기 적어도 하나의 아이템 중 상기 터치 입력장치의 터치 시에 실행될 기능에 대해 피드백을 제공할 실행 아이템을 결정하는 차량. 3. The method of claim 2,
Wherein the processor determines an execution item to provide feedback on a function to be executed at the touch of the touch input device among the at least one item.
상기 프로세서는, 상기 호버링의 발생 좌표에 기초하여 상기 실행 아이템을 결정하는 차량. The method of claim 3,
Wherein the processor determines the execution item based on the occurrence coordinates of the hovering.
상기 프로세서는, 상기 적어도 하나의 아이템의 배치에 따라 상기 터치 공간을 복수의 영역으로 분할하고, 상기 복수의 영역 중 상기 호버링의 발생 좌표에 대응되는 영역의 아이템을 상기 실행 아이템으로 결정하는 차량. 5. The method of claim 4,
Wherein the processor divides the touch space into a plurality of areas in accordance with the arrangement of the at least one item and determines an item of an area corresponding to the occurrence coordinates of the hovering among the plurality of areas as the execution item.
상기 프로세서는, 상기 호버링의 발생 좌표 변화에 대응하여 상기 실행 아이템을 변경하는 차량. The method of claim 3,
Wherein the processor changes the execution item in response to a coordinate change of occurrence of the hovering.
상기 터치 입력장치는 상기 돌출부의 상측에 마련되어 상기 호버링을 검출하는 호버링 센서를 포함하는 차량. The method according to claim 1,
Wherein the touch input device comprises a hovering sensor provided above the projection to detect the hovering.
상기 호버링 센서는 미리 설정된 광로를 통해 조사되는 광을 검출하는 복수의 광원 센서;를 포함하는 차량. 8. The method of claim 7,
Wherein the hovering sensor comprises a plurality of light source sensors for detecting light irradiated through a predetermined optical path.
상기 프로세서는, 상기 복수의 광원 센서의 출력에 기초하여 상기 광로의 차단 여부를 판단하고, 상기 광로의 차단 여부에 기초하여 상기 호버링이 발생된 좌표를 판단하는 차량. 9. The method of claim 8,
Wherein the processor determines whether or not the optical path is blocked based on the outputs of the plurality of light source sensors and determines coordinates where the hovering has occurred based on whether or not the optical path is blocked.
상기 터치 입력장치는, 상기 요입부 및 상기 돌출부에 마련되어 사용자의 터치를 감지하는 터치 센서;를 더 포함하는 차량. The method according to claim 1,
Wherein the touch input device further comprises a touch sensor provided on the concave portion and the protrusion for sensing a touch of a user.
상기 터치 입력장치는, 상기 돌출부의 내측면 또는 등성이에 마련되어 사용자의 터치를 감지하는 터치 센서를 포함하는 차량.The method according to claim 1,
Wherein the touch input device comprises a touch sensor provided on an inner surface or an isosceles of the protrusion for sensing a touch of a user.
상기 터치 센서는 사용자의 시계 방향 또는 반시계 방향으로의 터치를 감지하는 차량.12. The method of claim 11,
Wherein the touch sensor senses a touch of a user in a clockwise or counterclockwise direction.
상기 프로세서는 상기 터치 센서에서 사용자의 터치가 감지되면 상기 사용자 인터페이스를 통해 상기 호버링에 대한 피드백과 다른 피드백을 사용자에게 제공하는 차량.12. The method of claim 11,
Wherein the processor provides the user with feedback on the hovering and other feedback via the user interface when a touch of the user is detected on the touch sensor.
사용자 인터페이스를 표시하는 표시 단계;
상기 터치 공간에서 호버링 발생을 감지하는 감지 단계;
상기 터치 공간에 호버링이 감지되면 상기 사용자 인터페이스를 통해 상기 터치 입력장치의 터치 시에 실행될 기능에 대해 피드백을 제공하는 피드백 단계;를 포함하되,
상기 터치 입력 장치는, 터치 영역이 마련된 요입부와, 상기 요입부 외측에 마련되어 상기 터치 공간을 형성하는 돌출부와, 상기 돌출부의 내측면, 및 등성이에 마련되어 사용자의 터치를 감지하는 터치 센서를 포함하고, 상기 등성이에 마련된 터치 센서는 사용자로부터 시계방향 또는 반시계방향의 제스처를 입력받는 차량의 제어방법.A method of controlling a vehicle including a touch input device having a touch space recessed inward,
A display step of displaying a user interface;
Sensing a hovering occurrence in the touch space;
And a feedback step of providing feedback on a function to be executed when the touch input device is touched through the user interface when hovering is detected in the touch space,
The touch input device includes a recessed portion provided with a touch region, a protrusion provided outside the recessed portion to form the touch space, and a touch sensor provided on an inner side of the protrusion, And the touch sensor provided in the isosceles receives a clockwise or counterclockwise gesture from a user.
상기 표시 단계는, 터치로 실행된 기능에 대응되는 적어도 하나의 아이템이 포함되도록 상기 사용자 인터페이스를 구성하는 단계;를 포함하는 차량의 제어방법.15. The method of claim 14,
And configuring the user interface so that at least one item corresponding to a function executed by a touch is included in the display step.
상기 피드백 단계는, 상기 적어도 하나의 아이템 중 상기 터치 입력장치의 터치 시에 실행될 기능에 대응되는 실행 아이템을 결정하는 단계;를 포함하는 차량의 제어방법. 16. The method of claim 15,
Wherein the feedback step comprises the step of determining an execution item corresponding to a function to be executed at the touch of the touch input device among the at least one item.
상기 피드백 단계는, 상기 호버링의 발생 좌표에 기초하여 상기 실행 아이템을 결정하는 단계;를 더 포함하는 차량의 제어방법. 17. The method of claim 16,
Wherein the feedback step further comprises: determining the execution item based on the occurrence coordinates of the hovering.
상기 피드백 단계는, 상기 적어도 하나의 아이템의 배치에 따라 상기 터치 공간을 복수의 영역으로 분할하는 단계;
상기 호버링의 발생 좌표에 대응되는 영역을 결정하는 단계;
상기 결정된 영역에 대응되는 아이템을 상기 실행 아이템으로 결정하는 단계;를 더 포함하는 차량의 제어방법. 18. The method of claim 17,
Wherein the feedback step comprises: dividing the touch space into a plurality of regions according to the arrangement of the at least one item;
Determining an area corresponding to the occurrence coordinate of the hovering;
And determining an item corresponding to the determined area as the execution item.
상기 피드백 단계는, 상기 호버링의 발생 좌표 변화에 대응하여 상기 실행 아이템을 변경하는 단계;를 더 포함하는 차량의 제어방법. 17. The method of claim 16,
Wherein the feedback step further comprises changing the execution item in response to a change in the occurrence coordinate of the hovering.
사용자의 터치가 감지되면 상기 실행 아이템에 대응되는 기능을 실행하는 단계;를 더 포함하는 차량의 제어방법. 17. The method of claim 16,
And executing a function corresponding to the execution item when a touch of the user is detected.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020170140137A KR20170124487A (en) | 2017-10-26 | 2017-10-26 | Vehicle, and control method for the same |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020170140137A KR20170124487A (en) | 2017-10-26 | 2017-10-26 | Vehicle, and control method for the same |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020150126351A Division KR20170029254A (en) | 2015-09-07 | 2015-09-07 | Vehicle, and control method for the same |
Publications (1)
Publication Number | Publication Date |
---|---|
KR20170124487A true KR20170124487A (en) | 2017-11-10 |
Family
ID=60386798
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020170140137A KR20170124487A (en) | 2017-10-26 | 2017-10-26 | Vehicle, and control method for the same |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR20170124487A (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110682921A (en) * | 2019-10-09 | 2020-01-14 | 广州小鹏汽车科技有限公司 | Vehicle interaction method and device, vehicle and machine readable medium |
-
2017
- 2017-10-26 KR KR1020170140137A patent/KR20170124487A/en active Search and Examination
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110682921A (en) * | 2019-10-09 | 2020-01-14 | 广州小鹏汽车科技有限公司 | Vehicle interaction method and device, vehicle and machine readable medium |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10146386B2 (en) | Touch input device, vehicle including the same, and manufacturing method thereof | |
CN107193398B (en) | Touch input device and vehicle including the same | |
KR101575650B1 (en) | Terminal, vehicle having the same and method for controlling the same | |
KR101721963B1 (en) | Controlling apparatus using touch input, vehicle comprising the same | |
KR101685891B1 (en) | Controlling apparatus using touch input and controlling method of the same | |
US20160378200A1 (en) | Touch input device, vehicle comprising the same, and method for controlling the same | |
US9665269B2 (en) | Touch input apparatus and vehicle having the same | |
CN106314151B (en) | Vehicle and method of controlling vehicle | |
KR20170029180A (en) | Vehicle, and control method for the same | |
US11474687B2 (en) | Touch input device and vehicle including the same | |
KR101681987B1 (en) | Control apparatus using touch and vehicle comprising the same | |
KR101696596B1 (en) | Vehicle, and control method for the same | |
US20170060312A1 (en) | Touch input device and vehicle including touch input device | |
KR20170124487A (en) | Vehicle, and control method for the same | |
KR102080725B1 (en) | Vehicle user interface apparatus using stretchable display and operating method thereof | |
KR102265372B1 (en) | Control apparatus using touch and vehicle comprising the same | |
KR20170029254A (en) | Vehicle, and control method for the same | |
KR20170029207A (en) | Control apparatus using touch and vehicle comprising the same | |
KR20180071020A (en) | Input apparatus and vehicle | |
KR101696592B1 (en) | Vehicle and controlling method of the same | |
KR20180070086A (en) | Vehicle, and control method for the same | |
WO2015093005A1 (en) | Display system | |
KR20180069297A (en) | Vehicle, and control method for the same | |
KR101681994B1 (en) | Controlling apparatus using touch input, vehicle comprising the same | |
KR101744736B1 (en) | Controlling apparatus using touch input and controlling method of the same |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A107 | Divisional application of patent | ||
A201 | Request for examination | ||
E902 | Notification of reason for refusal | ||
AMND | Amendment | ||
E601 | Decision to refuse application | ||
AMND | Amendment |