KR20170109283A - 차량 및 차량의 제어방법 - Google Patents
차량 및 차량의 제어방법 Download PDFInfo
- Publication number
- KR20170109283A KR20170109283A KR1020160033188A KR20160033188A KR20170109283A KR 20170109283 A KR20170109283 A KR 20170109283A KR 1020160033188 A KR1020160033188 A KR 1020160033188A KR 20160033188 A KR20160033188 A KR 20160033188A KR 20170109283 A KR20170109283 A KR 20170109283A
- Authority
- KR
- South Korea
- Prior art keywords
- user
- display unit
- arm length
- operable area
- keypad
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims abstract description 25
- 210000003195 fascia Anatomy 0.000 description 7
- 210000000707 wrist Anatomy 0.000 description 6
- 238000010586 diagram Methods 0.000 description 5
- 230000006870 function Effects 0.000 description 3
- 239000011521 glass Substances 0.000 description 2
- 125000002066 L-histidyl group Chemical group [H]N1C([H])=NC(C([H])([H])[C@](C(=O)[*])([H])N([H])[H])=C1[H] 0.000 description 1
- 239000003990 capacitor Substances 0.000 description 1
- 230000003749 cleanliness Effects 0.000 description 1
- 238000007599 discharging Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 239000002803 fossil fuel Substances 0.000 description 1
- 239000000446 fuel Substances 0.000 description 1
- 238000009434 installation Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W50/00—Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
- B60W50/08—Interaction between the driver and the control system
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/041—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
- G06F3/0416—Control or interface arrangements specially adapted for digitisers
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60K—ARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
- B60K35/00—Arrangement of adaptations of instruments
-
- B60K35/10—
-
- B60K35/60—
-
- B60K35/65—
-
- B60K35/654—
-
- B60K35/656—
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W50/00—Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
- B60W50/08—Interaction between the driver and the control system
- B60W50/14—Means for informing the driver, warning the driver or prompting a driver intervention
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
- G06F3/04883—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
- G06F3/04886—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures by partitioning the display area of the touch-screen or the surface of the digitising tablet into independently controllable areas, e.g. virtual keyboards or menus
-
- G06K9/00335—
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/59—Context or environment of the image inside of a vehicle, e.g. relating to seat occupancy, driver state or inner lighting conditions
-
- B60K2360/1438—
-
- B60K2360/1442—
-
- B60K2360/146—
-
- B60K2360/741—
-
- B60K2360/774—
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W50/00—Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
- B60W50/08—Interaction between the driver and the control system
- B60W50/14—Means for informing the driver, warning the driver or prompting a driver intervention
- B60W2050/146—Display means
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2420/00—Indexing codes relating to the type of sensors based on the principle of their operation
- B60W2420/42—Image sensing, e.g. optical camera
Abstract
개시된 실시예는 사용자의 인체정보를 이용하여 디스플레이부에 키패드가 표시될 조작가능영역을 결정하거나 운전자가 터치하는 지점을 포함하는 조작가능영역을 결정하여 키패드를 결정된 조작가능영역에 표시하는 차량 및 그 제어방법을 제공한다. 일 실시예에 따른 차량은 사용자가 터치제스처를 통해 명령을 입력할 수 있도록 마련된 키패드를 표시하는 디스플레이부; 사용자의 어깨높이와 사용자의 팔길이에 기초하여 상기 디스플레이부에 대한 사용자의 조작가능영역을 결정하고, 상기 결정된 조작가능영역에 상기 키패드가 표시되도록 상기 디스플레이부를 제어하는 제어부;를 포함한다.
Description
본 발명은 차량에 관한 것이다.
터치를 통한 입력기술의 발달이 차량의 디스플레이 장치에도 적용되고 있다.
예를 들어, 운전자는 디스플레이 장치에 표시되는 키패드를 터치하여 원하는 명령을 입력할 수 있다.
그러나, 운전 중에 디스플레이 장치를 터치하여 명령을 입력하고자 할 때, 운전자는 디스플레이 장치로 손을 뻗기 위해 몸을 이동시켜야 하는 경우가 발생할 수 있다. 운전 중에 발생할 수 있는 이런 신체의 이동은 주행 안전에 위험요소로 작용할 수 있다.
개시된 실시예는 사용자의 인체정보를 이용하여 디스플레이부에 키패드가 표시될 조작가능영역을 결정하거나 운전자가 터치하는 지점을 포함하는 조작가능영역을 결정하여 키패드를 결정된 조작가능영역에 표시하는 차량 및 그 제어방법을 제공한다.
일 실시예에 따른 차량은 사용자가 터치제스처를 통해 명령을 입력할 수 있도록 마련된 키패드를 표시하는 디스플레이부; 사용자의 어깨높이와 사용자의 팔길이에 기초하여 상기 디스플레이부에 대한 사용자의 조작가능영역을 결정하고, 상기 결정된 조작가능영역에 상기 키패드가 표시되도록 상기 디스플레이부를 제어하는 제어부;를 포함한다.
또한, 카메라를 포함하고, 상기 카메라에서 획득한 사용자의 영상을 이용하여 사용자의 관절위치를 인식하는 동작 인식부;를 더 포함할 수 있다.
또한, 상기 제어부는 좌석의 이동량 정보에 기초하여 사용자의 인체정보 획득의 기준이 되는 기준점을 산출하고, 상기 산출된 기준점과 상기 동작인식부에서 획득한 사용자의 관절위치를 이용하여 사용자의 어깨높이, 상완길이, 하완길이 및 손바닥 길이를 포함하는 인체정보를 산출할 수 있다.
또한, 상기 제어부는 사용자의 어깨를 중심으로 상기 상완길이, 하완길이 및 손바닥 길이를 합한 길이를 반지름으로 갖는 구를 결정하고, 상기 구와 상기 디스플레이부가 겹치는 부분을 기초로 조작가능영역을 결정할 수 있다.
또한, 상기 제어부는 사용자에 의해 상기 디스플레이부가 터치되면, 상기 터치된 지점을 포함하는 조작가능영역을 결정할 수 있다.
또한, 상기 제어부는 키패드의 표시 전, 사용자에게 디스플레이부의 터치를 요구하는 메시지를 상기 디스플레이부에 표시할 수 있다.
일 실시예에 따른 차량은 사용자가 터치제스처를 통해 명령을 입력할 수 있도록 마련된 키패드를 표시하는 디스플레이부; 사용자에 의해 상기 디스플레이부가 터치되면, 상기 터치된 지점을 포함하는 조작가능영역을 산출하고, 상기 산출된 조작가능영역에 상기 키패드가 표시되도록 상기 디스플레이부를 제어하는 제어부;를 포함한다.
또한, 상기 제어부는 키패드의 표시 전, 사용자에게 디스플레이부의 터치를 요구하는 메시지를 상기 디스플레이부에 표시할 수 있다.
또한, 상기 제어부는 사용자의 어깨높이와 사용자의 팔길이에 기초하여 상기 디스플레이부에 대한 사용자의 조작가능영역을 산출하고, 상기 산출된 조작가능영역에 상기 키패드가 표시되도록 상기 디스플레이부를 제어할 수 있다.
또한, 카메라를 포함하고, 상기 카메라에서 획득한 사용자의 영상을 이용하여 사용자의 관절위치를 인식하는 동작 인식부;를 더 포함할 수 있다.
또한, 상기 제어부는 좌석의 이동량 정보에 기초하여 사용자의 인체정보 획득의 기준이 되는 기준점을 산출하고, 상기 산출된 기준점과 상기 동작인식부에서 획득한 사용자의 관절위치를 이용하여 사용자의 어깨높이, 상완길이, 하완길이 및 손바닥 길이를 포함하는 인체정보를 산출할 수 있다.
또한, 상기 제어부는 사용자의 어깨를 중심으로 상기 상완길이, 하완길이 및 손바닥 길이를 합한 길이를 반지름으로 갖는 구를 결정하고, 상기 구와 상기 디스플레이부가 겹치는 부분을 기초로 조작가능영역으로 산출할 수 있다.
일 실시예에 따른 차량의 제어방법은 사용자의 어깨높이와 사용자의 팔길이에 기초하여 상기 디스플레이부에 대한 사용자의 조작가능영역을 결정하고; 상기 결정된 디스플레이부의 조작가능영역에 사용자가 터치제스처를 통해 명령을 입력할 수 있도록 마련된 키패드를 표시하는 것;을 포함한다.
또한, 좌석의 이동량 정보에 기초하여 사용자의 인체정보 획득의 기준이 되는 기준점을 산출하고; 상기 산출된 기준점과 상기 동작인식부에서 획득한 사용자의 관절위치를 이용하여 사용자의 어깨높이, 상완길이, 하완길이 및 손바닥 길이를 포함하는 인체정보를 산출하는 것;을 더 포함할 수 있다.
또한, 사용자의 어깨높이와 사용자의 팔길이에 기초하여 상기 디스플레이부에 대한 사용자의 조작가능영역을 결정하는 것은, 사용자의 어깨를 중심으로 사용자의 상완길이, 하완길이 및 손바닥 길이를 합한 길이를 반지름으로 갖는 구를 결정하고; 상기 구와 상기 디스플레이부가 겹치는 부분을 기초로 조작가능영역으로 산출할 수 있다.
또한, 사용자에 의해 상기 디스플레이부가 터치되면, 상기 터치된 지점을 포함하는 조작가능영역을 결정하는 것;을 더 포함할 수 있다.
또한, 키패드의 표시 전에 사용자에게 디스플레이부의 터치를 요구하는 메시지를 상기 디스플레이부에 표시하는 것;을 더 포함할 수 있다.
개시된 실시예에 따른 차량은 실제 주행상황에 적합한 주행경로를 제공할 수 있다.
또한, 개시된 실시예에 따른 차량이 제공하는 주행경로는 운전자가 느끼는 실제 주행상황과 주행경로의 오인식을 저감시킬 수 있다.
도 1은 일 실시예에 따른 차량의 외부 구성을 개략적으로 도시한 도면이다.
도 2는 일 실시예에 따른 차량의 내부 구성을 도시한 도면이다.
도 3은 일 실시예에 따른 차량의 제어 블록도이다.
도 4는 일 실시예에 따른 차량의 동작 인식부에서 획득하는 사용자의 인체정보를 개략적으로 나타낸 도면이다.
도 5는 일 실시예에 따른 차량에서 디스플레이부의 조작가능영역을 설정하기 위한 사용자의 터치를 나타낸 도면이다.
도 6 및 도 7은 일 실시예에 따른 차량의 디스플레이부에서 조작가능영역에 키패드가 표시된 것을 나타낸 도면이다.
도 8은 일 실시예에 따른 차량의 제어방법을 나타낸 도면이다.
도 2는 일 실시예에 따른 차량의 내부 구성을 도시한 도면이다.
도 3은 일 실시예에 따른 차량의 제어 블록도이다.
도 4는 일 실시예에 따른 차량의 동작 인식부에서 획득하는 사용자의 인체정보를 개략적으로 나타낸 도면이다.
도 5는 일 실시예에 따른 차량에서 디스플레이부의 조작가능영역을 설정하기 위한 사용자의 터치를 나타낸 도면이다.
도 6 및 도 7은 일 실시예에 따른 차량의 디스플레이부에서 조작가능영역에 키패드가 표시된 것을 나타낸 도면이다.
도 8은 일 실시예에 따른 차량의 제어방법을 나타낸 도면이다.
이하, 본 발명의 실시예를 첨부된 도면을 참조하여 상세하게 설명한다.
도 1은 본 발명의 일 실시예에 따른 차량의 외관도이고, 도 2는 본 발명의 일 실시예에 따른 차량 내부의 구성을 나타낸 도면이다.
도 1을 참조하면, 본 발명의 일 실시예에 따른 차량은 차량의 외관을 형성하는 본체(1), 차량을 이동시키는 차륜(51, 52), 차륜(51, 52)을 회전시키는 구동 장치(80), 차량 내부를 외부로부터 차폐시키는 도어(71), 차량 내부의 운전자에게 차량 전방의 시야를 제공하는 전면 유리(30), 운전자에게 차량 후방의 시야를 제공하는 사이드 미러(81, 82)를 포함한다.
차륜(51, 52)은 차량의 전방에 마련되는 전륜(51), 차량의 후방에 마련되는 후륜(52)을 포함한다.
구동 장치(80)는 본체(1)가 전방 또는 후방으로 이동하도록 전륜(51) 또는 후륜(52)에 회전력을 제공한다. 이와 같은 구동 장치(60)는 화석 연료를 연소시켜 회전력을 생성하는 엔진(engine) 또는 축전기(미도시)로부터 전원을 공급받아 회전력을 생성하는 모터(motor)를 포함할 수 있다.
도어(71)는 본체(1)의 좌측 및 우측에 회동 가능하게 마련되어 개방 시에 운전자가 차량의 내부에 탑승할 수 있도록 하며, 폐쇄 시에 차량의 내부를 외부로부터 차폐시킨다.
윈드쉴드 글래스(windshield glass)라고 불리는 전면 유리(30)는 본체(100)의 전방 상측에 마련된다. 차량 내부의 운전자는 전면 유리(30)를 통해 차량의 전방을 볼 수 있다.
또한, 사이드 미러(81, 82)는 본체(1)의 좌측에 마련되는 좌측 사이드 미러(81) 및 우측에 마련되는 우측 사이드 미러(82)를 포함한다. 차량 내부의 운전자는 사이드 미러(81, 82)를 통해 차량의 측면 및 후방의 상황을 눈으로 확인할 수 있다.
이외에도 차량은 차량 주변의 장애물 등을 감지하여 차량 주변의 상황을 운전자가 인식할 수 있도록 도움을 주는 다양한 센서를 포함할 수 있다. 예를 들어 차량은 차량의 전후좌우의 영상을 획득할 수 있는 다수의 카메라를 포함할 수 있다.
차량은 그 내부에 도 2에 도시된 것처럼 기어박스(120), 센터페시아(130), 스티어링 휠(140) 및 계기판(150) 등이 마련된 대시보드(dashboard)를 포함할 수 있다.
기어박스(120)에는 차량 변속을 위한 기어 레버(121)가 설치될 수 있다. 또한, 도면에 도시된 것처럼, 기어박스에는 사용자가 내비게이션 장치(10)나 오디오 장치(133) 등을 포함하는 멀티미디어 장치의 기능이나 차량의 주요 기능의 수행을 제어할 수 있도록 마련된 다이얼 조작부(111)와 다양한 버튼들을 포함하는 입력장치(110)가 설치될 수 있다.
센터페시아(130)에는 공조 장치(132), 오디오 장치(133) 및 내비게이션 장치(10) 등이 설치될 수 있다.
공조 장치는 차량 내부의 온도, 습도, 공기의 청정도, 공기의 흐름을 조절하여 차량의 내부를 쾌적하게 유지한다. 공조 장치는 센터페시아(130)에 설치되고 공기를 토출하는 적어도 하나의 토출구(132)를 포함할 수 있다. 센터페시아(130)에는 공조 장치 등을 제어하기 위한 버튼이나 다이얼 등이 설치될 수 있다. 운전자 등의 사용자는 센터페시아에 배치된 버튼이나 다이얼을 이용하여 차량의 공조 장치를 제어할 수 있다. 물론 기어박스(120)에 설치된 입력장치(110)의 버튼들이나 다이얼 조작부(111)를 통해 공조장치를 제어할 수도 있다.
실시예에 따라서 센터페시아(130)에는 내비게이션 장치(10)가 설치될 수 있다. 내비게이션 장치(10)는 차량의 센터페시아(130) 내부에 매립되어 형성될 수 있다. 일 실시예에 의하면 센터페시아에는 내비게이션 장치(10)를 제어하기 위한 입력부가 설치될 수도 있다. 실시예에 따라서 내비게이션 장치(10)의 입력부는 센터페시아가 아닌 다른 위치에 설치될 수도 있다. 예를 들어 내비게이션 장치(10)의 입력부는 내비게이션 장치(10)의 디스플레이부(300) 주변에 형성될 수도 있다. 또한 다른 예로 내비게이션 장치(10)의 입력부는 기어 박스(120) 등에 설치될 수도 있다.
스티어링 휠(140)은 차량의 주행 방향을 조절하기 위한 장치로, 운전자에 의해 파지되는 림(141) 및 차량의 조향 장치와 연결되고 림(141)과 조향을 위한 회전축의 허브를 연결하는 스포크(142)를 포함할 수 있다. 실시예에 따라서 스포크(142)에는 차량 내의 각종 장치, 일례로 오디오 장치 등을 제어하기 위한 조작 장치(142a, 142b)가 마련될 수 있다. 스티어링 휠(140)은 운전자가 안전한 주행을 할 수 있도록 운전자의 주의를 환기시키는 기능을 수행할 수도 있다. 예를 들면, 스티어링 휠(140)은 운전자의 졸음운전 시, 진동하여 촉각적으로 운전자에게 졸음운전에 대해 경고할 수도 있고, 주행환경의 변화에 따른 사고위험 발생 시 마찬가지로 진동을 통해 위험에 대해 경고할 수도 있다.
또한 대시보드에는 차량의 주행 속도, 엔진 회전수 또는 연료 잔량 등을 표시할 수 있는 각종 계기판(150)이 설치될 수 있다. 계기판(150)은 차량 상태, 차량 주행과 관련된 정보, 멀티미디어 장치의 조작과 관련된 정보 등을 표시하는 계기판 디스플레이부(151)를 포함할 수 있다.
한편, 네비게이션 장치의 디스플레이부(300)는 사용자의 터치명령을 입력받고, 입력된 터치명령에 따른 기능을 수행하도록 마련될 수 있다. 운전자의 신체조건에 따라 디스플레이부(300)에 표시되는 인터페이스, 예를 들면 키패드의 터치가 용이하지 않은 경우가 발생할 수 있다. 이에 개시된 실시예는 사용자의 신체조건에 따라 사용자가 터치하기 용이한 영역에 인터페이스를 표시하는 차량 및 그 제어방법을 제공한다.
이하, 도 3 내지 도 7을 참조하여 이에 대해 구체적으로 설명한다.
도 3은 일 실시예에 따른 차량의 제어 블록도이고, 도 4는 일 실시예에 따른 차량의 동작 인식부(400)에서 획득하는 사용자의 인체정보를 개략적으로 나타낸 도면이다. 도 5는 일 실시예에 따른 차량에서 디스플레이부(300)의 조작가능영역을 설정하기 위한 사용자의 터치를 나타낸 도면이고, 도 6 및 도 7은 일 실시예에 따른 차량의 디스플레이부(300)에서 조작가능영역에 키패드가 표시된 것을 나타낸 도면이다.
도 3을 참조하면, 개시된 실시예에 따른 차량은 사용자 즉, 운전자 또는 동승자의 동작을 인식하여 사용자의 관절위치에 대한 정보를 포함하는 인체정보를 획득하는 동작 인식부(400)와, 사용자의 터치명령을 입력 받을 수 있는 디스플레이부(300)와, 동작인식부(400)에 획득한 사용자의 인체정보 또는 디스플레이부(300)에 대한 터치에 기초하여 디스플레이부(300)의 조작가능영역을 결정하고 결정된 조작가능영역에 키패드를 표시하는 제어부(410)를 포함한다.
동작 인식부(400)는 운전자의 영상을 획득할 수 있는 카메라를 포함할 수 있다. 카메라는 사용자의 영상을 획득할 수 있으면 설치위치나 개수의 제한은 없다. 카메라는 CCD 또는 CMOS 센서를 포함할 수 있다. 동작 인식부(400)는 도 4에 도시된 것처럼, 카메라에서 획득한 운전자의 영상으로부터 조작가능영역의 결정에 필요한 인체정보를 획득한다. 즉, 동작 인식부(400)는 운전자의 어깨, 팔꿈치, 손목, 손끝에 대응하는 포인트를 획득할 수 있다. 이렇게 획득된 인체정보를 제어부(410)로 전송되어, 제어부(410)에서 조작가능영역의 결정에 사용될 수 있다.
디스플레이부(300)는 대시 보드의 중앙 영역인 센터페시아(130)에 위치할 수 있다. 이와 같은 디스플레이부(300)는 자체 발광이 가능한 발광 다이오드(Light Emitting Diode: LED)와 유기 발광 다이오드(Organic Light Emitting Diode: OLED) 또는 별도의 발광원을 구비하는 액정 디스플레이(Liquid Crystal Display) 등을 채용할 수 있다. 또한, 디스플레이부(300)는 사용자로부터 제어 명령을 입력받고, 입력받은 제어 명령에 대응하는 동작 정보를 표시하는 터치 스크린 패널(Touch Screen Panel: TSP)을 채용할 수도 있다. 터치 스크린 패널은 동작 정보 및 사용자가 입력할 수 있는 제어 명령을 표시하는 디스플레이, 사용자의 신체 일부가 접촉한 좌표를 검출하는 터치 패널(touch panel), 터치 패널이 검출한 접촉 좌표를 기초로 사용자가 입력한 제어 명령을 판단하는 터치 스크린 컨트롤러를 포함할 수 있다. 터치 스크린 컨트롤러는 터치 패널을 통하여 검출하는 사용자의 터치 좌표와 디스플레이를 통하여 표시하는 제어 명령의 좌표를 비교하여 사용자가 입력한 제어 명령을 인식할 수 있다.
제어부(410)는 운전석의 이동량 정보를 이용하여, 운전석의 후방 끝단을 기준으로 전방 및 상방으로 미리 정해진 거리에 대응하는 포인트를 도 4에 도시된 기준점(H)으로 획득할 수 있다.
제어부(410)는 기준점을 획득하면, 기준점과 동작 인식부(400)에서 획득한 운전자의 관절 정보를 이용하여, 기준점에서 어깨 포인트까지의 길이에 대응하는 어깨높이(A), 어깨 포인트부터 팔꿈치 포인트까지의 길이에 대응하는 상완길이(B), 팔꿈치 포인트부터 손목 포인트까지의 길이에 대응하는 하완길이(C), 손목 포인트부터 손끝 포인트까지의 길이에 대응하는 손바닥 길이(D)를 산출한다. 이러한 데이터는 메모리(420)에 미리 저장된 사용자의 키에 따른 표준 인체정보 데이터를 활용하여 산출될 수도 있다.
제어부(410)는 전술한 인체정보 중 상완길이, 하완길이, 손바닥 길이를 더한 후, 운전자의 어깨를 중심으로 하는 구를 산출하고, 디스플레이부(300) 중 산출된 구와 겹치는 부분을 조작가능영역으로 결정할 수 있다. 또는, 상완길이, 하완길이, 손바닥길이에 팔을 뻗어 조작할 때를 고려하여 결정된 길이, 대략 100mm를 더한 후, 운전자의 어깨를 중심으로 하는 구를 산출하고, 디스플레이부(300) 중 산출된 구와 겹치는 부분을 마찬가지로 조작가능영역으로 결정할 수 있다.
제어부(410)는 전술한 것처럼, 동작 인식부(400)에서 획득한 운전자의 인체정보를 이용하여 조작가능영역을 결정하거나, 도 5에 도시된 것처럼, 운전자가 디스플레이부(300)를 터치하면, 터치된 지점(P)을 포함하는 미리 정해진 크기의 영역을 조작가능영역으로 결정할 수 있다. 제어부(410)는 키패드를 표시하기 전에 디스플레이부(300)에 디스플레이부(300)의 터치를 요구하는 메시지를 표시하여, 운전자의 터치를 유도할 수 있다.
디스플레이부(300)의 터치를 요구하는 메시지가 표시된 후, 도 5에 도시된 것처럼, 디스플레이부(300)에 대한 터치가 이루어지면, 터치된 지점을 포함하는 조작가능영역을 결정하고, 미리 정해진 시간 동안 터치가 이루어지지 않으면, 전술한 것처럼 인체정보를 이용하여 조작가능영역을 결정할 수도 있다.
또는 제어부(410)는, 운전자의 인체정보와 디스플레이부(300)의 터치지점에 대한 정보를 조합하여, 운전자가 보다 용이하게 터치입력을 수행할 수 있는 조작가능영역을 결정할 수도 있다.
제어부(410)는 조작가능영역이 결정되면, 도 6에 도시된 것처럼, 조작가능영역(R)에 미리 정해진 형태의 키패드를 표시한다. 도 6에 도시된 키패드의 배치는 일 예일 뿐, 키패드의 배치나 디자인은 메모리(420)에 미리 저장된 다양한 배치 또는 디자인 중 조작가능영역의 크기나 형태에 적합한 배치 또는 디자인을 갖는 것으로 결정될 수 있다.
운전자가 아닌 동승자가 디스플레이부(300)에 대한 터치명령의 입력을 수행할 수도 있으므로, 도 7에 도시된 것처럼, 제어부(410)는 디스플레이부(300) 중 동승자 쪽에 가까운 영역에 운전자를 위해 결정된 조작가능영역의 크기와 형태에 대응하는 크기와 형태의 조작가능영역을 결정할 수 있다.
또는, 전술한 것처럼, 동승자의 인체정보를 획득하고 이를 이용하여 조작가능영역을 결정하거나, 동승자가 터치한 지점을 포함하는 조작가능영역을 결정할 수도 있다.
전술한 것처럼, 키패드와 같은 터치명령을 입력받는 인터페이스를 디스플레이부(300) 중 미리 정해진 고정영역에 표시하지 않고, 운전자의 신체조건을 고려하여 가변적으로 표시함으로써, 운전자 또는 동승자는 몸은 크게 움직이거나 팔을 뻗지 않고도 용이하게 터치명령을 입력할 수 있다.
도 8은 일 실시예에 따른 차량의 제어방법을 나타낸 도면이다.
도 8을 참조하면, 조작가능영역의 설정을 위한 터치가 입력되었는지 여부를 결정하고(800), 터치가 입력되지 않았으면, 제어부(410)는 사용자의 인체정보 획득의 기준이 되는 기준점을 결정하고(810), 동작 인식부(400)는 사용자의 관절위치에 대한 정보를 획득한다(820). 제어부(410)는 기준점과 관절위치에 대한 정보를 이용하여 사용자의 인체정보를 산출하고(830), 산출된 인체정보를 이용하여 조작가능영역을 결정한다(840).
디스플레이부(300)의 조작가능영역의 설정을 위한 터치명령이 입력되지 않으면, 제어부(410)는 운전석의 이동량 정보를 이용하여, 운전석의 후방 끝단을 기준으로 전방 및 상방으로 미리 정해진 거리에 대응하는 포인트를 도 4에 도시된 기준점(H)으로 획득한다.
동작 인식부(400)는 도 4에 도시된 것처럼, 카메라에서 획득한 운전자의 영상으로부터 조작가능영역의 결정에 필요한 인체정보를 획득한다. 즉, 동작 인식부(400)는 운전자의 어깨, 팔꿈치, 손목, 손끝에 대응하는 포인트를 획득할 수 있다. 제어부(410)는 기준점과 동작 인식부(400)에서 획득한 운전자의 관절 정보를 이용하여, 기준점에서 어깨 포인트까지의 길이에 대응하는 어깨높이(A), 어깨 포인트부터 팔꿈치 포인트까지의 길이에 대응하는 상완길이(B), 팔꿈치 포인트부터 손목 포인트까지의 길이에 대응하는 하완길이(C), 손목 포인트부터 손끝 포인트까지의 길이에 대응하는 손바닥 길이(D)를 산출한다. 이러한 데이터는 메모리(420)에 미리 저장된 사용자의 키에 따른 표준 인체정보 데이터를 활용하여 산출될 수도 있다. 제어부(410)는 전술한 인체정보 중 상완길이, 하완길이, 손바닥 길이를 더한 후, 운전자의 어깨를 중심으로 하는 구를 산출하고, 디스플레이부(300) 중 산출된 구와 겹치는 부분을 조작가능영역으로 결정할 수 있다. 또는, 상완길이, 하완길이, 손바닥길이에 팔을 뻗어 조작할 때를 고려하여 결정된 길이, 대략 100mm를 더한 후, 운전자의 어깨를 중심으로 하는 구를 산출하고, 디스플레이부(300) 중 산출된 구와 겹치는 부분을 마찬가지로 조작가능영역으로 결정할 수 있다.
조작가능영역이 결정되면, 제어부(410)는 결정된 조작가능영역에 키패드를 표시한다(850).
제어부(410)는 조작가능영역이 결정되면, 도 6에 도시된 것처럼, 조작가능영역(R)에 미리 정해진 형태의 키패드를 표시한다. 운전자가 아닌 동승자가 디스플레이부(300)에 대한 터치명령의 입력을 수행할 수도 있으므로, 도 7에 도시된 것처럼, 제어부(410)는 디스플레이부(300) 중 동승자 쪽에 가까운 영역에 운전자를 위해 결정된 조작가능영역의 크기와 형태에 대응하는 크기와 형태의 조작가능영역을 결정할 수 있다.
디스플레이부(300)의 조작가능영역의 설정을 위한 터치명령이 입력되면, 제어부(410)는 터치된 지점을 포함하는 조작가능영역을 결정하고(860), 결정된 조작가능영역에 키패드를 표시한다(850).
제어부(410)는 전술한 것처럼, 동작 인식부(400)에서 획득한 운전자의 인체정보를 이용하여 조작가능영역을 결정하거나, 도 5에 도시된 것처럼, 운전자가 디스플레이부(300)를 터치하면, 터치된 지점(P)을 포함하는 미리 정해진 크기의 영역을 조작가능영역으로 결정할 수 있다. 제어부(410)는 조작가능영역이 결정되면, 도 6에 도시된 것처럼, 조작가능영역(R)에 미리 정해진 형태의 키패드를 표시한다.
이상과 같이 실시예들이 비록 한정된 실시예와 도면에 의해 설명되었으나, 해당 기술분야에서 통상의 지식을 가진 자라면 상기의 기재로부터 다양한 수정 및 변형이 가능하다. 예를 들어, 설명된 기술들이 설명된 방법과 다른 순서로 수행되거나, 및/또는 설명된 시스템, 구조, 장치, 회로 등의 구성요소들이 설명된 방법과 다른 형태로 결합 또는 조합되거나, 다른 구성요소 또는 균등물에 의하여 대치되거나 치환되더라도 적절한 결과가 달성될 수 있다.
그러므로, 다른 구현들, 다른 실시예들 및 특허청구범위와 균등한 것들도 후술하는 특허청구범위의 범위에 속한다.
400: 동작 인식부
410: 제어부
420: 메모리
300: 디스플레이부
410: 제어부
420: 메모리
300: 디스플레이부
Claims (17)
- 사용자가 터치제스처를 통해 명령을 입력할 수 있도록 마련된 키패드를 표시하는 디스플레이부;
사용자의 어깨높이와 사용자의 팔길이에 기초하여 상기 디스플레이부에 대한 사용자의 조작가능영역을 결정하고, 상기 결정된 조작가능영역에 상기 키패드가 표시되도록 상기 디스플레이부를 제어하는 제어부;를 포함하는 차량. - 제1항에 있어서,
카메라를 포함하고, 상기 카메라에서 획득한 사용자의 영상을 이용하여 사용자의 관절위치를 인식하는 동작 인식부;를 더 포함하는 차량 - 제2항에 있어서,
상기 제어부는 좌석의 이동량 정보에 기초하여 사용자의 인체정보 획득의 기준이 되는 기준점을 산출하고, 상기 산출된 기준점과 상기 동작인식부에서 획득한 사용자의 관절위치를 이용하여 사용자의 어깨높이, 상완길이, 하완길이 및 손바닥 길이를 포함하는 인체정보를 산출하는 차량. - 제3항에 있어서,
상기 제어부는 사용자의 어깨를 중심으로 상기 상완길이, 하완길이 및 손바닥 길이를 합한 길이를 반지름으로 갖는 구를 결정하고, 상기 구와 상기 디스플레이부가 겹치는 부분을 기초로 조작가능영역을 결정하는 차량. - 제1항에 있어서,
상기 제어부는 사용자에 의해 상기 디스플레이부가 터치되면, 상기 터치된 지점을 포함하는 조작가능영역을 결정하는 차량 - 제1항에 있어서,
상기 제어부는 키패드의 표시 전, 사용자에게 디스플레이부의 터치를 요구하는 메시지를 상기 디스플레이부에 표시하는 차량 - 사용자가 터치제스처를 통해 명령을 입력할 수 있도록 마련된 키패드를 표시하는 디스플레이부;
사용자에 의해 상기 디스플레이부가 터치되면, 상기 터치된 지점을 포함하는 조작가능영역을 산출하고, 상기 산출된 조작가능영역에 상기 키패드가 표시되도록 상기 디스플레이부를 제어하는 제어부;를 포함하는 차량. - 제7항에 있어서,
상기 제어부는 키패드의 표시 전, 사용자에게 디스플레이부의 터치를 요구하는 메시지를 상기 디스플레이부에 표시하는 차량 - 제7항에 있어서,
상기 제어부는 사용자의 어깨높이와 사용자의 팔길이에 기초하여 상기 디스플레이부에 대한 사용자의 조작가능영역을 산출하고, 상기 산출된 조작가능영역에 상기 키패드가 표시되도록 상기 디스플레이부를 제어하는 차량. - 제9항에 있어서,
카메라를 포함하고, 상기 카메라에서 획득한 사용자의 영상을 이용하여 사용자의 관절위치를 인식하는 동작 인식부;를 더 포함하는 차량 - 제10항에 있어서,
상기 제어부는 좌석의 이동량 정보에 기초하여 사용자의 인체정보 획득의 기준이 되는 기준점을 산출하고, 상기 산출된 기준점과 상기 동작인식부에서 획득한 사용자의 관절위치를 이용하여 사용자의 어깨높이, 상완길이, 하완길이 및 손바닥 길이를 포함하는 인체정보를 산출하는 차량. - 제11항에 있어서,
상기 제어부는 사용자의 어깨를 중심으로 상기 상완길이, 하완길이 및 손바닥 길이를 합한 길이를 반지름으로 갖는 구를 결정하고, 상기 구와 상기 디스플레이부가 겹치는 부분을 기초로 조작가능영역으로 산출하는 차량. - 사용자의 어깨높이와 사용자의 팔길이에 기초하여 상기 디스플레이부에 대한 사용자의 조작가능영역을 결정하고;
상기 결정된 디스플레이부의 조작가능영역에 사용자가 터치제스처를 통해 명령을 입력할 수 있도록 마련된 키패드를 표시하는 것;을 포함하는 차량의 제어방법. - 제13항에 있어서,
좌석의 이동량 정보에 기초하여 사용자의 인체정보 획득의 기준이 되는 기준점을 산출하고;
상기 산출된 기준점과 상기 동작인식부에서 획득한 사용자의 관절위치를 이용하여 사용자의 어깨높이, 상완길이, 하완길이 및 손바닥 길이를 포함하는 인체정보를 산출하는 것;을 더 포함하는 차량의 제어방법 - 제13항에 있어서,
사용자의 어깨높이와 사용자의 팔길이에 기초하여 상기 디스플레이부에 대한 사용자의 조작가능영역을 결정하는 것은,
사용자의 어깨를 중심으로 사용자의 상완길이, 하완길이 및 손바닥 길이를 합한 길이를 반지름으로 갖는 구를 결정하고;
상기 구와 상기 디스플레이부가 겹치는 부분을 기초로 조작가능영역으로 산출하는 차량. - 제13항에 있어서,
사용자에 의해 상기 디스플레이부가 터치되면, 상기 터치된 지점을 포함하는 조작가능영역을 결정하는 것;을 더 포함하는 차량의 제어방법 - 제16항에 있어서,
키패드의 표시 전에 사용자에게 디스플레이부의 터치를 요구하는 메시지를 상기 디스플레이부에 표시하는 것;을 더 포함하는 차량의 제어방법.
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020160033188A KR20170109283A (ko) | 2016-03-21 | 2016-03-21 | 차량 및 차량의 제어방법 |
US15/374,767 US10732760B2 (en) | 2016-03-21 | 2016-12-09 | Vehicle and method for controlling the vehicle |
CN201611138491.1A CN107219915B (zh) | 2016-03-21 | 2016-12-12 | 车辆和用于控制该车辆的方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020160033188A KR20170109283A (ko) | 2016-03-21 | 2016-03-21 | 차량 및 차량의 제어방법 |
Publications (1)
Publication Number | Publication Date |
---|---|
KR20170109283A true KR20170109283A (ko) | 2017-09-29 |
Family
ID=59855533
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020160033188A KR20170109283A (ko) | 2016-03-21 | 2016-03-21 | 차량 및 차량의 제어방법 |
Country Status (3)
Country | Link |
---|---|
US (1) | US10732760B2 (ko) |
KR (1) | KR20170109283A (ko) |
CN (1) | CN107219915B (ko) |
Families Citing this family (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP1543330S (ko) * | 2015-08-28 | 2016-02-08 | ||
US10286810B2 (en) * | 2017-02-24 | 2019-05-14 | Nio Usa, Inc. | Integrated sensor arrangement for automated auxiliary component adjustments |
US11237699B2 (en) * | 2017-08-18 | 2022-02-01 | Microsoft Technology Licensing, Llc | Proximal menu generation |
US11301124B2 (en) | 2017-08-18 | 2022-04-12 | Microsoft Technology Licensing, Llc | User interface modification using preview panel |
US11034214B2 (en) * | 2017-10-04 | 2021-06-15 | Ford Global Technologies, Llc | Integrated display and ventilation assembly |
US10852901B2 (en) * | 2019-01-21 | 2020-12-01 | Promethean Limited | Systems and methods for user interface adjustment, customization, and placement |
CN111813314A (zh) * | 2019-04-12 | 2020-10-23 | 比亚迪股份有限公司 | 车辆控制方法和装置、存储介质、电子设备 |
CN111196281A (zh) * | 2020-01-03 | 2020-05-26 | 恒大新能源汽车科技(广东)有限公司 | 一种车机显示界面的页面布局控制方法及装置 |
CN111309183B (zh) * | 2020-02-26 | 2022-04-15 | 京东方科技集团股份有限公司 | 触控显示系统及其控制方法 |
CN111460890B (zh) * | 2020-02-28 | 2023-01-20 | 通彩视听科技(上海)有限公司 | 智能设备的悬浮工具设置方法、装置、设备及存储介质 |
CN113552996B (zh) * | 2021-09-22 | 2022-03-25 | 深圳技术大学 | 一种根据人体姿态自动调节界面布局的方法及触控屏设备 |
CN115220637A (zh) * | 2022-06-22 | 2022-10-21 | 重庆长安汽车股份有限公司 | 车门与座椅之间的联动交互方法及装置 |
Family Cites Families (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3711864B2 (ja) * | 2000-12-01 | 2005-11-02 | 日産自動車株式会社 | 車両用表示装置 |
DE102008048825A1 (de) | 2008-09-22 | 2010-03-25 | Volkswagen Ag | Anzeige- und Bediensystem in einem Kraftfahrzeug mit nutzerbeeinflussbarer Darstellung von Anzeigeobjekten sowie Verfahren zum Betreiben eines solchen Anzeige- und Bediensystems |
KR101078380B1 (ko) | 2009-03-23 | 2011-10-31 | 주식회사 코아로직 | 가상 키보드 제공 장치 및 방법 |
US8078359B2 (en) | 2009-10-05 | 2011-12-13 | Tesla Motors, Inc. | User configurable vehicle user interface |
US8954848B2 (en) | 2009-12-18 | 2015-02-10 | Honda Motor Co., Ltd. | Morphable pad for tactile control |
KR101334107B1 (ko) | 2010-04-22 | 2013-12-16 | 주식회사 굿소프트웨어랩 | 차량용 멀티미디어 제어를 위한 사용자 인터페이스 장치 및 방법 |
US20120053794A1 (en) * | 2010-08-25 | 2012-03-01 | Gm Global Technology Operations, Inc. | Individualizable convenience system for drivers |
KR101522991B1 (ko) * | 2010-09-22 | 2015-05-26 | 시마네켄 | 조작입력장치 및 방법, 그리고 프로그램 |
KR101697930B1 (ko) | 2010-12-13 | 2017-01-19 | 현대모비스 주식회사 | 차량용 사용자 인터페이스 장치 |
US8872640B2 (en) * | 2011-07-05 | 2014-10-28 | Saudi Arabian Oil Company | Systems, computer medium and computer-implemented methods for monitoring health and ergonomic status of drivers of vehicles |
KR20130071253A (ko) | 2011-12-20 | 2013-06-28 | 한국전자통신연구원 | 맞춤형 키보드 ui 제공 장치 및 방법 |
US9400564B2 (en) * | 2013-09-17 | 2016-07-26 | Toyota Motor Engineering & Manufacturing North America, Inc. | Interactive vehicle window display system with a safe driving reminder system |
KR20150062317A (ko) * | 2013-11-29 | 2015-06-08 | 현대모비스 주식회사 | 자동차의 통합 멀티미디어 장치 |
KR101542973B1 (ko) * | 2013-12-30 | 2015-08-07 | 현대자동차 주식회사 | 자동차의 디스플레이 제어장치 및 제어방법 |
US10845982B2 (en) * | 2014-04-28 | 2020-11-24 | Facebook, Inc. | Providing intelligent transcriptions of sound messages in a messaging application |
KR20150131607A (ko) * | 2014-05-15 | 2015-11-25 | 한국전자통신연구원 | 사용자 인터페이스 제어 장치 및 그것의 사용자 인터페이스 제어 방법 |
DE102014016222A1 (de) * | 2014-10-31 | 2016-05-04 | Audi Ag | Verfahren und System zum Betreiben einer berührungssensitiven Anzeigeeinrichtung eines Kraftwagens |
-
2016
- 2016-03-21 KR KR1020160033188A patent/KR20170109283A/ko not_active Application Discontinuation
- 2016-12-09 US US15/374,767 patent/US10732760B2/en active Active
- 2016-12-12 CN CN201611138491.1A patent/CN107219915B/zh active Active
Also Published As
Publication number | Publication date |
---|---|
CN107219915B (zh) | 2022-03-29 |
US20170269771A1 (en) | 2017-09-21 |
US10732760B2 (en) | 2020-08-04 |
CN107219915A (zh) | 2017-09-29 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR20170109283A (ko) | 차량 및 차량의 제어방법 | |
US9939912B2 (en) | Detection device and gesture input device | |
KR101561917B1 (ko) | 차량 제어 장치 및 그 제어 방법 | |
JP2018150043A (ja) | 自動車における情報伝送のためのシステム | |
US9645640B2 (en) | Device and method for navigating within a menu for controlling a vehicle, and selecting a menu entry from the menu | |
JP5124397B2 (ja) | 自動車用入出力装置 | |
US10133357B2 (en) | Apparatus for gesture recognition, vehicle including the same, and method for gesture recognition | |
KR101575650B1 (ko) | 단말기, 그를 가지는 차량 및 그 제어 방법 | |
US20110063425A1 (en) | Vehicle Operator Control Input Assistance | |
US9218059B2 (en) | Input apparatus for vehicle | |
US9701201B2 (en) | Input apparatus for vehicle and vehicle including the same | |
JP6244822B2 (ja) | 車載用表示システム | |
JP5958876B2 (ja) | 車両の入力装置 | |
JP2011063103A (ja) | 車載機器操作システム | |
JP4848997B2 (ja) | 車載機器の誤操作防止装置および誤操作防止方法 | |
KR20200093091A (ko) | 단말기, 그를 가지는 차량 및 그 제어 방법 | |
WO2018116565A1 (ja) | 車両用情報表示装置及び車両用情報表示プログラム | |
KR101542502B1 (ko) | 차량 제어 장치 및 그 제어 방법 | |
KR101500412B1 (ko) | 차량용 제스처 인식 장치 | |
US9536414B2 (en) | Vehicle with tactile information delivery system | |
JP2016149094A (ja) | 車両用情報処理装置 | |
JP4849193B2 (ja) | 車載機器の誤操作防止装置および誤操作防止方法 | |
KR101470027B1 (ko) | 차량용 조작 장치 | |
KR20140079025A (ko) | 차량 내 다리 제스처 인식을 이용한 사용자 인터페이스 조작 방법 | |
KR101767074B1 (ko) | 차량 및 그 제어방법 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
E902 | Notification of reason for refusal | ||
E601 | Decision to refuse application |