KR20170109283A - 차량 및 차량의 제어방법 - Google Patents

차량 및 차량의 제어방법 Download PDF

Info

Publication number
KR20170109283A
KR20170109283A KR1020160033188A KR20160033188A KR20170109283A KR 20170109283 A KR20170109283 A KR 20170109283A KR 1020160033188 A KR1020160033188 A KR 1020160033188A KR 20160033188 A KR20160033188 A KR 20160033188A KR 20170109283 A KR20170109283 A KR 20170109283A
Authority
KR
South Korea
Prior art keywords
user
display unit
arm length
operable area
keypad
Prior art date
Application number
KR1020160033188A
Other languages
English (en)
Inventor
남종용
박인성
이용
홍기범
윤석영
이지아
김태엽
이호택
Original Assignee
현대자동차주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 현대자동차주식회사 filed Critical 현대자동차주식회사
Priority to KR1020160033188A priority Critical patent/KR20170109283A/ko
Priority to US15/374,767 priority patent/US10732760B2/en
Priority to CN201611138491.1A priority patent/CN107219915B/zh
Publication of KR20170109283A publication Critical patent/KR20170109283A/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0416Control or interface arrangements specially adapted for digitisers
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Arrangement of adaptations of instruments
    • B60K35/10
    • B60K35/60
    • B60K35/65
    • B60K35/654
    • B60K35/656
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04886Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures by partitioning the display area of the touch-screen or the surface of the digitising tablet into independently controllable areas, e.g. virtual keyboards or menus
    • G06K9/00335
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/59Context or environment of the image inside of a vehicle, e.g. relating to seat occupancy, driver state or inner lighting conditions
    • B60K2360/1438
    • B60K2360/1442
    • B60K2360/146
    • B60K2360/741
    • B60K2360/774
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • B60W2050/146Display means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/42Image sensing, e.g. optical camera

Abstract

개시된 실시예는 사용자의 인체정보를 이용하여 디스플레이부에 키패드가 표시될 조작가능영역을 결정하거나 운전자가 터치하는 지점을 포함하는 조작가능영역을 결정하여 키패드를 결정된 조작가능영역에 표시하는 차량 및 그 제어방법을 제공한다. 일 실시예에 따른 차량은 사용자가 터치제스처를 통해 명령을 입력할 수 있도록 마련된 키패드를 표시하는 디스플레이부; 사용자의 어깨높이와 사용자의 팔길이에 기초하여 상기 디스플레이부에 대한 사용자의 조작가능영역을 결정하고, 상기 결정된 조작가능영역에 상기 키패드가 표시되도록 상기 디스플레이부를 제어하는 제어부;를 포함한다.

Description

차량 및 차량의 제어방법{VEHICLE AND METHOD FOR CONTROLLING VEHICLE}
본 발명은 차량에 관한 것이다.
터치를 통한 입력기술의 발달이 차량의 디스플레이 장치에도 적용되고 있다.
예를 들어, 운전자는 디스플레이 장치에 표시되는 키패드를 터치하여 원하는 명령을 입력할 수 있다.
그러나, 운전 중에 디스플레이 장치를 터치하여 명령을 입력하고자 할 때, 운전자는 디스플레이 장치로 손을 뻗기 위해 몸을 이동시켜야 하는 경우가 발생할 수 있다. 운전 중에 발생할 수 있는 이런 신체의 이동은 주행 안전에 위험요소로 작용할 수 있다.
개시된 실시예는 사용자의 인체정보를 이용하여 디스플레이부에 키패드가 표시될 조작가능영역을 결정하거나 운전자가 터치하는 지점을 포함하는 조작가능영역을 결정하여 키패드를 결정된 조작가능영역에 표시하는 차량 및 그 제어방법을 제공한다.
일 실시예에 따른 차량은 사용자가 터치제스처를 통해 명령을 입력할 수 있도록 마련된 키패드를 표시하는 디스플레이부; 사용자의 어깨높이와 사용자의 팔길이에 기초하여 상기 디스플레이부에 대한 사용자의 조작가능영역을 결정하고, 상기 결정된 조작가능영역에 상기 키패드가 표시되도록 상기 디스플레이부를 제어하는 제어부;를 포함한다.
또한, 카메라를 포함하고, 상기 카메라에서 획득한 사용자의 영상을 이용하여 사용자의 관절위치를 인식하는 동작 인식부;를 더 포함할 수 있다.
또한, 상기 제어부는 좌석의 이동량 정보에 기초하여 사용자의 인체정보 획득의 기준이 되는 기준점을 산출하고, 상기 산출된 기준점과 상기 동작인식부에서 획득한 사용자의 관절위치를 이용하여 사용자의 어깨높이, 상완길이, 하완길이 및 손바닥 길이를 포함하는 인체정보를 산출할 수 있다.
또한, 상기 제어부는 사용자의 어깨를 중심으로 상기 상완길이, 하완길이 및 손바닥 길이를 합한 길이를 반지름으로 갖는 구를 결정하고, 상기 구와 상기 디스플레이부가 겹치는 부분을 기초로 조작가능영역을 결정할 수 있다.
또한, 상기 제어부는 사용자에 의해 상기 디스플레이부가 터치되면, 상기 터치된 지점을 포함하는 조작가능영역을 결정할 수 있다.
또한, 상기 제어부는 키패드의 표시 전, 사용자에게 디스플레이부의 터치를 요구하는 메시지를 상기 디스플레이부에 표시할 수 있다.
일 실시예에 따른 차량은 사용자가 터치제스처를 통해 명령을 입력할 수 있도록 마련된 키패드를 표시하는 디스플레이부; 사용자에 의해 상기 디스플레이부가 터치되면, 상기 터치된 지점을 포함하는 조작가능영역을 산출하고, 상기 산출된 조작가능영역에 상기 키패드가 표시되도록 상기 디스플레이부를 제어하는 제어부;를 포함한다.
또한, 상기 제어부는 키패드의 표시 전, 사용자에게 디스플레이부의 터치를 요구하는 메시지를 상기 디스플레이부에 표시할 수 있다.
또한, 상기 제어부는 사용자의 어깨높이와 사용자의 팔길이에 기초하여 상기 디스플레이부에 대한 사용자의 조작가능영역을 산출하고, 상기 산출된 조작가능영역에 상기 키패드가 표시되도록 상기 디스플레이부를 제어할 수 있다.
또한, 카메라를 포함하고, 상기 카메라에서 획득한 사용자의 영상을 이용하여 사용자의 관절위치를 인식하는 동작 인식부;를 더 포함할 수 있다.
또한, 상기 제어부는 좌석의 이동량 정보에 기초하여 사용자의 인체정보 획득의 기준이 되는 기준점을 산출하고, 상기 산출된 기준점과 상기 동작인식부에서 획득한 사용자의 관절위치를 이용하여 사용자의 어깨높이, 상완길이, 하완길이 및 손바닥 길이를 포함하는 인체정보를 산출할 수 있다.
또한, 상기 제어부는 사용자의 어깨를 중심으로 상기 상완길이, 하완길이 및 손바닥 길이를 합한 길이를 반지름으로 갖는 구를 결정하고, 상기 구와 상기 디스플레이부가 겹치는 부분을 기초로 조작가능영역으로 산출할 수 있다.
일 실시예에 따른 차량의 제어방법은 사용자의 어깨높이와 사용자의 팔길이에 기초하여 상기 디스플레이부에 대한 사용자의 조작가능영역을 결정하고; 상기 결정된 디스플레이부의 조작가능영역에 사용자가 터치제스처를 통해 명령을 입력할 수 있도록 마련된 키패드를 표시하는 것;을 포함한다.
또한, 좌석의 이동량 정보에 기초하여 사용자의 인체정보 획득의 기준이 되는 기준점을 산출하고; 상기 산출된 기준점과 상기 동작인식부에서 획득한 사용자의 관절위치를 이용하여 사용자의 어깨높이, 상완길이, 하완길이 및 손바닥 길이를 포함하는 인체정보를 산출하는 것;을 더 포함할 수 있다.
또한, 사용자의 어깨높이와 사용자의 팔길이에 기초하여 상기 디스플레이부에 대한 사용자의 조작가능영역을 결정하는 것은, 사용자의 어깨를 중심으로 사용자의 상완길이, 하완길이 및 손바닥 길이를 합한 길이를 반지름으로 갖는 구를 결정하고; 상기 구와 상기 디스플레이부가 겹치는 부분을 기초로 조작가능영역으로 산출할 수 있다.
또한, 사용자에 의해 상기 디스플레이부가 터치되면, 상기 터치된 지점을 포함하는 조작가능영역을 결정하는 것;을 더 포함할 수 있다.
또한, 키패드의 표시 전에 사용자에게 디스플레이부의 터치를 요구하는 메시지를 상기 디스플레이부에 표시하는 것;을 더 포함할 수 있다.
개시된 실시예에 따른 차량은 실제 주행상황에 적합한 주행경로를 제공할 수 있다.
또한, 개시된 실시예에 따른 차량이 제공하는 주행경로는 운전자가 느끼는 실제 주행상황과 주행경로의 오인식을 저감시킬 수 있다.
도 1은 일 실시예에 따른 차량의 외부 구성을 개략적으로 도시한 도면이다.
도 2는 일 실시예에 따른 차량의 내부 구성을 도시한 도면이다.
도 3은 일 실시예에 따른 차량의 제어 블록도이다.
도 4는 일 실시예에 따른 차량의 동작 인식부에서 획득하는 사용자의 인체정보를 개략적으로 나타낸 도면이다.
도 5는 일 실시예에 따른 차량에서 디스플레이부의 조작가능영역을 설정하기 위한 사용자의 터치를 나타낸 도면이다.
도 6 및 도 7은 일 실시예에 따른 차량의 디스플레이부에서 조작가능영역에 키패드가 표시된 것을 나타낸 도면이다.
도 8은 일 실시예에 따른 차량의 제어방법을 나타낸 도면이다.
이하, 본 발명의 실시예를 첨부된 도면을 참조하여 상세하게 설명한다.
도 1은 본 발명의 일 실시예에 따른 차량의 외관도이고, 도 2는 본 발명의 일 실시예에 따른 차량 내부의 구성을 나타낸 도면이다.
도 1을 참조하면, 본 발명의 일 실시예에 따른 차량은 차량의 외관을 형성하는 본체(1), 차량을 이동시키는 차륜(51, 52), 차륜(51, 52)을 회전시키는 구동 장치(80), 차량 내부를 외부로부터 차폐시키는 도어(71), 차량 내부의 운전자에게 차량 전방의 시야를 제공하는 전면 유리(30), 운전자에게 차량 후방의 시야를 제공하는 사이드 미러(81, 82)를 포함한다.
차륜(51, 52)은 차량의 전방에 마련되는 전륜(51), 차량의 후방에 마련되는 후륜(52)을 포함한다.
구동 장치(80)는 본체(1)가 전방 또는 후방으로 이동하도록 전륜(51) 또는 후륜(52)에 회전력을 제공한다. 이와 같은 구동 장치(60)는 화석 연료를 연소시켜 회전력을 생성하는 엔진(engine) 또는 축전기(미도시)로부터 전원을 공급받아 회전력을 생성하는 모터(motor)를 포함할 수 있다.
도어(71)는 본체(1)의 좌측 및 우측에 회동 가능하게 마련되어 개방 시에 운전자가 차량의 내부에 탑승할 수 있도록 하며, 폐쇄 시에 차량의 내부를 외부로부터 차폐시킨다.
윈드쉴드 글래스(windshield glass)라고 불리는 전면 유리(30)는 본체(100)의 전방 상측에 마련된다. 차량 내부의 운전자는 전면 유리(30)를 통해 차량의 전방을 볼 수 있다.
또한, 사이드 미러(81, 82)는 본체(1)의 좌측에 마련되는 좌측 사이드 미러(81) 및 우측에 마련되는 우측 사이드 미러(82)를 포함한다. 차량 내부의 운전자는 사이드 미러(81, 82)를 통해 차량의 측면 및 후방의 상황을 눈으로 확인할 수 있다.
이외에도 차량은 차량 주변의 장애물 등을 감지하여 차량 주변의 상황을 운전자가 인식할 수 있도록 도움을 주는 다양한 센서를 포함할 수 있다. 예를 들어 차량은 차량의 전후좌우의 영상을 획득할 수 있는 다수의 카메라를 포함할 수 있다.
차량은 그 내부에 도 2에 도시된 것처럼 기어박스(120), 센터페시아(130), 스티어링 휠(140) 및 계기판(150) 등이 마련된 대시보드(dashboard)를 포함할 수 있다.
기어박스(120)에는 차량 변속을 위한 기어 레버(121)가 설치될 수 있다. 또한, 도면에 도시된 것처럼, 기어박스에는 사용자가 내비게이션 장치(10)나 오디오 장치(133) 등을 포함하는 멀티미디어 장치의 기능이나 차량의 주요 기능의 수행을 제어할 수 있도록 마련된 다이얼 조작부(111)와 다양한 버튼들을 포함하는 입력장치(110)가 설치될 수 있다.
센터페시아(130)에는 공조 장치(132), 오디오 장치(133) 및 내비게이션 장치(10) 등이 설치될 수 있다.
공조 장치는 차량 내부의 온도, 습도, 공기의 청정도, 공기의 흐름을 조절하여 차량의 내부를 쾌적하게 유지한다. 공조 장치는 센터페시아(130)에 설치되고 공기를 토출하는 적어도 하나의 토출구(132)를 포함할 수 있다. 센터페시아(130)에는 공조 장치 등을 제어하기 위한 버튼이나 다이얼 등이 설치될 수 있다. 운전자 등의 사용자는 센터페시아에 배치된 버튼이나 다이얼을 이용하여 차량의 공조 장치를 제어할 수 있다. 물론 기어박스(120)에 설치된 입력장치(110)의 버튼들이나 다이얼 조작부(111)를 통해 공조장치를 제어할 수도 있다.
실시예에 따라서 센터페시아(130)에는 내비게이션 장치(10)가 설치될 수 있다. 내비게이션 장치(10)는 차량의 센터페시아(130) 내부에 매립되어 형성될 수 있다. 일 실시예에 의하면 센터페시아에는 내비게이션 장치(10)를 제어하기 위한 입력부가 설치될 수도 있다. 실시예에 따라서 내비게이션 장치(10)의 입력부는 센터페시아가 아닌 다른 위치에 설치될 수도 있다. 예를 들어 내비게이션 장치(10)의 입력부는 내비게이션 장치(10)의 디스플레이부(300) 주변에 형성될 수도 있다. 또한 다른 예로 내비게이션 장치(10)의 입력부는 기어 박스(120) 등에 설치될 수도 있다.
스티어링 휠(140)은 차량의 주행 방향을 조절하기 위한 장치로, 운전자에 의해 파지되는 림(141) 및 차량의 조향 장치와 연결되고 림(141)과 조향을 위한 회전축의 허브를 연결하는 스포크(142)를 포함할 수 있다. 실시예에 따라서 스포크(142)에는 차량 내의 각종 장치, 일례로 오디오 장치 등을 제어하기 위한 조작 장치(142a, 142b)가 마련될 수 있다. 스티어링 휠(140)은 운전자가 안전한 주행을 할 수 있도록 운전자의 주의를 환기시키는 기능을 수행할 수도 있다. 예를 들면, 스티어링 휠(140)은 운전자의 졸음운전 시, 진동하여 촉각적으로 운전자에게 졸음운전에 대해 경고할 수도 있고, 주행환경의 변화에 따른 사고위험 발생 시 마찬가지로 진동을 통해 위험에 대해 경고할 수도 있다.
또한 대시보드에는 차량의 주행 속도, 엔진 회전수 또는 연료 잔량 등을 표시할 수 있는 각종 계기판(150)이 설치될 수 있다. 계기판(150)은 차량 상태, 차량 주행과 관련된 정보, 멀티미디어 장치의 조작과 관련된 정보 등을 표시하는 계기판 디스플레이부(151)를 포함할 수 있다.
한편, 네비게이션 장치의 디스플레이부(300)는 사용자의 터치명령을 입력받고, 입력된 터치명령에 따른 기능을 수행하도록 마련될 수 있다. 운전자의 신체조건에 따라 디스플레이부(300)에 표시되는 인터페이스, 예를 들면 키패드의 터치가 용이하지 않은 경우가 발생할 수 있다. 이에 개시된 실시예는 사용자의 신체조건에 따라 사용자가 터치하기 용이한 영역에 인터페이스를 표시하는 차량 및 그 제어방법을 제공한다.
이하, 도 3 내지 도 7을 참조하여 이에 대해 구체적으로 설명한다.
도 3은 일 실시예에 따른 차량의 제어 블록도이고, 도 4는 일 실시예에 따른 차량의 동작 인식부(400)에서 획득하는 사용자의 인체정보를 개략적으로 나타낸 도면이다. 도 5는 일 실시예에 따른 차량에서 디스플레이부(300)의 조작가능영역을 설정하기 위한 사용자의 터치를 나타낸 도면이고, 도 6 및 도 7은 일 실시예에 따른 차량의 디스플레이부(300)에서 조작가능영역에 키패드가 표시된 것을 나타낸 도면이다.
도 3을 참조하면, 개시된 실시예에 따른 차량은 사용자 즉, 운전자 또는 동승자의 동작을 인식하여 사용자의 관절위치에 대한 정보를 포함하는 인체정보를 획득하는 동작 인식부(400)와, 사용자의 터치명령을 입력 받을 수 있는 디스플레이부(300)와, 동작인식부(400)에 획득한 사용자의 인체정보 또는 디스플레이부(300)에 대한 터치에 기초하여 디스플레이부(300)의 조작가능영역을 결정하고 결정된 조작가능영역에 키패드를 표시하는 제어부(410)를 포함한다.
동작 인식부(400)는 운전자의 영상을 획득할 수 있는 카메라를 포함할 수 있다. 카메라는 사용자의 영상을 획득할 수 있으면 설치위치나 개수의 제한은 없다. 카메라는 CCD 또는 CMOS 센서를 포함할 수 있다. 동작 인식부(400)는 도 4에 도시된 것처럼, 카메라에서 획득한 운전자의 영상으로부터 조작가능영역의 결정에 필요한 인체정보를 획득한다. 즉, 동작 인식부(400)는 운전자의 어깨, 팔꿈치, 손목, 손끝에 대응하는 포인트를 획득할 수 있다. 이렇게 획득된 인체정보를 제어부(410)로 전송되어, 제어부(410)에서 조작가능영역의 결정에 사용될 수 있다.
디스플레이부(300)는 대시 보드의 중앙 영역인 센터페시아(130)에 위치할 수 있다. 이와 같은 디스플레이부(300)는 자체 발광이 가능한 발광 다이오드(Light Emitting Diode: LED)와 유기 발광 다이오드(Organic Light Emitting Diode: OLED) 또는 별도의 발광원을 구비하는 액정 디스플레이(Liquid Crystal Display) 등을 채용할 수 있다. 또한, 디스플레이부(300)는 사용자로부터 제어 명령을 입력받고, 입력받은 제어 명령에 대응하는 동작 정보를 표시하는 터치 스크린 패널(Touch Screen Panel: TSP)을 채용할 수도 있다. 터치 스크린 패널은 동작 정보 및 사용자가 입력할 수 있는 제어 명령을 표시하는 디스플레이, 사용자의 신체 일부가 접촉한 좌표를 검출하는 터치 패널(touch panel), 터치 패널이 검출한 접촉 좌표를 기초로 사용자가 입력한 제어 명령을 판단하는 터치 스크린 컨트롤러를 포함할 수 있다. 터치 스크린 컨트롤러는 터치 패널을 통하여 검출하는 사용자의 터치 좌표와 디스플레이를 통하여 표시하는 제어 명령의 좌표를 비교하여 사용자가 입력한 제어 명령을 인식할 수 있다.
제어부(410)는 운전석의 이동량 정보를 이용하여, 운전석의 후방 끝단을 기준으로 전방 및 상방으로 미리 정해진 거리에 대응하는 포인트를 도 4에 도시된 기준점(H)으로 획득할 수 있다.
제어부(410)는 기준점을 획득하면, 기준점과 동작 인식부(400)에서 획득한 운전자의 관절 정보를 이용하여, 기준점에서 어깨 포인트까지의 길이에 대응하는 어깨높이(A), 어깨 포인트부터 팔꿈치 포인트까지의 길이에 대응하는 상완길이(B), 팔꿈치 포인트부터 손목 포인트까지의 길이에 대응하는 하완길이(C), 손목 포인트부터 손끝 포인트까지의 길이에 대응하는 손바닥 길이(D)를 산출한다. 이러한 데이터는 메모리(420)에 미리 저장된 사용자의 키에 따른 표준 인체정보 데이터를 활용하여 산출될 수도 있다.
제어부(410)는 전술한 인체정보 중 상완길이, 하완길이, 손바닥 길이를 더한 후, 운전자의 어깨를 중심으로 하는 구를 산출하고, 디스플레이부(300) 중 산출된 구와 겹치는 부분을 조작가능영역으로 결정할 수 있다. 또는, 상완길이, 하완길이, 손바닥길이에 팔을 뻗어 조작할 때를 고려하여 결정된 길이, 대략 100mm를 더한 후, 운전자의 어깨를 중심으로 하는 구를 산출하고, 디스플레이부(300) 중 산출된 구와 겹치는 부분을 마찬가지로 조작가능영역으로 결정할 수 있다.
제어부(410)는 전술한 것처럼, 동작 인식부(400)에서 획득한 운전자의 인체정보를 이용하여 조작가능영역을 결정하거나, 도 5에 도시된 것처럼, 운전자가 디스플레이부(300)를 터치하면, 터치된 지점(P)을 포함하는 미리 정해진 크기의 영역을 조작가능영역으로 결정할 수 있다. 제어부(410)는 키패드를 표시하기 전에 디스플레이부(300)에 디스플레이부(300)의 터치를 요구하는 메시지를 표시하여, 운전자의 터치를 유도할 수 있다.
디스플레이부(300)의 터치를 요구하는 메시지가 표시된 후, 도 5에 도시된 것처럼, 디스플레이부(300)에 대한 터치가 이루어지면, 터치된 지점을 포함하는 조작가능영역을 결정하고, 미리 정해진 시간 동안 터치가 이루어지지 않으면, 전술한 것처럼 인체정보를 이용하여 조작가능영역을 결정할 수도 있다.
또는 제어부(410)는, 운전자의 인체정보와 디스플레이부(300)의 터치지점에 대한 정보를 조합하여, 운전자가 보다 용이하게 터치입력을 수행할 수 있는 조작가능영역을 결정할 수도 있다.
제어부(410)는 조작가능영역이 결정되면, 도 6에 도시된 것처럼, 조작가능영역(R)에 미리 정해진 형태의 키패드를 표시한다. 도 6에 도시된 키패드의 배치는 일 예일 뿐, 키패드의 배치나 디자인은 메모리(420)에 미리 저장된 다양한 배치 또는 디자인 중 조작가능영역의 크기나 형태에 적합한 배치 또는 디자인을 갖는 것으로 결정될 수 있다.
운전자가 아닌 동승자가 디스플레이부(300)에 대한 터치명령의 입력을 수행할 수도 있으므로, 도 7에 도시된 것처럼, 제어부(410)는 디스플레이부(300) 중 동승자 쪽에 가까운 영역에 운전자를 위해 결정된 조작가능영역의 크기와 형태에 대응하는 크기와 형태의 조작가능영역을 결정할 수 있다.
또는, 전술한 것처럼, 동승자의 인체정보를 획득하고 이를 이용하여 조작가능영역을 결정하거나, 동승자가 터치한 지점을 포함하는 조작가능영역을 결정할 수도 있다.
전술한 것처럼, 키패드와 같은 터치명령을 입력받는 인터페이스를 디스플레이부(300) 중 미리 정해진 고정영역에 표시하지 않고, 운전자의 신체조건을 고려하여 가변적으로 표시함으로써, 운전자 또는 동승자는 몸은 크게 움직이거나 팔을 뻗지 않고도 용이하게 터치명령을 입력할 수 있다.
도 8은 일 실시예에 따른 차량의 제어방법을 나타낸 도면이다.
도 8을 참조하면, 조작가능영역의 설정을 위한 터치가 입력되었는지 여부를 결정하고(800), 터치가 입력되지 않았으면, 제어부(410)는 사용자의 인체정보 획득의 기준이 되는 기준점을 결정하고(810), 동작 인식부(400)는 사용자의 관절위치에 대한 정보를 획득한다(820). 제어부(410)는 기준점과 관절위치에 대한 정보를 이용하여 사용자의 인체정보를 산출하고(830), 산출된 인체정보를 이용하여 조작가능영역을 결정한다(840).
디스플레이부(300)의 조작가능영역의 설정을 위한 터치명령이 입력되지 않으면, 제어부(410)는 운전석의 이동량 정보를 이용하여, 운전석의 후방 끝단을 기준으로 전방 및 상방으로 미리 정해진 거리에 대응하는 포인트를 도 4에 도시된 기준점(H)으로 획득한다.
동작 인식부(400)는 도 4에 도시된 것처럼, 카메라에서 획득한 운전자의 영상으로부터 조작가능영역의 결정에 필요한 인체정보를 획득한다. 즉, 동작 인식부(400)는 운전자의 어깨, 팔꿈치, 손목, 손끝에 대응하는 포인트를 획득할 수 있다. 제어부(410)는 기준점과 동작 인식부(400)에서 획득한 운전자의 관절 정보를 이용하여, 기준점에서 어깨 포인트까지의 길이에 대응하는 어깨높이(A), 어깨 포인트부터 팔꿈치 포인트까지의 길이에 대응하는 상완길이(B), 팔꿈치 포인트부터 손목 포인트까지의 길이에 대응하는 하완길이(C), 손목 포인트부터 손끝 포인트까지의 길이에 대응하는 손바닥 길이(D)를 산출한다. 이러한 데이터는 메모리(420)에 미리 저장된 사용자의 키에 따른 표준 인체정보 데이터를 활용하여 산출될 수도 있다. 제어부(410)는 전술한 인체정보 중 상완길이, 하완길이, 손바닥 길이를 더한 후, 운전자의 어깨를 중심으로 하는 구를 산출하고, 디스플레이부(300) 중 산출된 구와 겹치는 부분을 조작가능영역으로 결정할 수 있다. 또는, 상완길이, 하완길이, 손바닥길이에 팔을 뻗어 조작할 때를 고려하여 결정된 길이, 대략 100mm를 더한 후, 운전자의 어깨를 중심으로 하는 구를 산출하고, 디스플레이부(300) 중 산출된 구와 겹치는 부분을 마찬가지로 조작가능영역으로 결정할 수 있다.
조작가능영역이 결정되면, 제어부(410)는 결정된 조작가능영역에 키패드를 표시한다(850).
제어부(410)는 조작가능영역이 결정되면, 도 6에 도시된 것처럼, 조작가능영역(R)에 미리 정해진 형태의 키패드를 표시한다. 운전자가 아닌 동승자가 디스플레이부(300)에 대한 터치명령의 입력을 수행할 수도 있으므로, 도 7에 도시된 것처럼, 제어부(410)는 디스플레이부(300) 중 동승자 쪽에 가까운 영역에 운전자를 위해 결정된 조작가능영역의 크기와 형태에 대응하는 크기와 형태의 조작가능영역을 결정할 수 있다.
디스플레이부(300)의 조작가능영역의 설정을 위한 터치명령이 입력되면, 제어부(410)는 터치된 지점을 포함하는 조작가능영역을 결정하고(860), 결정된 조작가능영역에 키패드를 표시한다(850).
제어부(410)는 전술한 것처럼, 동작 인식부(400)에서 획득한 운전자의 인체정보를 이용하여 조작가능영역을 결정하거나, 도 5에 도시된 것처럼, 운전자가 디스플레이부(300)를 터치하면, 터치된 지점(P)을 포함하는 미리 정해진 크기의 영역을 조작가능영역으로 결정할 수 있다. 제어부(410)는 조작가능영역이 결정되면, 도 6에 도시된 것처럼, 조작가능영역(R)에 미리 정해진 형태의 키패드를 표시한다.
이상과 같이 실시예들이 비록 한정된 실시예와 도면에 의해 설명되었으나, 해당 기술분야에서 통상의 지식을 가진 자라면 상기의 기재로부터 다양한 수정 및 변형이 가능하다. 예를 들어, 설명된 기술들이 설명된 방법과 다른 순서로 수행되거나, 및/또는 설명된 시스템, 구조, 장치, 회로 등의 구성요소들이 설명된 방법과 다른 형태로 결합 또는 조합되거나, 다른 구성요소 또는 균등물에 의하여 대치되거나 치환되더라도 적절한 결과가 달성될 수 있다.
그러므로, 다른 구현들, 다른 실시예들 및 특허청구범위와 균등한 것들도 후술하는 특허청구범위의 범위에 속한다.
400: 동작 인식부
410: 제어부
420: 메모리
300: 디스플레이부

Claims (17)

  1. 사용자가 터치제스처를 통해 명령을 입력할 수 있도록 마련된 키패드를 표시하는 디스플레이부;
    사용자의 어깨높이와 사용자의 팔길이에 기초하여 상기 디스플레이부에 대한 사용자의 조작가능영역을 결정하고, 상기 결정된 조작가능영역에 상기 키패드가 표시되도록 상기 디스플레이부를 제어하는 제어부;를 포함하는 차량.
  2. 제1항에 있어서,
    카메라를 포함하고, 상기 카메라에서 획득한 사용자의 영상을 이용하여 사용자의 관절위치를 인식하는 동작 인식부;를 더 포함하는 차량
  3. 제2항에 있어서,
    상기 제어부는 좌석의 이동량 정보에 기초하여 사용자의 인체정보 획득의 기준이 되는 기준점을 산출하고, 상기 산출된 기준점과 상기 동작인식부에서 획득한 사용자의 관절위치를 이용하여 사용자의 어깨높이, 상완길이, 하완길이 및 손바닥 길이를 포함하는 인체정보를 산출하는 차량.
  4. 제3항에 있어서,
    상기 제어부는 사용자의 어깨를 중심으로 상기 상완길이, 하완길이 및 손바닥 길이를 합한 길이를 반지름으로 갖는 구를 결정하고, 상기 구와 상기 디스플레이부가 겹치는 부분을 기초로 조작가능영역을 결정하는 차량.
  5. 제1항에 있어서,
    상기 제어부는 사용자에 의해 상기 디스플레이부가 터치되면, 상기 터치된 지점을 포함하는 조작가능영역을 결정하는 차량
  6. 제1항에 있어서,
    상기 제어부는 키패드의 표시 전, 사용자에게 디스플레이부의 터치를 요구하는 메시지를 상기 디스플레이부에 표시하는 차량
  7. 사용자가 터치제스처를 통해 명령을 입력할 수 있도록 마련된 키패드를 표시하는 디스플레이부;
    사용자에 의해 상기 디스플레이부가 터치되면, 상기 터치된 지점을 포함하는 조작가능영역을 산출하고, 상기 산출된 조작가능영역에 상기 키패드가 표시되도록 상기 디스플레이부를 제어하는 제어부;를 포함하는 차량.
  8. 제7항에 있어서,
    상기 제어부는 키패드의 표시 전, 사용자에게 디스플레이부의 터치를 요구하는 메시지를 상기 디스플레이부에 표시하는 차량
  9. 제7항에 있어서,
    상기 제어부는 사용자의 어깨높이와 사용자의 팔길이에 기초하여 상기 디스플레이부에 대한 사용자의 조작가능영역을 산출하고, 상기 산출된 조작가능영역에 상기 키패드가 표시되도록 상기 디스플레이부를 제어하는 차량.
  10. 제9항에 있어서,
    카메라를 포함하고, 상기 카메라에서 획득한 사용자의 영상을 이용하여 사용자의 관절위치를 인식하는 동작 인식부;를 더 포함하는 차량
  11. 제10항에 있어서,
    상기 제어부는 좌석의 이동량 정보에 기초하여 사용자의 인체정보 획득의 기준이 되는 기준점을 산출하고, 상기 산출된 기준점과 상기 동작인식부에서 획득한 사용자의 관절위치를 이용하여 사용자의 어깨높이, 상완길이, 하완길이 및 손바닥 길이를 포함하는 인체정보를 산출하는 차량.
  12. 제11항에 있어서,
    상기 제어부는 사용자의 어깨를 중심으로 상기 상완길이, 하완길이 및 손바닥 길이를 합한 길이를 반지름으로 갖는 구를 결정하고, 상기 구와 상기 디스플레이부가 겹치는 부분을 기초로 조작가능영역으로 산출하는 차량.
  13. 사용자의 어깨높이와 사용자의 팔길이에 기초하여 상기 디스플레이부에 대한 사용자의 조작가능영역을 결정하고;
    상기 결정된 디스플레이부의 조작가능영역에 사용자가 터치제스처를 통해 명령을 입력할 수 있도록 마련된 키패드를 표시하는 것;을 포함하는 차량의 제어방법.
  14. 제13항에 있어서,
    좌석의 이동량 정보에 기초하여 사용자의 인체정보 획득의 기준이 되는 기준점을 산출하고;
    상기 산출된 기준점과 상기 동작인식부에서 획득한 사용자의 관절위치를 이용하여 사용자의 어깨높이, 상완길이, 하완길이 및 손바닥 길이를 포함하는 인체정보를 산출하는 것;을 더 포함하는 차량의 제어방법
  15. 제13항에 있어서,
    사용자의 어깨높이와 사용자의 팔길이에 기초하여 상기 디스플레이부에 대한 사용자의 조작가능영역을 결정하는 것은,
    사용자의 어깨를 중심으로 사용자의 상완길이, 하완길이 및 손바닥 길이를 합한 길이를 반지름으로 갖는 구를 결정하고;
    상기 구와 상기 디스플레이부가 겹치는 부분을 기초로 조작가능영역으로 산출하는 차량.
  16. 제13항에 있어서,
    사용자에 의해 상기 디스플레이부가 터치되면, 상기 터치된 지점을 포함하는 조작가능영역을 결정하는 것;을 더 포함하는 차량의 제어방법
  17. 제16항에 있어서,
    키패드의 표시 전에 사용자에게 디스플레이부의 터치를 요구하는 메시지를 상기 디스플레이부에 표시하는 것;을 더 포함하는 차량의 제어방법.
KR1020160033188A 2016-03-21 2016-03-21 차량 및 차량의 제어방법 KR20170109283A (ko)

Priority Applications (3)

Application Number Priority Date Filing Date Title
KR1020160033188A KR20170109283A (ko) 2016-03-21 2016-03-21 차량 및 차량의 제어방법
US15/374,767 US10732760B2 (en) 2016-03-21 2016-12-09 Vehicle and method for controlling the vehicle
CN201611138491.1A CN107219915B (zh) 2016-03-21 2016-12-12 车辆和用于控制该车辆的方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020160033188A KR20170109283A (ko) 2016-03-21 2016-03-21 차량 및 차량의 제어방법

Publications (1)

Publication Number Publication Date
KR20170109283A true KR20170109283A (ko) 2017-09-29

Family

ID=59855533

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020160033188A KR20170109283A (ko) 2016-03-21 2016-03-21 차량 및 차량의 제어방법

Country Status (3)

Country Link
US (1) US10732760B2 (ko)
KR (1) KR20170109283A (ko)
CN (1) CN107219915B (ko)

Families Citing this family (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP1543330S (ko) * 2015-08-28 2016-02-08
US10286810B2 (en) * 2017-02-24 2019-05-14 Nio Usa, Inc. Integrated sensor arrangement for automated auxiliary component adjustments
US11237699B2 (en) * 2017-08-18 2022-02-01 Microsoft Technology Licensing, Llc Proximal menu generation
US11301124B2 (en) 2017-08-18 2022-04-12 Microsoft Technology Licensing, Llc User interface modification using preview panel
US11034214B2 (en) * 2017-10-04 2021-06-15 Ford Global Technologies, Llc Integrated display and ventilation assembly
US10852901B2 (en) * 2019-01-21 2020-12-01 Promethean Limited Systems and methods for user interface adjustment, customization, and placement
CN111813314A (zh) * 2019-04-12 2020-10-23 比亚迪股份有限公司 车辆控制方法和装置、存储介质、电子设备
CN111196281A (zh) * 2020-01-03 2020-05-26 恒大新能源汽车科技(广东)有限公司 一种车机显示界面的页面布局控制方法及装置
CN111309183B (zh) * 2020-02-26 2022-04-15 京东方科技集团股份有限公司 触控显示系统及其控制方法
CN111460890B (zh) * 2020-02-28 2023-01-20 通彩视听科技(上海)有限公司 智能设备的悬浮工具设置方法、装置、设备及存储介质
CN113552996B (zh) * 2021-09-22 2022-03-25 深圳技术大学 一种根据人体姿态自动调节界面布局的方法及触控屏设备
CN115220637A (zh) * 2022-06-22 2022-10-21 重庆长安汽车股份有限公司 车门与座椅之间的联动交互方法及装置

Family Cites Families (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3711864B2 (ja) * 2000-12-01 2005-11-02 日産自動車株式会社 車両用表示装置
DE102008048825A1 (de) 2008-09-22 2010-03-25 Volkswagen Ag Anzeige- und Bediensystem in einem Kraftfahrzeug mit nutzerbeeinflussbarer Darstellung von Anzeigeobjekten sowie Verfahren zum Betreiben eines solchen Anzeige- und Bediensystems
KR101078380B1 (ko) 2009-03-23 2011-10-31 주식회사 코아로직 가상 키보드 제공 장치 및 방법
US8078359B2 (en) 2009-10-05 2011-12-13 Tesla Motors, Inc. User configurable vehicle user interface
US8954848B2 (en) 2009-12-18 2015-02-10 Honda Motor Co., Ltd. Morphable pad for tactile control
KR101334107B1 (ko) 2010-04-22 2013-12-16 주식회사 굿소프트웨어랩 차량용 멀티미디어 제어를 위한 사용자 인터페이스 장치 및 방법
US20120053794A1 (en) * 2010-08-25 2012-03-01 Gm Global Technology Operations, Inc. Individualizable convenience system for drivers
KR101522991B1 (ko) * 2010-09-22 2015-05-26 시마네켄 조작입력장치 및 방법, 그리고 프로그램
KR101697930B1 (ko) 2010-12-13 2017-01-19 현대모비스 주식회사 차량용 사용자 인터페이스 장치
US8872640B2 (en) * 2011-07-05 2014-10-28 Saudi Arabian Oil Company Systems, computer medium and computer-implemented methods for monitoring health and ergonomic status of drivers of vehicles
KR20130071253A (ko) 2011-12-20 2013-06-28 한국전자통신연구원 맞춤형 키보드 ui 제공 장치 및 방법
US9400564B2 (en) * 2013-09-17 2016-07-26 Toyota Motor Engineering & Manufacturing North America, Inc. Interactive vehicle window display system with a safe driving reminder system
KR20150062317A (ko) * 2013-11-29 2015-06-08 현대모비스 주식회사 자동차의 통합 멀티미디어 장치
KR101542973B1 (ko) * 2013-12-30 2015-08-07 현대자동차 주식회사 자동차의 디스플레이 제어장치 및 제어방법
US10845982B2 (en) * 2014-04-28 2020-11-24 Facebook, Inc. Providing intelligent transcriptions of sound messages in a messaging application
KR20150131607A (ko) * 2014-05-15 2015-11-25 한국전자통신연구원 사용자 인터페이스 제어 장치 및 그것의 사용자 인터페이스 제어 방법
DE102014016222A1 (de) * 2014-10-31 2016-05-04 Audi Ag Verfahren und System zum Betreiben einer berührungssensitiven Anzeigeeinrichtung eines Kraftwagens

Also Published As

Publication number Publication date
CN107219915B (zh) 2022-03-29
US20170269771A1 (en) 2017-09-21
US10732760B2 (en) 2020-08-04
CN107219915A (zh) 2017-09-29

Similar Documents

Publication Publication Date Title
KR20170109283A (ko) 차량 및 차량의 제어방법
US9939912B2 (en) Detection device and gesture input device
KR101561917B1 (ko) 차량 제어 장치 및 그 제어 방법
JP2018150043A (ja) 自動車における情報伝送のためのシステム
US9645640B2 (en) Device and method for navigating within a menu for controlling a vehicle, and selecting a menu entry from the menu
JP5124397B2 (ja) 自動車用入出力装置
US10133357B2 (en) Apparatus for gesture recognition, vehicle including the same, and method for gesture recognition
KR101575650B1 (ko) 단말기, 그를 가지는 차량 및 그 제어 방법
US20110063425A1 (en) Vehicle Operator Control Input Assistance
US9218059B2 (en) Input apparatus for vehicle
US9701201B2 (en) Input apparatus for vehicle and vehicle including the same
JP6244822B2 (ja) 車載用表示システム
JP5958876B2 (ja) 車両の入力装置
JP2011063103A (ja) 車載機器操作システム
JP4848997B2 (ja) 車載機器の誤操作防止装置および誤操作防止方法
KR20200093091A (ko) 단말기, 그를 가지는 차량 및 그 제어 방법
WO2018116565A1 (ja) 車両用情報表示装置及び車両用情報表示プログラム
KR101542502B1 (ko) 차량 제어 장치 및 그 제어 방법
KR101500412B1 (ko) 차량용 제스처 인식 장치
US9536414B2 (en) Vehicle with tactile information delivery system
JP2016149094A (ja) 車両用情報処理装置
JP4849193B2 (ja) 車載機器の誤操作防止装置および誤操作防止方法
KR101470027B1 (ko) 차량용 조작 장치
KR20140079025A (ko) 차량 내 다리 제스처 인식을 이용한 사용자 인터페이스 조작 방법
KR101767074B1 (ko) 차량 및 그 제어방법

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E601 Decision to refuse application