KR102529458B1 - 터치 컨트롤 기반 스티어링 휠 조작 장치 및 방법 - Google Patents

터치 컨트롤 기반 스티어링 휠 조작 장치 및 방법 Download PDF

Info

Publication number
KR102529458B1
KR102529458B1 KR1020180033820A KR20180033820A KR102529458B1 KR 102529458 B1 KR102529458 B1 KR 102529458B1 KR 1020180033820 A KR1020180033820 A KR 1020180033820A KR 20180033820 A KR20180033820 A KR 20180033820A KR 102529458 B1 KR102529458 B1 KR 102529458B1
Authority
KR
South Korea
Prior art keywords
gesture
touch
function
steering wheel
touch sensor
Prior art date
Application number
KR1020180033820A
Other languages
English (en)
Other versions
KR20190111544A (ko
Inventor
김현상
최정일
이용수
김중현
안영석
Original Assignee
현대자동차주식회사
기아 주식회사
주식회사 임프레시보코리아
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 현대자동차주식회사, 기아 주식회사, 주식회사 임프레시보코리아 filed Critical 현대자동차주식회사
Priority to KR1020180033820A priority Critical patent/KR102529458B1/ko
Priority to US16/203,133 priority patent/US10817170B2/en
Priority to DE102018221024.1A priority patent/DE102018221024A1/de
Priority to CN201811477932.XA priority patent/CN110294009B/zh
Publication of KR20190111544A publication Critical patent/KR20190111544A/ko
Application granted granted Critical
Publication of KR102529458B1 publication Critical patent/KR102529458B1/ko

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • B60W50/16Tactile feedback to the driver, e.g. vibration or force feedback to the driver on the steering wheel or the accelerator pedal
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B62LAND VEHICLES FOR TRAVELLING OTHERWISE THAN ON RAILS
    • B62DMOTOR VEHICLES; TRAILERS
    • B62D1/00Steering controls, i.e. means for initiating a change of direction of the vehicle
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B62LAND VEHICLES FOR TRAVELLING OTHERWISE THAN ON RAILS
    • B62DMOTOR VEHICLES; TRAILERS
    • B62D1/00Steering controls, i.e. means for initiating a change of direction of the vehicle
    • B62D1/02Steering controls, i.e. means for initiating a change of direction of the vehicle vehicle-mounted
    • B62D1/04Hand wheels
    • B62D1/046Adaptations on rotatable parts of the steering wheel for accommodation of switches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/016Input arrangements with force or tactile feedback as computer generated output to the user
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0354Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
    • G06F3/03547Touch pads, in which fingers can move on a surface
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0416Control or interface arrangements specially adapted for digitisers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04817Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance using icons
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0482Interaction with lists of selectable items, e.g. menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04845Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range for image manipulation, e.g. dragging, rotation, expansion or change of colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04847Interaction techniques to control parameter settings, e.g. interaction with sliders or dials
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/0486Drag-and-drop
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • B60W2050/146Display means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/041Indexing scheme relating to G06F3/041 - G06F3/045
    • G06F2203/04104Multi-touch detection in digitiser, i.e. details about the simultaneous detection of a plurality of touching locations, e.g. multiple fingers or pen and finger
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04804Transparency, e.g. transparent or translucent windows
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04807Pen manipulated menu
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04808Several contacts: gestures triggering a specific function, e.g. scrolling, zooming, right-click, when the user establishes several contacts with the surface simultaneously; e.g. using several fingers or a combination of fingers and pen

Abstract

터치 컨트롤 기반 스티어링 휠 조작 장치 및 방법이 제공된다. 상기 터치 컨트롤 기반 스티어링 휠 조작 장치는, 스티어링 휠의 표면 위치 및 세기를 측정하여 제스처를 센싱하고 센서 관련 정보를 생성하는 터치 센서, 상기 센서 관련 정보를 분석하여 터치 입력 패턴 정보를 생성하고, 상기 터치 입력 패턴 정보에 따라 미리 설정되어 있는 제어 명령을 선택하여 해당 기능을실행하는 제어기, 및 상기 제어 명령에 따라 피드백을 제공하는 피드백 회로를 포함하는 것을 특징으로 한다.

Description

터치 컨트롤 기반 스티어링 휠 조작 장치 및 방법{Apparatus and Method for operating streeing wheel based on tourch control}
본 발명은 스티어링 휠 조작 기술에 관한 것으로서, 더 상세하게는 스티어링 휠 전면부 및/또는 스코프 영역에서 터치 위치와 터치 강도를 측정할 수 있는 터치 컨트롤 기반 스티어링 휠 조작 장치 및 방법에 대한 것이다.
또한, 본 발명은 이러한 터치 센서를 적용하고 제스처 입력을 통하여 차량을 제어하고 시각/청각/촉각 피드백을 제공하는 터치 컨트롤 기반 스티어링 휠 조작 장치 및 방법에 대한 것이다.
최근 정전용량 터치센서(Capacitive Touch sensor), 인덕티브 터치센서(Inductive Touch Sensor) 등 임피던스 방식의 터치센서를 많이 사용하는 추세이다. 임피던스 방식의 터치센서는 압력식 터치센서 등 저항막 방식의 터치센서에 비해 상대적으로 터치감도 및 내구성이 우수하고, 디스플레이 화질에 끼치는 영향이 낮은 장점이 있다.
그러나, 이러한 터치센서의 경우, 터치 강도를 측정할 수 없기 때문에 실수로 터치하는 오동작의 문제점이 발생한다. 부연하면, 사용자가 장갑을 착용한 상태이거나 손톱으로 터치면을 접촉하는 경우, 인식이 급격히 떨어지는 문제가 있다.
또한, 터치 패드에 대하여 입력되는 사용자의 조작에 대응하여 시각적 피드백 또는 가이드를 표시하는 기술이 개시되어 있다. 그러나, 이 경우, 사용자의 터치 조작에 대응하여 시각적인 가이드를 표시하지 않으므로 불편하다는 단점이 있다.
또한, 사용자의 조작을 인식하는데 있어서 터치 압력의 방향까지 고려하지 않으므로 정밀한 조작을 인식하지 못하는 문제점이 있다.
1. 한국공개특허번호 제10-2014-0138361호 2. 미국특허공개번호 제US20150022465 A1호 3. 일본공개특허번호 제6059511호
본 발명은 위 배경기술에 따른 문제점을 해소하기 위해 제안된 것으로서, 스티어링 휠 전면부 및/또는 스코프 영역에서 터치 위치와 터치 강도를 측정할 수 있는 터치 컨트롤 기반 스티어링 휠 조작 장치 및 방법을 제공하는데 그 목적이 있다.
또한, 본 발명은 이러한 터치 센서를 적용하고 제스처 입력을 통하여 차량을 제어하고 시각/청각/촉각 피드백을 제공하는 터치 컨트롤 기반 스티어링 휠 조작 장치 및 방법을 제공하는데 그 목적이 있다.
본 발명은 위에서 제시된 과제를 달성하기 위해, 스티어링 휠 전면부 및/또는 스코프 영역에서 터치 위치와 터치 강도를 측정할 수 있는 터치 컨트롤 기반 스티어링 휠 조작 장치를 제공한다.
상기 터치 컨트롤 기반 스티어링 휠 조작 장치는.
스티어링 휠의 표면 위치 및 세기를 측정하여 제스처를 센싱하고 센서 관련 정보를 생성하는 터치 센서;
상기 센서 관련 정보를 분석하여 터치 입력 패턴 정보를 생성하고, 상기 터치 입력 패턴 정보에 따라 미리 설정되어 있는 제어 명령을 선택하여 해당 기능을실행하는 제어기; 및
상기 제어 명령에 따라 피드백을 제공하는 피드백 회로;를 포함하는 것을 특징으로 한다.
이때, 상기 제어기는, 상기 센서 관련 정보를 기반으로 제스처를 분석하는 분석 모듈; 상기 제스처와 미리 설정되는 명령어 테이블을 참조하여 제어 명령을 선택하는 선별 모듈; 및 상기 제어 명령을 상기 피드백 회로에 전달하여 제어하는 제어 모듈;을 포함하는 것을 특징으로 할 수 있다.
또한, 상기 센서 관련 정보는 상기 터치 센서의 각 고유 식별 센서 정보, 좌표, 및 강도 정보를 포함하는 것을 특징으로 할 수 있다.
또한, 상기 제어 명령은 해당 기능을 실행하는 명령어이며, 상기 제어 명령은 상기 제스처 및 상기 각 고유 식별 센서 정보에 맵핑되는 것을 특징으로 할 수 있다.
또한, 상기 제스처는 단일 제스처 또는 복수개의 단일 제스처를 조합한 제스처인 것을 특징으로 할 수 있다.
또한, 상기 단일 제스처는 특정 부분의 터치후 특정 방향으로 드래그하여 특정 거리를 이동하는 제 1 제스처, 특정 부분을 특정 시간 동안 누르는 제 2 제스처, 특정 부분을 특정 시간 동안 특정 세기로 누르는 제 3 제스처, 적어도 한 개 이상의 포인트로 특정시간 동안 적어도 한번 이상 탭하는 제 4 제스처, 문자를 입력하는 제 5 제스처, 적어도 한 개 이상의 포인트로 드래그하는 제 6 제스처, 2개의 포인트 사이의 거리를 조정하는 제 7 제스처, 및 상기 터치 센서의 터치면을 특정 면적 이상으로 누르는 제 8 제스처 중 어느 하나인 것을 특징으로 할 수 있다.
또한, 상기 피드백은 디스플레이상으로 표시하는 시각 피드백, 스피커를 통해 출력하는 청각 피드백, 및 펄스를 통해 출력하는 촉각 피드백 중 적어 어느 하나인 것을 특징으로 할 수 있다.
또한, 상기 제어 명령은 다수의 메뉴 모드간 전환을 위한 입력 상태 플래그를 포함하는 것을 특징으로 할 수 있다.
또한, 상기 터치 센서는 상기 스티어링 휠의 좌측면에 배치되는 왼쪽 터치 센서, 중앙에 배치되는 중앙 터치 센서 및 우측면에 배치되는 오른쪽 터치 센서로 이루어지며 표면에 프린팅된 햅틱 아이콘이 배치되는 것을 특징으로 할 수 있다.
또한, 상기 기능은 상위 기능과 하위 기능으로 이루어지며, 상기 왼쪽 터치 센서 및 오른쪽 터치 센서는 상기 상위 기능 및 하위 기능에 선택적으로 매핑되는 것을 특징으로 할 수 있다.
또한, 상기 기능에 대한 상태는 이미지 및 아이콘의 형태로 표시되는 것을 특징으로 할 수 있다.
또한, 상기 기능에 대한 설명 화면이 디스플레이상에 상기 터치 센서의 유저 인터페이스와 분할되거나 전체 화면에 표시되는 것을 특징으로 할 수 있다.
또한, 상기 다수의 메뉴 모드는 각 모드 전환시 시계 방향으로 배치되며, 상기 메뉴 모드에서 선택가능한 기능에 대한 정보가 텍스트, 이미지 및 아이콘의 조합으로 게시되는 것을 특징으로 할 수 있다.
또한, 상기 다수의 메뉴 모드에서 각 모드 전환시 현재 선택 가능한 기능들과 현재 선택 불가능한 기능들이 아이콘, 이미지의 크기, 색상, 채도, 밝기 및 투명도를 서로 상이하게 게시되는 것을 특징으로 할 수 있다.
또한, 상기 다수의 메뉴 모드는 각 모드 전환시 일부분이 겹치게 배치되며, 현재 선택 가능한 기능들과 현재 선택 불가능한 기능들이 아이콘, 이미지의 크기, 색상, 채도, 밝 및 투명도를 서로 상이하게 게시되는 것을 특징으로 할 수 있다.
또한, 상기 다수의 메뉴 모드는 모드 전환없이 시계 방향의 도넛형상으로 배치되며, 특정 제스처를 상기 도넛형상의 중심점에서 특정 방향으로 적어도 1회 이상 연속으로 실행하여 해당 기능을 실행하며, 현재 선택 가능한 기능들과 현재 선택 불가능한 기능들이 아이콘, 이미지의 크기, 색상, 채도, 밝기 및 투명도를 서로 상이하게 게시되는 것을 특징으로 할 수 있다.
다른 한편으로, 본 발명의 다른 일실시예는, 터치 센서가 스티어링 휠의 표면 위치 및 세기를 측정하여 제스처를 센싱하고 센서 관련 정보를 생성하는 센서 관련 정보 생성 단계; 제어기가 상기 센서 관련 정보를 분석하여 터치 입력 패턴 정보를 생성하고, 상기 터치 입력 패턴 정보에 따라 미리 설정되어 있는 제어 명령을 선택하여 해당 기능을 실행하는 기능 실행 단계; 피드백 회로가 상기 제어 명령에 따라 피드백을 제공하는 피드백 제공 단계;를 포함하는 것을 특징으로 하는 터치 컨트롤 기반 스티어링 휠 조작 방법을 제공할 수 있다.
이때, 상기 기능 실행 단계는, 분석 모듈이 상기 센서 관련 정보를 기반으로 제스처를 분석하는 분석 단계; 선별 모듈이 상기 제스처와 미리 설정되는 명령어 테이블을 참조하여 제어 명령을 선택하는 단계; 및 제어 모듈이 상기 제어 명령을 상기 피드백 회로에 전달하여 제어하는 단계;를 포함하는 것을 특징으로 할 수 있다.
본 발명에 따르면, 터치 센서의 기설정 세기와 기설정 시간을 포함하는 제스처를 이용하므로 실수로 터치 입력을 하는 오동작 등을 피할 수 있다.
또한, 본 발명의 다른 효과로서는 차량 제어 기능 중 선호하는 기능을 따로 선별하고 해당 기능에 특정 제스처를 매핑할 수 있으므로 사용자 맞춤형 인터페이스를 구성할 수 있는 장점이 있다는 점을 들 수 있다.
또한, 본 발명의 또 다른 효과로서는 같은 제스처 입력 일지라도 입력 상태 플래그를 참조함으로써 다른 기능을 실행할 수 있으므로 한정된 제스처로 다양한 입력을 할 수 있는 장점이 있다는 점을 들 수 있다.
도 1은 본 발명의 일실시예에 따른 터치 컨트롤 기반 스티어링 휠 조작 장치의 블럭 구성도이다.
도 2는 도 1에 도시된 피드백 회로의 구성예를 보여주는 도면이다.
도 3은 도 1에 도시된 터치 센서의 표면에 프린팅된 기능 아이콘의 예시이다.
도 4는 본 발명의 일실시예에 따른 터치 센서에 매핑된 유저 인터페이스(user interface)상에서 입력 상태 플래그 전환을 위한 제스처 입력의 예시이다.
도 5는 본 발명의 일실시예에 따른 복수개의 모드일때 제스처 입력을 통한 입력 상태 플래그 전환과 모드 전환의 개념도이다.
도 6은 본 발명의 일실시예에 따른 유저 인터페이스상에서 내비게이션 및 지도 컨트롤을 위한 제스처 입력의 예시이다.
도 7은 본 발명의 일실시예에 따른 유저 인터페이스상에서 필기 입력을 위한 제스처 입력 및 이에 따른 결과 화면예이다.
도 8은 본 발명의 일실시예에 따른 유저 인터페이스상에서 멀티미디어 기능 동작을 위한 제스처 입력 및 이에 따른 결과의 예시이다.
도 9는 본 발명의 일실시예에 따른 터치 컨트롤 과정을 보여주는 흐름도이다.
도 10은 본 발명의 일실시예에 따른 유저 인터페이스상에서 제어한 차량 기능에 대한 표시의 예이다.
도 11은 본 발명의 일실시예에 따른 유저 인터페이스와 이 유저 인터페이스상에서 제스처 입력에 따른 설명이 디스플레이에 게시되는 예시이다.
도 12는 도 11에 도시된 화면예에서 유동적인 디스플레이의 하단 유저 인터페이스 구성의 예시이다.
도 13은 본 발명의 일실시예에 따른 유저 인터페이스 배경에 터치 센서의 위치를 변경하는 예시이다.
도 14 내지 도 17은 본 발명의 일실시예에 따른 미디어 모드와 드라이브 모드를 전환하는 유저 인터페이스 예시이다.
도 18 및 도 19는 본 발명의 일실시예에 따른 미디어 모드와 드라이브 모드를 전환하지 않고 각 모드를 실행하는 유저 인터페이스 예시이다.
도 20 및 도 21은 본 발명의 일실시예에 따른 소정의 방향에 있는 기능을 실행하는 예시이다.
본 발명은 다양한 변경을 가할 수 있고 여러 가지 실시예를 가질 수 있는바, 특정 실시예들을 도면에 예시하고 상세한 설명에 구체적으로 설명하고자 한다. 그러나 이는 본 발명을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다.
각 도면을 설명하면서 유사한 참조부호를 유사한 구성요소에 대해 사용한다. 제 1, 제 2등의 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되어서는 안 된다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다.
예를 들어, 본 발명의 권리 범위를 벗어나지 않으면서 제 1 구성요소는 제 2 구성요소로 명명될 수 있고, 유사하게 제 2 구성요소도 제 1 구성요소로 명명될 수 있다. "및/또는" 이라는 용어는 복수의 관련된 기재된 항목들의 조합 또는 복수의 관련된 기재된 항목들 중의 어느 항목을 포함한다.
다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미가 있다.
일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥상 가지는 의미와 일치하는 의미를 가지는 것으로 해석되어야 하며, 본 출원에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않아야 한다.
이하 첨부된 도면을 참조하여 본 발명의 일실시예에 따른 터치 컨트롤 기반 스티어링 휠 조작 장치 및 방법을 상세하게 설명하기로 한다.
도 1은 본 발명의 일실시예에 따른 터치 컨트롤 기반 스티어링 휠 조작 장치(100)의 블럭 구성도이다. 도 1을 참조하면, 터치 컨트롤 기반 스티어링 휠 조작 장치(100)는, 스티어링 휠의 표면 위치 및 세기를 측정하여 제스처를 센싱하고 센서 관련 정보를 생성하는 터치 센서(110), 상기 센서 관련 정보를 분석하여 터치 입력 패턴 정보를 생성하고, 상기 터치 입력 패턴 정보에 따라 미리 설정되어 있는 제어 명령을 선택하여 해당 기능을 실행하는 제어기(120), 상기 제어 명령에 따라 피드백을 제공하는 피드백 회로(130), 및 제어기(120)의 제어에 따라 해당 기능을 실행하는 차량 시스템(140) 등을 포함하여 구성될 수 있다.
터치 센서(110)는 스티어링 휠의 표면에 배치되며, 이를 보여주는 도면이 도 3에 도시된다. 이에 대해서는 후술하기로 한다.
도 1을 계속 참조하여 설명하면, 제어기(120)는, 상기 센서 관련 정보를 기반으로 제스처를 분석하는 분석 모듈(121), 상기 제스처와 미리 설정되는 명령어 테이블(124)을 참조하여 제어 명령을 선택하는 선별 모듈(122), 상기 제어 명령을 상기 피드백 회로(130)에 전달하여 제어하는 제어 모듈(123), 명령어 테이블(124)을 생성하는 차량 제어 기능 설정 모듈(125) 등을 포함하여 구성될 수 있다.
분석 모듈(121)은 터치 센서(110)의 센서 관련 정보를 기반으로 제스처를 분석한다. 센서 관련 정보는 터치 센서의 고유 식별 센서 정보(즉, 터치 센서 ID를 들 수 있음), 터치 센서의 좌표, 터치 센서의 강도 정보 등을 포함할 수 있다. 따라서, 분석 모듈(121)은 이러한 정보를 이용하여 제스처를 분석할 수 있다. 이러한 제스처를 보면 다음 표와 같다.
Figure 112018029285414-pat00001
선별 모듈(122)은 분석한 제스처와 명령어 테이블을 참조하여 명령어를 선별한다.
제어 모듈(123)은 명령어를 피드백 회로와 차량 시스템에 전달하여 제어하는 기능을 수행한다.
명령어 테이블(124)은 차량 제어 기능 설정 모듈(125)에 의해 생성되며, 명령어를 선별하는데 참조할 수 있는 테이블로서 터치 센서 ID, 체스처별 차량 제어 기능 매칭 정보를 가지고 있다. 또한, 제공할 피드백 정보를 가지고 있다.
차량 제어 기능 설정 모듈(125)은 제어하고자 하는 일련의 차량의 기능을 그룹화 및 계층화한다. 각 기능별로 터치 센서 ID 및 제스처를 매핑하여 명령어 테이블(124)을 생성한다.
피드백 회로(130)는 시각 피드백(131), 촉각 피드백(132), 청각 피드백(133) 등으로 구성된다.
차량 시스템(140)은 차량에 설치되는 하드웨어 구성 부품으로서 조향 시스템(141), 엔진(142), 멀티미디어(143), 공조기(144) 등이 될 수 있다. 따라서, 차량 시스템(140)은 제어 모듈(123)의 명령어에 상응하는 차량의 기능, 동작을 실행한다.
도 1에 도시된 "~모듈"의 용어는 적어도 하나의 기능이나 동작을 처리하는 단위를 의미하며, 이는 하드웨어나 소프트웨어 또는 하드웨어 및 소프트웨어의 결합으로 구현될 수 있다. 하드웨어 구현에 있어, 상술한 기능을 수행하기 위해 디자인된 ASIC(application specific integrated circuit), DSP(digital signal processing), PLD(programmable logic device), FPGA(field programmable gate array), 프로세서, 제어기, 마이크로프로세서, 다른 전자 유닛 또는 이들의 조합으로 구현될 수 있다. 소프트웨어 구현에 있어, 상술한 기능을 수행하는 모듈로 구현될 수 있다. 소프트웨어는 메모리 유닛에 저장될 수 있고, 프로세서에 의해 실행된다. 메모리 유닛이나 프로세서는 당업자에게 잘 알려진 다양한 수단을 채용할 수 있다.
도 2는 도 1에 도시된 피드백 회로의 구성예를 보여주는 도면이다. 도 2를 참조하면, 스티어링 휠(200)에 설치되는 터치 센서(110)를 통해 사용자의 명령이 제어기(110)에 전달되어 피드백된다. 시각 피드백(131)은 명령어에 상응하는 시각적 피드백을 제공한다. 부연하면, 차량 내부의 디스플레이(232,231-1,231-2)를 통하여 상기 선별한 명령어에 상응하는 그래픽(ex. 아이콘)을 표시한다. 사용자가 터치 센서(110)를 누르고 있는 위치, 경로 그리고 세기에 대한 연속적 그래픽(ex. 애니메이션)을 제공할 수도 있다. 디스플레이(232,231-1,231-2)에는 상기 기설정된 명령어 테이블의 일련의 명령어에 상응하는 복수의 그래픽(ex. 아이콘)이 미리 게시될 수 있다.
디스플레이로는 HUD(Head Up Display)(232), 클러스터(231-1), AVN(Audio Visual Navigation)(231-2) 등을 들 수 있다. 또한, 이러한 디스플레이는 LCD(Liquid Crystal Display), LED(Light Emitting Display), OLED(Organic Light Emitting Display), 플레서블 디스플레이, 터치 스크린 등으로 구성될 수 있다.
촉각 피드백(132)은 사용자에게 촉각적 피드백을 제공한다. 예를 들면, 사용자에게 진동을 주는 것으로 스티어링 휠에 설치한다. 부연하면, 스티어링 휠(200)의 특정 부분에는 햅틱 피드백을 제공할 수 있는 햅틱 센서(ex. 모터)(240)가 적용되어 있다. 제어기(120)에서 명령어를 선별함과 동시에 상기 명령어에 상응하는 햅틱 피드백을 제공할 수 있다. 햅틱 피드백은 ‘진동 세기, 유지 시간’의 조합에 따라 상이한 패턴을 가질 수 있다. 사용자가 햅틱 피드백을 받기 용이하도록 터치 센서 근방에 햅틱 액츄에이터(미도시)가 위치할 수 있다. 터치 입력 전후에 사용자의 손이 닿아 있는 스티어링 휠 특정 부분에 위치할 수 있다. 일예로, 명령어가 선별될 때마다 100ms 간격으로 진동 피드백을 제공하여 사용자는 진동 피드백 패턴을 인지하고 자신이 터치 입력을 제대로 했는지 촉각적으로 확인할 수 있다.
청각 피드백(133)은 명령어에 상응하는 청각적 피드백을 제공한다. 이를 위해, 스피커 등이 구성된다. 스피커는 차량의 내부 및 외부에 설치되는 스피커가 될 수 있다. 외부 스피커(233-1)는 디지털 경적(Horn)을 활성화하기 위한 트리거 장치로 터치 센서(110)가 연동될 수 있고 차량의 스피커를 통하여 경적 소리를 출력할 수 있다. 일예로, 스티어링 휠 중앙에 적용된 터치센서(110)를 손바닥으로 누르게 되면 디지털 경적이 활성화된다. 터치 센서(110)를 누르는 세기에 비례하여 경적 출력 사운드 크기가 결정될 수 있다.
내부 스피커(233-2)는 선별 모듈(도 1의 122)에서 명령어 값을 선별할 때 해당 명령어 값에 상응하는 사운드를 출력할 수 있다. 일예로, 명령어 값이 선별될 때마다 비프(Beep) 사운드를 출력하여 사용자는 소리를 듣고서 자신이 터치 입력을 제대로 했는지 알 수 있다. 이때 사운드 출력 장치는 차량 내부에 위치할 수 있다. 도 2에서는 터치 센서(110)가 하나로 도시되어 있으나, 여러 개의 터치 센서들로 구성될 수도 있다. 부연하면, 좌측, 중앙 및 우측에 각각 하나의 터치 센서들로 구성될 수 있다.
도 3은 도 1에 도시된 터치 센서의 표면에 프린팅된 기능 아이콘의 예시이다. 도 3을 참조하면, 왼쪽 터치 센서를 나타내는 왼쪽 기능 아이콘(310), 중앙 터치 센서를 나타내는 중앙 기능 아이콘(320), 및 오른쪽 터치 센서를 나타내는 오른쪽 기능 아이콘(330)이 구성된다. 따라서, 왼쪽, 중앙, 오른쪽에 적용되는 터치 센서의 위치와 터치 센서를 입력하는 방식(즉, 제스처)에 따라 차량 제어를 위한 기능을 매핑할 수 있다.
일예로, 상위 기능은 왼쪽 터치 센서와 매핑하고 하위 기능은 오른쪽 터치 센서에 매핑할 수 있다. 왼쪽 터치 센서에서 제스처 입력이 수행되어 상위 기능 중 하나가 실행되면 오른쪽 제스처 입력은 해당 상위 기능에 종속된 하위 기능으로 자동 매핑된다. 터치 센서로 차량을 제어하기 위한 일련의 기능들을 선별할 수 있다. 부연하면, 각 기능은 제어 유형에 따라 그 성격이 유사한 것끼리 그룹화될 수 있다. 그룹 각각의 기능은 해당 기능과 관련한 하위 기능을 포함할 수 있다. 일예로, 멀티미디어모드, 통화 기능, 음소거 기능, 음성인식 기능 등은 음성 정보와 연관하여 기능하는 공통점을 가지고 있다. 그리고 차간 거리 설정 기능, 크루즈 기능, 외/내부 공기 순환 기능, 계기판 기능 등은 차량의 주행과 연관하여 기능하는 공통점을 가지고 있다. 따라서, 각각 기능들을 ‘Media Mode’, ‘Drive Mode’로 그룹화할 수 있다. 각각의 기능은 해당 기능과 관련한 하위 기능을 포함할 수 있다. 하위 기능의 경우, Media Mode에서는 채널 변경, 음량 조절 등을 들 수 있다. Drive Mode에서는 속도 변경, 확인(Confirm), 메뉴 이동 등을 들 수 있다.
이때, 디스플레이에서 기능 매핑에 대한 유저 인터페이스를 제공할 수 있다. 센서 위치와 제스처, 기능계층 및 수행 기능을 보면 다음과 같다.
Figure 112018029285414-pat00002
왼쪽 유저 인터페이스와 오른쪽 유저 인터페이스 각각에 매핑된 상위/하위 기능이 사용자 설정에 의하여 서로 바뀔 수 있다. 일예로, 왼손잡이 사용자는 왼쪽 유저 인터페이스에 하위 기능을, 오른쪽 유저 인터페이스에 상위 기능을 매핑시킬 수 있다.
일예로, Media Mode의 상위 기능은 왼쪽 터치 센서에 매핑하고 각 기능의 하위 기능은 오른쪽 터치 센서에 매핑할 수 있다. 또한, 일예로, 왼쪽 터치 센서에서 Swipe Up 제스처를 수행하면 차량의 AV(Audio Video) 각 모드를 전환하는 동작을 하는 멀티미디어 기능과 매핑할 수 있다. 또한, 일예로, 왼쪽 터치 센서에서 Swipe Up & Long(Force) Touch 제스처를 수행하면 차량의 AV 각 모드를 빠르게 전환하는 멀티미디어 기능과 매핑할 수 있다. 또한, 일예로, 오른쪽 터치 센서에서 Swipe Down 제스처를 수행하면 차량 내부의 스피커 음량을 줄이는 기능과 매핑할 수 있다. 또한, 기능(상/하위 기능)을 대표하는 아이콘 및 이미지 프린팅이 터치 센서의 표면에 적용되어 있을 수 있다.
따라서, 제어하고자 하는 일련의 차량의 기능들을 여러 개의 모드로 그룹화하고, 이 그룹화에 따라 상위 기능과 하위 기능으로 계층화할 수 있다. 이를 각 기능별로 터치 센서ID, 제스처를 매핑하여 명령어 테이블을 생성할 수 있다. 이러한 명령어 테이블의 예시를 보면 다음과 같다.
Figure 112018029285414-pat00003
위 표 3에서, 전환모드는 ‘Media Mode, Drive Mode’를 전환하는 기능이다. 해당 기능이 실행되면 입력 상태 플래그가 업데이트되어 동일한 제스처일 경우에도 상이한 기능이 실행된다. 터치 센서 ID는 터치 센서 위치에 따라 Left, Right, Middle로 구분할 수 있다.
명령어는 피드백 회로와 차량 시스템에 전달하기 위한 명령어이다. 일예로, CMD(MODE_SWITCH) 명령어는 입력 상태 플래그를 업데이트한다. 해당 명령어는 차량 제어를 위한 명령어가 아니기 때문에 피드백 회로에만 전달된다. 일예로, CMD(MULTIMEDIA, TUNE) 명령어는 피드백 회로와 차량 시스템으로 전달되고, 멀티미디어모드 기능의 AV 각 모드를 전환하는 기능이 실행된다.
피드백 종류는 명령어를 수신하여 해당 명령어에 맞는 시각/청각/촉각 피드백을 제공한다. 실행되는 기능은 입력 상태 플래그와 제스처 입력에 기반하여 명령어를 선별하고 해당 명령어에 상응하는 기능을 실행한다.
위에서 기술한 표 3은 본 발명의 명확한 이해를 위한 예시에 불과하며 다양한 조합, 변형이 가능하다.
도 4는 본 발명의 일실시예에 따른 터치 센서에 매핑된 유저 인터페이스(user interface)(401)상에서 입력 상태 플래그 전환을 위한 제스처 입력의 예시이다. 즉 전환전 유저 인터페이스(401)에서 전환을 위한 제스처에 의해 전환후 유저 인터페TM402)로 변경된다. 이를 유저 인터페이스(401,402)에는 왼쪽 터치 센서 아이콘(410), 중앙 터치 센서 아이콘(420) 및 오른쪽 터치 센서 아이콘(430)이 배치된다.
도 4를 참조하면, 같은 제스처 입력이 수행되더라도 입력 상태 플래그에 따라 다른 기능을 수행할 수 있다. 예를 들면, 초기 상태가 Media Mode 인 경우 입력 상태 플래그는 Media Mode를 참조하고 있다. 따라서 왼쪽 터치 센서(310)에서 제스처 입력을 수행하면 Media Mode의 기능인 멀티미디어 기능, 통화 기능, 음소거 기능, 음성인식 기능을 수행하게 된다.
만약에, 왼쪽 터치 센서 아이콘(410)에서 One Finger Double Tap 제스처를 수행하면 입력 상태 플래그는 Drive Mode를 참조하게 된다. 제스처 입력시 Drive Mode의 기능인 ‘차간거리설정 기능, 크루즈 기능, 외/내부공기순환 기능, 계기판 기능‘을 수행할 수 있도록 설정 및 준비를 한다. 이때, HUD의 UI가 Media Mode UI에서 Drive Mode UI로 전환이 되어 사용자가 시각적으로 입력 상태 플래그를 확인 할 수 있도록 도움을 줄 수 있다.
사용자에게 특정 제스처(ex. One Finger Double Tap)로 입력 상태 플래그를 전환할 수 있다는 것을 인지시키기 위하여 HUD의 UI에 도움말 및 아이콘/이미지를 게시할 수 있다. 또한, 입력 상태 플래그로 각 Mode를 전환할 수 있기 때문에 제한된 개수의 제스처로 더 많은 기능을 수행할 수 있다.
도 5는 본 발명의 일실시예에 따른 복수개의 모드일때 제스처 입력을 통한 입력 상태 플래그 전환과 모드 전환의 개념도이다. 도 5를 참조하면, 모드가 2개 이상일 경우에도 제스처 입력을 하여 입력 상태 플래그를 전환 시킴으로써 모드 전환을 할 수 있다. 일예로, 모드가 3개인 경우 기설정된 제스처 입력(521,522,523)을 할 때마다 ‘MODE1(511) -> MODE2(512) -> MODE3(513) -> MODE1(511) -> MODE2(512) -> …’와 같은 순환 구조로써 입력 상태 플래그가 각 모드를 참조하게 할 수 있다.
도 6은 본 발명의 일실시예에 따른 유저 인터페이스상에서 내비게이션 및 지도 컨트롤을 위한 제스처 입력의 예시이다. 도 6을 참조하면, 내비게이션 및 지도 컨트롤을 위하여 중앙 터치 센서 아이콘(420) 상에서 One Finger Drag 제스처(610), Pinch Zoom In 제스처(620), Pinch Zoom Out 제스처(630)가 차량의 디스플레이에 표시될 수 있다.
부연하면, 중앙 터치 센서(도 3의 320)에서 One Finger Drag 제스처(610)의 입력을 수행하면 차량의 디스플레이에 게시된 지도를 이동시킨다. 중앙 터치 센서(320)에서 Pinch Zoom In 제스처(620)의 입력을 수행하면, 차량의 디스플레이에 게시된 지도를 확대시킨다. 중앙 터치 센서(320)에서 Pinch Zoom Out 제스처(630)의 입력을 수행하면, 제스처 입력을 수행하면 차량의 디스플레이에 게시된 지도를 축소시킨다.
한편, 중앙 터치 센서(320)의 일정 부분을 터치하여 차량의 경적을 활성화시킬 수 있다. 일례로, 중앙 터치 센서에 기설정된 면적을 초과하여 터치 입력이 발생하면 디지털 경적이 활성화된다. 또한, 터치 강도에 따라 디지털 경적의 볼륨이 조절될 수 있다. 터치 센서를 누르는 강도와 외부 스피커 볼륨(ex. 디지털 경적의 볼륨)이 비례하여 동작할 수 있다. 일예로, 터치 센서를 누르는 강도와 디지털 경적이 선형적으로 정비례할 수 있다. 이때, 기설정된 세기 이상으로 터치 입력이 발생할 때 정비례하여 디지털 경적의 볼륨을 조절할 수 있다. 또한, 다른 예로서, 터치 센서를 누르는 강도와 디지털 경적이 비선형적으로 정비례할 수 있다. 이때, 기설정된 세기 이상으로 터치 입력이 발생할 때 비선형적으로 정비례하여 디지털 경적의 볼륨을 조절할 수 있다.
도 7은 본 발명의 일실시예에 따른 유저 인터페이스상에서 필기 입력을 위한 제스처 입력 및 이에 따른 결과 화면예이다. 도 7을 참조하면, 중앙 터치 센서에서 필기 입력을 수행하여 문자, 숫자 등을 입력할 수 있다. 일예로, 내비게이션 및 지도에서 주소를 입력하기 위하여 제스처 입력을 수행할 수 있다.
일예로, 중앙 터치 센서(도 3의 320)에서 ‘강남구’를 필기 입력하면 디스플레이의 중앙 유저인터페이스(UI)에 입력하고 있는 ‘강남구’가 표시되고 분석된다(710). 이때, 분석된 정보가 디스플레이에 표시된다(711). 디스플레이로는 HUD, AVN, 스마트폰 등을 들 수 있다.
한편, 입력한 문자를 삭제하고 싶을 때 중앙 터치 센서(320)에서 Swipe Left 제스처를 수행하면 입력한 문자열 중 하나의 문자가 삭제된다(720). 즉, ‘강남구’에서 ‘구’가 삭제되어 ‘강남’으로 디스플레이에 표시된다(721).
또한, 현재 입력된 문자를 주소로 검색하기 위한 컨펌 명령으로써 Swipe Down & Swipe Left 제스처를 수행하면 ‘강남’을 주소로 검색한다(730). 즉, '강남'으로 검색하는 주소가 디스플레이에 표시된다(731).
도 8은 본 발명의 일실시예에 따른 유저 인터페이스상에서 멀티미디어 기능 동작을 위한 제스처 입력 및 이에 따른 결과의 예시이다. 도 8을 참조하면, 오른쪽 터치 센서(도 3의 330)에서 Swipe Up & Long Touch 혹은 Swipe Up & Force Touch 제스처가 수행되면 멀티미디어 기능의 하위 기능인 음량을 빠르게 높이는 기능이 실행된다. 이때, 차량 내부의 음량은 빠르게 커진다.
이때, 시각 피드백으로써 HUD의 오른쪽 UI에 Swipe Up & Long Touch 혹은 Swipe Up & Force Touch 제스처에 대한 입력 및 경로가 표시될 수 있다(810). AVN(Audio Video Navigation)의 ‘VOL+ 아이콘’의 색상이 제스처 입력 전과 다르게 표시될 수 있다(820).
AVN에 멀티미디어 모드와 관련한 UI가 표시될 수 있다. 일예로, 음량이 커지고 있는 상태임을 설명하는 음량 관련 UI가 표시될 수 있다. 청각 피드백으로써 차량 내부 스피커에서 Beep 음이 연이어 여러 번 재생될 수 있다(830). 이때, Beep 효과음과 차량 내부의 사운드(ex. 음악, 통화 음성 등)가 동시에 재생될 수 있다. 촉각 피드백으로써 스티어링 휠 근방의 햅틱 센서에서 진동을 제공할 수 있다(840). 이때, 진동의 패턴은 MultiplePulse의 형태로 제공될 수 있다.
물론, 도 8은 일예시이며, 멀티미디어 기능 동작을 위한 제스처 입력 및 이에 따른 결과를 다르게 구성하는 것도 가능하다. 예를 들면, 초기에 HUD의 왼쪽 UI는 Media Mode로 설정되어 있다. HUD의 오른쪽 UI는 입력을 할 수 없는 N/A(not available) UI 상태이거나 또는 디폴트 UI로써 멀티미디어 기능에 종속되어 있는 하위 기능으로 설정될 수 있다. 또한, 비프음의 횟수는 다양하게 재생될 수 있으며, 진동의 패턴은 one pulse 형태일 수 있다. 또한, 음소거가 표시될 수 있다. 또한, 왼쪽 터치 센서에서 Long Touch & Swipe Up 혹은 Force Touch & Swipe Up 제스처가 수행되면 멀티미디어 기능 중 AV 모드 종료가 실행될 수 있다. 또한, 왼쪽 터치 센서에서 One Finger Double Tap 제스처가 수행되면 Media Mode에서 Drive Mode로 전환될 수 있다.
도 9는 본 발명의 일실시예에 따른 터치 컨트롤 과정을 보여주는 흐름도이다. 도 9를 참조하면, 제어기(120)는 터치 대기 상태에서 사용자의 터치가 되면, 터치 센서 ID, 터치 센서값 등을 수신한다(단계 S910,S920,S930). 부연하면, 왼쪽 터치 센서, 중앙 터치 센서, 오른쪽 터치 센서 인지 구별할 수 있는 터치 센서 ID를 수신하고, 해당 터치 센서에서 눌린 좌표, 터치 강도 등의 센서값을 수신한다.
이후, 제어기(120)는 제스처 분석-터치 센서값을 분석하여 제스처 입력을 구분한다(단계 S940). 제스처 입력으로는 Tap, Double Tap, Force Tap, Swipe, Force Swipe 등을 들 수 있다.
이후, 제어기(120)는 터치 센서 ID, 구분한 제스처 입력, 및 입력 상태 플래그를 참조하고 명령어 테이블에 기초하여 명령어를 선별한다(단계 S950).
이후, 제어기(120)는 선별된 명령어가 입력 상태 플래그를 전환하는 입력 상태 플래그 전환 명령어인지를 판단한다(단계 S960).
위 판단 단계(S960)에서, 선별된 명령어가 입력 상태 플래그를 전환하는 명령일 경우, 명령어 선별에 참고할 수 있도록 입력 상태 플래그를 업데이트한다(단계 S961).
이후, 제어기(120)는 명령어 테이블을 참고하여 전달받은 명령어에 해당하는 시각/청각/촉각 피드백을 제공하고, 명령에 테이블을 참고하여 전달받은 명령어에 해당하는 차량 시스템을 제어한다(단계 S970,S980).
도 10은 본 발명의 일실시예에 따른 유저 인터페이스상에서 제어한 차량 기능에 대한 표시의 예이다. 도 10을 참조하면, 제어한 차량 기능에 대한 상태를 이미지, 아이콘의 형태로 표시할 수 있다. 일예로, 왼쪽 터치 센서(310)에서 Swipe Up 제스처를 수행하여 차간거리설정을 실행했을 때, 그 당시의 차간 거리 스테이지 아이콘(1010)으로 표현할 수 있다. 4개 스테이지일때는 차량 아이콘 아래에 4개의 막대를 게시할 수 있다. 물론, 3 스테이지일때는 3개의 막대를 차량 아이콘 아래에 게시할 수 있다.
도 11은 본 발명의 일실시예에 따른 유저 인터페이스와 이 유저 인터페이스상에서 제스처 입력에 따른 설명이 디스플레이에 게시되는 예시이다. 도 11을 참조하면, 제스처 입력을 통하여 실행된 기능에 대한 설명이 HUD에 게시될 수 있다. 일예로, HUD의 하단 유저 인터페이스(1110)상에는 터치 센서 이미지들이 표시되고, HUD의 상단 유저 인터페이스(1120)에서 현재 실행한 기능에 대한 상태를 확인할 수 있다. 왼쪽 터치 센서(310)에서 Swipe Up 제스처를 수행하여 멀티미디어모드 기능을 실행하면 AV 모드가 전환이 되는데, 그 상태가 HUD의 상단 유저 인터페이스상에 게시될 수 있다. 현재 선택된 AV 모드에 대한 아이콘, 이미지, 텍스트는 선택되지 않는 AV 모드에 비하여 색상이나 크기 등의 차별점을 두어 시각적으로 두드러지게 표시될 수 있다.
도 12는 도 11에 도시된 화면예에서 유동적인 디스플레이의 하단 유저 인터페이스 구성의 예시이다. 도 12를 참조하면, 소정의 시간이 지나거나 별도의 설정에 의하여 HUD 상의 하단 유저인터페이스가 다른 UI로 변화될 수 있다. 일예로, 제스처 입력이 소정의 시간동안 발생하지 않으면, HUD상의 하단 유저페이스상에서 왼쪽, 중앙, 오른쪽 UI가 사라지고 차량의 정보를 게시하는 UI로 전환될 수 있다. 이때, 터치 센서에서 터치 입력이 발생하면 다시 HUD 상의 왼쪽, 중앙, 오른쪽 UI가 나타날 수 있다. 이때, UI가 사라지는 소정의 시간은 설정에 의하여 조정할 수 있다.
도 13은 본 발명의 일실시예에 따른 유저 인터페이스 배경에 터치 센서의 위치를 변경하는 예시이다. 도 13을 참조하면, HUD UI 배경에 스티어링 휠 이미지(1310)를 위치시키고 스티어링 휠에 적용되어 있는 각각의 왼쪽, 중앙, 오른쪽 터치 센서의 위치에 맞게 왼쪽 터치 센서 아이콘(410), 중앙 터치 센서 아이콘(420), 오른쪽 터치 센서 아이콘(430)을 배치하여 사용자가 제스처 입력을 쉽게 할 수 있도록 가이드 할 수 있다.
도 14 내지 도 17은 본 발명의 일실시예에 따른 미디어 모드와 드라이브 모드를 전환하는 유저 인터페이스 예시이다. 도 14를 참조하면, 12시, 3시, 6시, 9시의 시계 방향에는 현재 선택 가능한 Media Mode 기능 이미지, 아이콘 등을 배치하고 12시-3시 사이, 3시-6시 사이, 6시-9시 사이, 9-12시 사이에는 Drive Mode 기능 이미지, 아이콘을 배치한다. 이때, Media Mode에서 Drive Mode로 전환되면 12시, 3시, 6시, 9시 방향에는 Drive Mode 기능 이미지를, 12시-3시 사이, 3시-6시 사이, 6시-9시 사이, 9-12시 사이에는 Media Mode 기능 이미지가 배치된다. 이때, 현재 선택 가능한 기능과 그렇지 않은 기능 아이콘, 이미지의 크기, 색상, 채도, 밝기, 투명도를 상이하게 할 수 있다. 또한, UI 한편에 현재 입력 가능한 모드에 대한 정보를 텍스트, 이미지, 아이콘 등으로 게시하여 할 수 있다.
도 15를 참조하면, UI 한편에 Mode 전환 시 사용 가능한 기능에 대한 정보를 텍스트, 이미지, 아이콘 등으로 게시할 수 있다.
도 16을 참조하면, 현재 선택 가능 한 Media Mode 기능 이미지, 아이콘 등을 배치하고, Drive Mode 기능 이미지, 아이콘은 Media Mode 바깥쪽으로 배치할 수 있다. 이때, 현재 선택 가능한 기능과 그렇지 않은 기능 아이콘, 이미지의 크기, 색상, 채도, 밝기, 투명도 등를 상이하게 할 수 있다.
도 17을 참조하면, 현재 선택 가능한 Media Mode 기능 이미지, 아이콘에 관련한 UI 레이어와 Drive Mode 기능 이미지, 아이콘에 관련한 UI 레이어를 일부분 겹치게 배치할 수 있다. 이때, 현재 선택 가능한 기능과 그렇지 않은 기능 아이콘, 이미지의 크기, 색상, 채도, 밝기, 투명도 등을 상이하게 할 수 있다.
도 18 및 도 19는 본 발명의 일실시예에 따른 미디어 모드와 드라이브 모드를 전환하지 않고 각 모드를 실행하는 유저 인터페이스 예시이다. 도 18 및 도 19를 참조하면, 일예로, 도우넛 형태로서, 12시, 3시, 6시, 9시, 12시-3시 사이, 3시-6시 사이, 6시-9시 사이, 9-12시, 총 8군데의 방향에 제어하고자 하는 기능을 대표하는 아이콘, 이미지, 텍스트를 배치할 수 있다.
특정 기능을 실행하기 위해서 Swipe 제스처를 사용할 수 있다. 일예로, Swipe의 방향이 12시 방향에 가까우면 해당 방향에 있는 기능이 실행된다. Swipe 제스처의 방향이 12시를 기준으로 한 소정의 각도안에 들어오면 12시 방향에 벗어나더라도 12시 방향을 의도한 제스처라고 판단할 수 있다. 일예로, 총 8개의 기능은 360도 원형의 UI에 45°간격으로 배치될 수 있는데, Swipe 제스처 시작점으로부터 그 경로를 잇는 직선과 Swipe 제스처 시작점으로부터 12시 방향의 임의의 점을 잇는 직선 사이 각도의 절대값이 22.5도(45도/2) 이내일 경우에 12방향에 있는 기능을 실행했다고 판단할 수 있다.
이때, 현재 선택 가능한 기능과 그렇지 않은 기능 아이콘, 이미지의 크기, 색상, 채도, 밝기, 투명도 등을 상이하게 할 수 있다.
도 20 및 도 21은 본 발명의 일실시예에 따른 소정의 방향에 있는 기능을 실행하는 예시이다. 도 20 및 도 21을 참조하면, 특정 방향으로 Swipe 제스처를 수행하고 연이어 소정의 방향으로 Swipe 제스처를 수행하는 경우 특정 방향의 기능이 아닌 소정의 방향에 있는 기능을 실행할 수 있다. 일례로, 12시 방향으로 Swipe 제스처를 수행하고 연이어 오른쪽 방향으로 소정의 거리를 이동하는 Swipe 제스처를 수행하는 경우 12 방향의 멀티미디어모드 기능이 아닌 멀티미디어모드 오른쪽 방향에 있는 차간거리설정 기능을 실행할 수 있다. 만약 소정의 거리를 조금 더 이동하여 Swipe 제스처를 수행하면 차간거리설정 오른쪽 방향에 있는 통화 기능을 수행할 수 있다.
또한, 여기에 개시된 실시형태들과 관련하여 설명된 방법 또는 알고리즘의 단계들은, 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 (명령) 코드, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다.
상기 매체에 기록되는 프로그램 (명령) 코드는 본 발명을 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프 등과 같은 자기 매체(magnetic media), CD-ROM, DVD, 블루레이 등과 같은 광기록 매체(optical media) 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 (명령) 코드를 저장하고 수행하도록 특별히 구성된 반도체 기억 소자가 포함될 수 있다.
여기서, 프로그램 (명령) 코드의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. 상기된 하드웨어 장치는 본 발명의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.
100: 스티어링 휠 조작 장치
110: 터치 센서
120: 제어기
130: 피드백 회로
140: 차량 시스템

Claims (32)

  1. 사용자에 의해 눌려져 있는 스티어링 휠의 표면 위치 및 세기를 측정하여 제스처를 센싱하고 센서 관련 정보를 생성하는 터치 센서;
    상기 센서 관련 정보를 분석하여 터치 입력 패턴 정보를 생성하고, 상기 터치 입력 패턴 정보에 따라 미리 설정되어 있는 제어 명령을 선택하여 해당 기능을실행하는 제어기; 및
    상기 제어 명령에 따라 피드백을 제공하는 피드백 회로;를 포함하며,
    상기 센서 관련 정보는 상기 터치 센서의 각 고유 식별 센서 정보, 좌표, 및 강도 정보를 포함하고,
    상기 제어 명령은 해당 기능을 실행하는 명령어이며, 상기 제어 명령은 상기 제스처 및 상기 각 고유 식별 센서 정보에 맵핑되고,
    상기 터치 센서는 상기 스티어링 휠의 좌측면에 배치되는 왼쪽 터치 센서, 중앙에 배치되는 중앙 터치 센서 및 우측면에 배치되는 오른쪽 터치 센서로 이루어지며,
    상기 기능은 그룹화되고, 상기 그룹화에 따라 상위 기능과 하위 기능으로 계층화되고, 각 기능별로 터치 센서 ID 및 제스처를 매핑되며,
    상기 기능은 상위 기능과 하위 기능으로 이루어지며, 상기 왼쪽 터치 센서 및 오른쪽 터치 센서는 상기 상위 기능 및 하위 기능에 선택적으로 매핑되며,
    상기 상위 기능이 실행되면 제스처 입력은 상기 상위 기능에 종속된 하위 기능으로 자동 매핑되는 것을 특징으로 하는 터치 컨트롤 기반 스티어링 휠 조작 장치.
  2. 제 1 항에 있어서,
    상기 제어기는, 상기 센서 관련 정보를 기반으로 제스처를 분석하는 분석 모듈;
    상기 제스처와 미리 설정되는 명령어 테이블을 참조하여 제어 명령을 선택하는 선별 모듈; 및
    상기 제어 명령을 상기 피드백 회로에 전달하여 제어하는 제어 모듈;을 포함하는 것을 특징으로 하는 터치 컨트롤 기반 스티어링 휠 조작 장치.
  3. 삭제
  4. 삭제
  5. 제 1 항에 있어서,
    상기 제스처는 단일 제스처 또는 복수개의 단일 제스처를 조합한 제스처인 것을 특징으로 하는 터치 컨트롤 기반 스티어링 휠 조작 장치.
  6. 제 5 항에 있어서,
    상기 단일 제스처는 특정 부분의 터치후 특정 방향으로 드래그하여 특정 거리를 이동하는 제 1 제스처, 특정 부분을 특정 시간 동안 누르는 제 2 제스처, 특정 부분을 특정 시간 동안 특정 세기로 누르는 제 3 제스처, 적어도 한 개 이상의 포인트로 특정시간 동안 적어도 한번 이상 탭하는 제 4 제스처, 문자를 입력하는 제 5 제스처, 적어도 한 개 이상의 포인트로 드래그하는 제 6 제스처, 2개의 포인트 사이의 거리를 조정하는 제 7 제스처, 및 상기 터치 센서의 터치면을 특정 면적 이상으로 누르는 제 8 제스처 중 어느 하나인 것을 특징으로 하는 터치 컨트롤 기반 스티어링 휠 조작 장치.
  7. 제 1 항에 있어서,
    상기 피드백은 디스플레이상으로 표시하는 시각 피드백, 스피커를 통해 출력하는 청각 피드백, 및 펄스를 통해 출력하는 촉각 피드백 중 적어도 어느 하나인 것을 특징으로 하는 터치 컨트롤 기반 스티어링 휠 조작 장치.
  8. 제 1 항에 있어서,
    상기 제어 명령은 다수의 메뉴 모드간 전환을 위한 입력 상태 플래그를 포함하는 것을 특징으로 하는 터치 컨트롤 기반 스티어링 휠 조작 장치.
  9. 제 1 항에 있어서,
    상기 터치 센서의 표면에 프린팅된 햅틱 아이콘이 배치되는 것을 특징으로 하는 터치 컨트롤 기반 스티어링 휠 조작 장치.
  10. 삭제
  11. 제 9 항에 있어서,
    상기 기능에 대한 상태는 이미지 및 아이콘의 형태로 표시되는 것을 특징으로 하는 터치 컨트롤 기반 스티어링 휠 조작 장치.
  12. 제 9 항에 있어서,
    상기 기능에 대한 설명 화면이 디스플레이상에 상기 터치 센서의 유저 인터페이스와 분할되거나 전체 화면에 표시되는 것을 특징으로 하는 터치 컨트롤 기반 스티어링 휠 조작 장치.
  13. 제 8 항에 있어서,
    상기 다수의 메뉴 모드는 각 모드 전환시 시계 방향으로 배치되며, 상기 메뉴 모드에서 선택가능한 기능에 대한 정보가 텍스트, 이미지 및 아이콘의 조합으로 게시되는 것을 특징으로 하는 터치 컨트롤 기반 스티어링 휠 조작 장치.
  14. 제 8 항에 있어서,
    상기 다수의 메뉴 모드에서 각 모드 전환시 현재 선택 가능한 기능들과 현재 선택 불가능한 기능들이 아이콘, 이미지의 크기, 색상, 채도, 밝기 및 투명도를 서로 상이하게 게시되는 것을 특징으로 하는 터치 컨트롤 기반 스티어링 휠 조작 장치.
  15. 제 8 항에 있어서,
    상기 다수의 메뉴 모드는 각 모드 전환시 일부분이 겹치게 배치되며, 현재 선택 가능한 기능들과 현재 선택 불가능한 기능들이 아이콘, 이미지의 크기, 색상, 채도, 밝기 및 투명도를 서로 상이하게 게시되는 것을 특징으로 하는 터치 컨트롤 기반 스티어링 휠 조작 장치.
  16. 제 8 항에 있어서,
    상기 다수의 메뉴 모드는 모드 전환없이 시계 방향의 도넛형상으로 배치되며, 특정 제스처를 상기 도넛형상의 중심점에서 특정 방향으로 적어도 1회 이상 연속으로 실행하여 해당 기능을 실행하며, 현재 선택 가능한 기능들과 현재 선택 불가능한 기능들이 아이콘, 이미지의 크기, 색상, 채도, 밝기 및 투명도를 서로 상이하게 게시되는 것을 특징으로 하는 터치 컨트롤 기반 스티어링 휠 조작 장치.
  17. 터치 센서가 사용자에 의해 눌려져 있는 스티어링 휠의 표면 위치 및 세기를 측정하여 제스처를 센싱하고 센서 관련 정보를 생성하는 센서 관련 정보 생성 단계;
    제어기가 상기 센서 관련 정보를 분석하여 터치 입력 패턴 정보를 생성하고, 상기 터치 입력 패턴 정보에 따라 미리 설정되어 있는 제어 명령을 선택하여 해당 기능을 실행하는 기능 실행 단계;
    피드백 회로가 상기 제어 명령에 따라 피드백을 제공하는 피드백 제공 단계;를 포함하며,
    상기 센서 관련 정보는 상기 터치 센서의 각 고유 식별 센서 정보, 좌표, 및 강도 정보를 포함하고,
    상기 제어 명령은 해당 기능을 실행하는 명령어이며, 상기 제어 명령은 상기 제스처 및 상기 각 고유 식별 센서 정보에 맵핑되고,
    상기 터치 센서는 상기 스티어링 휠의 좌측면에 배치되는 왼쪽 터치 센서, 중앙에 배치되는 중앙 터치 센서 및 우측면에 배치되는 오른쪽 터치 센서로 이루어지며,
    상기 기능은 그룹화되고, 상기 그룹화에 따라 상위 기능과 하위 기능으로 계층화되고, 각 기능별로 터치 센서 ID 및 제스처를 매핑되며,
    상기 기능은 상위 기능과 하위 기능으로 이루어지며, 상기 왼쪽 터치 센서 및 오른쪽 터치 센서는 상기 상위 기능 및 하위 기능에 선택적으로 매핑되며,
    상기 상위 기능이 실행되면 제스처 입력은 상기 상위 기능에 종속된 하위 기능으로 자동 매핑되는 것을 특징으로 하는 터치 컨트롤 기반 스티어링 휠 조작 방법.
  18. 제 17 항에 있어서,
    상기 기능 실행 단계는,
    분석 모듈이 상기 센서 관련 정보를 기반으로 제스처를 분석하는 분석 단계;
    선별 모듈이 상기 제스처와 미리 설정되는 명령어 테이블을 참조하여 제어 명령을 선택하는 단계; 및
    제어 모듈이 상기 제어 명령을 상기 피드백 회로에 전달하여 제어하는 단계;를 포함하는 것을 특징으로 하는 터치 컨트롤 기반 스티어링 휠 조작 방법.
  19. 삭제
  20. 삭제
  21. 제 17 항에 있어서,
    상기 제스처는 단일 제스처 또는 복수개의 단일 제스처를 조합한 제스처인 것을 특징으로 하는 터치 컨트롤 기반 스티어링 휠 조작 방법.
  22. 제 21 항에 있어서,
    상기 단일 제스처는 특정 부분의 터치후 특정 방향으로 드래그하여 특정 거리를 이동하는 제 1 제스처, 특정 부분을 특정 시간 동안 누르는 제 2 제스처, 특정 부분을 특정 시간 동안 특정 세기로 누르는 제 3 제스처, 적어도 한 개 이상의 포인트로 특정시간 동안 적어도 한번 이상 탭하는 제 4 제스처, 문자를 입력하는 제 5 제스처, 적어도 한 개 이상의 포인트로 드래그하는 제 6 제스처, 2개의 포인트 사이의 거리를 조정하는 제 7 제스처, 및 상기 터치 센서의 터치면을 특정 면적 이상으로 누르는 제 8 제스처 중 어느 하나인 것을 특징으로 하는 터치 컨트롤 기반 스티어링 휠 조작 방법.
  23. 제 17 항에 있어서,
    상기 피드백은 디스플레이상으로 표시하는 시각 피드백, 스피커를 통해 출력하는 청각 피드백, 및 펄스를 통해 출력하는 촉각 피드백 중 적어 어느 하나인 것을 특징으로 하는 터치 컨트롤 기반 스티어링 휠 조작 방법.
  24. 제 17 항에 있어서,
    상기 제어 명령은 다수의 메뉴 모드간 전환을 위한 입력 상태 플래그를 포함하는 것을 특징으로 하는 터치 컨트롤 기반 스티어링 휠 조작 방법.
  25. 제 17 항에 있어서,
    상기 터치 센서의 표면에 햅틱 아이콘이 배치되는 것을 특징으로 하는 터치 컨트롤 기반 스티어링 휠 조작 방법.
  26. 삭제
  27. 제 25 항에 있어서,
    상기 기능에 대한 상태는 이미지 및 아이콘의 형태로 표시되는 것을 특징으로 하는 터치 컨트롤 기반 스티어링 휠 조작 방법.
  28. 제 25 항에 있어서,
    상기 기능에 대한 설명 화면이 디스플레이상에 상기 터치 센서의 유저 인터페이스와 분할되거나 전체 화면에 표시되는 것을 특징으로 하는 터치 컨트롤 기반 스티어링 휠 조작 방법.
  29. 제 24 항에 있어서,
    상기 다수의 메뉴 모드는 각 모드 전환시 시계 방향으로 배치되며, 상기 메뉴 모드에서 선택가능한 기능에 대한 정보가 텍스트, 이미지 및 아이콘의 조합으로 게시되는 것을 특징으로 하는 터치 컨트롤 기반 스티어링 휠 조작 방법.
  30. 제 24 항에 있어서,
    상기 다수의 메뉴 모드에서 각 모드 전환시 현재 선택 가능한 기능들과 현재 선택 불가능한 기능들이 아이콘, 이미지의 크기, 색상, 채도, 밝기 및 투명도를 서로 상이하게 게시되는 것을 특징으로 하는 터치 컨트롤 기반 스티어링 휠 조작 방법.
  31. 제 24 항에 있어서,
    상기 다수의 메뉴 모드는 각 모드 전환시 일부분이 겹치게 배치되며, 현재 선택 가능한 기능들과 현재 선택 불가능한 기능들이 아이콘, 이미지의 크기, 색상, 채도, 밝기 및 투명도를 서로 상이하게 게시되는 것을 특징으로 하는 터치 컨트롤 기반 스티어링 휠 조작 방법.
  32. 제 24 항에 있어서,
    상기 다수의 메뉴 모드는 모드 전환없이 시계 방향의 도넛형상으로 배치되며, 특정 제스처를 상기 도넛형상의 중심점에서 특정 방향으로 적어도 1회 이상 연속으로 실행하여 해당 기능을 실행하며, 현재 선택 가능한 기능들과 현재 선택 불가능한 기능들이 아이콘, 이미지의 크기, 색상, 채도, 밝기 및 투명도를 서로 상이하게 게시되는 것을 특징으로 하는 터치 컨트롤 기반 스티어링 휠 조작 방법.
KR1020180033820A 2018-03-23 2018-03-23 터치 컨트롤 기반 스티어링 휠 조작 장치 및 방법 KR102529458B1 (ko)

Priority Applications (4)

Application Number Priority Date Filing Date Title
KR1020180033820A KR102529458B1 (ko) 2018-03-23 2018-03-23 터치 컨트롤 기반 스티어링 휠 조작 장치 및 방법
US16/203,133 US10817170B2 (en) 2018-03-23 2018-11-28 Apparatus and method for operating touch control based steering wheel
DE102018221024.1A DE102018221024A1 (de) 2018-03-23 2018-12-05 Einrichtung und verfahren zum betätigen eines auf einer berührungssteuerung basierenden lenkrads
CN201811477932.XA CN110294009B (zh) 2018-03-23 2018-12-05 用于基于触摸控制操作方向盘的装置和方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020180033820A KR102529458B1 (ko) 2018-03-23 2018-03-23 터치 컨트롤 기반 스티어링 휠 조작 장치 및 방법

Publications (2)

Publication Number Publication Date
KR20190111544A KR20190111544A (ko) 2019-10-02
KR102529458B1 true KR102529458B1 (ko) 2023-05-08

Family

ID=67847956

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020180033820A KR102529458B1 (ko) 2018-03-23 2018-03-23 터치 컨트롤 기반 스티어링 휠 조작 장치 및 방법

Country Status (4)

Country Link
US (1) US10817170B2 (ko)
KR (1) KR102529458B1 (ko)
CN (1) CN110294009B (ko)
DE (1) DE102018221024A1 (ko)

Families Citing this family (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020070979A1 (ja) * 2018-10-04 2020-04-09 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ 機器制御装置及び機器制御方法
US11518516B2 (en) * 2019-05-15 2022-12-06 Goodrich Corporation Method of handling aircraft cargo from a portable panel
USD948563S1 (en) * 2020-03-05 2022-04-12 Jaguar Land Rover Limited Display screen or portion thereof with icon
USD947893S1 (en) * 2020-03-05 2022-04-05 Jaguar Land Rover Limited Display screen or portion thereof with icon
CN111890932A (zh) * 2020-06-29 2020-11-06 武汉海微科技有限公司 基于3d touch的智能车载控制系统
CN111994093B (zh) * 2020-07-06 2022-08-16 惠州市德赛西威汽车电子股份有限公司 一种触摸装置及触摸检测方法
US11370471B2 (en) * 2020-08-17 2022-06-28 Ford Global Technologies, Llc Vehicle steering wheel having proximity sensor inputs
JP2022151123A (ja) * 2021-03-26 2022-10-07 トヨタ自動車株式会社 操作入力装置、操作入力方法及び操作入力プログラム
CN113844265A (zh) * 2021-08-20 2021-12-28 识瓴电子科技(南通)有限责任公司 车辆控制方法、装置及电子设备
CN113799791B (zh) * 2021-09-09 2023-06-02 均胜均安汽车电子(上海)有限公司 基于摄像头的方向盘按键防误触方法、装置及车辆
CN115871767A (zh) * 2021-09-29 2023-03-31 奥托立夫开发公司 方向盘和利用方向盘启动车辆内预设功能的方法
JP2023089755A (ja) * 2021-12-16 2023-06-28 ヤマハ発動機株式会社 船舶、操船システム及び船舶用ステアリング機構

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101362416B1 (ko) * 2012-10-19 2014-02-24 현대오트론 주식회사 자동차 스티어링휠을 이용한 조향 및 변속제어장치
US20150158388A1 (en) * 2013-12-09 2015-06-11 Harman Becker Automotive Systems Gmbh User interface

Family Cites Families (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6059511B2 (ja) 1981-06-02 1985-12-25 新日本製鐵株式会社 炉内物体の表面温度測定装置
US20100100849A1 (en) * 2008-10-22 2010-04-22 Dr Systems, Inc. User interface systems and methods
US8738224B2 (en) * 2011-01-12 2014-05-27 GM Global Technology Operations LLC Steering wheel system
US8886407B2 (en) * 2011-07-22 2014-11-11 American Megatrends, Inc. Steering wheel input device having gesture recognition and angle compensation capabilities
JP5452566B2 (ja) * 2011-10-31 2014-03-26 本田技研工業株式会社 車両用入力装置
KR101338564B1 (ko) 2011-12-07 2013-12-06 현대자동차주식회사 터치 패턴을 이용한 경적 제어 장치 및 그 방법
CN104039581B (zh) * 2012-01-09 2017-08-18 奥迪股份公司 用于在车辆中产生用户界面的3d‑图示的方法和装置
DE102012002306A1 (de) * 2012-02-06 2013-08-08 Audi Ag Kraftwagen mit einer Fahrerassistenzeinrichtung und Verfahren zum Betreiben eines Kraftwagens
US8577671B1 (en) 2012-07-20 2013-11-05 Veveo, Inc. Method of and system for using conversation state information in a conversational interaction system
US20150022465A1 (en) 2013-07-18 2015-01-22 Honda Motor Co., Ltd. Touchpad for user to vehicle interaction
CN103434462B (zh) * 2013-08-26 2015-09-30 浙江吉利汽车研究院有限公司 汽车智能控制方法和控制系统
CN105612476B (zh) * 2013-10-08 2019-09-20 Tk控股公司 自校准的触知触觉多触摸多功能开关面板
CN203974911U (zh) * 2014-02-26 2014-12-03 洪国林 具备声音信号拾取及视频显示功能的集中控制式方向盘
US20150307022A1 (en) * 2014-04-23 2015-10-29 Ford Global Technologies, Llc Haptic steering wheel
JP2015217813A (ja) 2014-05-19 2015-12-07 株式会社東海理化電機製作所 操作入力装置
KR102265244B1 (ko) * 2014-06-20 2021-06-15 삼성전자주식회사 디스플레이를 제어하는 전자 장치 및 방법
KR101568248B1 (ko) 2014-07-15 2015-11-11 현대오트론 주식회사 스티어링 휠에 장착된 리모트 컨트롤러의 동작 표시 방법 및 장치
CN105253189A (zh) * 2014-07-18 2016-01-20 张有贺 具有触控感应的方向盘
US9710063B2 (en) * 2014-07-21 2017-07-18 Immersion Corporation Systems and methods for determining haptic effects for multi-touch input
KR20160047204A (ko) 2014-10-22 2016-05-02 현대자동차주식회사 터치장치 및 터치장치의 제어방법
KR20140138361A (ko) 2014-11-07 2014-12-03 이용재 루프 형태의 택타일 멀티터치 입력장치, 제스처와 그 방법
KR101664038B1 (ko) * 2014-12-09 2016-10-10 현대자동차 주식회사 차량의 집중 조작 시스템
US10310605B2 (en) * 2016-11-15 2019-06-04 Steering Solutions Ip Holding Corporation Haptic feedback for steering system controls

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101362416B1 (ko) * 2012-10-19 2014-02-24 현대오트론 주식회사 자동차 스티어링휠을 이용한 조향 및 변속제어장치
US20150158388A1 (en) * 2013-12-09 2015-06-11 Harman Becker Automotive Systems Gmbh User interface

Also Published As

Publication number Publication date
CN110294009B (zh) 2023-06-06
US20190291769A1 (en) 2019-09-26
US10817170B2 (en) 2020-10-27
KR20190111544A (ko) 2019-10-02
DE102018221024A1 (de) 2019-09-26
CN110294009A (zh) 2019-10-01

Similar Documents

Publication Publication Date Title
KR102529458B1 (ko) 터치 컨트롤 기반 스티어링 휠 조작 장치 및 방법
TWI514234B (zh) 用於手勢識別之方法及裝置
US11036372B2 (en) Interface scanning for disabled users
KR102241618B1 (ko) 터치 입력의 압력 상태에 따라 동작하는 전자 장치 및 그 방법
EP2256614B1 (en) Display control apparatus, display control method, and computer program
US20100259482A1 (en) Keyboard gesturing
US20220229550A1 (en) Virtual Keyboard Animation
WO2014061098A1 (ja) 情報表示装置および表示情報操作方法
JP6144501B2 (ja) 表示装置、および、表示方法
US10921982B2 (en) Device and method for operating a device
US10430071B2 (en) Operation of a computing device functionality based on a determination of input means
KR20170016587A (ko) 터치 입력장치 및 이를 포함하는 차량
JP2012146017A (ja) 電子黒板システム、電子黒板システムの制御方法、プログラムおよびその記録媒体
CN114040857A (zh) 用于运行车辆中的操作系统的方法和车辆中的操作系统
KR101866729B1 (ko) 터치 입력장치, 이를 포함하는 차량, 및 제어방법
JP2021064329A (ja) 表示制御装置、画像表示システムおよびプログラム
KR102272079B1 (ko) 패턴을 이용한 avn 시스템 제어 장치 및 방법
US11249576B2 (en) Input device generating vibration at peripheral regions of user interfaces
KR20160059079A (ko) 터치 압력을 이용한 애플리케이션 제어 장치 및 방법
JP2014179026A (ja) 表示装置
KR20110079988A (ko) 터치스크린을 이용한 한글 입력 방법, 한글 입력 장치 및 이를 포함하는 휴대용 단말기

Legal Events

Date Code Title Description
AMND Amendment
E902 Notification of reason for refusal
AMND Amendment
E601 Decision to refuse application
AMND Amendment
X701 Decision to grant (after re-examination)
GRNT Written decision to grant