KR102429485B1 - 사용자 인터페이스 장치 및 방법 - Google Patents

사용자 인터페이스 장치 및 방법 Download PDF

Info

Publication number
KR102429485B1
KR102429485B1 KR1020160169577A KR20160169577A KR102429485B1 KR 102429485 B1 KR102429485 B1 KR 102429485B1 KR 1020160169577 A KR1020160169577 A KR 1020160169577A KR 20160169577 A KR20160169577 A KR 20160169577A KR 102429485 B1 KR102429485 B1 KR 102429485B1
Authority
KR
South Korea
Prior art keywords
tap
input
point
touch
interaction
Prior art date
Application number
KR1020160169577A
Other languages
English (en)
Other versions
KR20180068027A (ko
Inventor
박재석
Original Assignee
현대자동차주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 현대자동차주식회사 filed Critical 현대자동차주식회사
Priority to KR1020160169577A priority Critical patent/KR102429485B1/ko
Priority to US15/712,529 priority patent/US10423323B2/en
Publication of KR20180068027A publication Critical patent/KR20180068027A/ko
Application granted granted Critical
Publication of KR102429485B1 publication Critical patent/KR102429485B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/10Input arrangements, i.e. from user to vehicle, associated with vehicle functions or specially adapted therefor
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/20Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor
    • B60K35/28Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor characterised by the type of the output information, e.g. video entertainment or vehicle dynamics information; characterised by the purpose of the output information, e.g. for attracting the attention of the driver
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R16/00Electric or fluid circuits specially adapted for vehicles and not otherwise provided for; Arrangement of elements of electric or fluid circuits specially adapted for vehicles and not otherwise provided for
    • B60R16/02Electric or fluid circuits specially adapted for vehicles and not otherwise provided for; Arrangement of elements of electric or fluid circuits specially adapted for vehicles and not otherwise provided for electric constitutive elements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0416Control or interface arrangements specially adapted for digitisers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0482Interaction with lists of selectable items, e.g. menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04842Selection of displayed objects or displayed text elements
    • B60K2350/1004
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/143Touch sensitive instrument input devices
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/143Touch sensitive instrument input devices
    • B60K2360/1438Touch screens
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/16Type of output information
    • B60K2360/164Infotainment
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04808Several contacts: gestures triggering a specific function, e.g. scrolling, zooming, right-click, when the user establishes several contacts with the surface simultaneously; e.g. using several fingers or a combination of fingers and pen

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Mechanical Engineering (AREA)
  • Chemical & Material Sciences (AREA)
  • Combustion & Propulsion (AREA)
  • Transportation (AREA)
  • Position Input By Displaying (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

본 발명은 사용자 인터페이스 장치 및 방법에 관한 것으로, 본 발명에 따른 사용자 인터페이스 장치는 터치 패널의 일 지점에 입력되는 터치 입력을 감지하는 터치 인터페이스, 및 상기 터치 패널에 입력되는 제1탭을 감지한 후, 상기 제1탭을 유지한 상태에서 정해진 시간 내 하나 이상의 제2탭을 감지하면, 상기 제1탭과 상기 하나 이상의 제2탭의 입력 방향에 따라 탭-탭 인터랙션을 인식하고 인식한 탭-탭 인터랙션에 부여된 기능을 처리하는 메인 제어기를 포함한다.

Description

사용자 인터페이스 장치 및 방법{USER INTERFACE APPARATUS AND METHOD}
본 발명은 탭-탭 인터랙션(tap-tap interaction)에 방향성을 부가하여 새로운 터치 인터랙션을 제공하는 사용자 인터페이스 장치 및 방법에 관한 것이다.
터치 인터랙션(touch interaction)은 모바일 기기 외 차량 내 AVN(Audio Video Navigation) 장치 등과 같은 차량 단말기에도 적용되고 있다. 이러한 차량 단말기의 하드웨어 성능이 향상되고, 차량 단말기가 이전 대비 더 많은 기능을 제공하게 됨에 따라 그 기능들을 좀더 쉽고 직관적으로 조작하기 위한 새로운 입력 방법이 요구된다.
KR 101553119 B1 JP 5573814 B2
본 발명은 탭-탭 인터랙션(tap-tap interaction)에 방향성을 부가하여 새로운 터치 인터랙션을 제공하는 사용자 인터페이스 장치 및 방법을 제공하고자 한다.
상기한 과제를 해결하기 위하여, 본 발명의 일 실시예에 따른 사용자 인터페이스 장치는 터치 패널의 일 지점에 입력되는 터치 입력을 감지하는 터치 인터페이스, 및 상기 터치 패널에 입력되는 제1탭을 감지한 후, 상기 제1탭을 유지한 상태에서 정해진 시간 내 하나 이상의 제2탭을 감지하면, 상기 제1탭과 상기 하나 이상의 제2탭의 입력 방향에 따라 탭-탭 인터랙션을 인식하고 인식한 탭-탭 인터랙션에 부여된 기능을 처리하는 메인 제어기를 포함하는 것을 특징으로 한다.
상기 터치 인터페이스는, 터치 입력에 따른 전기신호들을 출력하는 터치 패널, 상기 전기신호들을 처리하여 터치 지점의 좌표 데이터를 출력하는 터치 제어기, 및 상기 좌표 데이터를 병렬 전송하는 직병렬 변환기를 포함하는 것을 특징으로 한다.
상기 메인 제어기는, 상기 직병렬 변환기와 통신을 수행하는 직렬 변환기, 및 상기 직렬 변환기를 통해 수신한 상기 터치 지점의 좌표 데이터를 이용하여 상기 탭-탭 인터랙션을 인식하는 처리기를 포함하는 것을 특징으로 한다.
상기 처리기는, 상기 제1탭이 입력된 지점과 상기 하나 이상의 제2탭이 입력된 지점의 좌표 데이터를 이용하여 상기 입력 방향을 결정하는 것을 특징으로 한다.
상기 처리기는, 상기 제1탭의 입력을 유지한 상태에서 상기 제1탭이 입력된 지점으로부터 제1방향의 일 지점에 제2탭이 감지되면, 제1탭-탭 인터랙션으로 인식하는 것을 특징으로 한다.
상기 처리기는, 상기 제1탭의 입력을 유지한 상태에서 상기 제1탭이 입력된 지점으로부터 제2방향의 일 지점에 제2탭이 감지되면, 제2탭-탭 인터랙션으로 인식하는 것을 특징으로 한다.
상기 처리기는, 상기 제1탭의 입력을 유지한 상태에서 상기 제1탭이 입력된 지점으로부터 제3방향의 일 지점에 제2탭이 감지되면, 제3탭-탭 인터랙션으로 인식하는 것을 특징으로 한다.
상기 처리기는, 상기 제1탭의 입력을 유지한 상태에서 상기 제1탭이 입력된 지점으로부터 제4방향의 일 지점에 제2탭이 감지되면, 제4탭-탭 인터랙션으로 인식하는 것을 특징으로 한다.
한편, 본 발명의 일 실시예에 따른 터치 인터페이스를 구비한 차량 단말기의 동작 방법은 터치 패널 상의 일 지점에 입력되는 제1탭을 감지하는 단계, 상기 제1탭을 감지한 후, 상기 제1탭을 유지한 상태에서 정해진 시간 내 하나 이상의 제2탭을 감지하는 단계, 및 상기 하나 이상의 제2탭을 감지하면, 상기 제1탭과 상기 하나 이상의 제2탭의 입력 방향에 따른 기능을 수행하는 단계를 포함하는 것을 특징으로 한다.
상기 입력 방향에 따른 기능을 수행하는 단계는, 상기 제1탭이 입력된 지점과 상기 하나 이상의 제2탭이 입력된 지점 간의 거리 변화가 있는지를 확인하는 단계, 및 상기 거리 변화가 없으면 상기 제1탭과 상기 하나 이상의 제2탭의 입력 방향에 따라 탭-탭 인터랙션을 인식하는 단계를 포함하는 것을 특징으로 한다.
상기 탭-탭 인터랙션을 인식하는 단계는, 상기 제1탭이 입력된 지점으로부터 제1방향의 일 지점에 제2탭이 감지되면, 제1탭-탭 인터랙션으로 인식하는 것을 특징으로 하는 터치 인터페이스를 구비한 차량 단말기의 동작 방법.
상기 탭-탭 인터랙션을 인식하는 단계는, 상기 제1탭이 입력된 지점으로부터 제2방향의 일 지점에 제2탭이 감지되면, 제2탭-탭 인터랙션으로 인식하는 것을 특징으로 한다.
상기 탭-탭 인터랙션을 인식하는 단계는, 상기 제1탭이 입력된 지점으로부터 제3방향의 일 지점에 제2탭이 감지되면, 제3탭-탭 인터랙션으로 인식하는 것을 특징으로 한다.
상기 탭-탭 인터랙션을 인식하는 단계는, 상기 제1탭이 입력된 지점으로부터 제4방향의 일 지점에 제2탭이 감지되면, 제4탭-탭 인터랙션으로 인식하는 것을 특징으로 하는 터치 인터페이스를 구비한 차량 단말기의 동작 방법.
본 발명은 탭-탭 인터랙션(tap-tap interaction)에 방향성을 부가하여 새로운 터치 인터랙션을 제공함에 따라 제한된 좁은 터치 공간에서 사용자가 직관적으로 쉽고 용이하게 조작할 수 있다.
도 1은 본 발명의 일 실시예에 따른 사용자 인터페이스 장치의 블록 구성도.
도 2a 내지 도 2d는 본 발명과 관련된 터치 인터랙션을 설명하기 위한 도면.
도 3은 본 발명의 일 실시예에 따른 사용자 인터페이스 방법을 도시한 흐름도.
도 4 및 도 5는 본 발명의 일 실시예에 따른 탭-탭 인터랙션에 따른 기능 수행을 설명하기 위한 예시도.
도 6은 본 발명의 일 실시예에 따른 사용자 인터페이스 방법을 실행하는 컴퓨팅 시스템을 보여주는 블록도.
본 명세서에 기재된 "포함하다", "구성하다", "가지다" 등의 용어는 특별히 반대되는 기재가 없는 한 해당 구성요소가 내재될 수 있음을 의미하는 것이므로 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있는 것을 의미한다.
또한, 본 명세서에 기재된 "…부", "…기", "모듈" 등의 용어는 적어도 하나의 기능이나 동작을 처리하는 단위를 의미하며, 이는 하드웨어나 소프트웨어 또는 하드웨어 및 소프트웨어의 결합으로 구현될 수 있다. 또한, "일", "하나" 및 "그" 등의 관사는 본 발명을 기술하는 문맥에 있어서 본 명세서에 달리 지시되거나 문맥에 의해 분명하게 반박되지 않는 한, 단수 및 복수 모두를 포함하는 의미로 사용될 수 있다.
이하에서는 첨부된 도면들을 참조하여 본 발명의 실시예를 상세하게 설명한다.
도 1은 본 발명의 일 실시예에 따른 사용자 인터페이스 장치의 블록 구성도를 도시하고, 도 2a 내지 도 2d는 본 발명과 관련된 터치 인터랙션을 설명하기 위한 도면이다. 여기서, 사용자 인터페이스 장치는 AVN(Audio Video Navigation) 장치 등의 차량 단말기로 구현될 수 있다.
사용자 인터페이스 장치는 터치 인터페이스(touch interface)(110), 디스플레이(120) 및 메인 제어기(main controller)(130)를 포함한다.
터치 인터페이스(110)는 사용자에 의해 입력되는 터치 입력을 인식한다. 다시 말해서, 터치 인터페이스(110)는 사용자가 명령 또는 데이터 등을 입력할 수 있게 한다.
여기서, 터치 입력은 [표 1]에 도시된 바와 같이 숏탭(short tap), 더블 탭(double tap), 롱 탭(long tap), 핀치 인(pinch in), 핀치 아웃(pinch out) 및 탭-탭(tap-tap) 등으로 구분된다.
구분 동작(action)
숏탭(short tap) 터치패널 상의 일 지점에 일정 시간(예: 1초) 이내로 한 번 터치
더블 탭(double tap) 터치패널 상의 일 지점에 일정 시간 동안 연속 두 번 터치
롱 탭(long tap) 터치패널 상의 일 지점에 일정 시간 이상 터치 유지
핀치 인(pinch in) 터치패널 상의 일 지점에 터치가 유지된 상태에서 일정 시간 이내 다른 지점에 터치가 입력되어 두 터치 지점이 서로 멀어짐
핀치 아웃(pinch out) 터치패널 상의 일 지점에 터치가 유지된 상태에서 일정 시간 이내 다른 지점에 터치가 입력되어 두 터치 지점이 서로 가까워짐
탭-탭(tap-tap) 터치패널 상의 일 지점에 터치가 유지된 상태에서 일정 시간 이내 다른 지점에 터치가 입력됨
이러한 터치 인터페이스(110)는 터치 패널(111), 터치 제어기(112) 및 직병렬 변환기(deserializer)(113)를 포함한다.
터치 패널(111)은 사용자의 터치 동작을 감지하는 센서로, 터치 필름, 터치 시트 또는 터치 패드 등의 형태로 구현될 수 있다. 터치 패널(111)은 디스플레이(120)와 결합하여 터치 스크린(touch screen, TS) 형태로 구현될 수도 있다. 이 경우, 터치 스크린(TS)은 출력 장치 및 입력 장치로 사용될 수 있다.
터치 패널(111)은 터치 패널(111) 상의 일 지점에 가해지는 압력 또는 정전 용량 등의 변화를 전기신호로 변환한다. 터치 패널(111)은 터치 지점의 위치(좌표) 및 면적뿐만 아니라, 터치 시의 압력도 검출할 수 있도록 구성될 수 있다.
터치 제어기(112)는 터치 패널(111)로부터 입력되는 전기신호(들)를 처리하여 터치 지점의 좌표 데이터(좌표값)을 출력한다. 다시 말해서, 터치 제어기(112)는 터치 패널(111) 상에 발생한 터치 입력을 감지하고 그 감지된 터치 입력이 발생한 터치 지점의 위치 좌표를 출력한다.
직병렬 변환기(113)는 터치 제어기(112)와 I2C(Inter-integrated Circuit) 통신을 수행한다. 직병렬 변환기(113)는 터치 제어기(112)로부터 수신한 좌표 데이터를 병렬로 변환하여 출력한다. 다시 말해서, 직병렬 변환기(113)는 터치 지점의 좌표 데이터를 병렬 전송한다.
디스플레이(120)는 메인 제어기(130)에서 처리되는 정보를 표시한다. 예를 들어, 디스플레이(120)는 AVN 조작과 관련된 UI(User Interface) 또는 GUI(Graphic User Interface), 지도, 또는 영상 등을 표시한다.
디스플레이(120)는 액정 디스플레이(liquid crystal display, LCD), 박막 트랜지스터 액정 디스플레이(thin film transistor-liquid crystal display, TFT LCD), 유기 발광 다이오드(organic light-emitting diode, OLED), 플렉시블 디스플레이(flexible display), 3차원 디스플레이(3D display) 및 투명디스플레이 중 어느 하나의 형태로 구현될 수 있다.
메인 제어기(130)는 터치 인터페이스(110)를 통해 감지한 터치 입력을 식별(인식)하고 식별된 터치 입력에 부여된 기능을 수행한다. 메인 제어기(130)는 직렬 변환기(serializer)(131), 메모리(132), 오디오 출력기(133), 공조 제어기(air condition controller)(134) 및 처리기(135)를 포함한다.
직렬 변환기(131)는 직병렬 변환기(113)로부터 병렬 전송되는 데이터를 시간으로 순서화하여 직렬로 변환하는 역할을 한다. 직렬 변환기(131)는 직렬 변환기(131)를 통해 수신한 터치 지점의 좌표 데이터를 I2C 통신을 통해 처리기(135)로 전송한다.
메모리(132)는 처리기(135)의 전반적인 동작을 위한 프로그램을 저장할 수 있고, 수신한 터치 지점의 좌표 데이터를 임시 저장할 수도 있다. 메모리(132)는 지도 데이터, 오디오 데이터 및 영상 데이터 등을 저장할 수 있다.
메모리(132)는 플래시 메모리(flash memory), 하드디스크(hard disk), SD 카드(Secure Digital Card), 램(Random Access Memory, RAM), 롬(Read Only Memory, ROM), 및 웹 스토리지(web storage) 등의 저장매체 중 어느 하나 이상의 저장매체로 구현될 수 있다.
오디오 출력기(133)는 메모리(132)에 저장된 오디오 데이터를 출력한다. 오디오 출력기(133)는 리시버(receiver), 스피커(speaker), 및/또는 버저(buzzer) 등이 포함될 수 있다.
공조 제어기(134)는 차량 내부의 냉난방 시 풍량(바람 세기), 풍향(바람 방향), 및 온도 등을 조절하여 차량 내부의 온도, 습도, 공기의 청정도 및 공기 흐름 등을 제어한다.
처리기(135)는 메모리(132)에 저장된 오디오 및/또는 영상을 재생하여 오디오 출력기(133) 및/또는 디스플레이(120)로 출력한다. 처리기(135)는 GPS(Global Positioning System) 수신기(미도시)와 메모리(132)에 저장된 지도 데이터를 이용하여 목적지까지의 길안내 및/또는 도로정보 등을 제공할 수 있다. 또한, 처리기(135)는 공조 제어기(134)를 제어하여 차량 내부의 공기 상태를 조정한다.
처리기(135)는 터치 인터페이스(110)를 통해 제1탭(tap)(터치 입력)을 감지한 후 제2탭이 감지되면, 제1탭 감지 후 제1임계 시간(예: 800ms) 이내 제2탭이 감지되었는지를 확인한다. 처리기(135)는 터치 인터페이스(110)의 표면 상의 제1지점에 제1탭이 입력된 후 제1임계 시간 이내 터치 인터페이스(110)의 표면 상의 제2지점에 제2탭이 입력되었는지를 확인한다. 여기서, 탭은 사용자가 손가락 또는 스타일러스(stylus)로 터치스크린(TS)의 화면 상의 일 지점을 터치한 상태를 말한다.
처리기(135)는 제1탭 감지 후 제1임계 시간 이내 제2탭이 감지된 경우, 제1탭이 유지된 상태에서 제2탭이 감지되었는지를 확인한다. 다시 말해서, 처리기(135)는 제1지점에 터치가 유지된 상태에서 제1지점과 제2지점에 새로운 터치가 발생한 것인지를 확인한다. 이때, 처리기(135)는 제1지점과 제2지점이 서로 다른 지점인지를 확인한다.
처리기(135)는 제1탭이 유지된 상태에서 제2탭이 감지된 경우, 제1탭이 입력된 지점(제1탭 지점)과 제2탭이 입력된 지점(제2탭 지점) 간의 거리 변화가 있는지를 확인한다. 처리기(135)는 거리 변화가 없으면, 제1탭과 제2탭의 입력 방향에 따른 동작을 수행한다.
이때, 처리기(135)는 제1탭이 입력된 지점(제1탭 지점)을 기준으로 제2탭이 입력된 지점(제2탭 지점)의 방향을 확인하여 방향성이 부가된 탭-탭 인터랙션을 식별한다.
탭-탭 인터랙션은 제1탭과 제2탭의 입력 방향에 따라 도 2a 내지 도 2d에 도시된 바와 같이 4가지로 구분할 수 있다.
제1탭-탭 인터랙션은 도 2a에 도시된 바와 같이, 제1탭의 입력을 유지한 상태에서 제1탭이 입력된 지점으로부터 우측(제1방향)의 일 지점에 제2탭을 입력하는 좌우 탭-탭(LR tap-tap)이다.
제2탭-탭 인터랙션은 도 2b에 도시된 바와 같이, 제1탭의 입력을 유지한 상태에서 제1탭이 입력된 지점으로부터 좌측(제2방향)의 일 지점에 제2탭을 입력하는 우좌 탭-탭(RL tap-tap)이다.
제3탭-탭 인터랙션은 도 2c에 도시된 바와 같이, 제1탭의 입력을 유지한 상태에서 제1탭이 입력된 지점으로부터 상측(제3방향)의 일 지점에 제2탭을 입력하는 하상 탭-탭(DU tap-tap)이다.
제4탭-탭 인터랙션은 도 2d에 도시된 바와 같이, 제1탭의 입력을 유지한 상태에서 제1탭이 입력된 지점으로부터 하측(제4방향)의 일 지점에 제2탭을 입력하는 상하 탭-탭(UD tap-tap)이다. 본 실시예에서는 제1탭을 기준으로 제2탭이 입력되는 방향에 근거하여 4개의 입력 방향으로 구분하는 것을 설명하고 있으나, 이에 한정되지 않고 5개 이상의 입력 방향으로 구분할 수도 있다.
처리기(135)는 제1탭 지점과 제2탭 지점의 좌표 데이터를 이용한 연산 처리를 통해 입력 방향을 결정할 수 있다. 예를 들어, 제1탭 지점의 좌표 데이터가 (x1, y1)이고, 제2탭의 좌표 데이터가 (x2, y2)인 경우, 처리기(135)는 |x2-x1|>|y2-y1|이면 x2-x1>0인지를 확인한다. 처리기(135)는 x2-x1>0이면 좌우 탭-탭이고, x2-x1≤0이면 우좌 탭-탭으로 결정한다.
한편, 처리기(135)는 |x2-x1|≤|y2-y1|이면, y2-y1>0인지를 확인한다. 처리기(135)는 y2-y1>0이면, 하상 탭-탭, y2-y1≤0이면, 상하 탭-탭으로 결정한다.
처리기(135)는 제1탭이 감지된 후 제1임계 시간 이내 제2탭이 감지되지 않으면, 제1탭이 제2임계 시간(예: 800ms) 이상 지속되었는지를 확인한다. 처리기(135)는 제1탭이 제2임계 시간 이상 지속되면 롱 탭에 대응하는(정의된) 기능을 수행한다. 처리기(135)는 제1탭이 제2임계 시간 미만으로 지속되면 숏탭(short tap)에 대응하는 기능을 수행한다.
처리기(135)는 제1탭이 유지되지 않은 상태에서 제1임계 시간 이내 제2탭이 감지된 경우, 더블 탭에 대응하는 기능을 수행한다. 이때, 제1탭이 입력된 지점과 제2탭이 입력된 지점은 동일하거나 정해진 거리 이내이다.
처리기(135)는 제1탭 지점과 제2탭 지점 간의 거리 변화가 있으면, 핀치 인 또는 핀치 아웃에 할당된 기능을 수행한다. 처리기(135)는 제1탭 지점과 제2탭 지점 간의 거리가 가까워지면 핀치 아웃으로 인식하고, 제1탭 지점과 제2탭 지점 간의 거리가 멀어지면 핀치 인으로 인식한다.
도 3은 본 발명의 일 실시예에 따른 사용자 인터페이스 방법을 도시한 흐름도이다.
처리기(135)는 터치 인터페이스(110) 상에 입력되는 제1탭을 감지한다(S110). 처리기(135)는 터치 인터페이스(110)의 표면 상의 일 지점에 터치 입력이 발생하면, 해당 터치 입력을 제1탭으로 인식한다.
처리기(135)는 제1탭을 감지한 후 제1임계 시간(예: 800ms) 이내 터치 인터페이스(110) 상에 하나 이상의 제2탭이 감지되었는지를 확인한다(S120).
처리기(135)는 S120에서 제2탭이 감지되면, 제1탭의 입력이 유지되는 상태인지를 확인한다(S130). 다시 말해서, 처리기(135)는 제1탭이 유지된 상태에서 제1임계 시간 이내 제2탭이 감지되었는지를 확인한다. 이때, 처리기(135)는 터치 인터페이스(110)의 표면 상의 제1탭이 입력된 지점과 제2탭이 입력된 지점 간의 거리가 임계치를 초과하는지를 확인한다.
처리기(135)는 제1탭이 유지된 상태이면, 제1탭이 입력된 지점(제1탭 지점)과 제2탭이 입력된 지점(제1탭 지점) 사이의 거리 변화가 있는지를 확인한다(S140). 이때, 제1탭 지점과 제2탭 지점의 거리가 임계치를 초과한다.
처리기(135)는 제1탭 지점과 제2탭 지점 사이의 거리 변화가 없으면, 제1탭과 제2탭의 입력 방향에 따라 탭-탭 인터랙션을 인식한다(S150). 처리기(135)는 제1탭과 제2탭의 입력 방향에 따라 4개의 탭-탭 인터랙션 중 어느 하나의 탭-탭 인터랙션으로 결정한다.
처리기(135)는 인식된 탭-탭 인터랙션에 할당된 기능을 수행한다(S160).
S120에서, 처리기(135)는 제2탭이 감지되지 않으면, 제1탭이 제2임계 시간 이상 지속되는지를 확인한다(S170). 처리기(135)는 제1탭이 제2임계 시간 이상 지속되면 롱 탭으로 인식하여 롱 탭에 부여된 기능을 수행한다(S180).
한편, 처리기(135)는 제1탭이 제2임계 시간 미만으로 지속되면 숏탭에 대응하는 기능을 수행한다(S190).
S130에서, 처리기(135)는 제1탭이 유지된 상태가 아니면, 더블 탭으로 인식하여 그에 대응하는 기능을 수행한다(S210). 이때, 제1탭 지점과 제2탭 지점의 거리는 0 이상 임계치 미만 이다.
S140에서, 처리기(135)는 제1탭 지점과 제2탭 지점 간의 거리 변화가 있으면, 핀치 인 또는 핀치 아웃으로 인식하여 핀치 인 또는 핀치 아웃에 대응하는 기능을 수행한다(S220). 처리기(135)는 제1탭 지점과 제2탭 지점의 거리가 점점 증가하면 핀치 인으로 인식하고, 제1탭 지점과 제2탭 지점의 거리가 점점 감소하면 핀치 아웃으로 인식한다.
도 4 및 도 5는 본 발명의 일 실시예에 따른 탭-탭 인터랙션에 따른 기능 수행을 설명하기 위한 예시도이다.
도 4에 도시된 바와 같이, 디스플레이(120)의 화면 상에 지도가 2D 모드로 표시되는 상태에서, 처리기(135)는 화면 상에 좌우 탭-탭의 입력이 감지될 때마다 2D 모드에서 3D 모드로, 3D 모드에서 버드뷰(birdview) 모드로, 버드뷰 모드에서 2D 모드로 지도 뷰 모드가 변경된다. 한편, 처리기(135)는 화면 상에 우좌 탭-탭의 입력이 감지될 때마다 지도 뷰 모드가 2D 모드, 버드뷰 모드, 및 3D 모드로 순차적으로 변경된다.
디스플레이 화면 상에 메뉴 화면을 표시하고 있는 경우, 처리기(135)는 화면 상에 좌우 탭-탭의 입력을 감지하면 다음 메뉴 화면으로 전환하여 표시한다. 그리고, 처리기(135)는 우좌 탭-탭의 입력을 감지하면 이전 메뉴 화면으로 전환하여 표시한다.
음악 재생 중 인 경우, 처리기(135)는 화면 상에 좌우 탭-탭의 입력을 감지하면 다음 곡을 재생하여 출력한다. 한편, 처리기(135)는 우좌 탭-탭의 입력을 감지하면 이전 곡을 재생하여 출력한다.
도 5에 도시된 바와 같이, 터치스크린(TS) 상에 지도 위젯, 미디어 위젯 및 공조 위젯을 표시하고 있는 상태에서, 처리기(135)는 각 위젯이 선택되면 해당 메인 화면으로 진입한다. 예를 들어, 지도 위젯이 선택되면 지도 전체 화면으로 천이되고, 미디어 위젯이 선택되면 미디어 전체 화면으로 천이되며, 공조 위젯이 선택되면 공조 전제 화면으로 천이된다.
처리기(1350는 지도 위젯 상에 좌우 탭-탭이 입력되거나 우좌 탭-탭이 입력되면, 지도 뷰 모드를 변경하고, 상하 탭-탭 또는 하상 탭-탭이 입력되면 지도의 축척을 변경한다.
또는, 처리기(135)는 미디어 위젯 상에 좌우 탭-탭 또는 우좌 탭-탭이 입력되면 이전 곡 또는 다음 곡을 재생하여 출력하고, 상하 탭-탭 또는 하상 탭-탭이 입력되면 미디어 소스를 변경한다. 예를 들어, 처리기(135)는 상하 탭-탭 또는 하상 탭-탭이 음악 폴더를 변경한다.
또는, 처리기(135)는 공조 위젯 상에 좌우 탭-탭 또는 우좌 탭-탭이 입력되면 풍량을 변경하고, 상하 탭-탭 또는 하상 탭-탭이 입력되면 풍향을 변경한다.
도 6은 본 발명의 일 실시예에 따른 사용자 인터페이스 방법을 실행하는 컴퓨팅 시스템을 보여주는 블록도이다.
도 6을 참조하면, 컴퓨팅 시스템(1000)은 버스(1200)를 통해 연결되는 적어도 하나의 프로세서(1100), 메모리(1300), 사용자 인터페이스 입력 장치(1400), 사용자 인터페이스 출력 장치(1500), 스토리지(1600), 및 네트워크 인터페이스(1700)를 포함할 수 있다.
프로세서(1100)는 중앙 처리 장치(CPU) 또는 메모리(1300) 및/또는 스토리지(1600)에 저장된 명령어들에 대한 처리를 실행하는 반도체 장치일 수 있다. 메모리(1300) 및 스토리지(1600)는 다양한 종류의 휘발성 또는 불휘발성 저장 매체를 포함할 수 있다. 예를 들어, 메모리(1300)는 ROM(Read Only Memory) 및 RAM(Random Access Memory)을 포함할 수 있다.
따라서, 본 명세서에 개시된 실시예들과 관련하여 설명된 방법 또는 알고리즘의 단계는 프로세서(1100)에 의해 실행되는 하드웨어, 소프트웨어 모듈, 또는 그 2 개의 결합으로 직접 구현될 수 있다. 소프트웨어 모듈은 RAM 메모리, 플래시 메모리, ROM 메모리, EPROM 메모리, EEPROM 메모리, 레지스터, 하드 디스크, 착탈형 디스크, CD-ROM과 같은 저장 매체(즉, 메모리(1300) 및/또는 스토리지(1600))에 상주할 수도 있다. 예시적인 저장 매체는 프로세서(1100)에 커플링되며, 그 프로세서(1100)는 저장 매체로부터 정보를 판독할 수 있고 저장 매체에 정보를 기입할 수 있다. 다른 방법으로, 저장 매체는 프로세서(1100)와 일체형일 수도 있다. 프로세서 및 저장 매체는 주문형 집적회로(ASIC) 내에 상주할 수도 있다. ASIC는 사용자 단말기 내에 상주할 수도 있다. 다른 방법으로, 프로세서 및 저장 매체는 사용자 단말기 내에 개별 컴포넌트로서 상주할 수도 있다.
이상에서, 본 발명의 실시예를 구성하는 모든 구성 요소들이 하나로 결합되거나 결합되어 동작하는 것으로 설명되었다고 해서, 본 발명이 반드시 이러한 실시예에 한정되는 것은 아니다. 즉, 본 발명의 목적 범위 안에서라면, 그 모든 구성 요소들이 하나 이상으로 선택적으로 결합하여 동작할 수도 있다. 또한, 그 모든 구성요소들이 각각 하나의 독립적인 하드웨어로 구현될 수 있지만, 각 구성 요소들의 그 일부 또는 전부가 선택적으로 조합되어 하나 또는 복수 개의 하드웨어에서 조합된 일부 또는 전부의 기능을 수행하는 프로그램 모듈을 갖는 컴퓨터 프로그램으로서 구현될 수도 있다. 그 컴퓨터 프로그램을 구성하는 코드들 및 코드 세그먼트들은 본 발명의 기술 분야의 당업자에 의해 용이하게 추론될 수 있을 것이다. 이러한 컴퓨터 프로그램은 컴퓨터가 읽을 수 있는 저장매체(Computer Readable Media)에 저장되어 컴퓨터에 의하여 읽혀지고 실행됨으로써, 본 발명의 실시예를 구현할 수 있다.
TS: 터치 스크린 110: 터치 인터페이스
111: 터치 패널 112: 터치 제어기
113: 직병렬 변환기 120: 디스플레이
130: 메인 제어기 131: 직렬 변환기
132: 메모리 133: 오디오 출력기
135: 처리기

Claims (14)

  1. 터치 패널의 일 지점에 입력되는 터치 입력을 감지하는 터치 인터페이스, 및
    상기 터치 패널에 입력되는 제1탭을 감지한 후, 상기 제1탭을 유지한 상태에서 정해진 시간 내 하나 이상의 제2탭을 감지하면, 상기 제1탭과 상기 하나 이상의 제2탭의 입력 방향에 따라 탭-탭 인터랙션을 인식하고 인식한 탭-탭 인터랙션에 부여된 기능을 처리하는 메인 제어기를 포함하고,
    상기 메인 제어기는 상기 제1탭 지점의 좌표 데이터가 (x1, y1)이고, 상기 제2탭의 좌표 데이터가 (x2, y2)인 경우, |x2-x1|>|y2-y1|이면 x2-x1>0인지를 확인하고,
    |x2-x1|≤|y2-y1|이면, y2-y1>0인지를 확인하고 확인결과에 기반하여 상기 입력 방향을 결정하는 것을 특징으로 하는 터치 인터페이스를 구비한 차량 단말기.
  2. 제1항에 있어서,
    상기 터치 인터페이스는,
    터치 입력에 따른 전기신호들을 출력하는 터치 패널,
    상기 전기신호들을 처리하여 터치 지점의 좌표 데이터를 출력하는 터치 제어기, 및
    상기 좌표 데이터를 병렬 전송하는 직병렬 변환기를 포함하는 것을 특징으로 하는 터치 인터페이스를 구비한 차량 단말기.
  3. 제2항에 있어서,
    상기 메인 제어기는,
    상기 직병렬 변환기와 통신을 수행하는 직렬 변환기, 및
    상기 직렬 변환기를 통해 수신한 상기 터치 지점의 좌표 데이터를 이용하여 상기 탭-탭 인터랙션을 인식하는 처리기를 포함하는 것을 특징으로 하는 터치 인터페이스를 구비한 차량 단말기.
  4. 제3항에 있어서,
    상기 처리기는,
    상기 제1탭이 입력된 지점과 상기 하나 이상의 제2탭이 입력된 지점의 좌표 데이터를 이용하여 상기 입력 방향을 결정하는 것을 특징으로 하는 터치 인터페이스를 구비한 차량 단말기.
  5. 제4항에 있어서,
    상기 처리기는,
    상기 제1탭의 입력을 유지한 상태에서 상기 제1탭이 입력된 지점으로부터 제1방향의 일 지점에 제2탭이 감지되면, 제1탭-탭 인터랙션으로 인식하는 것을 특징으로 하는 터치 인터페이스를 구비한 차량 단말기.
  6. 제4항에 있어서,
    상기 처리기는,
    상기 제1탭의 입력을 유지한 상태에서 상기 제1탭이 입력된 지점으로부터 제2방향의 일 지점에 제2탭이 감지되면, 제2탭-탭 인터랙션으로 인식하는 것을 특징으로 하는 터치 인터페이스를 구비한 차량 단말기.
  7. 제4항에 있어서,
    상기 처리기는,
    상기 제1탭의 입력을 유지한 상태에서 상기 제1탭이 입력된 지점으로부터 제3방향의 일 지점에 제2탭이 감지되면, 제3탭-탭 인터랙션으로 인식하는 것을 특징으로 하는 터치 인터페이스를 구비한 차량 단말기.
  8. 제4항에 있어서,
    상기 처리기는,
    상기 제1탭의 입력을 유지한 상태에서 상기 제1탭이 입력된 지점으로부터 제4방향의 일 지점에 제2탭이 감지되면, 제4탭-탭 인터랙션으로 인식하는 것을 특징으로 하는 터치 인터페이스를 구비한 차량 단말기.
  9. 터치 패널 상의 일 지점에 입력되는 제1탭을 감지하는 단계,
    상기 제1탭을 감지한 후, 상기 제1탭을 유지한 상태에서 정해진 시간 내 하나 이상의 제2탭을 감지하는 단계, 및
    상기 하나 이상의 제2탭을 감지하면, 상기 제1탭과 상기 하나 이상의 제2탭의 입력 방향에 따른 기능을 수행하는 단계를 포함하고,
    상기 입력 방향에 따른 기능을 수행하는 단계는,
    상기 제1탭 지점의 좌표 데이터가 (x1, y1)이고, 상기 제2탭의 좌표 데이터가 (x2, y2)인 경우, |x2-x1|>|y2-y1|이면 x2-x1>0인지를 확인하는 단계,
    |x2-x1|≤|y2-y1|이면, y2-y1>0인지를 확인하는 단계, 및
    확인결과에 기반하여 상기 입력 방향을 결정하는 단계를 포함하는 것을 특징으로 하는 터치 인터페이스를 구비한 차량 단말기의 동작 방법.
  10. 제9항에 있어서,
    상기 입력 방향에 따른 기능을 수행하는 단계는,
    상기 제1탭이 입력된 지점과 상기 하나 이상의 제2탭이 입력된 지점 간의 거리 변화가 있는지를 확인하는 단계, 및
    상기 거리 변화가 없으면 상기 제1탭과 상기 하나 이상의 제2탭의 입력 방향에 따라 탭-탭 인터랙션을 인식하는 단계를 포함하는 것을 특징으로 하는 터치 인터페이스를 구비한 차량 단말기의 동작 방법.
  11. 제10항에 있어서,
    상기 탭-탭 인터랙션을 인식하는 단계는,
    상기 제1탭이 입력된 지점으로부터 제1방향의 일 지점에 제2탭이 감지되면, 제1탭-탭 인터랙션으로 인식하는 것을 특징으로 하는 터치 인터페이스를 구비한 차량 단말기의 동작 방법.
  12. 제10항에 있어서,
    상기 탭-탭 인터랙션을 인식하는 단계는,
    상기 제1탭이 입력된 지점으로부터 제2방향의 일 지점에 제2탭이 감지되면, 제2탭-탭 인터랙션으로 인식하는 것을 특징으로 하는 터치 인터페이스를 구비한 차량 단말기의 동작 방법.
  13. 제10항에 있어서,
    상기 탭-탭 인터랙션을 인식하는 단계는,
    상기 제1탭이 입력된 지점으로부터 제3방향의 일 지점에 제2탭이 감지되면, 제3탭-탭 인터랙션으로 인식하는 것을 특징으로 하는 터치 인터페이스를 구비한 차량 단말기의 동작 방법.
  14. 제10항에 있어서,
    상기 탭-탭 인터랙션을 인식하는 단계는,
    상기 제1탭이 입력된 지점으로부터 제4방향의 일 지점에 제2탭이 감지되면, 제4탭-탭 인터랙션으로 인식하는 것을 특징으로 하는 터치 인터페이스를 구비한 차량 단말기의 동작 방법.
KR1020160169577A 2016-12-13 2016-12-13 사용자 인터페이스 장치 및 방법 KR102429485B1 (ko)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020160169577A KR102429485B1 (ko) 2016-12-13 2016-12-13 사용자 인터페이스 장치 및 방법
US15/712,529 US10423323B2 (en) 2016-12-13 2017-09-22 User interface apparatus and method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020160169577A KR102429485B1 (ko) 2016-12-13 2016-12-13 사용자 인터페이스 장치 및 방법

Publications (2)

Publication Number Publication Date
KR20180068027A KR20180068027A (ko) 2018-06-21
KR102429485B1 true KR102429485B1 (ko) 2022-08-05

Family

ID=62489342

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020160169577A KR102429485B1 (ko) 2016-12-13 2016-12-13 사용자 인터페이스 장치 및 방법

Country Status (2)

Country Link
US (1) US10423323B2 (ko)
KR (1) KR102429485B1 (ko)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016036552A1 (en) 2014-09-02 2016-03-10 Apple Inc. User interactions for a mapping application
EP3254452B1 (en) 2015-02-02 2018-12-26 Apple Inc. Device, method, and graphical user interface for establishing a relationship and connection between two devices
AU2017100667A4 (en) 2016-06-11 2017-07-06 Apple Inc. Activity and workout updates
US11816325B2 (en) 2016-06-12 2023-11-14 Apple Inc. Application shortcuts for carplay
CN110554815B (zh) * 2018-05-30 2021-12-28 北京小米移动软件有限公司 图标唤醒方法、电子设备和存储介质
US11863700B2 (en) * 2019-05-06 2024-01-02 Apple Inc. Providing user interfaces based on use contexts and managing playback of media

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014170390A (ja) * 2013-03-04 2014-09-18 Denso Corp タッチパネル操作装置及びタッチパネル操作装置における操作イベント判定方法

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09146708A (ja) 1995-11-09 1997-06-06 Internatl Business Mach Corp <Ibm> タッチパネルの駆動方法及びタッチ入力方法
US8169380B2 (en) * 2007-03-16 2012-05-01 Savant Systems, Llc System and method for driving and receiving data from multiple touch screen devices
KR20110066025A (ko) * 2009-12-10 2011-06-16 박철 터치패널 작동방법 및 터치패널 구동칩
US8994646B2 (en) * 2010-12-17 2015-03-31 Microsoft Corporation Detecting gestures involving intentional movement of a computing device
US8982045B2 (en) * 2010-12-17 2015-03-17 Microsoft Corporation Using movement of a computing device to enhance interpretation of input events produced when interacting with the computing device
JP5573814B2 (ja) 2011-10-26 2014-08-20 コニカミノルタ株式会社 画面を表示する表示部を備えた装置、ユーザーインターフェースの制御方法、およびユーザーインターフェースの制御プログラム
US9507513B2 (en) * 2012-08-17 2016-11-29 Google Inc. Displaced double tap gesture
KR101412431B1 (ko) * 2012-12-11 2014-06-25 에스케이씨앤씨 주식회사 멀티 터치와 탭핑을 결합하여 사용자 명령을 입력하는 방식의 사용자 인터페이스 방법 및 이를 적용한 전자 기기
JP2014190947A (ja) 2013-03-28 2014-10-06 Denso It Laboratory Inc ナビゲーションシステム
KR101553119B1 (ko) 2013-07-17 2015-09-15 한국과학기술원 연속적인 터치를 이용한 사용자 인터페이스 방법 및 장치
EP2874051A1 (en) * 2013-11-14 2015-05-20 Lg Electronics Inc. Mobile terminal and control method thereof
US9111076B2 (en) * 2013-11-20 2015-08-18 Lg Electronics Inc. Mobile terminal and control method thereof
CN103645845B (zh) * 2013-11-22 2016-10-05 华为终端有限公司 一种敲击控制方法及终端
KR102223277B1 (ko) * 2014-01-06 2021-03-05 엘지전자 주식회사 이동 단말기 및 그것의 제어방법
US10423567B2 (en) * 2016-02-01 2019-09-24 Qualcomm Incorporated Unidirectional clock signaling in a high-speed serial link

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014170390A (ja) * 2013-03-04 2014-09-18 Denso Corp タッチパネル操作装置及びタッチパネル操作装置における操作イベント判定方法

Also Published As

Publication number Publication date
US20180164974A1 (en) 2018-06-14
KR20180068027A (ko) 2018-06-21
US10423323B2 (en) 2019-09-24

Similar Documents

Publication Publication Date Title
KR102429485B1 (ko) 사용자 인터페이스 장치 및 방법
KR100892966B1 (ko) 터치 스크린을 구비한 전자 기기 및 이를 이용한 정보 표시방법
JP4645179B2 (ja) 車両用ナビゲーション装置
JP6429886B2 (ja) 触感制御システムおよび触感制御方法
JP2006031499A (ja) 情報入力表示装置
US10498335B2 (en) Input apparatus, computer-readable recording medium, and detection method
JP2006059238A (ja) 情報入力表示装置
US9019217B2 (en) Touch input location correction device, input device, touch input location correction method, and program and integrated circuit used for touch input location correction apparatus
US20170047065A1 (en) Voice-controllable image display device and voice control method for image display device
JP2014229304A (ja) 表示装置、表示装置の操作方法、情報表示システム及び表示装置の操作プログラム
US20110074829A1 (en) Mobile communication terminal including touch interface and method thereof
JP2018085072A (ja) 車両用表示装置
US10416848B2 (en) User terminal, electronic device, and control method thereof
JP6081324B2 (ja) 操作入力装置、携帯型情報端末、操作入力装置の制御方法、プログラム、及び記録媒体
US9285915B2 (en) Method of touch command integration and touch system using the same
US9459707B2 (en) Display apparatus and method of controlling the same
JP2012177998A (ja) 車載端末装置
JPWO2019239450A1 (ja) 入力制御装置、操作装置および入力制御方法
US20160253088A1 (en) Display control apparatus and display control method
JP2016224838A (ja) タッチ領域制御装置およびタッチ領域制御方法
KR102452540B1 (ko) 차량 단말기 및 그의 동작 제어 방법
US9947081B2 (en) Display control system and display control method
KR20150121565A (ko) 미러링 서비스를 수행하는 방법 및 장치
JP2006134166A (ja) タッチパネルを用いた入力システム
WO2017168988A1 (ja) 表示処理装置、及び表示処理プログラム

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant