KR20160061389A - 사용자 인터페이스 및 조작 유닛의 조작 시 사용자를 지원하는 방법 - Google Patents

사용자 인터페이스 및 조작 유닛의 조작 시 사용자를 지원하는 방법 Download PDF

Info

Publication number
KR20160061389A
KR20160061389A KR1020167010801A KR20167010801A KR20160061389A KR 20160061389 A KR20160061389 A KR 20160061389A KR 1020167010801 A KR1020167010801 A KR 1020167010801A KR 20167010801 A KR20167010801 A KR 20167010801A KR 20160061389 A KR20160061389 A KR 20160061389A
Authority
KR
South Korea
Prior art keywords
user
switch
timer
predetermined
input means
Prior art date
Application number
KR1020167010801A
Other languages
English (en)
Other versions
KR101777074B1 (ko
Inventor
홀거 와일드
마크 피터 첼닉
고든 세이츠
Original Assignee
폭스바겐 악티엔 게젤샤프트
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 폭스바겐 악티엔 게젤샤프트 filed Critical 폭스바겐 악티엔 게젤샤프트
Publication of KR20160061389A publication Critical patent/KR20160061389A/ko
Application granted granted Critical
Publication of KR101777074B1 publication Critical patent/KR101777074B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0416Control or interface arrangements specially adapted for digitisers
    • B60K35/10
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04847Interaction techniques to control parameter settings, e.g. interaction with sliders or dials
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/167Audio in a user interface, e.g. using voice commands for navigating, audio feedback
    • B60K2360/119
    • B60K2360/1438
    • B60K2360/146
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/041Indexing scheme relating to G06F3/041 - G06F3/045
    • G06F2203/041012.5D-digitiser, i.e. digitiser detecting the X/Y position of the input means, finger or stylus, also when it does not touch, but is proximate to the digitiser's interaction surface and also measures the distance of the input means within a short range in the Z direction, possibly with a separate measurement setup
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/041Indexing scheme relating to G06F3/041 - G06F3/045
    • G06F2203/04108Touchless 2D- digitiser, i.e. digitiser detecting the X/Y position of the input means, finger or stylus, also when it does not touch, but is proximate to the digitiser's interaction surface without distance measurement in the Z direction

Abstract

본 발명은 사용자 인터페이스 및 접촉 감지 조작 유닛의 이동 시 사용자를 지원하는 방법에 관한 것이다. 본 발명에 따르면 다음의 단계들이 수행된다:
- 상기 조작 유닛(1) 위에 표시된 스위치면(10. 20, 30) 앞의 소정의 제1 영역(11) 내에서 특히 사용자의 손가락과 같은 입력 수단(2)의 존재를 인식하는 단계(200), 및 이에 대한 응답으로,
- 소정의 지속 시간을 갖는 타이머의 시작 단계, 및 타이머의 경과에 대한 응답으로,
- 상기 스위치면(10, 20, 30)과 연동된 상기 스위치면(10. 20, 30)의 2차 기능의 수행 단계(400).

Description

사용자 인터페이스 및 조작 유닛의 조작 시 사용자를 지원하는 방법{USER INTERFACE AND METHOD FOR ASSISTING A USER IN THE OPERATION OF AN OPERATOR CONTROL UNIT}
본 발명은 사용자 인터페이스 및 접촉 감지 조작 유닛의 이동 시 사용자를 지원하는 방법에 관한 것이다. 특히 본 발명은 이동 수단 기반 조작 유닛을 조작할 때 이동 수단의 이동 중에 이동 수단의 운전자를 지원하는 것에 관한 것이다.
종래 기술에서 조작 유닛의 구동 시스템이 공지되어 있고, 이러한 시스템은 정보 유닛/스위치 유닛("아이콘" 또는 "타일"로 불리기도 함)이 이에 해당하는 기능을 시작하기 위해 서로 나란히 표시되는 스크린 콘텐츠를 이용한다. 때때로, 이러한 타일은 사용자 기호에 따라 상호 간에 재배치되거나 완전히 교체될 수 있다. 또한 때때로 타일의 표현이 변경되거나 타일 내의 정보가 수정될 수 있다. 기술 분야에 따른 구동 시스템에 관한 예시로는 Window 8(등록 상표) 및 삼성 갤럭시 S4(등록 상표)의 AirView(등록 상표)가 있다. 한편, 이동 수단 및 스마트폰의 조작 유닛을 조작할 때, 키보드 기반 입력 유닛 외에 소위 터치 스크린(접촉 감지 스크린)이 사용된다.
WO 2009/062677 A2는 정보의 입력 및 표시를 위한 운전자 정보 시스템의 다중 모드 사용자 인터페이스를 개시하고, 이러한 운전자 정보 시스템에서 사용자 인터페이스 기능을 트리거하기 위해 소정의 스크린 영역 앞의 영역 내에서 사용자의 손가락이 머무른다. 이때, 사용자가 조작 유닛과 접촉하지 않고도, 손가락의 존재가 인식되고, 때때로 더욱이 구체적인 스크린 콘텐츠에 지정됨으로써, "호버링(hovering)"이라고도 지칭되는 이러한 조작 단계에 의해 맥락 특정적인 기능이 시작된다.
그러나 종래 기술에 설명된 조작 단계들은 조작 유닛들을 조작하는 잠재적 가능성을 불완전한 상태로만 활용하고 있다.
따라서 본 발명의 과제는 사용자에게 조작 유닛과 상호 작용하는 추가적 가능성들을 제공하는 것이다.
전술한 과제는 본 발명에 따르면 제1항에 따른 특징들을 포함하는 방법 및 제9항에 따른 특징들을 포함하는 사용자 인터페이스에 의하여 해결된다. 본 발명에 따른 방법은 접촉 감지 조작 유닛을 조작할 때 사용자를 지원하는 것으로, 조작 유닛 위에 표시된 스위치면 앞의 소정의 제1 영역 내에서 입력 수단의 존재를 인식하는 것을 포함한다. 조작 유닛은 예컨대 "스마트폰", "태블릿" 또는 자동차의 HMI의 접촉 감지 스크린일 수 있다. 입력 수단은 예컨대 "스타일러스(stylus)", 필기도구 또는 바람직하게는 사용자의 손가락일 수 있다. "조작 유닛 위에 표시된 스위치 면 앞"이란 표현은 본 발명의 범위 내에서 조작 유닛과 접촉하지 않는 영역을 의미한다. 그러한 조작 단계는 종래 기술에서 "호버링"으로도 지칭된다. 상기 인식된 존재에 따른 응답으로, 소정의 지속 시간을 갖는 타이머가 시작된다. 타이머 경과에 따른 응답으로 스위치면과 연동하는 스위치면의 2차 기능이 수행된다. "스위치면의 2차 기능"이란, 본 발명에 따르면, 상기 연동 기능 자체의 실행과 관련하지 않고 스위치면 또는 1차 기능과 관련한 대안적 상호 작용, 스위치면 또는 기능의 재편성 또는 변경을 나타내는 그러한 기능을 가리킨다. PC 운영 체제의 마우스 기반 조작 시, 그러한 2차 기능은 우클릭에 의해 트리거되는 경우가 자주 있다. 2차 기능에 대한 예시는 이하의 설명에 나타나 있다. "스위치면"이란, 본 발명의 범위 내에서, 주요 기능("1차 기능")을 시작하기 위한 요소만을 의미하지 않고, 종래 기술에서 "타일"로도 지칭되는 정보(예컨대 재생된 음악 트랙, 내비게이션 루트, 날씨)의 표현을 위한 면적 제한된 요소를 의미한다. 물론 스위치면은 적어도, 스위치면과 관련한 사용자 입력이 인식되어 스위치면에 지정될 수 있는 것과 관련한 상호 작용을 위해 이용 가능하다. 본 발명에 따르면 스위치면 앞에서 입력 수단의 소정의 체류 시간 이후 2차 기능이 시작될 수 있음으로써, 예컨대 해당 입력 수단의 결함으로 우클릭이 가능하지 않는 경우에도, 스위치면과 연동된 추가적 기능이 액세스될 수 있다.
종속항들은 본 발명의 바람직한 발전 형태들에 관련한다.
타이머는, 입력 수단이 소정의 제1 영역 내에 존재하는 것이 타이머의 경과 전에 종결될 때 정지할 수 있다. 이러한 방식으로, 조작 유닛 앞에서 입력 수단이 단시간동안 위치해 있는 것으로 인하여 표시된 스위치면의 2차 기능이 원하지 않게 트리거되는 경우가 방지될 수 있다.
그 대신, 타이머의 (예컨대 경과 전에) 소정의 제1 시간 범위 내에서 입력 수단의 존재 상태가 종결될 때, 1차 기능이 수행될 수 있다. 바꾸어 말하면, 스위치면에 지정된 1차 기능은, 입력 수단의 존재가 최소 시간 동안 유지되자마자 바로 액세스된다. 대안적으로, 입력 수단의 존재가 제1 시간 범위의 경과 전에 적어도 (더 짧은) 제2 시간 범위 동안 지속될 때, 1차 기능이 수행될 수 있다. 이러한 방식으로 1차 기능과 2차 기능이 서로 구분되거나, 각각의 대응하는 입력 간에 구분될 수 있고, 이는 가능한 상호 작용의 다양화를 증대시키고, 2차 기능의 트리거를 위해 필요한 상호 작용(종래 기술에 따르면 예컨대 구성 메뉴를 이용함)의 수를 줄인다.
소정의 제1 영역은 조작 유닛의 표면으로부터 1 mm와 100 mm 사이의 거리 영역 내에 배치될 수 있다. 적어도, 최소 거리는 표면으로부터 >0mm, 바람직하게는 1 mm, 매우 바람직하게는 >2mm로 유지되어, 터치 입력과 호버링 입력의 명확한 구분이 가능하게 해야 할 것이다. 조작 유닛의 표면에 대해 평행하게 소정의 제1 영역이 연장되는 것은 실질적으로 스위치면 자체에 상응하여 한정될 수 있다. 이러한 방식으로, 소정의 제1 영역을 위해 조작 유닛의 표면에 대해 수직인 그러한 경계면이 생성되어, 스위치면은 표면 위에 제1 소정 영역의 수직 영사물을 나타낸다. 이러한 방식으로, 나란히 배치된 스위치면들은 본 발명에 따른 입력에 지정되고, 이에 상응하는 2차 기능들은 확실하게 구분될 수 있다.
본 발명에 따르면, 입력 수단이 제1 소정 영역 내에 존재하기 전에 조작 유닛과 상호 작용하지 않을 필요는 없다. 따라서, 입력 수단이 조작 유닛과 관련한 소정의 제2 영역으로부터 소정의 제1 영역으로 이행할 때에도 존재가 인식될 수 있다. 본 발명에 따른 타이머의 시작을 위해, 물론, 제2 영역으로부터의 멀어짐 또는 제1 영역으로의 진입이 인식되는 여부는 중요하지 않다. 마찬가지로, 제1 영역과 제2 영역 사이의 영역 내에서의 존재 상태는 타이머의 시작을 유발할 수 있다. 이러한 방식으로, 2차 기능은 입력 수단의 출처와 무관하게 트리거될 수 있고, 이는 그러한 조작 단계의 사용자 수용도를 증대시킨다.
바람직하게는, 타이머의 경과는 오디오 출력을 야기할 수 있고, 이러한 오디오 출력에 의해 사용자는 2차 기능이 수행되거나 적어도 선택되었는지에 관하여 알게 된다. 특히, 사용자가 주행 상황 인지 중에 조작 단계를 수행하는 경우, 오디오 출력이 사용자에게 2차 기능의 수행 또는 임박에 관하여 알리는 동안 사용자의 주의는 교통 상황에 여전히 집중될 수 있다. 또한 사용자는 이러한 방식으로, 수행된 조작 단계가 1차 기능을 트리거하지 않았음을 알게 된다. 오디오 출력은 본 발명에 따른 방법을 더욱 개선할 수 있다.
스위치면은 주요 스크린의 요소일 수 있고, 이는 공지된 조작 구상에서 출력 스크린 또는 "홈스크린"으로 지칭된다. 그러한 홈스크린에는 소정의 기능과 연동하는 이미지 요소("아이콘")를 교번적으로 배열하거나 삭제하는 2차 기능이 포함되는 경우가 빈번하다. 이러한 방식으로, 본 발명에 따른 조작 단계("롱 프레스-호버링(longpress-hovering)")는 홈 스크린의 사용자 지정 배치 또는 구현을 위해 사용될 수 있다.
본 발명에 따라 트리거 가능한 2차 기능에 대한 예시는 이하에 언급된다. 예컨대 내비게이션 시스템의 지도 표시와 상호작용할 때 연동될 수 있는 가능한 2차 기능은 내비게이션의 최근 안내 출력 또는 맥락 특정적 음성 대화의 시작이고, 이를 이용하여 사용자는 새로운 목적지를 입력하거나, 목적지에 도착할 때까지 걸리는 시간 또는 거리를 조회하거나 현재 주행중인 경로의 교통 장애물을 조회할 수 있다. 메시지 특정적 맥락에서 수신되거나 작성된 텍스트 메시지는 낭독될 수 있다. 스위치면이 엔터테이넌트 기능에 지정되어 있으면, 본 발명에 따른 입력은 음악 재생 제어를 위한 명령을 나타낼 수 있다. 예컨대 현재 재생이 멈추거나 계속 이어질 수 있거나 재생할 음악 트랙의 입력을 위한 음성 대화가 시작될 수 있다. 대안적으로, 그리고 연동된 1차 기능과 무관하게, 본 발명에 따른 입력은 스위치면 콘텐츠의 변경을 포함할 수 있다. 예컨대 사용자는 본 발명에 따른 입력에 따라 이후 스위치면이 어떤 정보를 나타낼 것인지를 선택할 수 있다. 가능한 추가적 2차 기능은, 스위치면 또는 스위치면 콘텐츠가 조작 유닛의 디스플레이 내에서 다른 위치로 이동하는 것이다. 예컨대, 2개의 스크린을 사용하는 경우(스마트폰과 TV 또는 HMI 디스플레이와 인스트루먼트 클러스터) 본 발명에 따라 조작된 스위치면의 정보량을 각각 다른 스크린으로 이동시킬 수 있다. 대안적으로, 2차 기능은 스위치면의 콘텐츠의 표시 크기 맞춤을 가능하게 할 수 있다. 전술한 2차 기능은 본 발명에 따르면 사전에 2차 메뉴를 불러올 필요 없이 단일의 조작 단계에 의해 시작될 수 있다.
본 발명에 따른 상호 작용에 지정된 2차 기능은 예컨대 구성 메뉴에 의해 편집될 수 있다. 이때 소정의 2차 기능은 복수의 2차 기능들과 마찬가지로 스위치면에 마찬가지로 지정될 수 있고, 이러한 복수의 2차 기능들로부터 예컨대 본 발명에 따른 조작 단계가 원하는 대로 선택될 수 있다. 이를 위해 다수의 연동된 2차 기능들은 예컨대 2차 메뉴(예컨대 소위 "팝업"의 형태)로 시각화되고 선택될 수 있다.
본 발명의 제2 양태에 따르면, 예컨대 자동차 내에 고정적으로 장착된 인간-기계 인터페이스(human-machine-interface, HMI라고도 함)로 지칭되는 사용자 인터페이스가 제안된다. 물론, 휴대용 사용자 단말기(예컨대 스마트폰, 태블릿)의 사용자 인터페이스도 또한 본 발명에 따른 것에 포함된다. 사용자 인터페이스는 접촉 감지 조작 유닛 및 사용자 입력 인식을 위한 인식 장치를 포함한다. 사용자 입력을 조작 유닛 위에 표시된 스위치면에 지정하기 위해 처리 장치가 구비되고, 처리 장치는 예컨대 프로세서(예컨대 마이크로콘트롤러, 나노콘트롤러 등)를 포함할 수 있다. 인식 장치는 예컨대 카메라 및/또는 용량 센서를 포함할 수 있고, 이를 이용하여 롱프레스-호버링-입력이 본 발명에 따라 인식될 수 있다. 사용자 인터페이스는 선행 청구항들 중 어느 한 항에 따른 방법을 수행하도록 설계된다. 바꾸어 말하면, 본 발명에 따른 사용자 입력은 타이머 시작을 위해 사용되고, 타이머의 경과 시 조작 유닛 위에 표시된 스위치면에 지정된 바와 같은 2차 기능이 수행된다. 조작 유닛은 예컨대 자동차의 대시보드 중앙에 배치될 수 있고, 선택적으로 자동차의 인스트루먼트 클러스터에 배치된 화소 기반 디스플레이("매트릭스 디스플레이"라고도 함)를 포함할 수 있다. 인스트루먼트 클러스터 내에 배치된 표시 요소 또한 (독자적으로) 본 발명의 견지에 따른 조작 유닛으로 형성될 수 있다. 이는 특히 사용자가 스티어링 휠의 스포크(spokes) 사이로 손을 뻗을 필요 없이 입력을 할 수 있다는 이점을 제공한다. 특징들, 특징 조합들 및 이로부터 얻어지는 이점들은 서두에 언급한 발명의 양태와 연계하여 설명된 바에 명백하게 상응하며, 반복을 피하기 위해 앞의 실시예를 참조한다.
본 발명에 따른 방법에서 스위치면 앞의 소정 영역을 단시간에 벗어나는 것에 대해 허용하기 위해, 제2 타이머가 사용될 수 있고, 제2 타이머를 이용하여 상기 영역과 관련하여 입력 수단이 멀어지는 것과 재진입하는 것 사이의 지속 시간이 감지된다. 제2 타이머가 재진입까지 소정의 지속 시간에 미달하면, 본 발명에 따른 제1 타이머가 새로 시작되는 대신 계속 작동한다. 이를 통해 특히 입력 상황이 용이하지 않을 때, 2차 기능의 트리거가 더 신뢰할만하게 수행될 수 있어서, 이는 예컨대 평편하지 않은 주행 도로에 있을 때 본 발명에 따른 2차 기능 트리거가 더 사용자 친화적으로 이루어지게 한다.
이하 본 발명의 실시예들은 첨부 도면의 참조 번호와 함께 더 상세히 설명된다
도 1은 본 발명에 따른 사용자 인터페이스의 일 실시예의 구성 요소들에 대한 개략적 개요를 도시한다.
도 2는 본 발명에 따른 조작 단계의 일 실시예의 개략적 도면을 도시한다.
도 3은 본 발명에 따른 조작 단계의 일 실시예의 대안적 도면을 도시한다.
도 4는 본 발명에 따른 조작 단계의 일 실시예의 다른 대안적 도면을 도시한다.
도 5는 본 발명에 따른 방법의 방법 단계들을 나타내는 흐름도를 도시한다.
도 1은 이동 수단(8)을 도시하고, 이러한 이동 수단에서 HMI의 스크린은 조작 유닛(1)으로서 대시 보드 내에 삽입되어 있다. 카메라(6)는 인식 장치로서 방풍창 영역 내에 구비된다. 카메라(6)는 처리 장치로서의 전자 제어 기기(7)와 데이터 기술적으로 연결되어 있다. 또한, 전자 제어 기기(7)는 오디오 출력 생성을 위한 스피커(9) 및 조작 유닛(1)과 연결되고, 조작 유닛의 스크린 위에 제1 스위치면(10) 및 제2 스위치면(20)이 표시되어 있다. 스위치면들(10, 20)에 대한 각각의 거리(a) 내에서 각각의 직육면체 영역들(11, 12)은 파선으로 표시되고, 이러한 영역들 내에 입력 수단의 존재가 호버링으로 인식된다. 영역들(11, 12)은 조작 유닛(1)의 표면에 대해 평행하게 배향된 제1 면(12 또는 22), 조작 유닛(1)의 표면에 대해 평행하게 배향되며 이러한 표면으로부터 더 멀리 이격된 제2 면(13 또는 23), 및 조작 유닛(1)의 표면에 대해 수직으로 배향된 4개의 면(14 또는 24, 15 또는 25, 16 또는 26, 17 또는 27)에 의해 한정되되, 이러한 스위치면들(10, 20)이 조작 유닛(1)의 표면에서 영역들(11, 21)의 수직 영사물을 나타내거나 이러한 영사물들의 가장자리에 의해 한정되는 방식으로 한정된다.
도 2는 본 발명에 따른 사용자 인터페이스의 조작 유닛(1) 위에서 가능한 표현을 도시한다. 좌측에는 제1 스위치면(10) 내에 지도 일부가 도시되어 있고, 이는 내비게이션 시스템을 통해 산출된 경로 일부에 대응한다. 우측 스크린에는 상부 영역에 제3 스위치면(30)이 표시되고, 이를 통해 현재 재생되는 음악 트랙, 이에 대한 설명 및 이 음악 트랙이 포함된 앨범이 시각적으로 나타내진다. 제3 스위치면(30) 아래에 제2 스위치면(20)이 표시되어 있고, 이러한 제2 스위치면 내에서 브라운슈바이크 지역의 날씨가 섭씨 정보 및 현재 강설량과 연계하여 아이콘의 형태로 나타내진다. 사용자(2)의 손은 제3 스위치면(30)의 앞에 위치한다. 타이머의 경과가 인식되는 소정의 지속 시간 후, 제3 스위치면(30)과 연동된 2차 기능이 시작된다. 2차 기능은, 이제까지의 표현물에 팝업(40)이 중첩되는 것으로, 이러한 팝업에서 표제(45) 아래에 재생될 3개의 음악 트랙(41, 42, 43)이 제공된다. 화살표로 표시된 스위치면(44) 위에서 사용자(2)는 제시된 음악 트랙(41, 42, 43)을 스크롤하고, (예컨대 터치 입력의 형태로) 이를 태핑(tapping)하여 음악 트랙(41, 42, 43)을 선택하되, 1차 기능의 형태를 갖는 음악 재생의 조작을 위해 구비된 스위치면으로 사전에 전환할 필요 없이 선택할 수 있다.
도 3은 제1 스위치면(10) 앞에서 사용자(2)가 손가락을 위치시켜 이러한 스위치면과 연동된 2차 기능을 트리거하기에 가능한 조작 표면을 도시한다. 따라서 타이머의 경과 후, 음성 대화 기능의 음성 출력(3)이 수행되고, 이는 내비게이션 시스템의 조작을 위한 역할을 한다. 일 예로, 사용자(2)는 새로운 목적지 주소를 입력하도록 요구받는다. 본 발명에 따른 입력이 내비게이션 시스템과 관련한 맥락 특정 음성 인식을 시작함에 따라, 사용자(2)의 이후 입력 또는 음성 명령은 주로 내비게이션 안내에 관하여 평가될 수 있고, 따라서 오류 인식 경우가 줄어들 수 있다.
도 4는 도 3과 연계한 도면으로, 단 이 도면에서는 사용자(2)의 손을 이용하여 대안적인 제스처(P20)가 수행된다. 사용자(2)의 손이 제2 스위치면(20)의 위에 머무른 후, 오디오 출력(4)에 의해, "드래그앤드롭(drag-and-srop)" 제스처 마다 스위치면들(10, 20, 30)의 새로운 배치가 수행될 수 있음이, 신호화된다. 이에 상응하여, 사용자(2)는 이제까지의 제2 스위치면(20)의 콘텐츠를 화살표(P20)를 따라 이제까지의 제1 스위치면(10)의 위치로 이동시킨다. 자동적으로, 여전히 제스처(P20) 중에 이제까지의 제1 스위치면(10)의 내용은 이제까지의 제2 스위치면(20)의 위치로 점핑한다(화살표(P30)를 따름). 이러한 방식으로, 사용자(2)는 더 세부적인 날씨 정보를 조작 유닛(1)의 스크린의 더 큰 영역에 표시할 수 있는 반면, 내비게이션 시스템의 경로 정보는 이제 적은 공간을 필요로 하게 된다.
도 5는 본 발명에 따른 방법의 일 실시예의 단계들을 나타내는 흐름도를 도시한다. 단계 100에서 사용자는 본 발명에 따른 조작 유닛(1)의 설정에서 구성 메뉴를 불러오고, 이 메뉴에서 사용자는 구동 시스템의 개별 스위치면들에 하나 이상의 2차 기능을 지정할 수 있다. 이후 사용자는 구성을 종료하고 본 발명에 따른 사용자 인터페이스의 조작을 시작한다. 이를 위해 단계 200에서 사용자 손이 스위치면의 앞에 있음이 인식되고, 이는 조작 유닛(1) 위에 표시된다. 손가락의 존재가 인식되자마자, 타이머가 시작되고, 타이머는 단계 300에서 타이머의 경과 여부에 대해 검사된다. 해당 경우가 아닐 경우("N"), 단계 400에서 스위치면 앞의 소정 영역 내에 입력 수단의 존재가 그 사이에 종결되었는지의 여부가 검사된다. 해당 경우일 경우("Y"), 단계 500에서 스위치면에 지정된 1차 기능이 수행된다. 이는 예컨대 스위치면과 연동된 표준 기능의 시작일 수 있다. 입력 수단의 존재가 종결되지 않으면("N"), 단계 300에서 다시 타이머가 그 사이에 경과되었는지의 여부가 검사된다. 해당 경우일 경우("Y"), 단계 600에서 본 발명에 따르면 스위치면과 연동된 2차 기능이 트리거된다.
본 발명에 따른 양태들 및 유리한 실시 형태들은 첨부 도면과 연관하여 설명된 실시예들에 따라 상세하게 설명되었으나, 당업자에게는, 첨부 청구항에 의해 그 보호 범위가 정의되는 본 발명의 범위를 벗어나지 않고 설명된 실시예들의 특징들의 수정 및 조합이 가능하다.
1 조작 유닛 2 사용자
3, 4 오디오 출력 6 카메라
7 전자 제어 기기 8 차량
9 스피커 10 스위치면
11 제1 영역 12, 13, 14, 15, 16, 17 영역 경계선
20 스위치면 21 제2 영역
22, 23, 24, 25, 26, 27 영역 경계선
40 팝업(Pop-Up) 41, 42, 43 음악 트랙
44 스크롤면 45 트랙바
100, 200, 300, 400, 500, 600 방법 단계들
a 거리 P20 제스처
P30 스위치면 이동

Claims (10)

  1. 접촉 감지 조작 유닛(1)의 조작 시 사용자를 지원하기 위해,
    - 상기 조작 유닛(1) 위에 표시된 스위치면(10. 20, 30) 앞의 소정의 제1 영역(11) 내에서 특히 사용자의 손가락과 같은 입력 수단(2)의 존재를 인식하는 단계(200), 및 이에 대한 응답으로
    - 소정의 지속 시간을 갖는 타이머의 시작 단계, 및 타이머의 경과에 대한 응답으로
    - 상기 스위치면(10, 20, 30)과 연동된 상기 스위치면(10. 20, 30)의 2차 기능의 수행 단계(400)를 포함하는 것을 특징으로 하는 방법.
  2. 청구항 1에 있어서,
    상기 입력 수단(2)이 상기 소정의 제1 영역(11)에 존재하는 것이 종결되자마자 상기 타이머가 정지하는 것을 특징으로 하는 방법.
  3. 청구항 1 또는 청구항 2에 있어서,
    - 상기 타이머의 소정의 제1 시간 범위 내에서 상기 입력 수단(2)의 존재가 종결될 때 1차 기능이 수행되고, 그리고
    - 상기 타이머의 소정의 제2 시간 범위 내에서 상기 입력 수단(2)의 존재가 종결될 때 상기 2차 기능이 수행되며, 이때 상기 제1 시간 범위는 상기 제2 시간 범위보다 짧은 것을 특징으로 하는 방법.
  4. 청구항 1 내지 청구항 3 중 어느 한 항에 있어서,
    - 상기 소정의 제1 영역(11)은 상기 조작 유닛(1)의 표면으로부터 1mm의 거리(a)와 100 mm의 거리(a) 사이의 거리 영역 내에 배치되고, 특히 상기 표면으로부터 0 mm 초과, 바람직하게는 1 mm 초과, 매우 바람직하게는 2 mm 초과의 최소 거리를 가지고, 그리고
    - 상기 조작 유닛(1)의 표면의 연장 방향으로 실질적으로 상기 스위치면(10, 20, 30)에 상응하여 한정되는 것을 특징으로 하는 방법.
  5. 청구항 1 내지 청구항 4 중 어느 한 항에 있어서,
    - 상기 존재 인식 단계(100)는 상기 조작 유닛(1)과 관련한 상기 소정의 제2 영역(21)으로부터 소정의 제1 영역(11)으로 상기 입력 수단(2)의 이행(P1)의 인식을 포함하는 것을 특징으로 하는 방법.
  6. 청구항 1 내지 청구항 5 중 어느 한 항에 있어서,
    - 상기 타이머의 경과는 오디오 출력을 야기하고/야기하거나
    - 상기 스위치면(10, 20, 30)은 주요 스크린의 요소인 것을 특징으로 하는 방법.
  7. 청구항 1 내지 청구항 6 중 어느 한 항에 있어서, 상기 2차 기능은
    - 최근의 내비게이션 안내 출력이거나, 또는
    - 맥락 특정적 음성 대화의 시작이거나, 또는
    - 텍스트 메시지의 낭독이거나, 또는
    - 새로운 내비게이션 목적지 입력을 위한 명령이거나, 또는
    - 재생할 음악 트랙의 입력을 위한 명령이거나, 또는
    - 상기 스위치면(10, 20, 30)의 콘텐츠 변경이거나, 또는
    - 상기 스위치면(10, 20, 30)의 콘텐츠가 다른 위치, 특히 다른 표시 유닛 위의 다른 위치로 이동하는 과정을 시작하는 것이거나, 또는
    - 상기 스위치면(10, 20, 30)의 콘텐츠의 표시 크기 맞춤을 위한 명령인 것을 특징으로 하는 방법.
  8. 청구항 1 내지 청구항 7 중 어느 한 항에 있어서,
    - 사용자에 의해 상기 스위치면(10, 20, 30)에 2차 기능을 지정하는 단계(100)를 더 포함하는 것을 특징으로 하는 방법.
  9. 사용자 인터페이스, 특히 자동차(8) 내에 고정적으로 장착된 인간-기계 인터페이스에 있어서,
    - 접촉 감지 조작 유닛(1),
    - 사용자 입력의 인식을 위한 인식 장치(6), 및
    - 처리 장치(7)를 포함하고
    이때 상기 사용자 인터페이스는 청구항 1 내지 청구항 8 중 어느 한 항에 따른 방법을 수행하도록 설계되는 것을 특징으로 하는 사용자 인터페이스.
  10. 청구항 9에 있어서,
    - 상기 조작 유닛(1)은 자동차(8)의 대시보드 내의 중앙에 배치되고/배치되거나
    - 상기 인식 장치(6)는 카메라 시스템 및/또는 용량 센서를 포함하는 것을 특징으로 하는 사용자 인터페이스.
KR1020167010801A 2013-09-27 2013-09-27 사용자 인터페이스 및 조작 유닛의 조작 시 사용자를 지원하는 방법 KR101777074B1 (ko)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/EP2013/070215 WO2015043653A1 (de) 2013-09-27 2013-09-27 Anwenderschnittstelle und verfahren zur unterstützung eines anwenders bei der bedienung einer bedieneinheit

Publications (2)

Publication Number Publication Date
KR20160061389A true KR20160061389A (ko) 2016-05-31
KR101777074B1 KR101777074B1 (ko) 2017-09-19

Family

ID=49303959

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020167010801A KR101777074B1 (ko) 2013-09-27 2013-09-27 사용자 인터페이스 및 조작 유닛의 조작 시 사용자를 지원하는 방법

Country Status (5)

Country Link
US (1) US10437376B2 (ko)
EP (1) EP3049911B1 (ko)
KR (1) KR101777074B1 (ko)
CN (1) CN105683902B (ko)
WO (1) WO2015043653A1 (ko)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102015204203A1 (de) * 2015-03-10 2016-09-15 Bayerische Motoren Werke Aktiengesellschaft Audiosteuerung in Fahrzeugen
DE102018216068A1 (de) * 2018-09-20 2020-03-26 Audi Ag Verfahren zum Einstellen einer von einer Primärfunktion verschiedenen Sekundärfunktion einer Fahrerassistenzfunktion, Bedienvorrichtung für ein Kraftfahrzeug und Kraftfahrzeug
CN109947256A (zh) * 2019-03-27 2019-06-28 思特沃克软件技术(北京)有限公司 一种减少驾驶员注视触摸屏时间的方法和车载触摸屏
US20210372809A1 (en) * 2020-06-02 2021-12-02 Toyota Motor Engineering & Manufacturing North America, Inc. Travel route observation and comparison system for a vehicle

Family Cites Families (31)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7760187B2 (en) * 2004-07-30 2010-07-20 Apple Inc. Visual expander
JP2006244393A (ja) * 2005-03-07 2006-09-14 Tokai Rika Co Ltd 入力装置
DE102007039450A1 (de) * 2007-08-21 2009-02-26 Siemens Ag Berührungsempfindlicher Bildschirm und Verfahren zum Betreiben eines berührungsempfindlichen Bildschirms
DE102008051756A1 (de) * 2007-11-12 2009-05-14 Volkswagen Ag Multimodale Benutzerschnittstelle eines Fahrerassistenzsystems zur Eingabe und Präsentation von Informationen
JP4979570B2 (ja) * 2007-12-28 2012-07-18 パナソニック株式会社 電子機器の入力装置及び入力操作処理方法、並びに入力制御プログラム
US20090225043A1 (en) * 2008-03-05 2009-09-10 Plantronics, Inc. Touch Feedback With Hover
KR100984230B1 (ko) * 2008-03-20 2010-09-28 엘지전자 주식회사 근접 터치 감지 기능을 갖는 휴대 단말기 및 이를 이용한화면 제어 방법
EP2104024B1 (en) * 2008-03-20 2018-05-02 LG Electronics Inc. Portable terminal capable of sensing proximity touch and method for controlling screen using the same
US20100250071A1 (en) * 2008-03-28 2010-09-30 Denso International America, Inc. Dual function touch switch with haptic feedback
US9030418B2 (en) * 2008-06-24 2015-05-12 Lg Electronics Inc. Mobile terminal capable of sensing proximity touch
KR101555055B1 (ko) * 2008-10-10 2015-09-22 엘지전자 주식회사 이동단말기 및 그 디스플레이방법
DE102009019561A1 (de) * 2009-04-30 2010-11-04 Volkswagen Ag Verfahren zum Anzeigen von Informationen in einem Kraftfahrzeug und Anzeigeeinrichtung
DE102009032069A1 (de) * 2009-07-07 2011-01-13 Volkswagen Aktiengesellschaft Verfahren und Vorrichtung zum Bereitstellen einer Benutzerschnittstelle in einem Fahrzeug
DE102009036369A1 (de) 2009-08-06 2011-02-10 Volkswagen Ag Verfahren zum Betreiben einer Bedienvorrichtung und Bedienvorrichtung in einem Fahrzeug
DE102009051202A1 (de) * 2009-10-29 2011-05-12 Volkswagen Ag Verfahren zum Betreiben einer Bedienvorrichtung und Bedienvorrichtung
CN101867646A (zh) * 2010-03-01 2010-10-20 宇龙计算机通信科技(深圳)有限公司 一种实现快速通讯的方法及移动终端
US9123058B2 (en) * 2011-11-16 2015-09-01 Flextronics Ap, Llc Parking space finder based on parking meter data
US20130293364A1 (en) * 2012-05-02 2013-11-07 Flextronics Ap, Llc Configurable dash display
US20120120002A1 (en) * 2010-11-17 2012-05-17 Sony Corporation System and method for display proximity based control of a touch screen user interface
CN102291484A (zh) * 2011-05-13 2011-12-21 徐文呈 手机自由播放器方法,显示方法和播放器
US20130050131A1 (en) * 2011-08-23 2013-02-28 Garmin Switzerland Gmbh Hover based navigation user interface control
WO2013029257A1 (en) * 2011-08-31 2013-03-07 Ooros Automotive Co., Ltd. Vehicle's interactive system
US8887043B1 (en) * 2012-01-17 2014-11-11 Rawles Llc Providing user feedback in projection environments
WO2013134999A1 (zh) * 2012-03-12 2013-09-19 中兴通讯股份有限公司 终端屏幕显示控制方法及终端
US20140189597A1 (en) * 2012-12-28 2014-07-03 Samsung Electronics Co., Ltd. Method and electronic device for presenting icons
CN103092466B (zh) * 2013-01-22 2016-03-30 小米科技有限责任公司 一种移动终端的操作方法及装置
JP6154148B2 (ja) * 2013-01-31 2017-06-28 富士通テン株式会社 入力操作装置、表示装置、および、コマンド選択方法
US20140347326A1 (en) * 2013-05-21 2014-11-27 Samsung Electronics Co., Ltd. User input using hovering input
JP5750687B2 (ja) * 2013-06-07 2015-07-22 島根県 カーナビ用ジェスチャ入力装置
US9829979B2 (en) * 2014-04-28 2017-11-28 Ford Global Technologies, Llc Automotive touchscreen controls with simulated texture for haptic feedback
KR20170024846A (ko) * 2015-08-26 2017-03-08 엘지전자 주식회사 이동단말기 및 그 제어방법

Also Published As

Publication number Publication date
CN105683902B (zh) 2021-01-01
KR101777074B1 (ko) 2017-09-19
CN105683902A (zh) 2016-06-15
US10437376B2 (en) 2019-10-08
EP3049911B1 (de) 2020-05-20
WO2015043653A1 (de) 2015-04-02
US20160246436A1 (en) 2016-08-25
EP3049911A1 (de) 2016-08-03

Similar Documents

Publication Publication Date Title
US9103691B2 (en) Multimode user interface of a driver assistance system for inputting and presentation of information
US20230302905A1 (en) Vehicle infotainment apparatus using widget and operation method thereof
US10029723B2 (en) Input system disposed in steering wheel and vehicle including the same
EP3000013B1 (en) Interactive multi-touch remote control
EP2829440B1 (en) On-board apparatus
WO2017022195A1 (ja) 運転支援装置、運転支援システム、運転支援方法及び自動運転車両
WO2014199893A1 (ja) アプリケーション制御のプログラム、方法、装置、及び記録媒体
CN104471353A (zh) 低注意力手势用户界面
KR101777074B1 (ko) 사용자 인터페이스 및 조작 유닛의 조작 시 사용자를 지원하는 방법
JP6466887B2 (ja) 情報端末用プログラム及び情報端末
WO2018070385A1 (ja) ユーザインタフェースを制御する方法、プログラム及び装置
CN103917849A (zh) 车辆导航装置
WO2019021418A1 (ja) 表示制御装置および表示制御方法
KR102192496B1 (ko) 사용자 인터페이스 및 사용자 인터페이스의 스크린 뷰 전환 방법
KR101805328B1 (ko) 사용자 인터페이스 및 조작 유닛의 조작 시 사용자를 지원하는 방법
US9582150B2 (en) User terminal, electronic device, and control method thereof
JP6798608B2 (ja) ナビゲーションシステムおよびナビゲーションプログラム
KR102272079B1 (ko) 패턴을 이용한 avn 시스템 제어 장치 및 방법
JP6379822B2 (ja) 入力装置及び電子機器
KR101777072B1 (ko) 사용자 인터페이스 및 조작 유닛의 조작 시 사용자를 지원하는 방법
US11941316B2 (en) Vehicle information display apparatus and method
KR20230040439A (ko) 근접 센서를 이용한 접근 방향 판단 기반 차량 디스플레이 제어 장치
JP2021144303A (ja) 情報表示システムおよび情報表示プログラム
JP6099414B2 (ja) 情報提供装置、及び、情報提供方法

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant