KR20100076998A - 정보 입력 및 표시를 위한 운전자 보조 시스템의 멀티모달 사용자 인터페이스 - Google Patents

정보 입력 및 표시를 위한 운전자 보조 시스템의 멀티모달 사용자 인터페이스 Download PDF

Info

Publication number
KR20100076998A
KR20100076998A KR1020107009294A KR20107009294A KR20100076998A KR 20100076998 A KR20100076998 A KR 20100076998A KR 1020107009294 A KR1020107009294 A KR 1020107009294A KR 20107009294 A KR20107009294 A KR 20107009294A KR 20100076998 A KR20100076998 A KR 20100076998A
Authority
KR
South Korea
Prior art keywords
display
manipulation
input
voice
information
Prior art date
Application number
KR1020107009294A
Other languages
English (en)
Other versions
KR101647848B1 (ko
Inventor
크리스토프 벨러
모리츠 너게바우어
토마스 파비안
울리케 베흘링
건터 호르나
마르쿠스 미샬
Original Assignee
폭스바겐 악티엔 게젤샤프트
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 폭스바겐 악티엔 게젤샤프트 filed Critical 폭스바겐 악티엔 게젤샤프트
Publication of KR20100076998A publication Critical patent/KR20100076998A/ko
Application granted granted Critical
Publication of KR101647848B1 publication Critical patent/KR101647848B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3664Details of the user input interface, e.g. buttons, knobs or sliders, including those provided on a touch screen; remote controllers; input using gestures
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3605Destination input or retrieval
    • G01C21/3608Destination input or retrieval using speech input, e.g. using speech recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/038Control and interface arrangements therefor, e.g. drivers or device-embedded control circuitry
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/044Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by capacitive means
    • G06F3/0447Position sensing using the local deformation of sensor cells
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/038Indexing scheme relating to G06F3/038
    • G06F2203/0381Multimodal input, i.e. interface arrangements enabling the user to issue commands by simultaneous use of input devices of different nature, e.g. voice plus gesture on digitizer

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Theoretical Computer Science (AREA)
  • Remote Sensing (AREA)
  • General Physics & Mathematics (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Acoustics & Sound (AREA)
  • Health & Medical Sciences (AREA)
  • Automation & Control Theory (AREA)
  • Artificial Intelligence (AREA)
  • General Health & Medical Sciences (AREA)
  • Computational Linguistics (AREA)
  • Multimedia (AREA)
  • User Interface Of Digital Computer (AREA)
  • Navigation (AREA)
  • Fittings On The Vehicle Exterior For Carrying Loads, And Devices For Holding Or Mounting Articles (AREA)

Abstract

본 발명은 적어도 하나의 조작 장치를 통해 음성 인식기에 공급되는 상이한 모덜리티의 입력 신호들을 검출하고, 그럼으로써 원하는 기능 및/또는 표시를 출력 신호로서 발생시켜 표시 및 조작 장치상에 표시하고/표시하거나 음성 출력에 의해 출력하는, 자동차에서 표시 및 조작 장치의 멀티모달 정보 입력 및/또는 표시의 적응을 위한 방법에 관한 것이다. 본 발명에 따른 방법에서는, 표시 및 조작 장치(20, 60) 상에서의 또는 표시 및 조작 장치(20, 60) 곁에서의 촉각에 의한 및/또는 제스처에 의한 입력 신호들(M1, M2)에 의해 상호 작용에 제공되는 대상을 선택하고 음성 인식기를 활성화하며, 대상의 선택 및 음성 인식기의 활성화에 따라 선택된 대상에 의존하여 상호 작용에 제공되는 어휘 범위를 한정하고, 그에 따라 선택된 대상에 속한 한정된 어휘 범위의 음성 명령(M3)을 음성 인식기를 통해 정보 입력으로서 및/또는 표시의 적응을 위해 선택된 대상에 부가하는 조치를 취한다.

Description

정보 입력 및 표시를 위한 운전자 보조 시스템의 멀티모달 사용자 인터페이스{MULTIMODE USER INTERFACE OF A DRIVER ASSISTANCE SYSTEM FOR INPUTTING AND PRESENTATION OF INFORMATION}
본 발명은 특히 자동차의 운전자 보조 시스템의 멀티모달(multimodal) 정보 입력 및 정보 표시의 적응(adaptation)을 위한 방법 및 그 방법을 수행하기 위해 제공되는 시스템 구조에 관한 것이다.
운전자 정보 시스템들 및 운전자 보조 시스템들의 기능 범위가 부단히 증가하고 있음을 고려할 때, 앞으로 인간-기계 인터페이스(man-machine-interface)(MMI)는 그 어느 때보다도 더 조작 과정의 지속 시간 및 복잡성(체감 복잡성)을 줄이는데 주력해야만 한다.
향후의 인간-기계 인터페이스들(MMI's)은 점증하고 있는 다수의 운전자 정보 기능들 및 운전자 보조 기능들을 사용자가 공감할 수 있고 조작할 수 있게 통합하는 동시에, 개개의 조작 과정들의 복잡성(체감 복잡성) 및 지속 시간을 줄일 수 있어야 한다.
그를 위해, 협동적 멀티모달 인터페이스(synergistic multimodal interface)들이 정보 입력의 최적화에 중요한 몫을 할 수 있다. 그러한 인터페이스들은 기본적으로 "Nigay , L and Coutaz , J. (1993). A design space for multimodal systems : concurrent processing and data fusion . In CHI '93: Proceedings of the SIGHI conference on Human factors in computing systems , pages 172-178, New York , NY , USA . ACM Press"에 이미 개시되어 있다.
현재, 차량에서는 이미 멀티모달 입력들이 가능하다 - 사용자는 기능의 조작을 위해 다수의 택일적 통신 모드들(예컨대, 음성 또는 손에 의한 입력) 가운데서 선택을 할 수 있다. 협동적 또는 교호적 멀티모덜리티(multimodality)는 효율과 편의성의 증대를 가능케 하는데, 왜냐하면 다수의 모드들을 통해 이뤄지는 입력들이 상호 연관되어 해석되기 때문이다. 그것은 "자연스러운" 소통(인간-기계 소통에 의존하는)에 기여한다.
정보 내용 및 컨트롤 패널들을 표시하는 영역에서는, 실제 사용 상황의 다양한 파라미터들(특히, 사용자의 조작 의사 및 조작 타깃)을 검출하여 그로부터 컨트롤 패널을 적응시키기 위한 상황에 적절한 조치들을 유도해내는 상황 적응형 사용자 인터페이스들이 큰 잠재성을 내재하고 있다.
그러한 시스템들은 사용자의 행동을 인지하고 사용자 관심을 모델화하여 사용자 요구 및 사용자 액션을 예측한다.
그에 대해, "차량"이란 기술 시스템과 그 특수한 사용 상황은 다른 많은 적용 분야들과는 달리 좋은 기술적 전제 조건을 제공한다. 다른 시스템들과 비교할 때에, 차량에서는 명확히 정의되는 소수의 소통 방안들이 존재하고, 그로 인해 시스템 측에서 조작 타깃을 예측하는 것이 더 잘 이뤄질 수 있다.
본 발명의 과제는 인간과 기계 사이의 소통 방안들과 관련하여 종래의 소통 모델들을 한층더 개선하고, 그를 위해 인간-기계 인터페이스의 신속하고도 직관적인 조작을 구현하는 소통 방안 제공 방법 및 그에 필요한 시스템을 제공하는 것이다.
이하의 설명은 멀티모달 입력 및 정보 표시의 적응을 위한 방법과 적응형 멀티모달 사용자 인터페이스를 위한 시스템 구조를 설명하고 있다. 그러한 방법 및 시스템은 향후의 자동차 시스템의 조작을 단순화시킬 것이다.
협동적 멀티모달 정보 입력 및 정보 표시의 자동적인 적응을 통해, 사용 상황들이 각각 용이하고도 포괄적으로 파악될 수 있다.
상호 작용 기술들의 전형적인 적용례들을 예시적으로 메뉴에 의거하여 설명하기로 한다. 그러한 적용례들에 속하는 것으로는 예컨대
- 이동, 줌(zoom), 스크롤, 온/오프와 같은 모니터의 조작 기능들의 지정이나 모니터상에서의 원하는 조작 기능의 지정 또는
- 가장 높은 상위 선택 메뉴 내에서의 메뉴 선택 기능들 또는
- 선택된 "음악 선곡 메뉴" 내에서의 음악 선곡 기능들 또는
- 선택된 "경로 설정 메뉴" 내에서의 경로 설정 기능들 또는
- 선택된 "통신 메뉴" 내에서의 통신 기능들(예컨대, 전화, 인터넷) 또는
- "POI(Point of Interest) 선택 메뉴" 내에서의 POI 선택 기능들 또는
- 경로 설정 기능들 및/또는
- 통신 기능들 및/또는
- 내비게이션 맵에 의해 제공되는 "내비게이션 맵 메뉴" 내에서의 POI 선택 기능들이 있다.
또한, 적응형 멀티모달 사용자 인터페이스를 위한 시스템 구조가 설명될 것이다. 그러한 시스템 구조는 오늘날 찾아볼 수 있는 일련의 입력 방안들을 능가하는 멀티모달 입력 방안들을 허용한다. 특히, 그 시스템 구조는 입력 신호들을 별개로 평가하는 시스템 모듈들을 포함한다.
본 발명은 멀티모달 정보들을 입력할 수 있되, 정보 입력에 따라 해당 정보 표시를 적응시키는 방법으로부터 출발한다. 자동차에 있어서, 그러한 방법은 특히 운전자 보조 시스템에 대해 그 가치를 지닌다. 지금까지는 대부분 상이한 모덜리티의 입력 신호들을 검출하여 검출 장치에 공급하였다. 표시 및 조작 요소, 예컨대 조작 요소들이 부속된 종래의 디스플레이 또는 터치 디스플레이가 상이한 모덜리티의 입력 신호들을 수집하는 입력 장치로서의 역할을 하는데, 그러한 표시 및 조작 요소는 대개 그밖에 필요로 하는 또 다른 조작 요소들을 추가로 구비한다. 그럼으로써, 조작 요소들의 조작 및/또는 터치 디스플레이/터치스크린의 접촉에 의해 일정한 정보 입력이 가능케 되거나 정보 표시의 적응이 이뤄질 수 있게 된다.
또한, 대개 제스처(gesture)에 의해 정해지는 조작 행동들이 입력 신호들로서 사용될 수 있는데, 그것은 입력 신호들의 그러한 무접촉 검출을 가능케 하는 용량형으로 배열된 센서 시스템을 배치함으로써 이뤄진다.
그러한 모덜리티, 즉 조작 요소들에서의 간단한 촉각에 의한(haptic) 조작 행동 및/또는 촉각에 의한 "터치 조작 행동" 및/또는 제스처에 의한 "제스처 조작 행동"은 음성 인식을 위한 음성 인식기와 조합된다.
본 발명은 자동차에서 표시 및 조작 장치의 멀티모달 정보 입력 및/또는 표시의 적응을 위한 방법으로서, 적어도 하나의 조작 장치를 통해 음성 인식기에 공급되는 상이한 모덜리티의 입력 신호들을 검출하고, 그럼으로써 원하는 기능 및/또는 표시를 출력 신호로서 발생시켜 표시 및 조작 장치상에 표시하고/표시하거나 음성 출력에 의해 출력하는 방법으로부터 출발한다.
본 발명은 표시 및 조작 장치상에서의 또는 표시 및 조작 장치 곁에서의 촉각에 의한 및/또는 제스처에 의한 입력 신호들이 상호 작용에 제공되는 대상의 선택 및 음성 인식기의 활성화를 일으키게 하고, 대상의 선택 및 음성 인식기의 활성화에 따라 선택된 대상에 의존하여 상호 작용에 제공되는 어휘 범위를 한정하며, 그에 따라 선택된 대상에 속한 한정된 어휘 범위의 음성 명령을 음성 인식기를 통해 정보 입력으로서 및/또는 표시의 적응을 위해 선택된 대상에 부가하는 것을 그 특징으로 한다.
본 발명에 따른 방법의 제1 실시 양태에서는, 예컨대 검출 모듈의 조작 요소들의 회전, 누름, 접촉, 및/또는 단속과 같은 표시 및 조작 요소에서의 사용자의 촉각에 의한 조작 행동의 형태의 제1 모덜리티를 입력 신호들을 검출하는데 사용하는 것이 바람직하다.
제2 실시 양태에서는, 사용자의 이동들의 형태의 제스처에 의한 조작 행동(손짓)을 인식하는 제2 모덜리티를 입력 신호들을 검출하는데 사용한다.
음성 인식, 즉 사용자의 음성을 제1 및/또는 제2 모덜리티와 조합하여 제3 모덜리티로서 본 발명에 따른 방법을 수행하는데 사용한다.
본 발명에 따르면, 입력 신호들을 검출하는데 사용되는 양 실시 양태들을 음성 인식기를 활성화하는데에도 사용한다.
본 발명에 따르면, 음성 대화 시스템의 음성 인식기를 예컨대 "길게 누름" 접촉 및/또는 "더블 클릭" 접촉 및/또는 "드래그 동작" 및/또는 "2 손가락 터치"와 같은 촉각에 의한 조작 행동에 의해 활성화하는 조치를 취한다.
또한, 본 발명에 따르면, 검출 모듈에서 "일반적" 제스처에 의한 조작 행동을 인식한 시점에 이미 음성 대화 시스템의 음성 인식기를 자동으로 활성화하는 조치를 취한다.
본 발명에 따른 그러한 방안들에 의해, 선행 기술로부터 음성 인식기를 활성화하는 것으로 공지된 종래의 "푸시-투-토크(push-to-talk)" 푸시버튼이 생략되게 된다.
또 다른 바람직한 구성에서는, 촉각에 의한 및/또는 제스처에 의한 음성 인식기의 활성화와는 무관하게 음성 인식기가 활성화 후 미리 주어질 수 있는 일정 시간 동안 활성 상태로 있게 하는데, 그러면 그 미리 주어진 시간 내에서만 사용자가 음성 명령을 부가할 수 있다.
부가되는 음성 명령은 싱글워드(single-word) 어휘 또는 멀티워드(multi-word) 어휘인 것이 바람직하다.
제스처에 의한 및/또는 촉각에 의한 입력 신호들과 음성 입력의 상호 작용의 제1 실시 형태에서는, 출력 모듈에서 출력 신호 및 그에 수반하는 표시 대상의 변경된 기능 및 표시를 생성하는 간단하고도 직관적인 멀티모달 조작을 발생시키기 위해 소위 "표시 대상/음성-상호 작용"으로 미리 주어진 어휘 범위로부터 싱글워드 어휘 또는 멀티워드 어휘의 형태의 음성 명령(전적으로 하나의 동사 및/또는 여러 동사들만을 사용하는)을 각각의 조작 행동에 의해 선택된 대상에 부가한다.
제스처에 의한 및/또는 촉각에 의한 입력 신호들과 음성 입력의 상호 작용의 제2 실시 형태에서는, 마찬가지로 표시 및 조작 요소에서 출력 신호 및 그에 수반하는 대상의 변경된 기능 및/또는 표시를 생성하는 간단하고도 직관적인 멀티모달 조작을 발생시키기 위해 소위 "표시 대상-상황/음성-상호 작용"으로 미리 주어진 "상황 특정" 어휘 범위로부터 싱글워드 어휘 또는 멀티워드 어휘의 형태의 "상황 관련" 음성 명령을 각각의 조작 행동에 의해 선택된 대상에 부가한다.
음성 대화 시스템의 음성 인식기를 그 활성화 후 사용자가 그 이내에 음성 명령을 부가할 수 있는 미리 주어질 수 있는 일정 시간 동안만 활성 상태로 있게 하되, 음성 인식기의 활성화 또는 비활성화를 그에 제공되는 표시 및 조작 요소 그 자체의 영역(상호 작용 대상으로부터 떨어진)에서 그래픽 표시("그래픽 피드백")를 통해 수행하는 조치를 취하는 것이 바람직하다.
양 실시 형태들에서의 바람직한 구성에서는, 음성 인식기에 의한 각각의 음성 명령의 인식 직후 미리 주어질 수 있는 일정 시간 동안 각각의 음성 명령 그 자체를 표시 및 조작 요소 상에서 글자의 형태로 보여주는 것이 바람직하다.
음성 인식기의 활성화를 표시 및 조작 요소의 그래픽 표시 및/또는 표시 및 조작 요소의 음향 신호를 통해 시그널링하는 것도 역시 양 실시 형태들에 있어 바람직한데, 음성 인식기의 활성화 후 음성 명령의 입력을 위한 미리 주어질 수 있는 잔여 시간을 표시하는 것이 더욱 바람직하다.
끝으로, 양 실시 형태들에 있어서, 상호 작용에 제공되는 정해진 표시 대상에 맞지 않는 음성 명령이 입력될 경우에 그래픽 메시지 및/또는 음향 메시지를 발생시켜 표시 및 조작 요소를 통해 또는 음성 대화 시스템의 음성 출력기를 통해 출력하는 조치를 취한다.
또한, 양 실시 형태들에 있어서, 음성 대화 시스템의 음성 인식기를 그 활성화 후 사용자가 그 이내에 음성 명령을 부가할 수 있는 미리 주어질 수 있는 일정 시간 동안만 활성 상태로 있게 하되, 음성 인식기의 활성화 또는 비활성화를 상호 작용 대상으로부터 떨어져 표시 및 조작 요소에서 그래픽 표시("그래픽 피드백")를 통해 수행하는 것이 아니라, 상호 작용에 제공되는 대상 그 자체에서 수행하는 조치를 취하는 것도 역시 바람직하다. 음성 인식기의 상태가 상이하게 표시될 수 있는 그러한 조치를 실시예에서 더욱 상세히 설명하기로 한다.
또한, 선행 연결된 정보 관리자(information manager)로부터 얻은 여러 모덜리티의 입력 신호들에 의존하여 표시 및 조작 요소에서의 출력의 타입 및 적절한 표시 방법을 결정하는 표시 관리자를 본 발명에 따른 방법을 지원하는 시스템 구조 내에 구성하는 것이 바람직하다.
본 발명의 또 다른 구성에서는, 표시 관리자에 전달된 입력 신호들에 의존하여 표시 방법을 적응시킨다.
그래픽 인터페이스를 적응시키는 것에 의해, 표시 내용을 적절히 선택하는 것에 의해, 및/또는 출력 매체 또는 출력 시점을 소통에 특정적으로 선택하는 것에 의해 표시를 변경한다.
또한, 본 발명에 따른 방법은 입력 모듈로서의 역할을 하는 표시 및 조작 요소를 통해 표시 및 조작 요소로부터의 조작 이동의 거리에 의존하여 특히 제스처에 의한 제2 모덜리티의 조작 의사를 입력하고 입력 신호를 검출하여 제스처에 의한 조작 행동에 의존해서 표시 및 조작 요소의 표시 모드와 하나 이상의 조작 모드 사이의 상황에 따른 교체를 구현하는 것을 그 특징으로 한다.
바람직한 구성에서는, 시스템 구조의 표시 및 조작 요소는 먼저 전반적으로 조작 이동이 있는지의 여부를 확인할 수 있다. 조작 이동이 전혀 없으면, 시스템의 정보 관리자가 그것을 인식하여 처리하는데, 그때에 표시 관리자는 정보 내용의 디스플레이 및 표시와 관련하여 출력 모듈을 "표시 모드" 쪽으로 최적화시킨다.
표시 및 조작 요소가 d ≥ 미리 주어질 수 있는 거리, 특히 d ≥ 5㎝의 범위의 조작 이동을 검출하면, 정보 관리자가 "일반적" 조작 의사를 인식하는데, 그때에 표시 관리자는 개선된 조작을 위해 표시 모듈을 전체의 표시 영역에서 "제1 조작 모드" 쪽으로 최적화시킨다.
표시 및 조작 요소가 d < 미리 주어질 수 있는 거리, 특히 d < 5㎝의 범위의 조작 이동을 인식하면, 정보 관리자가 "잠재적으로 가리켜진" 조작 타깃의 조작 의사를 표시 대상으로서 검출하는데, 그때에 표시 관리자는 "잠재적으로 가리켜진" 조작 타깃의 개선된 조작을 위해 출력 모듈을 가리켜진 표시 영역에서 "제2 조작 모드" 쪽으로 최적화시킨다.
본 발명의 바람직한 구성에서는, 조작 모드의 최적화를 미리 주어질 수 있는 표시 영역의 스케일 조정(scaling), 오버레이(overlay), 줌(zoom)을 통해 수행하고, 그럼으로써 조작성이 더 좋고 더 간단한 조작 인터페이스를 생성한다.
바람직한 구성에서는, 전술된 바와 같이 일반적 조작 의사의 인식 시점에 이미 음성 대화 시스템의 음성 인식기를 자동으로 시작한다.
바람직한 구성에서는, 순차적으로 또는 병렬적으로 실행된 여러 모덜리티의 입력 신호들을 입력 신호들의 상호 확인에 사용한다.
끝으로, 본 발명에 따른 방법은 시간상으로 중첩될 수도 있는 입력 신호들에 의존하여 조작 레벨들을 디스플레이 및 조작하고 다수의 조작 레벨들을 갖는 다양한 시스템들을 선택하는데 사용되는 해당 출력 신호들을 생성하는 것을 그 특징으로 한다. 각각의 시스템 내에서 수행될 수 있는 다양한 기능 내용들을 갖는 내비게이션 시스템 및 오락 시스템의 기능들을 애플리케이션들로서 간주할 수 있다.
즉, 본 발명에 따라 입력 신호들이 각각의 모덜리티에 할당된 사용자 인터페이스를 통해 표시 및 조작 요소와 음성 인식기에 의해 공급될 수 있도록 구성된 멀티모달 정보 입력 및 정보 표시의 적응을 위한 시스템 구조가 본 발명에 따른 방법에 부속한다.
본 발명에 따른 시스템은 여러 모덜리티의 입력 신호들이 협력적으로 정보 관리자에 의해 검출될 수 있고, 정보 관리자가 얻은 입력 신호들로부터 출발하여 표시 관리자가 제어 동작할 수 있으며, 입력 신호들에 의존하여 준비된 출력 신호들이 표시 및 조작 장치 및/또는 음성 인식기에 제공되는 것을 그 특징으로 한다.
표시 및 조작 요소는 모덜리티에 따라 조작 요소들이 부속된 종래의 디스플레이이거나, 일 구성에서 또 다른 조작 요소들이 추가로 부속될 수 있는 용량형 센서 시스템을 구비한 터치스크린이다.
입력 신호들의 평가를 위해, 입력 신호들을 표시 관리자에 전달하여 표시 관리자가 정보 관리자의 출력 신호들을 표시를 위해 준비하여 표시 및 조작 요소에 제공할 수 있게 하는 정보 관리자가 배치되는 것이 바람직하다.
본 발명의 또 다른 바람직한 구성들을 종속 청구항들에 기재된 나머지 특징들로부터 명확히 파악할 수 있을 것이다.
본 발명은 인간과 기계 사이의 소통 방안들과 관련하여 종래의 소통 모델들을 한층더 개선하기 위해 인간-기계 인터페이스의 신속하고도 직관적인 조작을 구현하는 소통 방안 제공 방법 및 그에 필요한 시스템을 제공한다.
이하, 본 발명을 첨부 도면들에 의거하여 실시예들로 설명하기로 한다. 첨부 도면들 중에서,
도 1A 내지 도 1C는 내비게이션 맵 메뉴 내에서 조작자 손이 접근할 경우에 표시를 적응시키는 것을 나타낸 도면들이고;
도 2A 내지 도 2C는 내비게이션 맵 메뉴 내에서 협력적 멀티모달 POI 검색을 조작하는 과정을 나타낸 도면들이며;
도 3A 내지 도 3C는 내비게이션 맵 메뉴 내에서 POI와의 협력적 멀티모달 상호 작용을 조작하는 과정을 나타낸 도면들이고;
도 4A 및 도 4B는 내비게이션 맵 메뉴 내에서 POI와의 협력적 멀티모달 상호 작용을 조작하는 과정을 나타낸 도면들이며;
도 5A 내지 도 5C는 내비게이션 맵 메뉴 내에서 POI와의 협력적 멀티모달 상호 작용 조작하는 과정을 나타낸 도면들이고;
도 6A 및 도 6B는 가장 높은 상위 선택 메뉴 내에서 협력적 멀티모달 메뉴 기능을 조작하는 과정을 나타낸 도면들이며;
도 7A 및 도 7B는 음악 선곡 메뉴 내에서 협력적 멀티모달 음악 선곡 기능을 조작하는 과정을 나타낸 도면들이고;
도 8A 및 도 8B는 경로 설정 메뉴 내에서 협력적 멀티모달 경로 설정 기능을 조작하는 과정을 나타낸 도면들이며;
도 9는 협력적 멀티모달 조작 기능을 조작하는 과정을 나타낸 도면이고;
도 10은 조작자 손이 터치스크린에 접근할 경우의 시스템 상태들을 나타낸 도면이며;
도 11은 플레이 리스트의 예에서 선택된 상호 작용 대상에 음성 인식기의 상태를 표시하기 위한 그래픽 대화를 나타낸 도면이고;
도 12는 미디어 플레이어의 예에서 선택된 상호 작용 대상에 음성 인식기의 상태를 표시하기 위한 그래픽 대화를 나타낸 도면이며;
도 13은 내비게이션 디스플레이 상에서 POI를 선택하는 예에서 선택된 상호 작용 대상에 음성 인식기의 상태를 표시하기 위한 그래픽 대화를 나타낸 도면이고;
도 14는 내비게이션 디스플레이 상의 개별 POI의 예에서 선택된 상호 작용 대상에 음성 인식기의 상태를 표시하기 위한 그래픽 대화를 나타낸 도면이다.
각각의 상호 작용을 위한 전제 조건은 상호 작용에 제공되는 대상을 결정하는 방식이다. 여기서, 대상이란 상호 작용을 수행하거나 상호 작용이 일어나는 개개의 대상은 물론 영역을 의미한다.
그러한 결정은 제1 실시 양태에서는 예컨대 조작 요소들의 회전, 누름, 접촉, 단속과 같은, 표시 및 조작 요소에서의 사용자의 촉각에 의한 조작 행동들의 형태의 제1 모덜리티(M1)를 사용하는 입력 신호들을 검출하는 것에 의해 이뤄진다.
상호 작용에 제공되는 대상의 결정은 제2 실시 양태에서는 사용자(10)의 이동들의 형태의 제스처에 의한 조작 행동들을 인식하여 평가하는 제2 모덜리티(M2)를 통한 입력 신호들을 검출하는 것에 의해 이뤄진다.
개선된 상호 작용을 위한 전제 조건은 상호 작용에 제공되는 대상의 결정과 연계된 음성 인식기의 활성화이다.
제1 실시 양태에서는 조작 장치상에서의 "길게 누름" 접촉 및/또는 "더블 클릭" 접촉 및/또는 "드래그 동작" 및/또는 "2 손가락 터치"와 같은 촉각에 의한 조작 행동(M1)이 음성 인식기를 활성화하는 역할을 한다.
제2 실시 양태에서는, 음성 대화 시스템의 음성 인식기를 "일반적" 제스처에 의한 조작 행동(M2)의 인식 시점에 이미 자동으로 활성화하는 조치를 취한다.
양 실시 양태들은 개별적으로 또는 조합되어 실시될 수 있다.
음성 인식기가 활성 상태에 있으면, 사용자(10)는 제3 모덜리티(M3)로 음성 명령을 말할 수 있다. 그와 관련하여, 본 발명에 따른 방법은 음성 인식기를 미리 주어질 수 있는 일정 시간 동안만 활성 상태로 하되, 그 시간을 표시 및 조작 장치(20, 60) 상에서 사용자(10)에게 나타내도록 구성될 수 있다.
모든 전제 조건이 충족되면, 상호 작용을 수행하는데, 그러한 상호 작용의 제1 실시 형태로서 "표시 대상/음성-상호 작용"을 도면들 없이, 그러나 나중에 설명될 제2 실시 형태와의 관련성을 명료히 하기 위해 제2 실시 형태의 도면 부호들을 붙여 설명하기로 한다.
이어서, 첨부 도면들에 의거하여 제2 실시 형태, 즉 "표시 대상-상황/음성-상호 작용"에 의해 본 발명을 설명하기로 한다.
제1 실시 형태 - "표시 대상/음성-상호 작용":
본 발명에 따른 방법은 실시 형태들 중의 하나인 "표시 대상/음성-상호 작용"에서 촉각에 의한 및/또는 제스처에 의한 조작 행동(M1, M2)과 음성 명령(M3)을 사용하여 다음과 같이 수행된다.
먼저, 조작 행동들(M1, M2)에 의해 대상을 선택하는데, 그와 동시에 2가지 조작 행동들 중의 적어도 하나에 의해 자동으로 음성 인식기를 시작한다.
음성 인식기는 "표시 대상/음성-상호 작용"에서는 전적으로 음성 인식기에 저장되어 있는 한정된 동사 어휘 범위 중의 하나 이상의 동사들만을 인식하도록 설계된다. 동사들은 말하기 쉽기 때문에, 조작 행동(M1 및/또는 M2)에 의해 선택된 대상과 적어도 하나의 동사를 포함하는 음성 명령(M3)의 직관적인 조합이 주어지게 된다. 그러한 조치는 인간의 행동과 말, 특히 매우 직관적인 일종의 어린이 말투의 기본적인 기능 방식 및 행동 방식과 상응하는 것이다.
그러한 상호 작용을 명료히 하기 위해, 이하에서는 표시 및 조작 장치, 예컨대 터치 디스플레이 또는 터치스크린에서의 대상 결정을 위한 적어도 하나의 촉각에 의한 조작 행동(M1)에 의해 개시되는 상호 작용에 대한 몇 가지 예들을 들기로 한다. 전술된 바와 같이, 대상의 결정은 제스처에 의한 조작 행동(M2) 또는 조작 행동들(M1, M2)의 조합에 의해서도 개시될 수 있다.
사용자(10)가 터치스크린(20)의 맵 상에서 하나의 장소 또는 POI 아이콘을 터치하는 동시에, "운전", "저장", "전화", 또는 "통과"라고 말한다.
사용자(10)가 터치스크린(20) 상에서 예컨대 커버 플우로(cover flow)를 통해 자신의 음악을 살펴본다. 사용자(10)가 앨범 커버를 터치하면서 "연주", "삭제", "복사", 또는 "기억"이라고 말한다.
사용자(10)가 미국의 HD 라디오를 청취한다. 사용자(10)가 터치스크린(20) 상에서 디스플레이 상의 실제 노래의 타이틀 표시를 터치하면서 "구매"라고 말한다. 그러면, 본국에서 아이튠즈(iTunes)가 표기된 노래를 판매할 상품으로 내놓는다.
사용자(10)가 터치스크린(20) 상에서 사진의 형태의 자신의 연락처들을 보고, 그 중의 하나를 터치하면서 "전화", "메일", 또는 "운전"이라고 말한다.
사용자(10)가 터치스크린(20, 60)의 디스플레이 상에서 자신의 차량의 그래픽을 보고, 트렁크 또는 창문을 터치하면서 "클로즈"라고 말한다.
제2 실시 형태 - "표시 대상-상황/음성-상호 작용":
본 발명을 도 1A 내지 도 9b에 의거하여 소위 "표시 대상-상황/음성-상호 작용"이라 하는 제2 실시 형태에서 설명하기로 한다.
본 실시 형태에서도 역시, 운전자 또는 동승자인 사용자가 여러 모덜리티(M1, M2, M3)의 입력 신호들(M)을 표시 및 조작 요소(20) 및/또는 음성 인식기에 공급할 수 있다.
먼저, 제1 실시 형태와 관련하여 이미 전술된 바와 같이, 조작 행동(M1 및/또는 M2)에 의해 대상을 결정하고, 그와 동시에 대상의 결정과 동시에 자동으로 음성 인식기를 활성화한다. 예컨대, 음성 인식기의 활성화를 위해, 회전/누름과 같은 조작 행동들을 실시할 수 있거나, 제1 실시 양태에서 음성 인식기의 활성화를 위한 제1 실시 형태와 관련하여 이미 전술된 바와 같이 "길게 누름" 접촉 및/또는 "더블 클릭" 접촉 및/또는 "드래그 동작" 및/또는 "2 손가락 터치"와 같은 촉각에 의한 조작 행동(M1)을 수행하거나, 제2 실시 양태에서는 검출 모듈에서 "일반적" 촉각에 의한 조작 행동(M2)을 인식한 시점에 이미 음성 대화 시스템의 음성 인식기를 자동으로 활성화하는 조치를 취한다.
"표시 대상-상황/음성-상호 작용"이라고 하는 제2 실시 형태에서, 상호 작용에 제공되는 음성 명령(M3)은 결정된 각각의 표시 대상의 특정의 유의적 액션들에 대한 한정된 상황 특정적 어휘 범위로부터의 싱글워드 어휘 또는 멀티워드 어휘이다. 여기서도 역시, 그러한 상황 관련 싱글워드 어휘 또는 멀티워드 어휘는 동사 및/또는 명사일 수 있다. 하지만, 어휘 범위는 각각의 상황에 맞춰지거나 그에 한정된다. 그럼으로써, 사용자와 시스템 구조 사이의 신속하고도 간단한 상호 작용이 일어나고, 그에 의해 해당 시스템 구조에서 메모리 용량이 절감되게 된다.
본 발명에 따른 방법을 가능케 하는 본 발명에 따른 시스템 구조를 참조하여 계속해서 설명하기로 한다.
각각의 모덜리티(M1, M2, M3)에 해당 사용자 인터페이스, 예컨대 경우별로 제1 모덜리티(M1)용 조작 요소들; 제스처에 의한 조작 행동을 검출하기 위한 제2 모덜리티(M2)용 센서 시스템, 특히 용량형 센서 시스템; 음성 인식의 제3 모덜리티(M3)용 음성 인식기가 배치된 터치스크린(20)이 할당된다.
또한, 모덜리티(M1, M2, M3)의 입력 신호들 또는 신호 부분들을 협력적으로 평가하는 정보 관리자가 배치된다.
정보 관리자의 출력 신호들은 표시 관리자에 공급되는데, 표시 관리자는 표시 및 정보의 출력을 위한 사용자 인터페이스들을 표시 및 조작 요소 또는 음성 인식기의 음성 출력기를 통해 나타내고, 사용자 인터페이스들 상에는 그래픽 애니메이션 또는 음향의 형태의 출력 신호들이 운전자 또는 동승자(10)에 공급된다.
그와 관련하여, 표시 관리자는 정보 관리자로부터 전달된 신호들에 의존하여 출력의 타입 및 적절한 표시 방법의 선택을 결정한다.
음성 인식기의 사용자 인터페이스에 의한 음성 인식, 사용자 인터페이스(용량형 센서 시스템)에 의한 제스처 인식, 및 표시 및 조작 장치로서의 터치스크린 인터페이스(20, 60)의 사용자 인터페이스에서의 제스처에 의한 조작 행동의 인식을 다함께 고려하여 예컨대 "내비게이션 시스템"의 적응형 멀티모달 사용자 인터페이스들을 구현하는 것에 관해 설명하기로 한다.
제스처 인식(M2)에서의 손 이동 및 손 위치의 검출은 예컨대 터치스크린(20)의 코너들에 장착된 용량형 접근 센서들에 의해 이뤄진다.
도 10에 도시된 바와 같이, 터치스크린(20)으로서 구성된 시스템의 내비게이션 디스플레이에의 일정 접근은 약 10㎝의 거리로부터 일반적 조작 행동으로 받아들여진다.
그러면, 표시 관리자는 제공된 키 버튼(예컨대, POI 아이콘)의 개선된 조작성을 위해 정보 관리자로부터 얻은 입력 신호들을 부가 조작 옵션들의 스케일 조정 및 오버레이를 통해 터치스크린(20) 상에서의 정보 디스플레이에 맞춰 적응시킨다.
도 10의 표는 입력 신호들의 존재와 관련된 조작자 손의 프레즌스(presence)를 구분하여 그 각각의 프레즌스에 일정한 조작 의사를 할당하고 있는데, 아울러 표시 관리자는 조작자 손의 프레즌스에 따라 미리 주어질 수 있는 모드로 모드를 교체한다.
조작자 손이 검출되지 않으면, 사용자(10)의 조작 의사가 없음이 파악되고, 표시 모듈은 정보 관리자에 있는 모든 데이터로부터 출발하여 정보 내용의 표시, 소위 표시 모드를 위한 디스플레이를 최적화시킨다.
약 5㎝의 거리로부터, 즉 d ≥ 5㎝의 범위에서 이미 "일반적" 조작 의사로서 인식되는 프레즌스가 내비게이션 디스플레이의 영역에서 검출될 수 있다.
그에 따라, 정보 관리자를 통해 가능한 손에 의한 조작을 위한 모든 표시들, 소위 제1 조작 모드의 최적화가 표시 관리자에서 이뤄진다.
약 < 5㎝의 거리로부터 사용자(10)의 집게 손가락이 가리키는 터치스크린(20, 60) 상의 각각의 키 버튼으로부터 구체적으로 작동하려는 조작 타깃이 주어진다. 조작자 손의 프레즌스 및 위치가 검출되고, 실제 조작 타깃의 잠재적 위치가 표시 대상으로서 규정된다. 표시 관리자는 정보 관리자를 통해 손에 의한 "손가락" 조작, 소위 제2 조작 모드를 위해 가리켜진 영역의 최적화를 수행한다.
손가락으로 가리켜진 최적화된 키 버튼은 추가로 스케일 조정되고, 그에 따라 터치 스크린(20) 상에 나타내진 "키"의 작동을 위한 타깃 과정이 더욱 간단해진다.
차량에서의 터치스크린(20)을 기반으로 한 실제 사용자 인터페이스들의 경우, 키 버튼의 크기는 한정된 디스플레이 크기에서 정보들을 병렬적으로 표시하기 위한 장소를 제공하기 위해 대부분 인체 공학적으로 용인되는 최소의 크기로 축소된다.
표시 모드와 제1 또는 제2 조작 모드 사이의 상황에 따른 교체를 통해, 조작 의사를 전제로 차량에서의 터치스크린(20)의 제한된 표시 면적이 정보 내용을 일목요연한 디스플레이로 표시하는데 사용될 수 있을 뿐만 아니라, 특정의 조작 인터페이스를 디스플레이하는데에도 사용될 수 있다.
그러한 방법은 예시적으로 터치스크린(20, 60) 상의 내비게이션 맵에서의 손에 의한 POI 아이콘과의 상호 작용의 예에서 구현되는데, 그것을 우선 도 1A 내지 도 1C에 의거하여 설명하기로 한다.
도 1A는 조작자 손이 아직 검출되지 않아 정보 표시가 전체의 터치스크린(20, 60)에 걸친 표시 모드로 최적화되어 있는 내비게이션 시스템의 터치스크린(20, 60)을 나타낸 것이다.
도 1B에 따라 조작자 손의 일반적 접근("일반적" 조작 의사)이 있을 때에 이미 POI 아이콘의 크기가 스케일 조정된다. 그 경우, 도로명, 구간 정보, 및 다른 상세가 부분적으로 덮여지는데, 그것은 조작 행동의 시간 동안에는 그들과 관련된 것이 없기 때문이다. 즉, 제1 조작 모드에서의 손에 의한 다음 조작을 위한 최적화가 이미 이뤄지게 된다.
도 1C에 따라 맵 보기를 조작하는 조작 옵션에 대한 지시자(indicator)(즉, 상호 작용에 선택된 대상)를 가리켰을 때에 사용자가 키 버튼을 작동할 필요가 없이 그 지시자가 해당지점에 오버레이된다.
도 1C에서 수행되는 그러한 제스처에 의한 조작 행동(M2)은 가리켜진 영역이 손에 의한 조작을 위해 최적화되는 제2 조작 모드를 불러낸다.
촉각에 의한 입력 및/또는 제스처에 의한 가리킴 이동도 역시 대상들, 기하학적 크기들, 및 위치들을 특정하고 스케일(예컨대, 볼륨 제어를 위한)을 설정하는데 적합하다.
이름들, 용어들, 및 명령들을 입력하는데에는 음성이 대부분 더 적합하다.
소위 협력적 멀티모덜리티(조작 행동들 및 음성 입력들)는 병렬적 정보 입력을 통한 짧은 조작 시간 이외에도 조작 오류의 감소를 가능케 하는데, 그것은 조작 모덜리티를 통한 입력들이 병렬적으로 사용되는 각각의 조작 모덜리티의 입력들을 확인하는데 각각 기여할 수 있기 때문이다.
또한, 예컨대 촉각에 의한 및/또는 제스처에 의한 내비게이션 맵과의 해당 상호 작용 시에 음성 인식기가 자동으로(푸시-투-토크 버튼에 의해 활성화하는 대신) 활성화되게 함으로써, 조작 요소들 및 조작 단계들을 줄일 수 있다.
예컨대, 맵과의 상호 작용 시에 출현하는 것과 같은 공간 기하학적 지정들을 고려한 명령들은 그러한 협력적 시스템들의 사용을 위한 가장 흔한 항목 타입이다.
도 2A 내지 도 2C에 의거하여 예컨대 "호텔" 또는 "레스토랑"과 같은 특정의 테마 카테고리에서의 POI들에 따른 위치 관련 멀티모달 검색의 하나의 예시적 구현을 설명하기로 한다.
그 경우, 사용자는 음성(M3)에 의해 검색 POI 카테고리를 특정하고, 그와 동시에 터치스크린(20, 60) 상에서 손에 의한 가리킴 제스처(M2)(예컨대, 자유롭게 동그라미를 그려 검색 지역을 표시하는 제스처)에 의해 특정의 검색 지역을 규정한다.
도 2A는 음성 명령(M3) 전의 터치스크린을 나타낸 것이다.
도 2A 내지 도 2C에 따르면, 시스템이 가리킴 제스처 및/또는 촉각에 의한 조작 행동(M1, M2)의 시작을 인식한 즉시로 음성 인식기가 자동으로 활성화된다. 인식된 상황 관련 검색어, 예컨대 "호텔"이 디스플레이(20) 상에 오버레이되고, 가리킴 제스처 및/또는 촉각에 의한 조작 행동(M1, M2)의 종료 시에(도 5B를 참조) r검색된 POI들, 여기서는 검색 지역의 호텔들이 지정된 검색 지역 내에서 맵 상에 표시된다(도 2C).
내비게이션 맵의 정해진 적용 상황으로부터 음성 인식(M3)을 활성화함으로써, 각각의 적용 상황에서 의미 있는, 해당 상황들로 한정된 상황 관련 인식 어휘 범위만을 기반으로 하면 되고, 그에 의해 에러율이 낮게 유지된다.
내비게이션 상황에서의 협력적 멀티모달 입력들에 대한 또 다른 적용례가 도 3A 내지 도 3C에 도시되어 있다. 도 3A로부터 출발하는 POI와의 직접적 상호 작용은 다음과 같이 이뤄진다. 음성에 의해(도 2A 내지 도 2C와 관련하여 전술된 방안에서와 같이) 원하는 POI를 특정하거나(동일한 카테고리의 POI들이 다수일 경우에 문제가 있음) 원하는 액션(예컨대, "전화")을 촉각에 의한 조작 행동(M3)에 의해 순전히 손으로 메뉴를 통해 선택하는 대신에, 사용자는 가리킴 제스처(M2)(도 3B)를 통해 POI를 선택하고 그와 병렬적으로 음성에 의해 원하는 액션(m3)을 입력할 수 있다.
본 경우에도 역시, 음서 인식(M3)에 있어서는 POI 액션의 제어를 위한 용어들의 한정된 상황 관련 어휘 범위만을 기반으로 하면 되고, 그에 따라 본 예에서도 마찬가지로 오인식의 확률이 낮게 유지되게 된다. 입력들(M1, M2, M3)의 시간적 및 의미적 동시성의 평가를 통해, 시스템은 전술된 바와 같이 경우에 따라 모덜리티(M1, M2, M3)에 있어 중첩되는 입력 신호들을 평가함으로써 POI 메뉴의 각각의 표시를 결정한다.
음성 명령(M3)을 인식한 경우에는 "전화"라는 액션이 직접 실시되고 POI 메뉴(도 3C를 참조)가 호출되지 않는다. 상황 관련 음성 상호 작용은 개별적인 동사들의 사용을 배제한다.
음성 명령을 인식하지 못하거나 음성 명령이 수행되지 않은 경우에만 POI 메뉴(도 3C를 참조)가 호출된다. 그러면, 사용자(10)는 음성 명령(M3)에 의해 또는 조작 행동(M1 및/또는 M2 및/또는 M3)에 의해 터치스크린(20, 60)을 거쳐 도 3C에 따른 도시된 메뉴 상에서 다시 원하는 옵션을 지정할 수 있다.
도 1A 내지 도 3C에 의거하면, 그러한 입력들의 인식이 HMI들을 조작 상황에 적응시키기 위한 큰 잠재력 및 그에 따른 편리성과 신뢰성에 대한 큰 잠재력을 내포하고 있는 것임을 이미 보여주고 있다.
도 4A 내지 도 9B에 의거하여, 본 발명에 따른 방법 및 시스템 구조를 사용하여 실시될 수 있는 또 다른 적용 방안들을 설명하기로 한다. 도 4A 내지 도 9B도 역시 음성 명령(M3)과 촉각에 의한 및/또는 제스처에 의한 조작 행동들(M1, M2)의 멀티모달 입력을 위한 방법을 설명하고 있다.
본 경우에도 역시, 시스템 구조 및 그에 속한 방법 중의 적어도 하나가 인식 가능한 입력 신호들(M1, M2, M3)을 공동으로 처리하는데 사용된다는 것으로부터 출발한다.
도 4A는 도 3에 관해 이미 설명된 바와 같이 손에 의한 조작을 위한 표시들이 이미 최적화되어 있는 제1 조작 모드를 이미 도시하고 있다. 디스플레이(20, 60)에의 제스처에 의한 접근(M2)에 의해 또는 디스플레이(20, 60) 상에서의 촉각에 의한 터치 입력(M1)에 의해 대상의 결정 및 특정이 이미 이뤄져 있다. 여기서, 조작 행동(M1, M2), POI 대상의 영역에서 제스처에 의한 조작자 손의 프레즌스, 및/또는 조작자 손가락의 촉각에 의한 선택을 인식하는 중에 음성 인식기가 이미 시작되고 있을 수 있다.
예컨대, POI 대상을 "길게 누르는" 누름(M1)이 있을 경우에 음성 인식기가 시작된다.
제스처에 의한 및/또는 촉각에 의한 음성 인식기의 활성화라는 양자의 양태들은 개별적으로 또는 서로 조합되어 가능하다. 그러면, 선택된 POI에 대한 상황에서 음성 인식기에 의해 음성 명령, 예컨대 "내비게이션" 또는 "인포(Info)" 또는 "우회"라고 말하는 음성 명령이 가능하다.
도 4B는 터치스크린(20, 60)의 영역에서 제스처에 의한 조작자 손의 프레즌스(M2)에 의해 위치 특정 POI 검색을 하는 방안을 다시 도시하고 있다.
경우에 따라서는, 도 3에 관한 설명에 따라 표시들이 이전에 최적화되어 있고, 동그라미를 그리는 손가락 이동이 모덜리티 M2의 조작 행동으로서 수행된다.
그와 동시에, 음성 인식기가 또 다른 사용자 인터페이스로서 시작되거나 POI 버튼이 나타나는데, 예컨대 "레스토랑" 또는 "호텔"과 같은 음성 명령(M3)을 말함으로써 POI 검색이 음성 입력에 의해 속행된다.
이하, 도 5A 내지 도 5C에 의거하여 멀티모달 POI 조작의 원리를 예시하는 또 다른 예를 설명하기로 한다.
도 5A에 따르면, 사용자(10)는 자신의 손가락으로 POI를 가리키는데, 그때에 출력 모듈로서의 역할을 하는 표시 및 조작 요소(60)가 제1 조작 모드 또는 제2 조작 모드로 교체된다. 그와 병렬적으로, 사용자(10)가 음성 명령(M3)을 말한다. 즉, 그러한 입력 명령 또는 입력 신호는 가리킴 제스처(M2)와 입력 신호로서 발음된 정보(M3)로 구성된다.
음성 인식기는 음성 명령 또는 음성 명령들(M3)을 인식하고, 터치스크린(20, 60)의 용량형 센서 시스템을 통해 제스처에 의한 조작 행동들(M2)이 병렬적으로 인식된다.
사용자(10)는 예컨대 제1 단계로 다시 병렬적 상황 관련 음성 명령(M3), 예컨대 "정보!"라는 음성 명령과 함께 원하는 POPI 아이콘에 대한 M1과 M2의 또는 M2만(터치스크린 터치 없이 제스처에만 의한)의 조작 행동을 수행하고, 그에 따라 시스템을 사용한 멀티모달 입력 명령(M1, M2, M3 또는 M2, M3 또는 M1, M3)에 의해 "현대 예술 미술관"에 관한 정보로서 음향이 자동으로 제공되거나 그래픽 애니메이션이 표시 및 조작 장치(60) 상에 자동으로 제공된다.
이어서, 사용자(10)는 예컨대 전화를 연결하고 싶을 수 있다. 사용자(10)는 예컨대 다시 원하는 POI 아이콘에 대한 M1과 M2의 또는 M2만(예컨대, 터치스크린 터치 없이 제스처에만 의한 구동)의 조작 행동을 수행하고, 병렬적 음성 명령(M3), 예컨대 "전화!"라는 음성 명령을 각각 말한다. 그러한 입력 명령은 한정된 상황 관련 어휘 범위를 기반으로 시스템에 제공된 음성 인식기에 의해 확인되고, 시스템은 "현대 예술 미술관"에 자동으로 전화를 연결한다.
예컨대, POI 아이콘 상에서의 또는 POI 아이콘에 대한 M1과 M2의 또는 M2만(터치스크린 터치 없이 제스처에만 의한 구동)의 조작 행동(M1, M2) 및 병렬적 음성 명령(M3), 예컨대 "목적지 안내"라는 음성 명령을 말하는 것에 의해 입력 명령(M)의 평가 후에 "현대 예술 미술관"으로의 목적지 안내를 차량의 내비게이션 시스템을 통해 시작하고 표시 및 조작 요소(60)의 표시를 통해 그래픽으로 나타내는 방안도 있다.
도 5B는 내비게이션 디스플레이 상에서 "동그라미를 그리는 제스처" 조작 행동(M2)을 나타낸 것으로, 역시 예컨대 "레스토랑!"이라는 병렬적 음성 명령이 함께 수행된다. 그럼으로써, 표시 및 조작 장치(60) 상에서 그 동그라미로 그린 지역 내의 모든 레스토랑들이 내비게이션 시스템의 디스플레이에 표시된다.
도 5C에서, 사용자(10)는 예컨대 가리킴 제스처(M2)와 그에 병렬된 예컨대 "줌!"이라는 음성 명령(M3) 또는 가리킴 제스처(M2)와 예컨대 "브라우즈(browse)!"라는 음성 명령(M3) 또는 가리킴 제스처(M2)와 예컨대 "맵 이동!"이라는 음성 명령(M3)을 수행한다. 그러면, 내비게이션 시스템의 표시 및 조작 장치(20, 60) 상에서 내비게이션 맵의 해당 "줌", "스크롤", 또는 "브라우징"이 이뤄진다.
전술된 모든 예들과 이후의 예들에 있어 모두 적용되는 사항은 입력 신호(M3)로서의 상황 관련 음성 명령이 입력 명령(M1 및/또는 M2)와 병렬적으로 반드시 수행되어야 하는 것은 아니라는 점이다. 음성 명령(M3)을 다른 입력 명령(M1 및/또는 M2)의 직전 및 직후에 수행하는 것도 고려될 수 있다. 본 발명에 따른 시스템 및 방법은 가장 자연스러운 사용자(10)의 행동 방식에 해당하는 조화로운 멀티모달 입력을 구현하려고 하고 있다.
멀티모달 조작성의 또 다른 예들이 도 6A 및 도 6B에 도시되어 있는데, 이하에서는 그에 관해 설명하기로 한다.
도 6A 및 도 6B에 따르면, 먼저 제1 또는 제2 조작 모드(이에 관한 설명은 도 10을 참조)에서 입력 모듈(20)의 표시상에서의 누름 및/또는 가리킴(M1, M2)에 의해 음성 명령(M3)의 일정 상황이 각 도면별로 주어지는 것이 도시되어 있다.
시스템 구조는 적용 특정적 어휘 범위를 사전에 분류하여 음성 인식기의 사용자 인터페이스의 시작을 통해 예컨대 "정지" 또는 "계속" 또는 "라디오 FFM"과 같은 일정 음성 명령들을 한정된 적용 특정 또는 상황 특정 관계로 제공한다.
음성 인식기의 시작은 조작 행동(M2)의 프레즌스가 충분할 경우에 및/또는 "누름 지속" 조작 행동(M1) 시에 이뤄지는데, 특히 말할 수 있는 명령들(M3)이 표시 및 조작 장치(20, 60) 상에 미리 주어진다. 그러한 방안에 의해, 예컨대 스티어링 휠에 있는 "푸시-투-토크 버튼"을 붙들고 있을 필요가 더 이상 없게 된다.
그러한 방안은 도 6B를 통해서도 추가로 도시되어 있다. 도 6B는 표시의 일목요연한 애플리케이션이 검출 모듈(20) 상에서 수행되고, 해당 접근(M2) 시에 또는 "누름 지속"의 누름(M1) 시에 음성 인식기가 시작되며, 예컨대 일람표 디스플레이로부터 출발하여 예컨대 "맵" 또는 "내비게이션" 또는 "콤비 계기로(콤비)"와 같은 상황 관련 음성 명령(M3)의 표시가 이뤄지는 것을 나타내고 있다. 그러한 방안에 의해, 여러 모덜리티(M1, M2, M3)가 시스템에 의해 변환될 수 있는 명확한 실행 가능 명령을 가져오게 된다.
도 7A 및 도 7B가 도시하고 있는 바와 같이, 특수한 적용례들에서도 음성 입력(M3) 또는 터치/제스처 명령(M1, M2)을 통해 멀티모달 입력이 가능하다. 여기서는, 예컨대 도시된 아이팟(iPod)(도 7A)에 의거하여 또는 다른 속성의 음악 타이틀 선곡 디스플레이(도 7B)에 의거하여 음악 선곡에 관해 설명하기로 한다.
제1 또는 제2 조작 모드에서 터치 인터페이스(20) 위에서 접근하는 조작 행동(M2)에 의해 예컨대 "오토모티브 클릭 휠(automotive click wheel)"이 자동으로 디스플레이되어 시작되고, 아울러 음성 인식 소자가 자동으로 또는 직접적인 "터치 명령"(M1)에 의해 활성화되며, 그에 따라 또 다른 "터치 명령"(M1) 또는 접근 명령(M2) 또는 그 조합 및/또는 새로운 음성 입력(M3)에 의해 각각의 음악 타이틀, 예컨대 "어 킹 업 매직(A King of Magic)"이란 음악 타이틀 대신 "어 프렌드 업 마인(A Friend of Mine)"이란 음악 타이틀이 선택될 수 있다.
그 경우에도 역시, "푸시-투-토크" 버튼을 별도로 누를 필요가 없는데, 그것은 조작 행동(M2)의 접근에 의해 이미 음성 인식기가 시작되거나 터치 스크린(20) 상에서의 누름(M1)(도 7A, "토크"의 누름)에 의해 이미 활성화되기 때문이다. 푸시-투-토크 버튼을 붙들고 있는 것이 생략된다. 즉, 본 발명에 따른 시스템은 "푸시-투-토크"로부터 "포인트-투-토크(point-to-talk)" 또는 "터치-투-토크(touch-to-talk)"로의 개혁을 이루고 있다.
아울러, 언급할 사항은 경우에 따라 디스플레이된 아이팟의 세그먼트(도 7A) 또는 열려 있는 조작 필드(도 7B)에 의거하여 역시 터치스크린(20), 즉 터치 조작 행동(M1)에 의해 및/또는 제스처에 의한 접근 조작 행동(M2)에 의해 및/또는 음성조작 행동(M3)에 의해 개개의 선택들의 정정도 역시 실행 가능하다는 것이다.
방금 설명된 아이팟 등에서의 음악 선곡의 경우에 취해지는 조치와 유사하게, 도 8A 및 도 8B에는 멀티모달 목적지 입력이 내비게이션 위젯에 의거하여 도시되어 있다.
역시 예컨대 디스플레이(20, 60) 상에서의 접근/가리킴(M2)에 의해 음성 인식기가 시작되고, 이어서 예컨대 조작 행동(M1 및/또는 M2)에 의해 개별 세그먼트들의 선택 및 정정이 이뤄지며, 터치스크린(20, 60) 상의 디스플레이가 이뤄진다.
음성 인식기의 시작에 의해, 각각의 목적지 또는 각각의 경로(예컨대, 도 8A를 참조)를 말할 수 있으므로, 도 8A에 따라 예컨대 볼프스부르크-베를린 간의 경로 표시가 이뤄지고, 도 8B에 따라 역시 터치 조작 행동(M1 또는 M1과 M2)에 의해 및/또는 정정 음성 명령(M3)에만 의해 목적지의 입력 및 정정이 이뤄지며, 그에 따라 손에 의한 조작 행동(M1 또는 M1과 M2)에 의해 또는 역시 음성 명령(M3)에 의해 오해의 소지가 있는 상황 관련 음성 명령, 예컨대 "함베르크슈트라쎄(Hambergstraβe)" 대신 원하는 "함부르크슈트라쎄(Hamburgstraβe)"가 정정될 수 있다.
도 9A 및 도 9B는 기능 지정 또는 전체 제스처들의 지정을 멀티모달 입력하는 방안을 또한 도시하고 있다. 즉, 도 9A에 따르면, 도 5C와 관련하여 이미 전술된 바와 같이, 조작자 손에 의한 접근 후에 제스처에 의한 입력 명령(M2)과 병렬된 또는 후속된 "줌" 또는 "이동"과 같은 해당 음성 명령(M3)에 의해 터치스크린(20) 상에서 내비게이션 맵을 이동시키는 것이 가능하다.
또한, 예컨대 손 전체를 펴는 것과 같은 제스처(M2)에 온-오프 기능 또는 중단 기능이 지정될 수 있다. 그럼으로써, 예컨대 "온/오프" 또는 "중단"이란 음성 명령(M3)과 연계하여 시스템의 시작 및 종료를 위한 멀티모달 조작이 구현될 수 있다.
사용자(10)의 요구 상황을 기반으로 터치스크린(20, 60) 상의 가용 표시 면적의 적응을 구현하기 위해 차량 시스템으로부터의 상황 정보들(예컨대, 속도, 도로 종류, 교통 밀도, 차량의 보조 레벨)을 실제 운전 태스크와 관련하여 통합함으로써 시스템을 추가로 보완하는 것이 가능하다.
도 11 내지 도 14에는, 음성 인식기의 상태(활성 상태/비활성 상태)에 관한 표시 방안이 소개되어 있다. "표시 대상/음성-상호 작용"과 "표시 대상-상황/음성-상호 작용"의 양 실시 형태들에 있어 음성 대화 시스템의 음성 인식기를 그 활성화 후 미리 주어질 수 있는 일정 시간 동안만 활성 상태로 있게 하는 것이 바람직하다는 것에 대해서는 이미 전술된 바 있다. 그러한 시간 내에서 사용자가 음성 명령(M3)을 부가할 수 있다.
음성 인식기가 활성 상태에 있는지 비활성 상태에 있는지의 여부를 사용자(10)에 시그널링하는 공지의 양태에서는, 음성 인식기의 활성화 또는 비활성화 시에 상호 작용 대상 또는 상호 작용에 제공되는 표시 및 조작 요소(20, 60)의 영역으로부터 떨어져 그래픽 표시(소위 "그래픽 피드백")가 수행된다.
새로운 양태에서는, "그래픽 피드백"이 상호 작용에 제공되는 대상 또는 영역으로부터 떨어져 수행되는 것이 아니라, 상호 작용에 제공되는 대상 또는 영역 그 자체에서 수행된다. 그럴 경우, 더 이상 음성 인식기의 상태에 관한 피드백의 출력을 위한 별도의 영역을 표시 및 조작 요소에 예비해둘 필요가 없고, 그래픽 피드백이 상호 작용에 제공되는 상호 작용 대상 또는 상호 작용 영역과 직접 연관된다는 점이 사용자(10)에게 유리하다.
그래픽 피드백과 관련하여 음성 인식기의 활성화 또는 비활성화 시의 기본적인 과정을 설명하면 다음과 같다. 상호 작용에 제공되는 영역 또는 상호 작용에 제공되는 대상에서 예컨대 가능한 선택 안들 중의 하나로서 이미 전술된 "길게 누름 접촉"에 의해 음성 인식기의 활성화를 수행한다. 그 경우, 상호 작용에 제공되는 표시 및 조작 요소(20, 60) 상의 영역 또는 대상에서 미리 주어질 수 있는 일정 시간 유지되어야 하는 활성화를 위한 임의의 지점이 접촉될 수 있다. 먼저, 그래픽 피드백과의 가능한 조합으로, "올바른" 영역에서, 즉 활성화에 제공되는 영역에서 "길게 누름 접촉"이 있을 경우에 또는 대상을 충분히 길게 터치할 경우에 "촉각에 의한 피드백", 예컨대 조작자의 손가락에서의 진동이 생성된다. "길게 누름 접촉"을 음성 인식기의 시작을 위한 개시 행동으로 받아들이는 즉시, 원하는 조작 행동이 성공하였음을 사용자(10)에 회신하는 신호 타입 응답으로서 클릭 타입 진동의 형태의 또 다른 확연한 "촉각에 의한 피드백"이 추가로 수행된다. 그러한 확연한 "촉각에 의한 피드백"은 병렬적으로 개시되는 "음향 피드백"과 추가로 조합되어 실시될 수 있다. 따라서, 음성 인식기가 시작되어 그 성공적 시작이 촉각에 의해 및/또는 음향적으로 사용자에 시그널링되게 된다.
하지만, 음성 인식기가 활성 상태에 있을 때까지는, "그래픽 피드백"으로서 사용자(10)에 표시되는 미리 주어질 수 있는 시간도 또한 경과하게 된다. 미리 주어질 수 있는 시간 동안 해당 영역 또는 대상의 둘레에 일종의 프레임 타입의 띠가 음성 인식기 심벌(S)이 나타날 때까지 둘러지기 시작한다. 음성 인식기 심벌(S)이 나타나는 순간에 비로소 음성 인식기가 활성 상태로 되어, 즉 음성 명령(M3)을 수령하도록 시작되어 음성 명령(M3)을 말할 수 있게 된다. 그와 관련하여, 그래픽 피드백을 디스플레이하는데에는 여러 구성 방안들이 있다.
예컨대, 프레임 타입(바람직하게는 그 조도 및 색상에 있어 표시 및 조작 요소(20, 60)에 대해 대비를 이루는)의 띠가 영역 또는 대상의 우측 하단 코너에서 둘러지기 시작하고, 바람직한 구성에서는 좌측 상단 코너까지 2개의 방향으로 둘러져 프레임(R)을 형성하는데, 좌측 상단 코너에 도달하는 순간 프레임(R)이 닫히게 되고, 바로 거기에서 음성 인식기 심벌(S)이 나타나게 된다. 그에 대해서는 도 11 내지 도 13을 참조하면 된다.
또 다른 가능한 구성은 대상 또는 영역의 둘레를 둘러싸는 프레임(R)을 형성하는 띠가 영역 또는 대상의 수직 가장자리의 중앙에서 양쪽으로(동일하거나 상이한 속도로) 둘러지고, 반대편에서 닫혀 프레임(R)을 형성하며, 그 반대편에서 그곳의 수직 가장자리 중앙에 음성 인식기 심벌(S)이 나타나는 것이다. 그에 대해서는 도 12 및 도 14를 참조하면 된다.
그와 같이 둘러지는 띠는 또 다른 구성에서는 영역 또는 대상의 자유롭게 선택될 수 있는 임의의 가장자리 지점으로부터 출발하여 시작되게 구성되어 한쪽 방향으로만 또는 2개의 방향으로 둘러질 수 있는데, 그렇게 하여 형성되는 프레임(R)이 닫히는 순간 음성 인식기 심벌(S)이 표시되고, 그에 따라 음성 인식기가 활성 상태에 있게 된다.
비활성화는 예컨대 띠가 처음 프레임(R)을 형성하기 시작한 지점으로부터 각각 출발하여 음성 인식기 심벌(S) 쪽으로 띠가 일 방향으로 또는 양 방향으로 둘러지면서 다시 서서히 희미해지게 함으로써 수행되는데, 프레임(R)과 음성 인식기 심벌(S)이 다시 완전히 사라지는 즉시 음성 인식기가 비활성 상태에 있게 된다.
음성 인식기 심벌(S)이 나타나는 순간에 음성 명령(M3)을 말할 수 있다. 미리 주어질 수 있는 시간 후에는, 음성 인식기 심벌(S)이 나타난 후에 음성 명령(M3)을 말하였는지의 여부와는 상관이 없이 음성 인식기 심벌(S)을 유지한 채로 띠가 프레임(R)을 형성하기 시작한 지점에서 프레임(R)이 다시 열리게 된다. 즉, 둘러지는 띠가 음성 인식기 심벌(S) 쪽으로 다시 해체되고, 그에 따라 프레임(R)이 완전히 사라지는 순간에 또는 프레임(R)이 유지되더라도 색채 형상을 더 이상 볼 수 없거나 이전에 높던 조도가 도로 떨어지는 순간에 음성 인식기 심벌(S)이 사라지게 된다.
도 11 내지 도 14의 4개의 예들에 의거하여 본 발명을 더욱 상세히 설명하기로 한다.
도 11에는, 그러한 방안이 표시 및 조작 요소(20, 60)에 이미 호출되어 있는 플레이 리스트에 의거하여 도시되어 있다. 예컨대, 기본 보기로 타이틀 1 내지 6을 갖는 플레이 리스트는 아직 프레임(R)으로 둘러싸이지 않고, 음성 인식기 심벌(S)도 아직 표시되지 않는다. 표시 및 조작 요소(20, 60) 상에서의 "길게 누름 접촉"에 의해, 이미 기본적으로 전술된 바와 같이, 음성 인식기의 활성화를 위한 개시 조작 행동이 사용자(10)의 조작 행동의 성공을 시그널링하기 위한 예컨대 "촉각에 의한" 피드백 및/또는 "음향적" 피드백과 조합되어 수행된다. 우측 하단 코너로부터 출발하여, 프레임(R)이 좌측 상단 코너에서 닫히고, 음성 인식기 심벌(S)이 나타난다. 즉, "그래픽 피드백"이 사용자에 제공되어 음성 인식기가 활성 상태에 있는 때를 사용자가 정확하게 인식할 수 있게 된다. 개재 시간에 선택된 대상 또는 영역과의 상호 작용에 제공되는 한정된 어휘 범위를 갖는 제1 또는 제2 실시 형태를 고려하여 음성 입력(M3)을 수행한다. 도 11에서는, 사용자(10)가 예컨대 "배드리 드론 보이(Badly Drawn Boy)"라는 타이틀 2를 말하였다. 표시 및 조작 장치(20, 60)에서의 타이틀 분류는 선택된 타이틀 2가 하이라이트되고, 바람직한 구성에서는 표시 및 조작 장치(20, 60) 상에서 사용자의 중심 시야로 더 이동하도록 이뤄진다. 그러한 구성의 부가 구성에서는, 한정된 어휘 범위 내에서 예컨대 발음상으로 유사하게 소리 나는 타이틀, 예컨대 "벡-더 인폼...(Beck-The Inform...)"이라는 타이틀 3, 타이틀 4, 타이틀 5 등이 그 아래에 계속해서 분류된다. 음성 인식기 심벌(S)이 오버레이된 후에는 이미 프레임(R)을 형성하는 띠가 처음에 그 띠에 의해 프레임(R)이 형성된(도 11에 도시된 바와 같이) 지점으로부터 출발하여 음성 인식기 심벌(S) 쪽으로 도로 둘러가고, 심벌(S)에 도달했을 때에 음성 인식기가 비활성 상태로 되어 심벌(S)이 다시 사라지게 된다.
도 12에는, 그러한 조치가 미디어 플레이어의 예에서 도시되어 있다. 기본 보기로, 예컨대 "데이비드 그레이(David Grey)" 앨범 보기와 그 앨범으로부터 연주되는 "알리바이(Alibi)"라는 타이틀 및 그 연주 시간과 아직 남은 연주 시간이 타이틀 표시에 디스플레이된다. 다음의 설명은 표시된 앨범 커버의 영역의 타이틀 표시 영역 위에서 앨범을 선택하는데에도 유사하게 전용될 수 있다.
이전에 이미 선택된 앨범으로부터 타이틀을 교체하기 위해, 타이틀 표시 영역 상에서 예컨대 경우에 따라 사용자(10)에 대한 촉각에 의한 피드백 및/또는 음향적 피드백과 조합되는 "길게 누름 접촉"을 수행한다. 해당 영역의 우측 가장자리의 중앙으로부터 출발하여 둘러지는 띠가 좌측 가장자리의 중앙에서 닫혀 프레임(R)을 형성하고, 그 좌측 가장자리에 음성 인식기 심벌(S)이 나타난다. 음성 인식기는 활성 상태에 있고, 음성 입력을 받을 준비가 되어 있다. 음성 입력(M3)은 선택된 대상 또는 제공된 영역과의 상호 작용에 한정된 어휘 범위를 갖는 제1 또는 제2 실시 형태를 고려하여 수행된다. 도 12에 따르면, 예컨대 사용자가 "알리바이"라는 음성 명령을 말했고, 그럼으로써 해당 앨범으로부터 그 타이틀이 연주되고 있다. 이어서, 둘러진 프레임이 우측 가장자리의 중앙에서 다시 열려 음성 인식기 심벌(S) 쪽으로 사라지게 되는데, 프레임이 그 심벌(S)에 도달할 때에 음성 인식기가 비활성으로 전화되면서 음성 인식기 심벌(S)이 다시 사라지게 된다.
도 13은 내비게이션 디스플레이 상에서 POI 카테고리를 선택하는 예에서 선택도니 상호 작용 대상에 음성 인식기의 상태를 표시하기 위한 "그래픽 대화" 또는 "그래픽 피드백"을 나타내고 있다. 도 13에는, 표시 및 조작 요소(20, 60)에 호출되어 있는 내비게이션 디스플레이에 의거하여 그 방안이 도시되어 있다. 예컨대, 내비게이션 디스플레이 상에는 "호텔" 또는 "레스토랑" 또는 "구매 가능처"와 같은 각종의 POI 카테고리들이 기본 보기로 디스플레이되는데, POI 카테고리들은 아직 프레임(R)에 의해 둘러싸여 있지 않고, 음성 인식기 심벌(S)도 아직 표시되어 있지 않다. 기본적으로 전술된 바와 같이, 표시 및 조작 요소(20, 60) 상에서의 "길게 누름 접촉"에 의해 음성 인식기가 시작된다(역시 예컨대 촉각에 의한 피드백 및/또는 음향적 피드백과 조합되어). 우측 하단 코너로부터 출발하여, 프레임(R)이 먼저 좌측 상단 코너에서 닫히고 음성 인식기 심벌(S)이 나타난다. 따라서, 음성 인식기가 활성 상태에 있는 때를 사용자가 정확히 인식하여 음성 입력(M3)을 수행할 수 있게 하는 그래픽 피드백이 사용자에 제공되게 된다.
음성 입력(M3)은 선택된 영역과의 상호 작용에 제공되는 한정된 어휘 범위를 갖는 제1 또는 제2 실시 형태를 고려하여 수행된다. 도 13에서는, 사용자가 예컨대 "호텔"이라는 카테고리를 말하였다. 선택된 POI의 표시는 이미 전술된 구성에서와 같이 선택된 POI가 하이라이트되고, 도 14에 도시된 것처럼 자동으로 사용자(10)의 중심 시야로 더 이동되도록 수행된다.
이어서, 처음에 프레임(R)이 형성된 지점으로부터 출발하여, 띠(도 11에 도시된 바와 같은)가 프레임(R)dmf 사라지게 하면서 음성 인식기 심벌(S) 쪽으로 다시 둘러가고, 심벌(S)에 도달했을 때에 음성 인식기가 비활성 사태에 있게 되어 부속 심벌(S)이 다시 사라지게 된다.
도 14에서는, 내비게이션 디스플레이 상에서 음성 대화에 의해 도 13으로부터 선택된 개별 POI의 예에서 선택된 상호 작용 대상에 음성 인식기 상태를 표시하기 위한 그래픽 대화를 설명하기로 한다. 사용자(10)가 선택된 호텔에 관한 정보를 아울러 받고자 하면, 음성 대화 시스템을 사용하여 호텔과의 연락을 취하거나, 다음과 같이 다른 방식으로 상호 작용을 하여 대처한다. 대상으로서의 POI 그 자체 상에서 "길게 누름 접촉"을 수행한다. 사용자는 다시 전술된 선택 안들에 따라 또는 본 구성 방안과 조합하여 음성 인식기의 시작을 위한 입력이 성공하였음을 시그널링하는 촉각에 의한 피드백 및/또는 음향적 피드백을 받는다. 예컨대, POI 대상의 우측 가장자리의 중앙으로부터 출발하여 둘러지는 프레임(R)이 좌측 가장자리(R)에서 닫힌다.
그와 같이 생성된 프레임(R)과 음성 인식기 심벌(S)이 나타난다. 음성 인식기가 활성 상태에 있게 된다. 선택된 대상과의 상호 작용에 제공되는 한정된 어휘 범위를 갖는 제1 또는 제2 실시 형태를 고려하여 음성 입력(M3)을 수행한다. 예컨대, 사용자가 "운전"이라는 음성 명령(M3)을 말함으로써 호텔이 내비게이션 시스템의 경로 설정에 목적지로서 넘겨지게 된다. 혹은, 사용자가 "전화"라는 음성 명령(M3)을 말하고, 그에 따라 호텔로의 전화 연결이 자동으로 이뤄지게 된다. 이어서, 프레임(R)이 다시 열리는데, 프레임(R)이 대상의 우측 가장자리에서 열리기 시작하고, 띠가 다시 음성 인식기 심벌((S) 쪽으로 양 방향으로 둘러가면서 프레임(R)을 희미하게 함으로써 프레임(R)이 사라지게 하는 것이 바람직하다. 음성 인식기 심벌(S)이 다시 사라지고, 음서 인식기가 다시 비활성 상태에 있게 된다.
10: 사용자 20: 인식하는 표시 및 조작 장치
60: 출력하는 표시 및 조작 장치 입력 신호
M: 입력 신호 M1: 제1 모덜리티(촉각에 의한 조작 행동)
M2: 제2 모덜리티(제스처에 의한 조작 행동) M3: 제3 모덜리티(음성)
d: 거리 S: 음성 인식기 심벌 R: 프레임/가장자리

Claims (24)

  1. 적어도 하나의 조작 장치를 통해 음성 인식기에 공급되는 상이한 모덜리티(modality)의 입력 신호들을 검출하고, 그럼으로써 원하는 기능 및/또는 표시를 출력 신호로서 발생시켜 표시 및 조작 장치상에 표시하고/표시하거나 음성 출력에 의해 출력하는, 자동차에서 표시 및 조작 장치의 멀티모달 정보 입력 및/또는 표시의 적응을 위한 방법에 있어서,
    표시 및 조작 장치(20, 60) 상에서의 또는 표시 및 조작 장치(20, 60) 곁에서의 촉각에 의한 및/또는 제스처에 의한 입력 신호들(M1, M2)에 의해 상호 작용에 제공되는 대상을 선택하고 음성 인식기를 활성화하며, 대상의 선택 및 음성 인식기의 활성화에 따라 선택된 대상에 의존하여 상호 작용에 제공되는 어휘 범위를 한정하고, 그에 따라 선택된 대상에 속한 한정된 어휘 범위의 음성 명령(M3)을 음성 인식기를 통해 정보 입력으로서 및/또는 표시의 적응을 위해 선택된 대상에 부가하는 것을 특징으로 하는, 멀티모달 정보 입력 및/또는 표시 적응 방법.
  2. 제1항에 있어서, 입력 신호들(M1, M2)로서 및 음성 인식기의 활성화 신호로서
    Figure pct00001
    조작 요소들의 회전, 누름, 접촉, 및/또는 단속과 같은 사용자(10)의 촉각에 의한 입력 신호들을 제1 모덜리티(M1)로서
    Figure pct00002
    사용자(10)의 제스처에 의한 입력 신호들을 제2 모덜리티(M2)로서
    표시 및 조작 장치에 의해 검출하는 것을 특징으로 하는, 멀티모달 정보 입력 및/또는 표시 적응 방법.
  3. 제1항에 있어서, 상호 작용에 제공되는 대상의 결정에 따라, 표시 및 조작 장치(20) 상에서 "길게 누름" 접촉 및/또는 "더블 클릭" 접촉 및/또는 "2 손가락 터치" 및/또는 "드래그 동작"을 사용하여 촉각에 의한 입력 신호를 생성하는 조작 행동에 의해 음성 대화 시스템의 음성 인식기를 활성화하는 것을 특징으로 하는, 멀티모달 정보 입력 및/또는 표시 적응 방법.
  4. 제1항에 있어서, 제스처에 의한 입력 신호들을 생성하는 "일반적" 조작 의사를 갖는 조작 행동을 인식한 시점에 음성 대화 시스템의 음성 인식기를 자동으로 활성화하고 난 후에 비로소 상호 작용에 제공되는 표시 대상을 결정하고, 그에 따라 음성 입력이 예정보다 앞서는 경우에 음성 인식기를 통한 음성 평가가 이뤄지는 것이 보장되도록 하는 것을 특징으로 하는, 멀티모달 정보 입력 및/또는 표시 적응 방법.
  5. 제1항에 있어서, 음성 대화 시스템의 음성 인식기를 그 활성화 후 사용자(10)가 그 이내에 음성 명령(M3)을 부가할 수 있는 미리 주어질 수 있는 일정 시간 동안만 활성 상태로 있게 하되, 음성 인식기의 활성화 또는 비활성화를 상호 작용에 제공되는 영역 또는 대상 그 자체에서 그래픽 표시("그래픽 피드백")를 통해 수행하는 것을 특징으로 하는, 멀티모달 정보 입력 및/또는 표시 적응 방법.
  6. 제1항에 있어서, 부가되는 음성 명령(M3)은 싱글워드(single-word) 어휘 또는 멀티워드(multi-word) 어휘인 것을 특징으로 하는, 멀티모달 정보 입력 및/또는 표시 적응 방법.
  7. 제1항에 있어서, 출력 신호 및 그에 수반하는 변경된 기능을 생성하여 출력 모듈에 표시 대상을 표시하는 간단하고도 직관적인 멀티모달 조작을 발생시키기 위해, "표시 대상/음성-상호 작용"으로 싱글워드 어휘 또는 멀티워드 어휘의 형태의 음성 명령(M3)(전적으로 하나의 동사 및/또는 여러 동사들만을 사용하는)을 결정된 표시 대상에 부가하는 것을 특징으로 하는, 멀티모달 정보 입력 및/또는 표시 적응 방법.
  8. 제1항에 있어서, 표시 및 조작 요소(60)에서 출력 신호 및 그에 수반하는 대상의 변경된 기능 및/또는 표시를 생성하는 간단하고도 직관적인 멀티모달 조작을 발생시키기 위해, "표시 대상-상황/음성-상호 작용"으로 싱글워드 어휘 또는 멀티워드 어휘의 형태의 음성 명령(M3)(하나의 및/또는 여러 상황 관련 어휘(들)를 사용하는)을 결정된 대상에 부가하는 것을 특징으로 하는, 멀티모달 정보 입력 및/또는 표시 적응 방법.
  9. 제1항에 있어서, 음성 명령(M3)을 음성 인식기에 의한 그 인식 직후 미리 주어질 수 있는 일정 시간 동안 오버레이하는 것을 특징으로 하는, 멀티모달 정보 입력 및/또는 표시 적응 방법.
  10. 제2항 내지 제5항 중의 어느 한 항에 있어서, 표시 및 조작 요소(20, 60)에서 상호 작용에 제공되는 영역 또는 대상에서의 그래픽 표시인 "그래픽 피드백"에 의해 및/또는 촉각에 의한 신호 및/또는 음향적 신호인 "촉각에 의한 피드백 및/또는 음향적 피드백"에 의해 음성 인식기의 활성화 또는 비활성화를 시그널링하되, 음성 인식기의 활성화 후 음성 입력(M3)의 입력에 제공되는 미리 주어질 수 있는 시간을 표시 및 조작 요소(20, 60)에서 상호 작용에 제공되는 영역 또는 대상 그 자체에 그래픽으로 표시하는 것을 특징으로 하는, 멀티모달 정보 입력 및/또는 표시 적응 방법.
  11. 제1항에 있어서, 상호 작용에 제공되도록 결정된 표시 대상에 맞지 않는 음성 명령의 입력 시에 그래픽에 의한 및/또는 음향적 표시 또는 시그널링을 수행하는 것을 특징으로 하는, 멀티모달 정보 입력 및/또는 표시 적응 방법.
  12. 제1항에 있어서, 표시 및 조작 장치(60)에 선행 연결된 표시 관리자가 입력 신호들(M1, M2, M3)에 의존하여 출력의 타입과 적절한 표시 방법의 선택을 결정하는 것을 특징으로 하는, 멀티모달 정보 입력 및/또는 표시 적응 방법.
  13. 제12항에 있어서, 표시 관리자에 전달된 입력 신호들(M1 내지 M3)에 의존하여 표시 방법을 적응시키고,
    Figure pct00003
    그래픽 인터페이스의 변경
    Figure pct00004
    표시 내용의 적절한 선택
    Figure pct00005
    출력 매체(표시 및/또는 음성 또는 출력 시점)의 소통 특정적 선택에 의해 표시 방법을 수행하는 것을 특징으로 하는, 멀티모달 정보 입력 및/또는 표시 적응 방법.
  14. 제1항 내지 제8항 중의 어느 한 항에 있어서, 표시 및 조작 장치(20)를 통해 표시 및 조작 장치(20), 특히 터치스크린으로부터의 조작 이동의 거리에 의존하여 제2 모덜리티(M2)의 조작 의사를 입력하고 제스처에 의한 입력 신호(M2)를 검출하여 제스처에 의한 입력 신호(M2)에 의존해서 표시 및 조작 장치(60)의 표시 모드와 하나 이상의 조작 모드 사이의 상황에 따른 교체를 구현하는 것을 특징으로 하는,멀티모달 정보 입력 및/또는 표시 적응 방법.
  15. 제14항에 있어서, 제스처에 의한 입력 신호(M2)의 조작 의사는 그 조작 의사에 영향을 미치는 또 다른 모덜리티(M1, M3)의 다른 모든 입력 신호들과 중첩될 수 있는 것을 특징으로 하는, 멀티모달 정보 입력 및/또는 표시 적응 방법.
  16. 제14항에 있어서, 표시 및 조작 장치(20)가 조작 행동을 검출하지 않아 표시 관리자에 선행 연결된 정보 관리자가 조작 의사를 인식하지 못하되, 표시 관리자는 정보 내용의 디스플레이 및 표시와 관련하여 표시 및 조작 장치(20, 60)를 "표시 모드"로서 최적화시키는 것을 특징으로 하는, 멀티모달 정보 입력 및/또는 표시 적응 방법.
  17. 제14항에 있어서, 표시 및 조작 장치(20, 60)가 d ≥ 미리 주어질 수 있는 거리, 특히 d ≥ 5㎝의 범위의 조작 이동을 검출하여 정보 관리자가 "일반적" 조작 의사를 인식하되, 표시 관리자는 개선된 조작을 위해 표시 및 조작 장치(20, 60)를 전체의 영역에서 "제1 조작 모드"로 최적화시키는 것을 특징으로 하는, 멀티모달 정보 입력 및/또는 표시 적응 방법.
  18. 제1항에 있어서, 표시 및 조작 장치(20, 60)가 d < 미리 주어질 수 있는 거리, 특히 d < 5㎝의 범위의 조작 이동을 인식하여 정보 관리자가 선택된 대상의 "잠재적으로 가리켜진" 조작 의사를 인식하되, 표시 관리자는 "잠재적으로 가리켜진" 대상의 개선된 조작을 위해 표시 및 조작 장치(20, 60)를 가리켜진 표시 영역에서 "제2 조작 모드"로 최적화시키는 것을 특징으로 하는, 멀티모달 정보 입력 및/또는 표시 적응 방법.
  19. 제17항 또는 제18항에 있어서, 조작 모드의 최적화를 미리 주어질 수 있는 표시 영역의 스케일 조정(scaling), 오버레이(overlay), 줌(zoom)을 통해 수행하고, 그에 의해 조작성이 더 좋은 조작 인터페이스를 생성하는 것을 특징으로 하는, 멀티모달 정보 입력 및/또는 표시 적응 방법.
  20. 제1항에 있어서, 차량 시스템의 사용 상황으로부터 정보들(예컨대, 속도, 도로 종류, 교통 밀도, 차량의 보조 레벨)을 공급함으로써, 사용자(10)의 요구 상황을 기반으로 표시 및 조작 장치(20, 60) 상의 가용 표시 면적의 적응을 구현하는 것을 특징으로 하는, 멀티모달 정보 입력 및/또는 표시 적응 방법.
  21. 사용자의 멀티모달 상호 작용으로부터 출발하여 그 입력 신호들이 각각의 모덜리티에 할당된 사용자 인터페이스를 통해 표시 및 조작 요소와 음성 인식기에 의해 공급될 수 있되, 입력 신호들의 평가를 위해 정보 관리자가 배치되고, 정보 관리자는 입력 신호들에 의존하여 표시 관리자에 출력 신호들을 전달하며, 출력 신호는 표시 관리자에 후속 연결된 표시 및 조작 요소 및/또는 음성 인식기에서 사용자에 제공될 수 있는 멀티모달 정보 입력 및 표시 적응을 위한 시스템 구조에 있어서,
    여러 모덜리티(M1, M2, M3)의 입력 신호들이 협력적으로 정보 관리자에 의해 검출될 수 있고, 정보 관리자가 얻은 입력 신호들(M1, M2, M3)로부터 출발하여 표시 관리자가 제어 동작할 수 있으며, 입력 신호들(M1, M2, M3)에 의존하여 준비된 출력 신호들이 표시 및 조작 장치(20, 60) 및/또는 음성 인식기에 제공되는 것을 특징으로 하는, 멀티모달 정보 입력 및 표시 적응을 위한 시스템 구조.
  22. 제21항에 있어서, 입력 신호들(M1, M2)을 검출하는 표시 및 조작 장치(20, 60)는 조작 요소들이 부속된 디스플레이이거나, 조작 요소들이 부속되고 용량형 센서 시스템이 병렬된 터치스크린인 것을 특징으로 하는, 멀티모달 정보 입력 및 표시 적응을 위한 시스템 구조.
  23. 제21항에 있어서, 출력 신호들을 출력하는 표시 및 조작 장치(20, 60)는 디스플레이 또는 터치스크린인 것을 특징으로 하는, 멀티모달 정보 입력 및 표시 적응을 위한 시스템 구조.
  24. 제21항에 있어서, 표시 관리자는 정보 관리자에 의해 검출된 입력 신호들(M1, M2, M3)에 의존하여 출력 신호들을 생성하되, 출력 신호들은 예컨대
    Figure pct00006
    경로 설정, 출발지 및/또는 목적지 입력의 정정, POI 검색, POI 선택, POI 상호 작용, 통신 기능과 같은 시스템 기능들을 갖는 내비게이션 시스템 또는
    Figure pct00007
    음악 타이틀의 선곡 및/또는 정정과 같은 시스템 기능들을 갖는 오락 시스템 등의 다양한 시스템들의 상위 선택을 위한 조작 레벨들을 디스플레이 및 조작하는데 사용되는 것을 특징으로 하는, 멀티모달 정보 입력 및 표시 적응을 위한 시스템 구조.
KR1020107009294A 2007-11-12 2008-11-12 정보 입력 및 표시를 위한 운전자 보조 시스템의 멀티모드 사용자 인터페이스 KR101647848B1 (ko)

Applications Claiming Priority (6)

Application Number Priority Date Filing Date Title
DE102007053779 2007-11-12
DE102007053779.6 2007-11-12
DE102008051757.7 2008-10-15
DE102008051756.9 2008-10-15
DE200810051757 DE102008051757A1 (de) 2007-11-12 2008-10-15 Multimodale Benutzerschnittstelle eines Fahrerassistenzsystems zur Eingabe und Präsentation von Informationen
DE200810051756 DE102008051756A1 (de) 2007-11-12 2008-10-15 Multimodale Benutzerschnittstelle eines Fahrerassistenzsystems zur Eingabe und Präsentation von Informationen

Publications (2)

Publication Number Publication Date
KR20100076998A true KR20100076998A (ko) 2010-07-06
KR101647848B1 KR101647848B1 (ko) 2016-08-11

Family

ID=40530802

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020107009294A KR101647848B1 (ko) 2007-11-12 2008-11-12 정보 입력 및 표시를 위한 운전자 보조 시스템의 멀티모드 사용자 인터페이스

Country Status (6)

Country Link
US (1) US9103691B2 (ko)
EP (1) EP2223046B1 (ko)
KR (1) KR101647848B1 (ko)
CN (1) CN101855521B (ko)
DE (2) DE102008051757A1 (ko)
WO (1) WO2009062677A2 (ko)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20150068957A (ko) * 2012-10-12 2015-06-22 마이크로소프트 테크놀로지 라이센싱, 엘엘씨 애플리케이션과의 상호작용으로서의 다모드 사용자 표현 및 사용자 인텐서티 검출 기법
KR20150146091A (ko) * 2014-06-20 2015-12-31 엘지전자 주식회사 이동단말기 및 그 제어방법
CN111169408A (zh) * 2019-12-19 2020-05-19 苏州禾昆智能科技有限公司 一种车内中控基于卡片的主副驾协助系统及其方法
WO2023128104A1 (ko) * 2021-12-31 2023-07-06 주식회사 씨케이머티리얼즈랩 촉각 키보드 및 촉각 입력 장치
KR20230103812A (ko) * 2021-12-31 2023-07-07 주식회사 씨케이머티리얼즈랩 촉각 키보드 및 촉각 입력 장치

Families Citing this family (372)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8677377B2 (en) 2005-09-08 2014-03-18 Apple Inc. Method and apparatus for building an intelligent automated assistant
US9318108B2 (en) 2010-01-18 2016-04-19 Apple Inc. Intelligent automated assistant
US8073681B2 (en) 2006-10-16 2011-12-06 Voicebox Technologies, Inc. System and method for a cooperative conversational voice user interface
US7818176B2 (en) 2007-02-06 2010-10-19 Voicebox Technologies, Inc. System and method for selecting and presenting advertisements based on natural language processing of voice-based input
US8977255B2 (en) 2007-04-03 2015-03-10 Apple Inc. Method and system for operating a multi-function portable electronic device using voice-activation
JP4942814B2 (ja) * 2007-06-05 2012-05-30 三菱電機株式会社 車両用操作装置
DE102008051757A1 (de) 2007-11-12 2009-05-14 Volkswagen Ag Multimodale Benutzerschnittstelle eines Fahrerassistenzsystems zur Eingabe und Präsentation von Informationen
US8140335B2 (en) 2007-12-11 2012-03-20 Voicebox Technologies, Inc. System and method for providing a natural language voice user interface in an integrated voice navigation services environment
US10002189B2 (en) 2007-12-20 2018-06-19 Apple Inc. Method and apparatus for searching using an active ontology
US9330720B2 (en) 2008-01-03 2016-05-03 Apple Inc. Methods and apparatus for altering audio output signals
US8996376B2 (en) 2008-04-05 2015-03-31 Apple Inc. Intelligent text-to-speech conversion
US9305548B2 (en) 2008-05-27 2016-04-05 Voicebox Technologies Corporation System and method for an integrated, multi-modal, multi-device natural language voice services environment
US20100030549A1 (en) 2008-07-31 2010-02-04 Lee Michael M Mobile device having human language translation capability with positional feedback
US8676904B2 (en) 2008-10-02 2014-03-18 Apple Inc. Electronic devices with voice command and contextual data processing capabilities
US8326637B2 (en) 2009-02-20 2012-12-04 Voicebox Technologies, Inc. System and method for processing multi-modal device interactions in a natural language voice services environment
US8849570B2 (en) * 2009-03-19 2014-09-30 Microsoft Corporation Projected way-finding
US20100241999A1 (en) * 2009-03-19 2010-09-23 Microsoft Corporation Canvas Manipulation Using 3D Spatial Gestures
US20100241987A1 (en) * 2009-03-19 2010-09-23 Microsoft Corporation Tear-Drop Way-Finding User Interfaces
US8121640B2 (en) * 2009-03-19 2012-02-21 Microsoft Corporation Dual module portable devices
US20100281435A1 (en) * 2009-04-30 2010-11-04 At&T Intellectual Property I, L.P. System and method for multimodal interaction using robust gesture processing
US10706373B2 (en) 2011-06-03 2020-07-07 Apple Inc. Performing actions associated with task items that represent tasks to perform
US10241752B2 (en) 2011-09-30 2019-03-26 Apple Inc. Interface for a virtual digital assistant
US10241644B2 (en) 2011-06-03 2019-03-26 Apple Inc. Actionable reminder entries
US8412531B2 (en) 2009-06-10 2013-04-02 Microsoft Corporation Touch anywhere to speak
US9477400B2 (en) * 2009-06-11 2016-10-25 Alpine Electronics, Inc. Method and apparatus for navigation system for selecting icons and application area by hand drawing on map image
US9431006B2 (en) 2009-07-02 2016-08-30 Apple Inc. Methods and apparatuses for automatic speech recognition
US20110022307A1 (en) * 2009-07-27 2011-01-27 Htc Corporation Method for operating navigation frame, navigation apparatus and recording medium
TWI408340B (zh) * 2009-07-27 2013-09-11 Htc Corp 導航路徑顯示方法、導航裝置及電腦程式產品
KR101597289B1 (ko) * 2009-07-31 2016-03-08 삼성전자주식회사 동적 화면에 따라 음성을 인식하는 장치 및 방법
DE102009037658A1 (de) 2009-08-14 2011-02-17 Audi Ag Fahrzeug mit mehreren Funktionen und einer zugehörigen Auswahleinrichtung
KR101622196B1 (ko) * 2009-09-07 2016-05-18 삼성전자주식회사 휴대용 단말기에서 피오아이 정보 제공 방법 및 장치
US8294683B2 (en) * 2009-09-25 2012-10-23 Mitac International Corp. Method of processing touch commands and voice commands in parallel in an electronic device supporting speech recognition
DE102009051882A1 (de) * 2009-11-04 2011-05-05 Volkswagen Ag Verfahren und Vorrichtung zur Spracheingabe für ein Fahrzeug
JP5252352B2 (ja) * 2009-11-05 2013-07-31 クラリオン株式会社 情報端末装置、情報端末管理システム及びプログラム
WO2011059997A1 (en) 2009-11-10 2011-05-19 Voicebox Technologies, Inc. System and method for providing a natural language content dedication service
US9171541B2 (en) 2009-11-10 2015-10-27 Voicebox Technologies Corporation System and method for hybrid processing in a natural language voice services environment
DE102009058151B4 (de) * 2009-12-12 2020-08-20 Volkswagen Ag Verfahren zum Betreiben eines Sprachdialogsystems mit semantischer Bewertung und Sprachdialogsystem dazu
DE102009059792A1 (de) * 2009-12-21 2011-06-22 Continental Automotive GmbH, 30165 Verfahren und Vorrichtung zur Bedienung technischer Einrichtungen, insbesondere eines Kraftfahrzeugs
DE102009059981A1 (de) * 2009-12-22 2011-06-30 Volkswagen AG, 38440 Verfahren zum Anzeigen einer Mehrzahl auswählberer Elemente und Vorrichtung zum Durchführen des Verfahrens
US8494852B2 (en) 2010-01-05 2013-07-23 Google Inc. Word-level correction of speech input
US10276170B2 (en) 2010-01-18 2019-04-30 Apple Inc. Intelligent automated assistant
JP2011150413A (ja) * 2010-01-19 2011-08-04 Sony Corp 情報処理装置、操作入力方法及び操作入力プログラム
JP5636678B2 (ja) * 2010-01-19 2014-12-10 ソニー株式会社 表示制御装置、表示制御方法及び表示制御プログラム
JP2011150414A (ja) * 2010-01-19 2011-08-04 Sony Corp 情報処理装置、操作入力決定方法及び操作入力決定プログラム
CN103189824B (zh) 2010-02-10 2017-06-09 微晶片科技德国公司 用于产生与手动输入操作相关的信号的系统及方法
US8682667B2 (en) 2010-02-25 2014-03-25 Apple Inc. User profiling for selecting user specific voice input processing information
EP2362186A1 (de) * 2010-02-26 2011-08-31 Deutsche Telekom AG Bedieneinrichtung für elektronische Gerätefunktionen in einem Kraftfahrzeug
DE102010011885A1 (de) * 2010-03-18 2011-09-22 Volkswagen Ag Verfahren zur Steuerung eines elektronischen Systems für ein Fahrzeug sowie entsprechende Steuerung
US9007190B2 (en) 2010-03-31 2015-04-14 Tk Holdings Inc. Steering wheel sensors
DE102011006344B4 (de) 2010-03-31 2020-03-12 Joyson Safety Systems Acquisition Llc Insassenmesssystem
US8725230B2 (en) 2010-04-02 2014-05-13 Tk Holdings Inc. Steering wheel with hand sensors
US8296151B2 (en) * 2010-06-18 2012-10-23 Microsoft Corporation Compound gesture-speech commands
US9349368B1 (en) 2010-08-05 2016-05-24 Google Inc. Generating an audio notification based on detection of a triggering event
US8359020B2 (en) * 2010-08-06 2013-01-22 Google Inc. Automatically monitoring for voice input based on context
US20120038668A1 (en) * 2010-08-16 2012-02-16 Lg Electronics Inc. Method for display information and mobile terminal using the same
US20120050007A1 (en) * 2010-08-24 2012-03-01 Babak Forutanpour Methods and apparatus for interacting with an electronic device application by moving an object in the air over an electronic device display
JP5636888B2 (ja) * 2010-11-09 2014-12-10 ソニー株式会社 情報処理装置、プログラムおよびコマンド生成方法
FR2969783B1 (fr) * 2010-12-22 2012-12-28 Peugeot Citroen Automobiles Sa Interface homme machine comprenant une surface tactile de commande integrant un retour direct a la racine
US8810437B2 (en) * 2011-02-02 2014-08-19 Mapquest, Inc. Systems and methods for generating electronic map displays with points-of-interest information based on reference locations
US9081550B2 (en) * 2011-02-18 2015-07-14 Nuance Communications, Inc. Adding speech capabilities to existing computer applications with complex graphical user interfaces
US9262612B2 (en) 2011-03-21 2016-02-16 Apple Inc. Device access using voice authentication
JP5782775B2 (ja) * 2011-03-29 2015-09-24 ソニー株式会社 情報表示装置および情報表示方法、並びにプログラム
DE102011015693A1 (de) 2011-03-31 2012-10-04 Volkswagen Aktiengesellschaft Verfahren und Vorrichtung zum Bereitstellen einer Nutzerschnittstelle, insbesondere in einem Fahrzeug
US9368107B2 (en) * 2011-04-20 2016-06-14 Nuance Communications, Inc. Permitting automated speech command discovery via manual event to command mapping
US9495128B1 (en) * 2011-05-03 2016-11-15 Open Invention Network Llc System and method for simultaneous touch and voice control
US9263045B2 (en) 2011-05-17 2016-02-16 Microsoft Technology Licensing, Llc Multi-mode text input
US10057736B2 (en) 2011-06-03 2018-08-21 Apple Inc. Active transport based notifications
US8928336B2 (en) 2011-06-09 2015-01-06 Ford Global Technologies, Llc Proximity switch having sensitivity control and method therefor
US8975903B2 (en) 2011-06-09 2015-03-10 Ford Global Technologies, Llc Proximity switch having learned sensitivity and method therefor
DE102011106271B4 (de) * 2011-07-01 2013-05-08 Volkswagen Aktiengesellschaft Verfahren und Vorrichtung zum Bereitstellen einer Sprachschnittstelle, insbesondere in einem Fahrzeug
US20130002577A1 (en) * 2011-07-01 2013-01-03 Empire Technology Development Llc Adaptive user interface
US9417754B2 (en) 2011-08-05 2016-08-16 P4tents1, LLC User interface system, method, and computer program product
US10004286B2 (en) 2011-08-08 2018-06-26 Ford Global Technologies, Llc Glove having conductive ink and method of interacting with proximity sensor
WO2013034294A1 (de) * 2011-09-08 2013-03-14 Daimler Ag Bedienvorrichtung für ein kraftfahrzeug und verfahren zum bedienen der bedienvorrichtung für ein kraftfahrzeug
JP5691961B2 (ja) * 2011-09-14 2015-04-01 株式会社デンソー インターフェース装置
US9143126B2 (en) 2011-09-22 2015-09-22 Ford Global Technologies, Llc Proximity switch having lockout control for controlling movable panel
AU2012316484A1 (en) * 2011-09-30 2014-04-17 Apple Inc. Automatically adapting user interfaces for hands-free interaction
DE102011116188A1 (de) * 2011-10-14 2013-04-18 Volkswagen Aktiengesellschaft Verfahren zum Auswählen eines Abschnitts einer Route für ein Navigationssystem und Navigationssystem
US10112556B2 (en) 2011-11-03 2018-10-30 Ford Global Technologies, Llc Proximity switch having wrong touch adaptive learning and method
US8994228B2 (en) 2011-11-03 2015-03-31 Ford Global Technologies, Llc Proximity switch having wrong touch feedback
US8878438B2 (en) 2011-11-04 2014-11-04 Ford Global Technologies, Llc Lamp and proximity switch assembly and method
CN104040620B (zh) * 2011-12-29 2017-07-14 英特尔公司 用于进行直接语法存取的装置和方法
DE102012000274A1 (de) * 2012-01-10 2013-07-11 Daimler Ag Verfahren und Vorrichtung zum Bedienen von Funktionen in einem Fahrzeug unter Verwendung von im dreidimensionalen Raum ausgeführten Gesten sowie betreffendes Computerprogrammprodukt
US8788273B2 (en) * 2012-02-15 2014-07-22 Robbie Donald EDGAR Method for quick scroll search using speech recognition
US10134385B2 (en) 2012-03-02 2018-11-20 Apple Inc. Systems and methods for name pronunciation
US9831870B2 (en) 2012-04-11 2017-11-28 Ford Global Technologies, Llc Proximity switch assembly and method of tuning same
US9065447B2 (en) 2012-04-11 2015-06-23 Ford Global Technologies, Llc Proximity switch assembly and method having adaptive time delay
US9219472B2 (en) 2012-04-11 2015-12-22 Ford Global Technologies, Llc Proximity switch assembly and activation method using rate monitoring
US9184745B2 (en) 2012-04-11 2015-11-10 Ford Global Technologies, Llc Proximity switch assembly and method of sensing user input based on signal rate of change
US9660644B2 (en) 2012-04-11 2017-05-23 Ford Global Technologies, Llc Proximity switch assembly and activation method
US8933708B2 (en) 2012-04-11 2015-01-13 Ford Global Technologies, Llc Proximity switch assembly and activation method with exploration mode
US9559688B2 (en) 2012-04-11 2017-01-31 Ford Global Technologies, Llc Proximity switch assembly having pliable surface and depression
US9287864B2 (en) 2012-04-11 2016-03-15 Ford Global Technologies, Llc Proximity switch assembly and calibration method therefor
US9520875B2 (en) 2012-04-11 2016-12-13 Ford Global Technologies, Llc Pliable proximity switch assembly and activation method
US9531379B2 (en) 2012-04-11 2016-12-27 Ford Global Technologies, Llc Proximity switch assembly having groove between adjacent proximity sensors
US9568527B2 (en) 2012-04-11 2017-02-14 Ford Global Technologies, Llc Proximity switch assembly and activation method having virtual button mode
US9197206B2 (en) 2012-04-11 2015-11-24 Ford Global Technologies, Llc Proximity switch having differential contact surface
US9944237B2 (en) 2012-04-11 2018-04-17 Ford Global Technologies, Llc Proximity switch assembly with signal drift rejection and method
WO2013154720A1 (en) 2012-04-13 2013-10-17 Tk Holdings Inc. Pressure sensor including a pressure sensitive material for use with control systems and methods of using the same
US9280610B2 (en) 2012-05-14 2016-03-08 Apple Inc. Crowd sourcing information to fulfill user requests
US10417037B2 (en) 2012-05-15 2019-09-17 Apple Inc. Systems and methods for integrating third party services with a digital assistant
US9136840B2 (en) 2012-05-17 2015-09-15 Ford Global Technologies, Llc Proximity switch assembly having dynamic tuned threshold
US8981602B2 (en) 2012-05-29 2015-03-17 Ford Global Technologies, Llc Proximity switch assembly having non-switch contact and method
CN102756699B (zh) * 2012-06-01 2014-12-10 惠州华阳通用电子有限公司 车载系统及其用户界面切换方法
US9418672B2 (en) 2012-06-05 2016-08-16 Apple Inc. Navigation application with adaptive instruction text
US9052197B2 (en) 2012-06-05 2015-06-09 Apple Inc. Providing navigation instructions while device is in locked mode
US9111380B2 (en) 2012-06-05 2015-08-18 Apple Inc. Rendering maps
US9159153B2 (en) 2012-06-05 2015-10-13 Apple Inc. Method, system and apparatus for providing visual feedback of a map view change
US10176633B2 (en) 2012-06-05 2019-01-08 Apple Inc. Integrated mapping and navigation application
US9997069B2 (en) 2012-06-05 2018-06-12 Apple Inc. Context-aware voice guidance
US9230556B2 (en) 2012-06-05 2016-01-05 Apple Inc. Voice instructions during navigation
US9482296B2 (en) 2012-06-05 2016-11-01 Apple Inc. Rendering road signs during navigation
US9367959B2 (en) * 2012-06-05 2016-06-14 Apple Inc. Mapping application with 3D presentation
US9311750B2 (en) 2012-06-05 2016-04-12 Apple Inc. Rotation operations in a mapping application
US9886794B2 (en) 2012-06-05 2018-02-06 Apple Inc. Problem reporting in maps
US9337832B2 (en) 2012-06-06 2016-05-10 Ford Global Technologies, Llc Proximity switch and method of adjusting sensitivity therefor
US9721563B2 (en) 2012-06-08 2017-08-01 Apple Inc. Name recognition system
US9092394B2 (en) * 2012-06-15 2015-07-28 Honda Motor Co., Ltd. Depth based context identification
DE102012012697A1 (de) * 2012-06-26 2014-01-02 Leopold Kostal Gmbh & Co. Kg Bediensystem für ein Kraftfahrzeug
US9641172B2 (en) 2012-06-27 2017-05-02 Ford Global Technologies, Llc Proximity switch assembly having varying size electrode fingers
KR102003255B1 (ko) * 2012-06-29 2019-07-24 삼성전자 주식회사 다중 입력 처리 방법 및 장치
DE102012013503B4 (de) * 2012-07-06 2014-10-09 Audi Ag Verfahren und Steuerungssystem zum Betreiben eines Kraftwagens
KR101987255B1 (ko) * 2012-08-20 2019-06-11 엘지이노텍 주식회사 음성 인식 장치 및 이의 음성 인식 방법
US8922340B2 (en) 2012-09-11 2014-12-30 Ford Global Technologies, Llc Proximity switch based door latch release
JP6260622B2 (ja) 2012-09-17 2018-01-17 ティーケー ホールディングス インク.Tk Holdings Inc. 単一層力センサ
US9547647B2 (en) 2012-09-19 2017-01-17 Apple Inc. Voice-based media searching
DE102012219852A1 (de) 2012-10-30 2014-04-30 Robert Bosch Gmbh Verfahren und Vorrichtung zum Beeinflussen einer Text-zu-Sprache-Ausgabe
US8796575B2 (en) 2012-10-31 2014-08-05 Ford Global Technologies, Llc Proximity switch assembly having ground layer
WO2014068788A1 (ja) * 2012-11-05 2014-05-08 三菱電機株式会社 音声認識装置
DE102012021627A1 (de) * 2012-11-06 2014-05-08 Volkswagen Aktiengesellschaft Verfahren zum Anzeigen von Informationen in einem Fahrzeug und Vorrichtung zum Steuern der Anzeige
US9798799B2 (en) * 2012-11-15 2017-10-24 Sri International Vehicle personal assistant that interprets spoken natural language input based upon vehicle context
CN103839548B (zh) * 2012-11-26 2018-06-01 腾讯科技(北京)有限公司 一种语音交互方法、装置、系统和移动终端
KR20140070861A (ko) * 2012-11-28 2014-06-11 한국전자통신연구원 멀티 모달 hmi 제어 장치 및 방법
DE102012024954A1 (de) * 2012-12-20 2014-06-26 Volkswagen Aktiengesellschaft Verfahren zur Kennzeichnung einer Teilmenge einer in einer Speichereinheit abgelegten Grundmenge von Datensätzen und zur Visualisierung zumindest eines Teils der gekennzeichneten Teilmenge auf einer Anzeigeeinheit
US9258676B2 (en) * 2013-01-29 2016-02-09 Blackberry Limited Mobile device for creating, managing and sharing location information
CN103970459A (zh) * 2013-01-30 2014-08-06 建兴电子科技股份有限公司 供交通工具使用的指令反馈系统及方法
DE102013001773A1 (de) 2013-01-31 2014-07-31 Audi Ag Verfahren zum Betreiben einer Vorrichtung zum Wiedergeben von Medieninhalten sowie Vorrichtung zum Wiedergeben von Medieninhalten
JP2014147511A (ja) * 2013-01-31 2014-08-21 Gree Inc プログラム、表示システム及びサーバ装置
US20140218372A1 (en) * 2013-02-05 2014-08-07 Apple Inc. Intelligent digital assistant in a desktop environment
CN113470640B (zh) 2013-02-07 2022-04-26 苹果公司 数字助理的语音触发器
US8744645B1 (en) 2013-02-26 2014-06-03 Honda Motor Co., Ltd. System and method for incorporating gesture and voice recognition into a single system
US9311204B2 (en) 2013-03-13 2016-04-12 Ford Global Technologies, Llc Proximity interface development system having replicator and method
US10652394B2 (en) 2013-03-14 2020-05-12 Apple Inc. System and method for processing voicemail
US9164281B2 (en) 2013-03-15 2015-10-20 Honda Motor Co., Ltd. Volumetric heads-up display with dynamic focal plane
US20140267035A1 (en) * 2013-03-15 2014-09-18 Sirius Xm Connected Vehicle Services Inc. Multimodal User Interface Design
US9251715B2 (en) 2013-03-15 2016-02-02 Honda Motor Co., Ltd. Driver training system using heads-up display augmented reality graphics elements
US9747898B2 (en) * 2013-03-15 2017-08-29 Honda Motor Co., Ltd. Interpretation of ambiguous vehicle instructions
US10339711B2 (en) 2013-03-15 2019-07-02 Honda Motor Co., Ltd. System and method for providing augmented reality based directions based on verbal and gestural cues
US9378644B2 (en) 2013-03-15 2016-06-28 Honda Motor Co., Ltd. System and method for warning a driver of a potential rear end collision
US10748529B1 (en) 2013-03-15 2020-08-18 Apple Inc. Voice activated device for use with a voice-based digital assistant
US9393870B2 (en) 2013-03-15 2016-07-19 Honda Motor Co., Ltd. Volumetric heads-up display with dynamic focal plane
US9436287B2 (en) * 2013-03-15 2016-09-06 Qualcomm Incorporated Systems and methods for switching processing modes using gestures
US10215583B2 (en) 2013-03-15 2019-02-26 Honda Motor Co., Ltd. Multi-level navigation monitoring and control
DE102013006025A1 (de) 2013-04-08 2014-10-23 Audi Ag Methode zur Auflösung und Bedienung von POl-Stapeln
CN103235643A (zh) * 2013-04-09 2013-08-07 青岛旲天下智能科技有限公司 采用声控式的人机交互设备
US9395764B2 (en) * 2013-04-25 2016-07-19 Filippo Costanzo Gestural motion and speech interface control method for 3d audio-video-data navigation on handheld devices
DE102013007502A1 (de) * 2013-04-25 2014-10-30 Elektrobit Automotive Gmbh Computer-implementiertes Verfahren zum automatischen Trainieren eins Dialogsystems und Dialogsystem zur Erzeugung von semantischen Annotationen
CN103280217B (zh) * 2013-05-02 2016-05-04 锤子科技(北京)有限公司 一种移动终端的语音识别方法及其装置
US9892729B2 (en) * 2013-05-07 2018-02-13 Qualcomm Incorporated Method and apparatus for controlling voice activation
TWI547626B (zh) 2013-05-31 2016-09-01 原相科技股份有限公司 具有手勢感測器的裝置
JP6100101B2 (ja) * 2013-06-04 2017-03-22 アルパイン株式会社 音声認識を利用した候補選択装置および候補選択方法
US9286029B2 (en) 2013-06-06 2016-03-15 Honda Motor Co., Ltd. System and method for multimodal human-vehicle interaction and belief tracking
WO2014197334A2 (en) 2013-06-07 2014-12-11 Apple Inc. System and method for user-specified pronunciation of words for speech synthesis and recognition
WO2014197335A1 (en) 2013-06-08 2014-12-11 Apple Inc. Interpreting and acting upon commands that involve sharing information with remote devices
US10176167B2 (en) 2013-06-09 2019-01-08 Apple Inc. System and method for inferring user intent from speech inputs
CN110442699A (zh) 2013-06-09 2019-11-12 苹果公司 操作数字助理的方法、计算机可读介质、电子设备和系统
CN104238735A (zh) * 2013-06-13 2014-12-24 原相科技股份有限公司 具有手势感测器的装置
KR102179056B1 (ko) * 2013-07-19 2020-11-16 엘지전자 주식회사 이동 단말기 및 그것의 제어방법
CN103412708B (zh) * 2013-07-31 2016-12-28 华为技术有限公司 终端设备上的任务管理方法和终端设备
CN105453026A (zh) 2013-08-06 2016-03-30 苹果公司 基于来自远程设备的活动自动激活智能响应
KR20150031384A (ko) * 2013-09-13 2015-03-24 현대자동차주식회사 맞춤형 인터페이스 시스템 및 그 동작 방법
US10248382B2 (en) 2013-09-27 2019-04-02 Volkswagen Aktiengesellschaft User interface and method for assisting a user with the operation of an operating unit
KR101777074B1 (ko) * 2013-09-27 2017-09-19 폭스바겐 악티엔 게젤샤프트 사용자 인터페이스 및 조작 유닛의 조작 시 사용자를 지원하는 방법
EP3049910B1 (de) 2013-09-27 2020-04-29 Volkswagen Aktiengesellschaft Anwenderschnittstelle und verfahren zur unterstützung eines anwenders bei der bedienung einer bedieneinheit
US11307282B2 (en) * 2013-10-25 2022-04-19 Ultrahaptics IP Two Limited Determining positional information for an object in space
WO2015083969A1 (en) * 2013-12-05 2015-06-11 Lg Electronics Inc. Mobile terminal and method for controlling the same
KR20150066156A (ko) * 2013-12-06 2015-06-16 삼성전자주식회사 디스플레이 장치 및 이의 제어 방법
US10296160B2 (en) 2013-12-06 2019-05-21 Apple Inc. Method for extracting salient dialog usage from live data
GB2521433A (en) * 2013-12-19 2015-06-24 Daimler Ag Predicting an interface control action of a user with an in-vehicle user interface
US9248840B2 (en) * 2013-12-20 2016-02-02 Immersion Corporation Gesture based input system in a vehicle with haptic feedback
US9550578B2 (en) * 2014-02-04 2017-01-24 Honeywell International Inc. Systems and methods for utilizing voice commands onboard an aircraft
US20150261494A1 (en) * 2014-03-14 2015-09-17 Google Inc. Systems and methods for combining selection with targeted voice activation
EP2937771B1 (de) 2014-04-25 2019-04-10 Volkswagen Aktiengesellschaft Anwenderschnittstelle für ein Infotainment-System eines Fortbewegungsmittels
DE102014208663A1 (de) * 2014-05-08 2015-11-12 Conti Temic Microelectronic Gmbh Vorrichtung und verfahren zur bereitstellung von informationsdaten zu einem in einem videobildstrom enthaltenen objekt einer fahrzeugumgebung
US9715875B2 (en) 2014-05-30 2017-07-25 Apple Inc. Reducing the need for manual start/end-pointing and trigger phrases
US9430463B2 (en) 2014-05-30 2016-08-30 Apple Inc. Exemplar-based natural language processing
US9966065B2 (en) 2014-05-30 2018-05-08 Apple Inc. Multi-command single utterance input method
US10170123B2 (en) 2014-05-30 2019-01-01 Apple Inc. Intelligent assistant for home automation
US9633004B2 (en) 2014-05-30 2017-04-25 Apple Inc. Better resolution when referencing to concepts
US9355640B2 (en) * 2014-06-04 2016-05-31 Google Inc. Invoking action responsive to co-presence determination
KR20160001178A (ko) * 2014-06-26 2016-01-06 엘지전자 주식회사 글래스 타입 단말기 및 이의 제어방법
US9338493B2 (en) 2014-06-30 2016-05-10 Apple Inc. Intelligent automated assistant for TV user interactions
DE102014213959A1 (de) * 2014-07-17 2016-01-21 Continental Automotive Gmbh Verfahren zum Überwachen eines automatisierten Fahrens
US9372092B2 (en) 2014-08-08 2016-06-21 Here Global B.V. Method and apparatus for providing a contextual menu in a map display
US9818400B2 (en) 2014-09-11 2017-11-14 Apple Inc. Method and apparatus for discovering trending terms in speech requests
US9898459B2 (en) 2014-09-16 2018-02-20 Voicebox Technologies Corporation Integration of domain information into state transitions of a finite state transducer for natural language processing
EP3195145A4 (en) 2014-09-16 2018-01-24 VoiceBox Technologies Corporation Voice commerce
DE102014219408A1 (de) * 2014-09-25 2016-04-14 Volkswagen Aktiengesellschaft Verfahren und Vorrichtung zur Einstellung eines thermischen Komfortzustandes
US9668121B2 (en) 2014-09-30 2017-05-30 Apple Inc. Social reminders
US10127911B2 (en) 2014-09-30 2018-11-13 Apple Inc. Speaker identification and unsupervised speaker adaptation techniques
US10074360B2 (en) 2014-09-30 2018-09-11 Apple Inc. Providing an indication of the suitability of speech recognition
CN107003999B (zh) 2014-10-15 2020-08-21 声钰科技 对用户的在先自然语言输入的后续响应的系统和方法
US10038443B2 (en) 2014-10-20 2018-07-31 Ford Global Technologies, Llc Directional proximity switch assembly
EP3015306B1 (de) * 2014-10-31 2021-01-06 Volkswagen Aktiengesellschaft Vorrichtung und Verfahren zur Bedienung einer Uhrenarmatur
US10276158B2 (en) 2014-10-31 2019-04-30 At&T Intellectual Property I, L.P. System and method for initiating multi-modal speech recognition using a long-touch gesture
US10116748B2 (en) * 2014-11-20 2018-10-30 Microsoft Technology Licensing, Llc Vehicle-based multi-modal interface
DE102014017179B4 (de) * 2014-11-20 2022-10-06 Audi Ag Verfahren zum Betreiben eines Navigationssystems eines Kraftfahrzeugs mittels einer Bediengeste
US10431214B2 (en) 2014-11-26 2019-10-01 Voicebox Technologies Corporation System and method of determining a domain and/or an action related to a natural language input
US10614799B2 (en) 2014-11-26 2020-04-07 Voicebox Technologies Corporation System and method of providing intent predictions for an utterance prior to a system detection of an end of the utterance
DE102014018423B4 (de) * 2014-12-11 2021-03-25 Audi Ag Kraftfahrzeug mit durch peripheres Sehen interpretierbarer Zustandsanzeige sowie entsprechendes Verfahren
KR101643560B1 (ko) * 2014-12-17 2016-08-10 현대자동차주식회사 음성 인식 장치, 그를 가지는 차량 및 그 방법
WO2016109635A1 (en) 2014-12-30 2016-07-07 Robert Bosch Gmbh Adaptive user interface for an autonomous vehicle
US10073599B2 (en) 2015-01-07 2018-09-11 Microsoft Technology Licensing, Llc Automatic home screen determination based on display device
KR20160089782A (ko) * 2015-01-20 2016-07-28 엘지전자 주식회사 이동 단말기 및 그 제어 방법
KR101683649B1 (ko) * 2015-01-27 2016-12-07 현대자동차주식회사 차량 컨텐츠를 통합하고 가변하기 위한 사용자 맞춤 표시 시스템 및 그의 차량 컨텐츠 관리 방법, 그리고 이를 실행하는 컴퓨터 판독 가능한 기록매체
JP6426025B2 (ja) * 2015-02-20 2018-11-21 クラリオン株式会社 情報処理装置
US10152299B2 (en) 2015-03-06 2018-12-11 Apple Inc. Reducing response latency of intelligent automated assistants
US10567477B2 (en) 2015-03-08 2020-02-18 Apple Inc. Virtual assistant continuity
US9886953B2 (en) 2015-03-08 2018-02-06 Apple Inc. Virtual assistant activation
US9721566B2 (en) 2015-03-08 2017-08-01 Apple Inc. Competing devices responding to voice triggers
US9654103B2 (en) 2015-03-18 2017-05-16 Ford Global Technologies, Llc Proximity switch assembly having haptic feedback and method
CN107466401A (zh) * 2015-04-10 2017-12-12 哈曼国际工业有限公司 用于车载信息系统的多字符串搜索引擎
US10460227B2 (en) 2015-05-15 2019-10-29 Apple Inc. Virtual assistant in a communication session
US9548733B2 (en) 2015-05-20 2017-01-17 Ford Global Technologies, Llc Proximity sensor assembly having interleaved electrode configuration
US10200824B2 (en) 2015-05-27 2019-02-05 Apple Inc. Systems and methods for proactively identifying and surfacing relevant content on a touch-sensitive device
US10083688B2 (en) 2015-05-27 2018-09-25 Apple Inc. Device voice control for selecting a displayed affordance
US9578173B2 (en) 2015-06-05 2017-02-21 Apple Inc. Virtual assistant aided communication with 3rd party service in a communication session
US11025565B2 (en) 2015-06-07 2021-06-01 Apple Inc. Personalized prediction of responses for instant messaging
US20160378747A1 (en) 2015-06-29 2016-12-29 Apple Inc. Virtual assistant for media playback
JP5910903B1 (ja) * 2015-07-31 2016-04-27 パナソニックIpマネジメント株式会社 運転支援装置、運転支援システム、運転支援方法、運転支援プログラム及び自動運転車両
DE102015215044A1 (de) 2015-08-06 2017-02-09 Volkswagen Aktiengesellschaft Verfahren und System zur Verarbeitung multimodaler Eingabesignale
US10740384B2 (en) 2015-09-08 2020-08-11 Apple Inc. Intelligent automated assistant for media search and playback
US10671428B2 (en) 2015-09-08 2020-06-02 Apple Inc. Distributed personal assistant
US10331312B2 (en) 2015-09-08 2019-06-25 Apple Inc. Intelligent automated assistant in a media environment
US10747498B2 (en) 2015-09-08 2020-08-18 Apple Inc. Zero latency digital assistant
US10008201B2 (en) * 2015-09-28 2018-06-26 GM Global Technology Operations LLC Streamlined navigational speech recognition
US11010550B2 (en) 2015-09-29 2021-05-18 Apple Inc. Unified language modeling framework for word prediction, auto-completion and auto-correction
US10366158B2 (en) 2015-09-29 2019-07-30 Apple Inc. Efficient word encoding for recurrent neural network language models
US11587559B2 (en) 2015-09-30 2023-02-21 Apple Inc. Intelligent device identification
US10691473B2 (en) 2015-11-06 2020-06-23 Apple Inc. Intelligent automated assistant in a messaging environment
US10956666B2 (en) 2015-11-09 2021-03-23 Apple Inc. Unconventional virtual assistant interactions
US10049668B2 (en) 2015-12-02 2018-08-14 Apple Inc. Applying neural network language models to weighted finite state transducers for automatic speech recognition
US10289381B2 (en) * 2015-12-07 2019-05-14 Motorola Mobility Llc Methods and systems for controlling an electronic device in response to detected social cues
US10223066B2 (en) 2015-12-23 2019-03-05 Apple Inc. Proactive assistance based on dialog communication between devices
US10496252B2 (en) * 2016-01-06 2019-12-03 Robert Bosch Gmbh Interactive map informational lens
CN105509761B (zh) * 2016-01-08 2019-03-12 北京乐驾科技有限公司 一种多轮语音交互导航方法及系统
US10446143B2 (en) 2016-03-14 2019-10-15 Apple Inc. Identification of voice inputs providing credentials
US9986113B2 (en) 2016-05-06 2018-05-29 Fuji Xerox Co., Ltd. Information processing apparatus and nontransitory computer readable medium
DE102016207991B4 (de) 2016-05-10 2022-09-15 Volkswagen Aktiengesellschaft Verfahren zur fahrsituationsabhängigen Wiedergabe einer Kartendarstellung in einem Fahrzeug
US9934775B2 (en) 2016-05-26 2018-04-03 Apple Inc. Unit-selection text-to-speech synthesis based on predicted concatenation parameters
US10587978B2 (en) 2016-06-03 2020-03-10 Nureva, Inc. Method, apparatus and computer-readable media for virtual positioning of a remote participant in a sound space
US9972304B2 (en) 2016-06-03 2018-05-15 Apple Inc. Privacy preserving distributed evaluation framework for embedded personalized systems
US10338713B2 (en) 2016-06-06 2019-07-02 Nureva, Inc. Method, apparatus and computer-readable media for touch and speech interface with audio location
US10249300B2 (en) 2016-06-06 2019-04-02 Apple Inc. Intelligent list reading
EP3465392B1 (en) 2016-06-06 2021-02-17 Nureva Inc. Time-correlated touch and speech command input
US11227589B2 (en) 2016-06-06 2022-01-18 Apple Inc. Intelligent list reading
US10049663B2 (en) 2016-06-08 2018-08-14 Apple, Inc. Intelligent automated assistant for media exploration
DK179588B1 (en) 2016-06-09 2019-02-22 Apple Inc. INTELLIGENT AUTOMATED ASSISTANT IN A HOME ENVIRONMENT
US10509862B2 (en) 2016-06-10 2019-12-17 Apple Inc. Dynamic phrase expansion of language input
US10586535B2 (en) 2016-06-10 2020-03-10 Apple Inc. Intelligent digital assistant in a multi-tasking environment
US10490187B2 (en) 2016-06-10 2019-11-26 Apple Inc. Digital assistant providing automated status report
US10067938B2 (en) 2016-06-10 2018-09-04 Apple Inc. Multilingual word prediction
US10192552B2 (en) 2016-06-10 2019-01-29 Apple Inc. Digital assistant providing whispered speech
DK201670540A1 (en) 2016-06-11 2018-01-08 Apple Inc Application integration with a digital assistant
DK179415B1 (en) 2016-06-11 2018-06-14 Apple Inc Intelligent device arbitration and control
DK179049B1 (en) 2016-06-11 2017-09-18 Apple Inc Data driven natural language event detection and classification
DK179343B1 (en) 2016-06-11 2018-05-14 Apple Inc Intelligent task discovery
US11010551B2 (en) * 2016-06-22 2021-05-18 Huawei Technologies Co., Ltd. Method and apparatus for displaying candidate word, and graphical user interface
DE102016008049A1 (de) 2016-07-01 2018-01-04 Audi Ag Verfahren zum Betreiben einer Bedienvorrichtung, Bedienvorrichtung und Kraftfahrzeug
US10331784B2 (en) 2016-07-29 2019-06-25 Voicebox Technologies Corporation System and method of disambiguating natural language processing requests
US10474753B2 (en) 2016-09-07 2019-11-12 Apple Inc. Language identification using recurrent neural networks
DE102016218011A1 (de) 2016-09-20 2018-03-22 Volkswagen Aktiengesellschaft Benutzerschnittstelle für den Zugriff auf eine Menge von Funktionen, Verfahren und computerlesbares Speichermedium zum Bereitstellen einer Benutzerschnittstelle für den Zugriff auf eine Menge von Funktionen
US10043516B2 (en) 2016-09-23 2018-08-07 Apple Inc. Intelligent automated assistant
JP6208837B1 (ja) * 2016-10-12 2017-10-04 株式会社エイチアイ ユーザインタフェースを制御する方法、プログラム及び装置
DE102016221564A1 (de) 2016-10-13 2018-04-19 Bayerische Motoren Werke Aktiengesellschaft Multimodaler Dialog in einem Kraftfahrzeug
US11281993B2 (en) 2016-12-05 2022-03-22 Apple Inc. Model and ensemble compression for metric learning
KR20180069492A (ko) 2016-12-15 2018-06-25 현대자동차주식회사 운전 보조 시스템의 제어 장치 및 방법
US10593346B2 (en) 2016-12-22 2020-03-17 Apple Inc. Rank-reduced token representation for automatic speech recognition
US10229680B1 (en) * 2016-12-29 2019-03-12 Amazon Technologies, Inc. Contextual entity resolution
US11204787B2 (en) 2017-01-09 2021-12-21 Apple Inc. Application integration with a digital assistant
DK201770383A1 (en) 2017-05-09 2018-12-14 Apple Inc. USER INTERFACE FOR CORRECTING RECOGNITION ERRORS
US10417266B2 (en) 2017-05-09 2019-09-17 Apple Inc. Context-aware ranking of intelligent response suggestions
US10395654B2 (en) 2017-05-11 2019-08-27 Apple Inc. Text normalization based on a data-driven learning network
DK201770439A1 (en) 2017-05-11 2018-12-13 Apple Inc. Offline personal assistant
US10726832B2 (en) 2017-05-11 2020-07-28 Apple Inc. Maintaining privacy of personal information
DK179496B1 (en) 2017-05-12 2019-01-15 Apple Inc. USER-SPECIFIC Acoustic Models
US11301477B2 (en) 2017-05-12 2022-04-12 Apple Inc. Feedback analysis of a digital assistant
DK201770427A1 (en) 2017-05-12 2018-12-20 Apple Inc. LOW-LATENCY INTELLIGENT AUTOMATED ASSISTANT
DK179745B1 (en) 2017-05-12 2019-05-01 Apple Inc. SYNCHRONIZATION AND TASK DELEGATION OF A DIGITAL ASSISTANT
DK201770432A1 (en) 2017-05-15 2018-12-21 Apple Inc. Hierarchical belief states for digital assistants
DK201770431A1 (en) 2017-05-15 2018-12-20 Apple Inc. Optimizing dialogue policy decisions for digital assistants using implicit feedback
US20180336275A1 (en) 2017-05-16 2018-11-22 Apple Inc. Intelligent automated assistant for media exploration
US10403278B2 (en) 2017-05-16 2019-09-03 Apple Inc. Methods and systems for phonetic matching in digital assistant services
DK179549B1 (en) 2017-05-16 2019-02-12 Apple Inc. FAR-FIELD EXTENSION FOR DIGITAL ASSISTANT SERVICES
US20180336892A1 (en) 2017-05-16 2018-11-22 Apple Inc. Detecting a trigger of a digital assistant
US10311144B2 (en) 2017-05-16 2019-06-04 Apple Inc. Emoji word sense disambiguation
US11221823B2 (en) 2017-05-22 2022-01-11 Samsung Electronics Co., Ltd. System and method for context-based interaction for electronic devices
US10657328B2 (en) 2017-06-02 2020-05-19 Apple Inc. Multi-task recurrent neural network architecture for efficient morphology handling in neural language modeling
DE102017213005A1 (de) 2017-07-27 2019-01-31 Audi Ag Verfahren zum Darstellen eines Anzeigeinhalts
US10445429B2 (en) 2017-09-21 2019-10-15 Apple Inc. Natural language understanding using vocabularies with compressed serialized tries
US10755051B2 (en) 2017-09-29 2020-08-25 Apple Inc. Rule-based natural language processing
CN109669529A (zh) * 2017-10-16 2019-04-23 上汽通用汽车有限公司 车载人机交互系统
US20190147858A1 (en) * 2017-11-16 2019-05-16 Honeywell International Inc. Methods, systems and apparatuses for improving speech recognition using touch-based predictive modeling
US10636424B2 (en) 2017-11-30 2020-04-28 Apple Inc. Multi-turn canned dialog
CN107963039A (zh) * 2017-12-04 2018-04-27 信利光电股份有限公司 一种机动车的操控系统、方法及机动车
CN108172222B (zh) * 2017-12-08 2020-11-20 石化盈科信息技术有限责任公司 一种工作台语音控制审批方法和系统
DE102017011498B4 (de) 2017-12-13 2022-08-18 Mercedes-Benz Group AG Verfahren zum Betreiben eines Assistenzsystems und ein Assistenzsystem für einen Kraftwagen
KR102135376B1 (ko) * 2018-01-05 2020-07-17 엘지전자 주식회사 입출력 장치 및 그것을 포함하는 차량
US10733982B2 (en) 2018-01-08 2020-08-04 Apple Inc. Multi-directional dialog
US10733375B2 (en) 2018-01-31 2020-08-04 Apple Inc. Knowledge-based framework for improving natural language understanding
US10789959B2 (en) 2018-03-02 2020-09-29 Apple Inc. Training speaker recognition models for digital assistants
US10592604B2 (en) 2018-03-12 2020-03-17 Apple Inc. Inverse text normalization for automatic speech recognition
US10818288B2 (en) 2018-03-26 2020-10-27 Apple Inc. Natural assistant interaction
US10909331B2 (en) 2018-03-30 2021-02-02 Apple Inc. Implicit identification of translation payload with neural machine translation
US11145294B2 (en) 2018-05-07 2021-10-12 Apple Inc. Intelligent automated assistant for delivering content from user experiences
US10928918B2 (en) 2018-05-07 2021-02-23 Apple Inc. Raise to speak
EP3586332A1 (en) * 2018-05-07 2020-01-01 Google LLC. Multi-modal interaction between users, automated assistants, and other computing services
US11347801B2 (en) 2018-05-07 2022-05-31 Google Llc Multi-modal interaction between users, automated assistants, and other computing services
US11200893B2 (en) * 2018-05-07 2021-12-14 Google Llc Multi-modal interaction between users, automated assistants, and other computing services
US10984780B2 (en) 2018-05-21 2021-04-20 Apple Inc. Global semantic word embeddings using bi-directional recurrent neural networks
DK179822B1 (da) 2018-06-01 2019-07-12 Apple Inc. Voice interaction at a primary device to access call functionality of a companion device
US11386266B2 (en) 2018-06-01 2022-07-12 Apple Inc. Text correction
DK201870355A1 (en) 2018-06-01 2019-12-16 Apple Inc. VIRTUAL ASSISTANT OPERATION IN MULTI-DEVICE ENVIRONMENTS
DK180639B1 (en) 2018-06-01 2021-11-04 Apple Inc DISABILITY OF ATTENTION-ATTENTIVE VIRTUAL ASSISTANT
US10892996B2 (en) 2018-06-01 2021-01-12 Apple Inc. Variable latency device coordination
US10504518B1 (en) 2018-06-03 2019-12-10 Apple Inc. Accelerated task performance
JP2019214344A (ja) * 2018-06-14 2019-12-19 本田技研工業株式会社 車両用操作システム
JP7243087B2 (ja) * 2018-09-04 2023-03-22 トヨタ自動車株式会社 情報処理装置、情報処理方法およびプログラム
DE102018215293A1 (de) * 2018-09-07 2020-03-12 Bayerische Motoren Werke Aktiengesellschaft Multimodale Kommunikation mit einem Fahrzeug
US11010561B2 (en) 2018-09-27 2021-05-18 Apple Inc. Sentiment prediction from textual data
US11170166B2 (en) 2018-09-28 2021-11-09 Apple Inc. Neural typographical error modeling via generative adversarial networks
US10839159B2 (en) 2018-09-28 2020-11-17 Apple Inc. Named entity normalization in a spoken dialog system
US11462215B2 (en) 2018-09-28 2022-10-04 Apple Inc. Multi-modal inputs for voice commands
US11475898B2 (en) 2018-10-26 2022-10-18 Apple Inc. Low-latency multi-speaker speech recognition
CN111124236B (zh) * 2018-10-30 2023-04-28 斑马智行网络(香港)有限公司 一种数据处理方法、装置和机器可读介质
US10908883B2 (en) * 2018-11-13 2021-02-02 Adobe Inc. Voice interaction development tool
US10847156B2 (en) 2018-11-28 2020-11-24 Adobe Inc. Assembled voice interaction
US11137905B2 (en) 2018-12-03 2021-10-05 Microsoft Technology Licensing, Llc Modeless augmentations to a virtual trackpad on a multiple screen computing device
US11199901B2 (en) 2018-12-03 2021-12-14 Microsoft Technology Licensing, Llc Augmenting the functionality of non-digital objects using a digital glove
KR20200071841A (ko) * 2018-12-03 2020-06-22 현대자동차주식회사 차량용 음성명령어 처리 장치 및 그 방법
US11294463B2 (en) * 2018-12-03 2022-04-05 Microsoft Technology Licensing, Llc Augmenting the functionality of user input devices using a digital glove
US11314409B2 (en) 2018-12-03 2022-04-26 Microsoft Technology Licensing, Llc Modeless augmentations to a virtual trackpad on a multiple screen computing device
CN109410944B (zh) * 2018-12-12 2020-06-09 百度在线网络技术(北京)有限公司 语音交互方法、装置和终端
DE102018132794A1 (de) * 2018-12-19 2020-06-25 Patty's Gmbh Verfahren zur Eingabe von Befehlen für eine elektronische Einrichtung
US11638059B2 (en) 2019-01-04 2023-04-25 Apple Inc. Content playback on multiple devices
US11017771B2 (en) 2019-01-18 2021-05-25 Adobe Inc. Voice command matching during testing of voice-assisted application prototypes for languages with non-phonetic alphabets
US10964322B2 (en) 2019-01-23 2021-03-30 Adobe Inc. Voice interaction tool for voice-assisted application prototypes
US11348573B2 (en) 2019-03-18 2022-05-31 Apple Inc. Multimodality in digital assistant systems
CN109947256A (zh) * 2019-03-27 2019-06-28 思特沃克软件技术(北京)有限公司 一种减少驾驶员注视触摸屏时间的方法和车载触摸屏
DE102019205097A1 (de) 2019-04-09 2020-10-15 Volkswagen Aktiengesellschaft Verfahren zur Inszenierung eines Bedienmodalitätenwechsels eines Fahrzeugs, System zur Inszenierung eines Bedienmodalitätenwechsels eines Fahrzeugs
US11475884B2 (en) 2019-05-06 2022-10-18 Apple Inc. Reducing digital assistant latency when a language is incorrectly determined
US11307752B2 (en) 2019-05-06 2022-04-19 Apple Inc. User configurable task triggers
US11423908B2 (en) 2019-05-06 2022-08-23 Apple Inc. Interpreting spoken requests
DK201970509A1 (en) 2019-05-06 2021-01-15 Apple Inc Spoken notifications
US11140099B2 (en) 2019-05-21 2021-10-05 Apple Inc. Providing message response suggestions
DK201970511A1 (en) 2019-05-31 2021-02-15 Apple Inc Voice identification in digital assistant systems
US11289073B2 (en) 2019-05-31 2022-03-29 Apple Inc. Device text to speech
DK180129B1 (en) 2019-05-31 2020-06-02 Apple Inc. USER ACTIVITY SHORTCUT SUGGESTIONS
US11496600B2 (en) 2019-05-31 2022-11-08 Apple Inc. Remote execution of machine-learned models
US11360641B2 (en) 2019-06-01 2022-06-14 Apple Inc. Increasing the relevance of new available information
DE102019210010A1 (de) * 2019-07-08 2021-01-14 Volkswagen Aktiengesellschaft Verfahren und Bediensystem zum Erfassen einer Nutzereingabe für eine Einrichtung eines Fahrzeugs
DE102019210008A1 (de) * 2019-07-08 2021-01-14 Volkswagen Aktiengesellschaft Verfahren zum Betreiben eines Bediensystems und Bediensystem
JP2021033746A (ja) * 2019-08-27 2021-03-01 アルパイン株式会社 サービス提供装置、サービス提供システム、及びサービス提供方法
US11488406B2 (en) 2019-09-25 2022-11-01 Apple Inc. Text detection using global geometry estimators
CN112788422A (zh) * 2019-11-04 2021-05-11 海信视像科技股份有限公司 显示设备
US11295088B2 (en) 2019-11-20 2022-04-05 Apple Inc. Sanitizing word predictions
DE102020202284A1 (de) 2020-02-21 2021-08-26 Robert Bosch Gesellschaft mit beschränkter Haftung Verfahren zum Trainieren und/oder Optimieren eines Insassenüberwachungssystems
US11038934B1 (en) 2020-05-11 2021-06-15 Apple Inc. Digital assistant hardware abstraction
US11381676B2 (en) * 2020-06-30 2022-07-05 Qualcomm Incorporated Quick launcher user interface
CN111816189B (zh) * 2020-07-03 2023-12-26 斑马网络技术有限公司 一种车辆用多音区语音交互方法及电子设备
DE102020122795A1 (de) 2020-09-01 2022-03-03 Bayerische Motoren Werke Aktiengesellschaft Bedienung von Funktionen eines Fahrzeugs
CN113370897A (zh) * 2021-06-28 2021-09-10 北京小鹏汽车有限公司 一种车辆地图显示控制方法和装置

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20010011995A1 (en) * 1998-09-14 2001-08-09 Kenneth Hinckley Method for providing feedback responsive to sensing a physical presence proximate to a control of an electronic device
US20050192810A1 (en) * 2004-01-19 2005-09-01 Lars Konig Key activation system
JP2007164814A (ja) * 2007-02-09 2007-06-28 Toshiba Corp インタフェース装置

Family Cites Families (35)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3267047B2 (ja) 1994-04-25 2002-03-18 株式会社日立製作所 音声による情報処理装置
US5857172A (en) * 1995-07-31 1999-01-05 Microsoft Corporation Activation control of a speech recognizer through use of a pointing device
DE19715325A1 (de) 1997-04-12 1998-10-15 Bayerische Motoren Werke Ag Anzeige- und Bedienvorrichtung für Menüs und/oder Funktionen eines Fahrzeugs
JPH11249692A (ja) * 1998-02-27 1999-09-17 Nec Saitama Ltd 音声認識装置
US7720682B2 (en) * 1998-12-04 2010-05-18 Tegic Communications, Inc. Method and apparatus utilizing voice input to resolve ambiguous manually entered text input
US6243683B1 (en) * 1998-12-29 2001-06-05 Intel Corporation Video control of speech recognition
JP2001331195A (ja) * 2000-05-19 2001-11-30 Sony Corp 車載機器、カーナビゲーションシステムおよびモニタ装置
DE10030369A1 (de) * 2000-06-21 2002-01-03 Volkswagen Ag Spracherkennungssystem
EP1195673B1 (de) * 2000-10-04 2007-05-09 Siemens Aktiengesellschaft Kraftfahrzeug-Multimediasystem mit animierter Anzeigefunktion
DE10105898A1 (de) * 2001-02-09 2002-08-14 Bosch Gmbh Robert Verfahren zum Übergeben von Zielführungselementen, Fahrzeugnavigationsgerät und Zentrale
US6804396B2 (en) * 2001-03-28 2004-10-12 Honda Giken Kogyo Kabushiki Kaisha Gesture recognition system
CA2397451A1 (en) * 2001-08-15 2003-02-15 At&T Corp. Systems and methods for classifying and representing gestural inputs
US7324947B2 (en) * 2001-10-03 2008-01-29 Promptu Systems Corporation Global speech user interface
WO2003078930A1 (fr) * 2002-03-15 2003-09-25 Mitsubishi Denki Kabushiki Kaisha Dispositif de navigation a bord d'un vehicule
US20040034455A1 (en) * 2002-08-15 2004-02-19 Craig Simonds Vehicle system and method of communicating between host platform and human machine interface
US20050196784A1 (en) 2002-11-01 2005-09-08 Decode Genetics Ehf. Human Type II diabetes gene - Kv channel-interacting protein (KChIP1) located on chromosome 5
US20070293183A1 (en) * 2002-12-11 2007-12-20 Ira Marlowe Multimedia device integration system
US7249025B2 (en) * 2003-05-09 2007-07-24 Matsushita Electric Industrial Co., Ltd. Portable device for enhanced security and accessibility
US20050137877A1 (en) * 2003-12-17 2005-06-23 General Motors Corporation Method and system for enabling a device function of a vehicle
US20050197843A1 (en) * 2004-03-07 2005-09-08 International Business Machines Corporation Multimodal aggregating unit
KR100679042B1 (ko) * 2004-10-27 2007-02-06 삼성전자주식회사 음성인식 방법 및 장치, 이를 이용한 네비게이션 시스템
DE102005042694A1 (de) 2004-12-30 2006-07-20 Volkswagen Ag Navigationssystem für ein Kraftfahrzeug
DE102006037156A1 (de) 2006-03-22 2007-09-27 Volkswagen Ag Interaktive Bedienvorrichtung und Verfahren zum Betreiben der interaktiven Bedienvorrichtung
CN101055193A (zh) * 2006-04-12 2007-10-17 株式会社日立制作所 车载装置的非接触输入操作装置
DE102006028046B4 (de) 2006-06-19 2016-02-11 Audi Ag Kombinierte Anzeige- und Bedienvorrichtung für ein Kraftfahrzeug
US8354997B2 (en) * 2006-10-31 2013-01-15 Navisense Touchless user interface for a mobile device
US20080154608A1 (en) * 2006-12-26 2008-06-26 Voice Signal Technologies, Inc. On a mobile device tracking use of search results delivered to the mobile device
DE102007044792B4 (de) * 2007-09-19 2012-12-13 Siemens Ag Verfahren, Steuergerät und System zur Steuerung oder Bedienung
DE102008051757A1 (de) 2007-11-12 2009-05-14 Volkswagen Ag Multimodale Benutzerschnittstelle eines Fahrerassistenzsystems zur Eingabe und Präsentation von Informationen
US8140335B2 (en) * 2007-12-11 2012-03-20 Voicebox Technologies, Inc. System and method for providing a natural language voice user interface in an integrated voice navigation services environment
US8370755B2 (en) * 2007-12-27 2013-02-05 Core Wireless Licensing S.A.R.L. User interface controlled by environmental cues
US8121586B2 (en) * 2008-09-16 2012-02-21 Yellowpages.Com Llc Systems and methods for voice based search
US8402533B2 (en) * 2010-08-06 2013-03-19 Google Inc. Input to locked computing device
US8863042B2 (en) * 2012-01-24 2014-10-14 Charles J. Kulas Handheld device with touch controls that reconfigure in response to the way a user operates the device
US8744645B1 (en) * 2013-02-26 2014-06-03 Honda Motor Co., Ltd. System and method for incorporating gesture and voice recognition into a single system

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20010011995A1 (en) * 1998-09-14 2001-08-09 Kenneth Hinckley Method for providing feedback responsive to sensing a physical presence proximate to a control of an electronic device
US20050192810A1 (en) * 2004-01-19 2005-09-01 Lars Konig Key activation system
JP2007164814A (ja) * 2007-02-09 2007-06-28 Toshiba Corp インタフェース装置

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20150068957A (ko) * 2012-10-12 2015-06-22 마이크로소프트 테크놀로지 라이센싱, 엘엘씨 애플리케이션과의 상호작용으로서의 다모드 사용자 표현 및 사용자 인텐서티 검출 기법
KR20150146091A (ko) * 2014-06-20 2015-12-31 엘지전자 주식회사 이동단말기 및 그 제어방법
US9880809B2 (en) 2014-06-20 2018-01-30 Lg Electronics Inc. Mobile terminal and method for controlling the same
CN111169408A (zh) * 2019-12-19 2020-05-19 苏州禾昆智能科技有限公司 一种车内中控基于卡片的主副驾协助系统及其方法
WO2023128104A1 (ko) * 2021-12-31 2023-07-06 주식회사 씨케이머티리얼즈랩 촉각 키보드 및 촉각 입력 장치
KR20230103812A (ko) * 2021-12-31 2023-07-07 주식회사 씨케이머티리얼즈랩 촉각 키보드 및 촉각 입력 장치

Also Published As

Publication number Publication date
WO2009062677A3 (de) 2009-07-09
US20110022393A1 (en) 2011-01-27
DE102008051756A1 (de) 2009-05-14
KR101647848B1 (ko) 2016-08-11
WO2009062677A2 (de) 2009-05-22
US9103691B2 (en) 2015-08-11
DE102008051757A1 (de) 2009-05-14
CN101855521B (zh) 2014-12-10
EP2223046A2 (de) 2010-09-01
EP2223046B1 (de) 2015-08-12
CN101855521A (zh) 2010-10-06

Similar Documents

Publication Publication Date Title
KR101647848B1 (ko) 정보 입력 및 표시를 위한 운전자 보조 시스템의 멀티모드 사용자 인터페이스
JP6554150B2 (ja) スクロールバー上での直交ドラッギング
US20140267035A1 (en) Multimodal User Interface Design
KR101613407B1 (ko) 지원 기능을 갖춘 차량 시스템 및 차량 시스템 작동 방법
CN105283356B (zh) 应用程序控制方法以及信息终端
US20180341330A1 (en) Interaction and management of devices using gaze detection
US8532871B2 (en) Multi-modal vehicle operating device
EP3120344B1 (en) Visual indication of a recognized voice-initiated action
CN104204729B (zh) 用户终端装置及其控制方法
US9261908B2 (en) System and method for transitioning between operational modes of an in-vehicle device using gestures
TWI506619B (zh) 用於情境式語音命令的方法、裝置及非過渡電腦可讀媒體
JP5463922B2 (ja) 車載機
JP2013143151A (ja) 音声認識を使用してユーザ機能を行う方法及び装置
JP5770770B2 (ja) 入力装置
JP6466887B2 (ja) 情報端末用プログラム及び情報端末
US20220258606A1 (en) Method and operating system for detecting a user input for a device of a vehicle
JPWO2012025957A1 (ja) ナビゲーション装置
JP2014065359A (ja) 表示制御装置、表示システム及び表示制御方法
EP4350484A1 (en) Interface control method, device, and system
JP2005208798A (ja) 情報提供端末、および情報提供方法
CN114040857A (zh) 用于运行车辆中的操作系统的方法和车辆中的操作系统
JP7323050B2 (ja) 表示制御装置及び表示制御方法
JP2008233009A (ja) カーナビゲーション装置及びカーナビゲーション装置用プログラム
WO2014103355A1 (ja) 情報処理装置、情報処理方法及びプログラム
JP2004325237A (ja) 車両用ナビゲーション装置

Legal Events

Date Code Title Description
A201 Request for examination
AMND Amendment
E902 Notification of reason for refusal
AMND Amendment
E90F Notification of reason for final refusal
AMND Amendment
E601 Decision to refuse application
J201 Request for trial against refusal decision
AMND Amendment
B701 Decision to grant
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20190806

Year of fee payment: 4