KR20100076998A - 정보 입력 및 표시를 위한 운전자 보조 시스템의 멀티모달 사용자 인터페이스 - Google Patents
정보 입력 및 표시를 위한 운전자 보조 시스템의 멀티모달 사용자 인터페이스 Download PDFInfo
- Publication number
- KR20100076998A KR20100076998A KR1020107009294A KR20107009294A KR20100076998A KR 20100076998 A KR20100076998 A KR 20100076998A KR 1020107009294 A KR1020107009294 A KR 1020107009294A KR 20107009294 A KR20107009294 A KR 20107009294A KR 20100076998 A KR20100076998 A KR 20100076998A
- Authority
- KR
- South Korea
- Prior art keywords
- display
- manipulation
- input
- voice
- information
- Prior art date
Links
- 238000000034 method Methods 0.000 claims abstract description 76
- 230000003993 interaction Effects 0.000 claims abstract description 60
- 230000004913 activation Effects 0.000 claims abstract description 25
- 230000006978 adaptation Effects 0.000 claims abstract description 25
- 230000009471 action Effects 0.000 claims description 54
- 230000006870 function Effects 0.000 claims description 32
- 238000004891 communication Methods 0.000 claims description 16
- 238000001514 detection method Methods 0.000 claims description 10
- 230000003213 activating effect Effects 0.000 claims description 7
- 238000003825 pressing Methods 0.000 claims description 7
- 230000001976 improved effect Effects 0.000 claims description 6
- 238000005457 optimization Methods 0.000 claims description 6
- 238000012937 correction Methods 0.000 claims description 5
- 230000009849 deactivation Effects 0.000 claims description 5
- 238000011156 evaluation Methods 0.000 claims description 4
- 230000011664 signaling Effects 0.000 claims description 4
- 230000008859 change Effects 0.000 claims 1
- 230000035807 sensation Effects 0.000 claims 1
- 230000000977 initiatory effect Effects 0.000 abstract description 6
- 230000006399 behavior Effects 0.000 description 25
- 238000010586 diagram Methods 0.000 description 12
- 230000008569 process Effects 0.000 description 12
- 238000013459 approach Methods 0.000 description 7
- 230000003044 adaptive effect Effects 0.000 description 3
- 241000282412 Homo Species 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 238000012790 confirmation Methods 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000005562 fading Methods 0.000 description 1
- 230000005057 finger movement Effects 0.000 description 1
- 230000004927 fusion Effects 0.000 description 1
- 230000001939 inductive effect Effects 0.000 description 1
- 238000004091 panning Methods 0.000 description 1
- 230000002688 persistence Effects 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 238000002407 reforming Methods 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 230000000717 retained effect Effects 0.000 description 1
- 230000009834 selective interaction Effects 0.000 description 1
- 230000015541 sensory perception of touch Effects 0.000 description 1
- 230000007480 spreading Effects 0.000 description 1
- 238000003892 spreading Methods 0.000 description 1
- 230000008093 supporting effect Effects 0.000 description 1
- 230000002195 synergetic effect Effects 0.000 description 1
- 230000008685 targeting Effects 0.000 description 1
- 230000002123 temporal effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/26—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
- G01C21/34—Route searching; Route guidance
- G01C21/36—Input/output arrangements for on-board computers
- G01C21/3664—Details of the user input interface, e.g. buttons, knobs or sliders, including those provided on a touch screen; remote controllers; input using gestures
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/26—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
- G01C21/34—Route searching; Route guidance
- G01C21/36—Input/output arrangements for on-board computers
- G01C21/3605—Destination input or retrieval
- G01C21/3608—Destination input or retrieval using speech input, e.g. using speech recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/033—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
- G06F3/038—Control and interface arrangements therefor, e.g. drivers or device-embedded control circuitry
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/041—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
- G06F3/044—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by capacitive means
- G06F3/0447—Position sensing using the local deformation of sensor cells
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2203/00—Indexing scheme relating to G06F3/00 - G06F3/048
- G06F2203/038—Indexing scheme relating to G06F3/038
- G06F2203/0381—Multimodal input, i.e. interface arrangements enabling the user to issue commands by simultaneous use of input devices of different nature, e.g. voice plus gesture on digitizer
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Radar, Positioning & Navigation (AREA)
- General Engineering & Computer Science (AREA)
- Human Computer Interaction (AREA)
- Theoretical Computer Science (AREA)
- Remote Sensing (AREA)
- General Physics & Mathematics (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Acoustics & Sound (AREA)
- Health & Medical Sciences (AREA)
- Automation & Control Theory (AREA)
- Artificial Intelligence (AREA)
- General Health & Medical Sciences (AREA)
- Computational Linguistics (AREA)
- Multimedia (AREA)
- User Interface Of Digital Computer (AREA)
- Navigation (AREA)
- Fittings On The Vehicle Exterior For Carrying Loads, And Devices For Holding Or Mounting Articles (AREA)
Abstract
본 발명은 적어도 하나의 조작 장치를 통해 음성 인식기에 공급되는 상이한 모덜리티의 입력 신호들을 검출하고, 그럼으로써 원하는 기능 및/또는 표시를 출력 신호로서 발생시켜 표시 및 조작 장치상에 표시하고/표시하거나 음성 출력에 의해 출력하는, 자동차에서 표시 및 조작 장치의 멀티모달 정보 입력 및/또는 표시의 적응을 위한 방법에 관한 것이다. 본 발명에 따른 방법에서는, 표시 및 조작 장치(20, 60) 상에서의 또는 표시 및 조작 장치(20, 60) 곁에서의 촉각에 의한 및/또는 제스처에 의한 입력 신호들(M1, M2)에 의해 상호 작용에 제공되는 대상을 선택하고 음성 인식기를 활성화하며, 대상의 선택 및 음성 인식기의 활성화에 따라 선택된 대상에 의존하여 상호 작용에 제공되는 어휘 범위를 한정하고, 그에 따라 선택된 대상에 속한 한정된 어휘 범위의 음성 명령(M3)을 음성 인식기를 통해 정보 입력으로서 및/또는 표시의 적응을 위해 선택된 대상에 부가하는 조치를 취한다.
Description
본 발명은 특히 자동차의 운전자 보조 시스템의 멀티모달(multimodal) 정보 입력 및 정보 표시의 적응(adaptation)을 위한 방법 및 그 방법을 수행하기 위해 제공되는 시스템 구조에 관한 것이다.
운전자 정보 시스템들 및 운전자 보조 시스템들의 기능 범위가 부단히 증가하고 있음을 고려할 때, 앞으로 인간-기계 인터페이스(man-machine-interface)(MMI)는 그 어느 때보다도 더 조작 과정의 지속 시간 및 복잡성(체감 복잡성)을 줄이는데 주력해야만 한다.
향후의 인간-기계 인터페이스들(MMI's)은 점증하고 있는 다수의 운전자 정보 기능들 및 운전자 보조 기능들을 사용자가 공감할 수 있고 조작할 수 있게 통합하는 동시에, 개개의 조작 과정들의 복잡성(체감 복잡성) 및 지속 시간을 줄일 수 있어야 한다.
그를 위해, 협동적 멀티모달 인터페이스(synergistic multimodal interface)들이 정보 입력의 최적화에 중요한 몫을 할 수 있다. 그러한 인터페이스들은 기본적으로 "Nigay , L and Coutaz , J. (1993). A design space for multimodal systems : concurrent processing and data fusion . In CHI '93: Proceedings of the SIGHI conference on Human factors in computing systems , pages 172-178, New York , NY , USA . ACM Press"에 이미 개시되어 있다.
현재, 차량에서는 이미 멀티모달 입력들이 가능하다 - 사용자는 기능의 조작을 위해 다수의 택일적 통신 모드들(예컨대, 음성 또는 손에 의한 입력) 가운데서 선택을 할 수 있다. 협동적 또는 교호적 멀티모덜리티(multimodality)는 효율과 편의성의 증대를 가능케 하는데, 왜냐하면 다수의 모드들을 통해 이뤄지는 입력들이 상호 연관되어 해석되기 때문이다. 그것은 "자연스러운" 소통(인간-기계 소통에 의존하는)에 기여한다.
정보 내용 및 컨트롤 패널들을 표시하는 영역에서는, 실제 사용 상황의 다양한 파라미터들(특히, 사용자의 조작 의사 및 조작 타깃)을 검출하여 그로부터 컨트롤 패널을 적응시키기 위한 상황에 적절한 조치들을 유도해내는 상황 적응형 사용자 인터페이스들이 큰 잠재성을 내재하고 있다.
그러한 시스템들은 사용자의 행동을 인지하고 사용자 관심을 모델화하여 사용자 요구 및 사용자 액션을 예측한다.
그에 대해, "차량"이란 기술 시스템과 그 특수한 사용 상황은 다른 많은 적용 분야들과는 달리 좋은 기술적 전제 조건을 제공한다. 다른 시스템들과 비교할 때에, 차량에서는 명확히 정의되는 소수의 소통 방안들이 존재하고, 그로 인해 시스템 측에서 조작 타깃을 예측하는 것이 더 잘 이뤄질 수 있다.
본 발명의 과제는 인간과 기계 사이의 소통 방안들과 관련하여 종래의 소통 모델들을 한층더 개선하고, 그를 위해 인간-기계 인터페이스의 신속하고도 직관적인 조작을 구현하는 소통 방안 제공 방법 및 그에 필요한 시스템을 제공하는 것이다.
이하의 설명은 멀티모달 입력 및 정보 표시의 적응을 위한 방법과 적응형 멀티모달 사용자 인터페이스를 위한 시스템 구조를 설명하고 있다. 그러한 방법 및 시스템은 향후의 자동차 시스템의 조작을 단순화시킬 것이다.
협동적 멀티모달 정보 입력 및 정보 표시의 자동적인 적응을 통해, 사용 상황들이 각각 용이하고도 포괄적으로 파악될 수 있다.
상호 작용 기술들의 전형적인 적용례들을 예시적으로 메뉴에 의거하여 설명하기로 한다. 그러한 적용례들에 속하는 것으로는 예컨대
- 이동, 줌(zoom), 스크롤, 온/오프와 같은 모니터의 조작 기능들의 지정이나 모니터상에서의 원하는 조작 기능의 지정 또는
- 가장 높은 상위 선택 메뉴 내에서의 메뉴 선택 기능들 또는
- 선택된 "음악 선곡 메뉴" 내에서의 음악 선곡 기능들 또는
- 선택된 "경로 설정 메뉴" 내에서의 경로 설정 기능들 또는
- 선택된 "통신 메뉴" 내에서의 통신 기능들(예컨대, 전화, 인터넷) 또는
- "POI(Point of Interest) 선택 메뉴" 내에서의 POI 선택 기능들 또는
- 경로 설정 기능들 및/또는
- 통신 기능들 및/또는
- 내비게이션 맵에 의해 제공되는 "내비게이션 맵 메뉴" 내에서의 POI 선택 기능들이 있다.
또한, 적응형 멀티모달 사용자 인터페이스를 위한 시스템 구조가 설명될 것이다. 그러한 시스템 구조는 오늘날 찾아볼 수 있는 일련의 입력 방안들을 능가하는 멀티모달 입력 방안들을 허용한다. 특히, 그 시스템 구조는 입력 신호들을 별개로 평가하는 시스템 모듈들을 포함한다.
본 발명은 멀티모달 정보들을 입력할 수 있되, 정보 입력에 따라 해당 정보 표시를 적응시키는 방법으로부터 출발한다. 자동차에 있어서, 그러한 방법은 특히 운전자 보조 시스템에 대해 그 가치를 지닌다. 지금까지는 대부분 상이한 모덜리티의 입력 신호들을 검출하여 검출 장치에 공급하였다. 표시 및 조작 요소, 예컨대 조작 요소들이 부속된 종래의 디스플레이 또는 터치 디스플레이가 상이한 모덜리티의 입력 신호들을 수집하는 입력 장치로서의 역할을 하는데, 그러한 표시 및 조작 요소는 대개 그밖에 필요로 하는 또 다른 조작 요소들을 추가로 구비한다. 그럼으로써, 조작 요소들의 조작 및/또는 터치 디스플레이/터치스크린의 접촉에 의해 일정한 정보 입력이 가능케 되거나 정보 표시의 적응이 이뤄질 수 있게 된다.
또한, 대개 제스처(gesture)에 의해 정해지는 조작 행동들이 입력 신호들로서 사용될 수 있는데, 그것은 입력 신호들의 그러한 무접촉 검출을 가능케 하는 용량형으로 배열된 센서 시스템을 배치함으로써 이뤄진다.
그러한 모덜리티, 즉 조작 요소들에서의 간단한 촉각에 의한(haptic) 조작 행동 및/또는 촉각에 의한 "터치 조작 행동" 및/또는 제스처에 의한 "제스처 조작 행동"은 음성 인식을 위한 음성 인식기와 조합된다.
본 발명은 자동차에서 표시 및 조작 장치의 멀티모달 정보 입력 및/또는 표시의 적응을 위한 방법으로서, 적어도 하나의 조작 장치를 통해 음성 인식기에 공급되는 상이한 모덜리티의 입력 신호들을 검출하고, 그럼으로써 원하는 기능 및/또는 표시를 출력 신호로서 발생시켜 표시 및 조작 장치상에 표시하고/표시하거나 음성 출력에 의해 출력하는 방법으로부터 출발한다.
본 발명은 표시 및 조작 장치상에서의 또는 표시 및 조작 장치 곁에서의 촉각에 의한 및/또는 제스처에 의한 입력 신호들이 상호 작용에 제공되는 대상의 선택 및 음성 인식기의 활성화를 일으키게 하고, 대상의 선택 및 음성 인식기의 활성화에 따라 선택된 대상에 의존하여 상호 작용에 제공되는 어휘 범위를 한정하며, 그에 따라 선택된 대상에 속한 한정된 어휘 범위의 음성 명령을 음성 인식기를 통해 정보 입력으로서 및/또는 표시의 적응을 위해 선택된 대상에 부가하는 것을 그 특징으로 한다.
본 발명에 따른 방법의 제1 실시 양태에서는, 예컨대 검출 모듈의 조작 요소들의 회전, 누름, 접촉, 및/또는 단속과 같은 표시 및 조작 요소에서의 사용자의 촉각에 의한 조작 행동의 형태의 제1 모덜리티를 입력 신호들을 검출하는데 사용하는 것이 바람직하다.
제2 실시 양태에서는, 사용자의 이동들의 형태의 제스처에 의한 조작 행동(손짓)을 인식하는 제2 모덜리티를 입력 신호들을 검출하는데 사용한다.
음성 인식, 즉 사용자의 음성을 제1 및/또는 제2 모덜리티와 조합하여 제3 모덜리티로서 본 발명에 따른 방법을 수행하는데 사용한다.
본 발명에 따르면, 입력 신호들을 검출하는데 사용되는 양 실시 양태들을 음성 인식기를 활성화하는데에도 사용한다.
본 발명에 따르면, 음성 대화 시스템의 음성 인식기를 예컨대 "길게 누름" 접촉 및/또는 "더블 클릭" 접촉 및/또는 "드래그 동작" 및/또는 "2 손가락 터치"와 같은 촉각에 의한 조작 행동에 의해 활성화하는 조치를 취한다.
또한, 본 발명에 따르면, 검출 모듈에서 "일반적" 제스처에 의한 조작 행동을 인식한 시점에 이미 음성 대화 시스템의 음성 인식기를 자동으로 활성화하는 조치를 취한다.
본 발명에 따른 그러한 방안들에 의해, 선행 기술로부터 음성 인식기를 활성화하는 것으로 공지된 종래의 "푸시-투-토크(push-to-talk)" 푸시버튼이 생략되게 된다.
또 다른 바람직한 구성에서는, 촉각에 의한 및/또는 제스처에 의한 음성 인식기의 활성화와는 무관하게 음성 인식기가 활성화 후 미리 주어질 수 있는 일정 시간 동안 활성 상태로 있게 하는데, 그러면 그 미리 주어진 시간 내에서만 사용자가 음성 명령을 부가할 수 있다.
부가되는 음성 명령은 싱글워드(single-word) 어휘 또는 멀티워드(multi-word) 어휘인 것이 바람직하다.
제스처에 의한 및/또는 촉각에 의한 입력 신호들과 음성 입력의 상호 작용의 제1 실시 형태에서는, 출력 모듈에서 출력 신호 및 그에 수반하는 표시 대상의 변경된 기능 및 표시를 생성하는 간단하고도 직관적인 멀티모달 조작을 발생시키기 위해 소위 "표시 대상/음성-상호 작용"으로 미리 주어진 어휘 범위로부터 싱글워드 어휘 또는 멀티워드 어휘의 형태의 음성 명령(전적으로 하나의 동사 및/또는 여러 동사들만을 사용하는)을 각각의 조작 행동에 의해 선택된 대상에 부가한다.
제스처에 의한 및/또는 촉각에 의한 입력 신호들과 음성 입력의 상호 작용의 제2 실시 형태에서는, 마찬가지로 표시 및 조작 요소에서 출력 신호 및 그에 수반하는 대상의 변경된 기능 및/또는 표시를 생성하는 간단하고도 직관적인 멀티모달 조작을 발생시키기 위해 소위 "표시 대상-상황/음성-상호 작용"으로 미리 주어진 "상황 특정" 어휘 범위로부터 싱글워드 어휘 또는 멀티워드 어휘의 형태의 "상황 관련" 음성 명령을 각각의 조작 행동에 의해 선택된 대상에 부가한다.
음성 대화 시스템의 음성 인식기를 그 활성화 후 사용자가 그 이내에 음성 명령을 부가할 수 있는 미리 주어질 수 있는 일정 시간 동안만 활성 상태로 있게 하되, 음성 인식기의 활성화 또는 비활성화를 그에 제공되는 표시 및 조작 요소 그 자체의 영역(상호 작용 대상으로부터 떨어진)에서 그래픽 표시("그래픽 피드백")를 통해 수행하는 조치를 취하는 것이 바람직하다.
양 실시 형태들에서의 바람직한 구성에서는, 음성 인식기에 의한 각각의 음성 명령의 인식 직후 미리 주어질 수 있는 일정 시간 동안 각각의 음성 명령 그 자체를 표시 및 조작 요소 상에서 글자의 형태로 보여주는 것이 바람직하다.
음성 인식기의 활성화를 표시 및 조작 요소의 그래픽 표시 및/또는 표시 및 조작 요소의 음향 신호를 통해 시그널링하는 것도 역시 양 실시 형태들에 있어 바람직한데, 음성 인식기의 활성화 후 음성 명령의 입력을 위한 미리 주어질 수 있는 잔여 시간을 표시하는 것이 더욱 바람직하다.
끝으로, 양 실시 형태들에 있어서, 상호 작용에 제공되는 정해진 표시 대상에 맞지 않는 음성 명령이 입력될 경우에 그래픽 메시지 및/또는 음향 메시지를 발생시켜 표시 및 조작 요소를 통해 또는 음성 대화 시스템의 음성 출력기를 통해 출력하는 조치를 취한다.
또한, 양 실시 형태들에 있어서, 음성 대화 시스템의 음성 인식기를 그 활성화 후 사용자가 그 이내에 음성 명령을 부가할 수 있는 미리 주어질 수 있는 일정 시간 동안만 활성 상태로 있게 하되, 음성 인식기의 활성화 또는 비활성화를 상호 작용 대상으로부터 떨어져 표시 및 조작 요소에서 그래픽 표시("그래픽 피드백")를 통해 수행하는 것이 아니라, 상호 작용에 제공되는 대상 그 자체에서 수행하는 조치를 취하는 것도 역시 바람직하다. 음성 인식기의 상태가 상이하게 표시될 수 있는 그러한 조치를 실시예에서 더욱 상세히 설명하기로 한다.
또한, 선행 연결된 정보 관리자(information manager)로부터 얻은 여러 모덜리티의 입력 신호들에 의존하여 표시 및 조작 요소에서의 출력의 타입 및 적절한 표시 방법을 결정하는 표시 관리자를 본 발명에 따른 방법을 지원하는 시스템 구조 내에 구성하는 것이 바람직하다.
본 발명의 또 다른 구성에서는, 표시 관리자에 전달된 입력 신호들에 의존하여 표시 방법을 적응시킨다.
그래픽 인터페이스를 적응시키는 것에 의해, 표시 내용을 적절히 선택하는 것에 의해, 및/또는 출력 매체 또는 출력 시점을 소통에 특정적으로 선택하는 것에 의해 표시를 변경한다.
또한, 본 발명에 따른 방법은 입력 모듈로서의 역할을 하는 표시 및 조작 요소를 통해 표시 및 조작 요소로부터의 조작 이동의 거리에 의존하여 특히 제스처에 의한 제2 모덜리티의 조작 의사를 입력하고 입력 신호를 검출하여 제스처에 의한 조작 행동에 의존해서 표시 및 조작 요소의 표시 모드와 하나 이상의 조작 모드 사이의 상황에 따른 교체를 구현하는 것을 그 특징으로 한다.
바람직한 구성에서는, 시스템 구조의 표시 및 조작 요소는 먼저 전반적으로 조작 이동이 있는지의 여부를 확인할 수 있다. 조작 이동이 전혀 없으면, 시스템의 정보 관리자가 그것을 인식하여 처리하는데, 그때에 표시 관리자는 정보 내용의 디스플레이 및 표시와 관련하여 출력 모듈을 "표시 모드" 쪽으로 최적화시킨다.
표시 및 조작 요소가 d ≥ 미리 주어질 수 있는 거리, 특히 d ≥ 5㎝의 범위의 조작 이동을 검출하면, 정보 관리자가 "일반적" 조작 의사를 인식하는데, 그때에 표시 관리자는 개선된 조작을 위해 표시 모듈을 전체의 표시 영역에서 "제1 조작 모드" 쪽으로 최적화시킨다.
표시 및 조작 요소가 d < 미리 주어질 수 있는 거리, 특히 d < 5㎝의 범위의 조작 이동을 인식하면, 정보 관리자가 "잠재적으로 가리켜진" 조작 타깃의 조작 의사를 표시 대상으로서 검출하는데, 그때에 표시 관리자는 "잠재적으로 가리켜진" 조작 타깃의 개선된 조작을 위해 출력 모듈을 가리켜진 표시 영역에서 "제2 조작 모드" 쪽으로 최적화시킨다.
본 발명의 바람직한 구성에서는, 조작 모드의 최적화를 미리 주어질 수 있는 표시 영역의 스케일 조정(scaling), 오버레이(overlay), 줌(zoom)을 통해 수행하고, 그럼으로써 조작성이 더 좋고 더 간단한 조작 인터페이스를 생성한다.
바람직한 구성에서는, 전술된 바와 같이 일반적 조작 의사의 인식 시점에 이미 음성 대화 시스템의 음성 인식기를 자동으로 시작한다.
바람직한 구성에서는, 순차적으로 또는 병렬적으로 실행된 여러 모덜리티의 입력 신호들을 입력 신호들의 상호 확인에 사용한다.
끝으로, 본 발명에 따른 방법은 시간상으로 중첩될 수도 있는 입력 신호들에 의존하여 조작 레벨들을 디스플레이 및 조작하고 다수의 조작 레벨들을 갖는 다양한 시스템들을 선택하는데 사용되는 해당 출력 신호들을 생성하는 것을 그 특징으로 한다. 각각의 시스템 내에서 수행될 수 있는 다양한 기능 내용들을 갖는 내비게이션 시스템 및 오락 시스템의 기능들을 애플리케이션들로서 간주할 수 있다.
즉, 본 발명에 따라 입력 신호들이 각각의 모덜리티에 할당된 사용자 인터페이스를 통해 표시 및 조작 요소와 음성 인식기에 의해 공급될 수 있도록 구성된 멀티모달 정보 입력 및 정보 표시의 적응을 위한 시스템 구조가 본 발명에 따른 방법에 부속한다.
본 발명에 따른 시스템은 여러 모덜리티의 입력 신호들이 협력적으로 정보 관리자에 의해 검출될 수 있고, 정보 관리자가 얻은 입력 신호들로부터 출발하여 표시 관리자가 제어 동작할 수 있으며, 입력 신호들에 의존하여 준비된 출력 신호들이 표시 및 조작 장치 및/또는 음성 인식기에 제공되는 것을 그 특징으로 한다.
표시 및 조작 요소는 모덜리티에 따라 조작 요소들이 부속된 종래의 디스플레이이거나, 일 구성에서 또 다른 조작 요소들이 추가로 부속될 수 있는 용량형 센서 시스템을 구비한 터치스크린이다.
입력 신호들의 평가를 위해, 입력 신호들을 표시 관리자에 전달하여 표시 관리자가 정보 관리자의 출력 신호들을 표시를 위해 준비하여 표시 및 조작 요소에 제공할 수 있게 하는 정보 관리자가 배치되는 것이 바람직하다.
본 발명의 또 다른 바람직한 구성들을 종속 청구항들에 기재된 나머지 특징들로부터 명확히 파악할 수 있을 것이다.
본 발명은 인간과 기계 사이의 소통 방안들과 관련하여 종래의 소통 모델들을 한층더 개선하기 위해 인간-기계 인터페이스의 신속하고도 직관적인 조작을 구현하는 소통 방안 제공 방법 및 그에 필요한 시스템을 제공한다.
이하, 본 발명을 첨부 도면들에 의거하여 실시예들로 설명하기로 한다. 첨부 도면들 중에서,
도 1A 내지 도 1C는 내비게이션 맵 메뉴 내에서 조작자 손이 접근할 경우에 표시를 적응시키는 것을 나타낸 도면들이고;
도 2A 내지 도 2C는 내비게이션 맵 메뉴 내에서 협력적 멀티모달 POI 검색을 조작하는 과정을 나타낸 도면들이며;
도 3A 내지 도 3C는 내비게이션 맵 메뉴 내에서 POI와의 협력적 멀티모달 상호 작용을 조작하는 과정을 나타낸 도면들이고;
도 4A 및 도 4B는 내비게이션 맵 메뉴 내에서 POI와의 협력적 멀티모달 상호 작용을 조작하는 과정을 나타낸 도면들이며;
도 5A 내지 도 5C는 내비게이션 맵 메뉴 내에서 POI와의 협력적 멀티모달 상호 작용 조작하는 과정을 나타낸 도면들이고;
도 6A 및 도 6B는 가장 높은 상위 선택 메뉴 내에서 협력적 멀티모달 메뉴 기능을 조작하는 과정을 나타낸 도면들이며;
도 7A 및 도 7B는 음악 선곡 메뉴 내에서 협력적 멀티모달 음악 선곡 기능을 조작하는 과정을 나타낸 도면들이고;
도 8A 및 도 8B는 경로 설정 메뉴 내에서 협력적 멀티모달 경로 설정 기능을 조작하는 과정을 나타낸 도면들이며;
도 9는 협력적 멀티모달 조작 기능을 조작하는 과정을 나타낸 도면이고;
도 10은 조작자 손이 터치스크린에 접근할 경우의 시스템 상태들을 나타낸 도면이며;
도 11은 플레이 리스트의 예에서 선택된 상호 작용 대상에 음성 인식기의 상태를 표시하기 위한 그래픽 대화를 나타낸 도면이고;
도 12는 미디어 플레이어의 예에서 선택된 상호 작용 대상에 음성 인식기의 상태를 표시하기 위한 그래픽 대화를 나타낸 도면이며;
도 13은 내비게이션 디스플레이 상에서 POI를 선택하는 예에서 선택된 상호 작용 대상에 음성 인식기의 상태를 표시하기 위한 그래픽 대화를 나타낸 도면이고;
도 14는 내비게이션 디스플레이 상의 개별 POI의 예에서 선택된 상호 작용 대상에 음성 인식기의 상태를 표시하기 위한 그래픽 대화를 나타낸 도면이다.
도 1A 내지 도 1C는 내비게이션 맵 메뉴 내에서 조작자 손이 접근할 경우에 표시를 적응시키는 것을 나타낸 도면들이고;
도 2A 내지 도 2C는 내비게이션 맵 메뉴 내에서 협력적 멀티모달 POI 검색을 조작하는 과정을 나타낸 도면들이며;
도 3A 내지 도 3C는 내비게이션 맵 메뉴 내에서 POI와의 협력적 멀티모달 상호 작용을 조작하는 과정을 나타낸 도면들이고;
도 4A 및 도 4B는 내비게이션 맵 메뉴 내에서 POI와의 협력적 멀티모달 상호 작용을 조작하는 과정을 나타낸 도면들이며;
도 5A 내지 도 5C는 내비게이션 맵 메뉴 내에서 POI와의 협력적 멀티모달 상호 작용 조작하는 과정을 나타낸 도면들이고;
도 6A 및 도 6B는 가장 높은 상위 선택 메뉴 내에서 협력적 멀티모달 메뉴 기능을 조작하는 과정을 나타낸 도면들이며;
도 7A 및 도 7B는 음악 선곡 메뉴 내에서 협력적 멀티모달 음악 선곡 기능을 조작하는 과정을 나타낸 도면들이고;
도 8A 및 도 8B는 경로 설정 메뉴 내에서 협력적 멀티모달 경로 설정 기능을 조작하는 과정을 나타낸 도면들이며;
도 9는 협력적 멀티모달 조작 기능을 조작하는 과정을 나타낸 도면이고;
도 10은 조작자 손이 터치스크린에 접근할 경우의 시스템 상태들을 나타낸 도면이며;
도 11은 플레이 리스트의 예에서 선택된 상호 작용 대상에 음성 인식기의 상태를 표시하기 위한 그래픽 대화를 나타낸 도면이고;
도 12는 미디어 플레이어의 예에서 선택된 상호 작용 대상에 음성 인식기의 상태를 표시하기 위한 그래픽 대화를 나타낸 도면이며;
도 13은 내비게이션 디스플레이 상에서 POI를 선택하는 예에서 선택된 상호 작용 대상에 음성 인식기의 상태를 표시하기 위한 그래픽 대화를 나타낸 도면이고;
도 14는 내비게이션 디스플레이 상의 개별 POI의 예에서 선택된 상호 작용 대상에 음성 인식기의 상태를 표시하기 위한 그래픽 대화를 나타낸 도면이다.
각각의 상호 작용을 위한 전제 조건은 상호 작용에 제공되는 대상을 결정하는 방식이다. 여기서, 대상이란 상호 작용을 수행하거나 상호 작용이 일어나는 개개의 대상은 물론 영역을 의미한다.
그러한 결정은 제1 실시 양태에서는 예컨대 조작 요소들의 회전, 누름, 접촉, 단속과 같은, 표시 및 조작 요소에서의 사용자의 촉각에 의한 조작 행동들의 형태의 제1 모덜리티(M1)를 사용하는 입력 신호들을 검출하는 것에 의해 이뤄진다.
상호 작용에 제공되는 대상의 결정은 제2 실시 양태에서는 사용자(10)의 이동들의 형태의 제스처에 의한 조작 행동들을 인식하여 평가하는 제2 모덜리티(M2)를 통한 입력 신호들을 검출하는 것에 의해 이뤄진다.
개선된 상호 작용을 위한 전제 조건은 상호 작용에 제공되는 대상의 결정과 연계된 음성 인식기의 활성화이다.
제1 실시 양태에서는 조작 장치상에서의 "길게 누름" 접촉 및/또는 "더블 클릭" 접촉 및/또는 "드래그 동작" 및/또는 "2 손가락 터치"와 같은 촉각에 의한 조작 행동(M1)이 음성 인식기를 활성화하는 역할을 한다.
제2 실시 양태에서는, 음성 대화 시스템의 음성 인식기를 "일반적" 제스처에 의한 조작 행동(M2)의 인식 시점에 이미 자동으로 활성화하는 조치를 취한다.
양 실시 양태들은 개별적으로 또는 조합되어 실시될 수 있다.
음성 인식기가 활성 상태에 있으면, 사용자(10)는 제3 모덜리티(M3)로 음성 명령을 말할 수 있다. 그와 관련하여, 본 발명에 따른 방법은 음성 인식기를 미리 주어질 수 있는 일정 시간 동안만 활성 상태로 하되, 그 시간을 표시 및 조작 장치(20, 60) 상에서 사용자(10)에게 나타내도록 구성될 수 있다.
모든 전제 조건이 충족되면, 상호 작용을 수행하는데, 그러한 상호 작용의 제1 실시 형태로서 "표시 대상/음성-상호 작용"을 도면들 없이, 그러나 나중에 설명될 제2 실시 형태와의 관련성을 명료히 하기 위해 제2 실시 형태의 도면 부호들을 붙여 설명하기로 한다.
이어서, 첨부 도면들에 의거하여 제2 실시 형태, 즉 "표시 대상-상황/음성-상호 작용"에 의해 본 발명을 설명하기로 한다.
제1 실시 형태 - "표시 대상/음성-상호 작용":
본 발명에 따른 방법은 실시 형태들 중의 하나인 "표시 대상/음성-상호 작용"에서 촉각에 의한 및/또는 제스처에 의한 조작 행동(M1, M2)과 음성 명령(M3)을 사용하여 다음과 같이 수행된다.
먼저, 조작 행동들(M1, M2)에 의해 대상을 선택하는데, 그와 동시에 2가지 조작 행동들 중의 적어도 하나에 의해 자동으로 음성 인식기를 시작한다.
음성 인식기는 "표시 대상/음성-상호 작용"에서는 전적으로 음성 인식기에 저장되어 있는 한정된 동사 어휘 범위 중의 하나 이상의 동사들만을 인식하도록 설계된다. 동사들은 말하기 쉽기 때문에, 조작 행동(M1 및/또는 M2)에 의해 선택된 대상과 적어도 하나의 동사를 포함하는 음성 명령(M3)의 직관적인 조합이 주어지게 된다. 그러한 조치는 인간의 행동과 말, 특히 매우 직관적인 일종의 어린이 말투의 기본적인 기능 방식 및 행동 방식과 상응하는 것이다.
그러한 상호 작용을 명료히 하기 위해, 이하에서는 표시 및 조작 장치, 예컨대 터치 디스플레이 또는 터치스크린에서의 대상 결정을 위한 적어도 하나의 촉각에 의한 조작 행동(M1)에 의해 개시되는 상호 작용에 대한 몇 가지 예들을 들기로 한다. 전술된 바와 같이, 대상의 결정은 제스처에 의한 조작 행동(M2) 또는 조작 행동들(M1, M2)의 조합에 의해서도 개시될 수 있다.
사용자(10)가 터치스크린(20)의 맵 상에서 하나의 장소 또는 POI 아이콘을 터치하는 동시에, "운전", "저장", "전화", 또는 "통과"라고 말한다.
사용자(10)가 터치스크린(20) 상에서 예컨대 커버 플우로(cover flow)를 통해 자신의 음악을 살펴본다. 사용자(10)가 앨범 커버를 터치하면서 "연주", "삭제", "복사", 또는 "기억"이라고 말한다.
사용자(10)가 미국의 HD 라디오를 청취한다. 사용자(10)가 터치스크린(20) 상에서 디스플레이 상의 실제 노래의 타이틀 표시를 터치하면서 "구매"라고 말한다. 그러면, 본국에서 아이튠즈(iTunes)가 표기된 노래를 판매할 상품으로 내놓는다.
사용자(10)가 터치스크린(20) 상에서 사진의 형태의 자신의 연락처들을 보고, 그 중의 하나를 터치하면서 "전화", "메일", 또는 "운전"이라고 말한다.
사용자(10)가 터치스크린(20, 60)의 디스플레이 상에서 자신의 차량의 그래픽을 보고, 트렁크 또는 창문을 터치하면서 "클로즈"라고 말한다.
제2 실시 형태 - "표시 대상-상황/음성-상호 작용":
본 발명을 도 1A 내지 도 9b에 의거하여 소위 "표시 대상-상황/음성-상호 작용"이라 하는 제2 실시 형태에서 설명하기로 한다.
본 실시 형태에서도 역시, 운전자 또는 동승자인 사용자가 여러 모덜리티(M1, M2, M3)의 입력 신호들(M)을 표시 및 조작 요소(20) 및/또는 음성 인식기에 공급할 수 있다.
먼저, 제1 실시 형태와 관련하여 이미 전술된 바와 같이, 조작 행동(M1 및/또는 M2)에 의해 대상을 결정하고, 그와 동시에 대상의 결정과 동시에 자동으로 음성 인식기를 활성화한다. 예컨대, 음성 인식기의 활성화를 위해, 회전/누름과 같은 조작 행동들을 실시할 수 있거나, 제1 실시 양태에서 음성 인식기의 활성화를 위한 제1 실시 형태와 관련하여 이미 전술된 바와 같이 "길게 누름" 접촉 및/또는 "더블 클릭" 접촉 및/또는 "드래그 동작" 및/또는 "2 손가락 터치"와 같은 촉각에 의한 조작 행동(M1)을 수행하거나, 제2 실시 양태에서는 검출 모듈에서 "일반적" 촉각에 의한 조작 행동(M2)을 인식한 시점에 이미 음성 대화 시스템의 음성 인식기를 자동으로 활성화하는 조치를 취한다.
"표시 대상-상황/음성-상호 작용"이라고 하는 제2 실시 형태에서, 상호 작용에 제공되는 음성 명령(M3)은 결정된 각각의 표시 대상의 특정의 유의적 액션들에 대한 한정된 상황 특정적 어휘 범위로부터의 싱글워드 어휘 또는 멀티워드 어휘이다. 여기서도 역시, 그러한 상황 관련 싱글워드 어휘 또는 멀티워드 어휘는 동사 및/또는 명사일 수 있다. 하지만, 어휘 범위는 각각의 상황에 맞춰지거나 그에 한정된다. 그럼으로써, 사용자와 시스템 구조 사이의 신속하고도 간단한 상호 작용이 일어나고, 그에 의해 해당 시스템 구조에서 메모리 용량이 절감되게 된다.
본 발명에 따른 방법을 가능케 하는 본 발명에 따른 시스템 구조를 참조하여 계속해서 설명하기로 한다.
각각의 모덜리티(M1, M2, M3)에 해당 사용자 인터페이스, 예컨대 경우별로 제1 모덜리티(M1)용 조작 요소들; 제스처에 의한 조작 행동을 검출하기 위한 제2 모덜리티(M2)용 센서 시스템, 특히 용량형 센서 시스템; 음성 인식의 제3 모덜리티(M3)용 음성 인식기가 배치된 터치스크린(20)이 할당된다.
또한, 모덜리티(M1, M2, M3)의 입력 신호들 또는 신호 부분들을 협력적으로 평가하는 정보 관리자가 배치된다.
정보 관리자의 출력 신호들은 표시 관리자에 공급되는데, 표시 관리자는 표시 및 정보의 출력을 위한 사용자 인터페이스들을 표시 및 조작 요소 또는 음성 인식기의 음성 출력기를 통해 나타내고, 사용자 인터페이스들 상에는 그래픽 애니메이션 또는 음향의 형태의 출력 신호들이 운전자 또는 동승자(10)에 공급된다.
그와 관련하여, 표시 관리자는 정보 관리자로부터 전달된 신호들에 의존하여 출력의 타입 및 적절한 표시 방법의 선택을 결정한다.
음성 인식기의 사용자 인터페이스에 의한 음성 인식, 사용자 인터페이스(용량형 센서 시스템)에 의한 제스처 인식, 및 표시 및 조작 장치로서의 터치스크린 인터페이스(20, 60)의 사용자 인터페이스에서의 제스처에 의한 조작 행동의 인식을 다함께 고려하여 예컨대 "내비게이션 시스템"의 적응형 멀티모달 사용자 인터페이스들을 구현하는 것에 관해 설명하기로 한다.
제스처 인식(M2)에서의 손 이동 및 손 위치의 검출은 예컨대 터치스크린(20)의 코너들에 장착된 용량형 접근 센서들에 의해 이뤄진다.
도 10에 도시된 바와 같이, 터치스크린(20)으로서 구성된 시스템의 내비게이션 디스플레이에의 일정 접근은 약 10㎝의 거리로부터 일반적 조작 행동으로 받아들여진다.
그러면, 표시 관리자는 제공된 키 버튼(예컨대, POI 아이콘)의 개선된 조작성을 위해 정보 관리자로부터 얻은 입력 신호들을 부가 조작 옵션들의 스케일 조정 및 오버레이를 통해 터치스크린(20) 상에서의 정보 디스플레이에 맞춰 적응시킨다.
도 10의 표는 입력 신호들의 존재와 관련된 조작자 손의 프레즌스(presence)를 구분하여 그 각각의 프레즌스에 일정한 조작 의사를 할당하고 있는데, 아울러 표시 관리자는 조작자 손의 프레즌스에 따라 미리 주어질 수 있는 모드로 모드를 교체한다.
조작자 손이 검출되지 않으면, 사용자(10)의 조작 의사가 없음이 파악되고, 표시 모듈은 정보 관리자에 있는 모든 데이터로부터 출발하여 정보 내용의 표시, 소위 표시 모드를 위한 디스플레이를 최적화시킨다.
약 5㎝의 거리로부터, 즉 d ≥ 5㎝의 범위에서 이미 "일반적" 조작 의사로서 인식되는 프레즌스가 내비게이션 디스플레이의 영역에서 검출될 수 있다.
그에 따라, 정보 관리자를 통해 가능한 손에 의한 조작을 위한 모든 표시들, 소위 제1 조작 모드의 최적화가 표시 관리자에서 이뤄진다.
약 < 5㎝의 거리로부터 사용자(10)의 집게 손가락이 가리키는 터치스크린(20, 60) 상의 각각의 키 버튼으로부터 구체적으로 작동하려는 조작 타깃이 주어진다. 조작자 손의 프레즌스 및 위치가 검출되고, 실제 조작 타깃의 잠재적 위치가 표시 대상으로서 규정된다. 표시 관리자는 정보 관리자를 통해 손에 의한 "손가락" 조작, 소위 제2 조작 모드를 위해 가리켜진 영역의 최적화를 수행한다.
손가락으로 가리켜진 최적화된 키 버튼은 추가로 스케일 조정되고, 그에 따라 터치 스크린(20) 상에 나타내진 "키"의 작동을 위한 타깃 과정이 더욱 간단해진다.
차량에서의 터치스크린(20)을 기반으로 한 실제 사용자 인터페이스들의 경우, 키 버튼의 크기는 한정된 디스플레이 크기에서 정보들을 병렬적으로 표시하기 위한 장소를 제공하기 위해 대부분 인체 공학적으로 용인되는 최소의 크기로 축소된다.
표시 모드와 제1 또는 제2 조작 모드 사이의 상황에 따른 교체를 통해, 조작 의사를 전제로 차량에서의 터치스크린(20)의 제한된 표시 면적이 정보 내용을 일목요연한 디스플레이로 표시하는데 사용될 수 있을 뿐만 아니라, 특정의 조작 인터페이스를 디스플레이하는데에도 사용될 수 있다.
그러한 방법은 예시적으로 터치스크린(20, 60) 상의 내비게이션 맵에서의 손에 의한 POI 아이콘과의 상호 작용의 예에서 구현되는데, 그것을 우선 도 1A 내지 도 1C에 의거하여 설명하기로 한다.
도 1A는 조작자 손이 아직 검출되지 않아 정보 표시가 전체의 터치스크린(20, 60)에 걸친 표시 모드로 최적화되어 있는 내비게이션 시스템의 터치스크린(20, 60)을 나타낸 것이다.
도 1B에 따라 조작자 손의 일반적 접근("일반적" 조작 의사)이 있을 때에 이미 POI 아이콘의 크기가 스케일 조정된다. 그 경우, 도로명, 구간 정보, 및 다른 상세가 부분적으로 덮여지는데, 그것은 조작 행동의 시간 동안에는 그들과 관련된 것이 없기 때문이다. 즉, 제1 조작 모드에서의 손에 의한 다음 조작을 위한 최적화가 이미 이뤄지게 된다.
도 1C에 따라 맵 보기를 조작하는 조작 옵션에 대한 지시자(indicator)(즉, 상호 작용에 선택된 대상)를 가리켰을 때에 사용자가 키 버튼을 작동할 필요가 없이 그 지시자가 해당지점에 오버레이된다.
도 1C에서 수행되는 그러한 제스처에 의한 조작 행동(M2)은 가리켜진 영역이 손에 의한 조작을 위해 최적화되는 제2 조작 모드를 불러낸다.
촉각에 의한 입력 및/또는 제스처에 의한 가리킴 이동도 역시 대상들, 기하학적 크기들, 및 위치들을 특정하고 스케일(예컨대, 볼륨 제어를 위한)을 설정하는데 적합하다.
이름들, 용어들, 및 명령들을 입력하는데에는 음성이 대부분 더 적합하다.
소위 협력적 멀티모덜리티(조작 행동들 및 음성 입력들)는 병렬적 정보 입력을 통한 짧은 조작 시간 이외에도 조작 오류의 감소를 가능케 하는데, 그것은 조작 모덜리티를 통한 입력들이 병렬적으로 사용되는 각각의 조작 모덜리티의 입력들을 확인하는데 각각 기여할 수 있기 때문이다.
또한, 예컨대 촉각에 의한 및/또는 제스처에 의한 내비게이션 맵과의 해당 상호 작용 시에 음성 인식기가 자동으로(푸시-투-토크 버튼에 의해 활성화하는 대신) 활성화되게 함으로써, 조작 요소들 및 조작 단계들을 줄일 수 있다.
예컨대, 맵과의 상호 작용 시에 출현하는 것과 같은 공간 기하학적 지정들을 고려한 명령들은 그러한 협력적 시스템들의 사용을 위한 가장 흔한 항목 타입이다.
도 2A 내지 도 2C에 의거하여 예컨대 "호텔" 또는 "레스토랑"과 같은 특정의 테마 카테고리에서의 POI들에 따른 위치 관련 멀티모달 검색의 하나의 예시적 구현을 설명하기로 한다.
그 경우, 사용자는 음성(M3)에 의해 검색 POI 카테고리를 특정하고, 그와 동시에 터치스크린(20, 60) 상에서 손에 의한 가리킴 제스처(M2)(예컨대, 자유롭게 동그라미를 그려 검색 지역을 표시하는 제스처)에 의해 특정의 검색 지역을 규정한다.
도 2A는 음성 명령(M3) 전의 터치스크린을 나타낸 것이다.
도 2A 내지 도 2C에 따르면, 시스템이 가리킴 제스처 및/또는 촉각에 의한 조작 행동(M1, M2)의 시작을 인식한 즉시로 음성 인식기가 자동으로 활성화된다. 인식된 상황 관련 검색어, 예컨대 "호텔"이 디스플레이(20) 상에 오버레이되고, 가리킴 제스처 및/또는 촉각에 의한 조작 행동(M1, M2)의 종료 시에(도 5B를 참조) r검색된 POI들, 여기서는 검색 지역의 호텔들이 지정된 검색 지역 내에서 맵 상에 표시된다(도 2C).
내비게이션 맵의 정해진 적용 상황으로부터 음성 인식(M3)을 활성화함으로써, 각각의 적용 상황에서 의미 있는, 해당 상황들로 한정된 상황 관련 인식 어휘 범위만을 기반으로 하면 되고, 그에 의해 에러율이 낮게 유지된다.
내비게이션 상황에서의 협력적 멀티모달 입력들에 대한 또 다른 적용례가 도 3A 내지 도 3C에 도시되어 있다. 도 3A로부터 출발하는 POI와의 직접적 상호 작용은 다음과 같이 이뤄진다. 음성에 의해(도 2A 내지 도 2C와 관련하여 전술된 방안에서와 같이) 원하는 POI를 특정하거나(동일한 카테고리의 POI들이 다수일 경우에 문제가 있음) 원하는 액션(예컨대, "전화")을 촉각에 의한 조작 행동(M3)에 의해 순전히 손으로 메뉴를 통해 선택하는 대신에, 사용자는 가리킴 제스처(M2)(도 3B)를 통해 POI를 선택하고 그와 병렬적으로 음성에 의해 원하는 액션(m3)을 입력할 수 있다.
본 경우에도 역시, 음서 인식(M3)에 있어서는 POI 액션의 제어를 위한 용어들의 한정된 상황 관련 어휘 범위만을 기반으로 하면 되고, 그에 따라 본 예에서도 마찬가지로 오인식의 확률이 낮게 유지되게 된다. 입력들(M1, M2, M3)의 시간적 및 의미적 동시성의 평가를 통해, 시스템은 전술된 바와 같이 경우에 따라 모덜리티(M1, M2, M3)에 있어 중첩되는 입력 신호들을 평가함으로써 POI 메뉴의 각각의 표시를 결정한다.
음성 명령(M3)을 인식한 경우에는 "전화"라는 액션이 직접 실시되고 POI 메뉴(도 3C를 참조)가 호출되지 않는다. 상황 관련 음성 상호 작용은 개별적인 동사들의 사용을 배제한다.
음성 명령을 인식하지 못하거나 음성 명령이 수행되지 않은 경우에만 POI 메뉴(도 3C를 참조)가 호출된다. 그러면, 사용자(10)는 음성 명령(M3)에 의해 또는 조작 행동(M1 및/또는 M2 및/또는 M3)에 의해 터치스크린(20, 60)을 거쳐 도 3C에 따른 도시된 메뉴 상에서 다시 원하는 옵션을 지정할 수 있다.
도 1A 내지 도 3C에 의거하면, 그러한 입력들의 인식이 HMI들을 조작 상황에 적응시키기 위한 큰 잠재력 및 그에 따른 편리성과 신뢰성에 대한 큰 잠재력을 내포하고 있는 것임을 이미 보여주고 있다.
도 4A 내지 도 9B에 의거하여, 본 발명에 따른 방법 및 시스템 구조를 사용하여 실시될 수 있는 또 다른 적용 방안들을 설명하기로 한다. 도 4A 내지 도 9B도 역시 음성 명령(M3)과 촉각에 의한 및/또는 제스처에 의한 조작 행동들(M1, M2)의 멀티모달 입력을 위한 방법을 설명하고 있다.
본 경우에도 역시, 시스템 구조 및 그에 속한 방법 중의 적어도 하나가 인식 가능한 입력 신호들(M1, M2, M3)을 공동으로 처리하는데 사용된다는 것으로부터 출발한다.
도 4A는 도 3에 관해 이미 설명된 바와 같이 손에 의한 조작을 위한 표시들이 이미 최적화되어 있는 제1 조작 모드를 이미 도시하고 있다. 디스플레이(20, 60)에의 제스처에 의한 접근(M2)에 의해 또는 디스플레이(20, 60) 상에서의 촉각에 의한 터치 입력(M1)에 의해 대상의 결정 및 특정이 이미 이뤄져 있다. 여기서, 조작 행동(M1, M2), POI 대상의 영역에서 제스처에 의한 조작자 손의 프레즌스, 및/또는 조작자 손가락의 촉각에 의한 선택을 인식하는 중에 음성 인식기가 이미 시작되고 있을 수 있다.
예컨대, POI 대상을 "길게 누르는" 누름(M1)이 있을 경우에 음성 인식기가 시작된다.
제스처에 의한 및/또는 촉각에 의한 음성 인식기의 활성화라는 양자의 양태들은 개별적으로 또는 서로 조합되어 가능하다. 그러면, 선택된 POI에 대한 상황에서 음성 인식기에 의해 음성 명령, 예컨대 "내비게이션" 또는 "인포(Info)" 또는 "우회"라고 말하는 음성 명령이 가능하다.
도 4B는 터치스크린(20, 60)의 영역에서 제스처에 의한 조작자 손의 프레즌스(M2)에 의해 위치 특정 POI 검색을 하는 방안을 다시 도시하고 있다.
경우에 따라서는, 도 3에 관한 설명에 따라 표시들이 이전에 최적화되어 있고, 동그라미를 그리는 손가락 이동이 모덜리티 M2의 조작 행동으로서 수행된다.
그와 동시에, 음성 인식기가 또 다른 사용자 인터페이스로서 시작되거나 POI 버튼이 나타나는데, 예컨대 "레스토랑" 또는 "호텔"과 같은 음성 명령(M3)을 말함으로써 POI 검색이 음성 입력에 의해 속행된다.
이하, 도 5A 내지 도 5C에 의거하여 멀티모달 POI 조작의 원리를 예시하는 또 다른 예를 설명하기로 한다.
도 5A에 따르면, 사용자(10)는 자신의 손가락으로 POI를 가리키는데, 그때에 출력 모듈로서의 역할을 하는 표시 및 조작 요소(60)가 제1 조작 모드 또는 제2 조작 모드로 교체된다. 그와 병렬적으로, 사용자(10)가 음성 명령(M3)을 말한다. 즉, 그러한 입력 명령 또는 입력 신호는 가리킴 제스처(M2)와 입력 신호로서 발음된 정보(M3)로 구성된다.
음성 인식기는 음성 명령 또는 음성 명령들(M3)을 인식하고, 터치스크린(20, 60)의 용량형 센서 시스템을 통해 제스처에 의한 조작 행동들(M2)이 병렬적으로 인식된다.
사용자(10)는 예컨대 제1 단계로 다시 병렬적 상황 관련 음성 명령(M3), 예컨대 "정보!"라는 음성 명령과 함께 원하는 POPI 아이콘에 대한 M1과 M2의 또는 M2만(터치스크린 터치 없이 제스처에만 의한)의 조작 행동을 수행하고, 그에 따라 시스템을 사용한 멀티모달 입력 명령(M1, M2, M3 또는 M2, M3 또는 M1, M3)에 의해 "현대 예술 미술관"에 관한 정보로서 음향이 자동으로 제공되거나 그래픽 애니메이션이 표시 및 조작 장치(60) 상에 자동으로 제공된다.
이어서, 사용자(10)는 예컨대 전화를 연결하고 싶을 수 있다. 사용자(10)는 예컨대 다시 원하는 POI 아이콘에 대한 M1과 M2의 또는 M2만(예컨대, 터치스크린 터치 없이 제스처에만 의한 구동)의 조작 행동을 수행하고, 병렬적 음성 명령(M3), 예컨대 "전화!"라는 음성 명령을 각각 말한다. 그러한 입력 명령은 한정된 상황 관련 어휘 범위를 기반으로 시스템에 제공된 음성 인식기에 의해 확인되고, 시스템은 "현대 예술 미술관"에 자동으로 전화를 연결한다.
예컨대, POI 아이콘 상에서의 또는 POI 아이콘에 대한 M1과 M2의 또는 M2만(터치스크린 터치 없이 제스처에만 의한 구동)의 조작 행동(M1, M2) 및 병렬적 음성 명령(M3), 예컨대 "목적지 안내"라는 음성 명령을 말하는 것에 의해 입력 명령(M)의 평가 후에 "현대 예술 미술관"으로의 목적지 안내를 차량의 내비게이션 시스템을 통해 시작하고 표시 및 조작 요소(60)의 표시를 통해 그래픽으로 나타내는 방안도 있다.
도 5B는 내비게이션 디스플레이 상에서 "동그라미를 그리는 제스처" 조작 행동(M2)을 나타낸 것으로, 역시 예컨대 "레스토랑!"이라는 병렬적 음성 명령이 함께 수행된다. 그럼으로써, 표시 및 조작 장치(60) 상에서 그 동그라미로 그린 지역 내의 모든 레스토랑들이 내비게이션 시스템의 디스플레이에 표시된다.
도 5C에서, 사용자(10)는 예컨대 가리킴 제스처(M2)와 그에 병렬된 예컨대 "줌!"이라는 음성 명령(M3) 또는 가리킴 제스처(M2)와 예컨대 "브라우즈(browse)!"라는 음성 명령(M3) 또는 가리킴 제스처(M2)와 예컨대 "맵 이동!"이라는 음성 명령(M3)을 수행한다. 그러면, 내비게이션 시스템의 표시 및 조작 장치(20, 60) 상에서 내비게이션 맵의 해당 "줌", "스크롤", 또는 "브라우징"이 이뤄진다.
전술된 모든 예들과 이후의 예들에 있어 모두 적용되는 사항은 입력 신호(M3)로서의 상황 관련 음성 명령이 입력 명령(M1 및/또는 M2)와 병렬적으로 반드시 수행되어야 하는 것은 아니라는 점이다. 음성 명령(M3)을 다른 입력 명령(M1 및/또는 M2)의 직전 및 직후에 수행하는 것도 고려될 수 있다. 본 발명에 따른 시스템 및 방법은 가장 자연스러운 사용자(10)의 행동 방식에 해당하는 조화로운 멀티모달 입력을 구현하려고 하고 있다.
멀티모달 조작성의 또 다른 예들이 도 6A 및 도 6B에 도시되어 있는데, 이하에서는 그에 관해 설명하기로 한다.
도 6A 및 도 6B에 따르면, 먼저 제1 또는 제2 조작 모드(이에 관한 설명은 도 10을 참조)에서 입력 모듈(20)의 표시상에서의 누름 및/또는 가리킴(M1, M2)에 의해 음성 명령(M3)의 일정 상황이 각 도면별로 주어지는 것이 도시되어 있다.
시스템 구조는 적용 특정적 어휘 범위를 사전에 분류하여 음성 인식기의 사용자 인터페이스의 시작을 통해 예컨대 "정지" 또는 "계속" 또는 "라디오 FFM"과 같은 일정 음성 명령들을 한정된 적용 특정 또는 상황 특정 관계로 제공한다.
음성 인식기의 시작은 조작 행동(M2)의 프레즌스가 충분할 경우에 및/또는 "누름 지속" 조작 행동(M1) 시에 이뤄지는데, 특히 말할 수 있는 명령들(M3)이 표시 및 조작 장치(20, 60) 상에 미리 주어진다. 그러한 방안에 의해, 예컨대 스티어링 휠에 있는 "푸시-투-토크 버튼"을 붙들고 있을 필요가 더 이상 없게 된다.
그러한 방안은 도 6B를 통해서도 추가로 도시되어 있다. 도 6B는 표시의 일목요연한 애플리케이션이 검출 모듈(20) 상에서 수행되고, 해당 접근(M2) 시에 또는 "누름 지속"의 누름(M1) 시에 음성 인식기가 시작되며, 예컨대 일람표 디스플레이로부터 출발하여 예컨대 "맵" 또는 "내비게이션" 또는 "콤비 계기로(콤비)"와 같은 상황 관련 음성 명령(M3)의 표시가 이뤄지는 것을 나타내고 있다. 그러한 방안에 의해, 여러 모덜리티(M1, M2, M3)가 시스템에 의해 변환될 수 있는 명확한 실행 가능 명령을 가져오게 된다.
도 7A 및 도 7B가 도시하고 있는 바와 같이, 특수한 적용례들에서도 음성 입력(M3) 또는 터치/제스처 명령(M1, M2)을 통해 멀티모달 입력이 가능하다. 여기서는, 예컨대 도시된 아이팟(iPod)(도 7A)에 의거하여 또는 다른 속성의 음악 타이틀 선곡 디스플레이(도 7B)에 의거하여 음악 선곡에 관해 설명하기로 한다.
제1 또는 제2 조작 모드에서 터치 인터페이스(20) 위에서 접근하는 조작 행동(M2)에 의해 예컨대 "오토모티브 클릭 휠(automotive click wheel)"이 자동으로 디스플레이되어 시작되고, 아울러 음성 인식 소자가 자동으로 또는 직접적인 "터치 명령"(M1)에 의해 활성화되며, 그에 따라 또 다른 "터치 명령"(M1) 또는 접근 명령(M2) 또는 그 조합 및/또는 새로운 음성 입력(M3)에 의해 각각의 음악 타이틀, 예컨대 "어 킹 업 매직(A King of Magic)"이란 음악 타이틀 대신 "어 프렌드 업 마인(A Friend of Mine)"이란 음악 타이틀이 선택될 수 있다.
그 경우에도 역시, "푸시-투-토크" 버튼을 별도로 누를 필요가 없는데, 그것은 조작 행동(M2)의 접근에 의해 이미 음성 인식기가 시작되거나 터치 스크린(20) 상에서의 누름(M1)(도 7A, "토크"의 누름)에 의해 이미 활성화되기 때문이다. 푸시-투-토크 버튼을 붙들고 있는 것이 생략된다. 즉, 본 발명에 따른 시스템은 "푸시-투-토크"로부터 "포인트-투-토크(point-to-talk)" 또는 "터치-투-토크(touch-to-talk)"로의 개혁을 이루고 있다.
아울러, 언급할 사항은 경우에 따라 디스플레이된 아이팟의 세그먼트(도 7A) 또는 열려 있는 조작 필드(도 7B)에 의거하여 역시 터치스크린(20), 즉 터치 조작 행동(M1)에 의해 및/또는 제스처에 의한 접근 조작 행동(M2)에 의해 및/또는 음성조작 행동(M3)에 의해 개개의 선택들의 정정도 역시 실행 가능하다는 것이다.
방금 설명된 아이팟 등에서의 음악 선곡의 경우에 취해지는 조치와 유사하게, 도 8A 및 도 8B에는 멀티모달 목적지 입력이 내비게이션 위젯에 의거하여 도시되어 있다.
역시 예컨대 디스플레이(20, 60) 상에서의 접근/가리킴(M2)에 의해 음성 인식기가 시작되고, 이어서 예컨대 조작 행동(M1 및/또는 M2)에 의해 개별 세그먼트들의 선택 및 정정이 이뤄지며, 터치스크린(20, 60) 상의 디스플레이가 이뤄진다.
음성 인식기의 시작에 의해, 각각의 목적지 또는 각각의 경로(예컨대, 도 8A를 참조)를 말할 수 있으므로, 도 8A에 따라 예컨대 볼프스부르크-베를린 간의 경로 표시가 이뤄지고, 도 8B에 따라 역시 터치 조작 행동(M1 또는 M1과 M2)에 의해 및/또는 정정 음성 명령(M3)에만 의해 목적지의 입력 및 정정이 이뤄지며, 그에 따라 손에 의한 조작 행동(M1 또는 M1과 M2)에 의해 또는 역시 음성 명령(M3)에 의해 오해의 소지가 있는 상황 관련 음성 명령, 예컨대 "함베르크슈트라쎄(Hambergstraβe)" 대신 원하는 "함부르크슈트라쎄(Hamburgstraβe)"가 정정될 수 있다.
도 9A 및 도 9B는 기능 지정 또는 전체 제스처들의 지정을 멀티모달 입력하는 방안을 또한 도시하고 있다. 즉, 도 9A에 따르면, 도 5C와 관련하여 이미 전술된 바와 같이, 조작자 손에 의한 접근 후에 제스처에 의한 입력 명령(M2)과 병렬된 또는 후속된 "줌" 또는 "이동"과 같은 해당 음성 명령(M3)에 의해 터치스크린(20) 상에서 내비게이션 맵을 이동시키는 것이 가능하다.
또한, 예컨대 손 전체를 펴는 것과 같은 제스처(M2)에 온-오프 기능 또는 중단 기능이 지정될 수 있다. 그럼으로써, 예컨대 "온/오프" 또는 "중단"이란 음성 명령(M3)과 연계하여 시스템의 시작 및 종료를 위한 멀티모달 조작이 구현될 수 있다.
사용자(10)의 요구 상황을 기반으로 터치스크린(20, 60) 상의 가용 표시 면적의 적응을 구현하기 위해 차량 시스템으로부터의 상황 정보들(예컨대, 속도, 도로 종류, 교통 밀도, 차량의 보조 레벨)을 실제 운전 태스크와 관련하여 통합함으로써 시스템을 추가로 보완하는 것이 가능하다.
도 11 내지 도 14에는, 음성 인식기의 상태(활성 상태/비활성 상태)에 관한 표시 방안이 소개되어 있다. "표시 대상/음성-상호 작용"과 "표시 대상-상황/음성-상호 작용"의 양 실시 형태들에 있어 음성 대화 시스템의 음성 인식기를 그 활성화 후 미리 주어질 수 있는 일정 시간 동안만 활성 상태로 있게 하는 것이 바람직하다는 것에 대해서는 이미 전술된 바 있다. 그러한 시간 내에서 사용자가 음성 명령(M3)을 부가할 수 있다.
음성 인식기가 활성 상태에 있는지 비활성 상태에 있는지의 여부를 사용자(10)에 시그널링하는 공지의 양태에서는, 음성 인식기의 활성화 또는 비활성화 시에 상호 작용 대상 또는 상호 작용에 제공되는 표시 및 조작 요소(20, 60)의 영역으로부터 떨어져 그래픽 표시(소위 "그래픽 피드백")가 수행된다.
새로운 양태에서는, "그래픽 피드백"이 상호 작용에 제공되는 대상 또는 영역으로부터 떨어져 수행되는 것이 아니라, 상호 작용에 제공되는 대상 또는 영역 그 자체에서 수행된다. 그럴 경우, 더 이상 음성 인식기의 상태에 관한 피드백의 출력을 위한 별도의 영역을 표시 및 조작 요소에 예비해둘 필요가 없고, 그래픽 피드백이 상호 작용에 제공되는 상호 작용 대상 또는 상호 작용 영역과 직접 연관된다는 점이 사용자(10)에게 유리하다.
그래픽 피드백과 관련하여 음성 인식기의 활성화 또는 비활성화 시의 기본적인 과정을 설명하면 다음과 같다. 상호 작용에 제공되는 영역 또는 상호 작용에 제공되는 대상에서 예컨대 가능한 선택 안들 중의 하나로서 이미 전술된 "길게 누름 접촉"에 의해 음성 인식기의 활성화를 수행한다. 그 경우, 상호 작용에 제공되는 표시 및 조작 요소(20, 60) 상의 영역 또는 대상에서 미리 주어질 수 있는 일정 시간 유지되어야 하는 활성화를 위한 임의의 지점이 접촉될 수 있다. 먼저, 그래픽 피드백과의 가능한 조합으로, "올바른" 영역에서, 즉 활성화에 제공되는 영역에서 "길게 누름 접촉"이 있을 경우에 또는 대상을 충분히 길게 터치할 경우에 "촉각에 의한 피드백", 예컨대 조작자의 손가락에서의 진동이 생성된다. "길게 누름 접촉"을 음성 인식기의 시작을 위한 개시 행동으로 받아들이는 즉시, 원하는 조작 행동이 성공하였음을 사용자(10)에 회신하는 신호 타입 응답으로서 클릭 타입 진동의 형태의 또 다른 확연한 "촉각에 의한 피드백"이 추가로 수행된다. 그러한 확연한 "촉각에 의한 피드백"은 병렬적으로 개시되는 "음향 피드백"과 추가로 조합되어 실시될 수 있다. 따라서, 음성 인식기가 시작되어 그 성공적 시작이 촉각에 의해 및/또는 음향적으로 사용자에 시그널링되게 된다.
하지만, 음성 인식기가 활성 상태에 있을 때까지는, "그래픽 피드백"으로서 사용자(10)에 표시되는 미리 주어질 수 있는 시간도 또한 경과하게 된다. 미리 주어질 수 있는 시간 동안 해당 영역 또는 대상의 둘레에 일종의 프레임 타입의 띠가 음성 인식기 심벌(S)이 나타날 때까지 둘러지기 시작한다. 음성 인식기 심벌(S)이 나타나는 순간에 비로소 음성 인식기가 활성 상태로 되어, 즉 음성 명령(M3)을 수령하도록 시작되어 음성 명령(M3)을 말할 수 있게 된다. 그와 관련하여, 그래픽 피드백을 디스플레이하는데에는 여러 구성 방안들이 있다.
예컨대, 프레임 타입(바람직하게는 그 조도 및 색상에 있어 표시 및 조작 요소(20, 60)에 대해 대비를 이루는)의 띠가 영역 또는 대상의 우측 하단 코너에서 둘러지기 시작하고, 바람직한 구성에서는 좌측 상단 코너까지 2개의 방향으로 둘러져 프레임(R)을 형성하는데, 좌측 상단 코너에 도달하는 순간 프레임(R)이 닫히게 되고, 바로 거기에서 음성 인식기 심벌(S)이 나타나게 된다. 그에 대해서는 도 11 내지 도 13을 참조하면 된다.
또 다른 가능한 구성은 대상 또는 영역의 둘레를 둘러싸는 프레임(R)을 형성하는 띠가 영역 또는 대상의 수직 가장자리의 중앙에서 양쪽으로(동일하거나 상이한 속도로) 둘러지고, 반대편에서 닫혀 프레임(R)을 형성하며, 그 반대편에서 그곳의 수직 가장자리 중앙에 음성 인식기 심벌(S)이 나타나는 것이다. 그에 대해서는 도 12 및 도 14를 참조하면 된다.
그와 같이 둘러지는 띠는 또 다른 구성에서는 영역 또는 대상의 자유롭게 선택될 수 있는 임의의 가장자리 지점으로부터 출발하여 시작되게 구성되어 한쪽 방향으로만 또는 2개의 방향으로 둘러질 수 있는데, 그렇게 하여 형성되는 프레임(R)이 닫히는 순간 음성 인식기 심벌(S)이 표시되고, 그에 따라 음성 인식기가 활성 상태에 있게 된다.
비활성화는 예컨대 띠가 처음 프레임(R)을 형성하기 시작한 지점으로부터 각각 출발하여 음성 인식기 심벌(S) 쪽으로 띠가 일 방향으로 또는 양 방향으로 둘러지면서 다시 서서히 희미해지게 함으로써 수행되는데, 프레임(R)과 음성 인식기 심벌(S)이 다시 완전히 사라지는 즉시 음성 인식기가 비활성 상태에 있게 된다.
음성 인식기 심벌(S)이 나타나는 순간에 음성 명령(M3)을 말할 수 있다. 미리 주어질 수 있는 시간 후에는, 음성 인식기 심벌(S)이 나타난 후에 음성 명령(M3)을 말하였는지의 여부와는 상관이 없이 음성 인식기 심벌(S)을 유지한 채로 띠가 프레임(R)을 형성하기 시작한 지점에서 프레임(R)이 다시 열리게 된다. 즉, 둘러지는 띠가 음성 인식기 심벌(S) 쪽으로 다시 해체되고, 그에 따라 프레임(R)이 완전히 사라지는 순간에 또는 프레임(R)이 유지되더라도 색채 형상을 더 이상 볼 수 없거나 이전에 높던 조도가 도로 떨어지는 순간에 음성 인식기 심벌(S)이 사라지게 된다.
도 11 내지 도 14의 4개의 예들에 의거하여 본 발명을 더욱 상세히 설명하기로 한다.
도 11에는, 그러한 방안이 표시 및 조작 요소(20, 60)에 이미 호출되어 있는 플레이 리스트에 의거하여 도시되어 있다. 예컨대, 기본 보기로 타이틀 1 내지 6을 갖는 플레이 리스트는 아직 프레임(R)으로 둘러싸이지 않고, 음성 인식기 심벌(S)도 아직 표시되지 않는다. 표시 및 조작 요소(20, 60) 상에서의 "길게 누름 접촉"에 의해, 이미 기본적으로 전술된 바와 같이, 음성 인식기의 활성화를 위한 개시 조작 행동이 사용자(10)의 조작 행동의 성공을 시그널링하기 위한 예컨대 "촉각에 의한" 피드백 및/또는 "음향적" 피드백과 조합되어 수행된다. 우측 하단 코너로부터 출발하여, 프레임(R)이 좌측 상단 코너에서 닫히고, 음성 인식기 심벌(S)이 나타난다. 즉, "그래픽 피드백"이 사용자에 제공되어 음성 인식기가 활성 상태에 있는 때를 사용자가 정확하게 인식할 수 있게 된다. 개재 시간에 선택된 대상 또는 영역과의 상호 작용에 제공되는 한정된 어휘 범위를 갖는 제1 또는 제2 실시 형태를 고려하여 음성 입력(M3)을 수행한다. 도 11에서는, 사용자(10)가 예컨대 "배드리 드론 보이(Badly Drawn Boy)"라는 타이틀 2를 말하였다. 표시 및 조작 장치(20, 60)에서의 타이틀 분류는 선택된 타이틀 2가 하이라이트되고, 바람직한 구성에서는 표시 및 조작 장치(20, 60) 상에서 사용자의 중심 시야로 더 이동하도록 이뤄진다. 그러한 구성의 부가 구성에서는, 한정된 어휘 범위 내에서 예컨대 발음상으로 유사하게 소리 나는 타이틀, 예컨대 "벡-더 인폼...(Beck-The Inform...)"이라는 타이틀 3, 타이틀 4, 타이틀 5 등이 그 아래에 계속해서 분류된다. 음성 인식기 심벌(S)이 오버레이된 후에는 이미 프레임(R)을 형성하는 띠가 처음에 그 띠에 의해 프레임(R)이 형성된(도 11에 도시된 바와 같이) 지점으로부터 출발하여 음성 인식기 심벌(S) 쪽으로 도로 둘러가고, 심벌(S)에 도달했을 때에 음성 인식기가 비활성 상태로 되어 심벌(S)이 다시 사라지게 된다.
도 12에는, 그러한 조치가 미디어 플레이어의 예에서 도시되어 있다. 기본 보기로, 예컨대 "데이비드 그레이(David Grey)" 앨범 보기와 그 앨범으로부터 연주되는 "알리바이(Alibi)"라는 타이틀 및 그 연주 시간과 아직 남은 연주 시간이 타이틀 표시에 디스플레이된다. 다음의 설명은 표시된 앨범 커버의 영역의 타이틀 표시 영역 위에서 앨범을 선택하는데에도 유사하게 전용될 수 있다.
이전에 이미 선택된 앨범으로부터 타이틀을 교체하기 위해, 타이틀 표시 영역 상에서 예컨대 경우에 따라 사용자(10)에 대한 촉각에 의한 피드백 및/또는 음향적 피드백과 조합되는 "길게 누름 접촉"을 수행한다. 해당 영역의 우측 가장자리의 중앙으로부터 출발하여 둘러지는 띠가 좌측 가장자리의 중앙에서 닫혀 프레임(R)을 형성하고, 그 좌측 가장자리에 음성 인식기 심벌(S)이 나타난다. 음성 인식기는 활성 상태에 있고, 음성 입력을 받을 준비가 되어 있다. 음성 입력(M3)은 선택된 대상 또는 제공된 영역과의 상호 작용에 한정된 어휘 범위를 갖는 제1 또는 제2 실시 형태를 고려하여 수행된다. 도 12에 따르면, 예컨대 사용자가 "알리바이"라는 음성 명령을 말했고, 그럼으로써 해당 앨범으로부터 그 타이틀이 연주되고 있다. 이어서, 둘러진 프레임이 우측 가장자리의 중앙에서 다시 열려 음성 인식기 심벌(S) 쪽으로 사라지게 되는데, 프레임이 그 심벌(S)에 도달할 때에 음성 인식기가 비활성으로 전화되면서 음성 인식기 심벌(S)이 다시 사라지게 된다.
도 13은 내비게이션 디스플레이 상에서 POI 카테고리를 선택하는 예에서 선택도니 상호 작용 대상에 음성 인식기의 상태를 표시하기 위한 "그래픽 대화" 또는 "그래픽 피드백"을 나타내고 있다. 도 13에는, 표시 및 조작 요소(20, 60)에 호출되어 있는 내비게이션 디스플레이에 의거하여 그 방안이 도시되어 있다. 예컨대, 내비게이션 디스플레이 상에는 "호텔" 또는 "레스토랑" 또는 "구매 가능처"와 같은 각종의 POI 카테고리들이 기본 보기로 디스플레이되는데, POI 카테고리들은 아직 프레임(R)에 의해 둘러싸여 있지 않고, 음성 인식기 심벌(S)도 아직 표시되어 있지 않다. 기본적으로 전술된 바와 같이, 표시 및 조작 요소(20, 60) 상에서의 "길게 누름 접촉"에 의해 음성 인식기가 시작된다(역시 예컨대 촉각에 의한 피드백 및/또는 음향적 피드백과 조합되어). 우측 하단 코너로부터 출발하여, 프레임(R)이 먼저 좌측 상단 코너에서 닫히고 음성 인식기 심벌(S)이 나타난다. 따라서, 음성 인식기가 활성 상태에 있는 때를 사용자가 정확히 인식하여 음성 입력(M3)을 수행할 수 있게 하는 그래픽 피드백이 사용자에 제공되게 된다.
음성 입력(M3)은 선택된 영역과의 상호 작용에 제공되는 한정된 어휘 범위를 갖는 제1 또는 제2 실시 형태를 고려하여 수행된다. 도 13에서는, 사용자가 예컨대 "호텔"이라는 카테고리를 말하였다. 선택된 POI의 표시는 이미 전술된 구성에서와 같이 선택된 POI가 하이라이트되고, 도 14에 도시된 것처럼 자동으로 사용자(10)의 중심 시야로 더 이동되도록 수행된다.
이어서, 처음에 프레임(R)이 형성된 지점으로부터 출발하여, 띠(도 11에 도시된 바와 같은)가 프레임(R)dmf 사라지게 하면서 음성 인식기 심벌(S) 쪽으로 다시 둘러가고, 심벌(S)에 도달했을 때에 음성 인식기가 비활성 사태에 있게 되어 부속 심벌(S)이 다시 사라지게 된다.
도 14에서는, 내비게이션 디스플레이 상에서 음성 대화에 의해 도 13으로부터 선택된 개별 POI의 예에서 선택된 상호 작용 대상에 음성 인식기 상태를 표시하기 위한 그래픽 대화를 설명하기로 한다. 사용자(10)가 선택된 호텔에 관한 정보를 아울러 받고자 하면, 음성 대화 시스템을 사용하여 호텔과의 연락을 취하거나, 다음과 같이 다른 방식으로 상호 작용을 하여 대처한다. 대상으로서의 POI 그 자체 상에서 "길게 누름 접촉"을 수행한다. 사용자는 다시 전술된 선택 안들에 따라 또는 본 구성 방안과 조합하여 음성 인식기의 시작을 위한 입력이 성공하였음을 시그널링하는 촉각에 의한 피드백 및/또는 음향적 피드백을 받는다. 예컨대, POI 대상의 우측 가장자리의 중앙으로부터 출발하여 둘러지는 프레임(R)이 좌측 가장자리(R)에서 닫힌다.
그와 같이 생성된 프레임(R)과 음성 인식기 심벌(S)이 나타난다. 음성 인식기가 활성 상태에 있게 된다. 선택된 대상과의 상호 작용에 제공되는 한정된 어휘 범위를 갖는 제1 또는 제2 실시 형태를 고려하여 음성 입력(M3)을 수행한다. 예컨대, 사용자가 "운전"이라는 음성 명령(M3)을 말함으로써 호텔이 내비게이션 시스템의 경로 설정에 목적지로서 넘겨지게 된다. 혹은, 사용자가 "전화"라는 음성 명령(M3)을 말하고, 그에 따라 호텔로의 전화 연결이 자동으로 이뤄지게 된다. 이어서, 프레임(R)이 다시 열리는데, 프레임(R)이 대상의 우측 가장자리에서 열리기 시작하고, 띠가 다시 음성 인식기 심벌((S) 쪽으로 양 방향으로 둘러가면서 프레임(R)을 희미하게 함으로써 프레임(R)이 사라지게 하는 것이 바람직하다. 음성 인식기 심벌(S)이 다시 사라지고, 음서 인식기가 다시 비활성 상태에 있게 된다.
10: 사용자 20: 인식하는 표시 및 조작 장치
60: 출력하는 표시 및 조작 장치 입력 신호
M: 입력 신호 M1: 제1 모덜리티(촉각에 의한 조작 행동)
M2: 제2 모덜리티(제스처에 의한 조작 행동) M3: 제3 모덜리티(음성)
d: 거리 S: 음성 인식기 심벌 R: 프레임/가장자리
60: 출력하는 표시 및 조작 장치 입력 신호
M: 입력 신호 M1: 제1 모덜리티(촉각에 의한 조작 행동)
M2: 제2 모덜리티(제스처에 의한 조작 행동) M3: 제3 모덜리티(음성)
d: 거리 S: 음성 인식기 심벌 R: 프레임/가장자리
Claims (24)
- 적어도 하나의 조작 장치를 통해 음성 인식기에 공급되는 상이한 모덜리티(modality)의 입력 신호들을 검출하고, 그럼으로써 원하는 기능 및/또는 표시를 출력 신호로서 발생시켜 표시 및 조작 장치상에 표시하고/표시하거나 음성 출력에 의해 출력하는, 자동차에서 표시 및 조작 장치의 멀티모달 정보 입력 및/또는 표시의 적응을 위한 방법에 있어서,
표시 및 조작 장치(20, 60) 상에서의 또는 표시 및 조작 장치(20, 60) 곁에서의 촉각에 의한 및/또는 제스처에 의한 입력 신호들(M1, M2)에 의해 상호 작용에 제공되는 대상을 선택하고 음성 인식기를 활성화하며, 대상의 선택 및 음성 인식기의 활성화에 따라 선택된 대상에 의존하여 상호 작용에 제공되는 어휘 범위를 한정하고, 그에 따라 선택된 대상에 속한 한정된 어휘 범위의 음성 명령(M3)을 음성 인식기를 통해 정보 입력으로서 및/또는 표시의 적응을 위해 선택된 대상에 부가하는 것을 특징으로 하는, 멀티모달 정보 입력 및/또는 표시 적응 방법. - 제1항에 있어서, 상호 작용에 제공되는 대상의 결정에 따라, 표시 및 조작 장치(20) 상에서 "길게 누름" 접촉 및/또는 "더블 클릭" 접촉 및/또는 "2 손가락 터치" 및/또는 "드래그 동작"을 사용하여 촉각에 의한 입력 신호를 생성하는 조작 행동에 의해 음성 대화 시스템의 음성 인식기를 활성화하는 것을 특징으로 하는, 멀티모달 정보 입력 및/또는 표시 적응 방법.
- 제1항에 있어서, 제스처에 의한 입력 신호들을 생성하는 "일반적" 조작 의사를 갖는 조작 행동을 인식한 시점에 음성 대화 시스템의 음성 인식기를 자동으로 활성화하고 난 후에 비로소 상호 작용에 제공되는 표시 대상을 결정하고, 그에 따라 음성 입력이 예정보다 앞서는 경우에 음성 인식기를 통한 음성 평가가 이뤄지는 것이 보장되도록 하는 것을 특징으로 하는, 멀티모달 정보 입력 및/또는 표시 적응 방법.
- 제1항에 있어서, 음성 대화 시스템의 음성 인식기를 그 활성화 후 사용자(10)가 그 이내에 음성 명령(M3)을 부가할 수 있는 미리 주어질 수 있는 일정 시간 동안만 활성 상태로 있게 하되, 음성 인식기의 활성화 또는 비활성화를 상호 작용에 제공되는 영역 또는 대상 그 자체에서 그래픽 표시("그래픽 피드백")를 통해 수행하는 것을 특징으로 하는, 멀티모달 정보 입력 및/또는 표시 적응 방법.
- 제1항에 있어서, 부가되는 음성 명령(M3)은 싱글워드(single-word) 어휘 또는 멀티워드(multi-word) 어휘인 것을 특징으로 하는, 멀티모달 정보 입력 및/또는 표시 적응 방법.
- 제1항에 있어서, 출력 신호 및 그에 수반하는 변경된 기능을 생성하여 출력 모듈에 표시 대상을 표시하는 간단하고도 직관적인 멀티모달 조작을 발생시키기 위해, "표시 대상/음성-상호 작용"으로 싱글워드 어휘 또는 멀티워드 어휘의 형태의 음성 명령(M3)(전적으로 하나의 동사 및/또는 여러 동사들만을 사용하는)을 결정된 표시 대상에 부가하는 것을 특징으로 하는, 멀티모달 정보 입력 및/또는 표시 적응 방법.
- 제1항에 있어서, 표시 및 조작 요소(60)에서 출력 신호 및 그에 수반하는 대상의 변경된 기능 및/또는 표시를 생성하는 간단하고도 직관적인 멀티모달 조작을 발생시키기 위해, "표시 대상-상황/음성-상호 작용"으로 싱글워드 어휘 또는 멀티워드 어휘의 형태의 음성 명령(M3)(하나의 및/또는 여러 상황 관련 어휘(들)를 사용하는)을 결정된 대상에 부가하는 것을 특징으로 하는, 멀티모달 정보 입력 및/또는 표시 적응 방법.
- 제1항에 있어서, 음성 명령(M3)을 음성 인식기에 의한 그 인식 직후 미리 주어질 수 있는 일정 시간 동안 오버레이하는 것을 특징으로 하는, 멀티모달 정보 입력 및/또는 표시 적응 방법.
- 제2항 내지 제5항 중의 어느 한 항에 있어서, 표시 및 조작 요소(20, 60)에서 상호 작용에 제공되는 영역 또는 대상에서의 그래픽 표시인 "그래픽 피드백"에 의해 및/또는 촉각에 의한 신호 및/또는 음향적 신호인 "촉각에 의한 피드백 및/또는 음향적 피드백"에 의해 음성 인식기의 활성화 또는 비활성화를 시그널링하되, 음성 인식기의 활성화 후 음성 입력(M3)의 입력에 제공되는 미리 주어질 수 있는 시간을 표시 및 조작 요소(20, 60)에서 상호 작용에 제공되는 영역 또는 대상 그 자체에 그래픽으로 표시하는 것을 특징으로 하는, 멀티모달 정보 입력 및/또는 표시 적응 방법.
- 제1항에 있어서, 상호 작용에 제공되도록 결정된 표시 대상에 맞지 않는 음성 명령의 입력 시에 그래픽에 의한 및/또는 음향적 표시 또는 시그널링을 수행하는 것을 특징으로 하는, 멀티모달 정보 입력 및/또는 표시 적응 방법.
- 제1항에 있어서, 표시 및 조작 장치(60)에 선행 연결된 표시 관리자가 입력 신호들(M1, M2, M3)에 의존하여 출력의 타입과 적절한 표시 방법의 선택을 결정하는 것을 특징으로 하는, 멀티모달 정보 입력 및/또는 표시 적응 방법.
- 제1항 내지 제8항 중의 어느 한 항에 있어서, 표시 및 조작 장치(20)를 통해 표시 및 조작 장치(20), 특히 터치스크린으로부터의 조작 이동의 거리에 의존하여 제2 모덜리티(M2)의 조작 의사를 입력하고 제스처에 의한 입력 신호(M2)를 검출하여 제스처에 의한 입력 신호(M2)에 의존해서 표시 및 조작 장치(60)의 표시 모드와 하나 이상의 조작 모드 사이의 상황에 따른 교체를 구현하는 것을 특징으로 하는,멀티모달 정보 입력 및/또는 표시 적응 방법.
- 제14항에 있어서, 제스처에 의한 입력 신호(M2)의 조작 의사는 그 조작 의사에 영향을 미치는 또 다른 모덜리티(M1, M3)의 다른 모든 입력 신호들과 중첩될 수 있는 것을 특징으로 하는, 멀티모달 정보 입력 및/또는 표시 적응 방법.
- 제14항에 있어서, 표시 및 조작 장치(20)가 조작 행동을 검출하지 않아 표시 관리자에 선행 연결된 정보 관리자가 조작 의사를 인식하지 못하되, 표시 관리자는 정보 내용의 디스플레이 및 표시와 관련하여 표시 및 조작 장치(20, 60)를 "표시 모드"로서 최적화시키는 것을 특징으로 하는, 멀티모달 정보 입력 및/또는 표시 적응 방법.
- 제14항에 있어서, 표시 및 조작 장치(20, 60)가 d ≥ 미리 주어질 수 있는 거리, 특히 d ≥ 5㎝의 범위의 조작 이동을 검출하여 정보 관리자가 "일반적" 조작 의사를 인식하되, 표시 관리자는 개선된 조작을 위해 표시 및 조작 장치(20, 60)를 전체의 영역에서 "제1 조작 모드"로 최적화시키는 것을 특징으로 하는, 멀티모달 정보 입력 및/또는 표시 적응 방법.
- 제1항에 있어서, 표시 및 조작 장치(20, 60)가 d < 미리 주어질 수 있는 거리, 특히 d < 5㎝의 범위의 조작 이동을 인식하여 정보 관리자가 선택된 대상의 "잠재적으로 가리켜진" 조작 의사를 인식하되, 표시 관리자는 "잠재적으로 가리켜진" 대상의 개선된 조작을 위해 표시 및 조작 장치(20, 60)를 가리켜진 표시 영역에서 "제2 조작 모드"로 최적화시키는 것을 특징으로 하는, 멀티모달 정보 입력 및/또는 표시 적응 방법.
- 제17항 또는 제18항에 있어서, 조작 모드의 최적화를 미리 주어질 수 있는 표시 영역의 스케일 조정(scaling), 오버레이(overlay), 줌(zoom)을 통해 수행하고, 그에 의해 조작성이 더 좋은 조작 인터페이스를 생성하는 것을 특징으로 하는, 멀티모달 정보 입력 및/또는 표시 적응 방법.
- 제1항에 있어서, 차량 시스템의 사용 상황으로부터 정보들(예컨대, 속도, 도로 종류, 교통 밀도, 차량의 보조 레벨)을 공급함으로써, 사용자(10)의 요구 상황을 기반으로 표시 및 조작 장치(20, 60) 상의 가용 표시 면적의 적응을 구현하는 것을 특징으로 하는, 멀티모달 정보 입력 및/또는 표시 적응 방법.
- 사용자의 멀티모달 상호 작용으로부터 출발하여 그 입력 신호들이 각각의 모덜리티에 할당된 사용자 인터페이스를 통해 표시 및 조작 요소와 음성 인식기에 의해 공급될 수 있되, 입력 신호들의 평가를 위해 정보 관리자가 배치되고, 정보 관리자는 입력 신호들에 의존하여 표시 관리자에 출력 신호들을 전달하며, 출력 신호는 표시 관리자에 후속 연결된 표시 및 조작 요소 및/또는 음성 인식기에서 사용자에 제공될 수 있는 멀티모달 정보 입력 및 표시 적응을 위한 시스템 구조에 있어서,
여러 모덜리티(M1, M2, M3)의 입력 신호들이 협력적으로 정보 관리자에 의해 검출될 수 있고, 정보 관리자가 얻은 입력 신호들(M1, M2, M3)로부터 출발하여 표시 관리자가 제어 동작할 수 있으며, 입력 신호들(M1, M2, M3)에 의존하여 준비된 출력 신호들이 표시 및 조작 장치(20, 60) 및/또는 음성 인식기에 제공되는 것을 특징으로 하는, 멀티모달 정보 입력 및 표시 적응을 위한 시스템 구조. - 제21항에 있어서, 입력 신호들(M1, M2)을 검출하는 표시 및 조작 장치(20, 60)는 조작 요소들이 부속된 디스플레이이거나, 조작 요소들이 부속되고 용량형 센서 시스템이 병렬된 터치스크린인 것을 특징으로 하는, 멀티모달 정보 입력 및 표시 적응을 위한 시스템 구조.
- 제21항에 있어서, 출력 신호들을 출력하는 표시 및 조작 장치(20, 60)는 디스플레이 또는 터치스크린인 것을 특징으로 하는, 멀티모달 정보 입력 및 표시 적응을 위한 시스템 구조.
- 제21항에 있어서, 표시 관리자는 정보 관리자에 의해 검출된 입력 신호들(M1, M2, M3)에 의존하여 출력 신호들을 생성하되, 출력 신호들은 예컨대
경로 설정, 출발지 및/또는 목적지 입력의 정정, POI 검색, POI 선택, POI 상호 작용, 통신 기능과 같은 시스템 기능들을 갖는 내비게이션 시스템 또는
음악 타이틀의 선곡 및/또는 정정과 같은 시스템 기능들을 갖는 오락 시스템 등의 다양한 시스템들의 상위 선택을 위한 조작 레벨들을 디스플레이 및 조작하는데 사용되는 것을 특징으로 하는, 멀티모달 정보 입력 및 표시 적응을 위한 시스템 구조.
Applications Claiming Priority (6)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102007053779 | 2007-11-12 | ||
DE102007053779.6 | 2007-11-12 | ||
DE102008051757.7 | 2008-10-15 | ||
DE102008051756.9 | 2008-10-15 | ||
DE200810051757 DE102008051757A1 (de) | 2007-11-12 | 2008-10-15 | Multimodale Benutzerschnittstelle eines Fahrerassistenzsystems zur Eingabe und Präsentation von Informationen |
DE200810051756 DE102008051756A1 (de) | 2007-11-12 | 2008-10-15 | Multimodale Benutzerschnittstelle eines Fahrerassistenzsystems zur Eingabe und Präsentation von Informationen |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20100076998A true KR20100076998A (ko) | 2010-07-06 |
KR101647848B1 KR101647848B1 (ko) | 2016-08-11 |
Family
ID=40530802
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020107009294A KR101647848B1 (ko) | 2007-11-12 | 2008-11-12 | 정보 입력 및 표시를 위한 운전자 보조 시스템의 멀티모드 사용자 인터페이스 |
Country Status (6)
Country | Link |
---|---|
US (1) | US9103691B2 (ko) |
EP (1) | EP2223046B1 (ko) |
KR (1) | KR101647848B1 (ko) |
CN (1) | CN101855521B (ko) |
DE (2) | DE102008051757A1 (ko) |
WO (1) | WO2009062677A2 (ko) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20150068957A (ko) * | 2012-10-12 | 2015-06-22 | 마이크로소프트 테크놀로지 라이센싱, 엘엘씨 | 애플리케이션과의 상호작용으로서의 다모드 사용자 표현 및 사용자 인텐서티 검출 기법 |
KR20150146091A (ko) * | 2014-06-20 | 2015-12-31 | 엘지전자 주식회사 | 이동단말기 및 그 제어방법 |
CN111169408A (zh) * | 2019-12-19 | 2020-05-19 | 苏州禾昆智能科技有限公司 | 一种车内中控基于卡片的主副驾协助系统及其方法 |
WO2023128104A1 (ko) * | 2021-12-31 | 2023-07-06 | 주식회사 씨케이머티리얼즈랩 | 촉각 키보드 및 촉각 입력 장치 |
KR20230103812A (ko) * | 2021-12-31 | 2023-07-07 | 주식회사 씨케이머티리얼즈랩 | 촉각 키보드 및 촉각 입력 장치 |
Families Citing this family (372)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8677377B2 (en) | 2005-09-08 | 2014-03-18 | Apple Inc. | Method and apparatus for building an intelligent automated assistant |
US9318108B2 (en) | 2010-01-18 | 2016-04-19 | Apple Inc. | Intelligent automated assistant |
US8073681B2 (en) | 2006-10-16 | 2011-12-06 | Voicebox Technologies, Inc. | System and method for a cooperative conversational voice user interface |
US7818176B2 (en) | 2007-02-06 | 2010-10-19 | Voicebox Technologies, Inc. | System and method for selecting and presenting advertisements based on natural language processing of voice-based input |
US8977255B2 (en) | 2007-04-03 | 2015-03-10 | Apple Inc. | Method and system for operating a multi-function portable electronic device using voice-activation |
JP4942814B2 (ja) * | 2007-06-05 | 2012-05-30 | 三菱電機株式会社 | 車両用操作装置 |
DE102008051757A1 (de) | 2007-11-12 | 2009-05-14 | Volkswagen Ag | Multimodale Benutzerschnittstelle eines Fahrerassistenzsystems zur Eingabe und Präsentation von Informationen |
US8140335B2 (en) | 2007-12-11 | 2012-03-20 | Voicebox Technologies, Inc. | System and method for providing a natural language voice user interface in an integrated voice navigation services environment |
US10002189B2 (en) | 2007-12-20 | 2018-06-19 | Apple Inc. | Method and apparatus for searching using an active ontology |
US9330720B2 (en) | 2008-01-03 | 2016-05-03 | Apple Inc. | Methods and apparatus for altering audio output signals |
US8996376B2 (en) | 2008-04-05 | 2015-03-31 | Apple Inc. | Intelligent text-to-speech conversion |
US9305548B2 (en) | 2008-05-27 | 2016-04-05 | Voicebox Technologies Corporation | System and method for an integrated, multi-modal, multi-device natural language voice services environment |
US20100030549A1 (en) | 2008-07-31 | 2010-02-04 | Lee Michael M | Mobile device having human language translation capability with positional feedback |
US8676904B2 (en) | 2008-10-02 | 2014-03-18 | Apple Inc. | Electronic devices with voice command and contextual data processing capabilities |
US8326637B2 (en) | 2009-02-20 | 2012-12-04 | Voicebox Technologies, Inc. | System and method for processing multi-modal device interactions in a natural language voice services environment |
US8849570B2 (en) * | 2009-03-19 | 2014-09-30 | Microsoft Corporation | Projected way-finding |
US20100241999A1 (en) * | 2009-03-19 | 2010-09-23 | Microsoft Corporation | Canvas Manipulation Using 3D Spatial Gestures |
US20100241987A1 (en) * | 2009-03-19 | 2010-09-23 | Microsoft Corporation | Tear-Drop Way-Finding User Interfaces |
US8121640B2 (en) * | 2009-03-19 | 2012-02-21 | Microsoft Corporation | Dual module portable devices |
US20100281435A1 (en) * | 2009-04-30 | 2010-11-04 | At&T Intellectual Property I, L.P. | System and method for multimodal interaction using robust gesture processing |
US10706373B2 (en) | 2011-06-03 | 2020-07-07 | Apple Inc. | Performing actions associated with task items that represent tasks to perform |
US10241752B2 (en) | 2011-09-30 | 2019-03-26 | Apple Inc. | Interface for a virtual digital assistant |
US10241644B2 (en) | 2011-06-03 | 2019-03-26 | Apple Inc. | Actionable reminder entries |
US8412531B2 (en) | 2009-06-10 | 2013-04-02 | Microsoft Corporation | Touch anywhere to speak |
US9477400B2 (en) * | 2009-06-11 | 2016-10-25 | Alpine Electronics, Inc. | Method and apparatus for navigation system for selecting icons and application area by hand drawing on map image |
US9431006B2 (en) | 2009-07-02 | 2016-08-30 | Apple Inc. | Methods and apparatuses for automatic speech recognition |
US20110022307A1 (en) * | 2009-07-27 | 2011-01-27 | Htc Corporation | Method for operating navigation frame, navigation apparatus and recording medium |
TWI408340B (zh) * | 2009-07-27 | 2013-09-11 | Htc Corp | 導航路徑顯示方法、導航裝置及電腦程式產品 |
KR101597289B1 (ko) * | 2009-07-31 | 2016-03-08 | 삼성전자주식회사 | 동적 화면에 따라 음성을 인식하는 장치 및 방법 |
DE102009037658A1 (de) | 2009-08-14 | 2011-02-17 | Audi Ag | Fahrzeug mit mehreren Funktionen und einer zugehörigen Auswahleinrichtung |
KR101622196B1 (ko) * | 2009-09-07 | 2016-05-18 | 삼성전자주식회사 | 휴대용 단말기에서 피오아이 정보 제공 방법 및 장치 |
US8294683B2 (en) * | 2009-09-25 | 2012-10-23 | Mitac International Corp. | Method of processing touch commands and voice commands in parallel in an electronic device supporting speech recognition |
DE102009051882A1 (de) * | 2009-11-04 | 2011-05-05 | Volkswagen Ag | Verfahren und Vorrichtung zur Spracheingabe für ein Fahrzeug |
JP5252352B2 (ja) * | 2009-11-05 | 2013-07-31 | クラリオン株式会社 | 情報端末装置、情報端末管理システム及びプログラム |
WO2011059997A1 (en) | 2009-11-10 | 2011-05-19 | Voicebox Technologies, Inc. | System and method for providing a natural language content dedication service |
US9171541B2 (en) | 2009-11-10 | 2015-10-27 | Voicebox Technologies Corporation | System and method for hybrid processing in a natural language voice services environment |
DE102009058151B4 (de) * | 2009-12-12 | 2020-08-20 | Volkswagen Ag | Verfahren zum Betreiben eines Sprachdialogsystems mit semantischer Bewertung und Sprachdialogsystem dazu |
DE102009059792A1 (de) * | 2009-12-21 | 2011-06-22 | Continental Automotive GmbH, 30165 | Verfahren und Vorrichtung zur Bedienung technischer Einrichtungen, insbesondere eines Kraftfahrzeugs |
DE102009059981A1 (de) * | 2009-12-22 | 2011-06-30 | Volkswagen AG, 38440 | Verfahren zum Anzeigen einer Mehrzahl auswählberer Elemente und Vorrichtung zum Durchführen des Verfahrens |
US8494852B2 (en) | 2010-01-05 | 2013-07-23 | Google Inc. | Word-level correction of speech input |
US10276170B2 (en) | 2010-01-18 | 2019-04-30 | Apple Inc. | Intelligent automated assistant |
JP2011150413A (ja) * | 2010-01-19 | 2011-08-04 | Sony Corp | 情報処理装置、操作入力方法及び操作入力プログラム |
JP5636678B2 (ja) * | 2010-01-19 | 2014-12-10 | ソニー株式会社 | 表示制御装置、表示制御方法及び表示制御プログラム |
JP2011150414A (ja) * | 2010-01-19 | 2011-08-04 | Sony Corp | 情報処理装置、操作入力決定方法及び操作入力決定プログラム |
CN103189824B (zh) | 2010-02-10 | 2017-06-09 | 微晶片科技德国公司 | 用于产生与手动输入操作相关的信号的系统及方法 |
US8682667B2 (en) | 2010-02-25 | 2014-03-25 | Apple Inc. | User profiling for selecting user specific voice input processing information |
EP2362186A1 (de) * | 2010-02-26 | 2011-08-31 | Deutsche Telekom AG | Bedieneinrichtung für elektronische Gerätefunktionen in einem Kraftfahrzeug |
DE102010011885A1 (de) * | 2010-03-18 | 2011-09-22 | Volkswagen Ag | Verfahren zur Steuerung eines elektronischen Systems für ein Fahrzeug sowie entsprechende Steuerung |
US9007190B2 (en) | 2010-03-31 | 2015-04-14 | Tk Holdings Inc. | Steering wheel sensors |
DE102011006344B4 (de) | 2010-03-31 | 2020-03-12 | Joyson Safety Systems Acquisition Llc | Insassenmesssystem |
US8725230B2 (en) | 2010-04-02 | 2014-05-13 | Tk Holdings Inc. | Steering wheel with hand sensors |
US8296151B2 (en) * | 2010-06-18 | 2012-10-23 | Microsoft Corporation | Compound gesture-speech commands |
US9349368B1 (en) | 2010-08-05 | 2016-05-24 | Google Inc. | Generating an audio notification based on detection of a triggering event |
US8359020B2 (en) * | 2010-08-06 | 2013-01-22 | Google Inc. | Automatically monitoring for voice input based on context |
US20120038668A1 (en) * | 2010-08-16 | 2012-02-16 | Lg Electronics Inc. | Method for display information and mobile terminal using the same |
US20120050007A1 (en) * | 2010-08-24 | 2012-03-01 | Babak Forutanpour | Methods and apparatus for interacting with an electronic device application by moving an object in the air over an electronic device display |
JP5636888B2 (ja) * | 2010-11-09 | 2014-12-10 | ソニー株式会社 | 情報処理装置、プログラムおよびコマンド生成方法 |
FR2969783B1 (fr) * | 2010-12-22 | 2012-12-28 | Peugeot Citroen Automobiles Sa | Interface homme machine comprenant une surface tactile de commande integrant un retour direct a la racine |
US8810437B2 (en) * | 2011-02-02 | 2014-08-19 | Mapquest, Inc. | Systems and methods for generating electronic map displays with points-of-interest information based on reference locations |
US9081550B2 (en) * | 2011-02-18 | 2015-07-14 | Nuance Communications, Inc. | Adding speech capabilities to existing computer applications with complex graphical user interfaces |
US9262612B2 (en) | 2011-03-21 | 2016-02-16 | Apple Inc. | Device access using voice authentication |
JP5782775B2 (ja) * | 2011-03-29 | 2015-09-24 | ソニー株式会社 | 情報表示装置および情報表示方法、並びにプログラム |
DE102011015693A1 (de) | 2011-03-31 | 2012-10-04 | Volkswagen Aktiengesellschaft | Verfahren und Vorrichtung zum Bereitstellen einer Nutzerschnittstelle, insbesondere in einem Fahrzeug |
US9368107B2 (en) * | 2011-04-20 | 2016-06-14 | Nuance Communications, Inc. | Permitting automated speech command discovery via manual event to command mapping |
US9495128B1 (en) * | 2011-05-03 | 2016-11-15 | Open Invention Network Llc | System and method for simultaneous touch and voice control |
US9263045B2 (en) | 2011-05-17 | 2016-02-16 | Microsoft Technology Licensing, Llc | Multi-mode text input |
US10057736B2 (en) | 2011-06-03 | 2018-08-21 | Apple Inc. | Active transport based notifications |
US8928336B2 (en) | 2011-06-09 | 2015-01-06 | Ford Global Technologies, Llc | Proximity switch having sensitivity control and method therefor |
US8975903B2 (en) | 2011-06-09 | 2015-03-10 | Ford Global Technologies, Llc | Proximity switch having learned sensitivity and method therefor |
DE102011106271B4 (de) * | 2011-07-01 | 2013-05-08 | Volkswagen Aktiengesellschaft | Verfahren und Vorrichtung zum Bereitstellen einer Sprachschnittstelle, insbesondere in einem Fahrzeug |
US20130002577A1 (en) * | 2011-07-01 | 2013-01-03 | Empire Technology Development Llc | Adaptive user interface |
US9417754B2 (en) | 2011-08-05 | 2016-08-16 | P4tents1, LLC | User interface system, method, and computer program product |
US10004286B2 (en) | 2011-08-08 | 2018-06-26 | Ford Global Technologies, Llc | Glove having conductive ink and method of interacting with proximity sensor |
WO2013034294A1 (de) * | 2011-09-08 | 2013-03-14 | Daimler Ag | Bedienvorrichtung für ein kraftfahrzeug und verfahren zum bedienen der bedienvorrichtung für ein kraftfahrzeug |
JP5691961B2 (ja) * | 2011-09-14 | 2015-04-01 | 株式会社デンソー | インターフェース装置 |
US9143126B2 (en) | 2011-09-22 | 2015-09-22 | Ford Global Technologies, Llc | Proximity switch having lockout control for controlling movable panel |
AU2012316484A1 (en) * | 2011-09-30 | 2014-04-17 | Apple Inc. | Automatically adapting user interfaces for hands-free interaction |
DE102011116188A1 (de) * | 2011-10-14 | 2013-04-18 | Volkswagen Aktiengesellschaft | Verfahren zum Auswählen eines Abschnitts einer Route für ein Navigationssystem und Navigationssystem |
US10112556B2 (en) | 2011-11-03 | 2018-10-30 | Ford Global Technologies, Llc | Proximity switch having wrong touch adaptive learning and method |
US8994228B2 (en) | 2011-11-03 | 2015-03-31 | Ford Global Technologies, Llc | Proximity switch having wrong touch feedback |
US8878438B2 (en) | 2011-11-04 | 2014-11-04 | Ford Global Technologies, Llc | Lamp and proximity switch assembly and method |
CN104040620B (zh) * | 2011-12-29 | 2017-07-14 | 英特尔公司 | 用于进行直接语法存取的装置和方法 |
DE102012000274A1 (de) * | 2012-01-10 | 2013-07-11 | Daimler Ag | Verfahren und Vorrichtung zum Bedienen von Funktionen in einem Fahrzeug unter Verwendung von im dreidimensionalen Raum ausgeführten Gesten sowie betreffendes Computerprogrammprodukt |
US8788273B2 (en) * | 2012-02-15 | 2014-07-22 | Robbie Donald EDGAR | Method for quick scroll search using speech recognition |
US10134385B2 (en) | 2012-03-02 | 2018-11-20 | Apple Inc. | Systems and methods for name pronunciation |
US9831870B2 (en) | 2012-04-11 | 2017-11-28 | Ford Global Technologies, Llc | Proximity switch assembly and method of tuning same |
US9065447B2 (en) | 2012-04-11 | 2015-06-23 | Ford Global Technologies, Llc | Proximity switch assembly and method having adaptive time delay |
US9219472B2 (en) | 2012-04-11 | 2015-12-22 | Ford Global Technologies, Llc | Proximity switch assembly and activation method using rate monitoring |
US9184745B2 (en) | 2012-04-11 | 2015-11-10 | Ford Global Technologies, Llc | Proximity switch assembly and method of sensing user input based on signal rate of change |
US9660644B2 (en) | 2012-04-11 | 2017-05-23 | Ford Global Technologies, Llc | Proximity switch assembly and activation method |
US8933708B2 (en) | 2012-04-11 | 2015-01-13 | Ford Global Technologies, Llc | Proximity switch assembly and activation method with exploration mode |
US9559688B2 (en) | 2012-04-11 | 2017-01-31 | Ford Global Technologies, Llc | Proximity switch assembly having pliable surface and depression |
US9287864B2 (en) | 2012-04-11 | 2016-03-15 | Ford Global Technologies, Llc | Proximity switch assembly and calibration method therefor |
US9520875B2 (en) | 2012-04-11 | 2016-12-13 | Ford Global Technologies, Llc | Pliable proximity switch assembly and activation method |
US9531379B2 (en) | 2012-04-11 | 2016-12-27 | Ford Global Technologies, Llc | Proximity switch assembly having groove between adjacent proximity sensors |
US9568527B2 (en) | 2012-04-11 | 2017-02-14 | Ford Global Technologies, Llc | Proximity switch assembly and activation method having virtual button mode |
US9197206B2 (en) | 2012-04-11 | 2015-11-24 | Ford Global Technologies, Llc | Proximity switch having differential contact surface |
US9944237B2 (en) | 2012-04-11 | 2018-04-17 | Ford Global Technologies, Llc | Proximity switch assembly with signal drift rejection and method |
WO2013154720A1 (en) | 2012-04-13 | 2013-10-17 | Tk Holdings Inc. | Pressure sensor including a pressure sensitive material for use with control systems and methods of using the same |
US9280610B2 (en) | 2012-05-14 | 2016-03-08 | Apple Inc. | Crowd sourcing information to fulfill user requests |
US10417037B2 (en) | 2012-05-15 | 2019-09-17 | Apple Inc. | Systems and methods for integrating third party services with a digital assistant |
US9136840B2 (en) | 2012-05-17 | 2015-09-15 | Ford Global Technologies, Llc | Proximity switch assembly having dynamic tuned threshold |
US8981602B2 (en) | 2012-05-29 | 2015-03-17 | Ford Global Technologies, Llc | Proximity switch assembly having non-switch contact and method |
CN102756699B (zh) * | 2012-06-01 | 2014-12-10 | 惠州华阳通用电子有限公司 | 车载系统及其用户界面切换方法 |
US9418672B2 (en) | 2012-06-05 | 2016-08-16 | Apple Inc. | Navigation application with adaptive instruction text |
US9052197B2 (en) | 2012-06-05 | 2015-06-09 | Apple Inc. | Providing navigation instructions while device is in locked mode |
US9111380B2 (en) | 2012-06-05 | 2015-08-18 | Apple Inc. | Rendering maps |
US9159153B2 (en) | 2012-06-05 | 2015-10-13 | Apple Inc. | Method, system and apparatus for providing visual feedback of a map view change |
US10176633B2 (en) | 2012-06-05 | 2019-01-08 | Apple Inc. | Integrated mapping and navigation application |
US9997069B2 (en) | 2012-06-05 | 2018-06-12 | Apple Inc. | Context-aware voice guidance |
US9230556B2 (en) | 2012-06-05 | 2016-01-05 | Apple Inc. | Voice instructions during navigation |
US9482296B2 (en) | 2012-06-05 | 2016-11-01 | Apple Inc. | Rendering road signs during navigation |
US9367959B2 (en) * | 2012-06-05 | 2016-06-14 | Apple Inc. | Mapping application with 3D presentation |
US9311750B2 (en) | 2012-06-05 | 2016-04-12 | Apple Inc. | Rotation operations in a mapping application |
US9886794B2 (en) | 2012-06-05 | 2018-02-06 | Apple Inc. | Problem reporting in maps |
US9337832B2 (en) | 2012-06-06 | 2016-05-10 | Ford Global Technologies, Llc | Proximity switch and method of adjusting sensitivity therefor |
US9721563B2 (en) | 2012-06-08 | 2017-08-01 | Apple Inc. | Name recognition system |
US9092394B2 (en) * | 2012-06-15 | 2015-07-28 | Honda Motor Co., Ltd. | Depth based context identification |
DE102012012697A1 (de) * | 2012-06-26 | 2014-01-02 | Leopold Kostal Gmbh & Co. Kg | Bediensystem für ein Kraftfahrzeug |
US9641172B2 (en) | 2012-06-27 | 2017-05-02 | Ford Global Technologies, Llc | Proximity switch assembly having varying size electrode fingers |
KR102003255B1 (ko) * | 2012-06-29 | 2019-07-24 | 삼성전자 주식회사 | 다중 입력 처리 방법 및 장치 |
DE102012013503B4 (de) * | 2012-07-06 | 2014-10-09 | Audi Ag | Verfahren und Steuerungssystem zum Betreiben eines Kraftwagens |
KR101987255B1 (ko) * | 2012-08-20 | 2019-06-11 | 엘지이노텍 주식회사 | 음성 인식 장치 및 이의 음성 인식 방법 |
US8922340B2 (en) | 2012-09-11 | 2014-12-30 | Ford Global Technologies, Llc | Proximity switch based door latch release |
JP6260622B2 (ja) | 2012-09-17 | 2018-01-17 | ティーケー ホールディングス インク.Tk Holdings Inc. | 単一層力センサ |
US9547647B2 (en) | 2012-09-19 | 2017-01-17 | Apple Inc. | Voice-based media searching |
DE102012219852A1 (de) | 2012-10-30 | 2014-04-30 | Robert Bosch Gmbh | Verfahren und Vorrichtung zum Beeinflussen einer Text-zu-Sprache-Ausgabe |
US8796575B2 (en) | 2012-10-31 | 2014-08-05 | Ford Global Technologies, Llc | Proximity switch assembly having ground layer |
WO2014068788A1 (ja) * | 2012-11-05 | 2014-05-08 | 三菱電機株式会社 | 音声認識装置 |
DE102012021627A1 (de) * | 2012-11-06 | 2014-05-08 | Volkswagen Aktiengesellschaft | Verfahren zum Anzeigen von Informationen in einem Fahrzeug und Vorrichtung zum Steuern der Anzeige |
US9798799B2 (en) * | 2012-11-15 | 2017-10-24 | Sri International | Vehicle personal assistant that interprets spoken natural language input based upon vehicle context |
CN103839548B (zh) * | 2012-11-26 | 2018-06-01 | 腾讯科技(北京)有限公司 | 一种语音交互方法、装置、系统和移动终端 |
KR20140070861A (ko) * | 2012-11-28 | 2014-06-11 | 한국전자통신연구원 | 멀티 모달 hmi 제어 장치 및 방법 |
DE102012024954A1 (de) * | 2012-12-20 | 2014-06-26 | Volkswagen Aktiengesellschaft | Verfahren zur Kennzeichnung einer Teilmenge einer in einer Speichereinheit abgelegten Grundmenge von Datensätzen und zur Visualisierung zumindest eines Teils der gekennzeichneten Teilmenge auf einer Anzeigeeinheit |
US9258676B2 (en) * | 2013-01-29 | 2016-02-09 | Blackberry Limited | Mobile device for creating, managing and sharing location information |
CN103970459A (zh) * | 2013-01-30 | 2014-08-06 | 建兴电子科技股份有限公司 | 供交通工具使用的指令反馈系统及方法 |
DE102013001773A1 (de) | 2013-01-31 | 2014-07-31 | Audi Ag | Verfahren zum Betreiben einer Vorrichtung zum Wiedergeben von Medieninhalten sowie Vorrichtung zum Wiedergeben von Medieninhalten |
JP2014147511A (ja) * | 2013-01-31 | 2014-08-21 | Gree Inc | プログラム、表示システム及びサーバ装置 |
US20140218372A1 (en) * | 2013-02-05 | 2014-08-07 | Apple Inc. | Intelligent digital assistant in a desktop environment |
CN113470640B (zh) | 2013-02-07 | 2022-04-26 | 苹果公司 | 数字助理的语音触发器 |
US8744645B1 (en) | 2013-02-26 | 2014-06-03 | Honda Motor Co., Ltd. | System and method for incorporating gesture and voice recognition into a single system |
US9311204B2 (en) | 2013-03-13 | 2016-04-12 | Ford Global Technologies, Llc | Proximity interface development system having replicator and method |
US10652394B2 (en) | 2013-03-14 | 2020-05-12 | Apple Inc. | System and method for processing voicemail |
US9164281B2 (en) | 2013-03-15 | 2015-10-20 | Honda Motor Co., Ltd. | Volumetric heads-up display with dynamic focal plane |
US20140267035A1 (en) * | 2013-03-15 | 2014-09-18 | Sirius Xm Connected Vehicle Services Inc. | Multimodal User Interface Design |
US9251715B2 (en) | 2013-03-15 | 2016-02-02 | Honda Motor Co., Ltd. | Driver training system using heads-up display augmented reality graphics elements |
US9747898B2 (en) * | 2013-03-15 | 2017-08-29 | Honda Motor Co., Ltd. | Interpretation of ambiguous vehicle instructions |
US10339711B2 (en) | 2013-03-15 | 2019-07-02 | Honda Motor Co., Ltd. | System and method for providing augmented reality based directions based on verbal and gestural cues |
US9378644B2 (en) | 2013-03-15 | 2016-06-28 | Honda Motor Co., Ltd. | System and method for warning a driver of a potential rear end collision |
US10748529B1 (en) | 2013-03-15 | 2020-08-18 | Apple Inc. | Voice activated device for use with a voice-based digital assistant |
US9393870B2 (en) | 2013-03-15 | 2016-07-19 | Honda Motor Co., Ltd. | Volumetric heads-up display with dynamic focal plane |
US9436287B2 (en) * | 2013-03-15 | 2016-09-06 | Qualcomm Incorporated | Systems and methods for switching processing modes using gestures |
US10215583B2 (en) | 2013-03-15 | 2019-02-26 | Honda Motor Co., Ltd. | Multi-level navigation monitoring and control |
DE102013006025A1 (de) | 2013-04-08 | 2014-10-23 | Audi Ag | Methode zur Auflösung und Bedienung von POl-Stapeln |
CN103235643A (zh) * | 2013-04-09 | 2013-08-07 | 青岛旲天下智能科技有限公司 | 采用声控式的人机交互设备 |
US9395764B2 (en) * | 2013-04-25 | 2016-07-19 | Filippo Costanzo | Gestural motion and speech interface control method for 3d audio-video-data navigation on handheld devices |
DE102013007502A1 (de) * | 2013-04-25 | 2014-10-30 | Elektrobit Automotive Gmbh | Computer-implementiertes Verfahren zum automatischen Trainieren eins Dialogsystems und Dialogsystem zur Erzeugung von semantischen Annotationen |
CN103280217B (zh) * | 2013-05-02 | 2016-05-04 | 锤子科技(北京)有限公司 | 一种移动终端的语音识别方法及其装置 |
US9892729B2 (en) * | 2013-05-07 | 2018-02-13 | Qualcomm Incorporated | Method and apparatus for controlling voice activation |
TWI547626B (zh) | 2013-05-31 | 2016-09-01 | 原相科技股份有限公司 | 具有手勢感測器的裝置 |
JP6100101B2 (ja) * | 2013-06-04 | 2017-03-22 | アルパイン株式会社 | 音声認識を利用した候補選択装置および候補選択方法 |
US9286029B2 (en) | 2013-06-06 | 2016-03-15 | Honda Motor Co., Ltd. | System and method for multimodal human-vehicle interaction and belief tracking |
WO2014197334A2 (en) | 2013-06-07 | 2014-12-11 | Apple Inc. | System and method for user-specified pronunciation of words for speech synthesis and recognition |
WO2014197335A1 (en) | 2013-06-08 | 2014-12-11 | Apple Inc. | Interpreting and acting upon commands that involve sharing information with remote devices |
US10176167B2 (en) | 2013-06-09 | 2019-01-08 | Apple Inc. | System and method for inferring user intent from speech inputs |
CN110442699A (zh) | 2013-06-09 | 2019-11-12 | 苹果公司 | 操作数字助理的方法、计算机可读介质、电子设备和系统 |
CN104238735A (zh) * | 2013-06-13 | 2014-12-24 | 原相科技股份有限公司 | 具有手势感测器的装置 |
KR102179056B1 (ko) * | 2013-07-19 | 2020-11-16 | 엘지전자 주식회사 | 이동 단말기 및 그것의 제어방법 |
CN103412708B (zh) * | 2013-07-31 | 2016-12-28 | 华为技术有限公司 | 终端设备上的任务管理方法和终端设备 |
CN105453026A (zh) | 2013-08-06 | 2016-03-30 | 苹果公司 | 基于来自远程设备的活动自动激活智能响应 |
KR20150031384A (ko) * | 2013-09-13 | 2015-03-24 | 현대자동차주식회사 | 맞춤형 인터페이스 시스템 및 그 동작 방법 |
US10248382B2 (en) | 2013-09-27 | 2019-04-02 | Volkswagen Aktiengesellschaft | User interface and method for assisting a user with the operation of an operating unit |
KR101777074B1 (ko) * | 2013-09-27 | 2017-09-19 | 폭스바겐 악티엔 게젤샤프트 | 사용자 인터페이스 및 조작 유닛의 조작 시 사용자를 지원하는 방법 |
EP3049910B1 (de) | 2013-09-27 | 2020-04-29 | Volkswagen Aktiengesellschaft | Anwenderschnittstelle und verfahren zur unterstützung eines anwenders bei der bedienung einer bedieneinheit |
US11307282B2 (en) * | 2013-10-25 | 2022-04-19 | Ultrahaptics IP Two Limited | Determining positional information for an object in space |
WO2015083969A1 (en) * | 2013-12-05 | 2015-06-11 | Lg Electronics Inc. | Mobile terminal and method for controlling the same |
KR20150066156A (ko) * | 2013-12-06 | 2015-06-16 | 삼성전자주식회사 | 디스플레이 장치 및 이의 제어 방법 |
US10296160B2 (en) | 2013-12-06 | 2019-05-21 | Apple Inc. | Method for extracting salient dialog usage from live data |
GB2521433A (en) * | 2013-12-19 | 2015-06-24 | Daimler Ag | Predicting an interface control action of a user with an in-vehicle user interface |
US9248840B2 (en) * | 2013-12-20 | 2016-02-02 | Immersion Corporation | Gesture based input system in a vehicle with haptic feedback |
US9550578B2 (en) * | 2014-02-04 | 2017-01-24 | Honeywell International Inc. | Systems and methods for utilizing voice commands onboard an aircraft |
US20150261494A1 (en) * | 2014-03-14 | 2015-09-17 | Google Inc. | Systems and methods for combining selection with targeted voice activation |
EP2937771B1 (de) | 2014-04-25 | 2019-04-10 | Volkswagen Aktiengesellschaft | Anwenderschnittstelle für ein Infotainment-System eines Fortbewegungsmittels |
DE102014208663A1 (de) * | 2014-05-08 | 2015-11-12 | Conti Temic Microelectronic Gmbh | Vorrichtung und verfahren zur bereitstellung von informationsdaten zu einem in einem videobildstrom enthaltenen objekt einer fahrzeugumgebung |
US9715875B2 (en) | 2014-05-30 | 2017-07-25 | Apple Inc. | Reducing the need for manual start/end-pointing and trigger phrases |
US9430463B2 (en) | 2014-05-30 | 2016-08-30 | Apple Inc. | Exemplar-based natural language processing |
US9966065B2 (en) | 2014-05-30 | 2018-05-08 | Apple Inc. | Multi-command single utterance input method |
US10170123B2 (en) | 2014-05-30 | 2019-01-01 | Apple Inc. | Intelligent assistant for home automation |
US9633004B2 (en) | 2014-05-30 | 2017-04-25 | Apple Inc. | Better resolution when referencing to concepts |
US9355640B2 (en) * | 2014-06-04 | 2016-05-31 | Google Inc. | Invoking action responsive to co-presence determination |
KR20160001178A (ko) * | 2014-06-26 | 2016-01-06 | 엘지전자 주식회사 | 글래스 타입 단말기 및 이의 제어방법 |
US9338493B2 (en) | 2014-06-30 | 2016-05-10 | Apple Inc. | Intelligent automated assistant for TV user interactions |
DE102014213959A1 (de) * | 2014-07-17 | 2016-01-21 | Continental Automotive Gmbh | Verfahren zum Überwachen eines automatisierten Fahrens |
US9372092B2 (en) | 2014-08-08 | 2016-06-21 | Here Global B.V. | Method and apparatus for providing a contextual menu in a map display |
US9818400B2 (en) | 2014-09-11 | 2017-11-14 | Apple Inc. | Method and apparatus for discovering trending terms in speech requests |
US9898459B2 (en) | 2014-09-16 | 2018-02-20 | Voicebox Technologies Corporation | Integration of domain information into state transitions of a finite state transducer for natural language processing |
EP3195145A4 (en) | 2014-09-16 | 2018-01-24 | VoiceBox Technologies Corporation | Voice commerce |
DE102014219408A1 (de) * | 2014-09-25 | 2016-04-14 | Volkswagen Aktiengesellschaft | Verfahren und Vorrichtung zur Einstellung eines thermischen Komfortzustandes |
US9668121B2 (en) | 2014-09-30 | 2017-05-30 | Apple Inc. | Social reminders |
US10127911B2 (en) | 2014-09-30 | 2018-11-13 | Apple Inc. | Speaker identification and unsupervised speaker adaptation techniques |
US10074360B2 (en) | 2014-09-30 | 2018-09-11 | Apple Inc. | Providing an indication of the suitability of speech recognition |
CN107003999B (zh) | 2014-10-15 | 2020-08-21 | 声钰科技 | 对用户的在先自然语言输入的后续响应的系统和方法 |
US10038443B2 (en) | 2014-10-20 | 2018-07-31 | Ford Global Technologies, Llc | Directional proximity switch assembly |
EP3015306B1 (de) * | 2014-10-31 | 2021-01-06 | Volkswagen Aktiengesellschaft | Vorrichtung und Verfahren zur Bedienung einer Uhrenarmatur |
US10276158B2 (en) | 2014-10-31 | 2019-04-30 | At&T Intellectual Property I, L.P. | System and method for initiating multi-modal speech recognition using a long-touch gesture |
US10116748B2 (en) * | 2014-11-20 | 2018-10-30 | Microsoft Technology Licensing, Llc | Vehicle-based multi-modal interface |
DE102014017179B4 (de) * | 2014-11-20 | 2022-10-06 | Audi Ag | Verfahren zum Betreiben eines Navigationssystems eines Kraftfahrzeugs mittels einer Bediengeste |
US10431214B2 (en) | 2014-11-26 | 2019-10-01 | Voicebox Technologies Corporation | System and method of determining a domain and/or an action related to a natural language input |
US10614799B2 (en) | 2014-11-26 | 2020-04-07 | Voicebox Technologies Corporation | System and method of providing intent predictions for an utterance prior to a system detection of an end of the utterance |
DE102014018423B4 (de) * | 2014-12-11 | 2021-03-25 | Audi Ag | Kraftfahrzeug mit durch peripheres Sehen interpretierbarer Zustandsanzeige sowie entsprechendes Verfahren |
KR101643560B1 (ko) * | 2014-12-17 | 2016-08-10 | 현대자동차주식회사 | 음성 인식 장치, 그를 가지는 차량 및 그 방법 |
WO2016109635A1 (en) | 2014-12-30 | 2016-07-07 | Robert Bosch Gmbh | Adaptive user interface for an autonomous vehicle |
US10073599B2 (en) | 2015-01-07 | 2018-09-11 | Microsoft Technology Licensing, Llc | Automatic home screen determination based on display device |
KR20160089782A (ko) * | 2015-01-20 | 2016-07-28 | 엘지전자 주식회사 | 이동 단말기 및 그 제어 방법 |
KR101683649B1 (ko) * | 2015-01-27 | 2016-12-07 | 현대자동차주식회사 | 차량 컨텐츠를 통합하고 가변하기 위한 사용자 맞춤 표시 시스템 및 그의 차량 컨텐츠 관리 방법, 그리고 이를 실행하는 컴퓨터 판독 가능한 기록매체 |
JP6426025B2 (ja) * | 2015-02-20 | 2018-11-21 | クラリオン株式会社 | 情報処理装置 |
US10152299B2 (en) | 2015-03-06 | 2018-12-11 | Apple Inc. | Reducing response latency of intelligent automated assistants |
US10567477B2 (en) | 2015-03-08 | 2020-02-18 | Apple Inc. | Virtual assistant continuity |
US9886953B2 (en) | 2015-03-08 | 2018-02-06 | Apple Inc. | Virtual assistant activation |
US9721566B2 (en) | 2015-03-08 | 2017-08-01 | Apple Inc. | Competing devices responding to voice triggers |
US9654103B2 (en) | 2015-03-18 | 2017-05-16 | Ford Global Technologies, Llc | Proximity switch assembly having haptic feedback and method |
CN107466401A (zh) * | 2015-04-10 | 2017-12-12 | 哈曼国际工业有限公司 | 用于车载信息系统的多字符串搜索引擎 |
US10460227B2 (en) | 2015-05-15 | 2019-10-29 | Apple Inc. | Virtual assistant in a communication session |
US9548733B2 (en) | 2015-05-20 | 2017-01-17 | Ford Global Technologies, Llc | Proximity sensor assembly having interleaved electrode configuration |
US10200824B2 (en) | 2015-05-27 | 2019-02-05 | Apple Inc. | Systems and methods for proactively identifying and surfacing relevant content on a touch-sensitive device |
US10083688B2 (en) | 2015-05-27 | 2018-09-25 | Apple Inc. | Device voice control for selecting a displayed affordance |
US9578173B2 (en) | 2015-06-05 | 2017-02-21 | Apple Inc. | Virtual assistant aided communication with 3rd party service in a communication session |
US11025565B2 (en) | 2015-06-07 | 2021-06-01 | Apple Inc. | Personalized prediction of responses for instant messaging |
US20160378747A1 (en) | 2015-06-29 | 2016-12-29 | Apple Inc. | Virtual assistant for media playback |
JP5910903B1 (ja) * | 2015-07-31 | 2016-04-27 | パナソニックIpマネジメント株式会社 | 運転支援装置、運転支援システム、運転支援方法、運転支援プログラム及び自動運転車両 |
DE102015215044A1 (de) | 2015-08-06 | 2017-02-09 | Volkswagen Aktiengesellschaft | Verfahren und System zur Verarbeitung multimodaler Eingabesignale |
US10740384B2 (en) | 2015-09-08 | 2020-08-11 | Apple Inc. | Intelligent automated assistant for media search and playback |
US10671428B2 (en) | 2015-09-08 | 2020-06-02 | Apple Inc. | Distributed personal assistant |
US10331312B2 (en) | 2015-09-08 | 2019-06-25 | Apple Inc. | Intelligent automated assistant in a media environment |
US10747498B2 (en) | 2015-09-08 | 2020-08-18 | Apple Inc. | Zero latency digital assistant |
US10008201B2 (en) * | 2015-09-28 | 2018-06-26 | GM Global Technology Operations LLC | Streamlined navigational speech recognition |
US11010550B2 (en) | 2015-09-29 | 2021-05-18 | Apple Inc. | Unified language modeling framework for word prediction, auto-completion and auto-correction |
US10366158B2 (en) | 2015-09-29 | 2019-07-30 | Apple Inc. | Efficient word encoding for recurrent neural network language models |
US11587559B2 (en) | 2015-09-30 | 2023-02-21 | Apple Inc. | Intelligent device identification |
US10691473B2 (en) | 2015-11-06 | 2020-06-23 | Apple Inc. | Intelligent automated assistant in a messaging environment |
US10956666B2 (en) | 2015-11-09 | 2021-03-23 | Apple Inc. | Unconventional virtual assistant interactions |
US10049668B2 (en) | 2015-12-02 | 2018-08-14 | Apple Inc. | Applying neural network language models to weighted finite state transducers for automatic speech recognition |
US10289381B2 (en) * | 2015-12-07 | 2019-05-14 | Motorola Mobility Llc | Methods and systems for controlling an electronic device in response to detected social cues |
US10223066B2 (en) | 2015-12-23 | 2019-03-05 | Apple Inc. | Proactive assistance based on dialog communication between devices |
US10496252B2 (en) * | 2016-01-06 | 2019-12-03 | Robert Bosch Gmbh | Interactive map informational lens |
CN105509761B (zh) * | 2016-01-08 | 2019-03-12 | 北京乐驾科技有限公司 | 一种多轮语音交互导航方法及系统 |
US10446143B2 (en) | 2016-03-14 | 2019-10-15 | Apple Inc. | Identification of voice inputs providing credentials |
US9986113B2 (en) | 2016-05-06 | 2018-05-29 | Fuji Xerox Co., Ltd. | Information processing apparatus and nontransitory computer readable medium |
DE102016207991B4 (de) | 2016-05-10 | 2022-09-15 | Volkswagen Aktiengesellschaft | Verfahren zur fahrsituationsabhängigen Wiedergabe einer Kartendarstellung in einem Fahrzeug |
US9934775B2 (en) | 2016-05-26 | 2018-04-03 | Apple Inc. | Unit-selection text-to-speech synthesis based on predicted concatenation parameters |
US10587978B2 (en) | 2016-06-03 | 2020-03-10 | Nureva, Inc. | Method, apparatus and computer-readable media for virtual positioning of a remote participant in a sound space |
US9972304B2 (en) | 2016-06-03 | 2018-05-15 | Apple Inc. | Privacy preserving distributed evaluation framework for embedded personalized systems |
US10338713B2 (en) | 2016-06-06 | 2019-07-02 | Nureva, Inc. | Method, apparatus and computer-readable media for touch and speech interface with audio location |
US10249300B2 (en) | 2016-06-06 | 2019-04-02 | Apple Inc. | Intelligent list reading |
EP3465392B1 (en) | 2016-06-06 | 2021-02-17 | Nureva Inc. | Time-correlated touch and speech command input |
US11227589B2 (en) | 2016-06-06 | 2022-01-18 | Apple Inc. | Intelligent list reading |
US10049663B2 (en) | 2016-06-08 | 2018-08-14 | Apple, Inc. | Intelligent automated assistant for media exploration |
DK179588B1 (en) | 2016-06-09 | 2019-02-22 | Apple Inc. | INTELLIGENT AUTOMATED ASSISTANT IN A HOME ENVIRONMENT |
US10509862B2 (en) | 2016-06-10 | 2019-12-17 | Apple Inc. | Dynamic phrase expansion of language input |
US10586535B2 (en) | 2016-06-10 | 2020-03-10 | Apple Inc. | Intelligent digital assistant in a multi-tasking environment |
US10490187B2 (en) | 2016-06-10 | 2019-11-26 | Apple Inc. | Digital assistant providing automated status report |
US10067938B2 (en) | 2016-06-10 | 2018-09-04 | Apple Inc. | Multilingual word prediction |
US10192552B2 (en) | 2016-06-10 | 2019-01-29 | Apple Inc. | Digital assistant providing whispered speech |
DK201670540A1 (en) | 2016-06-11 | 2018-01-08 | Apple Inc | Application integration with a digital assistant |
DK179415B1 (en) | 2016-06-11 | 2018-06-14 | Apple Inc | Intelligent device arbitration and control |
DK179049B1 (en) | 2016-06-11 | 2017-09-18 | Apple Inc | Data driven natural language event detection and classification |
DK179343B1 (en) | 2016-06-11 | 2018-05-14 | Apple Inc | Intelligent task discovery |
US11010551B2 (en) * | 2016-06-22 | 2021-05-18 | Huawei Technologies Co., Ltd. | Method and apparatus for displaying candidate word, and graphical user interface |
DE102016008049A1 (de) | 2016-07-01 | 2018-01-04 | Audi Ag | Verfahren zum Betreiben einer Bedienvorrichtung, Bedienvorrichtung und Kraftfahrzeug |
US10331784B2 (en) | 2016-07-29 | 2019-06-25 | Voicebox Technologies Corporation | System and method of disambiguating natural language processing requests |
US10474753B2 (en) | 2016-09-07 | 2019-11-12 | Apple Inc. | Language identification using recurrent neural networks |
DE102016218011A1 (de) | 2016-09-20 | 2018-03-22 | Volkswagen Aktiengesellschaft | Benutzerschnittstelle für den Zugriff auf eine Menge von Funktionen, Verfahren und computerlesbares Speichermedium zum Bereitstellen einer Benutzerschnittstelle für den Zugriff auf eine Menge von Funktionen |
US10043516B2 (en) | 2016-09-23 | 2018-08-07 | Apple Inc. | Intelligent automated assistant |
JP6208837B1 (ja) * | 2016-10-12 | 2017-10-04 | 株式会社エイチアイ | ユーザインタフェースを制御する方法、プログラム及び装置 |
DE102016221564A1 (de) | 2016-10-13 | 2018-04-19 | Bayerische Motoren Werke Aktiengesellschaft | Multimodaler Dialog in einem Kraftfahrzeug |
US11281993B2 (en) | 2016-12-05 | 2022-03-22 | Apple Inc. | Model and ensemble compression for metric learning |
KR20180069492A (ko) | 2016-12-15 | 2018-06-25 | 현대자동차주식회사 | 운전 보조 시스템의 제어 장치 및 방법 |
US10593346B2 (en) | 2016-12-22 | 2020-03-17 | Apple Inc. | Rank-reduced token representation for automatic speech recognition |
US10229680B1 (en) * | 2016-12-29 | 2019-03-12 | Amazon Technologies, Inc. | Contextual entity resolution |
US11204787B2 (en) | 2017-01-09 | 2021-12-21 | Apple Inc. | Application integration with a digital assistant |
DK201770383A1 (en) | 2017-05-09 | 2018-12-14 | Apple Inc. | USER INTERFACE FOR CORRECTING RECOGNITION ERRORS |
US10417266B2 (en) | 2017-05-09 | 2019-09-17 | Apple Inc. | Context-aware ranking of intelligent response suggestions |
US10395654B2 (en) | 2017-05-11 | 2019-08-27 | Apple Inc. | Text normalization based on a data-driven learning network |
DK201770439A1 (en) | 2017-05-11 | 2018-12-13 | Apple Inc. | Offline personal assistant |
US10726832B2 (en) | 2017-05-11 | 2020-07-28 | Apple Inc. | Maintaining privacy of personal information |
DK179496B1 (en) | 2017-05-12 | 2019-01-15 | Apple Inc. | USER-SPECIFIC Acoustic Models |
US11301477B2 (en) | 2017-05-12 | 2022-04-12 | Apple Inc. | Feedback analysis of a digital assistant |
DK201770427A1 (en) | 2017-05-12 | 2018-12-20 | Apple Inc. | LOW-LATENCY INTELLIGENT AUTOMATED ASSISTANT |
DK179745B1 (en) | 2017-05-12 | 2019-05-01 | Apple Inc. | SYNCHRONIZATION AND TASK DELEGATION OF A DIGITAL ASSISTANT |
DK201770432A1 (en) | 2017-05-15 | 2018-12-21 | Apple Inc. | Hierarchical belief states for digital assistants |
DK201770431A1 (en) | 2017-05-15 | 2018-12-20 | Apple Inc. | Optimizing dialogue policy decisions for digital assistants using implicit feedback |
US20180336275A1 (en) | 2017-05-16 | 2018-11-22 | Apple Inc. | Intelligent automated assistant for media exploration |
US10403278B2 (en) | 2017-05-16 | 2019-09-03 | Apple Inc. | Methods and systems for phonetic matching in digital assistant services |
DK179549B1 (en) | 2017-05-16 | 2019-02-12 | Apple Inc. | FAR-FIELD EXTENSION FOR DIGITAL ASSISTANT SERVICES |
US20180336892A1 (en) | 2017-05-16 | 2018-11-22 | Apple Inc. | Detecting a trigger of a digital assistant |
US10311144B2 (en) | 2017-05-16 | 2019-06-04 | Apple Inc. | Emoji word sense disambiguation |
US11221823B2 (en) | 2017-05-22 | 2022-01-11 | Samsung Electronics Co., Ltd. | System and method for context-based interaction for electronic devices |
US10657328B2 (en) | 2017-06-02 | 2020-05-19 | Apple Inc. | Multi-task recurrent neural network architecture for efficient morphology handling in neural language modeling |
DE102017213005A1 (de) | 2017-07-27 | 2019-01-31 | Audi Ag | Verfahren zum Darstellen eines Anzeigeinhalts |
US10445429B2 (en) | 2017-09-21 | 2019-10-15 | Apple Inc. | Natural language understanding using vocabularies with compressed serialized tries |
US10755051B2 (en) | 2017-09-29 | 2020-08-25 | Apple Inc. | Rule-based natural language processing |
CN109669529A (zh) * | 2017-10-16 | 2019-04-23 | 上汽通用汽车有限公司 | 车载人机交互系统 |
US20190147858A1 (en) * | 2017-11-16 | 2019-05-16 | Honeywell International Inc. | Methods, systems and apparatuses for improving speech recognition using touch-based predictive modeling |
US10636424B2 (en) | 2017-11-30 | 2020-04-28 | Apple Inc. | Multi-turn canned dialog |
CN107963039A (zh) * | 2017-12-04 | 2018-04-27 | 信利光电股份有限公司 | 一种机动车的操控系统、方法及机动车 |
CN108172222B (zh) * | 2017-12-08 | 2020-11-20 | 石化盈科信息技术有限责任公司 | 一种工作台语音控制审批方法和系统 |
DE102017011498B4 (de) | 2017-12-13 | 2022-08-18 | Mercedes-Benz Group AG | Verfahren zum Betreiben eines Assistenzsystems und ein Assistenzsystem für einen Kraftwagen |
KR102135376B1 (ko) * | 2018-01-05 | 2020-07-17 | 엘지전자 주식회사 | 입출력 장치 및 그것을 포함하는 차량 |
US10733982B2 (en) | 2018-01-08 | 2020-08-04 | Apple Inc. | Multi-directional dialog |
US10733375B2 (en) | 2018-01-31 | 2020-08-04 | Apple Inc. | Knowledge-based framework for improving natural language understanding |
US10789959B2 (en) | 2018-03-02 | 2020-09-29 | Apple Inc. | Training speaker recognition models for digital assistants |
US10592604B2 (en) | 2018-03-12 | 2020-03-17 | Apple Inc. | Inverse text normalization for automatic speech recognition |
US10818288B2 (en) | 2018-03-26 | 2020-10-27 | Apple Inc. | Natural assistant interaction |
US10909331B2 (en) | 2018-03-30 | 2021-02-02 | Apple Inc. | Implicit identification of translation payload with neural machine translation |
US11145294B2 (en) | 2018-05-07 | 2021-10-12 | Apple Inc. | Intelligent automated assistant for delivering content from user experiences |
US10928918B2 (en) | 2018-05-07 | 2021-02-23 | Apple Inc. | Raise to speak |
EP3586332A1 (en) * | 2018-05-07 | 2020-01-01 | Google LLC. | Multi-modal interaction between users, automated assistants, and other computing services |
US11347801B2 (en) | 2018-05-07 | 2022-05-31 | Google Llc | Multi-modal interaction between users, automated assistants, and other computing services |
US11200893B2 (en) * | 2018-05-07 | 2021-12-14 | Google Llc | Multi-modal interaction between users, automated assistants, and other computing services |
US10984780B2 (en) | 2018-05-21 | 2021-04-20 | Apple Inc. | Global semantic word embeddings using bi-directional recurrent neural networks |
DK179822B1 (da) | 2018-06-01 | 2019-07-12 | Apple Inc. | Voice interaction at a primary device to access call functionality of a companion device |
US11386266B2 (en) | 2018-06-01 | 2022-07-12 | Apple Inc. | Text correction |
DK201870355A1 (en) | 2018-06-01 | 2019-12-16 | Apple Inc. | VIRTUAL ASSISTANT OPERATION IN MULTI-DEVICE ENVIRONMENTS |
DK180639B1 (en) | 2018-06-01 | 2021-11-04 | Apple Inc | DISABILITY OF ATTENTION-ATTENTIVE VIRTUAL ASSISTANT |
US10892996B2 (en) | 2018-06-01 | 2021-01-12 | Apple Inc. | Variable latency device coordination |
US10504518B1 (en) | 2018-06-03 | 2019-12-10 | Apple Inc. | Accelerated task performance |
JP2019214344A (ja) * | 2018-06-14 | 2019-12-19 | 本田技研工業株式会社 | 車両用操作システム |
JP7243087B2 (ja) * | 2018-09-04 | 2023-03-22 | トヨタ自動車株式会社 | 情報処理装置、情報処理方法およびプログラム |
DE102018215293A1 (de) * | 2018-09-07 | 2020-03-12 | Bayerische Motoren Werke Aktiengesellschaft | Multimodale Kommunikation mit einem Fahrzeug |
US11010561B2 (en) | 2018-09-27 | 2021-05-18 | Apple Inc. | Sentiment prediction from textual data |
US11170166B2 (en) | 2018-09-28 | 2021-11-09 | Apple Inc. | Neural typographical error modeling via generative adversarial networks |
US10839159B2 (en) | 2018-09-28 | 2020-11-17 | Apple Inc. | Named entity normalization in a spoken dialog system |
US11462215B2 (en) | 2018-09-28 | 2022-10-04 | Apple Inc. | Multi-modal inputs for voice commands |
US11475898B2 (en) | 2018-10-26 | 2022-10-18 | Apple Inc. | Low-latency multi-speaker speech recognition |
CN111124236B (zh) * | 2018-10-30 | 2023-04-28 | 斑马智行网络(香港)有限公司 | 一种数据处理方法、装置和机器可读介质 |
US10908883B2 (en) * | 2018-11-13 | 2021-02-02 | Adobe Inc. | Voice interaction development tool |
US10847156B2 (en) | 2018-11-28 | 2020-11-24 | Adobe Inc. | Assembled voice interaction |
US11137905B2 (en) | 2018-12-03 | 2021-10-05 | Microsoft Technology Licensing, Llc | Modeless augmentations to a virtual trackpad on a multiple screen computing device |
US11199901B2 (en) | 2018-12-03 | 2021-12-14 | Microsoft Technology Licensing, Llc | Augmenting the functionality of non-digital objects using a digital glove |
KR20200071841A (ko) * | 2018-12-03 | 2020-06-22 | 현대자동차주식회사 | 차량용 음성명령어 처리 장치 및 그 방법 |
US11294463B2 (en) * | 2018-12-03 | 2022-04-05 | Microsoft Technology Licensing, Llc | Augmenting the functionality of user input devices using a digital glove |
US11314409B2 (en) | 2018-12-03 | 2022-04-26 | Microsoft Technology Licensing, Llc | Modeless augmentations to a virtual trackpad on a multiple screen computing device |
CN109410944B (zh) * | 2018-12-12 | 2020-06-09 | 百度在线网络技术(北京)有限公司 | 语音交互方法、装置和终端 |
DE102018132794A1 (de) * | 2018-12-19 | 2020-06-25 | Patty's Gmbh | Verfahren zur Eingabe von Befehlen für eine elektronische Einrichtung |
US11638059B2 (en) | 2019-01-04 | 2023-04-25 | Apple Inc. | Content playback on multiple devices |
US11017771B2 (en) | 2019-01-18 | 2021-05-25 | Adobe Inc. | Voice command matching during testing of voice-assisted application prototypes for languages with non-phonetic alphabets |
US10964322B2 (en) | 2019-01-23 | 2021-03-30 | Adobe Inc. | Voice interaction tool for voice-assisted application prototypes |
US11348573B2 (en) | 2019-03-18 | 2022-05-31 | Apple Inc. | Multimodality in digital assistant systems |
CN109947256A (zh) * | 2019-03-27 | 2019-06-28 | 思特沃克软件技术(北京)有限公司 | 一种减少驾驶员注视触摸屏时间的方法和车载触摸屏 |
DE102019205097A1 (de) | 2019-04-09 | 2020-10-15 | Volkswagen Aktiengesellschaft | Verfahren zur Inszenierung eines Bedienmodalitätenwechsels eines Fahrzeugs, System zur Inszenierung eines Bedienmodalitätenwechsels eines Fahrzeugs |
US11475884B2 (en) | 2019-05-06 | 2022-10-18 | Apple Inc. | Reducing digital assistant latency when a language is incorrectly determined |
US11307752B2 (en) | 2019-05-06 | 2022-04-19 | Apple Inc. | User configurable task triggers |
US11423908B2 (en) | 2019-05-06 | 2022-08-23 | Apple Inc. | Interpreting spoken requests |
DK201970509A1 (en) | 2019-05-06 | 2021-01-15 | Apple Inc | Spoken notifications |
US11140099B2 (en) | 2019-05-21 | 2021-10-05 | Apple Inc. | Providing message response suggestions |
DK201970511A1 (en) | 2019-05-31 | 2021-02-15 | Apple Inc | Voice identification in digital assistant systems |
US11289073B2 (en) | 2019-05-31 | 2022-03-29 | Apple Inc. | Device text to speech |
DK180129B1 (en) | 2019-05-31 | 2020-06-02 | Apple Inc. | USER ACTIVITY SHORTCUT SUGGESTIONS |
US11496600B2 (en) | 2019-05-31 | 2022-11-08 | Apple Inc. | Remote execution of machine-learned models |
US11360641B2 (en) | 2019-06-01 | 2022-06-14 | Apple Inc. | Increasing the relevance of new available information |
DE102019210010A1 (de) * | 2019-07-08 | 2021-01-14 | Volkswagen Aktiengesellschaft | Verfahren und Bediensystem zum Erfassen einer Nutzereingabe für eine Einrichtung eines Fahrzeugs |
DE102019210008A1 (de) * | 2019-07-08 | 2021-01-14 | Volkswagen Aktiengesellschaft | Verfahren zum Betreiben eines Bediensystems und Bediensystem |
JP2021033746A (ja) * | 2019-08-27 | 2021-03-01 | アルパイン株式会社 | サービス提供装置、サービス提供システム、及びサービス提供方法 |
US11488406B2 (en) | 2019-09-25 | 2022-11-01 | Apple Inc. | Text detection using global geometry estimators |
CN112788422A (zh) * | 2019-11-04 | 2021-05-11 | 海信视像科技股份有限公司 | 显示设备 |
US11295088B2 (en) | 2019-11-20 | 2022-04-05 | Apple Inc. | Sanitizing word predictions |
DE102020202284A1 (de) | 2020-02-21 | 2021-08-26 | Robert Bosch Gesellschaft mit beschränkter Haftung | Verfahren zum Trainieren und/oder Optimieren eines Insassenüberwachungssystems |
US11038934B1 (en) | 2020-05-11 | 2021-06-15 | Apple Inc. | Digital assistant hardware abstraction |
US11381676B2 (en) * | 2020-06-30 | 2022-07-05 | Qualcomm Incorporated | Quick launcher user interface |
CN111816189B (zh) * | 2020-07-03 | 2023-12-26 | 斑马网络技术有限公司 | 一种车辆用多音区语音交互方法及电子设备 |
DE102020122795A1 (de) | 2020-09-01 | 2022-03-03 | Bayerische Motoren Werke Aktiengesellschaft | Bedienung von Funktionen eines Fahrzeugs |
CN113370897A (zh) * | 2021-06-28 | 2021-09-10 | 北京小鹏汽车有限公司 | 一种车辆地图显示控制方法和装置 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20010011995A1 (en) * | 1998-09-14 | 2001-08-09 | Kenneth Hinckley | Method for providing feedback responsive to sensing a physical presence proximate to a control of an electronic device |
US20050192810A1 (en) * | 2004-01-19 | 2005-09-01 | Lars Konig | Key activation system |
JP2007164814A (ja) * | 2007-02-09 | 2007-06-28 | Toshiba Corp | インタフェース装置 |
Family Cites Families (35)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3267047B2 (ja) | 1994-04-25 | 2002-03-18 | 株式会社日立製作所 | 音声による情報処理装置 |
US5857172A (en) * | 1995-07-31 | 1999-01-05 | Microsoft Corporation | Activation control of a speech recognizer through use of a pointing device |
DE19715325A1 (de) | 1997-04-12 | 1998-10-15 | Bayerische Motoren Werke Ag | Anzeige- und Bedienvorrichtung für Menüs und/oder Funktionen eines Fahrzeugs |
JPH11249692A (ja) * | 1998-02-27 | 1999-09-17 | Nec Saitama Ltd | 音声認識装置 |
US7720682B2 (en) * | 1998-12-04 | 2010-05-18 | Tegic Communications, Inc. | Method and apparatus utilizing voice input to resolve ambiguous manually entered text input |
US6243683B1 (en) * | 1998-12-29 | 2001-06-05 | Intel Corporation | Video control of speech recognition |
JP2001331195A (ja) * | 2000-05-19 | 2001-11-30 | Sony Corp | 車載機器、カーナビゲーションシステムおよびモニタ装置 |
DE10030369A1 (de) * | 2000-06-21 | 2002-01-03 | Volkswagen Ag | Spracherkennungssystem |
EP1195673B1 (de) * | 2000-10-04 | 2007-05-09 | Siemens Aktiengesellschaft | Kraftfahrzeug-Multimediasystem mit animierter Anzeigefunktion |
DE10105898A1 (de) * | 2001-02-09 | 2002-08-14 | Bosch Gmbh Robert | Verfahren zum Übergeben von Zielführungselementen, Fahrzeugnavigationsgerät und Zentrale |
US6804396B2 (en) * | 2001-03-28 | 2004-10-12 | Honda Giken Kogyo Kabushiki Kaisha | Gesture recognition system |
CA2397451A1 (en) * | 2001-08-15 | 2003-02-15 | At&T Corp. | Systems and methods for classifying and representing gestural inputs |
US7324947B2 (en) * | 2001-10-03 | 2008-01-29 | Promptu Systems Corporation | Global speech user interface |
WO2003078930A1 (fr) * | 2002-03-15 | 2003-09-25 | Mitsubishi Denki Kabushiki Kaisha | Dispositif de navigation a bord d'un vehicule |
US20040034455A1 (en) * | 2002-08-15 | 2004-02-19 | Craig Simonds | Vehicle system and method of communicating between host platform and human machine interface |
US20050196784A1 (en) | 2002-11-01 | 2005-09-08 | Decode Genetics Ehf. | Human Type II diabetes gene - Kv channel-interacting protein (KChIP1) located on chromosome 5 |
US20070293183A1 (en) * | 2002-12-11 | 2007-12-20 | Ira Marlowe | Multimedia device integration system |
US7249025B2 (en) * | 2003-05-09 | 2007-07-24 | Matsushita Electric Industrial Co., Ltd. | Portable device for enhanced security and accessibility |
US20050137877A1 (en) * | 2003-12-17 | 2005-06-23 | General Motors Corporation | Method and system for enabling a device function of a vehicle |
US20050197843A1 (en) * | 2004-03-07 | 2005-09-08 | International Business Machines Corporation | Multimodal aggregating unit |
KR100679042B1 (ko) * | 2004-10-27 | 2007-02-06 | 삼성전자주식회사 | 음성인식 방법 및 장치, 이를 이용한 네비게이션 시스템 |
DE102005042694A1 (de) | 2004-12-30 | 2006-07-20 | Volkswagen Ag | Navigationssystem für ein Kraftfahrzeug |
DE102006037156A1 (de) | 2006-03-22 | 2007-09-27 | Volkswagen Ag | Interaktive Bedienvorrichtung und Verfahren zum Betreiben der interaktiven Bedienvorrichtung |
CN101055193A (zh) * | 2006-04-12 | 2007-10-17 | 株式会社日立制作所 | 车载装置的非接触输入操作装置 |
DE102006028046B4 (de) | 2006-06-19 | 2016-02-11 | Audi Ag | Kombinierte Anzeige- und Bedienvorrichtung für ein Kraftfahrzeug |
US8354997B2 (en) * | 2006-10-31 | 2013-01-15 | Navisense | Touchless user interface for a mobile device |
US20080154608A1 (en) * | 2006-12-26 | 2008-06-26 | Voice Signal Technologies, Inc. | On a mobile device tracking use of search results delivered to the mobile device |
DE102007044792B4 (de) * | 2007-09-19 | 2012-12-13 | Siemens Ag | Verfahren, Steuergerät und System zur Steuerung oder Bedienung |
DE102008051757A1 (de) | 2007-11-12 | 2009-05-14 | Volkswagen Ag | Multimodale Benutzerschnittstelle eines Fahrerassistenzsystems zur Eingabe und Präsentation von Informationen |
US8140335B2 (en) * | 2007-12-11 | 2012-03-20 | Voicebox Technologies, Inc. | System and method for providing a natural language voice user interface in an integrated voice navigation services environment |
US8370755B2 (en) * | 2007-12-27 | 2013-02-05 | Core Wireless Licensing S.A.R.L. | User interface controlled by environmental cues |
US8121586B2 (en) * | 2008-09-16 | 2012-02-21 | Yellowpages.Com Llc | Systems and methods for voice based search |
US8402533B2 (en) * | 2010-08-06 | 2013-03-19 | Google Inc. | Input to locked computing device |
US8863042B2 (en) * | 2012-01-24 | 2014-10-14 | Charles J. Kulas | Handheld device with touch controls that reconfigure in response to the way a user operates the device |
US8744645B1 (en) * | 2013-02-26 | 2014-06-03 | Honda Motor Co., Ltd. | System and method for incorporating gesture and voice recognition into a single system |
-
2008
- 2008-10-15 DE DE200810051757 patent/DE102008051757A1/de not_active Withdrawn
- 2008-10-15 DE DE200810051756 patent/DE102008051756A1/de active Pending
- 2008-11-12 WO PCT/EP2008/009535 patent/WO2009062677A2/de active Application Filing
- 2008-11-12 EP EP08848827.5A patent/EP2223046B1/de active Active
- 2008-11-12 CN CN200880116363.4A patent/CN101855521B/zh active Active
- 2008-11-12 US US12/741,491 patent/US9103691B2/en active Active
- 2008-11-12 KR KR1020107009294A patent/KR101647848B1/ko active IP Right Grant
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20010011995A1 (en) * | 1998-09-14 | 2001-08-09 | Kenneth Hinckley | Method for providing feedback responsive to sensing a physical presence proximate to a control of an electronic device |
US20050192810A1 (en) * | 2004-01-19 | 2005-09-01 | Lars Konig | Key activation system |
JP2007164814A (ja) * | 2007-02-09 | 2007-06-28 | Toshiba Corp | インタフェース装置 |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20150068957A (ko) * | 2012-10-12 | 2015-06-22 | 마이크로소프트 테크놀로지 라이센싱, 엘엘씨 | 애플리케이션과의 상호작용으로서의 다모드 사용자 표현 및 사용자 인텐서티 검출 기법 |
KR20150146091A (ko) * | 2014-06-20 | 2015-12-31 | 엘지전자 주식회사 | 이동단말기 및 그 제어방법 |
US9880809B2 (en) | 2014-06-20 | 2018-01-30 | Lg Electronics Inc. | Mobile terminal and method for controlling the same |
CN111169408A (zh) * | 2019-12-19 | 2020-05-19 | 苏州禾昆智能科技有限公司 | 一种车内中控基于卡片的主副驾协助系统及其方法 |
WO2023128104A1 (ko) * | 2021-12-31 | 2023-07-06 | 주식회사 씨케이머티리얼즈랩 | 촉각 키보드 및 촉각 입력 장치 |
KR20230103812A (ko) * | 2021-12-31 | 2023-07-07 | 주식회사 씨케이머티리얼즈랩 | 촉각 키보드 및 촉각 입력 장치 |
Also Published As
Publication number | Publication date |
---|---|
WO2009062677A3 (de) | 2009-07-09 |
US20110022393A1 (en) | 2011-01-27 |
DE102008051756A1 (de) | 2009-05-14 |
KR101647848B1 (ko) | 2016-08-11 |
WO2009062677A2 (de) | 2009-05-22 |
US9103691B2 (en) | 2015-08-11 |
DE102008051757A1 (de) | 2009-05-14 |
CN101855521B (zh) | 2014-12-10 |
EP2223046A2 (de) | 2010-09-01 |
EP2223046B1 (de) | 2015-08-12 |
CN101855521A (zh) | 2010-10-06 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR101647848B1 (ko) | 정보 입력 및 표시를 위한 운전자 보조 시스템의 멀티모드 사용자 인터페이스 | |
JP6554150B2 (ja) | スクロールバー上での直交ドラッギング | |
US20140267035A1 (en) | Multimodal User Interface Design | |
KR101613407B1 (ko) | 지원 기능을 갖춘 차량 시스템 및 차량 시스템 작동 방법 | |
CN105283356B (zh) | 应用程序控制方法以及信息终端 | |
US20180341330A1 (en) | Interaction and management of devices using gaze detection | |
US8532871B2 (en) | Multi-modal vehicle operating device | |
EP3120344B1 (en) | Visual indication of a recognized voice-initiated action | |
CN104204729B (zh) | 用户终端装置及其控制方法 | |
US9261908B2 (en) | System and method for transitioning between operational modes of an in-vehicle device using gestures | |
TWI506619B (zh) | 用於情境式語音命令的方法、裝置及非過渡電腦可讀媒體 | |
JP5463922B2 (ja) | 車載機 | |
JP2013143151A (ja) | 音声認識を使用してユーザ機能を行う方法及び装置 | |
JP5770770B2 (ja) | 入力装置 | |
JP6466887B2 (ja) | 情報端末用プログラム及び情報端末 | |
US20220258606A1 (en) | Method and operating system for detecting a user input for a device of a vehicle | |
JPWO2012025957A1 (ja) | ナビゲーション装置 | |
JP2014065359A (ja) | 表示制御装置、表示システム及び表示制御方法 | |
EP4350484A1 (en) | Interface control method, device, and system | |
JP2005208798A (ja) | 情報提供端末、および情報提供方法 | |
CN114040857A (zh) | 用于运行车辆中的操作系统的方法和车辆中的操作系统 | |
JP7323050B2 (ja) | 表示制御装置及び表示制御方法 | |
JP2008233009A (ja) | カーナビゲーション装置及びカーナビゲーション装置用プログラム | |
WO2014103355A1 (ja) | 情報処理装置、情報処理方法及びプログラム | |
JP2004325237A (ja) | 車両用ナビゲーション装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
AMND | Amendment | ||
E902 | Notification of reason for refusal | ||
AMND | Amendment | ||
E90F | Notification of reason for final refusal | ||
AMND | Amendment | ||
E601 | Decision to refuse application | ||
J201 | Request for trial against refusal decision | ||
AMND | Amendment | ||
B701 | Decision to grant | ||
GRNT | Written decision to grant | ||
FPAY | Annual fee payment |
Payment date: 20190806 Year of fee payment: 4 |