KR101798269B1 - 적응적 오디오 피드백 시스템 및 방법 - Google Patents
적응적 오디오 피드백 시스템 및 방법 Download PDFInfo
- Publication number
- KR101798269B1 KR101798269B1 KR1020137008581A KR20137008581A KR101798269B1 KR 101798269 B1 KR101798269 B1 KR 101798269B1 KR 1020137008581 A KR1020137008581 A KR 1020137008581A KR 20137008581 A KR20137008581 A KR 20137008581A KR 101798269 B1 KR101798269 B1 KR 101798269B1
- Authority
- KR
- South Korea
- Prior art keywords
- audio
- item
- data item
- currently selected
- event
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims abstract description 65
- 230000003044 adaptive effect Effects 0.000 title description 9
- 230000008859 change Effects 0.000 claims abstract description 19
- 230000001755 vocal effect Effects 0.000 claims description 61
- 206010024796 Logorrhoea Diseases 0.000 claims description 4
- 230000004044 response Effects 0.000 abstract description 26
- 238000005516 engineering process Methods 0.000 abstract description 2
- 230000000007 visual effect Effects 0.000 description 31
- 230000006870 function Effects 0.000 description 25
- 238000003860 storage Methods 0.000 description 13
- 230000009471 action Effects 0.000 description 11
- 238000010586 diagram Methods 0.000 description 9
- 230000006399 behavior Effects 0.000 description 7
- 238000013500 data storage Methods 0.000 description 6
- 230000009467 reduction Effects 0.000 description 6
- 230000007704 transition Effects 0.000 description 6
- 238000001514 detection method Methods 0.000 description 5
- 230000000694 effects Effects 0.000 description 4
- 230000007246 mechanism Effects 0.000 description 3
- 230000006855 networking Effects 0.000 description 3
- 230000003252 repetitive effect Effects 0.000 description 3
- 241000699666 Mus <mouse, genus> Species 0.000 description 2
- 238000013461 design Methods 0.000 description 2
- 238000004519 manufacturing process Methods 0.000 description 2
- 239000000463 material Substances 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000008569 process Effects 0.000 description 2
- 230000002123 temporal effect Effects 0.000 description 2
- HRANPRDGABOKNQ-ORGXEYTDSA-N (1r,3r,3as,3br,7ar,8as,8bs,8cs,10as)-1-acetyl-5-chloro-3-hydroxy-8b,10a-dimethyl-7-oxo-1,2,3,3a,3b,7,7a,8,8a,8b,8c,9,10,10a-tetradecahydrocyclopenta[a]cyclopropa[g]phenanthren-1-yl acetate Chemical compound C1=C(Cl)C2=CC(=O)[C@@H]3C[C@@H]3[C@]2(C)[C@@H]2[C@@H]1[C@@H]1[C@H](O)C[C@@](C(C)=O)(OC(=O)C)[C@@]1(C)CC2 HRANPRDGABOKNQ-ORGXEYTDSA-N 0.000 description 1
- 101100127285 Drosophila melanogaster unc-104 gene Proteins 0.000 description 1
- 241000699670 Mus sp. Species 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 230000015572 biosynthetic process Effects 0.000 description 1
- 230000001413 cellular effect Effects 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 239000002131 composite material Substances 0.000 description 1
- 238000004590 computer program Methods 0.000 description 1
- 238000013479 data entry Methods 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 230000007717 exclusion Effects 0.000 description 1
- 230000001747 exhibiting effect Effects 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 230000001771 impaired effect Effects 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 229910001416 lithium ion Inorganic materials 0.000 description 1
- 239000007769 metal material Substances 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 238000003032 molecular docking Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000002085 persistent effect Effects 0.000 description 1
- 239000004033 plastic Substances 0.000 description 1
- 239000002574 poison Substances 0.000 description 1
- 231100000614 poison Toxicity 0.000 description 1
- 229920001690 polydopamine Polymers 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
- 238000011946 reduction process Methods 0.000 description 1
- 230000011218 segmentation Effects 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 230000005236 sound signal Effects 0.000 description 1
- 238000003786 synthesis reaction Methods 0.000 description 1
- 230000001960 triggered effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/16—Sound input; Sound output
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/16—Sound input; Sound output
- G06F3/167—Audio in a user interface, e.g. using voice commands for navigating, audio feedback
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
- G06F3/0482—Interaction with lists of selectable items, e.g. menus
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L13/00—Speech synthesis; Text to speech systems
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- General Health & Medical Sciences (AREA)
- Multimedia (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
적응적으로 전자 장치(10)상에서 오디오 피드백 데이터를 변경하기 위한 다양한 기술이 제공된다. 일 실시예에서, 본 발명의 특정 양태들을 구현시키는 오디오 사용자 인터페이스(38)가 사용자 인터페이스 이벤트의 이전 발생들 동안 제공된 오디오 피드백의 구어성 레벨에 적어도 부분적으로 기초하여 사용자 인터페이스 이벤트들에 응답하여 오디오 피드백의 구어성을 축소하거나 진전시킬 수 있다. 또 다른 실시예에서, 오디오 사용자 인터페이스(38)는 사용자가 리스트를 탐색하는 속도에 적어도 부분적으로 기초하여 아이템들의 탐색가능 리스트와 관련된 오디오 피드백의 구어성을 변경하도록 구성될 수 있다. 추가 실시예에서, 오디오 사용자 인터페이스(38)는 사용자 인터페이스 이벤트의 맥락상 중요성에 기초하여 오디오 피드백 구어성을 변경하기 위해 구성될 수 있다. 본 기술을 구현시키는 전자 장치(10)는 오디오 사용자 인터페이스들에 대한 개선된 사용자 경험을 제공한다.
Description
본 발명은 일반적으로 전자 장치들상의 사용자 인터페이스들에 관한 것인데, 보다 상세하게는 오디오 피드백을 전자 장치의 사용자에게 제공할 수 있는 사용자 인터페이스들에 관한 것이다.
이 부분은 이하에 설명되고 및/또는 청구되는 본 기술들의 다양한 양태들에 관련될 수 있는 본 분야 기술의 다양한 측면들을 독자에게 소개하기 위해 의도된 것이다. 본 논의는 독자에게 본 발명의 다양한 양태들의 보다 나은 이해를 촉진시키는 배경 정보를 제공하는 데 도움이 될 것이라고 생각된다. 따라서, 이 진술들은 이런 면에서 읽어 보아야 하고, 선행 기술의 승인으로서 간주해서는 안 된다는 것을 알아야 한다.
컴퓨터 시스템들, 이동 전화기들, 디지털 미디어 플레이어들, PDA들, 및 이와 유사한 것과 같은 전자 컴퓨팅 장치들은 다양한 개인적 및/또는 사무 관련 목적들을 위해 보통은 사용된다. 이와 같은 전자 장치들은 사용자로 하여금 다양한 기능들을 수행하기 위해 장치상의 다양한 애플리케이션들(예를 들면, 전자우편 프로그램들, 인터넷 브라우저들, 미디어 플레이어들, 게임들, 기타 등등)과 상호 작용할 수 있게 하여 주는 몇몇 유형의 사용자 인터페이스를 전형적으로는 포함한다. 다시 말하면, 사용자 인터페이스는 사용자가 콘텐츠 및 정보뿐만 아니라 사용자 입력들에 대한 응답들을 수신하기 위해 애플리케이션들과 그를 통해 상호 작용할 수 있는 게이트웨이를 제공할 수 있다. 따라서, 사용자 인터페이스는 이러한 애플리케이션들의 설계에 있어서 핵심 부분이고, 이와 같은 장치들의 사용 편의성을 정하는 것을 돕고 그에 따라 전체적 사용자 경험의 품질을 정하는 것을 돕는다.
역사적으로, 대다수의 전자 장치들은 사용자가 시각적 디스플레이에 의해 장치와 상호 작용하도록 허용하기 위해 그래픽 사용자 인터페이스에 의존했다. 예를 들면, 사용자가 장치와 상호작용함에 따라, 장치는 사용자의 행위들에 응답하여 시각적 피드백을 표시할 수 있다. 그러나, 몇몇 유형의 전자 장치들이 상대적으로 작은 시각적 디스플레이들을 갖는 더 작은 폼 팩터들을 가지는 쪽으로 옮겨감에 따라, 그래픽 사용자 인터페이스들은 사용하고 탐색하기에 더 어려워질 뿐만이 아니라 이들이 나를 수 있는 정보량에 있어서 제한을 더 받게 되었다.
최근에 오디오 사용자 인터페이스들의 인기가 높아지는 것을 경험하고 있다. 예를 들면, 오디오 사용자 인터페이스는 정보와 콘텐츠를 사용자에게 전달하기 위해 시각적 피드백 대신에 또는 시각적 피드백에 추가하여 오디오 피드백 데이터를 공급할 수 있고, 따라서 제한된 시각적 디스플레이 능력을 갖고 있거나 또는 몇몇 경우에는 어떤 시각적 디스플레이 능력도 갖지 않는 전자 장치들에서 사용하는 데에 특히 알맞다. 예를 들면, 오디오 피드백을 요청하는 이벤트의 발생 시에, 발생하는 이벤트에 관한 오디오 정보를 사용자에게 전달하기 위해 대응하는 오디오 클립이 재생될 수 있다. 유감스럽게도, 몇몇 이벤트들이 대량의 오디오 정보와 관련될 수 있고, 이것은 특히 그와 같은 이벤트들이 상대적으로 짧은 시간 기간 내에서 아주 근접하여 반복적으로 발생할 때, 사용자를 당황스럽게 만들 수 있고 따라서 사용자 경험에 악영향을 줄 수 있다. 덧붙여, 종래 오디오 사용자 인터페이스들에 의해 제공된 오디오 피드백은 사용자가 맥락상 높은 또는 낮은 중요성을 갖는 이벤트들을 적절히 구별할 수 없게 할 수 있다. 따라서, 전자 장치들에서 오디오 사용자 인터페이스들에 대한 사용자 경험을 더욱 개선하기 위한 노력들이 지속되고 있다.
본 명세서에 개시된 특정 실시예들의 요약이 이하에 제시된다. 이 양태들은 독자에게 이들 특정 실시예들의 간단한 요약을 제공하기 위해서만 제시되는 것이며 본 개시의 범위를 제한하도록 의도되지 않았다는 것을 이해해야 한다. 실제로, 본 발명은 이하에서 제시되지 못할 수 있는 다양한 양태들을 포괄할 수 있다.
본 발명은 일반적으로 전자 장치상의 오디오 사용자 인터페이스에 의해 제공되는 오디오 피드백을 적응적으로 변경하기 위한 기술과 관련된다. 일 실시예에 따라서, 오디오 사용자 인터페이스는 사용자 인터페이스 이벤트의 이전 발생들 동안 제공된 오디오 피드백의 구어성 레벨(verbosity level)에 적어도 부분적으로 기초하여 사용자 인터페이스 이벤트들에 응답하여 오디오 피드백의 구어성을 축소하거나(devolve) 진전시키도록(evolve) 구성될 수 있다. 추가로 이하에서 논의되는 바와 같이, 용어 "구어성(verbosity)"은, 여기서 사용하는 바로는, 오디오 피드백에 의해 제공되는 오디오 정보의 "말 많은 정도(wordiness)"를 지칭하고, 톤들, 클릭들, 삑 소리(beeps), 짹짹거림(chirp), 기타 등등과 같은 오디오 피드백의 비언어적 유형들을 또한 포괄할 수 있다. 예를 들면, 사용자 인터페이스 이벤트의 다음 발생이 사용자 인터페이스 이벤트의 이전 발생과 비교적 매우 가깝게 발생한다면, 오디오 사용자 인터페이스는 반복적이고 대단히 말 수가 많은 정보로 인해 사용자를 당황케 하는 것을 회피하기 위해, (예를 들면, 구어성을 감소시킴으로서) 오디오 피드백을 축소할 수 있다.
또 다른 실시예에서, 오디오 사용자 인터페이스는 사용자가 리스트를 탐색하는 속도에 적어도 부분적으로 기초하여 탐색가능 데이터 아이템들의 리스트와 관련된 오디오 피드백을 적응적으로 변경하도록 구성될 수 있다. 추가 실시예에서, 오디오 사용자 인터페이스는 새로운 데이터 콘텐츠가 탐색가능 리스트에서 어디에 위치하는 지를 나타내기 위해 청각적으로 더 구별되는 오디오 피드백을 제공하도록 또한 더 오래된 데이터 콘텐츠에 대해 청각적으로 덜 구별되는 오디오 피드백을 제공하도록 구성될 수 있다. 또 다른 실시예에서, 오디오 사용자 인터페이스는 사용자 인터페이스 이벤트의 맥랙상 중요성에 기초하여 오디오 피드백의 구어성 및/또는 구별성을 변경하도록 구성될 수 있다. 여기 개시된 다양한 오디오 피드백 기술들은, 단독으로 또는 조합하여 구현되는 경우, 오디오 사용자 인터페이스들에 대한 사용자 경험을 향상시킬 수 있다.
앞서 언급한 특징들에 대한 다양한 상세 구성이 본 발명의 다양한 양태들에 관련하여 존재할 수 있다. 추가 특징들이 마찬가지로 이러한 다양한 양태들에 또한 통합될 수 있다. 이러한 상세 및 추가 특징들은 개별적으로 또는 임의의 조합으로 존재할 수 있다. 예를 들어, 예시된 실시예들 중 하나 이상에 관련하여 이하에 논의되는 다양한 특징들은 본 발명의 앞서 설명한 양태들 중 임의의 것에 단독으로 또는 임의의 조합으로 통합될 수 있다. 다시 말하지만, 앞서 제시된 간략한 개요는, 청구되는 발명 대상을 제한하지 않으면서, 단지 독자가 본 명세서의 실시예들의 특정 양태들 및 맥락에 친숙하게 되도록 의도된 것이다.
적응적으로 전자 장치상에서 오디오 피드백 데이터를 변경하기 위한 다양한 기술이 제공된다.
본 개시의 다양한 양태들은 도면들을 참조하여 다음의 상세한 설명을 읽어보면 더 잘 이해될 수 있다.
도 1은 본 발명의 양태들에 따른, 적응적으로 오디오 피드백을 변경하도록 구성된 오디오 사용자 인터페이스를 포함하는 전자 장치의 블록도이다;
도 2는 본 발명의 양태들에 따른, 데스크톱 컴퓨팅 장치 형태를 갖는 도 1의 전자 장치의 정면도이다.
도 3은 본 발명의 양태들에 따른, 핸드헬드 휴대용 전자 장치 형태를 갖는 도 1의 전자 장치의 정면도이다.
도 4는 본 발명의 양태들에 따른, 적응적으로 오디오 피드백을 변경하도록 구성된 오디오 사용자 인터페이스에 포함될 수 있는 구성요소들을 도해하는 블록도이다.
도 5는 도 1의 전자 장치상에서 실행될 수 있는 애플리케이션의 스크린 이미지이다.
도 6은 본 발명의 양태들에 따른, 사용자가 애플리케이션과 상호작용함에 따라 발생하는 이벤트의 시각적 통지를 묘사하는 도 5에 도시된 애플리케이션의 스크린 이미지이다.
도 7은 본 발명의 양태들에 따라, 변화하는 구어성 레벨을 가지며 또한 도 6에 묘사된 이벤트와 관련되는 한 세트의 오디오 아이템들을 그래픽으로 묘사한 도면이다.
도 8 및 도 9는 본 발명의 양태들에 따라서, 어떻게 도 6의 이벤트와 관련된 오디오 피드백의 구어성이 이벤트의 반복된 발생들에 응답하여 시구간에 걸쳐서 변화되는 지를 묘사하는 그래픽 타임라인들이다.
도 10은 본 발명의 양태들에 따라서, 도 6의 이벤트의 대안적 시각적 통지를 추가로 묘사하는, 도 5에 도시된 애플리케이션의 스크린 이미지이다.
도 11a는 본 발명의 양태들에 따라서, 오디오 피드백을 요청하는 이벤트의 발생에 응답하여 재생용 오디오 아이템을 선택하기 위한 방법의 제1 실시예를 묘사하는 흐름도이다.
도 11b는 본 발명의 양태들에 따라서, 오디오 피드백을 요청하는 이벤트의 발생에 응답하여 재생용 오디오 아이템을 선택하기 위한 방법의 제2 실시예를 묘사하는 흐름도이다.
도 12는 본 발명의 양태들에 따라서, 도 1의 장치상에 표시될 수 있고 또한 어떻게 오디오 사용자 인터페이스가, 맥락상 중요성에 기초하여 이벤트들 간을 구별하는 오디오 피드백을 제공할 수 있는지를 예시하는 복수의 스크린 이미지를 보여준다.
도 13은 본 발명의 양태들에 따라서, 이벤트의 맥락상 중요성에 기초하여 오디오 아이템을 선택하기 위한 방법을 묘사하는 흐름도이다.
도 14는 탐색가능한 아이템들의 리스트를 포함하는 도 1의 전자 장치상에서 실행될 수 있는 애플리케이션을 보여주는 복수의 스크린 이미지를 묘사한다.
도 15-17은 본 발명의 양태들에 따라서, 그 각각이 도 14의 탐색가능 리스트를 보여주며 또한 변화하는 속도로 사용자가 리스트를 탐색하는 것을 묘사하는 스크린 이미지들이다.
도 18은 리스트가 탐색되는 속도에 기초하여 도 1의 전자 장치상에서 표시되는 아이템들의 리스트의 탐색과 관련되는 오디오 피드백을 변화시키기 위한 방법을 묘사하는 흐름도이다.
도 19-21은 본 발명의 양태들에 따라서, 오디오 사용자 인터페이스에서 오디오 피드백을 변화시키는 것과 관련한 다양한 사용자 구성가능 옵션을 예시하는, 도 1의 장치상에 표시될 수 있는 스크린 이미지들이다.
도 1은 본 발명의 양태들에 따른, 적응적으로 오디오 피드백을 변경하도록 구성된 오디오 사용자 인터페이스를 포함하는 전자 장치의 블록도이다;
도 2는 본 발명의 양태들에 따른, 데스크톱 컴퓨팅 장치 형태를 갖는 도 1의 전자 장치의 정면도이다.
도 3은 본 발명의 양태들에 따른, 핸드헬드 휴대용 전자 장치 형태를 갖는 도 1의 전자 장치의 정면도이다.
도 4는 본 발명의 양태들에 따른, 적응적으로 오디오 피드백을 변경하도록 구성된 오디오 사용자 인터페이스에 포함될 수 있는 구성요소들을 도해하는 블록도이다.
도 5는 도 1의 전자 장치상에서 실행될 수 있는 애플리케이션의 스크린 이미지이다.
도 6은 본 발명의 양태들에 따른, 사용자가 애플리케이션과 상호작용함에 따라 발생하는 이벤트의 시각적 통지를 묘사하는 도 5에 도시된 애플리케이션의 스크린 이미지이다.
도 7은 본 발명의 양태들에 따라, 변화하는 구어성 레벨을 가지며 또한 도 6에 묘사된 이벤트와 관련되는 한 세트의 오디오 아이템들을 그래픽으로 묘사한 도면이다.
도 8 및 도 9는 본 발명의 양태들에 따라서, 어떻게 도 6의 이벤트와 관련된 오디오 피드백의 구어성이 이벤트의 반복된 발생들에 응답하여 시구간에 걸쳐서 변화되는 지를 묘사하는 그래픽 타임라인들이다.
도 10은 본 발명의 양태들에 따라서, 도 6의 이벤트의 대안적 시각적 통지를 추가로 묘사하는, 도 5에 도시된 애플리케이션의 스크린 이미지이다.
도 11a는 본 발명의 양태들에 따라서, 오디오 피드백을 요청하는 이벤트의 발생에 응답하여 재생용 오디오 아이템을 선택하기 위한 방법의 제1 실시예를 묘사하는 흐름도이다.
도 11b는 본 발명의 양태들에 따라서, 오디오 피드백을 요청하는 이벤트의 발생에 응답하여 재생용 오디오 아이템을 선택하기 위한 방법의 제2 실시예를 묘사하는 흐름도이다.
도 12는 본 발명의 양태들에 따라서, 도 1의 장치상에 표시될 수 있고 또한 어떻게 오디오 사용자 인터페이스가, 맥락상 중요성에 기초하여 이벤트들 간을 구별하는 오디오 피드백을 제공할 수 있는지를 예시하는 복수의 스크린 이미지를 보여준다.
도 13은 본 발명의 양태들에 따라서, 이벤트의 맥락상 중요성에 기초하여 오디오 아이템을 선택하기 위한 방법을 묘사하는 흐름도이다.
도 14는 탐색가능한 아이템들의 리스트를 포함하는 도 1의 전자 장치상에서 실행될 수 있는 애플리케이션을 보여주는 복수의 스크린 이미지를 묘사한다.
도 15-17은 본 발명의 양태들에 따라서, 그 각각이 도 14의 탐색가능 리스트를 보여주며 또한 변화하는 속도로 사용자가 리스트를 탐색하는 것을 묘사하는 스크린 이미지들이다.
도 18은 리스트가 탐색되는 속도에 기초하여 도 1의 전자 장치상에서 표시되는 아이템들의 리스트의 탐색과 관련되는 오디오 피드백을 변화시키기 위한 방법을 묘사하는 흐름도이다.
도 19-21은 본 발명의 양태들에 따라서, 오디오 사용자 인터페이스에서 오디오 피드백을 변화시키는 것과 관련한 다양한 사용자 구성가능 옵션을 예시하는, 도 1의 장치상에 표시될 수 있는 스크린 이미지들이다.
이하에서는, 본 발명의 하나 이상의 구체적인 실시예가 설명될 것이다. 이들 설명된 실시예들은 오직 본 발명의 기술들의 예들일 뿐이다. 또한, 이들 실시예들에 대한 간결한 설명을 제공하고자 하는 노력에 따라, 실제 구현의 모든 특징들이 명세서에서 설명되지는 않을 것이다. 임의의 그러한 실제 구현을 개발하는 데 있어서, 어떠한 엔지니어링 또는 설계 프로젝트에서도 그런 것처럼, 구현마다 바뀔 수 있는 시스템 관련 및 비즈니스 관련 제약을 준수하는 것과 같이 개발자의 특정한 목표를 달성하기 위해 다수의 구현 특유의 결정들이 이루어져야만 한다는 것을 이해해야 한다. 더욱이, 그러한 개발 노력은, 복잡하고 시간이 걸릴 수 있지만, 그럼에도 불구하고 본 개시의 혜택을 입은 통상의 기술자들에게는 설계, 제작, 및 제조를 위한 일상적인 과업에 불과하다는 것을 인식해야 한다.
본 발명의 다양한 실시예들의 요소들을 도입할 때, 관사 "한(a, an)", 및 "그(the)"는 요소들 중 하나 이상이 존재한다는 것을 의미하도록 의도된다. "포함한다(comprising)","구비한다(including)" 및 "갖는다(having)"라는 용어들은 포괄적인 것으로 의도되며, 나열된 요소들 이외에 추가 요소들이 존재할 수 있음을 의미한다. 또한, 본 명세서의 "일 실시예" 또는 "실시예"에 대한 참조들은, 기재된 특징들을 또한 통합하는 부가적인 실시예들의 존재를 배제하는 것으로 해석하도록 의도되지 않았다는 것을 이해해야 한다.
아래 논의된 것처럼, 본 발명은 일반적으로 전자 장치상의 오디오 사용자 인터페이스에 의해 제공되는 오디오 피드백을 적응적으로 변경하기 위한 기술에 관한 것이다. 알 수 있는 바와 같이, 오디오 사용자 인터페이스는 전자 장치가 제한된 디스플레이 능력을 갖거나 디스플레이 능력을 전혀 가지지 못한 경우에 특히 유용할 수 있다. 또한, 전자 장치가 시각적 디스플레이를 포함하고 있을지라도, 사용자가 중요한 활동으로부터 시각적 집중을 돌려서 그래픽 사용자 인터페이스로 이동시키는 것이 비현실적인 "눈이 바쁜(eyes-busy)" 상황들에서와 같이, 그래픽 사용자 인터페이스를 탐색하기에 어려움을 겪는 때가 있다. 그와 같은 활동들은 예를 들어 자동차 운전, 운동 및 혼잡한 거리를 지나가는 것을 포함할 수 있다. 덧붙여, 장치가 시각적으로 장애가 있는 사용자에 의해 이용되고 있다면 오디오 피드백은 시각적 피드백에 대한 실제적 대안이 된다.
일 실시예에 따라서, 오디오 사용자 인터페이스는 오디오 피드백의 구어성을 축소하거나 진전시킬 수 있다. 앞서 언급된 바와 같이, 여기서 이용되는 대로의 용어 "구어성"은, 오디오 피드백에 의해 제공되는 오디오 정보의 "말 많은 정도"를 지칭한다고 이해해야 할 것이고, 클릭들, 삑 소리들, 짹짹 소리와 같은 비언어적 유형의 오디오 피드백, 또는 다른 다양한 유형의 비언어적 음향 효과들을 포괄할 수 있다. 예를 들어, 높은 레벨의 구어성을 가지는 오디오 피드백은 (예를 들면, 구두 단어들을 포함하는 이전에 저장된 오디오 파일을 재생하거나, 또는 실시간 텍스트-투-스피치 합성을 이용하여) 몇 개의 구두 단어를 출력할 수 있는 한편, 낮은 레벨의 구어성 레벨을 가지는 오디오 피드백은 더 소수의 구두 단어들, 또는 몇몇 경우에는 비언어적 톤(예를 들어, 어떤 구두 단어도 없는 톤)을 출력할 수 있다. 일 실시예에서, 사용자 인터페이스 이벤트들에 응답하여 제공되는 오디오 피드백의 구어성은 사용자 인터페이스 이벤트의 하나 이상의 이전 발생들 동안 제공된 오디오 피드백의 구어성 레벨에 적어도 부분적으로 기초하여 변경된다. 그러므로, 사용자 인터페이스 이벤트의 다음 발생들이 사용자 인터페이스 이벤트의 이전 발생과 비교적 매우 근접하여 발생하는 경우, 오디오 사용자 인터페이스는 사용자를 반복적이고 대단히 말 수가 많은 정보로 인해 당황케 하는 것을 회피하기 위해(예를 들면, 구어성을 감소시킴으로써) 오디오 피드백을 축소할 수 있다.
또 다른 실시예에서, 오디오 사용자 인터페이스는 사용자가 리스트를 탐색하는 속도에 적어도 부분적으로 기초하여 데이터 아이템들의 탐색가능 리스트와 관련된 오디오 피드백을 적응적으로 변경하기 위해 구성될 수 있다. 추가 실시예에서, 오디오 사용자 인터페이스는 더 새로운 데이터 콘텐츠가 탐색가능 리스트에서 어디에 위치하는 지를 나타내기 위해 청각적으로 더 구별되는 오디오 피드백을 제공하도록 또한 더 오래된 데이터 콘텐츠에 대해 청각적으로 덜 구별되는 오디오 피드백을 제공하도록 구성될 수 있다. 또 다른 실시예에서, 오디오 사용자 인터페이스는 사용자 인터페이스 이벤트의 맥락상 중요성에 기초하여 오디오 피드백의 구어성 및/또는 구별성을 변경하도록 구성될 수 있다. 여기서 기술된 다양한 오디오 피드백 기술은 단독으로 또는 조합으로 구현될 때 오디오 사용자 인터페이스들에 대한 사용자 경험을 개선할 수 있다.
계속하기 전에, 개시된 발명 대상의 더 나은 이해를 촉진하기 위해 본 명세서의 전체에 걸쳐 널리 사용되는 몇몇 추가 용어들이 먼저 정의될 것이다. 예를 들면, 전자 장치의 작동 중에 발생한 이벤트들은 일반적으로 "사용자 이벤트들" 또는 "시스템 이벤트들"로서 분류될 수 있다. 여기서 사용되는 바로는, 용어 "사용자 이벤트" 및 그와 같은 것은 장치와 사용자의 상호작용의 결과로서 발생하는 이벤트를 지칭한다고 이해될 것이다. 예를 제공하기 위해, 사용자 이벤트는 사용자에 의해 요청되는 특정 장치 기능의 가용성을 나타내는 통지일 수 있다. 대조적으로, 용어 "시스템 이벤트" 또는 그와 같은 것은 사용자가 장치와 활동적으로 상호작용하고 있는지 또는 장치에게 요청들 및/또는 명령들을 발행하는 지에 상관없이 장치의 상태에 관련된 정보를 제공하기 위해 작동 동안에 장치 자체에 의해 일반적으로 개시되는 이벤트들로서 이해될 것이다. 예를 들기 위한 목적으로서, 시스템 이벤트는 저 배터리 상태 통지를 포함할 수 있다. 그러므로, 여기서 사용되는 대로의 용어 "이벤트"는, 앞서 정의된 것처럼, 사용자 이벤트 또는 시스템 이벤트를 지칭할 수 있다는 것을 이해해야 한다.
오디오 사용자 인터페이스들의 맥락에서, 전자 장치는 특정 이벤트들의 발생시에 오디오 피드백을 제공하기 위해 "오디오 아이템"의 재생을 개시할 수 있다. 여기서 사용되는 바로는, 용어 "오디오 아이템" 또는 그와 같은 것은 전자 장치의 오디오 사용자 인터페이스에 의해 제공되는 오디오 정보를 지칭한다고 이해해야 할 것이다. 예를 들면, 오디오 아이템들은 장치상에 (예를 들면, 메모리 또는 비휘발성 저장소에) 저장된 오디오 파일일 수 있고, 그리고 언어적 (예를 들면, 음성 데이터) 오디오 정보, 또는 삑 소리들, 클릭들, 짹짹거리는 소리들, 차임 소리들(chimes), 링 소리들(rings) 들과 같은 비언어적 오디오 큐들, 및 다른 다양한 톤들 또는 음향 효과들을 포함할 수 있다. 덧붙여, 몇몇 오디오 아이템들은 장치상에 국소적으로 저장되는 것이 아니라, 그 대신에 오디오 피드백을 요청하는 특별한 이벤트의 발생과 결합하여 합성된 음성 애플리케이션들 (예를 들면, 텍스트-투-스피치)을 이용하여 생성될 수 있다.
이하 설명된 기술들에 따라서, 특정 이벤트들은 다른 구어성 레벨들을 갖는 한 세트의 오디오 아이템들과 관련될 수 있다. 예를 들면, 한 세트의 오디오 아이템들은 비언어적 오디오 아이템(예를 들면, 어떠한 말도 없는 콘텐츠) 및 최고의 구어성 레벨(예를 들면, "순 구어성")을 가지고 있는 오디오 아이템을 포함할 뿐만 아니라, 중간 구어성 레벨들을 가지는 하나 이상의 오디오 아이템들을 포함할 수 있다. 여기서 사용하는 바로는, 용어들 "축소(devolve)", "단계 격하(step down)" 또는 그와 같은 것은 이벤트의 이전 발생 동안 선택된 오디오 아이템의 구어성과 비교해 상대적으로 말 수가 적은 오디오 아이템을 선택하고 재생함으로써 특정 이벤트와 관련되는 오디오 피드백의 구어성을 감소시키는 행동을 지칭하는 것으로서 이해해야 할 것이다. 유사하게, 용어 "진전(evolve)", "단계 상승(step up)" 또는 그와 같은 것은 이벤트의 이전 발생 동안 선택된 오디오 아이템의 구어성과 비교해 상대적으로 말 수가 많은 오디오 아이템을 선택하고 재생함으로써 특정 이벤트와 관련되는 오디오 피드백의 구어성을 증가시키는 행위를 지칭하는 것으로서 이해해야 할 것이다. 어떻게 오디오 피드백을 축소하거나 진전시킬지를 결정하기 위한 다양한 기술이 이하에 개시된다.
또한, 용어 "맥락상 중요성(contextual importance)" 또는 그와 같은 것은, 사용자 인터페이스들에 적용될 때에, 정보가 제공되는 맥락과 관련하여 장치상의 이벤트에 응답하여 제공된 정보의 중요성을 지칭하는 것으로 이해해야 할 것이다. 예를 들면, 더 높은 맥락상 중요성을 갖는 이벤트들은 더 낮은 맥락상 중요성의 이벤트들과 상대적으로 더 구별되는 소리의 오디오 피드백을 제공할 수 있다. 하나의 예를 제공하면, 사용자에게 들어오는 네트워크 접속을 허락하거나 거부하도록 프롬프팅하는 이벤트와 같이 사용자 응답을 요청할 수 있는 이벤트들은, 장치가 들어오는 네트워크 접속 요청을 다루는 방법을 결정하기 위해서 사용자가 이벤트에 응답하여 결정을 제공할 것을 요청할 수 있기 때문에 비교적 높은 맥락상 중요성을 가질 수 있다. 또 다른 예를 제공하면, 저 배터리 경보 통지 이벤트의 제1 발생은 상대적으로 낮은 맥락상 중요성을 가질 수 있는데, 이는 이런 통지가 일반적으로 정보를 제공하기 위한 것이고 또한 사용자 응답 또는 즉각적 사용자 행위를 반드시 요구하지는 않기 때문이다. 그러나, 저 배터리 통지의 맥락상 중요성은, 사용자가 몇 번의 반복된 발생들을 통한 저 배터리 통지를 고의로 또는 부주의로 무시하여 장치가 연속 동작에 요구되는 임계 전력 문턱값에 접근하는 결과를 낳는 경우, 점차적으로 증가할 수 있다.
다른 실시예들에서, 사용자 인터페이스 이벤트의 맥락상 중요성은 미리 프로그래밍된 정보(예를 들면, 이벤트들이 높거나 낮은 맥락상 중요성 특징을 가지는 것으로 프로그래밍될 수 있음)에 기초하여 또한 결정될 수 있다. 다른 실시예들에서, 사용자 인터페이스 이벤트의 맥락상 중요성은 이전의 장치 거동 및/또는 어떻게 사용자가 사용자 인터페이스 이벤트의 이전 발생(들) 동안 장치와 상호 작용했는지에 기초하여 적응적이 되거나 알 수 있다. 덧붙여, 몇몇 실시예에서, 맥락상 중요성은 전자 장치상의 구성가능한 사용자 선호 설정 세트를 통해서 하는 것과 같이 사용자가 특정할 수 있다. 다양한 실시예들이 이벤트들의 맥락상 중요성을 나타내도록 오디오 피드백을 변경하기 위해 논의된다. 그러므로, 오디오 피드백 구어성의 진전과 축소는 사용자 입력들(예를 들면, 직접적 사용자 입력들, 사용자 선호 설정, 기타 등등)에 응답하여 및/또는 외부 자극들(예를 들면, 장치 작동 이벤트들, 저 전력, 저 메모리, 기타 등등)에 응답하여 전자 장치에 의해 실행되는 지능적이고 적응적인 행위일 수 있다는 것을 이해해야 한다. 사실상, 이하의 다양한 실시예들에서 보여지는 것처럼, 오디오 피드백 구어성의 진전과 축소는 동적일 수 있고 장치상에 저장된 특정한 사용자 선호들 및/또는 설정에 기초하여 맞춤화될 수 있다.
도면으로 지금 돌아가면, 도 1은 앞서 간략하게 언급된 기술들 중의 하나 이상을 이용하여 오디오 피드백을 변경하도록 구성되는 사용자 인터페이스를 포함할 수 있는 전자 장치(10)의 예를 도해하는 블록도이다. 전자 장치(10)는 랩톱 또는 데스크톱 컴퓨터, 이동 전화, 디지털 미디어 플레이어, 또는 오디오 출력 장치를 사용하여 오디오 피드백을 제공하도록 구성되는 오디오 사용자 인터페이스를 포함하는 장치와 같은 임의 유형의 전자 장치일 수 있다. 예를 들기 위한 것으로만, 전자 장치(10)는 캘리포니아, 쿠퍼티노의 애플사로부터 얻을 수 있는 MacBook®, MacBook®Pro, MacBook Air®, iMac®, Mac®Mini, 또는 Mac Pro® 모델과 같은, 데스크톱 또는 랩톱 컴퓨터일 수 있다. 또한, 전자 장치(10)는 애플사로부터 또한 얻을 수 있는 iPod® 또는 iPhone®모델과 같은 휴대용 전자 장치일 수 있다. 다른 실시예들에서, 전자 장치(10)는 오디오 피드백을 제공할 수 있는 오디오 사용자 인터페이스를 포함하는 또 다른 제조자로부터의 전자 장치 모델일 수도 있다.
도 1에 도시된 바와 같이, 전자 장치(10)는 장치(10)의 기능에 기여하는 다양한 내부 및/또는 외부 구성요소들을 포함할 수 있다. 이 기술 분야의 통상의 기술자들은 도 1에 도시된 다양한 기능 블록들이 (회로를 포함하는) 하드웨어 요소들, (컴퓨터 판독가능 매체상에 저장된 프로그램들 및/또는 펌웨어와 같은 컴퓨터 코드를 포함하는) 소프트웨어 요소들, 또는 하드웨어 요소와 소프트웨어 요소 양자의 조합을 포함할 수 있다는 것을 이해할 것이다. 예를 들면, 현재 도해된 실시예에서, 전자 장치(10)는 다음과 같은 구성 요소들을 포함할 수 있다: 입/출력(I/O) 포트들(12), 입력 구조들(14), 하나 이상의 프로세서들(16), 메모리 장치(18), 비휘발성 저장 장치(들)(20), 디스플레이(22), 오디오 출력 장치(24), 확장 카드(들)(26), 네트워킹 장치(28), 및 전원(30). 덧붙여, 전자 장치(10)는 그래픽 사용자 인터페이스(36) ("GUI")와 오디오 사용자 인터페이스(38)의 둘 모두를 가지는 사용자 인터페이스(34)를 또한 포함할 수 있다. 추가로 이하에서 논의되는 바와 같이, 오디오 사용자 인터페이스(38)는 오디오 피드백을 변경하기 위해 앞서 논의된 기술들 중의 하나 이상을 구현하도록 구성될 수 있다.
도 1에서의 각각의 도해된 구성 요소들에 관해서, I/O 포트들(12)은 전원, 또는 (핸드헬드 장치들 및/또는 컴퓨터들, 프린터들, 프로젝터들, 외부 디스플레이들, 모뎀들, 도킹 스테이션들 및 기타 등등과 같은) 다른 전자 장치들과 같은 다양한 전자 장치들에 접속하도록 구성된 다양한 포트들을 포함할 수 있다. I/O 포트들(12)은 USB(universal serial bus) 포트, 비디오 포트, 직렬 접속 포트, IEEE-1394 포트, 이더넷 또는 모뎀 포트, 및/또는 AC/DC 전력 접속 포트와 같은 임의의 인터페이스 유형을 지원할 수 있다. 일 실시예에서, I/O 포트들(12)은 장치(10)의 전원(30)(이는 하나 이상의 재충전가능 배터리들을 포함할 수 있음)을 충전하기 위해, 또는 장치(10)와 외부 소스 사이에서 데이터를 전달하기 위해 기능할 수 있는 애플사로부터의 전용 포트를 포함할 수 있다. 또한, 오디오 출력 장치(24)가 외부 오디오 출력 장치(예를 들면, 헤드폰들 또는 외부 스피커들)를 포함하는 경우에, I/O 포트들(12)은 장치(10)에게 오디오 출력 장치(24)를 접속하기 위한 오디오 접속기 포트를 포함할 수 있다.
입력 구조들(14)은 프로세서(들)(16)로의 사용자 입력 또는 피드백을 제공할 수 있다. 예를 들면, 입력 구조들(14)은 장치(10)상에서 돌아가는 애플리케이션들과 같은, 전자 장치(10)의 하나 이상의 기능들을 제어하도록 구성될 수 있다. 단지 예를 들기 위한 목적으로, 입력 구조들(14)은 버튼들, 슬라이더들, 스위치들, 제어 패드들, 키들, 노브(knob)들, 스크롤 휠들, 키보드들, 마우스, 터치패드들 및 기타 등등의 것, 또는 이런 것들의 몇몇 조합을 포함할 수 있다. 일 실시예에서, 입력 구조들(14)은 사용자가 장치(10)상에 표시된 GUI(36)를 탐색하도록 허용할 수 있다. 덧붙여, 입력 구조들(14)은 디스플레이(22)와 결합하여 제공되는 터치 감지 메커니즘을 포함할 수 있다. 이러한 실시예들에서, 사용자는 터치 감지 메커니즘을 통해 표시된 인터페이스 요소들을 선택하거나 이들과 상호작용할 수 있다.
장치(10)의 동작은 운영체제, 애플리케이션 프로그램들, GUI(36), 오디오 사용자 인터페이스(38) 및 장치(10)상에 제공되는 임의의 다른 기능들을 실행하는데 요구되는 처리 능력을 제공할 수 있는 하나 이상 프로세서들(16)에 의해 일반적으로 제어될 수 있다. 프로세서(들)(16)는 단일 프로세서를 포함할 수 있거나, 또는 다른 실시예들에서 다중 프로세서를 포함할 수 있다. 예를 들면, 프로세서(16)는 "범용" 마이크로프로세서들, 주문형 프로세서들(ASIC들), 커스텀 프로세서들 또는 그와 같은 처리 구성 요소들의 조합을 포함할 수 있다. 예를 들어, 프로세서(들)(16)는 명령어 세트 프로세서들(예컨대, RISC), 그래픽/비디오 프로세서들, 오디오 프로세서들, 및/또는 다른 관련 칩셋들을 포함할 수 있다. 프로세서(들)(16)는 장치(10)의 다양한 구성 요소들 사이에서 데이터와 명령어들을 전달하기 위한 하나 이상의 데이터 버스들에 결합될 수 있다.
프로세서(들)(16)에 의해 처리될 명령어 또는 데이터가, 랜덤 액세스 메모리(RAM)와 같은 휘발성 메모리이거나 판독 전용 메모리(ROM)와 같은 비휘발성 메모리이거나, RAM 및 ROM 장치의 조합일 수 있는 메모리(18)와 같은 컴퓨터 판독가능 매체에 저장될 수 있다. 예를 들면, 메모리(18)는, 운영체제, 애플리케이션들, 그래픽 및 오디오 사용자 인터페이스 기능들과 같은 장치(10)용 펌웨어, 또는 장치(10)상에서 실행될 수 있는 임의의 다른 루틴들을 저장할 수 있다. 사용자 인터페이스(34) [GUI(36)와 오디오 사용자 인터페이스(38)를 포함함]가 메모리(18)의 구성 요소들인 것으로서 도시되었지만, GUI(36)와 오디오 사용자 인터페이스(38)를 정의하는 인코딩된 명령어들(예를 들면, 기계 판독가능 코드)이 실제로 비휘발성 저장소(20)에 실제적으로 상주할 수 있고, 실행 시간에서의 실행을 위해 메모리(18) 내에 로딩될 수 있다는 점을 이해해야 한다.
비휘발성 저장 장치(20)는 데이터 및/또는 명령어들의 지속적 저장을 위해, 플래시 메모리, 하드 드라이브, 또는 임의의 다른 광학적, 자기적 및/또는 고상 저장 매체를 포함할 수 있다. 예를 들어, 비휘발성 저장 장치(20)는 오디오 데이터, 비디오 데이터, 사진뿐만이 아니라, 임의의 다른 적절한 데이터를 포함하는 데이터 파일을 저장하는 데 사용될 수 있다. 추가로 이하에서 논의되는 것처럼, 비휘발성 저장 장치(20)가 오디오 사용자 인터페이스(38)를 통해 선택되고 재생되어 오디오 피드백을 장치(10)의 사용자에게 제공할 수 있는 다양한 오디오 아이템들을 저장하도록 장치(10)에 의해 활용될 수 있다.
디스플레이(22)는 장치(10)에 의해 생성되는 다양한 이미지들을 표시하는데 사용될 수 있다. 예를 들면, 디스플레이(22)는 GUI(36)에 의해 생성되는 이미지들(40)을 수신하고 표시할 수 있다. 다양한 실시예들에서, 디스플레이(22)는, 예를 들면, LCD, 플라즈마 디스플레이 또는 유기발광 다이오드(OLED) 디스플레이와 같은, 임의의 적절한 디스플레이일 수 있다. 덧붙여, 디스플레이(22)는 장치(10)에 대한 제어 인터페이스의 일부로서 기능할 수 있는 앞서 논의된 터치 감지 메커니즘(예컨대, 터치 스크린)과 결합하여 제공될 수 있다. 또한, 몇몇 실시예에서, 장치(10)는 디스플레이(22) 또는 GUI(36)를 포함하는 것이 아니라, 그 대신에 사용자가 장치(10)와 그를 통해 상호 작용할 수 있는 오디오 사용자 인터페이스(38)만을 포함할 수 있다는 점을 유의해야 한다. 디스플레이(22)를 결여한 장치(10)의 실시예의 한 예는 애플사로부터 얻을 수 있는 iPod® 셔플의 한 모델일 수 있다.
앞서 언급한 대로, 오디오 출력 장치(24)는 I/O 포트(12)에 의해 장치(10)에 접속된 헤드폰들 또는 외부 스피커들과 같은, 외부 오디오 출력 장치를 포함할 수 있다. 덧붙여, 오디오 출력 장치(24)는 통합된 스피커들을 포함할 수 있다. 도 1에 나타난 바와 같이, 오디오 사용자 인터페이스(38)에 의해 제공되는 오디오 피드백(42)은 오디오 출력 장치(24)를 사용하여 재생될 수 있다. 몇몇 실시예에서, 오디오 사용자 인터페이스(38)는 오디오 입력 장치(도 1에 도시되지 않음)에 의해서 사용자로부터의 오디오 입력들(예를 들면, 음성 명령들)을 수신하도록 또한 구성될 수 있으며, 이런 입력들은 장치(10)상에서의 특정 작업 또는 기능을 수행하기 위한 명령어들 또는 명령(command)들로 번역(translate)될 수 있다.
도 1에 도해된 실시예는 또한 하나 이상의 카드 또는 확장 슬롯을 포함할 수 있다. 카드 슬롯들은 추가 메모리, I/O 기능성 또는 네트워크 성능과 같은 기능성을 전자 장치(10)에 추가하기 위해 이용될 수 있는 하나 이상의 확장 카드(26)를 수용하도록 구성될 수 있다. 그러한 확장 카드(26)는 임의 유형의 적합한 커넥터를 통해 장치(10)에 접속할 수 있으며, 전자 장치(10)의 하우징에 대하여 내부적으로 또는 외부적으로 액세스될 수 있다. 예를 들면, 일 실시예에서, 확장 카드(들)(26)는 SecureDigital (SD) 카드, CompactFlash 카드, 멀티미디어 카드(MMC) 또는 그와 유사한 것과 같은 플래시 메모리 카드, 또는 PCMCIA 장치를 포함할 수 있다. 또한, 확장 카드(24)는 이동 전화 능력을 제공하는 전자 장치(10)의 실시예와 함께 이용하기 위한 SIM(Subscriber Identity Module) 카드일 수 있다.
전자 장치(10)는 또한 무선 802.11 표준, 또는 예를 들어 LAN(local area network), EDGE(Enhanced Data Rates for GSM Evolution) 네트워크, 3G 데이터 네트워크와 같은 WAN(wide area network), 또는 인터넷 등의 임의의 다른 적절한 네트워킹 표준을 통한 네트워크 접속성을 제공할 수 있는 네트워크 컨트롤러 또는 네트워크 인터페이스 카드(NIC)일 수 있는 네트워크 장치(28)를 포함한다. 네트워크 장치(28)에 의해서, 장치(10)는 휴대용 전자 장치들, 개인용 컴퓨터들, 프린터들 및 기타 등등의 네트워크상의 임의의 장치에 접속하고 이런 장치와 데이터를 주고 받을 수 있다. 특정 실시예들에서, 네트워크 장치(28)는 애플사로부터 얻을 수 있는 iTunes®서비스와 같은 온라인 디지털 미디어 콘텐츠 제공자에게 접속을 제공할 수 있다.
장치(10)의 전원(30)은 비휴대용 및 휴대용 설정들 양자에서 장치(10)에 전력을 공급하는 능력을 포함할 수 있다. 예를 들어, 휴대용 설정에서, 장치(10)는 장치(10)에 전력을 공급하기 위한, Li-Ion 배터리와 같은 하나 이상의 배터리를 포함할 수 있다. 배터리는 벽 콘센트(electrical wall outlet)와 같은 외부 전원에 장치(10)를 접속함으로써 재충전될 수 있다. 비휴대용 설정에서, 전원(30)은 벽 콘센트로부터 전력을 끌어내고 또한 데스크톱 컴퓨팅 시스템과 같은 비휴대용 전자 장치의 다양한 구성요소들에게 전력을 분배하도록 구성된 PSU(power supply unit)를 포함할 수 있다.
도 1에 묘사된 전자 장치(10)의 구성 요소들을 설명하였고, 도 2와 3은 전자 장치(10)가 취할 수 있는 다양한 형태들을 예시한다. 도 2에 나타난 바와 같이, 전자 장치(10)는 컴퓨팅 시스템(50) 형태를 취할 수 있다. 묘사된 컴퓨터(50)는 하우징(52), 디스플레이(22), 키보드와 마우스 모양의 입력 구조들(14) 뿐만 아니라 통합된 스피커들 형태의 오디오 출력 장치(24)를 포함한다. 컴퓨터(50)는 또한 디지털 카메라와 같은 통합된 촬상 장치(54)를 포함한다. 예시된 컴퓨터(50)가 일반적으로 비휴대용 컴퓨터 시스템(예를 들면, 데스크톱 시스템, 워크스테이션, 및/또는 서버)인 것으로서 나타내기는 하였지만, 컴퓨터(50)는 더 작고 더욱 휴대용인 폼 팩터의 장치들(예를 들면, 랩톱 컴퓨터들, 넷북 컴퓨터들 및/또는 태블릿 컴퓨터들)을 이용하여 또한 제공될 수 있다는 것을 이해해야 한다.
알 수 있는 바와 같이, 입력 구조들(14)은 컴퓨터(50)의 전원을 켜거나 이를 시작하기 위해, 컴퓨터(50)상에서 돌아가는 GUI 또는 애플리케이션을 작동시킬 뿐만 아니라, 컴퓨터(50)의 동작과 관련되는 다양한 다른 특징들(예를 들면, 음향 크기, 표시 휘도 등등)을 조절하는 것과 같이, 컴퓨터(50)와 상호작용하는 데에 사용될 수 있는 다양한 기타 버튼들 및/또는 스위치들을 또한 포함할 수 있다. 컴퓨터(50)는 또한 FireWire®또는 USB 포트, HDMI(high definition multimedia interface) 포트, 또는 외부 장치에 접속하기에 적합한 임의의 다른 유형의 포트와 같은, 앞서 논의된 바와 같은, 부가적인 장치들에 접속성을 제공하는 다양한 I/O 포트들(12)을 포함할 수 있다. 추가적으로, 컴퓨터(50)는 도 1에 관련하여 앞서 설명된 대로 네트워크 접속성[예를 들어, 네트워크 장치(28)], 메모리[예를 들어, 메모리(18)], 및 저장 능력[예를 들어, 저장 장치(20)]을 포함할 수 있다.
추가로 보여지는 것처럼, 디스플레이(22)는 사용자가 볼 수 있는 다양한 이미지들을 생성하도록 구성될 수 있다. 예를 들면, 컴퓨터(50)의 동작 중에, 디스플레이(28)는 사용자가 컴퓨터(50)상에서 돌아가는 운영체제 및/또는 애플리케이션들과 상호 작용하도록 허용하는 GUI(36)를 표시할 수 있다. GUI(36)는 다양한 레이어, 윈도, 스크린, 템플릿, 또는 디스플레이 장치(22)의 전부 또는 일부에 표시될 수 있는 다른 그래픽 요소들을 포함할 수 있다. 예를 들면, 묘사된 실시예에서, GUI (36)는 각각이 (예를 들면, 키보드/마우스 또는 터치스크린 입력을 통한) 사용자 선택의 검출시에 열리거나 실행될 수 있는 다양한 애플리케이션들에 대응할 수 있는 다양한 그래픽 아이콘들(56)을 포함하는 운영체제 인터페이스를 표시할 수 있다. 아이콘들(56)은 독(dock)(58)에서 또는 스크린상에서 표시되는 하나 이상의 그래픽 윈도 요소들(60) 내에 표시될 수 있다.
일부 실시예들에서, 아이콘(56)의 선택은 계층적 탐색 프로세스(hierarchical navigation process)로 이끌 수 있어서, 아이콘(56)의 선택이 스크린으로 인도하거나 또는 하나 이상의 부가적인 아이콘 또는 다른 GUI 요소들을 포함하는 다른 그래픽 윈도를 열도록 한다. 예를 들기 위한 것으로서만, 도 2에 표시된 운영체제 GUI(36)는 애플사로부터 얻을 수 있는 Mac OS®운영 체제 버전으로부터 온 것일 수 있다. 추가적으로, 컴퓨터(50)는 GUI(36)와 동시에 돌아가는 오디오 사용자 인터페이스(예를 들면, 38)를 또한 포함할 수 있다. 예를 들면, 사용자 이벤트들 또는 시스템 이벤트들에 응답하여, 오디오 사용자 인터페이스(38)는 오디오 출력 장치들(24)을 통하여 오디오 피드백을 사용자에게 제공할 수 있다. 예를 들어, 오디오 사용자 인터페이스(38)의 실시예는 Mac OS®운영 체제의 버전들에서 사용 가능할 뿐만 아니라 iPods® 및 iPhones® 특정 모델들에서 사용가능한 VoiceOver®유틸리티일 수 있는데, 이 모두는 애플사로부터 얻을 수 있다.
도 3은 애플사로부터 얻을 수 있는 iPod®또는 iPhone®의 모델일 수 있는 휴대용 핸드헬드 전자 장치(70)의 형태를 갖는 전자 장치(10)를 또한 예시하고 있다. 묘사된 실시예에서, 핸드헬드 장치(70)는 내부 구성 요소들을 물리적 손상으로부터 보호하고 전자파 장애로부터 이들을 보호하는 기능을 할 수 있는 인클로저(52)를 포함한다. 인클로저(52)는 플라스틱, 금속 또는 복합 재료와 같은, 임의의 적합한 재료 또는 재료들의 조합으로부터 형성될 수 있고, 또한 도 3에 도시된 바와 같이 인클로저(52) 내에 배치될 수 있는 무선 통신 회로 [예를 들면, 네트워크 장치(28)]까지 무선 네트워킹 신호가 통과해 나아가도록 허용할 수 있다.
인클로저(52)는 그를 통해 사용자가 핸드헬드 장치(70)와 인터페이스할 수 있는 다양한 사용자 입력 구조들(14)을 포함할 수 있다. 예를 들어, 각각의 입력 구조(14)는 눌려지거나 작동(actuate)될 때 하나 이상의 개개의 장치 기능들을 제어하도록 구성될 수 있다. 예를 들어, 입력 구조들(14) 중 하나 이상은 표시될 "홈" 스크린(72) 또는 메뉴를 호출(invoke)하고, 슬리프(sleep), 웨이크(wake), 또는 전력 온/오프(powered on/off) 모드 사이에서 토글링(toggle)하고, 셀룰러 전화 응용을 위해 링거(ringer)를 조용하게 하고, 음량(volume) 출력을 증가 또는 감소시키고 및 등등의 것을 하도록 구성될 수 있다. 예시된 입력 구조들(14)은 예시적일 뿐이고, 핸드헬드 장치(70)는 버튼들, 스위치들, 키들, 노브들, 스크롤 휠들 등을 포함하는 다양한 형태들로 존재하는 임의의 수의 적절한 사용자 입력 구조들을 포함할 수 있다는 것을 이해해야 한다.
도 3에 나타난 바와 같이, 핸드헬드 장치(70)는 다양한 I/O 포트들(12)을 포함할 수 있다. 예를 들어, 도시된 I/O 포트들(12)은 데이터 파일들을 송수신하기 위한 또는 전원(26)을 충전하기 위한 전용 접속 포트(proprietary connection port)(12a) , 및 장치(70)를 외부 오디오 출력 장치(24)(예를 들어, 헤드폰들 또는 스피커들)에 접속하기 위한 오디오 접속 포트(12b)를 포함할 수 있다. 또한, 핸드헬드 장치(70)가 이동 전화 기능을 제공하는 실시예들에서, 장치(70)는 SIM(subscriber identify module) 카드[예를 들어, 확장 카드(26)]를 수용하기 위한 I/O 포트(12c)를 포함할 수 있다.
디스플레이 장치(22)는 핸드헬드 장치(70)에 의해 생성되는 다양한 이미지들을 보여줄 수 있다. 예를 들어, 디스플레이(22)는 전력 상태, 신호 강도, 외부 장치 접속들 등과 같은 핸드헬드 장치(70)의 하나 이상의 상태와 관련하여 사용자에게 피드백을 제공하는 다양한 시스템 표시기들(73)을 표시할 수 있다. 디스플레이(22)는 도 2을 참조하여 상술한 바와 같이, 사용자가 장치(70)와 상호 작용하게 허용하는 GUI(36)를 또한 표시할 수 있다. GUI(36)는 각각의 아이콘(56)의 사용자 선택을 탐지할 시에 열리거나 실행될 수 있는 다양한 애플리케이션들에 대응할 수 있는 아이콘들(56)을 포함할 수 있다. 예를 들면, 아이콘(74)은 미디어 플레이어 애플리케이션을 나타낼 수 있고, 아이콘(76)은 온라인 디지털 미디어 서비스 애플리케이션을 나타낼 수 있고, 아이콘(78)은 그를 통해 사용자가 장치(70)의 하나 이상의 설정들을 구성할 수 있는 애플리케이션을 나타낼 수 있다. 예를 들어, 도 3의 표시된 GUI (36)는 애플사로부터 얻을 수 있는 iPhone® 운영 체제 버전으로부터 온 것일 수 있다.
핸드헬드 장치(70)는 또한 오디오 출력 장치들(24), 오디오 입력 장치들(80)뿐만 아니라 출력 송신기(82)를 포함한다. 상술한 바와 같이, 장치(70)상의 오디오 사용자 인터페이스(38)는 다양한 오디오 아이템의 재생을 통하여 오디오 피드백을 사용자에게 제공하기 위해 오디오 출력 장치들(24)을 사용할 수 있다. 덧붙여, 오디오 출력 장치(24)는 예를 들어 음악과 미디어 파일들을 재생하는 것과 같이, 미디어 플레이어 애플리케이션(76)과 결합하여 이용될 수 있다. 또한, 전자 장치(70)가 이동 전화 애플리케이션을 포함하는 경우, 오디오 입력 장치들(80)과 출력 송신기(82)는 전화기의 오디오 수신과 송신 요소들로 기능하도록 결합하여 작동할 수 있다.
이제 도 4를 참조하면, 도 1의 장치(10)에서 구현될 수 있는 오디오 사용자 인터페이스(38)의 기능적 구성 요소들을 묘사하는 블록도가 일 실시예에 따라서 예시된다. 오디오 사용자 인터페이스(38)는 사용자 또는 시스템 이벤트와 같은, 이벤트의 발생을 나타내는 데이터(88)를 수신하는 오디오 피드백 선택 로직(86)을 포함한다. 데이터(88)를 수신하면, 오디오 피드백 선택 로직(86)은, 오디오 출력 장치(24)를 사용하여 재생하기 위한 오디오 아이템(100)의 선택을 결정하기 위해, 이벤트 통계 데이터 저장 유닛(92)과 오디오 피드백 데이터 저장 유닛(94) [둘 모두는 비휘발성 저장소(20) (도 1)의 일부일 수 있거나 또는 독립형 저장 장치들로서 구현될 수 있음] 뿐만 아니라 한 세트의 사용자 선호들(96) 및 시계 또는 타이머(98)와 통신할 수 있다. 알 수 있는 바와 같이, 도 4에 도시된 다양한 구성 요소들에 의해 제공되는 기능들은 전자 장치(10)의 하나 이상의 프로세서들(16)에 의해 실행되거나 수행될 수 있다.
예를 들면, 앞서 언급한 대로, 오디오 피드백 선택 로직(86)의 한 양태는 이벤트(88)에 응답하여 오디오 피드백을 축소하거나 진전시키는 것과 관련될 수 있다. 일 실시예에서, 선택 로직(86)은 오디오 피드백을 위한 후보들로서 이벤트(88)와 관련되는 오디오 데이터 저장소(94) 내의 한 세트의 오디오 아이템들("오디오 피드백 데이터 세트")을 식별할 수 있다. 상술한 바와 같이, 이벤트(88)에 대응하는 한 세트의 오디오 아이템들은 구어성 레벨들에 있어서 변경될 수 있으며, 여기서 각각의 레벨은 "단계"로서 언급될 수 있다. 그러므로, 앞서 정의한 대로, 오디오 피드백을 "단계 격하(stepping down)"하는 것은 오디오 피드백의 구어성을 감소시키는 것을 지칭할 수 있고, 오디오 피드백을 "단계 상승(stepping up)"시키는 것은 오디오 피드백의 구어성을 증가시키는 것을 지칭할 수 있다. 따라서, 구어성의 바라는 레벨에 대응하는 오디오 아이템(100)은 이벤트 통계 데이터 저장소(92) 및 사용자 선호들(96)에 의해 제공되는 정보에 따라서 선택될 수 있다.
일 실시예에서, 이벤트 통계 데이터 저장소(92)는, 이벤트(88)가 장치(10)의 동작 동안에 이전에 발생한 빈도와, 이벤트(88)의 가장 최근의 발생 동안 재생을 위해 선택된 오디오 아이템뿐만이 아니라, 이벤트(88)가 가장 나중에 발생한 때의 시간적 근접도 및 등등의 것을 포함하여, 이벤트(88)에 대한 정보를 저장할 수 있다. 예를 들면, 이벤트(88)의 각각의 이전 발생은 타이머(98)에 의해 제공되고 또한 이벤트 통계 데이터 저장소(92)에서 데이터 엔트리로서 저장되는 타이머 값으로 스탬핑될 수 있다. 타이머(98)는 독립형 시계(예를 들면, RC 발진기)로서 구현될 수 있거나, 장치(10)의 외부 시스템 클록에 기초하여 타이머 값들을 도출하도록 구성될 수 있다. 그러므로, 이벤트(88)가 이벤트(88)의 이전 발생과 비교하여, 매우 근접해서, 즉 선택된 시간량 (사용자 선호들(96)을 통하여 구성가능한 "대기 시간" 또는 "스텝업 시간") 내에 발생할 때, 오디오 피드백 선택 로직(86)은 이전 발생 동안 선택된 오디오 아이템과 비교하여 말 수가 적은 오디오 피드백 데이터 세트로부터의 오디오 아이템(100)을 선택할 수 있다. 이런 방식으로, 오디오 사용자 인터페이스(38)는 상대적으로 짧은 시간량에 걸쳐서 특정 이벤트(88)의 다중 발생들에 대해 똑같이 높은 구어성 오디오 아이템을 반복해서 재생하기를 회피할 수 있어서, 오디오 사용자 인터페이스(38)에 관한 사용자 경험을 개선할 수 있다.
게다가, 오디오 피드백 선택 로직(86)의 몇몇 실시예들은 앞서 논의된 축소 과정과 유사한 기술을 이용하여 오디오 피드백을 진전시키기 위해 또한 구성될 수 있다. 예를 들면, 이벤트(88)의 발생을 탐지할 시에, 이벤트 통계 데이터(92)가 이벤트(88)가 이벤트(88) 발생의 바로 직전에 선택된 스텝업 시간에 대응하는 구간 내에 발생하지 않았다는 것을 표시한다면, 선택 로직(86)은 이벤트(88)의 이전 발생에 대해 선택된 오디오 아이템과 비교하여 더 말 수가 많은 오디오 피드백 데이터 세트로부터의 오디오 아이템(100)을 선택함으로써 오디오 피드백을 진전시킬 수 있다.
이벤트(88)가 발생한 빈도와 시간적 근접성이 오디오 사용자 인터페이스(38)의 선택 로직(86)이 오디오 피드백을 변경할 수 있는 하나의 메트릭이기는 하지만, 다른 요인들도 선택 로직(86)이 어떻게 오디오 아이템(100)을 선택할 것인지에 대해 기여할 수 있다. 예를 들면, 일 실시예에서, 선택 로직(86)은 이벤트(88)의 맥락상 중요성에 기초하여 오디오 피드백을 제어하거나 변경하도록 구성될 수 있는데, 이 맥락상 중요성은 이벤트(88)에 응답하여 제공된 정보의, 이벤트(88)가 발생한 맥락에 대한 상대적 중요성에 좌우될 수 있다. 다른 실시예들에서, 이벤트의 맥락상 중요성은 미리 프로그래밍된 정보에 기초하여 결정될 수 있고 (예를 들면, 이벤트들이 높거나 낮은 맥락상 중요성 특징을 가지는 것으로서 프로그래밍될 수 있다), 이전의 장치의 거동 및/또는 어떻게 사용자가 이벤트의 이전 발생(들) 동안 장치와 상호작용했는지에 기초하여 적응적일 수 있거나 알 수 있고, 또는 예를 들어 전자 장치상의 구성가능한 사용자 선호 설정들의 세트를 통해서 그렇게 하는 것처럼 사용자에 의해 지정될 수 있거나, 또는 이런 요인들의 조합에 기초하여 결정될 수 있다. 추가 실시예에서, 선택 로직(86)은 리스트가 장치(10)의 사용자에 의해 탐색되는 속도에 기초하여 표시된 아이템들의 리스트와 관련된 오디오 피드백을 변경하도록 구성될 수 있다.
이런 점을 염두에 두고서, 나머지 도면들은 본 발명의 양태들에 따라서, 오디오 사용자 인터페이스[예를 들면, (38)]에 의해 제공되는 오디오 피드백을 변경시키기 위한 다양한 실시예들을 설명하도록 의도된 것이다. 특히, 도 5-11은 오디오 피드백 선택 로직(86)이 한 이벤트가 동일한 이벤트의 이전 발생들에 상대적으로 장치(10)상에서 발생하는 근접성에 기초하여 오디오 피드백을 변경하도록 구성되는 실시예들을 묘사한다. 도 12-13은 선택 로직(86)이 장치(10)상에서 발생하는 이벤트의 맥락상 중요성에 기초하여 오디오 피드백을 변경하도록 구성된 실시예를 묘사한다. 도 14-18은 선택 로직(86)이 사용자가 장치(10)상에서 표시된 아이템들의 리스트를 탐색하는 방식에 기초하여 오디오 피드백을 변경하도록 구성된 실시예를 묘사한다. 마지막으로, 도 19-21은 사용자가 장치(10)상에서 오디오 피드백을 변경하는 것에 관련한 다양한 오디오 사용자 인터페이스 설정을 그를 통해 정의하고 및/또는 구성할 수 있는 구성 애플리케이션의 실시예를 묘사한다. 본 분야의 기술자는 이러한 도면들을 참조하여 여기서 주어진 상세한 설명이 예에 의해서, 본 발명의 실시예들이 취할 수 있는 특정 형태들을 제공하도록 단지 의도된다는 것을 쉽게 알 수 있을 것이다. 즉, 본 발명은 여기 논의된 특정한 실시예들에만 제한되는 것으로서 해석하지 말아야 한다.
도 5를 참조하면, 장치(10)상에서 애플리케이션(106)을 묘사하는 스크린 이미지(104)가 일 실시예에 따라서 예시된다. 스크린 이미지(104)는 애플리케이션(106)을 위한 그래픽 사용자 인터페이스의 일부일 수 있고, 도 2의 컴퓨터(50)상에 디스플레이(22)를 이용하여 표시될 수 있다. 설명된 실시예에서, 애플리케이션(106)은 애플사로부터 얻을 수 있는 iTunes®애플리케이션과 같은 디지털 미디어 플레이어 애플리케이션일 수 있고, 사용자가 도 2에 나타난 바와 같이, 운영체제 GUI(36)로부터 적절한 아이콘 (56)을 선택하는 경우 개시될 수 있다. 이하에서 논의되는 실시예들에 대해서, 애플리케이션(106)은 오디오 피드백을 사용자에게 제공하기 위해 오디오 사용자 인터페이스[예를 들면, (38)]를 포함하거나 또는 [예를 들면, 장치(10)의 주 운영 체제의] 전역적 오디오 사용자 인터페이스와 호환 가능하다는 것을 이해하여야 한다.
전술한 바와 같이, GUI(36)는 사용자에 의해 행해지는 입력들 및 선택들에 의존하여 아이콘들(예컨대, 56) 및 그래픽 요소들을 포함하는 다양한 스크린을 표시할 수 있다. 이러한 요소들은 하나 이상 입력 구조들(14)(도 1)을 이용하여 디스플레이(22)로부터 사용자에 의해 선택될 수 있는 그래픽적인 가상의 요소들 또는 "버튼들"을 나타낼 수 있다. 따라서, 이하의 스크린 이미지들의 설명에서 사용되는 대로, "버튼", "가상 버튼", "그래픽 버튼", "그래픽 요소들" 등과 같은 용어는 디스플레이(22)상에 제공되는 그래픽 요소들에 의해 표현되는 버튼들 또는 아이콘들의 그래픽 표현들을 지칭하기 위한 것임을 이해해야 한다. 또한, 후속 도면들에서 제시되고 설명되는 기능들은 광범위하게 다양한 그래픽 요소들 및 시각적 방식들을 이용하여 달성될 수 있다는 것도 이해해야 한다. 따라서, 본 발명은 여기에 묘사되는 그대로의 사용자 인터페이스 관행들에만 국한되도록 의도하지 않았다. 오히려, 여기에서 제시된 실시예들은 광범위하게 다양한 사용자 인터페이스 스타일들을 포함하여 구현될 수 있다.
스크린(104)에 나타난 바와 같이, 애플리케이션(106)은 사용자가 장치(10)상의 재생을 위해 그로부터 아이템(112)을 선택할 수 있는 곡 파일들, 비디오 파일들, 팟캐스트들 및 등등과 같은, 미디어 아이템(110)의 리스트(108)를 표시할 수 있다. 도 5에 나타난 바와 같이, 리스트(108)는 곡 이름, 트랙 재생 시간, 아티스트 명칭, 앨범명 및 장르와 같은 각각의 미디어 아이템(110)에 대한 다양한 특징들을 표시할 수 있다. 일단 선택된 아이템(112)이 식별된다면, 사용자는 그래픽 재생 버튼(114)을 선택함으로써 선택된 아이템(112)의 재생을 개시할 수 있다. 덧붙여, 사용자는 그래픽 버튼(118)을 선택함으로써 이전에 재생된 아이템으로 돌아가거나, 그래픽 버튼(116)을 선택함으로써 리스트(108)의 또 다른 아이템으로 전방향 스킵하거나, 또는 그래픽 슬라이딩 바(120)를 조작함으로써 선택된 아이템(112)의 재생 음량을 조절할 수 있다. 여기서 보여진 것처럼, 스크린(104)은 또한 스크롤 바 요소들(122, 124)을 포함하는데, 이들 요소들은 디스플레이(22)의 사이즈가 리스트(108)를 표시하는 데에 불충분하다면 사용자가 전체 리스트(108)를 수직적으로 그리고 수평으로 탐색하게 허용할 수 있다.
애플리케이션(106)에 의해 제공되는 추가적 재생 기능들이 그래픽 버튼들(126, 128, 130, 132)에 의해 묘사되어 있다. 예를 들면, 그래픽 버튼(126)은 사용자가 보통은 "재생 목록"으로서 언급되는 재생용의 새로운 그룹의 미디어 아이템들을 수동으로 생성할 수 있는 기능을 나타낼 수 있다. 그래픽 버튼들(128, 130)은 각각 "셔플(shuffle)"과 "반복" 재생 모드들을 인에이블링하거나 디스에이블링하기 위한 기능들을 나타낼 수 있다. 마지막으로, 그래픽 버튼(132)은 선택된 미디어 아이템(112)과 유사한 것으로 결정되는, 장치(10)상에 저장된 미디어 아이템들을 이용하여 재생 목록을 자동적으로 생성하기 위한 기능을 나타낼 수 있다. 예를 들어, 그러한 기능은 iTunes®애플리케이션상에서 뿐만 아니라 iPod® 및 iPhone® 모델상에서도 제공될 수 있는 Genius® 기능으로서 제공될 수 있는데, 이 모두는 애플사로부터 얻을 수 있다.
Genius® 재생 목록은 애플사에 의해 제공되는 iTunes®서버와 같은, 외부 집중식 서버를 통해 제공되는 등급 시스템과 필터링 알고리즘들을 사용하여 생성될 수 있다. 그러나, 몇몇 경우에, Genius® 기능은 선택된 미디어 아이템(112)이 상대적으로 새롭고 또한 Genius®기능이 [예를 들면, 비휘발성 저장소(20)에] 장치(10)상에 저장된 유사한 미디어를 식별하는 데에 충분한 데이터 포인트들을 획득할 수 없는 경우에서와 같이, 재생 목록을 생성하기 위한 사용자 요청을 이행하지 못할 수 있다. 덧붙여, Genius®기능은 또한 장치(10)상에 저장된 미디어 아이템들의 전체 수가 적합한 재생 목록을 생성하는 데에 불충분하면 이용하지 못할 수 있다. 도 6 -10에 대하여 이하에서 논의되는 실시예들에 대해, Genius® 버튼(132)의 선택은 오디오 피드백을 트리거링하거나 요청하는 이벤트(88) (도 4)의 예로서 이용된다.
도 6은 Genius® 버튼(132)의 선택에 뒤이은 스크린(104)의 갱신 뷰를 보여준다. 도해된 예에서, Genius®기능은 선택된 미디어 아이템(112)에 대해 이용될 수 없다는 것이 가정된다. 이런 이벤트(88)에 응답하여, 애플리케이션(106)의 그래픽 사용자 인터페이스(36) 부분은 시각적 통지 윈도(140)를 표시할 수 있는데, 이 윈도는 사용자에게 요청된 기능을 쓸 수 없다는 것을 알려주는 시각적 통지(142)를 포함한다. 일반적으로 시각적 통지 윈도(140)의 표시와 동시적으로, 애플리케이션(106)의 오디오 사용자 인터페이스(38) 부분은 사용자에게 요청된 기능을 쓸 수 없다는 것을 알리기 위해 오디오 피드백을 제공할 수 있다. 예를 들면, 오디오 피드백은 오디오 아이템을 재생함으로써 제공될 수 있으며, 이는 오디오 파일을 재생하는 것 또는 합성된 음성을 이용하여 통지(142)를 "말하기 위해" 텍스트-투-스피치 애플리케이션을 이용하는 것을 포함할 수 있다. 시각적 통지 윈도(140)를 스크린(104)으로부터 제거하기 위해, 사용자는 그래픽 버튼(144)을 선택할 수 있는데, 이는 사용자가 시각적 통지 윈도(140)에 의해 전달된 정보를 수신하였고 확인했다는 것을 장치(10) 및 애플리케이션(106)에게 표시할 수 있다.
상술한 바와 같이, 현재 기술의 특정 실시예들은 이벤트(88)에 응답하여 오디오 피드백을 축소시키는 것을 포함할 수 있다. 예를 들면, Genius®기능을 선택된 미디어 아이템(112)에 적용하려고 시도한 후에, 사용자가 어떤 성공도 못하면서 상대적으로 짧은 시간 구간 내에 리스트(108)상의 몇 개의 다른 아이템들에 대해 Genius®기능을 적용하려고 추가로 시도하고, 그에 따라 각각의 시도에 대해 이벤트(88)를 트리거링한다고 가정하자. 앞서 논의된 축소 기술이 적용되지 않는다고 가정하면, 오디오 피드백이 각각의 발생에 대해 "순 구어적"으로 제공되고, 이는 사용자를 반복적 정보로 인해 당황케 하고 그러므로 애플리케이션(106)에 관한 사용자 경험에 나쁜 영향을 주게 된다.
사용자 경험을 개선하기 위해, 오디오 피드백 선택 로직(86)(도 4)은 이벤트(88)에 관한 (예를 들면, 스토리지(92)로부터의) 이벤트 통계 데이터를 분석하고 이벤트(88)와 관련된 오디오 피드백 데이터 세트로부터 적절한 오디오 아이템을 선택함으로써 이벤트(88)에 대응하는 오디오 피드백의 구어성을 줄일 수 있다. 도 7을 참조하면, 오디오 피드백 데이터 세트(148)의 예가 설명된다. 도면에 나타낸 바와 같이, 오디오 피드백 데이터 세트(148)는 오디오 아이템들(150, 152, 154, 156)을 포함할 수 있는데, 각각의 아이템은 변화하는 구어성 레벨을 가진다. 예를 들면, "순 구어성(full verbosity)"이라고 언급된 오디오 아이템(150)은 가장 말 수가 많고, 선택 로직(86)에 의해 선택될 때 구두 오디오 정보 "GENIUS IS CURRENTLY UNAVAILABLE FOR THIS TRACK"가 도 6의 시각적 통지 윈도(140)의 표시와 대체로 동시적으로 오디오 출력 장치(24)를 통해 재생되도록 야기할 수 있다.
오디오 아이템(152)은 오디오 아이템(150)과 비교해 말 수가 적은 제1 레벨 축소된 오디오 아이템을 나타낼 수 있지만, 구어적 오디오 정보의 상당 부분을 여전히 포함할 수 있다. 예를 들면, 선택될 때, 오디오 아이템(152)은 구두 오디오 정보 "GENIUS IS NOT AVAILABLE"이 오디오 출력 장치(24)를 통하여 재생되도록 야기할 수 있다. 오디오 아이템(154)은 오디오 아이템(152)과 비교하여 더욱 말 수가 적고, 상대적으로 짧은 구두 메시지 "NO GENIUS"를 포함할 뿐이다. 마지막으로, 오디오 아이템(156)은 세트(148) 중 가장 말 수가 적은 아이템을 나타내고, 어떤 언어적 요소들도 포함하지 않고 부정적 소리 톤(negative sounding tone) 또는 삑소리 형태의 비언어적 큐만을 포함한다.
그러므로, 도 7에서 설명된 오디오 피드백 데이터 세트(148)는 예시적으로 선택 로직(86)이 이벤트(88)의 발생에 대응하는 오디오 피드백을 진전시키거나 축소시키는 것을 그로부터 선택할 수 있는 구어성의 변화하는 레벨들 또는 단계들을 갖는 오디오 아이템들(예를 들면, 150, 152, 154 및 156)을 나타낸다. 또한, 본 실시예가 구어성의 4개 단계들을 갖는 오디오 피드백 데이터 세트를 예시하기는 하지만, 다른 실시예들에서 또는 다른 이벤트들에 대하여, 대응하는 오디오 피드백 데이터 세트들이 더 적거나 더 많은 구어성 단계를 포함할 수 있다는 것이 이해되어야 한다. 또한, 몇몇 실시예들은 동일 레벨의 구어성에 대해 다중 오디오 아이템들을 포함하는 오디오 피드백 데이터 세트를 제공할 수 있다. 예를 들면, 이하에서 더욱 논의되는 것처럼, 일 실시예에서, 사용자가 특정 이벤트의 맥락상 중요성을 결정하는 것을 돕기 위해 다양한 비언어적 큐들이 제공될 수 있다.
도 6에 도시된 이벤트(88)에 대응하는 오디오 피드백이 어떻게 축소되고 진전될 수 있는지를 나타내는 예가 120 분의 기간에 걸쳐서 장치(10)의 동작을 묘사하는 그래픽 타임라인에 의해서 도 8에 설명된다. 도면에 나타낸 바와 같이, 이벤트(88)는 이 기간, 특정하게는 t0 (0 분), t20 (20 분), t35 (35 분), t55 (55 분)과 t110(110 분)에서 복수회 발생할 수 있다. 이벤트(88)가 이런 시간들의 각각에서 일반적으로 동일하기는 하지만, 각각의 발생을 좀 더 잘 구별하기 위해 이벤트들은 참조 번호들(88a, 88b, 88c, 88d, 88e)로 표식이 붙여졌다. 본 예는 장치(10)의 제조자 또는 사용자 인터페이스(34)의 프로그래머에 의해 미리 설정되거나, [예를 들면, 도 4에 도시된 사용자 선호들(96)을 통해] 사용자에 의해 추후에 구성될 수 있는 45분에서의 스텝업 시간 구간 세트를 가정하고, 또한 시간 t0 바로 전의 스텝업 시간 구간 (예를 들면, -t45에서부터 t0까지의 이전 45 분)에서 이벤트(88)가 발생하지 않았다고 추가로 가정한다.
시간 t0에서 시작해서, 이벤트(88a)의 발생은 스크린(104)상에 표시되는 도 6의 시각적 통지 윈도(140)뿐만이 아니라, 순 구어성 오디오 아이템(150)의 선택과 재생이라는 결과를 낳을 수 있다. 예를 들면, 이벤트 통계 데이터 저장소 유닛(92)은 선택 로직(86)에게 어떤 유사한 이벤트들(88)도 시간 t0 바로 전에 스텝 업 시간 구간(45분) 내에 발생하지 않았다고 표시할 수 있다. 이 데이터를 기반으로, 선택 로직(86)은 이벤트(88a)의 발생에 관련한 시각적 정보 [예를 들면, 시각적 통지 윈도(140)]의 디스플레이와 거의 동시에 오디오 정보를 제공하기 위해 순 구어성 오디오 아이템(150)의 재생을 선택하고 시작할 수 있다. 오디오 아이템(150)의 재생을 개시할 시에, 오디오 사용자 인터페이스(38)는 시간 t0에서 시간 t45 까지 스텝업 윈도(157)를 확립하기 위해 타이머(98)을 이용할 수 있다. 이벤트(88)가 이 윈도(157) 내에 다시 발생하면, 선택 로직(86)은 오디오 피드백을 축소할 수 있다.
본 예에서, 이벤트(88b)는 시간 t20에서 다시 한번 발생한다. 이벤트(88b)의 발생 시에, 이벤트 통계 데이터 저장소 유닛(92)은 이벤트(88a)가 45 분보다 작은 이전(예를 들면, 스텝 업 구간)에 발생한 것을 선택 로직(86)에게 나타낼 수 있다. 그러므로, 이벤트(88b)가 (예를 들면, t0에서부터 t45까지) 스텝업 윈도(157) 내에 발생하기 때문에, 선택 로직(86)은 이벤트(88)의 가장 최근 발생 동안 재생된 오디오 아이템[예를 들면, 이 경우, 시간 t0에서의 오디오 아이템(150)]을 식별할 수 있고, 구어성의 한 단계만큼 오디오 피드백을 축소할 수 있다. 이는 오디오 아이템(150)의 선택 및 재생을 낳을 수 있는데, 이는 도 7에 나타난 바와 같이 오디오 아이템(152)가 비교하여 하나의 구어성 단계만큼 작은 것이다. 일단 오디오 아이템(152)의 재생이 시간 t20에서 발생하면, 스텝업 윈도(157)의 나머지는 관련성 없게 되고, 새로운 "현재" 스텝업 윈도(158)가 시간 t20에서 t65까지 확립된다.
그 후에, 이벤트(88c)는 시간 t35 에서 다시 발생한다. 이벤트(88c)가 (예를 들면, t20에서부터 t65까지) 스텝업 윈도(158) 내에 발생하기 때문에, 오디오 사용자 인터페이스(38)의 선택 로직(86)은 이전에 재생된 오디오 아이템 (152)보다 구어성이 한 단계 낮은 오디오 아이템(154)을 선택하고 재생함으로써 이벤트(88c)와 관련된 오디오 피드백을 추가로 축소한다. 일단 오디오 아이템(154)의 재생이 시간 t35에서 발생하면, 스텝업 윈도(158)의 나머지가 또한 관련성이 없게 되고, 이벤트(88c)와 관련되는 스텝업 윈도(159)가 시간 t35에서 시간 t80까지 확립되고, 현재 스텝업 윈도가 된다.
이벤트(88c)에 이어서, 이벤트(88d)가 시간 t55에 다시 발생한다. 다시금, 이벤트(88d)가 (예를 들면, t35에서부터 t80까지) 현재 스텝업 윈도(159) 내에 발생하기 때문에, 오디오 사용자 인터페이스(38)의 선택 로직(86)은 오디오 피드백의 구어성을 추가 단계만큼 낮추고, 그에 따라 이벤트(88)과 관련된 오디오 피드백을 비언어적 오디오 아이템(156)으로 완전히 축소한다. 그 후에, 일단 비언어적 오디오 아이템(156)의 재생이 시간 t55에 발생하면, 이벤트(88d)와 관련된 새로운 스텝업 윈도(160)가 시간 t55에서 시간 t100까지 확립되고, 이전 스텝업 윈도(159)의 나머지는 관련성이 없게 된다. 다시 말하면, 이벤트(88)가 이벤트(88)의 가장 최근의 이전 발생에 이어진 현재 스텝업 시간 윈도 내에 계속 발생하는 한, 선택 로직(86)은 이벤트(88)에 대응하는 오디오 피드백을 축소하기를 계속할 수 있다. 그러나, 오디오 아이템(156)이 본 예에서 더 이상 축소될 수 없기 때문에, 윈도(160) 내에서의 이벤트(88)의 추가적 발생들이 선택 로직(86)이 다시 오디오 아이템(156)을 선택하고 재생하는 것을 낳을 수 있다는 점을 유의해야 한다.
다음으로, 시간 t110에, 이벤트(88e)가 다시 한번 발생한다. 이 발생은 그러나 스텝업 윈도(160) 밖에 있다. 이 경우에, 선택 로직(86)은 오디오 피드백을 진전시키기 위해 구성될 수 있다. 예를 들면, 일 실시예에서, 선택 로직(86)은 가장 최근에 재생된 오디오 아이템 (예를 들면, 오디오 아이템(156))의 구어성 레벨에 상관없이, 오디오 아이템(150)을 선택하고 시간 110에서 재생함으로써 오디오 피드백의 구어성을 순 구어성으로 재설정할 수 있다. 또 다른 실시예에서, 선택 로직(86)은 가장 최근에 재생된 오디오 아이템에 상대적으로 오디오 피드백의 구어성을 한 단계만큼 증가시킴으로써 오디오 피드백을 진전시킬 수 있다. 예를 들면, 본 예에서, 시간 t110에서의 오디오 아이템(154)의 선택은 가장 최근에 재생된 오디오 아이템(156)에 상대적으로 오디오 피드백의 구어성에서의 한 단계 증가를 제공할 수 있다.
알 수 있는 바와 같이, 이벤트들(88a-88e)의 각각의 발생은, 오디오 피드백을 트리거링할뿐만 아니라, 또한 도 6에 도시된 시각적 통지 윈도(140)를 통해 그런 것처럼 GUI (36)상의 시각적 피드백의 표시를 트리거링할 수 있다. 또한, 이벤트들 (88a-88e)의 각각의 발생은 이벤트(88)의 미래 발생들에 대한 적절한 오디오 피드백을 결정할 때 오디오 피드백 선택 로직(86)에 의해 이용될 수 있는 통계 자료를 제공하기 위해 이벤트 통계 데이터 저장소(92)에 저장될 수 있다.
도 8에 묘사된 그래픽 타임라인이 현재 스텝업 윈도 내에 발생하는 이벤트(88)의 각각 차순의 발생에 대한 축소의 일정 레이트(예를 들면, 구어성의 한 단계)를 예시하는데, 본 기술의 다른 실시예들은 이벤트(88)가 이전 발생에 생대적으로 발생하는 근접도에 기초할 뿐만 아니라, 이벤트(88)로부터 귀결되는 시각적 피드백 및/또는 오디오 피드백에 대한 사용자의 반응 또는 응답에도 적어도 부분적으로 기초하여 오디오 피드백이 축소되는 레이트를 변경할 수 있다.
예를 들면, 오디오 피드백을 축소시키기 위한 일 실시예는 "재생 종결 이벤트(playback termination event)"의 발생을 고려할 수 있다. 여기서 이용되는 바로는, 재생 종결 이벤트는 완료 전에 오디오 아이템의 재생을 종결시키는 사용자에 의한 응답을 지칭한다. 예를 들면, 도 6을 참조하면, 일 실시예에서, 사용자는 선택된 오디오 피드백 아이템 (예를 들면, 오디오 아이템들 150, 152, 154 및 156 중 하나)의 재생 동안 그러나 그 완료 전에 그래픽 버튼(144)를 선택하여 재생 종결 이벤트를 야기할 수 있다. 재생 종결 이벤트는 또한 몸짓 기반 행위(예를 들어, 부드럽게 장치(10)를 흔드는 것)와 같은, 다른 행위들을 이용하여 장치(10)에게 통신될 수 있다. 따라서, 장치(10)는 사용자가 시각적 통지 윈도(140) 및 선택된 오디오 피드백의 어느 한 쪽 또는 양쪽에 의해 제공된 정보에 관심이 없다는 응답으로서 재생 종결 이벤트들을 해석할 수 있다.
어떻게 재생 종결 이벤트들이 오디오 피드백의 축소에 영향을 미칠 수 있는지를 예시하는 예가 이벤트(88)가 시간들 t0, t30 및 t110에서 발생하는 120분의 기간에 걸친 장치(10)의 동작을 묘사하는 그래픽 타임라인에 의해서 도 9에 나타내어진다. 구분 목적을 위해, 이러한 발생들은 참조 번호들(88f, 88g 및 88h)에 의해 지칭된다. 덧붙여, 도 9에 도시된 예의 목적을 위해, 45 분 스텝업 구간이 가정된다. 이벤트(88)가 시간 t0 바로 직전의 스텝업 시구간(예를 들면, -t45에서부터 t0까지의 이전 45 분)에서 발생하지 않았다고 또한 가정된다.
시간 t0에서 시작하여, 이벤트(88f)의 발생은 스크린(104)상에 표시되는 도 6의 시각적 통지 윈도(140)뿐만 아니라 시간 t0에서의 순 구어성 오디오 아이템(150)의 선택 및 재생의 결과를 낳을 수 있다. 오디오 아이템(150)의 재생 동안, 재생 종결 이벤트(161)가 탐지되며, 이는 오디오 아이템(150)의 재생이 때 이르게 종결하도록 야기할 수 있다. 예를 들면, 이것은 사용자가 오디오 아이템(150)의 완전한 재생 전에 그래픽 버튼(144)을 선택한 결과일 수 있거나, 또는 종결 몸짓(예를 들어, 장치(10)를 흔드는 것) 또는 오디오 아이템의 완료 전에 오디오 아이템(150)의 재생을 종결시키는 임의 유형의 행위일 수 있다. 재생 종결 이벤트(161)뿐만 아니라 이벤트(88f)의 발생은 이벤트 통계 데이터 저장소(92)에 저장된다. 덧붙여, 이벤트(88)의 차순의 발생들을 탐지하기 위한 스텝업 윈도(162)가 시간 t0부터 t45까지 확립된다.
다음에, 이벤트(88g)는 시간 t30에 다시 발생한다. 이벤트(88g)의 발생 시에, 이벤트 통계 데이터 저장소 유닛(92)은 재생 종결 이벤트(161)가 시간 t0에서 이벤트(88f)의 이전 발생과 결합하여 검출된 것을 선택 로직(86)에게 표시할 수 있다. 예시된 실시예에서, 이것은 선택 로직(86)이, 비언어적 오디오 아이템(156)을 선택하고 재생하고 이에 의해 오디오 아이템들(152, 154)에 의해 나타내어지는 구어성 레벨들을 우회함으로써, 오디오 피드백을 완전히 축소하도록 야기할 수 있다. 새로운 스텝업 윈도(163)가 시간 t30에서 시간 t75까지 확립된다. 알 수 있는 바와 같이, 도 8의 실시예처럼, 윈도(163) 내에서의 이벤트(88)의 차순의 발생들은 오디오 아이템(156)이 다시 재생되는 결과를 낳을 수 있고, 윈도(163)를 벗어난 이벤트(88)의 차순의 발생들은 도 9에 나타난 바와 같이 시간 t110에서 오디오 피드백이 순 구어성[예를 들면, 오디오 아이템(150)]으로 재설정되는 결과를 낳을 수 있다.
몇몇 실시예에서, 재생 종결 이벤트(예를 들면, 161)는, 오디오 피드백 거동에 영향을 줄 뿐만 아니라, 또한 시각적 피드백 거동에 영향을 미칠 수 있다. 예를 들면, 도10을 참조하면, 도9의 시간 t30에서 스크린(104)은 이벤트(88g)의 발생 동안 도시된다. 보여지는 바와 같이, 이벤트의 가장 최근의 발생(예를 들면, 시간 t0에서 88f) 동안 재생 종결 이벤트(161)의 검출로 인해, 도 6에서 스크린(104)의 중심에 이전에 출현했던 시각적 통지 윈도(140)는 스크린(104)의 상위 우측 모서리 근처에 출현하는 덜 눈에 띄고 더 작은 통지 배너(164)로 축소된다. 통지 배너(164)는 시각적 통지 메시지(165)를 포함하는데, 이는 도 6에 도시된 더 말 수가 많은 통지 메시지(142)와 비교하여 또한 축소된다.
통지 배너(164)는 그래픽 요소들(166, 168)을 포함할 수 있다. 그래픽 요소(166)를 선택함으로써, 사용자는 통지 배너(164)를 확장하여 윈도(140)가 그 대신에 나타나도록 야기할 수 있다. 일 실시예에서, GUI (36)는 자동적으로 배너(164)를 스크린(104)으로부터 제거하기 전에, 예를 들어 5에서 10 초의 기간 동안, 간략하게만 통지 배너(164)를 표시할 수 있다. 덧붙여, 사용자는 그래픽 버튼(168)을 선택함으로써 통지 배너(164)를 수동으로 제거하기로 선택할 수 있다.
도 5-10에 나타난 실시예들을 참조하여 기술된 것처럼, 오디오 피드백을 축소하고 진전시키기 위한 다양한 기술이 일반적으로 도 11a의 흐름도에 의해 묘사된 방법 169, 그리고 도 11b에 도시된 흐름도에 의해 묘사되는 방법 174에 의해 요약된다.
먼저 도 11a를 참조하면, 방법 169가 바라는 구어성 레벨을 기반으로 오디오 피드백을 진전시키거나 축소하기 위한 보다 기본적인 접근법을 예시한다. 예를 들면, 방법 169는 단계 170에서 시작하는데, 이 단계에서 오디오 피드백을 트리거링하거나 요청하는 제1 시간 T(x) 에서의 이벤트의 발생(예를 들면, 도 6의 Genius®기능을 쓸 수 있다는 표시)이 장치(10)의 오디오 사용자 인터페이스(38)에 의해 검출된다. 다음에, 단계 171에서, 검출된 이벤트에 대응하는 한 세트의 오디오 아이템들이 식별되며, 그것에 의해 세트 내의 각각의 오디오 아이템들이 세트 내의 다른 모든 오디오 아이템들마다에 대해서 다른 구어성의 레벨을 가질 수 있다.
그 후에, 단계 172에서, 도 11a에 나타난 바와 같이, 바라는 구어성 레벨에 대응하는 제1 오디오 아이템이 선택되는데, 이는 단계 170으로부터의 검출된 이벤트가 시간 T(x) 전에 특정 시 구간(예를 들면, 스텝업 윈도) 내에 발생했는 지에 적어도 부분적으로 기초하여 결정될 수 있다. 일 실시예에서, 이벤트가 특정 시 구간 내에 이미 발생하였다면, 바라는 구어성 레벨은 이벤트의 바로 앞선 발생 동안 선택된 오디오 아이템의 구어성과 비교하여 축소될 수 있다. 유사하게, 이벤트가 특정 시 구간 내에 이미 발생하지 않았다면, 바라는 구어성 레벨은 이벤트의 바로 앞선 발생 동안 선택된 오디오 아이템의 구어성과 비교하여 진전될 수 있다. 다음에, 단계 173에서, 선택된 오디오 아이템 (예를 들어, 바라는 구어성 레벨을 가짐)은 검출된 이벤트에 응답하여 오디오 피드백을 제공하기 위해 재생된다.
도 11b는 도 8-9를 참고하여 상술한 바와 같이, 추가 기능들을 묘사하는 더 상세한 흐름도를 예시한다. 예를 들면, 방법 174는 단계 175에 시작하는데, 이 단계에서 오디오 피드백을 트리거링하거나 요청하는 이벤트의 발생(예를 들면, 도 6의 Genius®기능을 쓸 수 없다는 표시)이 장치(10)의 오디오 사용자 인터페이스(38)에 의해 검출된다. 다음으로, 단계 176에서, 단계 175에서 검출된 이벤트에 대응하는, 다른 구어성 레벨들을 갖는 다중 오디오 아이템들을 포함할 수 있는 오디오 피드백 데이터 세트 및 한 세트의 이벤트 통계 데이터가 식별된다.
단계 176으로부터의 이벤트 통계에 기초하여, 선택 로직(86)은, 결정 블록 177에서, 이벤트가 이벤트의 가장 최근의 이전 발생에 뒤이은 스텝업 윈도 내에 발생했는지를 결정할 수 있다. 이벤트가 스텝업 윈도 내에 발생하지 않았다면 방법 174는 단계 178까지 계속하고, 그것에 의해 오디오 피드백이 순 구어성으로 제공된다. 상기 언급한 바와 같이, 대안 실시예에 있어서, 순 구어성을 제공하기 보다, 선택 로직(86)은 그 대신에 한 단계 만큼 오디오 피드백을 진전시킬 수 있다. 예를 들면, 도11에 나타난 바와 같이, 이벤트가 스텝업 윈도 내에 발생하지 않았다면, 방법 174는 대안적으로 단계 180까지 계속할 수 있는데, 이 단계에서 이벤트의 가장 최근의 이전 발생에 대응하는 가장 최근에 선택된 오디오 아이템이 식별되고, 그리고 단계 182까지 계속할 수 있는데 이 단계에서 오디오 피드백이 이전에 선택된 오디오 아이템과 비교하여 한 단계만큼 진전되고 또한 장치(10)에 의해 재생된다.
다시 결정 블록 177을 참조하면, 이벤트가 이전 발생에 이어진 스텝업 윈도 내에 발생하면, 방법 174는 결정 블록 186까지 계속하고, 이 블록에서 이전 발생이 재생 종결 이벤트 (예를 들면, 161)에 의해 동반되는지에 대한 결정이 이뤄진다. 재생 종결 이벤트가 이벤트의 이전 발생과 함께 검출되면, 방법 174는 단계 188까지 계속되고, 오디오 피드백 데이터 세트로부터의 가장 축소된 오디오 아이템(예를 들면, 148)이 선택되고 재생된다. 예를 들면, 가장 축소된 오디오 아이템은 비언어적 오디오 큐(예를 들면, 오디오 아이템(156))일 수 있다.
결정 블록(186)이 이벤트의 이전 발생 동안 검출된 재생 종결 이벤트가 없었다고 결정하면, 이벤트의 이전 발생에 대응하는 가장 최근에 선택된 오디오 아이템이 단계 190에서 식별된다. 단계 192에서, 가장 최근에 선택된 오디오 아이템이 이미 단계 176으로부터의 오디오 피드백 데이터 세트의 가장 축소된 오디오 아이템인지에 대한 결정이 이루어진다. 가장 최근에 선택된 오디오 아이템이 세트로부터의 가장 축소된 오디오 아이템인 것으로 결정되면, 이것은 현재 오디오 아이템으로서 선택되고, 단계 188에서 재생된다. 가장 최근에 선택된 오디오 아이템이 세트로부터의 가장 축소된 오디오 아이템이 아니라면, 선택 로직(86)은 오디오 피드백을 한 단계만큼 축소하고 대응하는 축소된 오디오 아이템을 재생할 수 있다.
도 12, 13으로 계속하여, 어떻게 오디오 피드백이 이벤트의 맥락상 중요성에 기초하여 변경될 수 있는지 예시하는 실시예들이 본 발명의 양태들에 따라서 설명된다. 앞서 정의된 것처럼, 맥락상 중요성은 정보가 제공되는 맥락과 관련하여 장치상의 이벤트에 응답하여 제공되는 정보의 중요성을 지칭한다.
먼저 도 12를 참조하면, 다른 맥락상 중요성 특징들을 갖는 두 개의 다른 이벤트들의 발생을 묘사하는 일련의 스크린 이미지들이 도시된다. 도 12에 도시된 스크린 이미지들은 도 3에 도시된 핸드헬드 장치(70)상에 표시되는 GUI(36)의 일부일 수 있다. 예를 들면, GUI (36)의 홈 스크린(72)으로부터 시작하여, 사용자는 아이콘(74)을 선택함으로써 미디어 플레이어 애플리케이션을 시작할 수 있다. 예를 들면, 미디어 플레이어 애플리케이션(74)은 iPod Touch® 또는 iPhone®모델 상에서 돌아가는 iPod®애플리케이션일 수 있는데, 이들은 애플사로부터 얻을 수 있다. 추가로 GUI(36)은 도 12에 도시된 대로, iPod® 또는 iPhone®운영 체제의 버전일 수 있는데, 이들도 애플사로부터 얻을 수 있다.
아이콘(74)의 선택 시에, 사용자는 미디어 플레이어 애플리케이션(74)의 홈 스크린(200)까지 탐색해 나갈 수 있다. 도 12에 나타난 바와 같이, 스크린(200)은, 각각이 사용자에 의해 정의되는 복수의 미디어 파일을 포함할 수 있는 재생 목록(204)의 리스트(202)를 초기에 표시할 수 있다. 예를 들면, 재생 목록(204)은 전체 음악 앨범으로부터의 모든 곡 파일들을 구성할 수 있거나, 장치(10)의 사용자에 의해 선택된 미디어 파일들의 맞춤식 "믹스" 일 수 있다. 스크린(200)은 또한, 각각이 특정 기능들에 대응될 수 있는 그래픽 버튼들(206, 208, 210, 212, 214)을 포함한다. 예를 들면, 사용자가 스크린(200)으로부터 멀어지며 탐색하면, 그래픽 버튼(206)의 선택은 사용자를 스크린(200)에게 되돌릴 수 있다. 그래픽 버튼(208)은 각각의 미디어 파일과 관련된 아티스트들의 이름들에 기초해 알파벳순으로 장치(10)에 저장된 미디어 파일들을 조직화할 수 있다. 그래픽 버튼(210)은 음악 (예를 들면, 곡 파일들)에 특히 대응하는 미디어 파일들이 분류되고 장치(10)상에서 표시되는 기능을 나타낼 수 있다. 예를 들면, 그래픽 버튼(210)의 선택은 사용자에 의해 탐색될 수 있는 리스트에서 알파벳순으로 장치(10)상에 저장된 모든 음악 파일들을 표시할 수 있다. 덧붙여, 그래픽 버튼(212)은 사용자가 장치(10)상에 저장된 비디오 파일들에 접근할 수 있는 기능을 나타낼 수 있다. 마지막으로, 그래픽 버튼(214)은 사용자가 장치(10)와 미디어 플레이어 애플리케이션(74)의 기능성을 추가로 맞춤화하기 위해 구성할 수 있는 옵션 리스트를 사용자에게 제공할 수 있다.
상기에 논의된 것처럼, 장치(10)의 동작 동안에, 앞서 정의한 대로의 사용자 이벤트들과 시스템 이벤트들을 포함하는 다양한 이벤트들이 발생할 수 있다. 예를 들면, 미디어 플레이어 애플리케이션(74)이 들어오는 네트워크 접속들을 수용하도록 인에이블하기 위해 사용자에 의해 개시된 행위들에 응답하여 사용자 이벤트(216)가 발생한 것을 나타내기 위해 시각적 통지 윈도(218)가 스크린(200)상에 표시될 수 있다. 도12에 나타난 바와 같이, 윈도(218)는, 시각적 통지 메시지(220)뿐만 아니라, 선택되면 들어오는 네트워크 접속들을 거부할 수 있는 결정 버튼(222), 및 선택되면 들어오는 네트워크 접속들을 허용할 수 있는 결정 버튼(224)을 포함할 수 있다.
본 맥락에서, 이벤트(216)의 "맥락상 중요성"은 사용자 입력이 요청된 동작 (예를 들면, 들어오는 네트워크 접속들의 허용)을 수행하거나 수행하지 않기 위해 요구된다는 사실 때문에 상대적으로 높을 수 있다. 즉, 사용자로부터의 응답 없이, 장치(10)는 진행할 수 없는데, 그 이유는 사용자가 들어오는 네트워크 접속들의 허용을 확인하지 않았거나 거부했기 때문이다. 그러므로, 이벤트(216)와 관련된 오디오 피드백 데이터 세트는, 시각적 통지 윈도(218)에 사용자가 응답하도록 프롬프팅하기 위한 목적으로, 재생될 때 이벤트(216)의 높은 맥락상 중요성을 나타내는 비언어적 오디오 톤(226)을 적어도 포함할 수 있다. 예를 들면, 비언어적 톤(226)은 독특한 경보 음, 짹짹소리, 삑 소리, 또는 이벤트(216)의 맥락상 중요성을 강조할 수 있는 임의 유형의 비언어적 오디오 톤 (예를 들면, 더 높게 피치된 사운드, 더 시끄러운 음량, 더 긴 재생 시간, 기타 등등)을 포함할 수 있다. 다시 말하면, 이벤트(216)가 하나 이상의 언어적 오디오 아이템과 관련될 수 있기는 하지만, 오디오 사용자 인터페이스(38)가 비언어적 오디오 아이템(226)을 선택하거나 또는 사용자가 비언어적 오디오 피드백만을 재생하기 위해 장치(10)를 구성하는 상황들에서, 비언어적 오디오 아이템(226)은 맥락상 덜 중요한 이벤트들로부터 이벤트(216)를 청각적으로 구별하는 것을 도울 수 있다.
예를 제공하기 위해, 초기에 이벤트(216)와 비교하여 낮은 맥락상 중요성을 갖는 이벤트는 저 배터리 경보(228) 형태의 시스템 이벤트일 수 있다. 예를 들면, 저 배터리 경보 이벤트(228)의 발생 시에, 시각적 통지 윈도(230)는 스크린(200)상에 표시되고, 장치(10)의 전원(30) (도 1)이 완전 충전 용량의 20%의 잔여 용량을 가진다는 것을 표시하는 시각적 통지 메시지(232)를 포함한다. 윈도(230)는 또한 사용자가 윈도(230)를 스크린(200)으로부터 제거하기 위해 선택할 수 있는 그래픽 버튼(234)을 포함한다. 그러므로, 이벤트(216)와는 달리, 장치(10)는 결정 입력을 요구하지 않는다.
이상적으로, 사용자는 윈도(230)에 의해 제공된 통지를 마음 속으로 처리하고 전원(30)을 재충전하기 위해 필요한 행위들을 취한다. 그러나, 장치(10)는 사용자가 바로 전원(30)의 재충전을 시작하는지에 상관없이 당분간은 작동할 것이다. 이런 맥락에서, 이벤트(228)의 맥락상 중요성은 이벤트(216)에 비교하여 일반적으로 낮은 것으로 간주될 수 있다. 그러므로, 이벤트(228)는 비언어적 오디오 아이템(226)과 비교하여 덜 특징적인 비언어적 오디오 아이템(236) (예를 들면, 더 낮은 피치, 더 조용한 음량, 더 짧은 재생 시간, 등등)을 그것과 함께 관련시켰을 수 있고, 그에 따라 이벤트(228)의 덜 중요한 맥락상 중요성을 나타내게 된다.
이벤트(228)가 초기에 낮은 맥락상 중요성을 갖는 것으로서 분류될 수 있기는 하지만, 이벤트(228)가 발생한 맥락이 시간이 지나면서 변할 수 있다는 것을 알아야 한다. 예를 들면, 통지(230)는 20%의 저 전력 문턱값에 기초한 첫번째 경보일 수 있다. 그러나, 사용자가 전원(30)을 다시 채우기 위한 조치를 취하지 않는다고 가정하면, 장치(10)는 계속해서 남은 전원(30)을 소모하고, 따라서 전원(30)을 추가로 고갈시킬 것이다. 따라서, 몇몇 실시예에서, 사용자 인터페이스(34)는 하나 이상의 낮은 문턱값들에서 추가 경보들을 공급하도록 구성될 수 있다. 예를 들면, 일 실시예에서, 사용자 인터페이스(34)는 전원(30)의 나머지 전하가 전체 충전 용량의 1%까지 고갈될 때 차순의 저전력 경보를 공급할 수 있다. 이런 맥락에서, 장치(10)가 전원(30)이 재충전 또는 교체가 없으면 불가피하게 완전히 고갈되는 경우 동작을 계속할 수는 없기 때문에 1% 경보는 높은 맥락상 중요성을 가지고 것으로 간주될 수 있다. 그러므로, 후자의 예는, (예를 들면, 똑같은 구어성 레벨의) 다중의 비언어적 아이템이 공통 이벤트와 관련되어, 초기 20% 경보 이벤트 동안 낮은 맥락상 중요성을 나타내는 비언어적 오디오 아이템이 재생될 수 있고, 다음의 1% 경보 이벤트 동안 높은 맥락상 중요성을 나타내는 또 다른 비언어적 오디오 아이템이 오디오 사용자 인터페이스(38)에 의해 재생될 수 있도록 하는 실시예를 보여준다.
추가적 실시예들에서, 이벤트들 (226) 또는 (230)의 맥락상 중요성은 미리 프로그래밍된 정보에 기초하여 결정될 수 있는데(예를 들면, 이벤트들이 높거나 낮은 맥락상 중요성 특징을 가지는 것으로서 프로그래밍될 수 있음), 이 정보는 장치(10)의 제조자 또는 오디오 사용자 인터페이스(38)의 프로그래머에 의해 확립되거나 또는 사용자 선호 설정(96)을 통해서 하는 것과 같이 사용자에 의해 구성되거나 변경될 수 있다(도 4). 다른 실시예들에서, 이벤트들 (226) 또는 (230)의 맥락상 중요성은 이전의 장치 거동 및/또는 사용자가 사용자 인터페이스 이벤트의 이전 발생(들) 동안 장치와 어떻게 상호 작용하는지에 기초하여 적응적으로 되거나 알 수 있다. 예를 들면, 일 실시예에서, 현재 이벤트(예를 들면, 226 또는 230)는, 동일 유형의 이벤트가 현재 발생에 바로 선행하는 특정 시 구간 내에 자주 발생한 것으로 결정되는 경우 높은 맥락상 중요성을 가지고 있는 것으로서 식별될 수 있거나, 또는 동일 유형의 이벤트가 현재 발생에 바로 선행하는 특정 시 구간 내에 희소하게 발생하거나 또는 발생하지 않은 경우 낮은 맥락상 중요성을 가지는 것으로서 식별될 수 있다.
도 13은 도 12에서 기술된 바와 같이, 맥락상 중요성에 기초하여 오디오 피드백을 변경하는 방법 240을 묘사한 흐름도를 제공한다. 예를 들면, 단계 242 에서 시작하여, 방법 240은 오디오 피드백을 요청하는 이벤트를 검출할 수 있다. 다음에, 단계 244에서, 이벤트의 맥락상 중요성이 결정된다. 예를 들면, 상술한 바와 같이, 이 단계는 몇몇 경우에 사용자측에서의 행위가 장치가 동작을 계속하는 데에 필요한지의 여부를 결정하는 것을 포함한다. 다음으로, 단계 246에서, 단계 244에서 결정된 대로 오디오 아이템이 이벤트의 맥락상 중요성에 기초하여 선택된다. 예를 들면, 이벤트가 낮은 맥락상 중요성을 가지고 있다면, 덜 특징적인 비언어적 톤(236)이 재생될 수 있고, 이벤트가 높은 맥락상 중요성을 가지고 있다면 더 특징적인 비언어적 톤(226)이 재생될 수 있다.
도 14-18까지 계속 살펴보면, 어떻게 오디오 피드백이 사용자가 장치(10)상에 표시된 아이템들의 리스트를 탐색하는 방식에 기초하여 변경될 수 있는지를 예시하는 실시예들이 본 발명의 양태들에 따라서 설명된다. 예를 들면, 첫째로 도 14를 참조하면, 사용자가 미디어 플레이어 애플리케이션(74)에서 곡들의 리스트에 어떻게 접근할 수 있는지를 묘사하는 스크린 이미지들이 설명된다. 스크린들(72, 200)은 도12에 도시된 그것들과 유사하고, 또한 미디어 플레이어 애플리케이션(74)의 개시 및 홈 스크린(72)으로부터 스크린(200)까지의 탐색을 묘사하는데, 스크린(200)은 재생 목록(204)의 리스트(202)를 표시한다.
그래픽 버튼을 선택함으로써(210), 사용자는 알파벳순으로 장치(10)상에 저장된 음악 파일들(곡들) (254)의 탐색가능 리스트(252)를 표시할 수 있는 스크린(250)까지 탐색해 갈 수 있다. 예를 들면, 도14에 나타난 바와 같이, 리스트(252)의 첫 곡은 참조 번호(256)에 의해 참조된다. 재생용의 특정 곡을 선택하기 위해, 사용자는 장치(10) (예를 들면, 터치스크린)의 입력 구조(14)를 이용하여 표시된 곡을 선택할 수 있다. 스크린(250)은 스크롤 기능을 제공하는 스크롤 바 요소(258)를 또한 포함할 수 있다. 그러므로, 음악 파일들(254)의 리스트(252)가 장치(10)의 표시 용량들을 초과하는 경우, 사용자는 리스트(252)의 나머지를 탐색하기 위해 스크롤 바 요소(258)와 인터페이싱할 수 있다. 여기서 참조 번호(260)에 의해 참조되는 재생용 특정 아이템의 선택 시에, 사용자는 스크린(264)까지 계속할 수 있다.
스크린(264)에 나타난 바와 같이, 선택된 음악 파일(260)에 관련한 정보가 표시된다. 예를 들면, 표시된 정보는 녹음한 아티스트의 이름, 선택 음악 파일(260)의 제목, 및 몇몇 실시예에서는 선택 음악 파일(260)이 관련되는 앨범을 포함할 수 있다. 스크린(264)은 또한 앨범 삽화(266)와 그래픽 버튼들(268, 270, 272)을 표시할 수 있다. 알 수 있는 것처럼, 그래픽 버튼(268)은 사용자가 선택된 음악 파일(260)의 재생을 중지하거나 중지 해제하도록 허용할 수 있다. 추가로, 현재 선택된 미디어 파일(260)이 재생 목록의 일부인 경우, 그래픽 버튼들(270, 272)은 재생 목록에서 이전 파일로 돌아가는 기능 또는 재생 목록에서 차순의 파일로 계속하는 기능을 나타낼 수 있다. 알 수 있는 바와 같이, 재생 목록이 무작위 모드 또는 셔플 모드에서 재생되는 경우에, 그래픽 버튼들(270 및 272)이 재생용 목록으로부터 무작위 파일을 선택하도록 기능할 수 있다. 스크린(264)은 또한 슬라이딩 바 요소(274)를 포함하는데, 이는 오디오 재생의 음량을 제어하기 위해 사용자에 의해 조작될 수 있다. 도 15-17에 대하여 이하에 논의된 리스트 탐색 예들을 위해, 사용자가 (그래픽 버튼 268을 선택하는 것에 의해) 선택된 음악 파일(260)의 재생을 중단하고, 스크린(264)상의 그래픽 버튼(262)을 선택함으로써 스크린(250)상의 리스트(252)로 돌아간다고 가정된다.
도 15-17를 이제 참조하면, 곡 리스트(252)와 같은 리스트를 탐색하는 속도에 기초하여 오디오 피드백이 어떻게 변경될 수 있는지를 나타내는 예들이 본 발명의 양태들에 따라서 설명된다. 예시된 예들에서, 리스트(252)의 각각의 곡 파일은, 초기 리스트 아이템(256)으로 시작하여, 제1 아이템(256)을 위한 L0, 두번째 아이템을 위한 L1 및 이와 같은 식으로 계속하여, 리스트 위치 참조 라벨을 부여 받는다. 여기서 개시된 기술이 리스트의 수평 탐색뿐만 아니라, 리스트의 수직 탐색에도 적용될 수 있다는 것이 이해되어야 한다.
도 15에 도시된 것처럼, 리스트(252)는 제1 속도(280)로 탐색된다. 제1 탐색 속도(280)는 상대적으로 느리고, 한 리스트 아이템으로부터 또 다른 리스트 아이템으로의 전이 사이에 충분한 시간을 허용하여 각각의 리스트 아이템들에게 순 구어성 오디오 피드백을 제공하게 할 수 있다. 예를 들면, 설명된 예에서, 사용자는 첫번째 리스트 아이템 L0으로부터 리스트를 스크롤 다운하고 리스트 아이템 L3에서 멈추는 식으로 리스트(252) 탐색하기를 시작할 수 있다. 이 행위 동안, 각각의 곡 제목과 녹음하는 아티스트의 이름이, 이하의 표1에 나타난 바와 같이, 각각의 곡들 L0, L1, L2, 및 L3에 대해 오디오 사용자 인터페이스(38)에 의해 말해질 수 있다:
본 개시된 기술들에 따라서, 오디오 사용자 인터페이스(38)는 탐색 속도(280)에서의 경미한 변화들에 적응하도록 구성될 수 있다. 예를 들면, 한 상황에서, 리스트 아이템들 사이의 전이 시간이 감소되어 두개의 오디오 아이템들 중 하나(예를 들면, 곡명 또는 음악가 이름)만을 말하는 데에 충분한 시간을 할당하게 되도록, 탐색 속도가 다소 증가할 수 있다. 일 실시예에서, 오디오 사용자 인터페이스(38)는 여전히 곡명 정보에 대하여 순 구어성 오디오 피드백을 제공할 수 있지만, 아티스트 이름에 관한 정보를 생략할 수 있다.
다음에, 도 16은 도 15의 탐색 속도(280)와 비교하여 주목할만하게 상승된 탐색 속도(282)가 순 구어성 오디오 피드백을 허용할 만큼 리스트 아이템들 사이의 충분한 전이 시간을 제공하지 않는 것을 보여주는 예를 도시한다. 예를 제공하기 위해, 탐색 속도는 초당 탐색되는 리스트 아이템의 수(예를 들면, 리스트 아이템들/초)에 기초하여 표현될 수 있다. 일례로서, 탐색 속도(282)는 초당 대략 2 리스트 아이템들일 수 있는 반면(또는 1/2초당 1 리스트 아이템), 도 15에 도시된 탐색 속도(280)는 초당 0.25 리스트 아이템(또는 매 4초당 1 리스트 아이템)과 같이 두드러지게 느릴 수 있다.
도 16의 본 예에서, 사용자는 탐색 속도(282)를 이용하여 첫번째 리스트 아이템 L0에서 리스트 아이템 L11으로 탐색할 수 있다. 속도(282)로 탐색하는 경우 각각의 리스트 아이템 간에서의 감소된 전이 시간을 보완하기 위해, 오디오 사용자 인터페이스(38)는, 일 실시예에서, 리스트 아이템이 알파벳순의 그룹 (예를 들면, "A", "B", 기타 등등으로 시작하는 곡명들) 내에서 첫번째 아이템이라면, 해당 리스트 아이템의 알파벳 순서에 대응하는 문자만을 말하고, 또한 각각의 다른 리스트 아이템에 대한 비언어적 톤을 제공함으로써 리스트 탐색과 관련된 오디오 피드백을 축소할 수 있다. 이 실시예는 표2에서 이하에 묘사된다.
덧붙여, 리스트 아이템 L8에 의해 보여진 것처럼, 오디오 사용자 인터페이스(38)는 리스트 아이템의 "신규성(newness)"에 기초하여 비언어적 톤들을 선택적으로 제공하기 위해 또한 구성될 수 있다. 예를 들면, 리스트 아이템 L8은 애플사에 의해 제공되는 iTunes®서비스와 같은 온라인 디지털 미디어 서비스로부터 최근에 구입된 노래를 나타낼 수 있다. 따라서, 곡 L8의 신규성을 강조하기 위해, 오디오 사용자 인터페이스(38)는, 더 새로운 곡 L8이 탐색하여 도달될 때, 더 오래된 내용 (예를 들어, L6, L7 등등)을 위해 재생된 비언어적 톤들과 비교하여 더 특징적인 (예를 들면, 더 높게 피치된 삑 소리) 비언어적 톤을 재생할 수 있다. 알 수 있는 바와 같이, 신규성 문턱값은 장치(10)상의 사용자 선호들(96)을 통해 구성될 수 있다. 예를 들면, 사용자는 지난 3 일새 구입하거나 다운로드된 콘텐츠를 새로운 콘텐츠인 것으로서 식별하도록 장치(10)를 구성할 수 있다.
또 다른 실시예에서, 더 새로운 콘텐츠의 식별은 신규성의 다중 계층(tier)을 정의하는 것을 포함할 수 있다. 예를 들면, 장치(10)상의 가장 새로운 콘텐츠를 식별하는데 3 일 문턱값을 사용하는 것뿐만 아니라, 두번째 문턱값 (예를 들면, 14 일)이 여전히 상대적으로 최근인 콘텐츠를 검출하기 위해 설정될 수 있다. 그와 같은 실시예들에서, 다양한 비언어적 톤들이 가장 새로운 아이템들과 최근의 아이템들로서 식별되는 리스트 아이템들에 사용될 수 있는데, 최근 아이템들에 대한 비언어적 톤은 가장 새로운 아이템들과 관련된 비언어적 톤보다 덜 특징적이고, 그렇지만 최근 및 가장 새로운 아이템에 대한 비언어적 톤들 모두는 새롭거나 최근의 것으로서 식별되지 않은 아이템들(예로, 14일보다 더 오래된 아이템들)에 대한 비언어적 톤과 비교하여 실질적으로 더 특징적이 된다. 사실상, 본 분야의 기술자는 (예를 들면, 대응하는 문턱값들에 의해 정의된 임의 수의 계층들에 기초하여) 장치(10)상에 저장된 콘텐츠의 연령을 구별하기 위한 임의 수의 비언어적 톤들이 본 기술의 다양한 실시예들에서 이용될 수 있다는 것을 알 것이다.
도 17에 계속하여, 도 16의 속도(282)와 비교하여 심지어 더 큰 속도(284)에서 리스트(252)를 탐색하는 것을 기술하는 추가적 예가 제공된다. 일례로서, 탐색 속도(284)는 대략 초당 4 리스트 아이템일 수 있다. 본 예에서, 사용자는 탐색 속도(284)를 이용하여 첫번째 리스트 아이템 L0 으로부터 리스트 아이템 L18까지 탐색할 수 있다. 속도(284)로 탐색하는 경우 각각의 리스트 아이템 사이에 더욱 추가로 감소된 전이 시간을 보완하기 위해, 오디오 사용자 인터페이스(38)는 오디오 피드백이 단지 리스트 아이템들 중의 일부를 위해 제공되도록 추가로 오디오 피드백을 축소할 수 있다. 예를 들면, 이하의 표 3 에 나타난 바와 같이, 오디오 사용자 인터페이스(38)는, 일 실시예에서, 각각의 알파벳 그룹(예를 들면, "A", "B", 기타 등등 시작하는 노래 곡명들) 내에서의 첫번째 리스트 아이템들을 위한 리스트 아이템의 알파벳 순서에 대응하는 문자를 말하고 또한 모든 세번째마다의 리스트 아이템에 대해서만(예를 들면, 아이템 L2, L5, L8, 그리고 L17) 비언어적 톤을 재생함으로써 리스트 탐색과 관련된 오디오 피드백을 축소할 수 있다. 비언어적 톤의 재생의 자격을 얻고 또한 알파벳 그룹에서 또한 첫번째 아이템인 리스트 아이템들에 대해, 알파벳 문자는 비언어적 톤(예를 들면, 아이템 L11과 L14) 대신에 말해질 수 있다.
알 수 있는 바와 같이, 다른 실시예들에서, 비언어적 톤들이 제공되는 빈도는 리스트 탐색 속도가 계속 증가함에 따라 추가로 감소할 수 있다(예를 들면, 매 네번째, 다섯번째, 또는 여섯번째 아이템). 또한, 리스트(252)의 탐색이 일정 속도로 반드시 발생하지 않을 수 있다는 것을 이해해야 한다. 따라서, 오디오 사용자 인터페이스(38)는 오디오 피드백의 구어성을 그에 따라 조절할 수 있다. 예를 들면, 사용자가 초기에 (예를 들면, 속도(280)로) 매우 천천히 리스트(252)를 탐색하고, 점차로 더 빠른 속도까지 (예를 들면, 속도(284)로) 증가하면, 오디오 사용자 인터페이스(38)는 다중 데이터 세그먼트들에 대한 순 구어성 오디오 피드백을 제공하고 (예를 들면, 곡명과 아티스트 이름), 구어성을 점차로 감소시켜서 곡 명만을 제공하고 또한 표 3에 도시된 것과 유사하게 축소된 구어성 방식에 결국 도달한다. 사용자가 다음으로 점차로 탐색 속도를 감소시키면, 이후 오디오 피드백은 순 구어성 모드를 향하여 점차로 되돌아가며 진전할 수 있다.
더욱이, 본 기술이 사용자 그래픽 인터페이스와 관련하여 설명되었지만, 특정 실시예들이 오디오 사용자 인터페이스만을 포함할 수 있다는 것이 이해되어야 한다. 그와 같은 실시예들에서, 상기 기술된 오디오 피드백 기술은 사용자가 대응하는 시각 인터페이스 없이(예를 들어, 스크롤 휠을 사용하여) 아이템들의 리스트를 통해 탐색함에 따라 적용될 수 있다. 앞서 언급한 바와 같이, 디스플레이(22) 및 그에 따라 사용자 그래픽 인터페이스가 결여된 장치(10)의 실시예는 애플사로부터 얻을 수 있는 iPod® 셔플 모델일 수 있다.
리스트 탐색 동안 오디오 피드백을 변경하기 위한 여러 기술은, 도 15-17 및 표 1-3에서 보여진 실시예들과 관련하여 기술된 것처럼, 일반적으로 방법 290에 의해 요약되고, 도18에 도시된 흐름도에 의해 묘사된다. 방법 290은 단계 292에서 시작하는데 이 단계에서 리스트 탐색 이벤트가 검출된다. 예를 들면, 리스트 탐색 이벤트는 한 리스트 아이템 (예를 들면, L0에서)으로부터 차순의 리스트 아이템 (예를 들면, L1)으로의 전이를 포함할 수 있다. 단계 294에서, 현재 리스트 아이템이 식별된다. 그 후에, 결정 블록(296)에서, 사용자의 탐색 속도가 순 구어성 오디오 피드백을 허용하는지에 대한 결정이 이뤄진다. 예를 들어, 탐색 속도는 둘 이상의 바로 선행하는 리스트 아이템들 (예를 들면, 또는 사용자가 리스트를 위쪽으로 탐색하고 있다면 연속하는 아이템들) 사이의 전이가 발생하는 속도들의 평균을 계산함으로써, 일 실시예에서 결정될 수 있다. 탐색 속도가 순 구어성 오디오 피드백을 허용한다고 결정되면, 방법 290은 단계 298로 계속하고, 그에 의해서 현재 선택된 리스트 아이템과 관련된 하나 이상의 순 구어성 오디오 아이템들이 재생된다.
결정 블록(296)에서의 탐색 속도가 순 구어성 오디오 피드백을 허용하지 않으면, 방법 290은 결정 블록(300)까지 계속하고, 여기서 현재 리스트 아이템이 알파벳 그룹의 첫번째 아이템인지에 대한 결정이 이뤄지고, 만일 그렇다면 알파벳 그룹의 해당 문자가 오디오 사용자 인터페이스(38)에 의해 말해지고 오디오 피드백으로서 제공된다(단계 302). 현재 리스트 아이템이 알파벳 그룹의 첫번째 아이템이 아니라면, 방법 290은 결정 블록(304)으로 진행하고, 그에 의해 현재 리스트 아이템의 신규성이 결정된다. 현재 리스트 아이템이 새로운 콘텐츠인 것으로서 식별되면, 현재 리스트 아이템의 신규성을 나타내는 특징적 비언어적 오디오 아이템이 단계 306 에 보여진 것처럼, 재생된다. 현재 리스트 아이템이 새로운 콘텐츠인 것으로서 식별되지 않으면 단계 308에 보여진 것처럼, 덜 특징적인 비언어적 오디오 아이템이 그 대신에 재생된다.
도 19-21은 일 실시예에 따라서, 어떻게 오디오 피드백 옵션이 장치(10)상에 구성될 수 있는지를 보여주는 다양한 스크린들 이미지들을 묘사한다. 예를 들면, 먼저 도 19의 스크린(310)을 참조하면, 운영체제를 위한 GUI (36)의 메인 "홈" 스크린(312)이 예시된다. 예를 들어, 운영 체제는 애플사로부터의 Mac OS® 운영 체제버전일 수 있다. 도 2에서 논의한 대로, GUI (36)는 다양한 아이콘들(56)을 포함하는 독(58)을 제공할 수 있다. 아이콘(316)의 선택은 그래픽 윈도(318)가 표시되도록 야기할 수 있다. 도면에 나타낸 바와 같이, 그래픽 윈도(318)는 장치(10)를 위해 시스템 선호들의 다양한 면들의 구성을 관련시킬 수 있는 추가적 아이콘들(56)을 포함한다. 특히, 그래픽 아이콘(320)은 오디오 사용자 인터페이스(38)를 구성하기 위한 기능을 나타낼 수 있다.
도 20을 참조하면, 아이콘(320)의 선택은 그래픽 구성 윈도(322)가 표시되도록 야기할 수 있다. 초기에, 구성 윈도(322)는 그래픽 스위치들(324, 326, 328, 330)을 포함한다. 스위치(324)(현재 "온(ON)" 위치에 있음)는, 오디오 사용자 인터페이스(38)를 인에이블하거나 디스에이블할 수 있는 한편, 스위치들(326, 328, 330)은 오디오 사용자 인터페이스(38)가 다양한 모드들에서 동작하도록 허용하기 위해 토글링될 수 있다. 예를 들면, 현재 "온" 위치에 있는 스위치(326)는 일정 순 구어성 모드가 현재 인에이블되고, 또한 오디오 피드백을 축소하고/진전시키기 위한(스위치328) 그리고 비언어적 오디오 피드백 만을 이용하기 위한(스위치330) 추가적 모드들이 둘 다 현재 디스에이블되었다는 것을 나타낸다.
도 21은 사용자에 의한 다양한 구성 단계들의 수행에 뒤이은 구성 윈도(322)를 묘사한다. 예를 들면, 도면에 나타낸 바와 같이, 스위치(326)는 "오프" 위치로 토글링되어 일정 순 구어성 모드를 디스에이블하고, 스위치(328)는 "온"으로 토글링되어 적응적 축소/진전 모드가 인에이블되었다는 것을 나타낸다. 축소하거나 진전하는 모드를 인에이블할 시에, 한 세트의 추가 구성 파라미터들(332)이 사용자에 의해 표시되고 구성된다. 예를 들면, 사용자는 바라는 위치들에 그래픽 스위치들(334, 338, 340, 342, 344, 346, 350)을 토글링함으로써 각각의 구성 파라미터들(332)을 인에이블하거나 디스에이블할 수 있다. 사용자는 도 8 및 도 9를 참조하여 상술한 바와 같이, 스텝업 시간을 특정하기 위해 또한 선택 필드(336)를 이용할 수 있다. 덧붙여, 사용자는 도 15-17을 참조하여 상술한 바와 같이, 리스트 탐색 동안 더 새롭고 더 오래된 콘텐츠 간에 구별하기 위한 문턱값을 특정하기 위해 선택 필드(348)를 이용할 수 있다.
요약하면, 앞서 기술된 실시예들은 전자 장치 [예를 들면, 장치(10)]가 사용자 입력들에 응답하여 및/또는 외부 자극들에 응답하여 오디오 피드백의 진전과 축소를 할 수 있는 지능형 적응적 기술을 제공한다. 예를 들면, 사용자 행위들 및/또는 사용자 정의 선호들 [예를 들면, 선호들(96)]에 기초하여 오디오 피드백을 축소하고 및/또는 진전시키기 위한 특정 행위들은 동적이고 적응적일 수 있다. 예를 들어, 앞의 도 9에 나타난 바와 같이, 재생 종결 이벤트의 형태로의 사용자 행위 검출은 장치(10)가 축소 레이트를 증가시키도록 야기할 수 있다 (예를 들면, 사용자가 종결된 이벤트에 대응하는 오디오 피드백에 관심이 없다는 표시로 인해 구어성을 더 빨리 축소시킨다). 덧붙여, 낮은 전력 이벤트들, 또는 네트워크 접속들의 검출(도 12)과 같이, 사용자 입력들에 의해 초래되지 않은 외부 자극들의 검출은 (예를 들면, 맥락상 중요성에 기초해) 장치(10)가 오디오 피드백의 구어성을 증가시키거나 감소시키도록 야기할 수 있다. 사실상, 현재 설명된 기술들은 오디오 사용자 인터페이스에 의해 제공되는 오디오 피드백의 구어성을 조절하기 위한 강건하고 적응적인 시스템을 제공한다.
또한, 이해되는 바와 같이, 위에서 기술되고 전자 장치의 오디오 사용자 인터페이스에 의해 제공된 적응적으로 변화하는 오디오 피드백과 관련된 다양한 기법은 예로서만 여기에서 제공된다. 따라서, 본 개시는 상기 제공된 예로만 한정되는 것으로 해석되어서는 안 된다고 이해되어야 한다. 사실상, 상기에 제시된 오디오 피드백 기술의 수많은 변경들이 존재할 수 있다. 또한, 상술한 기술은 임의의 적절한 방식으로 구현될 수 있다는 점을 알아야 한다. 현재 개시된 기술들의 다양한 면들을 구현시키기 위해 집합적으로 구성된, 오디오 사용자 인터페이스(38) 및 오디오 피드백 선택 로직(86)은 하드웨어 (예를 들면, 적당히 구성된 회로), 소프트웨어를 이용하여(예를 들면, 하나 이상의 유형의 컴퓨터 판독가능 매체상에 저장된 실행가능 코드를 포함하는 컴퓨터 프로그램을 통해), 또는 하드웨어와 소프트웨어 양쪽 요소들의 조합을 사용하는 것을 통해 구현될 수 있다.
상술한 특정 실시예들이 예로서 도시되었지만, 이들 실시예들은 각종 수정 및 대안적 형태를 받아들일 수 있다는 점을 알아야 한다. 또한 특허청구범위는 개시된 특정 형태들에만 한정하고자 하는 것이 아니라, 본 개시의 사상 및 범주 내에 드는 모든 수정, 균등물, 및 대안들을 포괄하는 것으로 추가로 이해되어야 한다.
Claims (18)
- 방법으로서,
전자 장치상의 프로세서를 이용하여,
상기 전자 장치상에 저장된 데이터 아이템들의 탐색가능 세트(a navigable set of data items)를 식별하고,
탐색 이벤트(a naviagtion event) - 상기 탐색 이벤트는 상기 탐색가능 세트 내에서 제1 데이터 아이템으로부터 제2 데이터 아이템으로, 상기 제2 데이터 아이템이 현재 선택된 데이터 아이템이 되도록 전이하는 것을 포함함 - 에 대응하는 상기 전자 장치의 사용자로부터의 입력을 수신하고,
상기 탐색 이벤트에 대응하는 탐색 속도를 검출하며,
하나 이상의 사용자 선호에 따라, 상기 탐색 속도에 기초하여 상기 현재 선택된 데이터 아이템과 연관된 오디오 피드백을 변경하는 단계
를 포함하는 방법. - 제1항에 있어서,
상기 오디오 피드백을 변경하는 것은,
제1 탐색 속도에서, 순 구어성(full verbosity)을 갖는 제1 오디오 아이템을 재생하는 것과,
상기 제1 탐색 속도보다 큰 제2 탐색 속도에서, 상기 제1 오디오 아이템에 비해 말 수가 적은(less verbose) 제2 오디오 아이템을 재생하는 것을 포함하는, 방법. - 제2항에 있어서,
상기 데이터 아이템들의 탐색가능 세트는 상기 전자 장치상에서 알파벳순으로 정렬되고,
상기 제2 오디오 아이템을 선택하고 재생하는 것은, 상기 현재 선택된 데이터 아이템이 알파벳 문자 그룹의 첫번째 아이템인 경우, 상기 알파벳 문자 그룹에 대응하는 문자를 재생하고, 그렇지 않으면 비언어적(non-verbal) 오디오 아이템을 재생하는 것을 포함하는, 방법. - 제2항에 있어서,
상기 제2 오디오 아이템을 재생하는 것은,
상기 현재 선택된 데이터 아이템이 신규 콘텐츠(new content)를 포함하는지 여부를 판정하고,
상기 현재 선택된 데이터 아이템이 신규 콘텐츠를 포함하지 않는 경우 제1 비언어적 오디오 아이템을 재생하고,
상기 현재 선택된 데이터 아이템이 신규 콘텐츠를 포함하는 경우 제2 비언어적 오디오 아이템을 재생하는 것을 포함하며,
상기 제2 비언어적 오디오 아이템은, 상기 제1 비언어적 오디오 아이템의 비언어적 오디오 톤(non-verbal audio tone)과 구별되는 비언어적 오디오 톤과 연관되는, 방법. - 제4항에 있어서,
상기 현재 선택된 데이터 아이템이 신규 콘텐츠를 포함하는지 여부를 판정하는 것은,
상기 현재 선택된 데이터 아이템이 상기 전자 장치에 의해 획득된 시간을 판정하고,
상기 획득 시간이 현재 시간 이전에 특정한 시간 구간 내에 발생하였는지를 판정하며,
상기 획득 시간이 상기 특정한 시간 구간 내에 발생하였던 경우 상기 현재 선택된 데이터 아이템을 신규 콘텐츠로 식별하고, 그렇지 않으면 상기 현재 선택된 데이터 아이템을 신규 콘텐츠가 아닌 것으로 식별하는 것을 포함하는, 방법. - 제1항에 있어서,
상기 전자 장치상에 저장된 상기 데이터 아이템들의 탐색가능 세트는 디스플레이 장치상에 리스트로서 디스플레이 가능하고, 상기 사용자로부터의 상기 입력은 상기 디스플레이된 리스트를 탐색하도록 구성된 스크롤 명령에 대응하는, 방법. - 전자 장치로서,
하나 이상의 프로세서; 및
명령어들을 저장한 메모리를 포함하고,
상기 명령어들은, 상기 하나 이상의 프로세서에 의해 실행될 때, 상기 하나 이상의 프로세서로 하여금,
상기 전자 장치상에 저장된 데이터 아이템들의 탐색가능 세트를 식별하고,
탐색 이벤트 - 상기 탐색 이벤트는 상기 탐색가능 세트 내에서 제1 데이터 아이템으로부터 제2 데이터 아이템으로, 상기 제2 데이터 아이템이 현재 선택된 데이터 아이템이 되도록 전이하는 것을 포함함 - 에 대응하는 상기 전자 장치의 사용자로부터의 입력을 수신하고,
상기 탐색 이벤트에 대응하는 탐색 속도를 검출하며,
하나 이상의 사용자 선호에 따라, 상기 탐색 속도에 기초하여 상기 현재 선택된 데이터 아이템과 연관된 오디오 피드백을 변경하도록 하는,
전자 장치. - 제7항에 있어서,
상기 오디오 피드백을 변경하는 것은,
제1 탐색 속도에서, 순 구어성을 갖는 제1 오디오 아이템을 재생하는 것과,
상기 제1 탐색 속도보다 큰 제2 탐색 속도에서, 상기 제1 오디오 아이템에 비해 말 수가 적은 제2 오디오 아이템을 재생하는 것을 포함하는, 전자 장치. - 제8항에 있어서,
상기 데이터 아이템들의 탐색가능 세트는 상기 전자 장치상에서 알파벳순으로 정렬되고,
상기 제2 오디오 아이템을 선택하고 재생하는 것은, 상기 현재 선택된 데이터 아이템이 알파벳 문자 그룹의 첫번째 아이템인 경우, 상기 알파벳 문자 그룹에 대응하는 문자를 재생하고, 그렇지 않으면 비언어적 오디오 아이템을 재생하는 것을 포함하는, 전자 장치. - 제8항에 있어서,
상기 제2 오디오 아이템을 재생하는 것은,
상기 현재 선택된 데이터 아이템이 신규 콘텐츠를 포함하는지 여부를 판정하고,
상기 현재 선택된 데이터 아이템이 신규 콘텐츠를 포함하지 않는 경우 제1 비언어적 오디오 아이템을 재생하고,
상기 현재 선택된 데이터 아이템이 신규 콘텐츠를 포함하는 경우 제2 비언어적 오디오 아이템을 재생하는 것을 포함하며,
상기 제2 비언어적 오디오 아이템은, 상기 제1 비언어적 오디오 아이템의 비언어적 오디오 톤과 구별되는 비언어적 오디오 톤과 연관되는, 전자 장치. - 제10항에 있어서,
상기 현재 선택된 데이터 아이템이 신규 콘텐츠를 포함하는지 여부를 판정하는 것은,
상기 현재 선택된 데이터 아이템이 상기 전자 장치에 의해 획득된 시간을 판정하고,
상기 획득 시간이 현재 시간 이전에 특정한 시간 구간 내에 발생하였는지를 판정하며,
상기 획득 시간이 상기 특정한 시간 구간 내에 발생하였던 경우 상기 현재 선택된 데이터 아이템을 신규 콘텐츠로 식별하고, 그렇지 않으면 상기 현재 선택된 데이터 아이템을 신규 콘텐츠가 아닌 것으로 식별하는 것을 포함하는, 전자 장치. - 제7항에 있어서,
상기 전자 장치상에 저장된 상기 데이터 아이템들의 탐색가능 세트는 디스플레이 장치상에 리스트로서 디스플레이 가능하고, 상기 사용자로부터의 상기 입력은 상기 디스플레이된 리스트를 탐색하도록 구성된 스크롤 명령에 대응하는, 전자 장치. - 명령어들을 포함하는 비휘발성 컴퓨터 판독가능 매체로서, 상기 명령어들은,
전자 장치상에 저장된 데이터 아이템들의 탐색가능 세트를 식별하고,
탐색 이벤트 - 상기 탐색 이벤트는 상기 탐색가능 세트 내에서 제1 데이터 아이템으로부터 제2 데이터 아이템으로, 상기 제2 데이터 아이템이 현재 선택된 데이터 아이템이 되도록 전이하는 것을 포함함 - 에 대응하는 상기 전자 장치의 사용자로부터의 입력을 수신하고,
상기 탐색 이벤트에 대응하는 탐색 속도를 검출하며,
하나 이상의 사용자 선호에 따라, 상기 탐색 속도에 기초하여 상기 현재 선택된 데이터 아이템과 연관된 오디오 피드백을 변경하기 위한 것인,
비휘발성 컴퓨터 판독가능 매체. - 제13항에 있어서,
상기 오디오 피드백을 변경하는 것은,
제1 탐색 속도에서, 순 구어성을 갖는 제1 오디오 아이템을 재생하는 것과,
상기 제1 탐색 속도보다 큰 제2 탐색 속도에서, 상기 제1 오디오 아이템에 비해 말 수가 적은 제2 오디오 아이템을 재생하는 것을 포함하는, 비휘발성 컴퓨터 판독가능 매체. - 제14항에 있어서,
상기 데이터 아이템들의 탐색가능 세트는 상기 전자 장치상에서 알파벳순으로 정렬되고,
상기 제2 오디오 아이템을 선택하고 재생하는 것은, 상기 현재 선택된 데이터 아이템이 알파벳 문자 그룹의 첫번째 아이템인 경우, 상기 알파벳 문자 그룹에 대응하는 문자를 재생하고, 그렇지 않으면 비언어적 오디오 아이템을 재생하는 것을 포함하는, 비휘발성 컴퓨터 판독가능 매체. - 제14항에 있어서,
상기 제2 오디오 아이템을 재생하는 것은,
상기 현재 선택된 데이터 아이템이 신규 콘텐츠를 포함하는지 여부를 판정하고,
상기 현재 선택된 데이터 아이템이 신규 콘텐츠를 포함하지 않는 경우 제1 비언어적 오디오 아이템을 재생하고,
상기 현재 선택된 데이터 아이템이 신규 콘텐츠를 포함하는 경우 제2 비언어적 오디오 아이템을 재생하는 것을 포함하며,
상기 제2 비언어적 오디오 아이템은, 상기 제1 비언어적 오디오 아이템의 비언어적 오디오 톤과 구별되는 비언어적 오디오 톤과 연관되는, 비휘발성 컴퓨터 판독가능 매체. - 제16항에 있어서,
상기 현재 선택된 데이터 아이템이 신규 콘텐츠를 포함하는지 여부를 판정하는 것은,
상기 현재 선택된 데이터 아이템이 상기 전자 장치에 의해 획득된 시간을 판정하고,
상기 획득 시간이 현재 시간 이전에 특정한 시간 구간 내에 발생하였는지를 판정하며,
상기 획득 시간이 상기 특정한 시간 구간 내에 발생하였던 경우 상기 현재 선택된 데이터 아이템을 신규 콘텐츠로 식별하고, 그렇지 않으면 상기 현재 선택된 데이터 아이템을 신규 콘텐츠가 아닌 것으로 식별하는 것을 포함하는, 비휘발성 컴퓨터 판독가능 매체. - 제13항에 있어서,
상기 전자 장치상에 저장된 상기 데이터 아이템들의 탐색가능 세트는 디스플레이 장치상에 리스트로서 디스플레이 가능하고, 상기 사용자로부터의 상기 입력은 상기 디스플레이된 리스트를 탐색하도록 구성된 스크롤 명령에 대응하는, 비휘발성 컴퓨터 판독가능 매체.
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US12/686,876 | 2010-01-13 | ||
US12/686,876 US8381107B2 (en) | 2010-01-13 | 2010-01-13 | Adaptive audio feedback system and method |
PCT/US2011/020350 WO2011087953A1 (en) | 2010-01-13 | 2011-01-06 | Adaptive audio feedback system and method |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020127021094A Division KR101280090B1 (ko) | 2010-01-13 | 2011-01-06 | 적응적 오디오 피드백 시스템 및 방법 |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20130043245A KR20130043245A (ko) | 2013-04-29 |
KR101798269B1 true KR101798269B1 (ko) | 2017-11-15 |
Family
ID=43768975
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020137008581A KR101798269B1 (ko) | 2010-01-13 | 2011-01-06 | 적응적 오디오 피드백 시스템 및 방법 |
KR1020127021094A KR101280090B1 (ko) | 2010-01-13 | 2011-01-06 | 적응적 오디오 피드백 시스템 및 방법 |
Family Applications After (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020127021094A KR101280090B1 (ko) | 2010-01-13 | 2011-01-06 | 적응적 오디오 피드백 시스템 및 방법 |
Country Status (6)
Country | Link |
---|---|
US (2) | US8381107B2 (ko) |
EP (2) | EP2524298A1 (ko) |
KR (2) | KR101798269B1 (ko) |
CN (1) | CN102763072B (ko) |
AU (1) | AU2011205498B2 (ko) |
WO (1) | WO2011087953A1 (ko) |
Families Citing this family (238)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8645137B2 (en) | 2000-03-16 | 2014-02-04 | Apple Inc. | Fast, language-independent method for user authentication by voice |
US8677377B2 (en) | 2005-09-08 | 2014-03-18 | Apple Inc. | Method and apparatus for building an intelligent automated assistant |
US9318108B2 (en) | 2010-01-18 | 2016-04-19 | Apple Inc. | Intelligent automated assistant |
US8977255B2 (en) | 2007-04-03 | 2015-03-10 | Apple Inc. | Method and system for operating a multi-function portable electronic device using voice-activation |
US10002189B2 (en) | 2007-12-20 | 2018-06-19 | Apple Inc. | Method and apparatus for searching using an active ontology |
US9330720B2 (en) | 2008-01-03 | 2016-05-03 | Apple Inc. | Methods and apparatus for altering audio output signals |
US9791918B2 (en) * | 2008-03-26 | 2017-10-17 | Pierre Bonnat | Breath-sensitive digital interface |
US8996376B2 (en) | 2008-04-05 | 2015-03-31 | Apple Inc. | Intelligent text-to-speech conversion |
US10496753B2 (en) | 2010-01-18 | 2019-12-03 | Apple Inc. | Automatically adapting user interfaces for hands-free interaction |
US20100030549A1 (en) | 2008-07-31 | 2010-02-04 | Lee Michael M | Mobile device having human language translation capability with positional feedback |
US8768702B2 (en) * | 2008-09-05 | 2014-07-01 | Apple Inc. | Multi-tiered voice feedback in an electronic device |
US8676904B2 (en) | 2008-10-02 | 2014-03-18 | Apple Inc. | Electronic devices with voice command and contextual data processing capabilities |
WO2010067118A1 (en) | 2008-12-11 | 2010-06-17 | Novauris Technologies Limited | Speech recognition involving a mobile device |
US10241644B2 (en) | 2011-06-03 | 2019-03-26 | Apple Inc. | Actionable reminder entries |
US10706373B2 (en) | 2011-06-03 | 2020-07-07 | Apple Inc. | Performing actions associated with task items that represent tasks to perform |
US9858925B2 (en) | 2009-06-05 | 2018-01-02 | Apple Inc. | Using context information to facilitate processing of commands in a virtual assistant |
US10241752B2 (en) | 2011-09-30 | 2019-03-26 | Apple Inc. | Interface for a virtual digital assistant |
US9431006B2 (en) | 2009-07-02 | 2016-08-30 | Apple Inc. | Methods and apparatuses for automatic speech recognition |
US8381107B2 (en) | 2010-01-13 | 2013-02-19 | Apple Inc. | Adaptive audio feedback system and method |
US10679605B2 (en) | 2010-01-18 | 2020-06-09 | Apple Inc. | Hands-free list-reading by intelligent automated assistant |
US10553209B2 (en) | 2010-01-18 | 2020-02-04 | Apple Inc. | Systems and methods for hands-free notification summaries |
US10705794B2 (en) | 2010-01-18 | 2020-07-07 | Apple Inc. | Automatically adapting user interfaces for hands-free interaction |
US10276170B2 (en) | 2010-01-18 | 2019-04-30 | Apple Inc. | Intelligent automated assistant |
DE202011111062U1 (de) | 2010-01-25 | 2019-02-19 | Newvaluexchange Ltd. | Vorrichtung und System für eine Digitalkonversationsmanagementplattform |
US8682667B2 (en) | 2010-02-25 | 2014-03-25 | Apple Inc. | User profiling for selecting user specific voice input processing information |
US9634855B2 (en) | 2010-05-13 | 2017-04-25 | Alexander Poltorak | Electronic personal interactive device that determines topics of interest using a conversational agent |
US10908794B2 (en) * | 2010-08-16 | 2021-02-02 | Iheartmedia Management Services, Inc. | Automated scheduling of multimedia content avoiding adjacency conflicts |
US20120102400A1 (en) * | 2010-10-22 | 2012-04-26 | Microsoft Corporation | Touch Gesture Notification Dismissal Techniques |
US10762293B2 (en) | 2010-12-22 | 2020-09-01 | Apple Inc. | Using parts-of-speech tagging and named entity recognition for spelling correction |
US8863040B2 (en) * | 2011-01-04 | 2014-10-14 | Google Inc. | Gesture-based selection |
US9262612B2 (en) | 2011-03-21 | 2016-02-16 | Apple Inc. | Device access using voice authentication |
KR101250250B1 (ko) * | 2011-05-18 | 2013-04-03 | 한국과학기술연구원 | 콘텐츠 표시 방법, 장치 및 컴퓨터 판독 가능한 기록 매체 |
US9043715B2 (en) * | 2011-06-02 | 2015-05-26 | International Business Machines Corporation | Alert event notification |
US10057736B2 (en) | 2011-06-03 | 2018-08-21 | Apple Inc. | Active transport based notifications |
US8994660B2 (en) | 2011-08-29 | 2015-03-31 | Apple Inc. | Text correction processing |
US20130080968A1 (en) * | 2011-09-27 | 2013-03-28 | Amazon Technologies Inc. | User interface with media content prediction |
US20130100042A1 (en) * | 2011-10-21 | 2013-04-25 | Robert H. Kincaid | Touch screen implemented control panel |
US9167368B2 (en) * | 2011-12-23 | 2015-10-20 | Blackberry Limited | Event notification on a mobile device using binaural sounds |
US9557903B2 (en) * | 2012-02-13 | 2017-01-31 | Lg Electronics Inc. | Method for providing user interface on terminal |
US10134385B2 (en) | 2012-03-02 | 2018-11-20 | Apple Inc. | Systems and methods for name pronunciation |
US9483461B2 (en) | 2012-03-06 | 2016-11-01 | Apple Inc. | Handling speech synthesis of content for multiple languages |
US9280610B2 (en) | 2012-05-14 | 2016-03-08 | Apple Inc. | Crowd sourcing information to fulfill user requests |
US10417037B2 (en) | 2012-05-15 | 2019-09-17 | Apple Inc. | Systems and methods for integrating third party services with a digital assistant |
US9721563B2 (en) | 2012-06-08 | 2017-08-01 | Apple Inc. | Name recognition system |
US9495129B2 (en) | 2012-06-29 | 2016-11-15 | Apple Inc. | Device, method, and user interface for voice-activated navigation and browsing of a document |
KR20140003151A (ko) * | 2012-06-29 | 2014-01-09 | 엘지전자 주식회사 | 디지털 기기 및 그 제어 방법 |
US8965624B2 (en) | 2012-08-14 | 2015-02-24 | Ebay Inc. | Method and system of vehicle tracking portal |
US8868426B2 (en) | 2012-08-23 | 2014-10-21 | Freedom Scientific, Inc. | Screen reader with focus-based speech verbosity |
US9576574B2 (en) | 2012-09-10 | 2017-02-21 | Apple Inc. | Context-sensitive handling of interruptions by intelligent digital assistant |
US9547647B2 (en) | 2012-09-19 | 2017-01-17 | Apple Inc. | Voice-based media searching |
US9734151B2 (en) * | 2012-10-31 | 2017-08-15 | Tivo Solutions Inc. | Method and system for voice based media search |
US9886166B2 (en) * | 2012-12-29 | 2018-02-06 | Nokia Technologies Oy | Method and apparatus for generating audio information |
CN103914344B (zh) * | 2013-01-07 | 2019-05-03 | 泰为信息科技公司 | 具有多模式互动机构的计算系统及其操作方法 |
US20140195979A1 (en) * | 2013-01-10 | 2014-07-10 | Appsense Limited | Interactive user interface |
KR20240132105A (ko) | 2013-02-07 | 2024-09-02 | 애플 인크. | 디지털 어시스턴트를 위한 음성 트리거 |
US9368114B2 (en) | 2013-03-14 | 2016-06-14 | Apple Inc. | Context-sensitive handling of interruptions |
US10652394B2 (en) | 2013-03-14 | 2020-05-12 | Apple Inc. | System and method for processing voicemail |
US10748529B1 (en) | 2013-03-15 | 2020-08-18 | Apple Inc. | Voice activated device for use with a voice-based digital assistant |
WO2014144579A1 (en) | 2013-03-15 | 2014-09-18 | Apple Inc. | System and method for updating an adaptive speech recognition model |
AU2014233517B2 (en) | 2013-03-15 | 2017-05-25 | Apple Inc. | Training an at least partial voice command system |
US10255038B2 (en) | 2013-04-26 | 2019-04-09 | Microsoft Technology Licensing, Llc | Techniques to present a user interface for the visually impaired |
US20140355665A1 (en) * | 2013-05-31 | 2014-12-04 | Altera Corporation | Adaptive Video Reference Frame Compression with Control Elements |
WO2014197334A2 (en) | 2013-06-07 | 2014-12-11 | Apple Inc. | System and method for user-specified pronunciation of words for speech synthesis and recognition |
WO2014197336A1 (en) | 2013-06-07 | 2014-12-11 | Apple Inc. | System and method for detecting errors in interactions with a voice-based digital assistant |
US9582608B2 (en) | 2013-06-07 | 2017-02-28 | Apple Inc. | Unified ranking with entropy-weighted information for phrase-based semantic auto-completion |
WO2014197335A1 (en) | 2013-06-08 | 2014-12-11 | Apple Inc. | Interpreting and acting upon commands that involve sharing information with remote devices |
US10176167B2 (en) | 2013-06-09 | 2019-01-08 | Apple Inc. | System and method for inferring user intent from speech inputs |
KR101772152B1 (ko) | 2013-06-09 | 2017-08-28 | 애플 인크. | 디지털 어시스턴트의 둘 이상의 인스턴스들에 걸친 대화 지속성을 가능하게 하기 위한 디바이스, 방법 및 그래픽 사용자 인터페이스 |
EP3008964B1 (en) | 2013-06-13 | 2019-09-25 | Apple Inc. | System and method for emergency calls initiated by voice command |
WO2014205734A1 (en) * | 2013-06-27 | 2014-12-31 | Verizon Patent And Licensing Inc. | Automated audio adjustment |
DE112014003653B4 (de) | 2013-08-06 | 2024-04-18 | Apple Inc. | Automatisch aktivierende intelligente Antworten auf der Grundlage von Aktivitäten von entfernt angeordneten Vorrichtungen |
EP2869176A3 (en) * | 2013-10-10 | 2015-06-24 | Lg Electronics Inc. | Mobile terminal and method of controlling therefor |
US10296160B2 (en) | 2013-12-06 | 2019-05-21 | Apple Inc. | Method for extracting salient dialog usage from live data |
US9620105B2 (en) | 2014-05-15 | 2017-04-11 | Apple Inc. | Analyzing audio input for efficient speech and music recognition |
US10592095B2 (en) | 2014-05-23 | 2020-03-17 | Apple Inc. | Instantaneous speaking of content on touch devices |
US9502031B2 (en) | 2014-05-27 | 2016-11-22 | Apple Inc. | Method for supporting dynamic grammars in WFST-based ASR |
CN110797019B (zh) | 2014-05-30 | 2023-08-29 | 苹果公司 | 多命令单一话语输入方法 |
US9633004B2 (en) | 2014-05-30 | 2017-04-25 | Apple Inc. | Better resolution when referencing to concepts |
US10289433B2 (en) | 2014-05-30 | 2019-05-14 | Apple Inc. | Domain specific language for encoding assistant dialog |
US9734193B2 (en) | 2014-05-30 | 2017-08-15 | Apple Inc. | Determining domain salience ranking from ambiguous words in natural speech |
US9430463B2 (en) | 2014-05-30 | 2016-08-30 | Apple Inc. | Exemplar-based natural language processing |
US9785630B2 (en) | 2014-05-30 | 2017-10-10 | Apple Inc. | Text prediction using combined word N-gram and unigram language models |
US9715875B2 (en) | 2014-05-30 | 2017-07-25 | Apple Inc. | Reducing the need for manual start/end-pointing and trigger phrases |
US9842101B2 (en) | 2014-05-30 | 2017-12-12 | Apple Inc. | Predictive conversion of language input |
US10170123B2 (en) | 2014-05-30 | 2019-01-01 | Apple Inc. | Intelligent assistant for home automation |
US10078631B2 (en) | 2014-05-30 | 2018-09-18 | Apple Inc. | Entropy-guided text prediction using combined word and character n-gram language models |
US9760559B2 (en) | 2014-05-30 | 2017-09-12 | Apple Inc. | Predictive text input |
US9338493B2 (en) | 2014-06-30 | 2016-05-10 | Apple Inc. | Intelligent automated assistant for TV user interactions |
US10659851B2 (en) | 2014-06-30 | 2020-05-19 | Apple Inc. | Real-time digital assistant knowledge updates |
WO2016029039A1 (en) * | 2014-08-20 | 2016-02-25 | Puretech Management, Inc. | Systems and techniques for identifying and exploiting relationships between media consumption and health |
US10446141B2 (en) | 2014-08-28 | 2019-10-15 | Apple Inc. | Automatic speech recognition based on user feedback |
US9818400B2 (en) | 2014-09-11 | 2017-11-14 | Apple Inc. | Method and apparatus for discovering trending terms in speech requests |
US10789041B2 (en) | 2014-09-12 | 2020-09-29 | Apple Inc. | Dynamic thresholds for always listening speech trigger |
US9606986B2 (en) | 2014-09-29 | 2017-03-28 | Apple Inc. | Integrated word N-gram and class M-gram language models |
US9646609B2 (en) | 2014-09-30 | 2017-05-09 | Apple Inc. | Caching apparatus for serving phonetic pronunciations |
US9886432B2 (en) | 2014-09-30 | 2018-02-06 | Apple Inc. | Parsimonious handling of word inflection via categorical stem + suffix N-gram language models |
US10074360B2 (en) | 2014-09-30 | 2018-09-11 | Apple Inc. | Providing an indication of the suitability of speech recognition |
US10127911B2 (en) | 2014-09-30 | 2018-11-13 | Apple Inc. | Speaker identification and unsupervised speaker adaptation techniques |
US9668121B2 (en) | 2014-09-30 | 2017-05-30 | Apple Inc. | Social reminders |
US10552013B2 (en) | 2014-12-02 | 2020-02-04 | Apple Inc. | Data detection |
US9711141B2 (en) | 2014-12-09 | 2017-07-18 | Apple Inc. | Disambiguating heteronyms in speech synthesis |
US10152299B2 (en) | 2015-03-06 | 2018-12-11 | Apple Inc. | Reducing response latency of intelligent automated assistants |
US9865280B2 (en) | 2015-03-06 | 2018-01-09 | Apple Inc. | Structured dictation using intelligent automated assistants |
US9721566B2 (en) | 2015-03-08 | 2017-08-01 | Apple Inc. | Competing devices responding to voice triggers |
US9886953B2 (en) | 2015-03-08 | 2018-02-06 | Apple Inc. | Virtual assistant activation |
US10567477B2 (en) | 2015-03-08 | 2020-02-18 | Apple Inc. | Virtual assistant continuity |
US9899019B2 (en) | 2015-03-18 | 2018-02-20 | Apple Inc. | Systems and methods for structured stem and suffix language models |
US9842105B2 (en) | 2015-04-16 | 2017-12-12 | Apple Inc. | Parsimonious continuous-space phrase representations for natural language processing |
US10460227B2 (en) | 2015-05-15 | 2019-10-29 | Apple Inc. | Virtual assistant in a communication session |
US10200824B2 (en) | 2015-05-27 | 2019-02-05 | Apple Inc. | Systems and methods for proactively identifying and surfacing relevant content on a touch-sensitive device |
US10083688B2 (en) | 2015-05-27 | 2018-09-25 | Apple Inc. | Device voice control for selecting a displayed affordance |
US10127220B2 (en) | 2015-06-04 | 2018-11-13 | Apple Inc. | Language identification from short strings |
US9578173B2 (en) | 2015-06-05 | 2017-02-21 | Apple Inc. | Virtual assistant aided communication with 3rd party service in a communication session |
US10101822B2 (en) | 2015-06-05 | 2018-10-16 | Apple Inc. | Language input correction |
US10255907B2 (en) | 2015-06-07 | 2019-04-09 | Apple Inc. | Automatic accent detection using acoustic models |
US10186254B2 (en) | 2015-06-07 | 2019-01-22 | Apple Inc. | Context-based endpoint detection |
US11025565B2 (en) | 2015-06-07 | 2021-06-01 | Apple Inc. | Personalized prediction of responses for instant messaging |
US9921805B2 (en) * | 2015-06-17 | 2018-03-20 | Lenovo (Singapore) Pte. Ltd. | Multi-modal disambiguation of voice assisted input |
US20160378747A1 (en) | 2015-06-29 | 2016-12-29 | Apple Inc. | Virtual assistant for media playback |
US10671428B2 (en) | 2015-09-08 | 2020-06-02 | Apple Inc. | Distributed personal assistant |
US10331312B2 (en) | 2015-09-08 | 2019-06-25 | Apple Inc. | Intelligent automated assistant in a media environment |
US10747498B2 (en) | 2015-09-08 | 2020-08-18 | Apple Inc. | Zero latency digital assistant |
US10740384B2 (en) | 2015-09-08 | 2020-08-11 | Apple Inc. | Intelligent automated assistant for media search and playback |
US9697820B2 (en) | 2015-09-24 | 2017-07-04 | Apple Inc. | Unit-selection text-to-speech synthesis using concatenation-sensitive neural networks |
US11010550B2 (en) | 2015-09-29 | 2021-05-18 | Apple Inc. | Unified language modeling framework for word prediction, auto-completion and auto-correction |
US10366158B2 (en) | 2015-09-29 | 2019-07-30 | Apple Inc. | Efficient word encoding for recurrent neural network language models |
US11587559B2 (en) | 2015-09-30 | 2023-02-21 | Apple Inc. | Intelligent device identification |
US10691473B2 (en) | 2015-11-06 | 2020-06-23 | Apple Inc. | Intelligent automated assistant in a messaging environment |
US10956666B2 (en) | 2015-11-09 | 2021-03-23 | Apple Inc. | Unconventional virtual assistant interactions |
US10049668B2 (en) | 2015-12-02 | 2018-08-14 | Apple Inc. | Applying neural network language models to weighted finite state transducers for automatic speech recognition |
FR3044784B1 (fr) * | 2015-12-02 | 2019-08-02 | Sebastien Ricarde | Dispositif de commande vocale d'un appareil de capture d'images |
US10223066B2 (en) | 2015-12-23 | 2019-03-05 | Apple Inc. | Proactive assistance based on dialog communication between devices |
US10446143B2 (en) | 2016-03-14 | 2019-10-15 | Apple Inc. | Identification of voice inputs providing credentials |
FR3050293A1 (fr) * | 2016-04-18 | 2017-10-20 | Orange | Procede d'assistance sonore d'interface de controle d'un terminal, un programme et un terminal |
US10175941B2 (en) | 2016-05-24 | 2019-01-08 | Oracle International Corporation | Audio feedback for continuous scrolled content |
US9934775B2 (en) | 2016-05-26 | 2018-04-03 | Apple Inc. | Unit-selection text-to-speech synthesis based on predicted concatenation parameters |
US9972304B2 (en) | 2016-06-03 | 2018-05-15 | Apple Inc. | Privacy preserving distributed evaluation framework for embedded personalized systems |
US11227589B2 (en) | 2016-06-06 | 2022-01-18 | Apple Inc. | Intelligent list reading |
US10249300B2 (en) | 2016-06-06 | 2019-04-02 | Apple Inc. | Intelligent list reading |
US10049663B2 (en) | 2016-06-08 | 2018-08-14 | Apple, Inc. | Intelligent automated assistant for media exploration |
DK179588B1 (en) | 2016-06-09 | 2019-02-22 | Apple Inc. | INTELLIGENT AUTOMATED ASSISTANT IN A HOME ENVIRONMENT |
US10067938B2 (en) | 2016-06-10 | 2018-09-04 | Apple Inc. | Multilingual word prediction |
US10509862B2 (en) | 2016-06-10 | 2019-12-17 | Apple Inc. | Dynamic phrase expansion of language input |
US10586535B2 (en) | 2016-06-10 | 2020-03-10 | Apple Inc. | Intelligent digital assistant in a multi-tasking environment |
US10192552B2 (en) | 2016-06-10 | 2019-01-29 | Apple Inc. | Digital assistant providing whispered speech |
US10490187B2 (en) | 2016-06-10 | 2019-11-26 | Apple Inc. | Digital assistant providing automated status report |
DK179343B1 (en) | 2016-06-11 | 2018-05-14 | Apple Inc | Intelligent task discovery |
DK179049B1 (en) | 2016-06-11 | 2017-09-18 | Apple Inc | Data driven natural language event detection and classification |
DK201670540A1 (en) | 2016-06-11 | 2018-01-08 | Apple Inc | Application integration with a digital assistant |
DK179415B1 (en) | 2016-06-11 | 2018-06-14 | Apple Inc | Intelligent device arbitration and control |
US10474753B2 (en) | 2016-09-07 | 2019-11-12 | Apple Inc. | Language identification using recurrent neural networks |
US10043516B2 (en) | 2016-09-23 | 2018-08-07 | Apple Inc. | Intelligent automated assistant |
US10642474B2 (en) * | 2016-09-28 | 2020-05-05 | Salesforce.Com, Inc. | Processing keyboard input to cause movement of items in a user interface of a web browser-based application |
US10572031B2 (en) | 2016-09-28 | 2020-02-25 | Salesforce.Com, Inc. | Processing keyboard input to cause re-sizing of items in a user interface of a web browser-based application |
US10649725B1 (en) * | 2016-10-27 | 2020-05-12 | Intuit Inc. | Integrating multi-channel inputs to determine user preferences |
US10559297B2 (en) | 2016-11-28 | 2020-02-11 | Microsoft Technology Licensing, Llc | Audio landmarking for aural user interface |
US11281993B2 (en) | 2016-12-05 | 2022-03-22 | Apple Inc. | Model and ensemble compression for metric learning |
US10593346B2 (en) | 2016-12-22 | 2020-03-17 | Apple Inc. | Rank-reduced token representation for automatic speech recognition |
US11204787B2 (en) | 2017-01-09 | 2021-12-21 | Apple Inc. | Application integration with a digital assistant |
US10594812B2 (en) * | 2017-03-10 | 2020-03-17 | Sony Interactive Entertainment LLC | Post-engagement metadata generation |
DK201770383A1 (en) | 2017-05-09 | 2018-12-14 | Apple Inc. | USER INTERFACE FOR CORRECTING RECOGNITION ERRORS |
US10417266B2 (en) | 2017-05-09 | 2019-09-17 | Apple Inc. | Context-aware ranking of intelligent response suggestions |
DK201770439A1 (en) | 2017-05-11 | 2018-12-13 | Apple Inc. | Offline personal assistant |
DK180048B1 (en) | 2017-05-11 | 2020-02-04 | Apple Inc. | MAINTAINING THE DATA PROTECTION OF PERSONAL INFORMATION |
US10395654B2 (en) | 2017-05-11 | 2019-08-27 | Apple Inc. | Text normalization based on a data-driven learning network |
US10726832B2 (en) | 2017-05-11 | 2020-07-28 | Apple Inc. | Maintaining privacy of personal information |
DK179496B1 (en) | 2017-05-12 | 2019-01-15 | Apple Inc. | USER-SPECIFIC Acoustic Models |
US11301477B2 (en) | 2017-05-12 | 2022-04-12 | Apple Inc. | Feedback analysis of a digital assistant |
DK201770428A1 (en) | 2017-05-12 | 2019-02-18 | Apple Inc. | LOW-LATENCY INTELLIGENT AUTOMATED ASSISTANT |
DK179745B1 (en) | 2017-05-12 | 2019-05-01 | Apple Inc. | SYNCHRONIZATION AND TASK DELEGATION OF A DIGITAL ASSISTANT |
DK201770431A1 (en) | 2017-05-15 | 2018-12-20 | Apple Inc. | Optimizing dialogue policy decisions for digital assistants using implicit feedback |
DK201770411A1 (en) | 2017-05-15 | 2018-12-20 | Apple Inc. | MULTI-MODAL INTERFACES |
DK201770432A1 (en) | 2017-05-15 | 2018-12-21 | Apple Inc. | Hierarchical belief states for digital assistants |
US20180336275A1 (en) | 2017-05-16 | 2018-11-22 | Apple Inc. | Intelligent automated assistant for media exploration |
US10403278B2 (en) | 2017-05-16 | 2019-09-03 | Apple Inc. | Methods and systems for phonetic matching in digital assistant services |
DK179549B1 (en) | 2017-05-16 | 2019-02-12 | Apple Inc. | FAR-FIELD EXTENSION FOR DIGITAL ASSISTANT SERVICES |
US10311144B2 (en) | 2017-05-16 | 2019-06-04 | Apple Inc. | Emoji word sense disambiguation |
US20180336892A1 (en) | 2017-05-16 | 2018-11-22 | Apple Inc. | Detecting a trigger of a digital assistant |
US10657328B2 (en) | 2017-06-02 | 2020-05-19 | Apple Inc. | Multi-task recurrent neural network architecture for efficient morphology handling in neural language modeling |
US10445429B2 (en) | 2017-09-21 | 2019-10-15 | Apple Inc. | Natural language understanding using vocabularies with compressed serialized tries |
US10755051B2 (en) | 2017-09-29 | 2020-08-25 | Apple Inc. | Rule-based natural language processing |
US10636424B2 (en) | 2017-11-30 | 2020-04-28 | Apple Inc. | Multi-turn canned dialog |
US10733982B2 (en) | 2018-01-08 | 2020-08-04 | Apple Inc. | Multi-directional dialog |
US10861463B2 (en) * | 2018-01-09 | 2020-12-08 | Sennheiser Electronic Gmbh & Co. Kg | Method for speech processing and speech processing device |
US10733375B2 (en) | 2018-01-31 | 2020-08-04 | Apple Inc. | Knowledge-based framework for improving natural language understanding |
US10789959B2 (en) | 2018-03-02 | 2020-09-29 | Apple Inc. | Training speaker recognition models for digital assistants |
US10592604B2 (en) | 2018-03-12 | 2020-03-17 | Apple Inc. | Inverse text normalization for automatic speech recognition |
US10818288B2 (en) | 2018-03-26 | 2020-10-27 | Apple Inc. | Natural assistant interaction |
US10909331B2 (en) | 2018-03-30 | 2021-02-02 | Apple Inc. | Implicit identification of translation payload with neural machine translation |
CA3098610A1 (en) * | 2018-05-02 | 2019-11-07 | Cloud People Llc | Decentralized digital communication platform system and method |
US11368443B2 (en) | 2018-05-02 | 2022-06-21 | Cloud People Llc | Decentralized digital communication platform system and method |
US11094316B2 (en) * | 2018-05-04 | 2021-08-17 | Qualcomm Incorporated | Audio analytics for natural language processing |
US10877718B2 (en) | 2018-05-07 | 2020-12-29 | Spotify Ab | Adaptive voice communication |
US10908873B2 (en) * | 2018-05-07 | 2021-02-02 | Spotify Ab | Command confirmation for a media playback device |
US10928918B2 (en) | 2018-05-07 | 2021-02-23 | Apple Inc. | Raise to speak |
US11145294B2 (en) | 2018-05-07 | 2021-10-12 | Apple Inc. | Intelligent automated assistant for delivering content from user experiences |
US10984780B2 (en) | 2018-05-21 | 2021-04-20 | Apple Inc. | Global semantic word embeddings using bi-directional recurrent neural networks |
DK179822B1 (da) | 2018-06-01 | 2019-07-12 | Apple Inc. | Voice interaction at a primary device to access call functionality of a companion device |
US10892996B2 (en) | 2018-06-01 | 2021-01-12 | Apple Inc. | Variable latency device coordination |
US11386266B2 (en) | 2018-06-01 | 2022-07-12 | Apple Inc. | Text correction |
DK201870355A1 (en) | 2018-06-01 | 2019-12-16 | Apple Inc. | VIRTUAL ASSISTANT OPERATION IN MULTI-DEVICE ENVIRONMENTS |
DK180639B1 (en) | 2018-06-01 | 2021-11-04 | Apple Inc | DISABILITY OF ATTENTION-ATTENTIVE VIRTUAL ASSISTANT |
US11030269B2 (en) * | 2018-06-03 | 2021-06-08 | Apple Inc. | Analytic data collection for application navigation |
US11076039B2 (en) | 2018-06-03 | 2021-07-27 | Apple Inc. | Accelerated task performance |
US11037558B2 (en) * | 2018-09-24 | 2021-06-15 | International Business Machines Corporation | Audio modulation for an audio interface |
US11170758B2 (en) | 2018-09-27 | 2021-11-09 | Rovi Guides, Inc. | Systems and methods for providing notifications within a media asset without breaking immersion |
US11010561B2 (en) | 2018-09-27 | 2021-05-18 | Apple Inc. | Sentiment prediction from textual data |
US11170166B2 (en) | 2018-09-28 | 2021-11-09 | Apple Inc. | Neural typographical error modeling via generative adversarial networks |
US11462215B2 (en) | 2018-09-28 | 2022-10-04 | Apple Inc. | Multi-modal inputs for voice commands |
US10839159B2 (en) | 2018-09-28 | 2020-11-17 | Apple Inc. | Named entity normalization in a spoken dialog system |
US11475898B2 (en) | 2018-10-26 | 2022-10-18 | Apple Inc. | Low-latency multi-speaker speech recognition |
US11120707B2 (en) * | 2018-11-15 | 2021-09-14 | International Business Machines Corporation | Cognitive snapshots for visually-impaired users |
US11638059B2 (en) | 2019-01-04 | 2023-04-25 | Apple Inc. | Content playback on multiple devices |
US11348573B2 (en) | 2019-03-18 | 2022-05-31 | Apple Inc. | Multimodality in digital assistant systems |
US11307752B2 (en) | 2019-05-06 | 2022-04-19 | Apple Inc. | User configurable task triggers |
US11475884B2 (en) | 2019-05-06 | 2022-10-18 | Apple Inc. | Reducing digital assistant latency when a language is incorrectly determined |
DK201970509A1 (en) | 2019-05-06 | 2021-01-15 | Apple Inc | Spoken notifications |
US11423908B2 (en) | 2019-05-06 | 2022-08-23 | Apple Inc. | Interpreting spoken requests |
US11140099B2 (en) | 2019-05-21 | 2021-10-05 | Apple Inc. | Providing message response suggestions |
US11496600B2 (en) | 2019-05-31 | 2022-11-08 | Apple Inc. | Remote execution of machine-learned models |
DK201970511A1 (en) | 2019-05-31 | 2021-02-15 | Apple Inc | Voice identification in digital assistant systems |
DK180129B1 (en) | 2019-05-31 | 2020-06-02 | Apple Inc. | USER ACTIVITY SHORTCUT SUGGESTIONS |
US11289073B2 (en) | 2019-05-31 | 2022-03-29 | Apple Inc. | Device text to speech |
US11360641B2 (en) | 2019-06-01 | 2022-06-14 | Apple Inc. | Increasing the relevance of new available information |
US11227599B2 (en) | 2019-06-01 | 2022-01-18 | Apple Inc. | Methods and user interfaces for voice-based control of electronic devices |
KR20210009189A (ko) * | 2019-07-16 | 2021-01-26 | 삼성전자주식회사 | 디스플레이 장치 및 그 제어 방법 |
US11238234B2 (en) * | 2019-09-11 | 2022-02-01 | International Business Machines Corporation | Adjusting a verbosity of a conversation turn |
WO2021056255A1 (en) | 2019-09-25 | 2021-04-01 | Apple Inc. | Text detection using global geometry estimators |
US11664044B2 (en) | 2019-11-25 | 2023-05-30 | Qualcomm Incorporated | Sound event detection learning |
US11038934B1 (en) | 2020-05-11 | 2021-06-15 | Apple Inc. | Digital assistant hardware abstraction |
US11061543B1 (en) | 2020-05-11 | 2021-07-13 | Apple Inc. | Providing relevant data items based on context |
US11755276B2 (en) | 2020-05-12 | 2023-09-12 | Apple Inc. | Reducing description length based on confidence |
US11490204B2 (en) | 2020-07-20 | 2022-11-01 | Apple Inc. | Multi-device audio adjustment coordination |
US11438683B2 (en) | 2020-07-21 | 2022-09-06 | Apple Inc. | User identification using headphones |
US11410677B2 (en) | 2020-11-24 | 2022-08-09 | Qualcomm Incorporated | Adaptive sound event classification |
CN113032029A (zh) * | 2021-03-26 | 2021-06-25 | 北京字节跳动网络技术有限公司 | 音乐应用的续听处理方法、装置及设备 |
US11650789B1 (en) * | 2022-04-29 | 2023-05-16 | Picked Cherries Inc. | System for creating audio snippet of the given podcast audio file and related methods |
US11804215B1 (en) * | 2022-04-29 | 2023-10-31 | Apple Inc. | Sonic responses |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20060095848A1 (en) * | 2004-11-04 | 2006-05-04 | Apple Computer, Inc. | Audio user interface for computing devices |
Family Cites Families (629)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US3828132A (en) | 1970-10-30 | 1974-08-06 | Bell Telephone Labor Inc | Speech synthesis by concatenation of formant encoded words |
US3704345A (en) | 1971-03-19 | 1972-11-28 | Bell Telephone Labor Inc | Conversion of printed text into synthetic speech |
US3979557A (en) | 1974-07-03 | 1976-09-07 | International Telephone And Telegraph Corporation | Speech processor system for pitch period extraction using prediction filters |
BG24190A1 (en) | 1976-09-08 | 1978-01-10 | Antonov | Method of synthesis of speech and device for effecting same |
JPS597120B2 (ja) | 1978-11-24 | 1984-02-16 | 日本電気株式会社 | 音声分析装置 |
US4310721A (en) | 1980-01-23 | 1982-01-12 | The United States Of America As Represented By The Secretary Of The Army | Half duplex integral vocoder modem system |
US4348553A (en) | 1980-07-02 | 1982-09-07 | International Business Machines Corporation | Parallel pattern verifier with dynamic time warping |
DE3382796T2 (de) | 1982-06-11 | 1996-03-28 | Mitsubishi Electric Corp | Vorrichtung zur Zwischenbildkodierung. |
US4688195A (en) | 1983-01-28 | 1987-08-18 | Texas Instruments Incorporated | Natural-language interface generating system |
JPS603056A (ja) | 1983-06-21 | 1985-01-09 | Toshiba Corp | 情報整理装置 |
DE3335358A1 (de) | 1983-09-29 | 1985-04-11 | Siemens AG, 1000 Berlin und 8000 München | Verfahren zur bestimmung von sprachspektren fuer die automatische spracherkennung und sprachcodierung |
US5164900A (en) | 1983-11-14 | 1992-11-17 | Colman Bernath | Method and device for phonetically encoding Chinese textual data for data processing entry |
US4726065A (en) | 1984-01-26 | 1988-02-16 | Horst Froessl | Image manipulation by speech signals |
US4955047A (en) | 1984-03-26 | 1990-09-04 | Dytel Corporation | Automated attendant with direct inward system access |
US4811243A (en) | 1984-04-06 | 1989-03-07 | Racine Marsh V | Computer aided coordinate digitizing system |
US4692941A (en) | 1984-04-10 | 1987-09-08 | First Byte | Real-time text-to-speech conversion system |
US4783807A (en) | 1984-08-27 | 1988-11-08 | John Marley | System and method for sound recognition with feature selection synchronized to voice pitch |
US4718094A (en) | 1984-11-19 | 1988-01-05 | International Business Machines Corp. | Speech recognition system |
US5165007A (en) | 1985-02-01 | 1992-11-17 | International Business Machines Corporation | Feneme-based Markov models for words |
US4944013A (en) | 1985-04-03 | 1990-07-24 | British Telecommunications Public Limited Company | Multi-pulse speech coder |
US4819271A (en) | 1985-05-29 | 1989-04-04 | International Business Machines Corporation | Constructing Markov model word baseforms from multiple utterances by concatenating model sequences for word segments |
US4833712A (en) | 1985-05-29 | 1989-05-23 | International Business Machines Corporation | Automatic generation of simple Markov model stunted baseforms for words in a vocabulary |
EP0218859A3 (en) | 1985-10-11 | 1989-09-06 | International Business Machines Corporation | Signal processor communication interface |
US4776016A (en) | 1985-11-21 | 1988-10-04 | Position Orientation Systems, Inc. | Voice control system |
JPH0833744B2 (ja) | 1986-01-09 | 1996-03-29 | 株式会社東芝 | 音声合成装置 |
US4724542A (en) | 1986-01-22 | 1988-02-09 | International Business Machines Corporation | Automatic reference adaptation during dynamic signature verification |
US5128752A (en) | 1986-03-10 | 1992-07-07 | Kohorn H Von | System and method for generating and redeeming tokens |
US5759101A (en) | 1986-03-10 | 1998-06-02 | Response Reward Systems L.C. | Central and remote evaluation of responses of participatory broadcast audience with automatic crediting and couponing |
US5032989A (en) | 1986-03-19 | 1991-07-16 | Realpro, Ltd. | Real estate search and location system and method |
DE3779351D1 (ko) | 1986-03-28 | 1992-07-02 | American Telephone And Telegraph Co., New York, N.Y., Us | |
US4903305A (en) | 1986-05-12 | 1990-02-20 | Dragon Systems, Inc. | Method for representing word models for use in speech recognition |
ES2047494T3 (es) | 1986-10-03 | 1994-03-01 | British Telecomm | Sistema de traduccion de lenguas. |
US4878230A (en) | 1986-10-16 | 1989-10-31 | Mitsubishi Denki Kabushiki Kaisha | Amplitude-adaptive vector quantization system |
US4829576A (en) | 1986-10-21 | 1989-05-09 | Dragon Systems, Inc. | Voice recognition system |
US4852168A (en) | 1986-11-18 | 1989-07-25 | Sprague Richard P | Compression of stored waveforms for artificial speech |
US4727354A (en) | 1987-01-07 | 1988-02-23 | Unisys Corporation | System for selecting best fit vector code in vector quantization encoding |
US4827520A (en) | 1987-01-16 | 1989-05-02 | Prince Corporation | Voice actuated control system for use in a vehicle |
US4965763A (en) | 1987-03-03 | 1990-10-23 | International Business Machines Corporation | Computer method for automatic extraction of commonly specified information from business correspondence |
US5644727A (en) | 1987-04-15 | 1997-07-01 | Proprietary Financial Products, Inc. | System for the operation and management of one or more financial accounts through the use of a digital communication and computation system for exchange, investment and borrowing |
EP0293259A3 (en) | 1987-05-29 | 1990-03-07 | Kabushiki Kaisha Toshiba | Voice recognition system used in telephone apparatus |
DE3723078A1 (de) | 1987-07-11 | 1989-01-19 | Philips Patentverwaltung | Verfahren zur erkennung von zusammenhaengend gesprochenen woertern |
CA1288516C (en) | 1987-07-31 | 1991-09-03 | Leendert M. Bijnagte | Apparatus and method for communicating textual and image information between a host computer and a remote display terminal |
US4974191A (en) | 1987-07-31 | 1990-11-27 | Syntellect Software Inc. | Adaptive natural language computer interface system |
US5022081A (en) | 1987-10-01 | 1991-06-04 | Sharp Kabushiki Kaisha | Information recognition system |
US4852173A (en) | 1987-10-29 | 1989-07-25 | International Business Machines Corporation | Design and construction of a binary-tree system for language modelling |
US5072452A (en) | 1987-10-30 | 1991-12-10 | International Business Machines Corporation | Automatic determination of labels and Markov word models in a speech recognition system |
DE3876379T2 (de) | 1987-10-30 | 1993-06-09 | Ibm | Automatische bestimmung von kennzeichen und markov-wortmodellen in einem spracherkennungssystem. |
US4914586A (en) | 1987-11-06 | 1990-04-03 | Xerox Corporation | Garbage collector for hypermedia systems |
US4992972A (en) | 1987-11-18 | 1991-02-12 | International Business Machines Corporation | Flexible context searchable on-line information system with help files and modules for on-line computer system documentation |
US5220657A (en) | 1987-12-02 | 1993-06-15 | Xerox Corporation | Updating local copy of shared data in a collaborative system |
JPH0619965Y2 (ja) | 1988-01-22 | 1994-05-25 | サンデン株式会社 | 熱交換器 |
US4984177A (en) | 1988-02-05 | 1991-01-08 | Advanced Products And Technologies, Inc. | Voice language translator |
US5194950A (en) | 1988-02-29 | 1993-03-16 | Mitsubishi Denki Kabushiki Kaisha | Vector quantizer |
US4914590A (en) | 1988-05-18 | 1990-04-03 | Emhart Industries, Inc. | Natural language understanding system |
FR2636163B1 (fr) | 1988-09-02 | 1991-07-05 | Hamon Christian | Procede et dispositif de synthese de la parole par addition-recouvrement de formes d'onde |
US4839853A (en) | 1988-09-15 | 1989-06-13 | Bell Communications Research, Inc. | Computer information retrieval using latent semantic structure |
JPH0293597A (ja) | 1988-09-30 | 1990-04-04 | Nippon I B M Kk | 音声認識装置 |
US4905163A (en) | 1988-10-03 | 1990-02-27 | Minnesota Mining & Manufacturing Company | Intelligent optical navigator dynamic information presentation and navigation system |
US5282265A (en) | 1988-10-04 | 1994-01-25 | Canon Kabushiki Kaisha | Knowledge information processing system |
DE3837590A1 (de) | 1988-11-05 | 1990-05-10 | Ant Nachrichtentech | Verfahren zum reduzieren der datenrate von digitalen bilddaten |
EP0372734B1 (en) | 1988-11-23 | 1994-03-09 | Digital Equipment Corporation | Name pronunciation by synthesizer |
US5027406A (en) | 1988-12-06 | 1991-06-25 | Dragon Systems, Inc. | Method for interactive speech recognition and training |
US5127055A (en) | 1988-12-30 | 1992-06-30 | Kurzweil Applied Intelligence, Inc. | Speech recognition apparatus & method having dynamic reference pattern adaptation |
US5293448A (en) | 1989-10-02 | 1994-03-08 | Nippon Telegraph And Telephone Corporation | Speech analysis-synthesis method and apparatus therefor |
US5047614A (en) | 1989-01-23 | 1991-09-10 | Bianco James S | Method and apparatus for computer-aided shopping |
SE466029B (sv) | 1989-03-06 | 1991-12-02 | Ibm Svenska Ab | Anordning och foerfarande foer analys av naturligt spraak i ett datorbaserat informationsbehandlingssystem |
JPH0782544B2 (ja) | 1989-03-24 | 1995-09-06 | インターナショナル・ビジネス・マシーンズ・コーポレーション | マルチテンプレートを用いるdpマツチング方法及び装置 |
US4977598A (en) | 1989-04-13 | 1990-12-11 | Texas Instruments Incorporated | Efficient pruning algorithm for hidden markov model speech recognition |
US5197005A (en) | 1989-05-01 | 1993-03-23 | Intelligent Business Systems | Database retrieval system having a natural language interface |
US5010574A (en) | 1989-06-13 | 1991-04-23 | At&T Bell Laboratories | Vector quantizer search arrangement |
JP2940005B2 (ja) | 1989-07-20 | 1999-08-25 | 日本電気株式会社 | 音声符号化装置 |
US5091945A (en) | 1989-09-28 | 1992-02-25 | At&T Bell Laboratories | Source dependent channel coding with error protection |
CA2027705C (en) | 1989-10-17 | 1994-02-15 | Masami Akamine | Speech coding system utilizing a recursive computation technique for improvement in processing speed |
US5020112A (en) | 1989-10-31 | 1991-05-28 | At&T Bell Laboratories | Image recognition method using two-dimensional stochastic grammars |
US5220639A (en) | 1989-12-01 | 1993-06-15 | National Science Council | Mandarin speech input method for Chinese computers and a mandarin speech recognition machine |
US5021971A (en) | 1989-12-07 | 1991-06-04 | Unisys Corporation | Reflective binary encoder for vector quantization |
US5179652A (en) | 1989-12-13 | 1993-01-12 | Anthony I. Rozmanith | Method and apparatus for storing, transmitting and retrieving graphical and tabular data |
CH681573A5 (en) | 1990-02-13 | 1993-04-15 | Astral | Automatic teller arrangement involving bank computers - is operated by user data card carrying personal data, account information and transaction records |
EP0443548B1 (en) | 1990-02-22 | 2003-07-23 | Nec Corporation | Speech coder |
US5301109A (en) | 1990-06-11 | 1994-04-05 | Bell Communications Research, Inc. | Computerized cross-language document retrieval using latent semantic indexing |
JP3266246B2 (ja) | 1990-06-15 | 2002-03-18 | インターナシヨナル・ビジネス・マシーンズ・コーポレーシヨン | 自然言語解析装置及び方法並びに自然言語解析用知識ベース構築方法 |
US5202952A (en) | 1990-06-22 | 1993-04-13 | Dragon Systems, Inc. | Large-vocabulary continuous speech prefiltering and processing system |
GB9017600D0 (en) | 1990-08-10 | 1990-09-26 | British Aerospace | An assembly and method for binary tree-searched vector quanisation data compression processing |
US5404295A (en) | 1990-08-16 | 1995-04-04 | Katz; Boris | Method and apparatus for utilizing annotations to facilitate computer retrieval of database material |
US5309359A (en) | 1990-08-16 | 1994-05-03 | Boris Katz | Method and apparatus for generating and utlizing annotations to facilitate computer text retrieval |
US5297170A (en) | 1990-08-21 | 1994-03-22 | Codex Corporation | Lattice and trellis-coded quantization |
US5400434A (en) | 1990-09-04 | 1995-03-21 | Matsushita Electric Industrial Co., Ltd. | Voice source for synthetic speech system |
US5216747A (en) | 1990-09-20 | 1993-06-01 | Digital Voice Systems, Inc. | Voiced/unvoiced estimation of an acoustic signal |
US5128672A (en) | 1990-10-30 | 1992-07-07 | Apple Computer, Inc. | Dynamic predictive keyboard |
US5325298A (en) | 1990-11-07 | 1994-06-28 | Hnc, Inc. | Methods for generating or revising context vectors for a plurality of word stems |
US5317507A (en) | 1990-11-07 | 1994-05-31 | Gallant Stephen I | Method for document retrieval and for word sense disambiguation using neural networks |
US5247579A (en) | 1990-12-05 | 1993-09-21 | Digital Voice Systems, Inc. | Methods for speech transmission |
US5345536A (en) | 1990-12-21 | 1994-09-06 | Matsushita Electric Industrial Co., Ltd. | Method of speech recognition |
US5127053A (en) | 1990-12-24 | 1992-06-30 | General Electric Company | Low-complexity method for improving the performance of autocorrelation-based pitch detectors |
US5133011A (en) | 1990-12-26 | 1992-07-21 | International Business Machines Corporation | Method and apparatus for linear vocal control of cursor position |
US5268990A (en) | 1991-01-31 | 1993-12-07 | Sri International | Method for recognizing speech using linguistically-motivated hidden Markov models |
GB9105367D0 (en) | 1991-03-13 | 1991-04-24 | Univ Strathclyde | Computerised information-retrieval database systems |
US5303406A (en) | 1991-04-29 | 1994-04-12 | Motorola, Inc. | Noise squelch circuit with adaptive noise shaping |
US5475587A (en) | 1991-06-28 | 1995-12-12 | Digital Equipment Corporation | Method and apparatus for efficient morphological text analysis using a high-level language for compact specification of inflectional paradigms |
US5293452A (en) | 1991-07-01 | 1994-03-08 | Texas Instruments Incorporated | Voice log-in using spoken name input |
US5687077A (en) | 1991-07-31 | 1997-11-11 | Universal Dynamics Limited | Method and apparatus for adaptive control |
US5199077A (en) | 1991-09-19 | 1993-03-30 | Xerox Corporation | Wordspotting for voice editing and indexing |
JP2662120B2 (ja) | 1991-10-01 | 1997-10-08 | インターナショナル・ビジネス・マシーンズ・コーポレイション | 音声認識装置および音声認識用処理ユニット |
US5222146A (en) | 1991-10-23 | 1993-06-22 | International Business Machines Corporation | Speech recognition apparatus having a speech coder outputting acoustic prototype ranks |
KR940002854B1 (ko) | 1991-11-06 | 1994-04-04 | 한국전기통신공사 | 음성 합성시스팀의 음성단편 코딩 및 그의 피치조절 방법과 그의 유성음 합성장치 |
US5386494A (en) | 1991-12-06 | 1995-01-31 | Apple Computer, Inc. | Method and apparatus for controlling a speech recognition function using a cursor control device |
US6081750A (en) | 1991-12-23 | 2000-06-27 | Hoffberg; Steven Mark | Ergonomic man-machine interface incorporating adaptive pattern recognition based control system |
US5903454A (en) | 1991-12-23 | 1999-05-11 | Hoffberg; Linda Irene | Human-factored interface corporating adaptive pattern recognition based controller apparatus |
US5502790A (en) | 1991-12-24 | 1996-03-26 | Oki Electric Industry Co., Ltd. | Speech recognition method and system using triphones, diphones, and phonemes |
US5349645A (en) | 1991-12-31 | 1994-09-20 | Matsushita Electric Industrial Co., Ltd. | Word hypothesizer for continuous speech decoding using stressed-vowel centered bidirectional tree searches |
US5267345A (en) | 1992-02-10 | 1993-11-30 | International Business Machines Corporation | Speech recognition apparatus which predicts word classes from context and words from word classes |
DE69322894T2 (de) | 1992-03-02 | 1999-07-29 | At & T Corp., New York, N.Y. | Lernverfahren und Gerät zur Spracherkennung |
US6055514A (en) | 1992-03-20 | 2000-04-25 | Wren; Stephen Corey | System for marketing foods and services utilizing computerized centraland remote facilities |
US5317647A (en) | 1992-04-07 | 1994-05-31 | Apple Computer, Inc. | Constrained attribute grammars for syntactic pattern recognition |
US5412804A (en) | 1992-04-30 | 1995-05-02 | Oracle Corporation | Extending the semantics of the outer join operator for un-nesting queries to a data base |
US5293584A (en) | 1992-05-21 | 1994-03-08 | International Business Machines Corporation | Speech recognition system for natural language translation |
US5434777A (en) | 1992-05-27 | 1995-07-18 | Apple Computer, Inc. | Method and apparatus for processing natural language |
US5390281A (en) | 1992-05-27 | 1995-02-14 | Apple Computer, Inc. | Method and apparatus for deducing user intent and providing computer implemented services |
US5734789A (en) | 1992-06-01 | 1998-03-31 | Hughes Electronics | Voiced, unvoiced or noise modes in a CELP vocoder |
US5333275A (en) | 1992-06-23 | 1994-07-26 | Wheatley Barbara J | System and method for time aligning speech |
US5325297A (en) | 1992-06-25 | 1994-06-28 | System Of Multiple-Colored Images For Internationally Listed Estates, Inc. | Computer implemented method and system for storing and retrieving textual data and compressed image data |
US5999908A (en) | 1992-08-06 | 1999-12-07 | Abelow; Daniel H. | Customer-based product design module |
US5412806A (en) | 1992-08-20 | 1995-05-02 | Hewlett-Packard Company | Calibration of logical cost formulae for queries in a heterogeneous DBMS using synthetic database |
GB9220404D0 (en) | 1992-08-20 | 1992-11-11 | Nat Security Agency | Method of identifying,retrieving and sorting documents |
US5333236A (en) | 1992-09-10 | 1994-07-26 | International Business Machines Corporation | Speech recognizer having a speech coder for an acoustic match based on context-dependent speech-transition acoustic models |
US5384893A (en) | 1992-09-23 | 1995-01-24 | Emerson & Stern Associates, Inc. | Method and apparatus for speech synthesis based on prosodic analysis |
FR2696036B1 (fr) | 1992-09-24 | 1994-10-14 | France Telecom | Procédé de mesure de ressemblance entre échantillons sonores et dispositif de mise en Óoeuvre de ce procédé. |
JPH0772840B2 (ja) | 1992-09-29 | 1995-08-02 | 日本アイ・ビー・エム株式会社 | 音声モデルの構成方法、音声認識方法、音声認識装置及び音声モデルの訓練方法 |
US5758313A (en) | 1992-10-16 | 1998-05-26 | Mobile Information Systems, Inc. | Method and apparatus for tracking vehicle location |
US5455888A (en) | 1992-12-04 | 1995-10-03 | Northern Telecom Limited | Speech bandwidth extension method and apparatus |
US5412756A (en) | 1992-12-22 | 1995-05-02 | Mitsubishi Denki Kabushiki Kaisha | Artificial intelligence software shell for plant operation simulation |
US5734791A (en) | 1992-12-31 | 1998-03-31 | Apple Computer, Inc. | Rapid tree-based method for vector quantization |
US5390279A (en) | 1992-12-31 | 1995-02-14 | Apple Computer, Inc. | Partitioning speech rules by context for speech recognition |
US5384892A (en) | 1992-12-31 | 1995-01-24 | Apple Computer, Inc. | Dynamic language model for speech recognition |
US5613036A (en) | 1992-12-31 | 1997-03-18 | Apple Computer, Inc. | Dynamic categories for a speech recognition system |
US6122616A (en) | 1993-01-21 | 2000-09-19 | Apple Computer, Inc. | Method and apparatus for diphone aliasing |
US5864844A (en) | 1993-02-18 | 1999-01-26 | Apple Computer, Inc. | System and method for enhancing a user interface with a computer based training tool |
CA2091658A1 (en) | 1993-03-15 | 1994-09-16 | Matthew Lennig | Method and apparatus for automation of directory assistance using speech recognition |
US6055531A (en) | 1993-03-24 | 2000-04-25 | Engate Incorporated | Down-line transcription system having context sensitive searching capability |
US5536902A (en) | 1993-04-14 | 1996-07-16 | Yamaha Corporation | Method of and apparatus for analyzing and synthesizing a sound by extracting and controlling a sound parameter |
US5444823A (en) | 1993-04-16 | 1995-08-22 | Compaq Computer Corporation | Intelligent search engine for associated on-line documentation having questionless case-based knowledge base |
US5574823A (en) | 1993-06-23 | 1996-11-12 | Her Majesty The Queen In Right Of Canada As Represented By The Minister Of Communications | Frequency selective harmonic coding |
US5515475A (en) | 1993-06-24 | 1996-05-07 | Northern Telecom Limited | Speech recognition method using a two-pass search |
JPH0756933A (ja) | 1993-06-24 | 1995-03-03 | Xerox Corp | 文書検索方法 |
JP3685812B2 (ja) | 1993-06-29 | 2005-08-24 | ソニー株式会社 | 音声信号送受信装置 |
US5794207A (en) | 1996-09-04 | 1998-08-11 | Walker Asset Management Limited Partnership | Method and apparatus for a cryptographically assisted commercial network system designed to facilitate buyer-driven conditional purchase offers |
AU7323694A (en) | 1993-07-07 | 1995-02-06 | Inference Corporation | Case-based organizing and querying of a database |
US5495604A (en) | 1993-08-25 | 1996-02-27 | Asymetrix Corporation | Method and apparatus for the modeling and query of database structures using natural language-like constructs |
US5619694A (en) | 1993-08-26 | 1997-04-08 | Nec Corporation | Case database storage/retrieval system |
US5940811A (en) | 1993-08-27 | 1999-08-17 | Affinity Technology Group, Inc. | Closed loop financial transaction method and apparatus |
US5377258A (en) | 1993-08-30 | 1994-12-27 | National Medical Research Council | Method and apparatus for an automated and interactive behavioral guidance system |
US5873056A (en) | 1993-10-12 | 1999-02-16 | The Syracuse University | Natural language processing system for semantic vector representation which accounts for lexical ambiguity |
US5578808A (en) | 1993-12-22 | 1996-11-26 | Datamark Services, Inc. | Data card that can be used for transactions involving separate card issuers |
WO1995017711A1 (en) | 1993-12-23 | 1995-06-29 | Diacom Technologies, Inc. | Method and apparatus for implementing user feedback |
US5621859A (en) | 1994-01-19 | 1997-04-15 | Bbn Corporation | Single tree method for grammar directed, very large vocabulary speech recognizer |
US5584024A (en) | 1994-03-24 | 1996-12-10 | Software Ag | Interactive database query system and method for prohibiting the selection of semantically incorrect query parameters |
US5642519A (en) | 1994-04-29 | 1997-06-24 | Sun Microsystems, Inc. | Speech interpreter with a unified grammer compiler |
KR100250509B1 (ko) | 1994-05-25 | 2000-04-01 | 슈즈이 다께오 | 가변 전송속도 데이터 전송장치 |
US5493677A (en) | 1994-06-08 | 1996-02-20 | Systems Research & Applications Corporation | Generation, archiving, and retrieval of digital images with evoked suggestion-set captions and natural language interface |
US5675819A (en) | 1994-06-16 | 1997-10-07 | Xerox Corporation | Document information retrieval using global word co-occurrence patterns |
JPH0869470A (ja) | 1994-06-21 | 1996-03-12 | Canon Inc | 自然言語処理装置及びその方法 |
US5948040A (en) | 1994-06-24 | 1999-09-07 | Delorme Publishing Co. | Travel reservation information and planning system |
US5682539A (en) | 1994-09-29 | 1997-10-28 | Conrad; Donovan | Anticipated meaning natural language interface |
US5715468A (en) | 1994-09-30 | 1998-02-03 | Budzinski; Robert Lucius | Memory system for storing and retrieving experience and knowledge with natural language |
GB2293667B (en) | 1994-09-30 | 1998-05-27 | Intermation Limited | Database management system |
US5737609A (en) * | 1994-10-18 | 1998-04-07 | Marcam Corporation | Method and apparatus for testing object-oriented programming constructs |
US5845255A (en) | 1994-10-28 | 1998-12-01 | Advanced Health Med-E-Systems Corporation | Prescription management system |
US5577241A (en) | 1994-12-07 | 1996-11-19 | Excite, Inc. | Information retrieval system and method with implementation extensible query architecture |
US5748974A (en) | 1994-12-13 | 1998-05-05 | International Business Machines Corporation | Multimodal natural language interface for cross-application tasks |
US5794050A (en) | 1995-01-04 | 1998-08-11 | Intelligent Text Processing, Inc. | Natural language understanding system |
CN1912885B (zh) | 1995-02-13 | 2010-12-22 | 英特特拉斯特技术公司 | 用于安全交易管理和电子权利保护的系统和方法 |
US5701400A (en) | 1995-03-08 | 1997-12-23 | Amado; Carlos Armando | Method and apparatus for applying if-then-else rules to data sets in a relational data base and generating from the results of application of said rules a database of diagnostics linked to said data sets to aid executive analysis of financial data |
US5749081A (en) | 1995-04-06 | 1998-05-05 | Firefly Network, Inc. | System and method for recommending items to a user |
US5642464A (en) | 1995-05-03 | 1997-06-24 | Northern Telecom Limited | Methods and apparatus for noise conditioning in digital speech compression systems using linear predictive coding |
US5664055A (en) | 1995-06-07 | 1997-09-02 | Lucent Technologies Inc. | CS-ACELP speech compression system with adaptive pitch prediction filter gain based on a measure of periodicity |
US5710886A (en) | 1995-06-16 | 1998-01-20 | Sellectsoft, L.C. | Electric couponing method and apparatus |
JP3284832B2 (ja) | 1995-06-22 | 2002-05-20 | セイコーエプソン株式会社 | 音声認識対話処理方法および音声認識対話装置 |
US6038533A (en) | 1995-07-07 | 2000-03-14 | Lucent Technologies Inc. | System and method for selecting training text |
US6026388A (en) | 1995-08-16 | 2000-02-15 | Textwise, Llc | User interface and other enhancements for natural language information retrieval system and method |
JP3697748B2 (ja) | 1995-08-21 | 2005-09-21 | セイコーエプソン株式会社 | 端末、音声認識装置 |
US5712957A (en) | 1995-09-08 | 1998-01-27 | Carnegie Mellon University | Locating and correcting erroneously recognized portions of utterances by rescoring based on two n-best lists |
US6173261B1 (en) | 1998-09-30 | 2001-01-09 | At&T Corp | Grammar fragment acquisition using syntactic and semantic clustering |
US5790978A (en) | 1995-09-15 | 1998-08-04 | Lucent Technologies, Inc. | System and method for determining pitch contours |
US5737734A (en) | 1995-09-15 | 1998-04-07 | Infonautics Corporation | Query word relevance adjustment in a search of an information retrieval system |
US5884323A (en) | 1995-10-13 | 1999-03-16 | 3Com Corporation | Extendible method and apparatus for synchronizing files on two different computer systems |
US5799276A (en) | 1995-11-07 | 1998-08-25 | Accent Incorporated | Knowledge-based speech recognition system and methods having frame length computed based upon estimated pitch period of vocalic intervals |
US5794237A (en) | 1995-11-13 | 1998-08-11 | International Business Machines Corporation | System and method for improving problem source identification in computer systems employing relevance feedback and statistical source ranking |
US5801692A (en) | 1995-11-30 | 1998-09-01 | Microsoft Corporation | Audio-visual user interface controls |
US5706442A (en) | 1995-12-20 | 1998-01-06 | Block Financial Corporation | System for on-line financial services using distributed objects |
US6119101A (en) | 1996-01-17 | 2000-09-12 | Personal Agents, Inc. | Intelligent agents for electronic commerce |
EP0876652B1 (en) | 1996-01-17 | 2013-06-26 | Paradox Technical Solutions LLC | Intelligent agents for electronic commerce |
US6125356A (en) | 1996-01-18 | 2000-09-26 | Rosefaire Development, Ltd. | Portable sales presentation system with selective scripted seller prompts |
US5987404A (en) | 1996-01-29 | 1999-11-16 | International Business Machines Corporation | Statistical natural language understanding using hidden clumpings |
US5729694A (en) | 1996-02-06 | 1998-03-17 | The Regents Of The University Of California | Speech coding, reconstruction and recognition using acoustics and electromagnetic waves |
US6076088A (en) | 1996-02-09 | 2000-06-13 | Paik; Woojin | Information extraction system and method using concept relation concept (CRC) triples |
US5835893A (en) | 1996-02-15 | 1998-11-10 | Atr Interpreting Telecommunications Research Labs | Class-based word clustering for speech recognition using a three-level balanced hierarchical similarity |
US5901287A (en) | 1996-04-01 | 1999-05-04 | The Sabre Group Inc. | Information aggregation and synthesization system |
US5867799A (en) | 1996-04-04 | 1999-02-02 | Lang; Andrew K. | Information system and method for filtering a massive flow of information entities to meet user information classification needs |
US5987140A (en) | 1996-04-26 | 1999-11-16 | Verifone, Inc. | System, method and article of manufacture for secure network electronic payment and credit collection |
US5963924A (en) | 1996-04-26 | 1999-10-05 | Verifone, Inc. | System, method and article of manufacture for the use of payment instrument holders and payment instruments in network electronic commerce |
US5913193A (en) | 1996-04-30 | 1999-06-15 | Microsoft Corporation | Method and system of runtime acoustic unit selection for speech synthesis |
US5857184A (en) | 1996-05-03 | 1999-01-05 | Walden Media, Inc. | Language and method for creating, organizing, and retrieving data from a database |
US5828999A (en) | 1996-05-06 | 1998-10-27 | Apple Computer, Inc. | Method and system for deriving a large-span semantic language model for large-vocabulary recognition systems |
FR2748342B1 (fr) | 1996-05-06 | 1998-07-17 | France Telecom | Procede et dispositif de filtrage par egalisation d'un signal de parole, mettant en oeuvre un modele statistique de ce signal |
US5826261A (en) | 1996-05-10 | 1998-10-20 | Spencer; Graham | System and method for querying multiple, distributed databases by selective sharing of local relative significance information for terms related to the query |
US6366883B1 (en) | 1996-05-15 | 2002-04-02 | Atr Interpreting Telecommunications | Concatenation of speech segments by use of a speech synthesizer |
US5727950A (en) | 1996-05-22 | 1998-03-17 | Netsage Corporation | Agent based instruction system and method |
US5966533A (en) | 1996-06-11 | 1999-10-12 | Excite, Inc. | Method and system for dynamically synthesizing a computer program by differentially resolving atoms based on user context data |
US5915249A (en) | 1996-06-14 | 1999-06-22 | Excite, Inc. | System and method for accelerated query evaluation of very large full-text databases |
US5987132A (en) | 1996-06-17 | 1999-11-16 | Verifone, Inc. | System, method and article of manufacture for conditionally accepting a payment method utilizing an extensible, flexible architecture |
US5825881A (en) | 1996-06-28 | 1998-10-20 | Allsoft Distributing Inc. | Public network merchandising system |
US6070147A (en) | 1996-07-02 | 2000-05-30 | Tecmark Services, Inc. | Customer identification and marketing analysis systems |
EP0912954B8 (en) | 1996-07-22 | 2006-06-14 | Cyva Research Corporation | Personal information security and exchange tool |
US5862223A (en) | 1996-07-24 | 1999-01-19 | Walker Asset Management Limited Partnership | Method and apparatus for a cryptographically-assisted commercial network system designed to facilitate and support expert-based commerce |
EP0829811A1 (en) | 1996-09-11 | 1998-03-18 | Nippon Telegraph And Telephone Corporation | Method and system for information retrieval |
US5973612A (en) * | 1996-09-19 | 1999-10-26 | Microsoft Corporation | Flexible object notification |
US6181935B1 (en) | 1996-09-27 | 2001-01-30 | Software.Com, Inc. | Mobility extended telephone application programming interface and method of use |
US5794182A (en) | 1996-09-30 | 1998-08-11 | Apple Computer, Inc. | Linear predictive speech encoding systems with efficient combination pitch coefficients computation |
US5721827A (en) | 1996-10-02 | 1998-02-24 | James Logan | System for electrically distributing personalized information |
US5913203A (en) | 1996-10-03 | 1999-06-15 | Jaesent Inc. | System and method for pseudo cash transactions |
US5930769A (en) | 1996-10-07 | 1999-07-27 | Rose; Andrea | System and method for fashion shopping |
US5836771A (en) | 1996-12-02 | 1998-11-17 | Ho; Chi Fai | Learning method and system based on questioning |
US6665639B2 (en) | 1996-12-06 | 2003-12-16 | Sensory, Inc. | Speech recognition in consumer electronic products |
US6078914A (en) | 1996-12-09 | 2000-06-20 | Open Text Corporation | Natural language meta-search system and method |
US5839106A (en) | 1996-12-17 | 1998-11-17 | Apple Computer, Inc. | Large-vocabulary speech recognition using an integrated syntactic and semantic statistical language model |
US5966126A (en) | 1996-12-23 | 1999-10-12 | Szabo; Andrew J. | Graphic user interface for database system |
US5932869A (en) | 1996-12-27 | 1999-08-03 | Graphic Technology, Inc. | Promotional system with magnetic stripe and visual thermo-reversible print surfaced medium |
US6111562A (en) * | 1997-01-06 | 2000-08-29 | Intel Corporation | System for generating an audible cue indicating the status of a display object |
JP3579204B2 (ja) | 1997-01-17 | 2004-10-20 | 富士通株式会社 | 文書要約装置およびその方法 |
US5941944A (en) | 1997-03-03 | 1999-08-24 | Microsoft Corporation | Method for providing a substitute for a requested inaccessible object by identifying substantially similar objects using weights corresponding to object features |
US6076051A (en) | 1997-03-07 | 2000-06-13 | Microsoft Corporation | Information retrieval utilizing semantic representation of text |
US5930801A (en) | 1997-03-07 | 1999-07-27 | Xerox Corporation | Shared-data environment in which each file has independent security properties |
US6078898A (en) | 1997-03-20 | 2000-06-20 | Schlumberger Technologies, Inc. | System and method of transactional taxation using secure stored data devices |
US5822743A (en) | 1997-04-08 | 1998-10-13 | 1215627 Ontario Inc. | Knowledge-based information retrieval system |
US5970474A (en) | 1997-04-24 | 1999-10-19 | Sears, Roebuck And Co. | Registry information system for shoppers |
US5895464A (en) | 1997-04-30 | 1999-04-20 | Eastman Kodak Company | Computer program product and a method for using natural language for the description, search and retrieval of multi-media objects |
EP1008084A1 (en) | 1997-07-02 | 2000-06-14 | Philippe J. M. Coueignoux | System and method for the secure discovery, exploitation and publication of information |
US5860063A (en) | 1997-07-11 | 1999-01-12 | At&T Corp | Automated meaningful phrase clustering |
US5933822A (en) | 1997-07-22 | 1999-08-03 | Microsoft Corporation | Apparatus and methods for an information retrieval system that employs natural language processing of search results to improve overall precision |
US5974146A (en) | 1997-07-30 | 1999-10-26 | Huntington Bancshares Incorporated | Real time bank-centric universal payment system |
US6016476A (en) | 1997-08-11 | 2000-01-18 | International Business Machines Corporation | Portable information and transaction processing system and method utilizing biometric authorization and digital certificate security |
US5895466A (en) | 1997-08-19 | 1999-04-20 | At&T Corp | Automated natural language understanding customer service system |
US6081774A (en) | 1997-08-22 | 2000-06-27 | Novell, Inc. | Natural language information retrieval system and method |
US6404876B1 (en) | 1997-09-25 | 2002-06-11 | Gte Intelligent Network Services Incorporated | System and method for voice activated dialing and routing under open access network control |
US6023684A (en) | 1997-10-01 | 2000-02-08 | Security First Technologies, Inc. | Three tier financial transaction system with cache memory |
US6385662B1 (en) * | 1997-10-03 | 2002-05-07 | Ericsson Inc. | Method of processing information using a personal communication assistant |
EP0911808B1 (en) | 1997-10-23 | 2002-05-08 | Sony International (Europe) GmbH | Speech interface in a home network environment |
US6108627A (en) | 1997-10-31 | 2000-08-22 | Nortel Networks Corporation | Automatic transcription tool |
US5943670A (en) | 1997-11-21 | 1999-08-24 | International Business Machines Corporation | System and method for categorizing objects in combined categories |
US5960422A (en) | 1997-11-26 | 1999-09-28 | International Business Machines Corporation | System and method for optimized source selection in an information retrieval system |
US6026375A (en) | 1997-12-05 | 2000-02-15 | Nortel Networks Corporation | Method and apparatus for processing orders from customers in a mobile environment |
US6064960A (en) | 1997-12-18 | 2000-05-16 | Apple Computer, Inc. | Method and apparatus for improved duration modeling of phonemes |
US6094649A (en) | 1997-12-22 | 2000-07-25 | Partnet, Inc. | Keyword searches of structured databases |
US6173287B1 (en) | 1998-03-11 | 2001-01-09 | Digital Equipment Corporation | Technique for ranking multimedia annotations of interest |
US6195641B1 (en) | 1998-03-27 | 2001-02-27 | International Business Machines Corp. | Network universal spoken language vocabulary |
US6026393A (en) | 1998-03-31 | 2000-02-15 | Casebank Technologies Inc. | Configuration knowledge as an aid to case retrieval |
US6233559B1 (en) | 1998-04-01 | 2001-05-15 | Motorola, Inc. | Speech control of multiple applications using applets |
US6173279B1 (en) | 1998-04-09 | 2001-01-09 | At&T Corp. | Method of using a natural language interface to retrieve information from one or more data resources |
US6088731A (en) | 1998-04-24 | 2000-07-11 | Associative Computing, Inc. | Intelligent assistant for use with a local computer and with the internet |
DE69904588T2 (de) | 1998-04-27 | 2003-09-25 | British Telecomm | Datenbankzugangswerkzeug |
US6029132A (en) | 1998-04-30 | 2000-02-22 | Matsushita Electric Industrial Co. | Method for letter-to-sound in text-to-speech synthesis |
US6016471A (en) | 1998-04-29 | 2000-01-18 | Matsushita Electric Industrial Co., Ltd. | Method and apparatus using decision trees to generate and score multiple pronunciations for a spelled word |
US6285786B1 (en) | 1998-04-30 | 2001-09-04 | Motorola, Inc. | Text recognizer and method using non-cumulative character scoring in a forward search |
US6144938A (en) | 1998-05-01 | 2000-11-07 | Sun Microsystems, Inc. | Voice user interface with personality |
US6297818B1 (en) | 1998-05-08 | 2001-10-02 | Apple Computer, Inc. | Graphical user interface having sound effects for operating control elements and dragging objects |
US6188967B1 (en) * | 1998-05-27 | 2001-02-13 | International Business Machines Corporation | Audio feedback control for manufacturing processes |
US7526466B2 (en) | 1998-05-28 | 2009-04-28 | Qps Tech Limited Liability Company | Method and system for analysis of intended meaning of natural language |
US7711672B2 (en) | 1998-05-28 | 2010-05-04 | Lawrence Au | Semantic network methods to disambiguate natural language meaning |
US6778970B2 (en) | 1998-05-28 | 2004-08-17 | Lawrence Au | Topological methods to organize semantic network data flows for conversational applications |
US6144958A (en) | 1998-07-15 | 2000-11-07 | Amazon.Com, Inc. | System and method for correcting spelling errors in search queries |
US6105865A (en) | 1998-07-17 | 2000-08-22 | Hardesty; Laurence Daniel | Financial transaction system with retirement saving benefit |
US6434524B1 (en) | 1998-09-09 | 2002-08-13 | One Voice Technologies, Inc. | Object interactive user interface using speech recognition and natural language processing |
US6499013B1 (en) | 1998-09-09 | 2002-12-24 | One Voice Technologies, Inc. | Interactive user interface using speech recognition and natural language processing |
DE19841541B4 (de) | 1998-09-11 | 2007-12-06 | Püllen, Rainer | Teilnehmereinheit für einen Multimediadienst |
US6266637B1 (en) | 1998-09-11 | 2001-07-24 | International Business Machines Corporation | Phrase splicing and variable substitution using a trainable speech synthesizer |
US6792082B1 (en) | 1998-09-11 | 2004-09-14 | Comverse Ltd. | Voice mail system with personal assistant provisioning |
US6317831B1 (en) | 1998-09-21 | 2001-11-13 | Openwave Systems Inc. | Method and apparatus for establishing a secure connection over a one-way data path |
WO2000021232A2 (en) | 1998-10-02 | 2000-04-13 | International Business Machines Corporation | Conversational browser and conversational systems |
US6275824B1 (en) | 1998-10-02 | 2001-08-14 | Ncr Corporation | System and method for managing data privacy in a database management system |
GB9821969D0 (en) | 1998-10-08 | 1998-12-02 | Canon Kk | Apparatus and method for processing natural language |
US6928614B1 (en) | 1998-10-13 | 2005-08-09 | Visteon Global Technologies, Inc. | Mobile office with speech recognition |
US6453292B2 (en) | 1998-10-28 | 2002-09-17 | International Business Machines Corporation | Command boundary identifier for conversational natural language |
US6208971B1 (en) | 1998-10-30 | 2001-03-27 | Apple Computer, Inc. | Method and apparatus for command recognition using data-driven semantic inference |
US6321092B1 (en) | 1998-11-03 | 2001-11-20 | Signal Soft Corporation | Multiple input data management for wireless location-based applications |
US6446076B1 (en) | 1998-11-12 | 2002-09-03 | Accenture Llp. | Voice interactive web-based agent system responsive to a user location for prioritizing and formatting information |
US6606599B2 (en) | 1998-12-23 | 2003-08-12 | Interactive Speech Technologies, Llc | Method for integrating computing processes with an interface controlled by voice actuated grammars |
AU772874B2 (en) | 1998-11-13 | 2004-05-13 | Scansoft, Inc. | Speech synthesis using concatenation of speech waveforms |
US6246981B1 (en) | 1998-11-25 | 2001-06-12 | International Business Machines Corporation | Natural language task-oriented dialog manager and method |
US7082397B2 (en) | 1998-12-01 | 2006-07-25 | Nuance Communications, Inc. | System for and method of creating and browsing a voice web |
US6260024B1 (en) | 1998-12-02 | 2001-07-10 | Gary Shkedy | Method and apparatus for facilitating buyer-driven purchase orders on a commercial network system |
US7881936B2 (en) | 1998-12-04 | 2011-02-01 | Tegic Communications, Inc. | Multimodal disambiguation of speech recognition |
US6317707B1 (en) | 1998-12-07 | 2001-11-13 | At&T Corp. | Automatic clustering of tokens from a corpus for grammar acquisition |
US6308149B1 (en) | 1998-12-16 | 2001-10-23 | Xerox Corporation | Grouping words with equivalent substrings by automatic clustering based on suffix relationships |
US6523172B1 (en) | 1998-12-17 | 2003-02-18 | Evolutionary Technologies International, Inc. | Parser translator system and method |
US6460029B1 (en) | 1998-12-23 | 2002-10-01 | Microsoft Corporation | System for improving search text |
US6523061B1 (en) | 1999-01-05 | 2003-02-18 | Sri International, Inc. | System, method, and article of manufacture for agent-based navigation in a speech-based data navigation system |
US7036128B1 (en) | 1999-01-05 | 2006-04-25 | Sri International Offices | Using a community of distributed electronic agents to support a highly mobile, ambient computing environment |
US6742021B1 (en) | 1999-01-05 | 2004-05-25 | Sri International, Inc. | Navigating network-based electronic information using spoken input with multimodal error feedback |
US6851115B1 (en) | 1999-01-05 | 2005-02-01 | Sri International | Software-based architecture for communication and cooperation among distributed electronic agents |
US6513063B1 (en) | 1999-01-05 | 2003-01-28 | Sri International | Accessing network-based electronic information through scripted online interfaces using spoken input |
US6757718B1 (en) | 1999-01-05 | 2004-06-29 | Sri International | Mobile navigation of network-based electronic information using spoken input |
US7152070B1 (en) | 1999-01-08 | 2006-12-19 | The Regents Of The University Of California | System and method for integrating and accessing multiple data sources within a data warehouse architecture |
US6505183B1 (en) | 1999-02-04 | 2003-01-07 | Authoria, Inc. | Human resource knowledge modeling and delivery system |
US6317718B1 (en) | 1999-02-26 | 2001-11-13 | Accenture Properties (2) B.V. | System, method and article of manufacture for location-based filtering for shopping agent in the physical world |
GB9904662D0 (en) | 1999-03-01 | 1999-04-21 | Canon Kk | Natural language search method and apparatus |
US6356905B1 (en) | 1999-03-05 | 2002-03-12 | Accenture Llp | System, method and article of manufacture for mobile communication utilizing an interface support framework |
US6928404B1 (en) | 1999-03-17 | 2005-08-09 | International Business Machines Corporation | System and methods for acoustic and language modeling for automatic speech recognition with large vocabularies |
US6584464B1 (en) | 1999-03-19 | 2003-06-24 | Ask Jeeves, Inc. | Grammar template query system |
US6469712B1 (en) | 1999-03-25 | 2002-10-22 | International Business Machines Corporation | Projected audio for computer displays |
WO2000058942A2 (en) | 1999-03-26 | 2000-10-05 | Koninklijke Philips Electronics N.V. | Client-server speech recognition |
US6356854B1 (en) | 1999-04-05 | 2002-03-12 | Delphi Technologies, Inc. | Holographic object position and type sensing system and method |
US6631346B1 (en) | 1999-04-07 | 2003-10-07 | Matsushita Electric Industrial Co., Ltd. | Method and apparatus for natural language parsing using multiple passes and tags |
WO2000060435A2 (en) | 1999-04-07 | 2000-10-12 | Rensselaer Polytechnic Institute | System and method for accessing personal information |
US6647260B2 (en) | 1999-04-09 | 2003-11-11 | Openwave Systems Inc. | Method and system facilitating web based provisioning of two-way mobile communications devices |
US6924828B1 (en) | 1999-04-27 | 2005-08-02 | Surfnotes | Method and apparatus for improved information representation |
US6697780B1 (en) | 1999-04-30 | 2004-02-24 | At&T Corp. | Method and apparatus for rapid acoustic unit selection from a large speech corpus |
US20020032564A1 (en) | 2000-04-19 | 2002-03-14 | Farzad Ehsani | Phrase-based dialogue modeling with particular application to creating a recognition grammar for a voice-controlled user interface |
EP1224569A4 (en) | 1999-05-28 | 2005-08-10 | Sehda Inc | PHRASE BASED DIALOGUE MODELING WITH SPECIAL APPLICATION FOR GENERATING RECOGNITION GRAMMARK FOR LANGUAGE-CONTROLLED USER INTERFACE |
US6931384B1 (en) | 1999-06-04 | 2005-08-16 | Microsoft Corporation | System and method providing utility-based decision making about clarification dialog given communicative uncertainty |
US6598039B1 (en) | 1999-06-08 | 2003-07-22 | Albert-Inc. S.A. | Natural language interface for searching database |
US8065155B1 (en) | 1999-06-10 | 2011-11-22 | Gazdzinski Robert F | Adaptive advertising apparatus and methods |
US7711565B1 (en) | 1999-06-10 | 2010-05-04 | Gazdzinski Robert F | “Smart” elevator system and method |
US7093693B1 (en) | 1999-06-10 | 2006-08-22 | Gazdzinski Robert F | Elevator access control system and method |
US6615175B1 (en) | 1999-06-10 | 2003-09-02 | Robert F. Gazdzinski | “Smart” elevator system and method |
US6711585B1 (en) | 1999-06-15 | 2004-03-23 | Kanisa Inc. | System and method for implementing a knowledge management system |
JP3361291B2 (ja) | 1999-07-23 | 2003-01-07 | コナミ株式会社 | 音声合成方法、音声合成装置及び音声合成プログラムを記録したコンピュータ読み取り可能な媒体 |
US6421672B1 (en) | 1999-07-27 | 2002-07-16 | Verizon Services Corp. | Apparatus for and method of disambiguation of directory listing searches utilizing multiple selectable secondary search keys |
EP1079387A3 (en) | 1999-08-26 | 2003-07-09 | Matsushita Electric Industrial Co., Ltd. | Mechanism for storing information about recorded television broadcasts |
US6697824B1 (en) | 1999-08-31 | 2004-02-24 | Accenture Llp | Relationship management in an E-commerce application framework |
US6912499B1 (en) | 1999-08-31 | 2005-06-28 | Nortel Networks Limited | Method and apparatus for training a multilingual speech model set |
US6601234B1 (en) | 1999-08-31 | 2003-07-29 | Accenture Llp | Attribute dictionary in a business logic services environment |
US7127403B1 (en) | 1999-09-13 | 2006-10-24 | Microstrategy, Inc. | System and method for personalizing an interactive voice broadcast of a voice service based on particulars of a request |
US6601026B2 (en) | 1999-09-17 | 2003-07-29 | Discern Communications, Inc. | Information retrieval by natural language querying |
US6505175B1 (en) | 1999-10-06 | 2003-01-07 | Goldman, Sachs & Co. | Order centric tracking system |
US6625583B1 (en) | 1999-10-06 | 2003-09-23 | Goldman, Sachs & Co. | Handheld trading system interface |
US7020685B1 (en) | 1999-10-08 | 2006-03-28 | Openwave Systems Inc. | Method and apparatus for providing internet content to SMS-based wireless devices |
US7447635B1 (en) | 1999-10-19 | 2008-11-04 | Sony Corporation | Natural language interface control system |
US6771982B1 (en) * | 1999-10-20 | 2004-08-03 | Curo Interactive Incorporated | Single action audio prompt interface utlizing binary state time domain multiple selection protocol |
US6807574B1 (en) | 1999-10-22 | 2004-10-19 | Tellme Networks, Inc. | Method and apparatus for content personalization over a telephone interface |
JP2001125896A (ja) | 1999-10-26 | 2001-05-11 | Victor Co Of Japan Ltd | 自然言語対話システム |
US7310600B1 (en) | 1999-10-28 | 2007-12-18 | Canon Kabushiki Kaisha | Language recognition using a similarity measure |
US9076448B2 (en) | 1999-11-12 | 2015-07-07 | Nuance Communications, Inc. | Distributed real time speech recognition system |
US6615172B1 (en) | 1999-11-12 | 2003-09-02 | Phoenix Solutions, Inc. | Intelligent query engine for processing voice based queries |
US7392185B2 (en) | 1999-11-12 | 2008-06-24 | Phoenix Solutions, Inc. | Speech based learning/training system using semantic decoding |
US7725307B2 (en) | 1999-11-12 | 2010-05-25 | Phoenix Solutions, Inc. | Query engine for processing voice based queries including semantic decoding |
US7050977B1 (en) | 1999-11-12 | 2006-05-23 | Phoenix Solutions, Inc. | Speech-enabled server for internet website and method |
US6633846B1 (en) | 1999-11-12 | 2003-10-14 | Phoenix Solutions, Inc. | Distributed realtime speech recognition system |
US6665640B1 (en) | 1999-11-12 | 2003-12-16 | Phoenix Solutions, Inc. | Interactive speech based learning/training system formulating search queries based on natural language parsing of recognized user queries |
US6532446B1 (en) | 1999-11-24 | 2003-03-11 | Openwave Systems Inc. | Server based speech recognition user interface for wireless devices |
US6526382B1 (en) | 1999-12-07 | 2003-02-25 | Comverse, Inc. | Language-oriented user interfaces for voice activated services |
US6978127B1 (en) * | 1999-12-16 | 2005-12-20 | Koninklijke Philips Electronics N.V. | Hand-ear user interface for hand-held device |
US6526395B1 (en) | 1999-12-31 | 2003-02-25 | Intel Corporation | Application of personality models and interaction with synthetic characters in a computing system |
US7024366B1 (en) * | 2000-01-10 | 2006-04-04 | Delphi Technologies, Inc. | Speech recognition with user specific adaptive voice feedback |
US6556983B1 (en) | 2000-01-12 | 2003-04-29 | Microsoft Corporation | Methods and apparatus for finding semantic information, such as usage logs, similar to a query using a pattern lattice data space |
US6546388B1 (en) | 2000-01-14 | 2003-04-08 | International Business Machines Corporation | Metadata search results ranking system |
US6701294B1 (en) | 2000-01-19 | 2004-03-02 | Lucent Technologies, Inc. | User interface for translating natural language inquiries into database queries and data presentations |
US6269712B1 (en) * | 2000-01-28 | 2001-08-07 | John Zentmyer | Automotive full locking differential |
US6829603B1 (en) | 2000-02-02 | 2004-12-07 | International Business Machines Corp. | System, method and program product for interactive natural dialog |
US6895558B1 (en) | 2000-02-11 | 2005-05-17 | Microsoft Corporation | Multi-access mode electronic personal assistant |
US6640098B1 (en) | 2000-02-14 | 2003-10-28 | Action Engine Corporation | System for obtaining service-related information for local interactive wireless devices |
US6847979B2 (en) | 2000-02-25 | 2005-01-25 | Synquiry Technologies, Ltd | Conceptual factoring and unification of graphs representing semantic models |
US6895380B2 (en) | 2000-03-02 | 2005-05-17 | Electro Standards Laboratories | Voice actuation with contextual learning for intelligent machine control |
US6449620B1 (en) | 2000-03-02 | 2002-09-10 | Nimble Technology, Inc. | Method and apparatus for generating information pages using semi-structured data stored in a structured manner |
US6757362B1 (en) | 2000-03-06 | 2004-06-29 | Avaya Technology Corp. | Personal virtual assistant |
EP1275042A2 (en) | 2000-03-06 | 2003-01-15 | Kanisa Inc. | A system and method for providing an intelligent multi-step dialog with a user |
US6466654B1 (en) | 2000-03-06 | 2002-10-15 | Avaya Technology Corp. | Personal virtual assistant with semantic tagging |
US6477488B1 (en) | 2000-03-10 | 2002-11-05 | Apple Computer, Inc. | Method for dynamic context scope selection in hybrid n-gram+LSA language modeling |
US6615220B1 (en) | 2000-03-14 | 2003-09-02 | Oracle International Corporation | Method and mechanism for data consolidation |
US6510417B1 (en) | 2000-03-21 | 2003-01-21 | America Online, Inc. | System and method for voice access to internet-based information |
GB2366009B (en) | 2000-03-22 | 2004-07-21 | Canon Kk | Natural language machine interface |
JP3728172B2 (ja) | 2000-03-31 | 2005-12-21 | キヤノン株式会社 | 音声合成方法および装置 |
US7177798B2 (en) | 2000-04-07 | 2007-02-13 | Rensselaer Polytechnic Institute | Natural language interface using constrained intermediate dictionary of results |
US6810379B1 (en) | 2000-04-24 | 2004-10-26 | Sensory, Inc. | Client/server architecture for text-to-speech synthesis |
US6684187B1 (en) | 2000-06-30 | 2004-01-27 | At&T Corp. | Method and system for preselection of suitable units for concatenative speech |
US6691111B2 (en) | 2000-06-30 | 2004-02-10 | Research In Motion Limited | System and method for implementing a natural language user interface |
US6505158B1 (en) | 2000-07-05 | 2003-01-07 | At&T Corp. | Synthesis-based pre-selection of suitable units for concatenative speech |
JP3949356B2 (ja) | 2000-07-12 | 2007-07-25 | 三菱電機株式会社 | 音声対話システム |
US7139709B2 (en) | 2000-07-20 | 2006-11-21 | Microsoft Corporation | Middleware layer between speech related applications and engines |
JP2002041276A (ja) | 2000-07-24 | 2002-02-08 | Sony Corp | 対話型操作支援システム及び対話型操作支援方法、並びに記憶媒体 |
US20060143007A1 (en) | 2000-07-24 | 2006-06-29 | Koh V E | User interaction with voice information services |
US7092928B1 (en) | 2000-07-31 | 2006-08-15 | Quantum Leap Research, Inc. | Intelligent portal engine |
US6778951B1 (en) | 2000-08-09 | 2004-08-17 | Concerto Software, Inc. | Information retrieval method with natural language interface |
US6766320B1 (en) | 2000-08-24 | 2004-07-20 | Microsoft Corporation | Search engine with natural language-based robust parsing for user query and relevance feedback learning |
DE10042944C2 (de) | 2000-08-31 | 2003-03-13 | Siemens Ag | Graphem-Phonem-Konvertierung |
AU2001290882A1 (en) | 2000-09-15 | 2002-03-26 | Lernout And Hauspie Speech Products N.V. | Fast waveform synchronization for concatenation and time-scale modification of speech |
US7216080B2 (en) | 2000-09-29 | 2007-05-08 | Mindfabric Holdings Llc | Natural-language voice-activated personal assistant |
US6832194B1 (en) | 2000-10-26 | 2004-12-14 | Sensory, Incorporated | Audio recognition peripheral system |
US7027974B1 (en) | 2000-10-27 | 2006-04-11 | Science Applications International Corporation | Ontology-based parser for natural language processing |
US7006969B2 (en) | 2000-11-02 | 2006-02-28 | At&T Corp. | System and method of pattern recognition in very high-dimensional space |
WO2002050816A1 (en) | 2000-12-18 | 2002-06-27 | Koninklijke Philips Electronics N.V. | Store speech, select vocabulary to recognize word |
US6937986B2 (en) | 2000-12-28 | 2005-08-30 | Comverse, Inc. | Automatic dynamic speech recognition vocabulary based on external sources of information |
AU2001255568A1 (en) | 2000-12-29 | 2002-07-16 | General Electric Company | Method and system for identifying repeatedly malfunctioning equipment |
US7257537B2 (en) | 2001-01-12 | 2007-08-14 | International Business Machines Corporation | Method and apparatus for performing dialog management in a computer conversational interface |
US6964023B2 (en) | 2001-02-05 | 2005-11-08 | International Business Machines Corporation | System and method for multi-modal focus detection, referential ambiguity resolution and mood classification using multi-modal input |
US7698652B2 (en) * | 2001-02-09 | 2010-04-13 | Koninklijke Philips Electronics N.V. | Rapid retrieval user interface designed around small displays and few buttons for searching long lists |
US7290039B1 (en) | 2001-02-27 | 2007-10-30 | Microsoft Corporation | Intent based processing |
US6721728B2 (en) | 2001-03-02 | 2004-04-13 | The United States Of America As Represented By The Administrator Of The National Aeronautics And Space Administration | System, method and apparatus for discovering phrases in a database |
EP1490790A2 (en) | 2001-03-13 | 2004-12-29 | Intelligate Ltd. | Dynamic natural language understanding |
US6996531B2 (en) | 2001-03-30 | 2006-02-07 | Comverse Ltd. | Automated database assistance using a telephone for a speech based or text based multimedia communication mode |
CA2441195C (en) * | 2001-04-19 | 2008-08-26 | British Telecommunications Public Limited Company | Voice response system |
US6654740B2 (en) | 2001-05-08 | 2003-11-25 | Sunflare Co., Ltd. | Probabilistic information retrieval based on differential latent semantic space |
US7085722B2 (en) | 2001-05-14 | 2006-08-01 | Sony Computer Entertainment America Inc. | System and method for menu-driven voice control of characters in a game environment |
US6944594B2 (en) | 2001-05-30 | 2005-09-13 | Bellsouth Intellectual Property Corporation | Multi-context conversational environment system and method |
US20020194003A1 (en) | 2001-06-05 | 2002-12-19 | Mozer Todd F. | Client-server security system and method |
US20020198714A1 (en) | 2001-06-26 | 2002-12-26 | Guojun Zhou | Statistical spoken dialog system |
US7139722B2 (en) | 2001-06-27 | 2006-11-21 | Bellsouth Intellectual Property Corporation | Location and time sensitive wireless calendaring |
US6604059B2 (en) | 2001-07-10 | 2003-08-05 | Koninklijke Philips Electronics N.V. | Predictive calendar |
US7987151B2 (en) | 2001-08-10 | 2011-07-26 | General Dynamics Advanced Info Systems, Inc. | Apparatus and method for problem solving using intelligent agents |
US7176931B2 (en) * | 2001-08-13 | 2007-02-13 | International Business Machines Corporation | Modifying hyperlink display characteristics |
US6813491B1 (en) | 2001-08-31 | 2004-11-02 | Openwave Systems Inc. | Method and apparatus for adapting settings of wireless communication devices in accordance with user proximity |
US7403938B2 (en) | 2001-09-24 | 2008-07-22 | Iac Search & Media, Inc. | Natural language query processing |
US20050196732A1 (en) | 2001-09-26 | 2005-09-08 | Scientific Learning Corporation | Method and apparatus for automated training of language learning skills |
US6985865B1 (en) | 2001-09-26 | 2006-01-10 | Sprint Spectrum L.P. | Method and system for enhanced response to voice commands in a voice command platform |
US6650735B2 (en) | 2001-09-27 | 2003-11-18 | Microsoft Corporation | Integrated voice access to a variety of personal information services |
US7324947B2 (en) | 2001-10-03 | 2008-01-29 | Promptu Systems Corporation | Global speech user interface |
US7167832B2 (en) | 2001-10-15 | 2007-01-23 | At&T Corp. | Method for dialog management |
US7312785B2 (en) * | 2001-10-22 | 2007-12-25 | Apple Inc. | Method and apparatus for accelerated scrolling |
GB2381409B (en) | 2001-10-27 | 2004-04-28 | Hewlett Packard Ltd | Asynchronous access to synchronous voice services |
NO316480B1 (no) | 2001-11-15 | 2004-01-26 | Forinnova As | Fremgangsmåte og system for tekstuell granskning og oppdagelse |
US20030101054A1 (en) | 2001-11-27 | 2003-05-29 | Ncc, Llc | Integrated system and method for electronic speech recognition and transcription |
TW541517B (en) | 2001-12-25 | 2003-07-11 | Univ Nat Cheng Kung | Speech recognition system |
US7197460B1 (en) | 2002-04-23 | 2007-03-27 | At&T Corp. | System for handling frequently asked questions in a natural language dialog service |
US6847966B1 (en) | 2002-04-24 | 2005-01-25 | Engenium Corporation | Method and system for optimally searching a document database using a representative semantic space |
US7546382B2 (en) | 2002-05-28 | 2009-06-09 | International Business Machines Corporation | Methods and systems for authoring of mixed-initiative multi-modal interactions and related browsing mechanisms |
US7398209B2 (en) | 2002-06-03 | 2008-07-08 | Voicebox Technologies, Inc. | Systems and methods for responding to natural language speech utterance |
US20030236582A1 (en) * | 2002-06-25 | 2003-12-25 | Lee Zamir | Selection of items based on user reactions |
US7233790B2 (en) | 2002-06-28 | 2007-06-19 | Openwave Systems, Inc. | Device capability based discovery, packaging and provisioning of content for wireless mobile devices |
US7299033B2 (en) | 2002-06-28 | 2007-11-20 | Openwave Systems Inc. | Domain-based management of distribution of digital content from multiple suppliers to multiple wireless services subscribers |
US7693720B2 (en) | 2002-07-15 | 2010-04-06 | Voicebox Technologies, Inc. | Mobile systems and methods for responding to natural language speech utterance |
US20040036715A1 (en) | 2002-08-26 | 2004-02-26 | Peter Warren | Multi-level user help |
US7467087B1 (en) | 2002-10-10 | 2008-12-16 | Gillick Laurence S | Training and using pronunciation guessers in speech recognition |
US7783486B2 (en) | 2002-11-22 | 2010-08-24 | Roy Jonathan Rosser | Response generator for mimicking human-computer natural language conversation |
EP2017828A1 (en) | 2002-12-10 | 2009-01-21 | Kirusa, Inc. | Techniques for disambiguating speech input using multimodal interfaces |
US7386449B2 (en) | 2002-12-11 | 2008-06-10 | Voice Enabling Systems Technology Inc. | Knowledge-based flexible natural speech dialogue system |
US7956766B2 (en) | 2003-01-06 | 2011-06-07 | Panasonic Corporation | Apparatus operating system |
US7529671B2 (en) | 2003-03-04 | 2009-05-05 | Microsoft Corporation | Block synchronous decoding |
US6980949B2 (en) | 2003-03-14 | 2005-12-27 | Sonum Technologies, Inc. | Natural language processor |
US7496498B2 (en) | 2003-03-24 | 2009-02-24 | Microsoft Corporation | Front-end architecture for a multi-lingual text-to-speech system |
US7421393B1 (en) | 2004-03-01 | 2008-09-02 | At&T Corp. | System for developing a dialog manager using modular spoken-dialog components |
US7200559B2 (en) | 2003-05-29 | 2007-04-03 | Microsoft Corporation | Semantic object synchronous understanding implemented with speech application language tags |
US7720683B1 (en) | 2003-06-13 | 2010-05-18 | Sensory, Inc. | Method and apparatus of specifying and performing speech recognition operations |
US7231633B2 (en) * | 2003-07-15 | 2007-06-12 | Lsi Corporation | Debugging with set verbosity level during read and analysis of executable code and associated comments while logging according to set verbosity level |
US7475010B2 (en) | 2003-09-03 | 2009-01-06 | Lingospot, Inc. | Adaptive and scalable method for resolving natural language ambiguities |
JP4314463B2 (ja) | 2003-09-05 | 2009-08-19 | 横河電機株式会社 | アラーム管理システム |
US7418392B1 (en) | 2003-09-25 | 2008-08-26 | Sensory, Inc. | System and method for controlling the operation of a device by voice commands |
US7155706B2 (en) | 2003-10-24 | 2006-12-26 | Microsoft Corporation | Administrative tool environment |
US7412385B2 (en) | 2003-11-12 | 2008-08-12 | Microsoft Corporation | System for identifying paraphrases using machine translation |
US7584092B2 (en) | 2004-11-15 | 2009-09-01 | Microsoft Corporation | Unsupervised learning of paraphrase/translation alternations and selective application thereof |
US7447630B2 (en) | 2003-11-26 | 2008-11-04 | Microsoft Corporation | Method and apparatus for multi-sensory speech enhancement |
JP4533845B2 (ja) | 2003-12-05 | 2010-09-01 | 株式会社ケンウッド | オーディオ機器制御装置、オーディオ機器制御方法及びプログラム |
ATE404967T1 (de) | 2003-12-16 | 2008-08-15 | Loquendo Spa | Text-zu-sprache-system und verfahren, computerprogramm dafür |
US7427024B1 (en) | 2003-12-17 | 2008-09-23 | Gazdzinski Mark J | Chattel management apparatus and methods |
US7552055B2 (en) | 2004-01-10 | 2009-06-23 | Microsoft Corporation | Dialog component re-use in recognition systems |
US7567896B2 (en) | 2004-01-16 | 2009-07-28 | Nuance Communications, Inc. | Corpus-based speech synthesis based on segment recombination |
US20050165607A1 (en) | 2004-01-22 | 2005-07-28 | At&T Corp. | System and method to disambiguate and clarify user intention in a spoken dialog system |
EP1560200B8 (en) | 2004-01-29 | 2009-08-05 | Harman Becker Automotive Systems GmbH | Method and system for spoken dialogue interface |
KR100462292B1 (ko) | 2004-02-26 | 2004-12-17 | 엔에이치엔(주) | 중요도 정보를 반영한 검색 결과 리스트 제공 방법 및 그시스템 |
US7693715B2 (en) | 2004-03-10 | 2010-04-06 | Microsoft Corporation | Generating large units of graphonemes with mutual information criterion for letter to sound conversion |
US7409337B1 (en) | 2004-03-30 | 2008-08-05 | Microsoft Corporation | Natural language processing interface |
US7496512B2 (en) | 2004-04-13 | 2009-02-24 | Microsoft Corporation | Refining of segmental boundaries in speech waveforms using contextual-dependent models |
US7809825B2 (en) * | 2004-05-05 | 2010-10-05 | International Business Machines Corporation | Dissolving network resource monitor |
US8095364B2 (en) | 2004-06-02 | 2012-01-10 | Tegic Communications, Inc. | Multimodal disambiguation of speech recognition |
US7720674B2 (en) | 2004-06-29 | 2010-05-18 | Sap Ag | Systems and methods for processing natural language queries |
TWI252049B (en) | 2004-07-23 | 2006-03-21 | Inventec Corp | Sound control system and method |
US7725318B2 (en) | 2004-07-30 | 2010-05-25 | Nice Systems Inc. | System and method for improving the accuracy of audio searching |
US7853574B2 (en) | 2004-08-26 | 2010-12-14 | International Business Machines Corporation | Method of generating a context-inferenced search query and of sorting a result of the query |
US20060050865A1 (en) * | 2004-09-07 | 2006-03-09 | Sbc Knowledge Ventures, Lp | System and method for adapting the level of instructional detail provided through a user interface |
ITRM20040447A1 (it) * | 2004-09-22 | 2004-12-22 | Link Formazione S R L | Sistema di fornitura di seminari interattivi, e relativo metodo. |
US7716056B2 (en) | 2004-09-27 | 2010-05-11 | Robert Bosch Corporation | Method and system for interactive conversational dialogue for cognitively overloaded device users |
US8107401B2 (en) | 2004-09-30 | 2012-01-31 | Avaya Inc. | Method and apparatus for providing a virtual assistant to a communication participant |
US7552046B2 (en) | 2004-11-15 | 2009-06-23 | Microsoft Corporation | Unsupervised learning of paraphrase/translation alternations and selective application thereof |
US7546235B2 (en) | 2004-11-15 | 2009-06-09 | Microsoft Corporation | Unsupervised learning of paraphrase/translation alternations and selective application thereof |
US7702500B2 (en) | 2004-11-24 | 2010-04-20 | Blaedow Karen R | Method and apparatus for determining the meaning of natural language |
CN1609859A (zh) | 2004-11-26 | 2005-04-27 | 孙斌 | 搜索结果聚类的方法 |
US7376645B2 (en) | 2004-11-29 | 2008-05-20 | The Intellection Group, Inc. | Multimodal natural language query system and architecture for processing voice and proximity-based queries |
US8606516B2 (en) * | 2004-11-30 | 2013-12-10 | Dash Navigation, Inc. | User interface system and method for a vehicle navigation device |
US8214214B2 (en) | 2004-12-03 | 2012-07-03 | Phoenix Solutions, Inc. | Emotion detection device and method for use in distributed systems |
US20060122834A1 (en) | 2004-12-03 | 2006-06-08 | Bennett Ian M | Emotion detection device & method for use in distributed systems |
US7636657B2 (en) | 2004-12-09 | 2009-12-22 | Microsoft Corporation | Method and apparatus for automatic grammar generation from data entries |
US7593782B2 (en) | 2005-01-07 | 2009-09-22 | Apple Inc. | Highly portable media device |
US7873654B2 (en) | 2005-01-24 | 2011-01-18 | The Intellection Group, Inc. | Multimodal natural language query system for processing and analyzing voice and proximity-based queries |
US7508373B2 (en) | 2005-01-28 | 2009-03-24 | Microsoft Corporation | Form factor and input method for language input |
GB0502259D0 (en) | 2005-02-03 | 2005-03-09 | British Telecomm | Document searching tool and method |
US7676026B1 (en) | 2005-03-08 | 2010-03-09 | Baxtech Asia Pte Ltd | Desktop telephony system |
US20060218506A1 (en) | 2005-03-23 | 2006-09-28 | Edward Srenger | Adaptive menu for a user interface |
US7925525B2 (en) | 2005-03-25 | 2011-04-12 | Microsoft Corporation | Smart reminders |
WO2006129967A1 (en) | 2005-05-30 | 2006-12-07 | Daumsoft, Inc. | Conversation system and method using conversational agent |
US8041570B2 (en) | 2005-05-31 | 2011-10-18 | Robert Bosch Corporation | Dialogue management using scripts |
US8024195B2 (en) | 2005-06-27 | 2011-09-20 | Sensory, Inc. | Systems and methods of performing speech recognition using historical information |
US7538685B1 (en) * | 2005-06-28 | 2009-05-26 | Avaya Inc. | Use of auditory feedback and audio queues in the realization of a personal virtual assistant |
US7826945B2 (en) | 2005-07-01 | 2010-11-02 | You Zhang | Automobile speech-recognition interface |
WO2007019480A2 (en) | 2005-08-05 | 2007-02-15 | Realnetworks, Inc. | System and computer program product for chronologically presenting data |
US7640160B2 (en) | 2005-08-05 | 2009-12-29 | Voicebox Technologies, Inc. | Systems and methods for responding to natural language speech utterance |
US7620549B2 (en) | 2005-08-10 | 2009-11-17 | Voicebox Technologies, Inc. | System and method of supporting adaptive misrecognition in conversational speech |
US7949529B2 (en) | 2005-08-29 | 2011-05-24 | Voicebox Technologies, Inc. | Mobile systems and methods of supporting natural language human-machine interactions |
EP1934971A4 (en) | 2005-08-31 | 2010-10-27 | Voicebox Technologies Inc | DYNAMIC LANGUAGE SCRIPTURE |
US8265939B2 (en) | 2005-08-31 | 2012-09-11 | Nuance Communications, Inc. | Hierarchical methods and apparatus for extracting user intent from spoken utterances |
US8677377B2 (en) | 2005-09-08 | 2014-03-18 | Apple Inc. | Method and apparatus for building an intelligent automated assistant |
JP4908094B2 (ja) | 2005-09-30 | 2012-04-04 | 株式会社リコー | 情報処理システム、情報処理方法及び情報処理プログラム |
US7930168B2 (en) | 2005-10-04 | 2011-04-19 | Robert Bosch Gmbh | Natural language processing of disfluent sentences |
US8620667B2 (en) | 2005-10-17 | 2013-12-31 | Microsoft Corporation | Flexible speech-activated command and control |
US7707032B2 (en) | 2005-10-20 | 2010-04-27 | National Cheng Kung University | Method and system for matching speech data |
US20070100883A1 (en) | 2005-10-31 | 2007-05-03 | Rose Daniel E | Methods for providing audio feedback during the navigation of collections of information |
US20070106674A1 (en) | 2005-11-10 | 2007-05-10 | Purusharth Agrawal | Field sales process facilitation systems and methods |
US20070185926A1 (en) | 2005-11-28 | 2007-08-09 | Anand Prahlad | Systems and methods for classifying and transferring information in a storage network |
KR20070057496A (ko) | 2005-12-02 | 2007-06-07 | 삼성전자주식회사 | 액정 표시 장치 |
KR100810500B1 (ko) | 2005-12-08 | 2008-03-07 | 한국전자통신연구원 | 대화형 음성 인터페이스 시스템에서의 사용자 편의성증대 방법 |
DE102005061365A1 (de) | 2005-12-21 | 2007-06-28 | Siemens Ag | Verfahren zur Ansteuerung zumindest einer ersten und zweiten Hintergrundapplikation über ein universelles Sprachdialogsystem |
US7996228B2 (en) | 2005-12-22 | 2011-08-09 | Microsoft Corporation | Voice initiated network operations |
US7599918B2 (en) | 2005-12-29 | 2009-10-06 | Microsoft Corporation | Dynamic search with implicit user intention mining |
JP2007183864A (ja) | 2006-01-10 | 2007-07-19 | Fujitsu Ltd | ファイル検索方法及びそのシステム |
US20070174188A1 (en) | 2006-01-25 | 2007-07-26 | Fish Robert D | Electronic marketplace that facilitates transactions between consolidated buyers and/or sellers |
IL174107A0 (en) | 2006-02-01 | 2006-08-01 | Grois Dan | Method and system for advertising by means of a search engine over a data network |
US20070192027A1 (en) | 2006-02-13 | 2007-08-16 | Research In Motion Limited | Navigation tool with audible feedback on a wireless handheld communication device |
US8209063B2 (en) | 2006-02-13 | 2012-06-26 | Research In Motion Limited | Navigation tool with audible feedback on a handheld communication device |
KR100764174B1 (ko) | 2006-03-03 | 2007-10-08 | 삼성전자주식회사 | 음성 대화 서비스 장치 및 방법 |
US7752152B2 (en) | 2006-03-17 | 2010-07-06 | Microsoft Corporation | Using predictive user models for language modeling on a personal device with user behavior models based on statistical modeling |
JP4734155B2 (ja) | 2006-03-24 | 2011-07-27 | 株式会社東芝 | 音声認識装置、音声認識方法および音声認識プログラム |
US7707027B2 (en) | 2006-04-13 | 2010-04-27 | Nuance Communications, Inc. | Identification and rejection of meaningless input during natural language classification |
US7676699B2 (en) * | 2006-04-28 | 2010-03-09 | Microsoft Corporation | Event trace conditional logging |
US8423347B2 (en) | 2006-06-06 | 2013-04-16 | Microsoft Corporation | Natural language personal information management |
US20100257160A1 (en) | 2006-06-07 | 2010-10-07 | Yu Cao | Methods & apparatus for searching with awareness of different types of information |
US7483894B2 (en) | 2006-06-07 | 2009-01-27 | Platformation Technologies, Inc | Methods and apparatus for entity search |
US7523108B2 (en) | 2006-06-07 | 2009-04-21 | Platformation, Inc. | Methods and apparatus for searching with awareness of geography and languages |
KR100776800B1 (ko) | 2006-06-16 | 2007-11-19 | 한국전자통신연구원 | 지능형 가제트를 이용한 맞춤형 서비스 제공 방법 및시스템 |
US7548895B2 (en) | 2006-06-30 | 2009-06-16 | Microsoft Corporation | Communication-prompted user assistance |
US9318108B2 (en) | 2010-01-18 | 2016-04-19 | Apple Inc. | Intelligent automated assistant |
US8073681B2 (en) | 2006-10-16 | 2011-12-06 | Voicebox Technologies, Inc. | System and method for a cooperative conversational voice user interface |
US8037179B2 (en) * | 2006-11-02 | 2011-10-11 | Storz Endoskop Produktions Gmbh | Device control system employing extensible markup language for defining information resources |
US20080129520A1 (en) | 2006-12-01 | 2008-06-05 | Apple Computer, Inc. | Electronic device with enhanced audio feedback |
WO2008085742A2 (en) | 2007-01-07 | 2008-07-17 | Apple Inc. | Portable multifunction device, method and graphical user interface for interacting with user input elements in displayed content |
KR100883657B1 (ko) | 2007-01-26 | 2009-02-18 | 삼성전자주식회사 | 음성 인식 기반의 음악 검색 방법 및 장치 |
US7818176B2 (en) | 2007-02-06 | 2010-10-19 | Voicebox Technologies, Inc. | System and method for selecting and presenting advertisements based on natural language processing of voice-based input |
US7822608B2 (en) | 2007-02-27 | 2010-10-26 | Nuance Communications, Inc. | Disambiguating a speech recognition grammar in a multimodal application |
US20080221900A1 (en) | 2007-03-07 | 2008-09-11 | Cerra Joseph P | Mobile local search environment speech processing facility |
US7801729B2 (en) | 2007-03-13 | 2010-09-21 | Sensory, Inc. | Using multiple attributes to create a voice search playlist |
US8924844B2 (en) * | 2007-03-13 | 2014-12-30 | Visual Cues Llc | Object annotation |
US8219406B2 (en) | 2007-03-15 | 2012-07-10 | Microsoft Corporation | Speech-centric multimodal user interface design in mobile technology |
US7809610B2 (en) | 2007-04-09 | 2010-10-05 | Platformation, Inc. | Methods and apparatus for freshness and completeness of information |
US7983915B2 (en) | 2007-04-30 | 2011-07-19 | Sonic Foundry, Inc. | Audio content search engine |
US8055708B2 (en) | 2007-06-01 | 2011-11-08 | Microsoft Corporation | Multimedia spaces |
US8204238B2 (en) | 2007-06-08 | 2012-06-19 | Sensory, Inc | Systems and methods of sonic communication |
US8190627B2 (en) | 2007-06-28 | 2012-05-29 | Microsoft Corporation | Machine assisted query formulation |
US8019606B2 (en) | 2007-06-29 | 2011-09-13 | Microsoft Corporation | Identification and selection of a software application via speech |
US7617074B2 (en) * | 2007-07-06 | 2009-11-10 | Microsoft Corporation | Suppressing repeated events and storing diagnostic information |
JP2009036999A (ja) | 2007-08-01 | 2009-02-19 | Infocom Corp | コンピュータによる対話方法、対話システム、コンピュータプログラムおよびコンピュータに読み取り可能な記憶媒体 |
KR101359715B1 (ko) | 2007-08-24 | 2014-02-10 | 삼성전자주식회사 | 모바일 음성 웹 제공 방법 및 장치 |
US8190359B2 (en) | 2007-08-31 | 2012-05-29 | Proxpro, Inc. | Situation-aware personal information management for a mobile device |
US8826132B2 (en) | 2007-09-04 | 2014-09-02 | Apple Inc. | Methods and systems for navigating content on a portable device |
US8683378B2 (en) * | 2007-09-04 | 2014-03-25 | Apple Inc. | Scrolling techniques for user interfaces |
US20090058823A1 (en) | 2007-09-04 | 2009-03-05 | Apple Inc. | Virtual Keyboards in Multi-Language Environment |
US8171117B2 (en) | 2007-09-14 | 2012-05-01 | Ricoh Co. Ltd. | Workflow manager for a distributed system |
KR100920267B1 (ko) | 2007-09-17 | 2009-10-05 | 한국전자통신연구원 | 음성 대화 분석 시스템 및 그 방법 |
US8706476B2 (en) | 2007-09-18 | 2014-04-22 | Ariadne Genomics, Inc. | Natural language processing method by analyzing primitive sentences, logical clauses, clause types and verbal blocks |
ATE509345T1 (de) * | 2007-09-21 | 2011-05-15 | Boeing Co | Gesprochene fahrzeugsteuerung |
US8165886B1 (en) | 2007-10-04 | 2012-04-24 | Great Northern Research LLC | Speech interface system and method for control and interaction with applications on a computing system |
US8036901B2 (en) | 2007-10-05 | 2011-10-11 | Sensory, Incorporated | Systems and methods of performing speech recognition using sensory inputs of human position |
US20090112677A1 (en) | 2007-10-24 | 2009-04-30 | Rhett Randolph L | Method for automatically developing suggested optimal work schedules from unsorted group and individual task lists |
US7840447B2 (en) | 2007-10-30 | 2010-11-23 | Leonard Kleinrock | Pricing and auctioning of bundled items among multiple sellers and buyers |
US7983997B2 (en) | 2007-11-02 | 2011-07-19 | Florida Institute For Human And Machine Cognition, Inc. | Interactive complex task teaching system that allows for natural language input, recognizes a user's intent, and automatically performs tasks in document object model (DOM) nodes |
US8112280B2 (en) | 2007-11-19 | 2012-02-07 | Sensory, Inc. | Systems and methods of performing speech recognition with barge-in for use in a bluetooth system |
US8140335B2 (en) | 2007-12-11 | 2012-03-20 | Voicebox Technologies, Inc. | System and method for providing a natural language voice user interface in an integrated voice navigation services environment |
US10002189B2 (en) | 2007-12-20 | 2018-06-19 | Apple Inc. | Method and apparatus for searching using an active ontology |
US8219407B1 (en) | 2007-12-27 | 2012-07-10 | Great Northern Research, LLC | Method for processing the output of a speech recognizer |
US8099289B2 (en) | 2008-02-13 | 2012-01-17 | Sensory, Inc. | Voice interface and search for electronic devices including bluetooth headsets and remote systems |
US8165884B2 (en) * | 2008-02-15 | 2012-04-24 | Microsoft Corporation | Layered prompting: self-calibrating instructional prompting for verbal interfaces |
AU2009227944B2 (en) * | 2008-03-25 | 2014-09-11 | E-Lane Systems Inc. | Multi-participant, mixed-initiative voice interaction system |
US20110035434A1 (en) * | 2008-03-27 | 2011-02-10 | Markport Limited | Processing of messaging service attributes in communication systems |
US8958848B2 (en) | 2008-04-08 | 2015-02-17 | Lg Electronics Inc. | Mobile terminal and menu control method thereof |
US8666824B2 (en) | 2008-04-23 | 2014-03-04 | Dell Products L.P. | Digital media content location and purchasing system |
US8285344B2 (en) | 2008-05-21 | 2012-10-09 | DP Technlogies, Inc. | Method and apparatus for adjusting audio for a user environment |
US8589161B2 (en) | 2008-05-27 | 2013-11-19 | Voicebox Technologies, Inc. | System and method for an integrated, multi-modal, multi-device natural language voice services environment |
US8694355B2 (en) | 2008-05-30 | 2014-04-08 | Sri International | Method and apparatus for automated assistance with task management |
US8233366B2 (en) | 2008-06-02 | 2012-07-31 | Apple Inc. | Context-based error indication methods and apparatus |
US20090313564A1 (en) | 2008-06-12 | 2009-12-17 | Apple Inc. | Systems and methods for adjusting playback of media files based on previous usage |
US8527876B2 (en) | 2008-06-12 | 2013-09-03 | Apple Inc. | System and methods for adjusting graphical representations of media files based on previous usage |
US8423288B2 (en) | 2009-11-30 | 2013-04-16 | Apple Inc. | Dynamic alerts for calendar events |
US8166019B1 (en) | 2008-07-21 | 2012-04-24 | Sprint Communications Company L.P. | Providing suggested actions in response to textual communications |
US20110144901A1 (en) * | 2008-08-29 | 2011-06-16 | Zhanyong Wang | Method for Playing Voice Guidance and Navigation Device Using the Same |
KR101005074B1 (ko) | 2008-09-18 | 2010-12-30 | 주식회사 수현테크 | 합성수지제 파이프 연결 고정구 |
US9200913B2 (en) | 2008-10-07 | 2015-12-01 | Telecommunication Systems, Inc. | User interface for predictive traffic |
US8140328B2 (en) | 2008-12-01 | 2012-03-20 | At&T Intellectual Property I, L.P. | User intention based on N-best list of recognition hypotheses for utterances in a dialog |
US8447609B2 (en) * | 2008-12-31 | 2013-05-21 | Intel Corporation | Adjustment of temporal acoustical characteristics |
US8456420B2 (en) * | 2008-12-31 | 2013-06-04 | Intel Corporation | Audible list traversal |
US9489131B2 (en) * | 2009-02-05 | 2016-11-08 | Apple Inc. | Method of presenting a web page for accessibility browsing |
US8428758B2 (en) | 2009-02-16 | 2013-04-23 | Apple Inc. | Dynamic audio ducking |
US8326637B2 (en) | 2009-02-20 | 2012-12-04 | Voicebox Technologies, Inc. | System and method for processing multi-modal device interactions in a natural language voice services environment |
US8165321B2 (en) | 2009-03-10 | 2012-04-24 | Apple Inc. | Intelligent clip mixing |
US8805823B2 (en) | 2009-04-14 | 2014-08-12 | Sri International | Content processing systems and methods |
EP2426598B1 (en) | 2009-04-30 | 2017-06-21 | Samsung Electronics Co., Ltd. | Apparatus and method for user intention inference using multimodal information |
KR101581883B1 (ko) | 2009-04-30 | 2016-01-11 | 삼성전자주식회사 | 모션 정보를 이용하는 음성 검출 장치 및 방법 |
US9858925B2 (en) | 2009-06-05 | 2018-01-02 | Apple Inc. | Using context information to facilitate processing of commands in a virtual assistant |
US10706373B2 (en) | 2011-06-03 | 2020-07-07 | Apple Inc. | Performing actions associated with task items that represent tasks to perform |
US10540976B2 (en) | 2009-06-05 | 2020-01-21 | Apple Inc. | Contextual voice commands |
KR101562792B1 (ko) | 2009-06-10 | 2015-10-23 | 삼성전자주식회사 | 목표 예측 인터페이스 제공 장치 및 그 방법 |
US8527278B2 (en) | 2009-06-29 | 2013-09-03 | Abraham Ben David | Intelligent home automation |
US20110047072A1 (en) | 2009-08-07 | 2011-02-24 | Visa U.S.A. Inc. | Systems and Methods for Propensity Analysis and Validation |
US8768313B2 (en) | 2009-08-17 | 2014-07-01 | Digimarc Corporation | Methods and systems for image or audio recognition processing |
EP2473916A4 (en) | 2009-09-02 | 2013-07-10 | Stanford Res Inst Int | METHOD AND DEVICE FOR USING A HUMAN FEEDBACK IN AN INTELLIGENT AUTOMATED ASSISTANT |
US8321527B2 (en) | 2009-09-10 | 2012-11-27 | Tribal Brands | System and method for tracking user location and associated activity and responsively providing mobile device updates |
KR20110036385A (ko) | 2009-10-01 | 2011-04-07 | 삼성전자주식회사 | 사용자 의도 분석 장치 및 방법 |
US20110099507A1 (en) | 2009-10-28 | 2011-04-28 | Google Inc. | Displaying a collection of interactive elements that trigger actions directed to an item |
US9197736B2 (en) | 2009-12-31 | 2015-11-24 | Digimarc Corporation | Intuitive computing methods and systems |
US20120137367A1 (en) | 2009-11-06 | 2012-05-31 | Cataphora, Inc. | Continuous anomaly detection based on behavior modeling and heterogeneous information analysis |
US9171541B2 (en) | 2009-11-10 | 2015-10-27 | Voicebox Technologies Corporation | System and method for hybrid processing in a natural language voice services environment |
US9502025B2 (en) | 2009-11-10 | 2016-11-22 | Voicebox Technologies Corporation | System and method for providing a natural language content dedication service |
US8712759B2 (en) | 2009-11-13 | 2014-04-29 | Clausal Computing Oy | Specializing disambiguation of a natural language expression |
KR101960835B1 (ko) | 2009-11-24 | 2019-03-21 | 삼성전자주식회사 | 대화 로봇을 이용한 일정 관리 시스템 및 그 방법 |
US8396888B2 (en) | 2009-12-04 | 2013-03-12 | Google Inc. | Location-based searching using a search area that corresponds to a geographical location of a computing device |
KR101622111B1 (ko) | 2009-12-11 | 2016-05-18 | 삼성전자 주식회사 | 대화 시스템 및 그의 대화 방법 |
US20110161309A1 (en) | 2009-12-29 | 2011-06-30 | Lx1 Technology Limited | Method Of Sorting The Result Set Of A Search Engine |
US8494852B2 (en) | 2010-01-05 | 2013-07-23 | Google Inc. | Word-level correction of speech input |
US8381107B2 (en) | 2010-01-13 | 2013-02-19 | Apple Inc. | Adaptive audio feedback system and method |
US8334842B2 (en) | 2010-01-15 | 2012-12-18 | Microsoft Corporation | Recognizing user intent in motion capture system |
US8626511B2 (en) | 2010-01-22 | 2014-01-07 | Google Inc. | Multi-dimensional disambiguation of voice commands |
US20110218855A1 (en) | 2010-03-03 | 2011-09-08 | Platformation, Inc. | Offering Promotions Based on Query Analysis |
KR101369810B1 (ko) | 2010-04-09 | 2014-03-05 | 이초강 | 로봇을 위한 경험적 상황인식 방법을 실행하는 프로그램을 기록한 컴퓨터 판독가능한 기록 매체. |
US8265928B2 (en) | 2010-04-14 | 2012-09-11 | Google Inc. | Geotagged environmental audio for enhanced speech recognition accuracy |
US20110279368A1 (en) | 2010-05-12 | 2011-11-17 | Microsoft Corporation | Inferring user intent to engage a motion capture system |
US8694313B2 (en) | 2010-05-19 | 2014-04-08 | Google Inc. | Disambiguation of contact information using historical data |
US8522283B2 (en) | 2010-05-20 | 2013-08-27 | Google Inc. | Television remote control data transfer |
US8468012B2 (en) | 2010-05-26 | 2013-06-18 | Google Inc. | Acoustic model adaptation using geographic information |
US20110306426A1 (en) | 2010-06-10 | 2011-12-15 | Microsoft Corporation | Activity Participation Based On User Intent |
US8234111B2 (en) | 2010-06-14 | 2012-07-31 | Google Inc. | Speech and noise models for speech recognition |
US8411874B2 (en) | 2010-06-30 | 2013-04-02 | Google Inc. | Removing noise from audio |
US8775156B2 (en) | 2010-08-05 | 2014-07-08 | Google Inc. | Translating languages in response to device motion |
US8359020B2 (en) | 2010-08-06 | 2013-01-22 | Google Inc. | Automatically monitoring for voice input based on context |
US8473289B2 (en) | 2010-08-06 | 2013-06-25 | Google Inc. | Disambiguating input based on context |
EP2702473A1 (en) | 2011-04-25 | 2014-03-05 | Veveo, Inc. | System and method for an intelligent personal timeline assistant |
-
2010
- 2010-01-13 US US12/686,876 patent/US8381107B2/en active Active
-
2011
- 2011-01-06 AU AU2011205498A patent/AU2011205498B2/en not_active Ceased
- 2011-01-06 WO PCT/US2011/020350 patent/WO2011087953A1/en active Application Filing
- 2011-01-06 EP EP11701893A patent/EP2524298A1/en not_active Ceased
- 2011-01-06 CN CN201180010303.6A patent/CN102763072B/zh active Active
- 2011-01-06 EP EP16188055.4A patent/EP3128414A1/en not_active Ceased
- 2011-01-06 KR KR1020137008581A patent/KR101798269B1/ko active IP Right Grant
- 2011-01-06 KR KR1020127021094A patent/KR101280090B1/ko active IP Right Grant
-
2013
- 2013-02-15 US US13/769,217 patent/US9311043B2/en not_active Expired - Fee Related
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20060095848A1 (en) * | 2004-11-04 | 2006-05-04 | Apple Computer, Inc. | Audio user interface for computing devices |
Also Published As
Publication number | Publication date |
---|---|
AU2011205498B2 (en) | 2015-04-09 |
EP3128414A1 (en) | 2017-02-08 |
KR20130043245A (ko) | 2013-04-29 |
CN102763072A (zh) | 2012-10-31 |
KR101280090B1 (ko) | 2013-06-28 |
US8381107B2 (en) | 2013-02-19 |
KR20120105561A (ko) | 2012-09-25 |
US9311043B2 (en) | 2016-04-12 |
US20130159861A1 (en) | 2013-06-20 |
US20110173539A1 (en) | 2011-07-14 |
CN102763072B (zh) | 2016-01-20 |
AU2011205498A1 (en) | 2012-08-02 |
EP2524298A1 (en) | 2012-11-21 |
WO2011087953A1 (en) | 2011-07-21 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR101798269B1 (ko) | 적응적 오디오 피드백 시스템 및 방법 | |
CN110431523B (zh) | 用于当显示器旋转时可视化内容的显示器设备及其控制方法 | |
US10782856B2 (en) | Method and device for displaying application function information, and terminal device | |
US10705682B2 (en) | Sectional user interface for controlling a mobile terminal | |
US20190155570A1 (en) | Equal Access to Speech and Touch Input | |
AU2014275609B2 (en) | Portable terminal and user interface method in portable terminal | |
US20140068314A1 (en) | Portable electronic device and method for managing battery power consumption | |
US20160266742A1 (en) | Electronic device and method for operating notification bar thereof | |
EP2240846A1 (en) | Method for providing ui capable of detecting a plurality of forms of touch on menus or background and multimedia device using the same | |
JP2013511102A (ja) | タッチスクリーンユーザインターフェース上でアイテムをスクロールする方法 | |
KR20140133991A (ko) | 파일 관리와 표시 방법 및 장치 | |
US20140075315A1 (en) | Media reproduction control arrangement and method | |
US20150363091A1 (en) | Electronic device and method of controlling same | |
KR20160004914A (ko) | 멀티미디어 재생 방법 및 그 디바이스 | |
EP2743816A2 (en) | Method and apparatus for scrolling screen of display device | |
CN104142779A (zh) | 用户界面控制方法、装置和终端 | |
CN104049891A (zh) | 在显示器未确认模式下执行动作的移动装置及其控制方法 | |
WO2022228377A1 (zh) | 录音方法、装置、电子设备和可读存储介质 | |
CN104811821B (zh) | 调整绘屏帧率的方法及装置 | |
US11249619B2 (en) | Sectional user interface for controlling a mobile terminal | |
CN117406906A (zh) | 屏幕处理方法、装置、电子设备及计算机可读存储介质 | |
EP2806364B1 (en) | Method and apparatus for managing audio data in electronic device | |
US20160239256A1 (en) | Electronic Apparatus and Operation Mode Enabling Method Thereof | |
CN118678147A (zh) | 音频处理方法及装置、电子设备及存储介质 | |
CN103168297A (zh) | 用于生成先前观看的多媒体内容的可视摘要的系统和方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A107 | Divisional application of patent | ||
A201 | Request for examination | ||
E902 | Notification of reason for refusal | ||
E90F | Notification of reason for final refusal | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant |