KR20150085115A - 텍스트 데이터와 오디오 데이터 간의 맵핑 자동 생성 - Google Patents

텍스트 데이터와 오디오 데이터 간의 맵핑 자동 생성 Download PDF

Info

Publication number
KR20150085115A
KR20150085115A KR1020157017690A KR20157017690A KR20150085115A KR 20150085115 A KR20150085115 A KR 20150085115A KR 1020157017690 A KR1020157017690 A KR 1020157017690A KR 20157017690 A KR20157017690 A KR 20157017690A KR 20150085115 A KR20150085115 A KR 20150085115A
Authority
KR
South Korea
Prior art keywords
text
audio
data
version
mapping
Prior art date
Application number
KR1020157017690A
Other languages
English (en)
Other versions
KR101674851B1 (ko
Inventor
시앙 카오
알란 씨. 칸니스트라로
그레고리 에스. 로빈
카세이 엠. 도허티
멜리사 브릴리오 하지
레이몬드 왈시
Original Assignee
애플 인크.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 애플 인크. filed Critical 애플 인크.
Publication of KR20150085115A publication Critical patent/KR20150085115A/ko
Application granted granted Critical
Publication of KR101674851B1 publication Critical patent/KR101674851B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/26Speech to text systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/60Information retrieval; Database structures therefor; File system structures therefor of audio data
    • G06F16/68Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/683Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
    • G06F16/685Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content using automatically derived transcript of audio data, e.g. lyrics
    • G06F17/241
    • G06F17/30746
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/10Text processing
    • G06F40/166Editing, e.g. inserting or deleting
    • G06F40/169Annotation, e.g. comment data or footnotes
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L13/00Speech synthesis; Text to speech systems
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • G10L15/10Speech classification or search using distance or distortion measures between unknown speech and reference templates
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • G10L15/18Speech classification or search using natural language modelling
    • G10L15/183Speech classification or search using natural language modelling using context dependencies, e.g. language models
    • G10L15/19Grammatical context, e.g. disambiguation of the recognition hypotheses based on word sequence rules
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/28Constructional details of speech recognition systems

Abstract

오디오 데이터(예컨대, 오디오 북) 내의 위치들을 텍스트 데이터(예컨대, 전자책) 내의 대응하는 위치들로 맵핑하는 맵핑을 생성하는 기술을 제공한다. 맵핑이 자동으로 생성되는지 아니면 수동으로 생성되는지에 따라, 오디오 데이터와 텍스트 데이터 간의 맵핑을 이용하는 기술을 제공한다. 디지털 작품의 하나의 버전(예컨대, e-북)에 설정된 북마크가 디지털 작품의 다른 버전(예컨대, 오디오 북)의 대응하는 위치를 식별하는데 사용되는 북마크 스위칭에 맵핑을 이용할 수 있다. 대안으로, 맵핑은 사용자에 의해 선택된 텍스트에 대응하는 오디오를 재생하는데 이용될 수 있다. 대안으로, 맵핑은 재생되고 있는 텍스트에 대응하는 오디오에 응답하여 텍스트를 자동으로 강조 표시하는데 이용될 수 있다. 대안으로, 맵핑은 하나의 미디어 컨텍스트(예컨대, 오디오)에서 생성된 주석이 다른 미디어 컨텍스트(예컨대, 텍스트)에서 소모될 것임을 결정하는데 이용될 수 있다.

Description

텍스트 데이터와 오디오 데이터 간의 맵핑 자동 생성{AUTOMATICALLY CREATING A MAPPING BETWEEN TEXT DATA AND AUDIO DATA}
본 발명은 오디오 데이터를 분석하여 여기에 반영된 단어를 검출하고 이 단어를 문서 내의 단어와 비교함으로써, 텍스트 데이터와 오디오 데이터 간의 맵핑을 자동으로 생성하는 것에 관한 것이다.
배경기술
핸드헬드 전자 장치들의 비용이 감소하고 디지털 컨텐츠에 대한 요구가 커짐에 따라, 인쇄 매체 상에 한번 공표된 창조적인 작품들이 디지털 매체로서 점점 더 이용가능하게 되고 있다. 예를 들면, ("e-books"로도 알려진) 전자책들이, 전자책 리더들(또는 "e-readers")로서 알려진 특성화된 핸드헬드 전자 장치들과 함께, 점점 더 인기를 얻고 있다. 또한, 비록 전자책 리더만으로서 설계된 것은 아니지만, 태블릿 컴퓨터들 및 스마트 폰들과 같은 다른 핸드헬드 장치들이 전자책 리더들로서 동작되는 능력을 갖고 있다.
전자책들이 포맷되는 공통 표준은 EPUB 표준("electronic publication"의 약어)으로, 이 표준은 무료이고 IDPF(International Digital Publishing Forum)에 의한 공개적인 전자책 표준이다. EPUB 파일은 XHTML 1.1(또는 DTBook)을 사용하여 책의 컨텐츠를 구성한다. 스타일링 및 레이아웃은 OPS Style Sheets로 지칭되는 CSS의 서브세트를 이용하여 수행된다.
몇몇의 작품들, 특히 인기있는 작품들에 대해, 그 작품의 오디오 버전이 생성되어 있다. 예를 들면, 인기있는 개인(또는 호감있는 음성을 가진 사람)이 작품을 읽은 기록이 생성되어 있고, 온라인 스토어나 오프라인(brick and mortar) 스토어든지 간에 구매용으로 이용가능하게 되어 있다.
소비자들이 전자책(e-book)과 그 전자책의 오디오 버전(즉, "오디오 북") 모두를 구매하는 것은 드문일이 아니다. 몇몇의 경우에, 사용자는 전자책 전체를 읽은 다음 오디오 북을 듣고 싶어한다. 다른 경우에, 사용자는 그 사용자의 환경에 기초하여 그 책을 읽고 듣는 것을 바꾼다. 예를 들면, 스포츠에 참가하거나 통근 중에 운전하면서, 사용자는 그 책의 오디오 버전을 듣는 경향이 있을 것이다. 한편, 잠들기 전 소파 의자에 비스듬히 기대어 있을 때, 사용자는 그 책의 전자책 버전을 읽는 경향이 있을 것이다. 불행하게도, 그러한 변환은, 사용자가 전자책에서 중지한 곳을 기억한 다음 오디오 북의 어디에서 시작하는지를 수동으로 찾아야 하고, 그 역도 마찬가지이기 때문에, 고생스러울 수 있다. 사용자가 자신이 그만둔 지점에서 책에서 일어나는 해프닝을 명확히 기억하고 있더라도, 그러한 해프닝을 안다는 것이 그들 해프닝들에 대응하는 전자책 또는 오디오 북의 부분을 반드시 용이하게 찾게 하는 것은 아니기 때문에, 그러한 변환은 여전히 고생스러울 수 있다. 따라서, 전자책과 오디오 북 간의 변환에 매우 많은 시간을 소비할 수 있다.
명세 "EPUB Media Overlays 3.0"은 SMIL(Synchronized Multimedia Integration Language)의 사용, 패키지 다큐먼트, EPUB 스타일 시트, 및 동기화된 텍스트 및 오디오 출판물들을 표현하기 위한 EPUB 컨텐츠 다큐먼트를 정의한다. 출판물의 사전 기록된 나레이션은 각각 텍스트의 부분에 대응하는 일련의 오디오 클립들로 표현될 수 있다. 사전 기록된 나레이션을 구성하는 일련의 오디오 클립들에서 각각의 싱글 오디오 클립은 전형적으로 단일 어구 또는 문단을 나타내지만, 다큐먼트의 다른 클립들에 대한 또는 텍스트에 대한 순서를 추론하는 것은 아니다. 미디어 오버레이(Media Overlays)는 구성된 오디오 나레이션을 SMIL 마크업을 이용하여 EPUB 컨텐츠 다큐먼트 내의 대응하는 텍스트에 관련시킴으로써 동기화 문제를 해결한다. 미디어 오버레이는 이들 클립의 재생 시퀀스가 정의되게 하는 SMIL 3.0의 간략화된 서브세트이다.
불행하게도, 미디어 오버레이 파일들의 생성은 대규모의 수동적 프로세스이다. 결과적으로, 작품의 오디오 버전과 텍스트 버전 간의 맵핑의 입도(granularity)이 매우 거칠게 된다. 예를 들면, 미디어 오버레이 파일은 전자책 내의 각각의 문단의 시작을 그 전자책의 오디오 버전에서의 대응하는 위치와 관계시킬 수 있다. 특히 소설들에 대한 미디어 오버레이 파일들이 단어 대 단어와 같은 임의의 보다 정교한 레벨의 입도의 맵핑을 포함하지 않는 이유는 그러한 매우 정교한 미디어 오버레이 파일을 작성하는 것은 무수한 시간의 인간의 노동이 들어가기 때문이다.
본 발명은 오디오 데이터를 분석하여 여기에 반영된 단어를 검출하고 이 단어를 문서 내의 단어와 비교함으로써, 텍스트 데이터와 오디오 데이터 간의 맵핑을 자동으로 생성하는 것에 관한 것이다.
일부 실시예에 따르면, 텍스트 버전이 존재하는 작품(work)의 오디오 버전을 반영한 오디오 데이터를 수신하는 단계와, 오디오 데이터의 부분에 대한 텍스트를 생성하기 위해 오디오 데이터의 음성-텍스트(speech-to-text) 분석을 수행하는 단계와, 오디오 데이터의 부분에 대해 생성된 텍스트에 기초하여, 오디오 데이터에서의 복수의 오디오 위치와 텍스트 버전의 작품에서의 대응하는 복수의 텍스트 위치 간에 맵핑을 생성하는 단계를 포함하는 방법이 제공된다. 이 방법은 하나 이상의 컴퓨팅 디바이스에 의해 수행된다.
일부 실시예에서, 오디오 데이터의 부분에 대한 텍스트를 생성하는 단계는 작품의 텍스트 컨텍스트(context)에 적어도 부분적으로 기초하여 오디오 데이터의 부분에 대한 텍스트를 생성하는 단계를 포함한다. 일부 실시예에서, 작품의 텍스트 컨텍스트에 적어도 부분적으로 기초하여 오디오 데이터의 부분에 대한 텍스트를 생성하는 단계는, 텍스트 버전의 작품에 사용되는 문법의 하나 이상의 규칙들에 적어도 부분적으로 기초하여 텍스트를 생성하는 단계를 포함한다. 일부 실시예에서, 작품의 텍스트 컨텍스트에 적어도 부분적으로 기초하여 오디오 데이터의 부분에 대한 텍스트를 생성하는 단계는, 단어가 텍스트 버전의 작품 또는 그 서브세트 내에 존재하는지에 기초하여 어느 단어 부분이 변환(translate)될 수 있는지를 제한하는 단계를 포함한다. 일부 실시예에서, 단어가 텍스트 버전의 작품 내에 존재하는 것에 기초하여 어느 단어 부분이 변환될 수 있는지를 제한하는 단계는, 오디오 데이터의 소정 부분에 대하여, 이 소정 부분에 대응하는 텍스트 버전의 작품의 서브섹션을 식별하는 단계와, 단어를 텍스트 버전의 작품의 서브섹션에서의 단어만으로 제한하는 단계를 포함한다. 일부 실시예에서, 텍스트 버전의 작품의 서브섹션을 식별하는 단계는, 오디오 데이터에서 현재 텍스트 위치를 음성-텍스트 분석의 현재 오디오 위치에 대응하는 텍스트 버전의 작품에서 유지하는 단계를 포함하며, 텍스트 버전의 작품의 서브섹션은 현재 텍스트 위치와 연관된 섹션이다.
일부 실시예에서, 부분들은 개별 단어에 대응하는 부분들을 포함하며, 맵핑은 개별 단어에 대응하는 부분들의 위치를 텍스트 버전의 작품에서의 개별 단어에 맵핑한다. 일부 실시예에서, 부분들은 개별 문장(sentence)에 대응하는 부분들을 포함하며, 맵핑은 개별 문장에 대응하는 부분들의 위치를 텍스트 버전의 작품에서의 개별 문장에 맵핑한다. 일부 실시예에서, 부분들은 고정량의 데이터에 대응하는 부분들을 포함하며, 맵핑은 고정량의 데이터에 대응하는 부분들의 위치를 텍스트 버전의 작품에서의 해당 위치에 맵핑한다.
일부 실시예에서, 맵핑을 생성하는 단계는, (1) 오디오 데이터에 앵커(anchor)를 삽입하는 단계, (2) 텍스트 버전의 작품에 앵커를 삽입하는 단계, 또는 (3) 오디오 데이터 또는 텍스트 버전의 작품과 연관돼서 저장되는 미디어 오버레이(media overlay)에서의 맵핑을 저장하는 단계를 포함한다.
일부 실시예에서, 복수의 텍스트 위치들 중 하나 이상의 텍스트 위치들 각각은 텍스트 버전의 작품에서의 상대 위치를 가리킨다. 일부 실시예에서, 복수의 텍스트 위치들 중 하나의 텍스트 위치는 텍스트 버전의 작품에서의 상대 위치를 가리키며, 복수의 텍스트 위치들 중 다른 텍스트 위치는 상대 위치로부터의 절대 위치를 가리킨다. 일부 실시예에서, 복수의 텍스트 위치들 중 하나 이상의 텍스트 위치들 각각은 텍스트 버전의 작품 내의 앵커를 가리킨다.
일부 실시예에 따르면, 텍스트 버전의 작품(textual version)을 수신하는 단계, 텍스트 버전의 텍스트-음성 분석을 수행하여 제1 오디오 데이터를 생성하는 단계, 제1 오디오 데이터 및 텍스트 버전에 기초하여 제1 오디오 데이터 내의 제1의 복수의 오디오 위치와 텍스트 버전의 작품 내의 대응하는 복수의 텍스트 위치 간의 제1 맵핑을 생성하는 단계, 텍스트 버전이 존재하는 작품의 오디오 버전을 반영한 제2 오디오 데이터를 수신하는 단계, (1) 제1 오디오 데이터와 제2 오디오 데이터의 비교 및 (2) 제1 맵핑에 기초하여, 제2 오디오 데이터 내의 제2의 복수의 오디오 위치와 텍스트 버전의 작품 내의 복수의 텍스트 위치 간의 제2 맵핑을 생성하는 단계를 포함하는 방법이 제공된다. 상기 방법은 하나 이상의 컴퓨팅 디바이스에 의해 수행된다.
일부 실시예에 따르면, 오디오 입력을 수신하는 단계, 오디오 입력의 음성-텍스트 분석을 수행하여 오디오 입력의 부분들에 대한 텍스트를 생성하는 단계, 오디오 입력의 부분들에 대해 생성된 텍스트가 현재 디스플레이되는 텍스트와 일치하는지 여부를 판정하는 단계, 텍스트가 현재 디스플레이되는 텍스트와 일치한다고 결정하는 것에 응답하여, 현재 디스플레이되는 텍스트가 강조 표시되게 하는 단계를 포함하는 방법이 제공된다. 상기 방법은 하나 이상의 컴퓨팅 디바이스에 의해 수행된다.
일부 실시예에 따르면, 텍스트 버전이 존재하는 작품의 오디오 버전을 반영한 오디오 데이터를 수신하도록 구성된 오디오 데이터 수신 유닛을 포함하는 전자 디바이스가 제공된다. 전자 디바이스는 오디오 데이터 수신 유닛에 연결되는 프로세싱 유닛도 포함한다. 프로세싱 유닛은 오디오 데이터의 음성-텍스트 분석을 수행하여 오디오 데이터의 부분들에 대한 텍스트를 생성하고, 오디오 데이터의 부분들에 대해 생성된 텍스트에 기초하여 오디오 데이터 내의 복수의 오디오 위치와 텍스트 버전의 작품 내의 대응하는 복수의 텍스트 위치 간의 맵핑을 생성하도록 구성된다.
일부 실시예에 따르면, 텍스트 버전의 작품을 수신하도록 구성된 텍스트 수신 유닛을 포함하는 전자 디바이스가 제공된다. 전자 디바이스는 텍스트 수신 유닛에 연결되는 프로세싱 유닛도 포함하며, 프로세싱 유닛은 텍스트 버전의 텍스트-음성 분석을 수행하여 제1 오디오 데이터를 생성하고, 제1 오디오 데이터와 텍스트 버전에 기초하여 제1 오디오 데이터 내의 제1의 복수의 오디오 위치와 텍스트 버전의 작품 내의 대응하는 복수의 텍스트 위치 간의 제1 맵핑을 생성하도록 구성된다. 전자 디바이스는 텍스트 버전이 존재하는 작품의 오디오 버전을 반영하는 제2 오디오 데이터를 수신하도록 구성된 오디오 데이터 수신 유닛도 포함한다. 프로세싱 유닛은 또한 (1) 제1 오디오 데이터와 제2 오디오 데이터의 비교, 및 (2) 제1 맵핑에 기초하여 제2 오디오 데이터 내의 제2의 복수의 오디오 위치와 텍스트 버전의 작품 내의 복수의 텍스트 위치 간의 제2 맵핑을 생성하도록 구성된다.
일부 실시예에 따르면, 오디오 입력을 수신하도록 구성된 오디오 수신 유닛을 포함하는 전자 디바이스가 제공된다. 전자 디바이스는 오디오 입력 유닛에 연결되는 프로세싱 유닛도 포함한다. 프로세싱 유닛은 오디오 입력의 음성-텍스트 분석을 수행하여 오디오 입력의 부분들에 대한 텍스트를 생성하며, 오디오 입력의 부분들에 대해 생성된 텍스트가 현재 디스플레이되는 텍스트와 일치하는지 여부를 판정하며, 텍스트가 현재 디스플레이되는 텍스트와 일치한다고 결정한 것에 응답하여 현재 디스플레이되는 텍스트가 강조 표시되게 하도록 구성된다.
일부 실시예에 따르면, 텍스트 버전의 작품 내의 특정 위치를 나타내는 위치 데이터를 획득하는 단계, 작품의 오디오 버전 내의 복수의 오디오 위치와 텍스트 버전의 작품 내의 대응하는 복수의 텍스트 위치 간의 맵핑을 검사하는 단계, 복수의 텍스트 위치 중에서 특정 위치에 대응하는 특정 텍스트 위치를 결정하는 단계, 특정 텍스트 위치에 기초하여 복수의 오디오 위치 중에서 특정 텍스트 위치에 대응하는 특정 오디오 위치를 결정하는 단계를 포함하는 방법이 제공된다. 상기 방법은, 미디어 플레이어가 특정 오디오 위치를 오디오 데이터의 현재 재생 위치로서 구축하게 야기하도록, 특정 텍스트 위치에 기초하여 결정된 특정 오디오 위치를 미디어 플레이어에 제공하는 단계를 포함한다. 상기 방법은 하나 이상의 컴퓨팅 디바이스에 의해 수행된다.
일부 실시예에서, 획득하는 단계는 서버가 네트워크를 통해 제1 디바이스로부터 위치 데이터를 수신하는 단계를 포함하며, 검사하는 단계 및 제공하는 단계는 서버에 의해 수행되며, 제공하는 단계는 서버가 미디어 플레이어를 실행하는 제2 디바이스에 특정 오디오 위치를 송신하는 단계를 포함한다. 일부 실시예에서, 제2 디바이스와 제1 디바이스는 동일한 디바이스이다. 일부 실시예에서, 획득하는 단계, 검사하는 단계 및 제공하는 단계는 텍스트 버전의 작품을 디스플레이하도록 구성되며 미디어 플레이어를 실행하는 컴퓨팅 디바이스에 의해 수행된다. 일부 실시예에서, 상기 방법은 텍스트 버전의 작품을 디스플레이하도록 구성된 디바이스에서, 디바이스의 사용자로부터의 입력 없이 위치 데이터를 결정하는 단계를 더 포함한다.
일부 실시예에서, 상기 방법은 사용자로부터 입력을 수신하는 단계, 및 입력의 수신에 응답하여 입력에 기초하여 위치 데이터를 결정하는 단계를 더 포함한다. 일부 실시예에서, 특정 오디오 위치를 미디어 플레이어에 제공하는 단계는, 특정 오디오 위치를 미디어 플레이어에 제공하여 미디어 플레이어가 현재 재생 위치에서 시작하는 오디오 데이터를 처리하도록 야기하는 단계 - 이는 미디어 플레이어가 처리된 오디오 데이터로부터 오디오를 생성하게 함 - 를 포함하며, 미디어 플레이어가 오디오 데이터를 처리하게 하도록 야기하는 단계는 입력을 수신하는 것에 응답하여 수행된다.
일부 실시예에서, 입력은 텍스트 버전의 작품 내에서 다수의 단어들을 선택하며, 특정 위치는 제1 특정 위치이고, 위치 데이터는 또한 텍스트 버전의 작품 내에서 제1 특정 위치와는 상이한 제2 특정 위치를 나타내며, 검사하는 단계는 복수의 텍스트 위치 중에서 제2 특정 위치에 대응하는 제2 특정 텍스트 위치를 결정하고, 제2 특정 텍스트 위치에 기초하여 복수의 오디오 위치 중에서 제2 특정 텍스트 위치에 대응하는 제2 특정 오디오 위치를 결정하기 위해 맵핑을 검사하는 단계를 더 포함하며, 특정 오디오 위치를 미디어 플레이어에 제공하는 단계는 제2 특정 오디오 위치를 미디어 플레이어에 제공하여 미디어 플레이어로 하여금 현재 재생 위치가 제2 특정 오디오 위치 또는 그 부근에 도달했을 때 오디오 데이터를 처리하도록 야기하는 단계를 포함한다.
일부 실시예에서, 상기 방법은 사용자로부터의 입력에 기초하는 주석 데이터를 획득하는 단계, 특정 위치와 연관된 주석 데이터를 저장하는 단계, 및 주석 데이터에 관한 정보가 디스플레이되게 하는 단계를 더 포함한다. 일부 실시예에서, 특정 오디오 위치에 관한 정보 및 주석 데이터가 디스플레이되게 하는 단계는, 오디오 데이터의 현재 재생 위치가 특정 오디오 위치 또는 그 부근에 있는 때를 판정하는 단계, 및 오디오 데이터의 현재 재생 위치가 특정 오디오 위치 또는 그 부근에 있다고 결정한 것에 응답하여 주석 데이터에 관한 정보가 디스플레이 되게 하는 단계를 포함한다.
일부 실시예에서, 주석 데이터는 텍스트 데이터를 포함하며, 주석 데이터에 관한 정보가 디스플레이되게 하는 단계는 텍스트 데이터를 디스플레이하는 단계를 포함한다. 일부 실시예에서, 주석 데이터는 음성 데이터를 포함하며, 주석 데이터에 관한 정보가 디스플레이되게 하는 단계는 음성 데이터가 오디오를 생성하도록 처리하는 단계를 포함한다.
일부 실시예에 따르면, 텍스트 버전의 작품 내의 특정 위치를 나타내는 치 데이터를 획득하도록 구성된 위치 데이터 획득 유닛을 포함하는 전자 장치가 제공된다. 전자 장치는 위치 데이터 획득 유닛에 연결되는 프로세싱 유닛도 포함한다. 프로세싱 유닛은 작품의 오디오 버전 내의 복수의 오디오 위치와 텍스트 버전의 작품 내의 대응하는 텍스트 위치 간의 맵핑을 검사하고, 복수의 텍스트 위치 중에서 특정 위치에 대응하는 특정 텍스트 위치를 결정하며, 특정 텍스트 위치에 기초하여 복수의 오디오 위치 중에서 특정 텍스트 위치에 대응하는 특정 오디오 위치를 결정하며, 특정 텍스트 위치에 기초하여 결정된 특정 오디오 위치를 미디어 플레이어에 제공하여 미디어 플레이어로 하여금 특정 오디오 위치를 오디오 데이터의 현재 재생 위치로서 구축하게 하도록 구성된다.
일부 실시예에 따르면, 오디오 데이터 내의 특정 위치를 나타내는 위치 데이터를 획득하는 단계, 오디오 데이터 내의 복수의 오디오 위치와 텍스트 버전의 작품 내의 대응하는 복수의 텍스트 위치 간의 맵핑을 검사하는 단계와, 복수의 오디오 위치 중에서 특정 위치에 대응하는 특정 오디오 위치를 결정하는 단계, 특정 오디오 위치에 기반하여 복수의 텍스트 위치 중에서 특정 오디오 위치에 대응하는 특정 텍스트 위치를 결정하는 단계, 및 미디어 플레이어가 특정 텍스트 위치에 관한 정보를 디스플레이하도록 야기하는 단계를 포함하는 방법이 제공된다. 상기 방법은 하나 이상의 컴퓨팅 디바이스에 의해 수행된다.
일부 실시예에서, 획득하는 단계는 서버가 네트워크를 통해 제1 디바이스로부터 위치 데이터를 수신하는 단계를 포함하며, 검사하는 단계 및 야기하는 단계는 서버에 의해 수행되며, 야기하는 단계는, 서버가 특정 텍스트 위치를 미디어 플레이어를 실행하는 제2 디바이스에 송신하는 단계를 포함한다. 일부 실시예에서, 제2 디바이스 및 제1 디바이스는 동일한 디바이스이다. 일부 실시예에서, 획득하는 단계, 검사하는 단계 및 야기하는 단계는 텍스트 버전의 작품을 디스플레이하고 미디어 플레이어를 실행하는 컴퓨팅 디바이스에 의해 수행된다. 일부 실시예에서, 상기 방법은 오디오 데이터를 처리하도록 구성된 디바이스에서 디바이스의 사용자로부터의 입력 없이 위치 데이터를 결정하는 단계를 포함한다.
일부 실시예에서, 상기 방법은 사용자로부터 입력을 수신하는 단계, 및 입력의 수신에 응답하여 입력에 기초하여 위치 데이터를 결정하는 단계를 더 포함한다. 일부 실시예들에서, 야기하는 단계는 미디어 플레이어가 특정한 텍스트 위치에 대응하는 텍스트 버전의 작품의 부분을 디스플레이하도록 야기하는 단계; 및 미디어 플레이어가 입력을 수신하는 것에 응답하여 수행되는 텍스트 버전의 작품의 부분을 디스플레이하도록 야기하는 단계를 포함한다.
일부 실시예들에서, 입력은 오디오 데이터의 세그먼트를 선택하고, 특정된 위치는 제1 특정된 위치이고, 위치 데이터는 오디오 데이터 내에서 제1 특정된 위치와는 상이한 제2 특정된 위치를 또한 나타내고, 검사하는 단계는, 복수의 오디오 위치 중에서 제2 특정된 위치에 대응하는 제2 특정한 오디오 위치를 결정하고, 제2 특정한 오디오 위치에 기반하여 복수의 텍스트 위치 중에서 제2 특정한 오디오 위치에 대응하는 제2 특정한 텍스트 위치를 결정하기 위해 맵핑을 검사하는 단계를 더 포함하며, 미디어 플레이어가 특정한 텍스트 위치에 관한 정보를 디스플레이하도록 야기하는 단계는 미디어 플레이어가 제2 특정한 텍스트 위치에 관한 정보를 디스플레이하도록 야기하는 단계를 더 포함한다.
일부 실시예들에서, 특정된 위치는 오디오 데이터에서 현재의 재생 위치에 대응하고, 야기하는 단계는 특정된 위치에서의 오디오 데이터가 처리되어 오디오가 생성됨에 따라 수행되며, 야기하는 단계는 제2 미디어 플레이어가 특정한 텍스트 위치에서 또는 그 근방에서 텍스트 버전의 작품 내의 텍스트를 강조 표시하도록 야기하는 단계를 포함한다.
일부 실시예들에서, 이 방법은 사용자로부터의 입력에 기반한 주석 데이터를 획득하는 단계; 특정된 위치에 연관하여 주석 데이터를 저장하는 단계; 및 주석 데이터에 관한 정보가 디스플레이되도록 야기하는 단계를 더 포함한다. 몇몇 실시예들에서, 주석 데이터에 관한 정보가 디스플레이되도록 야기하는 단계는 특정한 텍스트 위치에 대응하는 텍스트 버전의 작품의 부분이 디스플레이되는 때를 결정하는 단계; 및 특정한 텍스트 위치에 대응하는 텍스트 버전의 작품의 부분이 디스플레이된다고 결정하는 것에 응답하여 주석 데이터에 관한 정보가 디스플레이되도록 야기하는 단계를 포함한다.
몇몇 실시예들에서, 주석 데이터는 텍스트 데이터를 포함하며, 주석 데이터에 관한 정보가 디스플레이되도록 야기하는 단계는 텍스트 데이터가 디스플레이되도록 야기하는 단계를 포함한다. 몇몇 실시예들에서, 주석 데이터는 음성 데이터를 포함하며, 주석 데이터에 관한 정보가 디스플레이되도록 야기하는 단계는 음성 데이터가 오디오를 생성하도록 처리되게 하는 단계를 포함한다.
일부 실시예들에 따르면, 작품의 오디오 버전의 재생 동안에, 오디오 버전 내에서 특정된 위치를 나타내는 위치 데이터를 획득하고, 또한 특정된 위치에 기반하여 오디오 버전의 재생을 일시정지할 때를 나타내는 일시정지 데이터와 연관되는 특정한 텍스트 위치를 텍스트 버전의 작품에서 결정하는 단계; 및 특정한 텍스트 위치가 일시정지 데이터와 연관된다고 결정하는 것에 응답하여 오디오 버전의 재생을 일시정지시키는 단계를 포함하는 방법이 제공된다. 이 방법은 하나 이상의 컴퓨팅 디바이스에 의해 수행된다.
일부 실시예들에서, 일시정지 데이터는 텍스트 버전의 작품 내에 있다. 일부 실시예들에서, 특정한 텍스트 위치를 결정하는 단계는, 복수의 오디오 위치 중에서 특정된 위치에 대응하는 특정한 오디오 위치를 결정하고, 특정한 오디오 위치에 기반하여 복수의 텍스트 위치 중에서 특정한 오디오 위치에 대응하는 특정한 텍스트 위치를 결정하기 위해 오디오 데이터에서의 복수의 오디오 위치와 텍스트 버전의 작품에서의 대응하는 복수의 텍스트 위치 간의 맵핑을 검사하는 단계를 포함한다.
일부 실시예들에서, 일시정지 데이터는 텍스트 버전의 작품에 반영되는 페이지의 끝에 대응한다. 몇몇 실시예들에서, 일시정지 데이터는 텍스트 버전의 작품 내에서 텍스트를 포함하지 않는 픽처에 바로 앞선 위치에 대응한다.
일부 실시예들에서, 이 방법은 사용자 입력을 수신하는 것에 응답하여 오디오 버전의 재생을 계속하는 단계를 더 포함한다. 일부 실시예들에서, 이 방법은 오디오 버전의 재생이 일시정지된 이후의 특정한 시간량의 경과에 응답하여 오디오 버전의 재생을 계속하는 단계를 더 포함한다.
일부 실시예들에 따르면, 작품의 오디오 버전의 재생 동안에, 오디오 버전 내에서 특정된 위치를 나타내는 위치 데이터를 획득하고, 또한 특정된 위치에 기반하여 텍스트 버전의 작품에 반영되는 제1 페이지의 끝을 나타내는 페이지 끝 데이터와 연관되는 특정한 텍스트 위치를 텍스트 버전의 작품에서 결정하는 단계; 및 특정한 텍스트 위치가 페이지 끝 데이터와 연관된다고 결정하는 것에 응답하여, 제1 페이지가 디스플레이되는 것을 중지시키도록 자동으로 야기하고 또한 제1 페이지에 후속하는 제2 페이지가 디스플레이되도록 자동으로 야기하는 단계를 포함하는 방법이 제공된다. 이 방법은 하나 이상의 컴퓨팅 디바이스에 의해 수행된다.
일부 실시예들에서, 이 방법은, 복수의 오디오 위치 중에서 특정된 위치에 대응하는 특정한 오디오 위치를 결정하고, 특정한 오디오 위치에 기반하여 복수의 텍스트 위치 중에서 특정한 오디오 위치에 대응하는 특정한 텍스트 위치를 결정하기 위해 오디오 데이터에서의 복수의 오디오 위치와 텍스트 버전의 작품에서의 대응하는 복수의 텍스트 위치 간의 맵핑을 검사하는 단계를 더 포함한다.
일부 실시예들에 따르면, 오디오 데이터 내에서 특정된 위치를 나타내는 위치 데이터를 획득하도록 구성된 위치 획득 유닛을 포함하는 전자 디바이스가 제공된다. 이 전자 디바이스는 위치 획득 유닛에 결합되는 프로세싱 유닛을 또한 포함한다. 프로세싱 유닛은, 복수의 오디오 위치 중에서 특정된 위치에 대응하는 특정한 오디오 위치를 결정하고, 또한 특정한 오디오 위치에 기반하여 복수의 텍스트 위치 중에서 특정한 오디오 위치에 대응하는 특정한 텍스트 위치를 결정하기 위해 오디오 데이터에서의 복수의 오디오 위치와 텍스트 버전의 작품에서의 대응하는 복수의 텍스트 위치 간의 맵핑을 검사하며, 미디어 플레이어가 특정한 텍스트 위치에 관한 정보를 디스플레이하게 야기하도록 구성된다.
일부 실시예들에 따르면, 작품의 오디오 버전의 재생 동안에 오디오 버전 내에서 특정된 위치를 나타내는 위치 데이터를 획득하도록 구성된 위치 획득 유닛을 포함하는 전자 디바이스가 제공된다. 이 전자 디바이스는, 위치 획득 유닛에 결합되는 프로세싱 유닛을 또한 포함하는데, 이 프로세싱 유닛은, 작품의 오디오 버전의 재생 동안에, 특정된 위치에 기반하여 텍스트 버전의 작품에 반영되는 제1 페이지의 끝을 나타내는 페이지 끝 데이터와 연관되는 특정한 텍스트 위치를 텍스트 버전의 작품에서 결정하고; 특정한 텍스트 위치가 페이지 끝 데이터와 연관된다고 결정하는 것에 응답하여, 제1 페이지가 디스플레이되는 것을 중지시키도록 자동으로 야기하고 또한 제1 페이지에 후속하는 제2 페이지가 디스플레이되도록 야기하도록 구성된다.
일부 실시예들에 따르면, 작품의 제1 버전이 프로세싱되는 동안, 사용자로부터의 입력에 기초하는 주석 데이터를 획득하는 단계; 상기 작품과 상기 주석 데이터를 연관시키는 연관 데이터를 저장하는 단계; 및 상기 작품의 제2 버전이 프로세싱되는 동안, 상기 주석 데이터에 관한 정보가 디스플레이되게 하는 단계를 포함하는 방법이 제공되며, 상기 제2 버전은 상기 제1 버전과 상이하고, 상기 방법은 하나 이상의 컴퓨팅 디바이스에 의해 수행된다.
일부 실시예들에서, 획득하는 단계는 상기 작품의 상기 제1 버전 내의 특정된 위치를 나타내는 위치 데이터를 결정하는 단계를 포함하고; 저장하는 단계는 상기 작품과 연관하여 상기 위치 데이터를 저장하는 단계를 포함하고; 상기 특정된 위치는 상기 작품의 제2 버전 내의 특정 위치에 대응하고; 디스플레이되게 하는 단계는, 상기 주석 데이터에 관한 정보가 상기 제2 버전 내의 상기 특정 위치와 연관하여 디스플레이되게 하는 단계를 포함한다.
일부 실시예들에서, 상기 제1 버전은 상기 작품의 오디오 버전이고, 상기 제2 버전은 상기 작품의 텍스트 버전이며; 상기 주석 데이터에 관한 정보가 디스플레이되게 하는 단계는, 상기 특정 위치에 대응하는 상기 작품의 텍스트 버전의 일부분이 디스플레이될 때를 결정하는 단계; 및 상기 특정 위치에 대응하는 상기 작품의 텍스트 버전의 일부분이 디스플레이된다고 결정한 것에 응답하여, 상기 주석 데이터에 관한 정보가 디스플레이되게 하는 단계를 포함한다. 일부 실시예들에서, 상기 제1 버전은 상기 작품의 텍스트 버전이고, 상기 제2 버전은 상기 작품의 오디오 버전이며; 상기 주석 데이터에 관한 정보가 디스플레이되게 하는 단계는, 상기 특정 위치에 대응하는 상기 작품의 오디오 버전의 일부분이 플레이될 때를 결정하는 단계; 및 상기 특정 위치에 대응하는 상기 작품의 텍스트 버전의 일부분이 플레이된다고 결정한 것에 응답하여, 상기 주석 데이터에 관한 정보가 디스플레이되게 하는 단계를 포함한다.
일부 실시예들에서, 상기 주석 데이터는 텍스트 데이터를 포함하고; 상기 주석 데이터에 관한 정보가 디스플레이되게 하는 단계는 상기 텍스트 데이터가 디스플레이되게 하는 단계를 포함한다. 일부 실시예들에서, 상기 주석 데이터는 음성 데이터를 포함하고; 상기 주석 데이터에 관한 정보가 디스플레이되게 하는 단계는 상기 음성 데이터가 오디오를 생성하도록 처리되게 하는 단계를 포함한다.
일부 실시예들에 따르면, 작품의 제1 버전이 프로세싱되는 동안, 사용자로부터의 입력에 기초하는 주석 데이터를 획득하도록 구성되는 주석 획득 유닛; 및 상기 주석 획득 유닛과 연관 데이터 저장 유닛에 연결되는 프로세싱 유닛을 포함하는 전자 디바이스가 제공되고, 상기 프로세싱 유닛은, 상기 작품과 상기 주석 데이터를 연관시키는 연관 데이터가 저장되게 하고; 상기 작품의 제2 버전이 프로세싱되는 동안, 상기 주석 데이터에 관한 정보가 디스플레이되게 하도록 구성되고, 상기 제2 버전은 상기 제1 버전과 상이하다.
일부 실시예들에 따르면, 작품의 제1 버전 내에 제1 북마크를 구축하는 데이터를 수신하는 단계를 포함하는 방법이 제공된다. 이 방법은, 상기 작품의 상기 제1 버전 내의 복수의 제1 위치들과 상기 작품의 제2 버전 내의 대응하는 복수의 제2 위치들 사이의 맵핑을 검사하여: 상기 복수의 제1 위치들 중에서 상기 제1 북마크에 대응하는 특정 제1 위치를 결정하고, 상기 특정 제1 위치에 기초하여, 상기 복수의 제2 위치들 중에서 상기 특정 제1 위치에 대응하는 특정 제2 위치를 결정하는 단계를 더 포함하고, 상기 작품의 상기 제1 버전은 상기 작품의 상기 제2 버전과 상이하다. 이 방법은, 상기 작품의 상기 제2 버전 내의 제2 북마크로서 상기 특정 제2 위치를 구축하는 데이터가 저장되게 하는 단계를 더 포함하고, 상기 방법은 하나 이상의 컴퓨팅 디바이스에 의해 수행된다.
일부 실시예들에서, 수신하는 단계는 서버가 네트워크를 통해 제1 디바이스로부터 입력을 수신하는 단계를 포함하고; 검사하는 단계는 상기 서버에 의해 수행되고; 저장되게 하는 단계는 상기 서버가 제2 디바이스에 상기 특정 제2 위치를 전송하는 단계를 포함한다. 일부 실시예들에서, 상기 제1 디바이스와 상기 제2 디바이스는 상이한 디바이스들이다. 일부 실시예들에서, 상기 작품의 상기 제1 버전은 상기 작품의 오디오 버전 또는 상기 작품의 텍스트 버전 중 하나이고, 상기 작품의 상기 제2 버전은 상기 오디오 버전 또는 상기 텍스트 버전 중 다른 하나이다.
일부 실시예들에 따르면, 작품의 제1 버전 내에 제1 북마크를 구축하는 데이터를 수신하도록 구성된 데이터 수신 유닛을 포함하는 전자 디바이스가 제공된다. 전자 디바이스는 또한 상기 데이터 수신 유닛에 연결된 프로세싱 유닛을 포함하고, 상기 프로세싱 유닛은, 상기 작품의 상기 제1 버전 내의 복수의 제1 위치들과 상기 작품의 제2 버전 내의 대응하는 복수의 제2 위치들 사이의 맵핑을 검사하여: 상기 복수의 제1 위치들 중에서 상기 제1 북마크에 대응하는 특정 제1 위치를 결정하고, 상기 특정 제1 위치에 기초하여, 상기 복수의 제2 위치들 중에서 상기 특정 제1 위치에 대응하는 특정 제2 위치를 결정하도록 구성되고, 상기 작품의 상기 제1 버전은 상기 작품의 상기 제2 버전과 상이하다. 상기 프로세싱 유닛은 또한 상기 작품의 상기 제2 버전 내의 제2 북마크로서 상기 특정 제2 위치를 구축하는 데이터가 저장되게 하도록 구성된다.
일부 실시예들에 따르면, 작품의 텍스트의 일부분이 디바이스에 의해 디스플레이되게 하는 단계; 상기 텍스트의 일부분이 디스플레이되는 동안: 상기 디바이스에서, 사용자로부터 오디오 입력을 수신하는 단계를 포함하는 방법이 제공된다. 이 방법은 또한 상기 오디오 입력을 수신하는 것에 응답하여: 상기 오디오 입력을 분석하여 하나 이상의 단어들을 식별하는 단계; 상기 하나 이상의 단어들이 상기 텍스트의 일부분에 반영되어 있는지를 결정하는 단계; 및 상기 하나 이상의 단어들이 상기 텍스트의 일부분에 반영되어 있다고 결정한 것에 응답하여, 시각적 표시가 상기 디바이스에 의해 디스플레이되게 하는 단계를 포함한다. 일부 실시예들에서, 상기 시각적 표시가 디스플레이되게 하는 단계는, 상기 하나 이상의 단어들에 대응하는 텍스트 데이터가 강조 표시되게 하는 단계를 포함한다.
일부 실시예들에 따르면, 작품의 텍스트의 일부분이 디바이스에 의해 디스플레이되게 하도록 구성되는 프로세싱 유닛; 및 상기 프로세싱 유닛에 연결되고, 상기 디바이스에서, 사용자로부터 오디오 입력을 수신하도록 구성되는 오디오 수신 유닛을 포함하는 전자 디바이스가 제공된다. 상기 프로세싱 유닛은 또한 상기 오디오 수신 유닛에서 상기 오디오 입력을 수신하는 것에 응답하여: 상기 오디오 입력을 분석하여 하나 이상의 단어들을 식별하고; 상기 하나 이상의 단어들이 상기 텍스트의 일부분에 반영되어 있는지를 결정하고; 상기 하나 이상의 단어들이 상기 텍스트의 일부분에 반영되어 있다고 결정한 것에 응답하여, 시각적 표시가 상기 디바이스에 의해 디스플레이되게 하도록 구성된다.
일부 실시예들에 따르면, 컴퓨터 판독가능 저장 매체가 제공되는데, 이 컴퓨터 판독가능 저장 매체는 전자 디바이스의 하나 이상의 프로세서에 의해 실행되는 하나 이상의 프로그램을 저장하며, 이 하나 이상의 프로그램은 전술한 방법들 중 어느 하나를 수행하기 위한 명령어들을 포함한다. 일부 실시예들에 따르면, 전술한 방법들 중 어느 하나를 수행하기 위한 수단을 포함하는 전자 디바이스가 제공된다. 일부 실시예들에서는, 하나 이상의 프로세서, 및 하나 이상의 프로세서에 의해 실행되는 하나 이상의 프로그램을 저장하는 메모리를 포함하는 전자 디바이스가 제공되며, 하나 이상의 프로그램은 전술한 방법들 중 어느 하나를 수행하기 위한 명령어들을 포함한다. 일부 실시예들에서는, 전자 디바이스에서 이용하기 위한 정보 프로세싱 장치가 제공되는데, 이 정보 프로세싱 장치는 전술한 방법들 중 어느 하나를 수행하기 위한 수단을 포함한다.
본 섹션에 설명된 접근법은, 추구될 수 있지만, 반드시 이전에 인식되거나 추구되어야 하는 것은 아닌 접근법이다. 따라서, 달리 지시되지 않는다면, 본 섹션에서 설명되는 어떠한 접근법들도 본 섹션에서의 단지 포괄에 의해 종래 기술로서 한정하는 것으로 가정되어서는 안 된다.
도 1은 본 발명의 일 실시예에 따라, 텍스트 데이터와 오디오 데이터 간의 맵핑을 자동으로 생성하기 위한 프로세스를 도시하는 흐름도.
도 2는 본 발명의 일 실시예에 따라, 텍스트 데이터와 오디오 데이터 간의 맵핑 생성시 오디오-텍스트 상관자를 수반하는 프로세스를 도시하는 블록도.
도 3은 본 발명의 일 실시예에 따라, 이러한 시나리오들 중 하나 이상에서 맵핑을 이용하기 위한 프로세스를 도시하는 흐름도.
도 4는 본 발명의 일 실시예에 따라, 본 명세서에서 설명된 프로세스들 중 몇몇을 구현하는데 이용될 수 있는 예시적인 시스템(400)을 도시하는 블록도.
도 5a 및 도 5b는 본 발명의 일 실시예에 따라, 북마크 스위칭을 위한 프로세스들을 도시하는 흐름도.
도 6은 본 발명의 일 실시예에 따라, 작품의 오디오 버전이 재생되면서 텍스트 버전의 작품으로부터 텍스트가 강조 표시되도록 야기하기 위한 프로세스를 도시하는 흐름도.
도 7은 본 발명의 일 실시예에 따라, 사용자로부터의 오디오 입력에 응답하여 디스플레이된 텍스트를 강조 표시하는 프로세스를 도시하는 흐름도.
도 8a 및 도 8b는 본 발명의 일 실시예에 따라, 하나의 미디어 컨텍스트로부터 다른 미디어 컨텍스트로 주석을 전달하기 위한 프로세스들을 도시하는 흐름도.
도 9는 본 발명의 일 실시예가 구현될 수 있는 컴퓨터 시스템을 나타내는 블록도.
도 10 내지 도 18은 몇몇 실시예들에 따른 전자 디바이스들의 기능 블록도.
다음 기재에서, 설명을 위해, 본 발명의 완전한 이해를 제공하도록 다수의 특정 상세가 개시된다. 그러나, 본 발명은 이들 특정 상세 없이도 실시될 수 있다는 것은 자명하다. 다른 예에서, 공지의 구조 및 장치들은 본 발명을 불필요하게 모호하게 하는 것을 피하기 위해 블록도 형태로 도시된다.
오디오-텍스트 맵핑의 자동 생성의 개요
하나의 접근법에 따르면, 맵핑이 자동으로 생성되고, 여기서 맵핑은 오디오 버전의 작품(예컨대, 오디오 북)내의 위치들을 텍스트 버전의 작품(예컨대, 전자책)내의 대응하는 위치에 맵핑한다. 오디오 버전내에 반영된 단어를 식별하기 위해 오디오 버전상에서 음성-텍스트 분석을 수행하여 맵핑이 생성된다. 식별된 워드들은 텍스트 버전의 작품의 대응하는 단어들과 매칭된다. 맵핑은 식별된 단어들의 (오디오 버전내의) 위치들을 텍스트 버전의 작품내의 위치들과 연관시키고, 여기서 식별된 단어들이 발견된다.
오디오 버전 포맷들
오디오 데이터는, 책, 웹 페이지, 팜플렛, 전단지(flyer) 등과 같은 텍스트 버전의 작품의 텍스트의 오디오 리딩을 반영한다. 오디오 데이터는 하나 이상의 오디오 파일에 저장될 수 있다. 하나 이상의 오디오 파일은 다수의 파일 포맷 중 하나가 될 수 있다. 오디오 파일 포맷의 비-제한적 예들은 AAC, MP3, WAV, 및 PCM을 포함한다.
텍스트 버전 포맷들
유사하게, 오디오 데이터가 맵핑되는 텍스트 데이터는 다수의 문서 파일 포맷 중 하나에 저장될 수 있다. 문서 파일 포맷의 비-제한적 예들은 DOC, TXT, PDF, RTF, HTML, XHTML 및 EPUB를 포함한다.
전형적인 EPUB 문서는, (a) 각각의 XHTML 컨텐츠 문서를 열거하고, (b) XHTML 컨텐츠 문서의 순서를 나타내는 파일을 수반한다. 예컨대, 책이 20 챕터들을 포함하면, 다음에 그 책에 대한 EPUB 문서는, 각 챕터 마다 하나씩, 20개의 상이한 XHTML 문서를 가질 수 있다. EPUB 문서를 수반하는 파일은 책 내의 챕터들의 순서에 대응하는 XHTML 문서들의 순서를 식별한다. 따라서, 하나의 (논리적) 문서(EPUB 문서 또는 다른 타입의 문서이든지)는 복수의 데이터 아이템 또는 파일을 포함할 수 있다.
텍스트 데이터 내에 반영된 단어 또는 문자는 하나 또는 복수의 언어들이 될 수 있다. 예컨대, 텍스트 데이터의 일부분은 영어가 될 수 있고, 텍스트 데이터의 다른 부분은 불어가 될 수 있다. 영어 단어들의 예들이 여기에 제공됨에도 불구하고, 본 발명의 실시예는 문자-기반 언어를 포함하는 다른 언어들에도 적용될 수 있다.
맵핑 내의 오디오 및 텍스트 위치들
여기 개시된 바와 같이, 맵핑은 한 세트의 맵핑 기록들을 포함하고, 여기서 각각의 맵핑 기록은 오디오 위치를 텍스트 위치와 관련시킨다.
각각의 오디오 위치는 오디오 데이터 내의 위치를 식별한다. 오디오 위치는 오디오 데이터 내의 절대 위치, 오디오 데이터 내의 상대 위치, 또는 절대 위치와 상대 위치의 조합을 표시할 수 있다. 절대 위치의 일례로서, 오디오 위치는 오디오 데이터로의 시간 오프셋(예컨대, 4시간 32분 24초를 나타내는 04:32:24), 또는 전술한 예 A에 나타난 바와 같은 시간 범위를 표시할 수 있다. 상대 위치의 일례로서, 오디오 위치는 챕터 번호, 문단 번호, 및 라인 번호를 표시할 수 있다. 절대 위치 및 상대 위치의 조합의 일례로서, 오디오 위치는 챕터 번호와 챕터 번호에 의해 표시되는 챕터에서의 시간 오프셋을 표시할 수 있다.
유사하게, 각각의 텍스트 위치는 텍스트 버전의 작품과 같은 텍스트 데이터 내의 위치를 식별한다. 텍스트 위치는 텍스트 버전의 작품 내의 절대 위치, 텍스트 버전의 작품 내의 상대 위치, 또는 절대 위치와 상대 위치의 조합을 표시할 수 있다. 절대 위치의 일례로서, 텍스트 위치는 텍스트 버전의 작품으로의 바이트 오프셋 및/또는 텍스트 버전의 작품 내의 "앵커"를 표시할 수 있다. 앵커는 텍스트의 특정 위치 또는 부분을 식별하는 텍스트 데이터 내의 메타데이터이다. 앵커는 엔드-사용자에게 디스플레이되는 텍스트 데이터 내의 텍스트로부터 별개로 저장될 수 있거나, 또는 엔드-사용자에게 디스플레이되는 텍스트 중에 저장될 수 있다. 예컨대, 텍스트 데이터는 다음 문장들을 포함할 수 있다: "Why did the chicken <i name = "123"/>cross the road?" 여기서 "<i name="123"/>"은 앵커이다. 문장이 사용자에게 디스플레이되면, 사용자는 단지 "Why did the chicken cross the road?" 만을 보게된다. 유사하게, 동일한 문장은 다음과 같은 복수의 앵커들을 가질 수 있다: "<i name="123"/>Why <i name="124"/>did <i name="125"/>the <i name="126"/>chicken <i name="127"/>cross <i name="128"/>the <i name="129"/>road?" 이 예에서, 문장내의 각각의 단어 앞에 앵커가 존재한다.
상대 위치의 일례로서, 텍스트 위치는 페이지 번호, 챕터 번호, 문단 번호, 및/또는 라인 번호를 표시할 수 있다. 절대 위치 및 상대 위치의 조합의 일례로서, 텍스트 위치는 챕터 번호 및 챕터 번호에 의해 표시되는 챕터에서의 앵커를 표시할 수 있다.
텍스트 위치 및 오디오 위치를 나타내는 방법의 일례가 "EPUB Media Overlays 3.0"이란 명칭의 명세서 내에 제공되며, 이것은 SMIL(Synchronized Multimedia Integration Language), EPUB 스타일 시트, 및 EPUB 컨텐츠 문서의 사용을 정의한다. 텍스트 위치를 오디오 위치와 연관시키고 명세서 내에 제공되는 연관의 일례는 다음과 같다.
Figure pat00001
예시 A
예시 A에서, "par" 구성요소는 두 개의 자녀 구성요소를 포함한다: "text" 구성요소 및 "audio" 구성요소. 텍스트 구성요소는 책의 제1 챕터로부터의 컨텐츠를 포함하는 XHTML 문서 내의 특정 문장을 식별하는 속성(attribute) "src"를 포함한다. 오디오 구성요소는, 책의 제1 챕터의 오디오 버전을 포함하는 오디오 파일을 식별하는 "src" 속성, 오디오 파일 내의 오디오 클립이 시작하는 위치를 식별하는 "clipBegin" 속성, 및 오디오 파일 내의 오디오 클립이 종료하는 위치를 식별하는 "clipEnd" 속성을 포함한다. 따라서, 오디오 파일 내의 23 내지 45초가 책의 챕터 1 내의 제1 문장에 대응한다.
텍스트와 오디오 간의 맵핑 생성
실시예에 따르면, 텍스트 버전의 작품과 동일한 작품의 오디오 버전 간의 맵핑이 자동적으로 생성된다. 맵핑이 자동적으로 생성되기 때문에, 맵핑은 수동 텍스트-오디오 맵핑 기술들을 실질적으로 이용했을 때보다 훨씬 더 양호한 입도를 이용할 수 있다. 각각 자동적으로 생성된 텍스트-오디오 맵핑은 각각 텍스트 버전에서의 텍스트 위치와 오디오 버전에서의 오디오 위치를 연관시키는 여러 맵핑 기록을 포함한다.
도 1은 본 발명의 실시예에 따라 텍스트 버전의 작품과 동일한 작품의 오디오 버전 간의 맵핑을 자동적으로 생성하는 프로세스(100)를 묘사하는 흐름도이다. 단계 110에서, 음성-텍스트 분석기(speech-to-text analyzer)가 작품의 오디오 버전을 반영하는 오디오 데이터를 수신한다. 단계 120에서, 음성-텍스트 분석기가 오디오 데이터의 분석을 수행하면서, 음성-텍스트 분석기는 오디오 데이터의 부분에 대해 텍스트를 생성한다. 단계 130에서, 오디오 데이터의 부분들에 대해 생성된 텍스트에 기초하여, 음성-텍스트 분석기가 작품의 오디오 데이터 내의 복수의 오디오 위치와 텍스트 버전 내의 대응하는 복수의 텍스트 위치 간의 맵핑을 생성한다.
단계 130은 음성-텍스트 분석기가, 텍스트 버전의 작품 내에서 생성된 텍스트가 위치된 곳을 결정하도록, 생성된 텍스트를 텍스트 버전의 작품에서의 텍스트와 비교하는 단계를 수반할 수 있다. 텍스트 버전의 작품에서 발견되는 생성된 텍스트의 각각의 부분에 대해, 음성-텍스트 분석기는 오디오 데이터 내에서 대응하는 오디오 데이터의 부분이 발견되는 곳을 지시하는 오디오 위치(1)와 텍스트 버전의 작품 내에서 텍스트의 부분이 발견되는 곳을 지시하는 텍스트 위치(2)와 연관한다.
텍스트 컨텍스트
모든 문서는 "텍스트 컨텍스트(textual context)"를 가진다. 텍스트 버전의 작품의 텍스트 컨텍스트는 텍스트 버전의 작품의 내재적 특성들(예를 들어, 텍스트 버전의 작품이 쓰여진 언어, 텍스트 버전의 작품이 이용하는 특정 단어들, 텍스트 버전의 작품이 이용하는 문법 및 구두점(punctuation), 텍스트 버전의 작품이 구성되는 방식 등) 및 작품의 외재적 특성들(예를 들어, 작품이 생성되었던 연대, 작품이 속하는 장르, 작품의 저자 등)을 포함한다.
다른 작품들은 상당히 다른 텍스트 컨텍스트들을 가질 수 있다. 예를 들어, 고전 영어 소설에서 이용되는 문법은 현대 시의 문법과 크게 다를 수 있다. 따라서, 특정 단어 순서가 한 문법의 규칙을 따를 수는 있지만, 동일한 어순이 다른 문법의 규칙은 위반할 수 있다. 유사하게, 고전 영어 소설과 현대 시 모두에서 이용되는 문법은 십대들이 서로 주고받는 텍스트 메시지에서 채택되는 문법(또는 문법의 결여)과 다를 수 있다.
앞에서 언급한 바와 같이, 여기서 기술된 하나의 기술은 작품의 오디오 버전의 음성-텍스트 변환을 수행함으로써 작품의 오디오 버전과 동일한 텍스트 버전의 작품 간의 양호한 입도 맵핑을 자동으로 생성한다. 일 실시예에서, 작품의 텍스트 컨텍스트는 작품의 오디오 버전상에서 수행되는 음성-텍스트 분석의 정확도를 향상시키기 위해 이용된다. 예를 들어, 작품에서 채택된 문법을 결정하기 위해, 음성-텍스트 분석기는(또는 다른 프로세스는) 음성-텍스트 분석을 수행하기 전에 텍스트 버전의 작품을 분석할 수 있다. 음성-텍스트 분석기는 그러면 문법 정보를 이용할 수 있어서 그에 따라 작품의 오디오 버전의 음성-텍스트 분석의 정확성이 향상된다.
텍스트 버전의 작품에 기초하여 작품의 문법을 자동적으로 결정하는 것 대신에 또는 이것에 추가로, 사용자는 작품의 저자가 따르는 하나 이상의 문법의 규칙을 식별하는 입력을 제공할 수 있다. 식별된 문법과 연관된 규칙들은 작품의 오디오 버전에서의 단어들을 인식하는 데에 분석기를 돕기 위한 음성-텍스트 분석기로의 입력이다.
텍스트 버전에 기초하여 후보 사전을 제한
전형적으로, 음성-텍스트 분석기들은 영어로 된 사실상(virtually) 모든 단어 및 선택적으로는 다른 언어들로 된 몇몇 단어를 인식하도록 구성되거나 설계되어야만 한다. 따라서, 음성-텍스트 분석기들은 큰 단어 사전에 액세스해야만 한다. 음성-텍스트 분석기가 음성-텍스트 동작 동안에 단어들을 선택하는 사전은 여기서 음성-텍스트 분석기의 "후보 사전(candidate dictionary)"이라고 한다. 전형적인 후보 사전에서의 고유(unique) 단어들의 수는 약 500,000이다.
일 실시예에서, 텍스트 버전의 작품으로부터의 텍스트는 작품의 오디오 버전의 음성-텍스트 분석을 수행할 때에 고려된다. 구체적으로, 일 실시예에서, 작품의 오디오 버전의 음성-텍스트 분석 동안에, 음성-텍스트 분석기에 의해 이용되는 후보 사전은 텍스트 버전의 작품에 있는 단어들의 특정 세트로 제한된다. 다시 말하면, 작품의 오디오 버전상에서 수행되는 음성-텍스트 동작 동안에 "후보들"로 고려되는 단어들은 텍스트 버전의 작품에서 실제로 나타나는 그 단어들이다.
특정 작품의 음성-텍스트(speech-to-text) 변환에 사용되는 후보 사전을 텍스트 버전의 작품(textual version)에 나타나는 단어들로 제한함으로써 음성-텍스트 동작은 현저하게 개선될 수 있다. 예를 들어, 특정 작품에서 고유한 단어들의 수가 20,000개라고 가정한다. 종래의 음성-텍스트 분석기는 오디오의 특정 부분이 대응하는 부분을 500,000 단어의 후보 사전 중 어떤 특정한 단어로 결정할지 어려움을 가질 수 있다. 그러나, 텍스트 버전의 작품에 있는 오직 20,000개의 고유한 단어들이 고려되는 경우, 오디오의 동일한 부분은 명백하게 하나의 특정 단어에 대응할 수 있다. 따라서, 가능한 단어들에 대한 보다 작은 사전을 이용하여, 음성-텍스트 분석기의 정확도가 현저하게 개선될 수 있다.
현재 위치에 기초하여 후보 사전을 제한
정확성을 개선하기 위해, 텍스트 버전의 작품에서의 모든 단어들보다 훨씬 적은 단어들로 후보 사전이 제한될 수 있다. 일 실시예에서, 후보 사전은 텍스트 버전의 작품의 특정 부분에서 발견된 이러한 단어들로 제한된다. 예를 들어, 작품의 음성-텍스트 변환 동안에, 텍스트 버전의 작품에 대한 변환 동작의 "현재 변환 위치"를 대략적으로 추적하는 것이 가능하다. 예를 들어, 그러한 추적은 (a)지금까지 음성-텍스트 동작 동안에 생성된 텍스트를 (b)텍스트 버전의 작품과 비교함으로써 수행될 수 있다.
현재의 변환 위치가 결정되면, 후보 사전은 현재의 변환 위치에 기초하여 더 제한될 수 있다. 예를 들어, 일 실시예에서, 후보 사전은 현재의 변환 위치 이후의, 텍스트 버전의 작품 내에서 나타나는 그러한 단어들로만 제한된다. 따라서, 현재의 변환 위치 이후가 아닌, 현재의 변환 위치 이전에 발견된 단어들은 후보 사전으로부터 효과적으로 제거된다. 더 작은 후보 사전일수록, 음성-텍스트 분석기가 오디오 데이터의 일부를 잘못된 단어로 변환할 가능성이 적기 때문에, 그러한 제거는 음성-텍스트 분석기의 정확성을 증가시킬 수 있다.
다른 예로서, 음성-텍스트 분석 이전에, 오디오 북 및 디지털 북은 다수의 세그먼트 또는 섹션으로 분할될 수 있다. 오디오 북은 오디오 섹션 맵핑과 연관될 수 있고, 디지털 북은 텍스트 섹션 맵핑과 연관될 수 있다. 예를 들어, 오디오 섹션 맵핑과 텍스트 섹션 맵핑은 각각의 챕터가 시작하거나 종료하는 곳을 식별할 수 있다. 이들 각각의 맵핑들은 음성-텍스트 분석기에 의해 사용되어 후보 사전을 제한할 수 있다. 예를 들어, 음성-텍스트 분석기가, 오디오 섹션 맵핑에 기초하여, 음성-텍스트 분석기가 오디오 북의 4번째 챕터를 분석중임을 판정하면, 음성-텍스트 분석기는 텍스트 섹션 맵핑을 이용하여 디지털 북의 4번째 챕터를 식별하고 4번째 챕터에서 발견된 단어들로 후보 사전을 제한한다.
관련 실시예에서, 음성-텍스트 분석기는 현재의 변환 위치가 이동함에 따라 이동하는 슬라이딩 윈도우를 이용한다. 음성-텍스트 분석기가 오디오 데이터를 분석중일 때, 음성-텍스트 분석기는 작품의 테스트 버전을 "가로질러" 슬라이딩 윈도우를 이동시킨다. 슬라이딩 윈도우는 텍스트 버전의 작품 내의 2개의 위치를 나타낸다. 예를 들어, 슬라이딩 윈도우의 경계들은 (a) 현재의 변환 위치에 선행하는 단락의 시작 및 (b) 현재의 변환 위치 이후의 세 번째 단락의 종료일 수 있다. 후보 사전은 이들 2개의 위치들 사이에 나타나는 이러한 단어들만으로 한정된다.
특정 예가 전술되었으나, 윈도우는 텍스트 버전의 작품 내의 임의의 양의 텍스트를 스팬(span)할 수 있다. 예를 들어, 윈도우는 60개의 문자와 같이 절대적 양의 텍스트를 스팬할 수 있다. 다른 예에서는, 윈도우는 10개의 단어들, 텍스트의 3개의 "라인들", 2개의 문장들, 또는 텍스트의 1 "페이지"와 같이 상대적 양의 텍스트를 텍스트 버전의 작품으로부터 스팬할 수 있다. 상대적 양의 시나리오에서, 음성-텍스트 분석기는 텍스트 버전의 작품의 얼마나 많은 부분이 라인 또는 페이지를 이루는지를 판정하기 위해 텍스트 버전의 작품 내에서 포맷팅 데이터를 사용할 수 있다. 예를 들어, 텍스트 버전의 작품은 페이지 표시자(예를 들어, HTML 또는 XML 태그의 형식으로)를 포함할 수 있고, 이 페이지 표시자는 텍스트 버전의 작품의 컨텐츠 내에서 페이지의 시작 또는 페이지의 종료를 나타낸다.
실시예에서, 윈도우의 시작은 현재의 변환 위치에 대응한다. 예를 들어, 음성-텍스트 분석기는 텍스트 버전의 작품에서 가장 최근에 매칭된 단어를 나타내는 현재의 텍스트 위치를 유지하고, 오디오 데이터에서 가장 최근에 식별된 단어를 나타내는 현재의 오디오 위치를 유지한다. 화자(narrator)(화자의 음성이 오디오 데이터에 반영)가 녹음 중에, 텍스트 버전의 작품을 잘못 읽고, 그/그녀 자신의 컨텐츠를 부가하거나, 텍스트 버전의 작품의 일부분들을 건너뛰지 않는 한, 음성-텍스트 분석기가 오디오 데이터에서 검출하는 다음 단어(즉, 현재의 오디오 위치 이후)는 텍스트 버전의 작품에서 다음 단어일 가능성이 매우 높다(즉, 현재의 텍스트 위치 이후). 위치들 모두를 유지하는 것은 음성-텍스트 변환의 정확성을 현저하게 증가시킬 수 있다.
오디오-오디오 상관을 이용하는 맵핑 생성
실시예에서, 텍스트-음성 생성기 및 오디오-텍스트 상관기가 이용되어 오디오 버전의 작품과 텍스트 버전의 작품 간의 맵핑을 자동적으로 생성한다. 도 2는 맵핑을 생성하기 위해 이용된 데이터 및 이러한 분석기들을 도시하는 블록도이다. (EPUB 문서와 같은) 텍스트 버전의 작품(210)이 텍스트-음성 생성기(220)에 입력된다. 텍스트-음성 생성기(220)는 소프트웨어, 하드웨어, 또는 하드웨어 및 소프트웨어의 조합으로 구현될 수 있다. 소프트웨어로 구현되든 또는 하드웨어로 구현되든, 텍스트-음성 생성기(220)는 단일의 컴퓨팅 디바이스 상에 구현될 수 있거나, 다수의 컴퓨팅 디바이스들 간에 분산될 수 있다.
텍스트-음성 생성기(220)는 문서(210)에 기초하여 오디오 데이터(230)를 생성한다. 오디오 데이터(230)의 생성 중에, 텍스트-음성 생성기(220)(또는 다른 도시되지 않은 컴포넌트)는 오디오-문서 맵핑(240)을 생성한다. 오디오-문서 맵핑(240)은 문서(210) 내의 다수의 텍스트 위치를 생성된 오디오 데이터(230) 내의 대응하는 오디오 위치들로 맵핑한다.
예를 들어, 텍스트-음성 생성기(220)는 문서(210) 내의 위치 Y에 위치된 단어에 대한 오디오 데이터를 생성한다고 가정한다. 또한, 작품에 대해 생성된 오디오 데이터가 오디오 데이터(230) 내의 위치 X에 위치된다고 가정한다. 문서(210) 내의 단어의 위치와 오디오 데이터(230)의 대응하는 오디오의 위치 사이의 상관을 반영하기 위해, 위치 X와 위치 Y 사이에 맵핑이 생성된다.
텍스트-음성 생성기(220)는 오디오의 대응하는 단어 또는 구문(phrase)이 생성되는 경우, 문서(210)에서 단어 또는 어구가 나타나는 곳을 알고 있으므로, 대응하는 단어들 또는 구문들 간의 각각의 맵핑이 쉽게 생성될 수 있다.
오디오-텍스트 상관기(260)는, 입력으로서, 생성된 오디오 데이터(230), 오디오 북(250), 및 오디오-문서 맵핑(240)을 받아들인다. 오디오-텍스트 상관기(260)는 2개의 주요 단계들을 수행하는데, 오디오-오디오 상관 단계 및 룩업(look-up) 단계이다. 오디오-오디오 상관 단계에서, 오디오-텍스트 상관기(260)는 생성된 오디오 데이터(230)와 오디오 북(250)을 비교하여 오디오 데이터(230)의 부분들과 오디오 북(250)의 부분들 간의 상관을 판정한다. 예를 들어, 오디오-텍스트 상관기(260)는, 오디오 데이터(230)에서 표현된 각각의 단어에 대해 오디오 북(250)의 대응하는 단어의 위치를 판정할 수 있다.
상관을 구축하기 위해, 오디오 데이터(230)가 분할되는 입도(granularity)는 구현마다 변화할 수 있다. 예를 들어, 오디오 데이터(230) 내의 각각의 단어와 오디오 북(250) 내의 각각의 대응하는 단어 사이에 상관이 구축될 수 있다. 대안으로, 고정 지속시간의 시간 간격들(예를 들어, 오디오의 매 1분마다 1개의 맵핑)에 기초하여 상관이 구축될 수 있다. 또 다른 대안으로, 단락 또는 챕터 경계들, 상당한 일시정지(pause)들(예를 들어, 3초보다 긴 무음(silence)), 또는 오디오 북(250) 내의 오디오 마커들과 같은 오디오 북(250) 내의 데이터에 기초한 다른 위치들 등의 다른 기준에 기초하여 구축된 오디오의 부분들에 대해 상관이 구축될 수 있다.
오디오 데이터(230)의 일부분과 오디오 북(250)의 일부분 사이의 상관이 식별된 후에, 오디오-텍스트 상관기(260)는 오디오-문서 맵핑(240)을 사용하여 생성된 오디오 데이터(230) 내의 오디오 위치에 대응하는 (맵핑(240)으로 표시된) 텍스트 위치를 식별한다. 다음으로, 오디오-텍스트 상관기(260)는 텍스트 위치를 오디오 북(250) 내의 오디오 위치와 연관시켜 문서-오디오 맵핑(270) 내에 맵핑 기록을 생성한다.
예를 들어, (위치 Z에 위치하는) 오디오 북(250)의 일부분이 위치 X에 위치하는 생성된 오디오 데이터(230)의 일부분과 매칭된다고 가정한다. 위치 X를 문서(210) 내의 위치 Y에 상관시키는 (오디오-문서 맵핑(240)에서의) 맵핑 기록에 기초하여, 오디오 북(250)의 위치 Z와 문서(210) 내의 위치 Y를 상관시키는 문서-오디오 맵핑(270)의 맵핑 기록이 생성될 수 있다.
*오디오 텍스트 상관기(260)는 오디오 데이터(230)의 각각의 부분에 대해 오디오-오디오 상관 및 룩업 단계들을 반복적으로 수행한다. 따라서, 문서-오디오 맵핑(270)은 복수의 맵핑 기록을 포함하고, 각각의 맵핑 기록은 문서(210) 내의 위치를 오디오 북(250) 내의 위치로 맵핑한다.
실시예에서, 오디오 데이터(230)의 각각의 부분에 대한 오디오-오디오 상관은 오디오의 그 부분에 대한 룩업 단계에 바로 후속한다. 따라서, 오디오 데이터(230)의 다음 부분으로 진행하기 전에 오디오 데이터(230)의 각각의 부분에 대해 문서-오디오 맵핑(270)이 생성될 수 있다. 대안으로, 임의의 룩업 단계가 수행되기 전에 오디오 데이터(230)의 부분들 모두 또는 오디오 데이터(230)의 다수의 부분들에 대해 오디오-오디오 상관 단계가 수행될 수 있다. 오대오-오디오 상관들 모두가 구축된 후에, 모든 부분들에 대한 룩업 단계들이 일괄적으로 수행될 수 있다.
맵핑 입도
맵핑은 다수의 속성들을 가지며, 속성들 중 하나는 맵핑의 크기이고, 맵핑의 크기는 맵핑에서 맵핑 기록들의 수를 지칭한다. 맵핑의 다른 속성은 맵핑의 "입도"이다. 맵핑의 "입도"는 디지털 작품의 크기에 대한 맵핑에서의 맵핑 기록들의 수를 지칭한다. 따라서, 맵핑의 입도는 디지털 작품마다 변화할 수 있다. 예를 들어, 200 "페이지들"을 포함하는 디지털 북에 대한 제1 맵핑은 디지털 북의 각각의 단락에 대하여만 맵핑 기록을 포함한다. 따라서, 제1 맵핑은 1000개의 맵핑 기록들을 포함할 수 있다. 반면에, 20페이지들을 포함하는 디지털 "아동용" 북에 대한 제2 맵핑은 아동용 북의 각각의 단어에 대한 맵핑 기록을 포함한다. 따라서, 제2 맵핑은 800개의 맵핑 기록들을 포함할 수 있다. 제1 맵핑이 제2 맵핑보다 더 많은 맵핑 기록들을 포함하지만, 제2 맵핑의 입도는 제1 맵핑의 입도보다 미세하다.
실시예에서, 맵핑의 입도는 맵핑을 생성하는 음성-텍스트 분석기로의 입력에 기초하여 지시될 수 있다. 예를 들어, 사용자는 음성-텍스트 분석기가 맵핑을 생성하도록 하기 전에 특정한 입도를 지정할 수 있다. 특정한 입도들의 비제한적인 예시들은 다음을 포함한다:
- 단어 입도 (즉, 각각의 단어에 대한 연관)
- 문장 입도 (즉, 각각의 문장에 대한 연관)
- 단락 입도 (즉, 각각의 단락에 대한 연관)
- 10 단어 입도 (즉, 디지털 작품에서 각각의 10 단어 부분에 대한 맵핑) 및
- 10초 입도 (즉, 오디오의 각 10초 동안의 맵핑).
다른 예시로서, 사용자는 디지털 작품(예를 들어, 소설, 아동용 북, 단편 소설)의 유형을 특정할 수 있고, 음성-텍스트 분석기(또는 다른 프로세스)는 작품의 유형에 기초하여 입도를 결정한다. 예를 들어, 아동용 북은 단어 입도와 연관될 수 있는 한편, 소설은 문장 입도와 연관될 수 있다.
맵핑의 입도는 동일한 디지털 작품 내에서도 변화할 수 있다. 예를 들어, 디지털 북의 처음 3개의 챕터들에 대한 맵핑은 문장 입도를 가질 수 있는 한편, 디지털 북의 나머지 챕터들에 대한 맵핑은 단어 입도를 갖는다.
텍스트-오디오 변환들 중에 온 더 플라이( on - the - fly ) 맵핑 생성
다수의 경우들에서, 사용자가 임의의 것에 의존하는 것을 필요로 하기 전에 오디오-텍스트 맵핑이 생성될 것이지만, 일 실시예에서, 오디오-텍스트 맵핑은 실행 시간에서 또는 사용자가 사용자 디바이스의 오디오 데이터 및/또는 텍스트 데이터의 소비를 개시한 후에 생성된다. 예를 들어, 사용자는 태블릿 컴퓨터를 이용하여 디지털 북의 텍스트 버전을 읽는다. 태블릿 컴퓨터는 태블릿 컴퓨터가 사용자에게 디스플레이한 디지털 북의 최근 페이지 또는 섹션에 대한 추적을 계속한다. 최근 페이지 또는 섹션은 "텍스트 북마크"에 의해 식별된다.
이후, 사용자는 동일한 작품의 오디오 북 버전을 재생하는 것을 선택한다. 재생 디바이스는 사용자가 디지털 북 또는 다른 디바이스를 읽고 있었던 동일한 태블릿 컴퓨터일 수 있다. 오디오 북이 재생되는 디바이스에 무관하게, 텍스트 북마크가 검색되고, 오디오 북의 적어도 일부분에 관한 음성-텍스트 분석이 수행된다. 음성-텍스트 분석 중에, 생성된 텍스트와 오디오 북 내의 대응하는 위치들 사이의 상관을 구축하기 위해 "일시적인" 맵핑 기록들이 생성된다.
텍스트 및 상관 기록들이 일단 생성되면, 텍스트-텍스트 비교를 이용하여 텍스트 북마크에 대응하는 생성된 텍스트를 결정한다. 다음으로, 일시적인 맵핑 기록들을 사용하여 텍스트 북마크에 대응하는 생성된 텍스트의 일부분에 대응하는 오디오 북의 일부분을 식별한다. 다음으로, 그 부분으로부터 오디오 북의 재생이 개시된다.
음성-텍스트 분석이 수행되는 오디오 북의 부분은 텍스트 북마크에 대응하는 부분으로 제한될 수 있다. 예컨대, 오디오 북의 특정 부분들이 어디서 시작되고 그리고/또는 끝나는지를 나타내는 오디오 섹션 맵핑이 이미 존재할 수 있다. 예컨대, 오디오 섹션 맵핑은 각각의 챕터가 어디서 시작하는지, 하나 이상의 페이지들이 어디서 시작하는지 등을 나타낼 수 있다. 그러한 오디오 섹션 맵핑은 오디오 북 전체에 대한 음석-텍스트 분석이 수행될 필요가 없도록, 음성-텍스트 분석을 어디에서 시작할지를 결정하는 데 유용할 수 있다. 예컨대, 텍스트 북마크가 디지털 북의 12 챕터 내의 위치를 나타내고, 오디오 데이터와 연관되는 오디오 섹션 맵핑이 오디오 데이터 내의 어디에서 12 챕터가 시작되는지를 식별한다면, 음성-텍스트 분석은 오디오 북의 처음 11개의 챕터들 중 어디에서도 수행될 필요가 없다. 예컨대, 오디오 데이터는 각각의 챕터에 대해 하나의 오디오 파일을 갖는 20개의 오디오 파일들로 구성될 수 있다. 따라서, 12번째 챕터에 대응하는 단 하나의 오디오 파일만이 음성-텍스트 분석기에 입력된다.
음성-텍스트 변환 동안의 온-더-플라이 맵핑 생성
음성-텍스트 변환들 뿐 아니라 텍스트-음성 변환들을 용이하게 하기 위해 맵핑 기록들이 온-더-플라이로 생성될 수 있다. 예컨대, 사용자가 스마트폰을 사용하여 오디오 북을 청취하고 있다고 가정한다. 스마트폰은 재생되고 있는 오디오 북 내의 현재의 위치를 계속 추적한다. 현재 위치는 "오디오 북마크"에 의해 식별된다. 이후, 사용자는 태블릿 컴퓨터를 들고 오디오 북의 디지털 북 버전이 표시되도록 선택한다. 태블릿 컴퓨터는 (예컨대, 태블릿 컴퓨터 및 스마트폰에 대해 원격인 중앙 서버로부터) 오디오 북마크를 수신하고, 오디오 북의 적어도 일부의 음성-텍스트 분석을 수행하고, 오디오 북마크에 대응하는 오디오 북의 텍스트 버전 내의 텍스트의 일부에 대응하는 부분을 오디오 북 내에서 식별한다. 그 후, 태블릿 컴퓨터는 텍스트 버전 내의 식별된 부분을 디스플레이하기 시작한다.
음성-텍스트 분석이 수행되는 오디오 북의 부분은 오디오 북마크에 대응하는 부분으로 제한될 수 있다. 예컨대, 음성-텍스트 분석은 오디오 북 내의 오디오 북마크 이전의 하나 이상의 시간 세그먼트(예컨대, 초)들 및/또는 오디오 북 내의 오디오 북마크 이후의 하나 이상의 시간 세그먼트들을 스팬하는 오디오 북의 일부에 대해 수행된다. 생성된 텍스트의 일련의 단어들 또는 구문들이 텍스트 버전의 텍스트와 어디에서 일치하는지를 알아내기 위해 그 부분에 대한 음성-텍스트 분석에 의해 생성된 텍스트를 텍스트 버전 내의 텍스트와 비교한다.
*텍스트 버전의 특정 부분들이 어디에서 시작되는지 또는 종료되는지를 나타내는 텍스트 섹션 맵핑이 존재하고, 오디오 북마크가 텍스트 섹션 맵핑 내의 섹션을 식별하는 데 이용될 수 있다면, 생성된 텍스트 내의 일련의 단어들 또는 구문들이 텍스트 버전 내의 텍스트와 어디에서 일치하는지를 알아내기 위해 텍스트 버전의 대부분이 분석될 필요가 없다. 예컨대, 오디오 북마크가 오디오 북의 제3 챕터 내의 위치를 나타내고, 디지털 북과 연관되는 텍스트 섹션 맵핑이 텍스트 버전 내의 제3 챕터가 시작되는 위치를 식별한다면, 음성-텍스트 분석은 오디오 북의 처음 두 챕터들 중 어느 챕터에 대하여도 수행될 필요가 없으며, 오디오 북의 제3 챕터 이후의 어느 챕터들에 대하여도 수행될 필요가 없다.
오디오-텍스트 맵핑 이용의 개요
일 방법에 따르면, 디지털 텍스트 버전의 작품(예컨대, 전자책) 내의 위치들에 대응하는 디지털 오디오 버전의 작품(예컨대, 오디오 북) 내의 위치들을 식별하기 위해 (수동으로 생성되었든 또는 자동으로 생성되었든) 맵핑이 이용된다. 예컨대, 맵핑은 오디오 북 내에 구축된 "북마크"에 기초하여 전자책 내의 위치를 식별하기 위해 사용될 수 있다. 다른 예로서, 음성 녹음이 재생되고 있을 때, 표시된 어떤 텍스트가 그 텍스트를 읽는 사람의 음성 녹음에 대응하는지를 식별하고, 식별된 텍스트가 강조 표시되도록 하기 위해 맵핑이 이용될 수 있다. 따라서, 오디오 북이 재생되는 동안, 전자책 리더(reader)의 사용자는 전자책 리더가 대응하는 텍스트를 강조 표시하는 것을 따라갈 수 있다. 다른 예로서, 맵핑은 오디오 데이터 내의 위치를 식별하고, 전자책으로부터 디스플레이되는 텍스트를 선택하는 입력에 응답하여 그 위치에서 오디오를 재생하도록 사용될 수 있다. 따라서, 사용자는 전자책 내의 단어를 선택할 수 있으며, 이 선택은 그 단어에 대응하는 오디오가 재생되도록 한다. 다른 예로서, 사용자는 디지털 작품의 한 버전(예컨대, 전자책)을 "소비하는" (예컨대, 읽거나 청취하는) 동안 주석을 생성하고, 사용자가 디지털 작품의 다른 버전(예컨대, 오디오 북)을 소비하는 동안 그 주석이 소비되도록 할 수 있다. 따라서, 사용자는 전자책의 "페이지" 상에 주석을 달 수 있으며, 전자책의 오디오 북을 청취하는 동안 그 주석들을 볼 수 있다. 유사하게, 사용자는 오디오 북을 청취하는 동안 주석을 만들고, 대응하는 전자책을 읽을 때 그 주석을 볼 수도 있다.
도 3은 본 발명의 실시예에 따른, 하나 이상의 이러한 시나리오들에서 맵핑을 사용하기 위한 프로세스를 예시하는 흐름도이다.
단계 310에서, 제1 미디어 아이템 내의 특정된 위치를 나타내는 위치 데이터가 취득된다. 제1 미디어 아이템은 텍스트 버전의 작품, 또는 텍스트 버전의 작품에 대응하는 오디오 데이터일 수 있다. 이 단계는 제1 미디어 아이템을 소비하는 (사용자에 의해 작동되는) 디바이스에 의해 수행될 수 있다. 대안적으로, 그 단계는 제1 미디어 아이템을 소비하는 디바이스에 대해 원격으로 위치하는 서버에 의해 수행될 수 있다. 따라서, 디바이스는 통신 프로토콜을 사용하여 네트워크를 통해 위치 데이터를 서버에 전송한다.
단계 320에서, 특정된 위치에 대응하는 제1 미디어 위치를 식별하기 위해 맵핑이 검사된다. 유사하게, 이 단계는 제1 미디어 아이템을 소비하는 디바이스에 의해 수행되거나, 디바이스에 대해 원격으로 위치하는 서버에 의해 수행될 수 있다.
단계 330에서, 제1 미디어 위치에 대응하고 맵핑 내에 표시되는 제2 미디어 위치가 결정된다. 예컨대, 특정된 위치가 오디오 "북마크"라면, 제1 미디어 위치는 맵핑에서 표시되는 오디오 위치이고 제2 미디어 위치는 맵핑 내의 오디오 위치와 연관되는 텍스트 위치이다. 유사하게, 예를 들어, 특정된 위치가 텍스트 "북마크"라면, 제1 미디어 위치는 맵핑에서 표시되는 텍스트 위치이고 제2 미디어 위치는 맵핑 내의 텍스트 위치와 연관되는 오디오 위치이다.
단계 340에서, 제2 미디어 위치에 기초하여 제2 미디어 아이템이 처리된다. 예컨대, 제2 미디어 아이템이 오디오 데이터라면, 제2 미디어 위치는 오디오 위치이며, 오디오 데이터 내의 현재 재생 위치로서 사용된다. 다른 예로서, 제2 미디어 아이템이 텍스트 버전의 작품이라면, 제2 미디어 위치는 텍스트 위치이며, 텍스트 버전의 작품의 어떤 부분을 디스플레이할지를 결정하는 데 이용된다.
특정 시나리오들에서 프로세스(300)를 사용하는 예들이 아래에 제공된다.
아키텍처 개요
상기 언급되고 아래에서 상세하게 기술되는 각각의 예시적인 시나리오들은 하나 이상의 컴퓨팅 디바이스들을 포함할 수 있다. 도 4는 본 발명의 일 실시예에 따라 본 명세서에서 기술되는 프로세스들의 일부를 구현하기 위해 사용될 수 있는 예시적인 시스템(400)의 블록도이다. 시스템(400)은 최종-사용자 디바이스(410), 중개 디바이스(420), 및 최종-사용자 디바이스(430)를 포함한다. 최종-사용자 디바이스들(410 및 430)의 제한되지 않는 예들은 데스크탑 컴퓨터들, 랩탑 컴퓨터들, 스마트폰들, 테블릿 컴퓨터들, 및 다른 휴대용 컴퓨팅 디바이스들을 포함한다.
도 4에 도시된 바와 같이, 디바이스(410)는 디지털 미디어 아이템(402)을 저장하고 텍스트 미디어 플레이어(412) 및 오디오 미디어 플레이어(414)를 실행한다. 텍스트 미디어 플레이어(412)는 전자 텍스트 데이터를 처리하고 디바이스(410)가 (예를 들면, 도시되지 않은, 디바이스(410)의 터치 스크린 상에) 텍스트를 디스플레이하게 하도록 구성된다. 따라서, 만일 디지털 미디어 아이템(402)이 전자책이면, 디지털 미디어 아이템(402)이 텍스트 미디어 플레이어(412)가 처리하도록 구성된 텍스트 포맷을 가지는 한, 텍스트 미디어 플레이어(412)는 디지털 미디어 아이템(402)을 처리하도록 구성될 수 있다. 디바이스(410)는 비디오와 같은 다른 유형들의 미디어를 처리하도록 구성된 (도시되지 않은) 하나 이상의 다른 미디어 플레이어들을 실행할 수 있다.
유사하게, 오디오 미디어 플레이어(414)는 오디오 데이터를 처리하고 디바이스(410)가 (예를 들면, 도시되지 않은, 디바이스(410) 상의 스티커들을 통하여) 오디오를 생성하게 하도록 구성된다. 따라서, 만일 디지털 미디어 아이템(402)이 오디오 북이면, 디지털 미디어 아이템(402)이 오디오 미디어 플레이어(414)가 처리하도록 구성된 오디오 포맷을 가지는 한, 오디오 미디어 플레이어(414)는 디지털 미디어 아이템(402)을 처리하도록 구성될 수 있다. 아이템(402)이 전자책이든지 아니면 오디오 북이든지, 아이템(402)은 오디오 파일들이든 텍스트 파일들이든 복수의 파일들을 포함할 수 있다.
디바이스(430)는 디지털 미디어 아이템(404)을 마찬가지로 저장하고, 오디오 데이터를 처리하고 디바이스(430)가 오디오를 생성하게 하도록 구성된 오디오 미디어 플레이어(432)를 실행한다. 디바이스(430)는 비디오 및 텍스트와 같은 다른 유형들의 미디어를 처리하도록 구성된 (도시되지 않은) 하나 이상의 다른 미디어 플레이어들을 실행할 수 있다.
중개 디바이스(420)는 오디오 데이터 내의 오디오 위치들을 텍스트 데이터 내의 텍스트 위치에 맵핑하는 맵핑(406)을 저장한다. 예를 들면, 맵핑(406)은 디지털 미디어 아이템(404) 내의 오디오 위치들을 디지털 미디어 아이템(402) 내의 텍스트 위치들에 맵핑할 수 있다. 비록 도 4에 도시되지 않았지만, 중개 디바이스(420)는, 하나의 맵핑이 각각 대응하는 오디오 데이터 및 텍스트 데이터 세트에 대한 것인 다수의 맵핑들을 저장할 수 있다. 또한, 중개 디바이스(420)는 도시되지 않은 다수의 최종-사용자 디바이스들과 상호작용할 수 있다.
또한, 중개 디바이스(420)는 사용자들이 그들의 각자의 디바이스들을 통하여 액세스할 수 있는 디지털 미디어 아이템들을 저장할 수 있다. 따라서, 디지털 미디어 아이템의 로컬 복사본을 저장하는 대신에, 디바이스(예를 들면, 디바이스(430))는 중개 디바이스(420)로부터의 디지털 미디어 아이템을 요구할 수 있다.
추가로, 중개 디바이스(420)는 사용자의 하나 이상의 디바이스들을 단일의 계정에 연관시키는 계정 데이터를 저장할 수 있다. 따라서, 그러한 계정 데이터는 디바이스들(410 및 430)이 동일한 계정 아래 동일한 사용자에 의해 등록된다는 것을 나타낼 수 있다. 중개 디바이스(420)는 또한 계정을 특정의 사용자에 의해 소유된 (또는 구매된) 하나 이상의 디지털 미디어 아이템들과 연관시키는 계정-아이템 연관 데이터를 저장할 수 있다. 따라서, 중개 디바이스(420)는 계정-아이템 연관 데이터가 디바이스(430)와 특정의 디지털 미디어 아이템이 동일한 계정에 연관된다는 것을 나타내는지 여부를 결정함으로써, 디바이스(430)가 특정의 디지털 미디어 아이템을 액세스할 수 있다는 것을 확인할 수 있다.
비록 단지 두 개의 최종-사용자 디바이스들이 도시되지만, 최종-사용자는 전자책들 및 오디오 북들과 같은 디지털 미디어 아이템들을 소비하는 다소간의 디바이스들을 소유하고 작동할 수 있다. 유사하게, 비록 단지 하나의 중개 디바이스(420)가 도시되지만, 중개 디바이스(420)를 소유하고 동작하는 엔티티는 각각이 동일한 서비스를 제공하거나 최종-사용자 디바이스들(410 및 430)의 사용자들에게 서비스를 제공하도록 함께 동작할 수 있는 복수의 디바이스들을 동작할 수 있다.
중개 디바이스(420)와 최종-사용자 디바이스들(410 및 430) 사이의 통신은 네트워크(440)를 통하여 가능하게 된다. 네트워크(440)는 다양한 컴퓨팅 디바이스들 사이의 데이터의 교환을 제공하는 임의의 매체 또는 메커니즘에 의해 구현될 수 있다. 그러한 네트워크의 예들은, 제한됨이 없이, 구내 정보 통신망(LAN), 광역 통신망(WAN), 이더넷 또는 인터넷, 또는 하나 이상의 지상, 위성, 또는 무선 링크들과 같은 네트워크를 포함한다. 네트워크는 상기 기술된 것들과 같은 네트워크들의 조합을 포함할 수 있다. 네트워크는 전송 컨트롤 프로토콜(TCP), 사용자 다이어그램 프로토콜(UDP), 및/또는 인터넷 프로토콜(IP)에 따라서 데이터를 송신할 수 있다.
맵핑의 저장 위치
맵핑은 그 맵핑이 생성된 텍스트 데이터 및 오디오 데이터와는 분리하여 저장될 수 있다. 예를 들면, 도 4에 도시된 바와 같이, 비록 맵핑(406)은 다른 디지털 미디어 아이템에서의 미디어 위치에 기초하여 하나의 디지털 미디어 아이템에서 미디어 위치를 식별하는데 사용될 수 있지만 맵핑(406)은 디지털 미디어 아이템들(402 및 404)로부터 분리하여 저장된다. 사실, 맵핑(406)은 디지털 미디어 아이템들(402 및 404)을 각자 저장하는 디바이스들(410 및 430)보다는 분리된 컴퓨팅 디바이스(중개 디바이스(420))에 저장된다.
추가로 또는 대안적으로, 맵핑은 대응하는 텍스트 데이터의 부분으로서 저장될 수 있다. 예를 들면, 맵핑(406)은 디지털 미디어 아이템(402)에 저장될 수 있다. 하지만, 비록 맵핑이 텍스트 데이터의 부분으로서 저장되더라도, 맵핑은 텍스트 데이터를 소비하는 최종-사용자에게 디스플레이되지 않을 수 있다. 또한 추가로 또는 대안적으로, 맵핑은 오디오 데이터의 부분으로서 저장될 수 있다. 예를 들면, 맵핑(406)은 디지털 미디어 아이템(404)에 저장될 수 있다.
북마크 스위칭
"북마크 스위칭"은 디지털 작품의 하나의 버전 내의 특정한 위치(즉 "북마크")를 설정하고 북마크를 사용하여 디지털 작품의 다른 버전 내에서 대응하는 위치를 찾는 것을 지칭한다. 두 가지의 유형의 북마크 스위칭: 텍스트-오디오(TA) 북마크 스위칭과 오디오-텍스트(AT) 북마크 스위칭이 있다. TA 북마크 스위칭은 전자책에 설정된 텍스트 북마크를 사용하여 오디오 북에서 대응하는 오디오 위치를 식별하는 것을 수반한다. 역으로, 본 명세서에서 AT 북마크 스위칭으로 지칭되는 다른 유형의 북마크 스위칭은 오디오 북에 설정된 오디오 북마크를 사용하여 전자책 내에서 대응하는 텍스트 위치를 식별하는 것을 수반한다.
텍스트 오디오 북마크 스위칭
도 5a는 본 발명의 일 실시예에 따른 TA 북마크 스위칭을 위한 프로세스(500)를 도시하는 흐름도이다. 도 5a는 도 4에 도시된 시스템(400)의 구성 요소들을 사용하여 설명된다.
단계 502에서, 텍스트 미디어 플레이어(412)(예를 들면, e-리더)는 디지털 미디어 아이템(402)(예를 들면, 디지털 북) 내의 텍스트 북마크를 결정한다. 디바이스(410)는 디지털 미디어 아이템(402)으로부터의 컨텐츠를 디바이스(410)의 사용자에게 디스플레이한다.
텍스트 북마크는 사용자로부터의 입력에 응답하여 결정될 수 있다. 예를 들면, 사용자는 디바이스(410)의 터치 스크린 상의 영역을 터치할 수 있다. 그 영역에 있는 또는 그 영역 근처의, 디바이스(410)의 디스플레이는 하나 이상의 단어를 디스플레이한다. 입력에 응답하여, 텍스트 미디어 플레이어(412)는 영역에 가장 가까이 있는 하나 이상의 단어를 결정한다. 텍스트 미디어 플레이어(412)는 결정된 하나 이상의 단어에 기초하여 텍스트 북마크를 결정한다.
대안적으로, 텍스트 북마크는 사용자에게 디스플레이되었던 마지막 텍스트 데이터에 기초하여 결정될 수 있다. 예를 들면, 디지털 미디어 아이템(402)은 200 전자 "페이지들"을 포함할 수 있고 페이지 110은 디스플레이되었던 마지막 페이지였다. 텍스트 미디어 플레이어(412)는 페이지 110이 디스플레이되었던 마지막 페이지였다고 결정한다. 텍스트 미디어 플레이어(412)는 페이지 110을 텍스트 북마크로서 설정할 수 있거나 또는 페이지 110의 시작 부분에 있는 지점을 텍스트 북마크로서 설정할 수 있는데, 그 이유는 사용자가 읽기를 멈춘 부분을 알 어떠한 방법도 없을 수 있기 때문이다. 사용자가 적어도 페이지 109 상의 마지막 문장을 읽었다고 가정하는 것이 안전할 수 있는데, 이는 문장이 페이지 109 상에서 끝날 수 있거나 또는 페이지 110 상에서 끝날 수 있기 때문이다. 따라서, 텍스트 미디어 플레이어(412)는 (페이지 110 상에서 시작하는) 다음 문장의 시작 부분을 텍스트 북마크로서 설정할 수 있다. 그러나, 맵핑의 입도(granularity)가 단락 레벨에 있는 경우, 텍스트 미디어 플레이어(412)는 페이지 109 상의 마지막 단락의 시작 부분을 설정할 수 있다. 마찬가지로, 맵핑의 입도가 문장 레벨에 있는 경우, 텍스트 미디어 플레이어(412)는 페이지 110을 포함하는 챕터의 시작 부분을 텍스트 북마크로서 설정할 수 있다.
단계 504에서, 텍스트 미디어 플레이어(412)는 네트워크(440)를 통해 중개 디바이스(420)에 텍스트 북마크를 나타내는 데이터를 보낸다. 중개 디바이스(420)는 디바이스(410) 및/또는 디바이스(410)의 사용자의 계정과 연관된 텍스트 북마크를 저장할 수 있다. 단계 502 전에, 사용자는 중개 디바이스(420)의 오퍼레이터와 계정을 설정할 수 있다. 사용자는 그 후 디바이스(410)를 포함하는 하나 이상의 디바이스를 오퍼레이터와 등록한다. 등록은 하나 이상의 디바이스 각각이 사용자의 계정과 연관되게 한다.
하나 이상의 팩터가 텍스트 미디어 플레이어(412)로 하여금 텍스트 북마크를 중개 디바이스(420)에 보내게 할 수 있다. 그러한 팩터들은 텍스트 미디어 플레이어(412)를 나가는 것(또는 종료하는 것), 사용자에 의한 텍스트 북마크의 설정, 또는 텍스트 북마크가 설정된 작품의 텍스쳐 버전에 대응하는 오디오 북을 들을 때 이용하기 위한 텍스트 북마크를 저장하라는 사용자에 의한 명시적 명령을 포함할 수 있다.
전술한 바와 같이, 중개 디바이스(420)는, 이 예에서, 디지털 미디어 아이템(404) 내의 다수의 오디오 위치들을 디지털 미디어 아이템(402) 내의 다수의 텍스트 위치들로 맵핑하는, 맵핑(406)에 액세스(예를 들면, 저장)한다.
단계 506에서, 중개 디바이스(420)는 텍스트 북마크에 대응하는, 다수의 텍스트 위치들 중의, 특정 텍스트 위치를 결정하기 위해 맵핑(406)을 검사한다. 텍스트 북마크는 맵핑(406) 내의 다수의 텍스트 위치들 중 임의의 것을 정확히 일치시키지 못할 수 있다. 그러나, 중개 디바이스(420)는 텍스트 북마크에 가장 가까운 텍스트 위치를 선택할 수 있다. 대안적으로, 중개 디바이스(420)는 텍스트 북마크 바로 전에 있는 텍스트 위치를 선택할 수 있고, 텍스트 위치는 텍스트 북마크에 가장 가까운 텍스트 위치일 수도 있고 또는 아닐 수도 있다. 예를 들면, 텍스트 북마크가 5번째 챕터, 3번째 단락, 5번째 문장을 나타내고, 맵핑(406) 내의 가장 가까운 텍스트 위치들이 (1) 5번째 챕터, 3번째 단락, 1번째 문장, 및 (2) 5번째 챕터, 3번째 단락, 6번째 문장이면, 텍스트 위치(1)가 선택된다.
단계 508에서, 일단 맵핑 내의 특정 텍스트 위치가 식별되면, 중개 디바이스(420)는 특정 텍스트 위치에 대응하는, 맵핑(406) 내의, 특정 오디오 위치를 결정한다.
단계 510에서, 중개 디바이스(420)는, 이 예에서, 디바이스(410)와는 다른, 디바이스(430)에 특정 오디오 위치를 보낸다. 예를 들면, 디바이스(410)는 태블릿 컴퓨터일 수 있고, 디바이스(430)는 스마트폰일 수 있다. 관련된 실시예들에서, 디바이스(430)는 수반되지 않는다. 따라서, 중개 디바이스(420)는 특정 오디오 위치를 디바이스(410)에 보낼 것이다.
단계 510는 자동적으로, 즉, 중개 디바이스(420)가 특정 오디오 위치를 결정하는 것에 응답하여 수행될 것이다. 대안적으로, 스탭(510) 또는 단계 506은, 디바이스(430)가 디지털 미디어 아이템(404)을 처리하는 것에 관한 것이라는 것을 나타내는 표시를, 디바이스(430)로부터, 수신하는 것에 응답하여 수행될 수 있다. 표시는 텍스트 북마크에 대응하는 오디오 위치에 대한 요청일 수 있다.
단계 512에서, 오디오 미디어 플레이어(432)는 디지털 미디어 아이템(404) 내의 오디오 데이터의 현재 재생 위치로서 특정 오디오 위치를 설정한다. 이러한 설정은 중개 디바이스(420)로부터 특정 오디오 위치를 수신하는 것에 응답하여 수행될 수 있다. 현재 재생 위치가 특정 오디오 위치가 되기 때문에, 오디오 미디어 플레이어(432)는 오디오 데이터 내의 특정 오디오 위치를 앞서는 오디오의 임의의 부분을 재생할 필요가 없다. 예를 들면, 특정 오디오 위치가 2:56:03(2시간, 56분, 3초)를 나타내면, 오디오 미디어 플레이어(432)는 오디오 데이터 내에서 그 시간을 현재 재생 위치로서 설정한다. 따라서, 디바이스(430)의 사용자가 디바이스(430) 상의 (그래픽적 또는 물리적인) "재생" 버튼을 선택하면, 오디오 미디어 플레이어(430)는 그 2:56:03 마크에서 오디오 데이터를 처리하는 것을 시작한다.
대안 실시예에서, 디바이스(410)는 맵핑(406)(또는 그의 카피)을 저장한다. 따라서, 단계 504-단계 508 대신에, 텍스트 미디어 플레이어(412)는 텍스트 북마크에 대응하는, 다수의 텍스트 위치들 중의, 특정 텍스트 위치를 결정하기 위해 맵핑(406)을 검사한다. 그 후, 텍스트 미디어 플레이어(412)는 특정 텍스트 위치에 대응하는, 맵핑(406) 내의, 특정 오디오 위치를 결정한다. 텍스트 미디어 플레이어(412)는 그 후 특정 오디오 위치가 중개 디바이스(420)에 보내지게 하여 디바이스(430)가 특정 오디오 위치를 검색하고 오디오 데이터 내의 현재 재생 위치를 특정 오디오 위치가 되도록 설정하게 할 수 있다. 텍스트 미디어 플레이어(412)는 또한 특정 텍스트 위치(또는 텍스트 북마크)가 중개 디바이스(420)에 보내지게 하여, 디바이스(410)(또는 도시되지 않은, 그외의 디바이스)가 나중에 특정 텍스트 위치를 검색하게 하여 다른 디바이스 상에서 실행하는 또 다른 텍스트 미디어 플레이어가 디지털 미디어 아이템(402)의 또 다른 카피의 일부(예를 들면, 페이지)(상기 일부는 특정 텍스트 위치에 대응함)를 디스플레이하게 할 수 있다.
또 다른 대안 실시예에서, 중개 디바이스(420) 및 디바이스(430)는 수반되지 않는다. 따라서, 단계들(504 및 510)은 수행되지 않는다. 따라서, 디바이스(410)는 단계들(506 및 508)을 포함하는, 도 5a 내의 모든 다른 단계들을 수행한다.
오디오-텍스트 북마크 스위칭
도 5b는 본 발명의 실시예에 따른 AT 북마크 스위칭을 위한 프로세스(550)를 나타내는 흐름도이다. 도 5a와 마찬가지로, 도 5b는 도 4에 도시된 시스템(400)의 요소를 이용하여 기술된다.
단계 552에서, 오디오 미디어 플레이어(432)는 디지털 미디어 아이템(404)(예를 들면, 오디오 북) 내의 오디오 북마크를 결정한다.
오디오 북마크는 사용자로부터의 입력에 응답하여 결정될 수 있다. 예를 들면, 사용자는 예를들면, 디바이스(430)의 터치 스크린 상에 디스플레이된 "정지" 버튼을 선택함으로써, 오디오 데이터의 재생을 정지할 수 있다. 오디오 미디어 플레이어(432)는 재생이 정지된 곳에 대응하는 디지털 미디어 아이템(404)의 오디오 데이터 내의 위치를 결정한다. 따라서, 오디오 북마크는 단순히 사용자가 디지털 미디어 아이템(404)으로부터 생성된 오디오를 듣기를 정지한 마지막 위치일 수 있다. 추가적으로 또는 대안적으로, 사용자는 디지털 미디어 아이템(404) 내의 특정 위치를 오디오 북마크로서 설정하기 위해 디바이스(430)의 터치 스크린 상에 하나 이상의 그래픽 버튼을 선택할 수 있다. 예를 들면, 디바이스(430)는 디지털 미디어 아이템(404)에서 오디오 데이터의 길이에 대응하는 타임라인을 디스플레이한다. 사용자는 타임라인 상의 포지션을 선택하고 오디오 북마크를 설정하기 위해 오디오 미디어 플레이어(432)에 의해 사용되는 하나 이상의 추가적인 입력들을 제공할 수 있다.
단계 554에서, 디바이스(430)는 네트워크(440)를 통해, 오디오 북마크를 나타내는 데이터를 중개 디바이스(420)에 송신한다. 중개 디바이스(420)는 디바이스(430)의 사용자의 계정 및/또는 디바이스(430)와 연관된 오디오 북마크를 저장할 수 있다. 단계 552 이전에, 사용자는 중개 디바이스(420)의 운영자와의 계정을 설정했다. 그 후 사용자는 디바이스(430)를 포함하는 하나 이상의 디바이스를 운영자에 등록한다. 등록은 하나 이상의 디바이스의 각각이 사용자의 계정과 연관되게 한다.
중개 디바이스(420)는 또한 매핑(406)에의 액세스(예를 들면, 저장하기)를 갖는다. 매핑(406)은 디지털 미디어 아이템(404)의 오디오 데이터에서의 다수의 오디오 위치들을 디지털 미디어 아이템(402)의 텍스트 데이터 내의 다수의 텍스트 위치와 매핑한다.
하나 이상의 팩터는 오디오 미디어 플레이어(432)가 오디오 북마크를 중개 디바이스(420)로 송신하게 할 수 있다. 그러한 팩터들은 오디오 미디어 플레이어(432)의 종료(또는 클로징 다운), 사용자에 의한 오디오 북마크의 설정, 또는 오디오 북마크가 설정된, 디지털 미디어 아이템(404)에 대응하는 (디지털 미디어 아이템(402)에 반영된) 텍스트 버전의 작품의 부분들을 디스플레이할 때의 사용을 위한 오디오 북마크를 저장하려는 사용자에 의한 외부 명령어를 포함할 수 있다.
단계 556에서, 중개 디바이스(420)는 오디오 북마크에 대응하는, 다수의 오디오 위치의, 특정 오디오 위치를 결정하기 위해 매핑(406)을 검사한다. 오디오 북마크는 매핑(406)에서 다수의 오디오 위치들 중 어느 것과도 정확히 매칭되지 않을 수 있다. 그러나, 중개 디바이스(420)는 오디오 북마크에 가장 가까운 오디오 위치를 선택할 수 있다. 대안적으로, 중개 다비아스(420)는 오디오 북마크 직전의 오디오 위치를 선택할 수 있고, 오디오 위치는 오디오 북마크에 가장 가까운 오디오 위치거나 그렇지 않을 수도 있다. 예를 들면, 오디오 북마크가 02:43:19(또는 2시간, 43분, 19초)를 가리키고 매핑(406)에서의 가장 가까운 오디오 위치들이 (1) 02:41:07 및 (2) 0:43:56을 가리키면, 오디오 위치(2)가 오디오 북마크에 가장 가깝더라도 오디오 위치(1)가 선택된다.
단계 558에서, 매핑에서의 특정한 오디오 위치가 식별되면, 중개 디바이스(420)는 매핑 (406)에서 특정 오디오 위치에 대응하는 특정 텍스트 위치를 결정한다.
단계 560에서, 중개 디바이스(420)는 이 예시에서는 디바이스(430)와 상이한 디바이스(410)에 특정 텍스트 위치를 송신한다. 예를 들면, 디바이스(410)는 테블릿 컴퓨터일 수 있고 디바이스(430)는 오디오 데이터를 처리하고 오디오 사운드를 생성하도록 구성된 스마트폰일 수 있다.
단계 560은 자동으로, 즉 특정 텍스트 위치를 결정하는 중개 디바이스(420)에 응답하여 수행될 수 있다. 대안적으로, 단계 560(또는 단계 556))은 디바이스(410)가 디지털 미디어 아이템(402)을 처리하려 한다는 지시를 디바이스(410)로부터 수신하는 것에 응답하여 수행될 수 있다. 지시는 오디오 북마크에 대응하는 텍스트 위치에 대한 요청일 수 있다.
단계 562에서, 텍스트 미디어 플레이어(412)는 특정 텍스트 위치에 관한 정보를 디스플레이한다. 단계 562은 중개 디바이스(420)로부터 특정 텍스트 위치를 수신하는 것에 응답하여 수행될 수 있다. 디바이스(410)는 디지털 미디어 아이템(402)에 반영된 텍스트 버전의 작품에서 특정 텍스트 위치에 선행하는 임의의 컨텐츠를 디스플레이하도록 요구되지 않는다. 예를 들면, 특정 텍스트 위치가 챕터 3, 단락 2, 문장 4를 가리키면, 디바이스(410)는 그 문장을 포함하는 페이지를 디스플레이한다. 텍스트 미디어 플레이어(412)는 마커가 디바이스(410)의 사용자에게, 페이지에서 리딩을 시작하는 곳을 시각적으로 가리키는 페이지의 특정 텍스트 위치에서 디스플레이되게 한다. 따라서, 사용자는 오디오 북에서 화자에 의해 말해지는 마지막 단어에 대응하는 위치에서 시작하는 텍스트 버전의 작품을 즉시 리딩할 수 있다.
대안적인 실시예에서, 디바이스(410)는 매핑(406)을 저장한다. 그러므로, 단계 556 - 560 대신에, 단계 554(디바이스(430)가 중개 디바이스(420)에 오디오 북마크를 가리키는 데이터를 송신함) 후에, 중개 디바이스(420)는 디바이스(410)에 오디오 북마크를 송신한다. 그 후, 텍스트 미디어 플레이어(412)는 오디오 북마크에 대응하는, 다수의 오디오 위치 중 특정 오디오 위치를 결정하기 위해 매핑(406)을 검사한다. 그 후, 텍스트 미디어 플레이어(412)는 특정 오디오 위치에 대응하는, 매핑(406)에서의 특정 텍스트 위치를 결정한다. 이러한 대안적인 프로세스는 전술한 단계 562으로 진행한다.
다른 대안적인 실시예에서, 중개 디바이스(420)는 포함되지 않는다. 따라서, 단계 554 및 560은 수행되지 않는다. 따라서, 디바이스(430)는 단계 556 및 558을 포함하는 도 5b에서의 모든 다른 단계들을 수행한다.
오디오 재생에 응답하는 텍스트의 강조 표시
실시예에서, 텍스트 버전의 작품의 부분으로터의 텍스트는 텍스트 버전의 작품에 대응하는 오디오 데이터가 재생되는 동안 강조 표시(highlighted) 또는 "발광(lit up)"한다. 전술된 바와 같이, 오디오 데이터는 텍스트 버전의 오디오 버전의 작품이고 인간 사용자에 의한, 텍스트 버전으로부터의 텍스트의 리딩을 반영할 수 있다. 본 명세서에서 사용된 바와 같이, 텍스트를 "강조 표시"하는 것은 텍스트를 동시에 디스플레이된 다른 텍스트로부터 강조 표시된 텍스트로 시각적으로 구별하는 미디어 플레이어(예를 들면, "e-리더")를 지칭한다. 텍스트를 강조 표시하는 것은 텍스트의 폰트를 바꾸는 것, 텍스트의 폰트 스타일(예를 들면, 이탤릭체, 볼드, 밑줄)을 바꾸는 것, 텍스트의 크기를 바꾸는 것, 텍스트의 색상을 바꾸는 것, 텍스트의 배경색을 바꾸는 것, 또는 텍스트와 연관된 애니메이션을 생성하는 것을 포함할 수 있다. 애니메이션의 생성의 예는 텍스트(또는 텍스트의 배경)가 깜박이거나 색상을 바꾸게 하는 것이다. 애니메이션을 생성하는 것의 다른 예는 텍스트 위로, 아래로, 또는 주위에 나타나는 그래픽을 생성하는 것이다. 예를 들면, 미디어 플레이어에 의해 재생되고 검출되는 단어 "토스터"에 응답하여, 미디어 플레이어는 디스플레이된 텍스트내의 단어 "토스터" 위에 토스터 이미지를 디스플레이한다. 애니메이션의 다른 예는 재생되는 오디오 데이터에서 그 부분이 검출될 때 텍스트의 일부를 "바운스"하는 바운싱 볼이다.
도 6은 본 발명의 일 실시예에 따라, 오디오 버전의 작품이 재생되고 있는 동안에, 텍스트 버전의 작품으로부터의 텍스트가 강조 표시되게 하기 위한 프로세스(600)를 묘사하는 흐름도이다.
단계 610에서, 오디오 버전의 오디오 데이터의 (끊임없이 변화하고 있는) 현재 재생 위치가 결정된다. 이 단계는 사용자의 디바이스 상에서 실행하는 미디어 플레이어에 의해 수행될 수 있다. 미디어 플레이어는 오디오 데이터를 처리하여 사용자를 위한 오디오를 생성한다.
단계 620에서는, 현재 재생 위치에 기초하여, 맵핑 내의 맵핑 기록이 식별된다. 현재 재생 위치는 맵핑 기록 내에서 식별된 오디오 위치와 매칭하거나 또는 거의 매칭할 수 있다.
단계 620은 미디어 플레이어가 오디오 데이터 내의 다수의 오디오 위치들을 텍스트 버전의 작품 내의 다수의 텍스트 위치들에 맵핑하는 맵핑에 대한 액세스를 가지면, 미디어 플레이어에 의해 수행될 수 있다. 대안적으로, 단계 620은 사용자의 디바이스 상에서 실행하는 다른 프로세스에 의해, 혹은 사용자의 디바이스로부터 네트워크를 통해 현재 재생 위치를 수신하는 서버에 의해 수행될 수 있다.
단계 630에서, 맵핑 기록 내에서 식별된 텍스트 위치가 식별된다.
단계 640에서, 텍스트 버전의 작품 중 텍스트 위치에 대응하는 부분이 강조 표시되게 된다. 이 단계는 미디어 플레이어에 의해, 또는 사용자의 디바이스 상에서 실행하는 다른 소프트웨어 애플리케이션에 의해 수행될 수 있다. 서버가 룩업 단계들(620과 630)을 수행하면, 단계 640은 서버가 텍스트 위치를 사용자의 디바이스로 전송하는 것을 더 수반할 수 있다. 이에 응답하여, 미디어 플레이어 또는 다른 소프트웨어 애플리케이션은 텍스트 위치를 입력으로서 받아들여, 대응하는 텍스트를 강조 표시되게 한다.
실시예에서, 미디어 플레이어에 의해 맵핑 내에서 식별된 상이한 텍스트 위치들은 상이한 유형들의 강조 표시와 연관된다. 예를 들면, 맵핑 내의 하나의 텍스트 위치는 폰트 색상이 검은색에서 붉은색으로 변경되는 것과 연관될 수 있는 한편, 맵핑 내의 또 다른 텍스트 위치는 토스터(toaster)로부터 "튀어나오는(popping)" 토스트를 보여주는 토스터 그래픽(toaster graphic)과 같은 애니메이션과 연관될 수 있다. 따라서, 맵핑 내의 각각의 맵핑 기록은 대응하는 텍스트 위치에 의해 식별된 텍스트가 어떻게 강조 표시되는지를 나타내는 "강조 표시 데이터"를 포함할 수 있다. 그러므로, 미디어 플레이어가 식별하고 강조 표시 데이터를 포함하는 맵핑 내의 각각의 맵핑 기록에 대해, 미디어 플레이어는 텍스트를 강조 표시하는 방법을 결정하기 위해 강조 표시 데이터를 사용한다. 맵핑 기록이 강조 표시 데이터를 포함하지 않으면, 미디어 플레이어는 대응하는 텍스트를 강조 표시 할 수 없다. 대안으로, 맵핑 내의 맵핑 기록이 강조 표시 데이터를 포함하지 않으면, 미디어 플레이어는 텍스트를 강조 표시 하기 위해 "디폴트(default)" 강조 표시 기술(예를 들면, 텍스트를 굵게하기)을 사용할 수 있다.
오디오 입력에 기초한 텍스트 강조 표시
도 7은 본 발명의 일 실시예에 따라, 사용자로부터의 오디오 입력에 응답하여, 디스플레이된 텍스트를 강조 표시하는 프로세스(700)를 묘사하는 흐름도이다. 이 실시예에서는, 맵핑이 요구되지 않는다. 사용자에게 동시에 디스플레이되고 있는 텍스트 버전의 작품의 부분 내의 텍스트를 강조 표시하기 위해 오디오 입력이 이용된다.
단계 710에서, 오디오 입력을 수신한다. 오디오 입력은 텍스트 버전의 작품으로부터의 텍스트를 사용자가 크게 읽는 것에 기초할 수 있다. 오디오 입력은 텍스트 버전의 부분을 디스플레이하는 디바이스에 의해 수신될 수 있다. 디바이스는 사용자로 하여금 단어, 구문, 또는 전체 문장을 큰소리로 읽도록 촉구할 수 있다. 그 촉구하는 것은 시각적일 수도 있고 청각적일 수도 있다. 시각적 촉구의 예로서, 디바이스는, 디바이스가 밑줄친 문장을 디스플레이하고 있는 동안에 또는 그 직전에, 다음의 문장: "밑줄친 텍스트를 읽어주십시오"가 디스플레이되게 할 수 있다. 오디오 촉구의 예로서, 디바이스는 컴퓨터 생성 음성으로 하여금 "밑줄친 텍스트를 읽어주십시오"를 읽게 하거나, 또는 동일한 명령을 제공하는 미리 녹음된 인간 음성이 재생되게 할 수 있다.
단계 720에서, 오디오 입력에 대해 음성-텍스트 분석을 수행하여 오디오 입력 내에 나타난 하나 이상의 단어들을 검출한다.
단계 730에서, 오디오 입력 내에 나타난 각각의 검출된 단어들에 대해, 그 검출된 단어를 특정 단어들 세트와 비교한다. 특정 단어들 세트는 컴퓨팅 디바이스(예를 들면, e-리더)에 의해 현재 디스플레이되는 모든 단어들일 수 있다. 대안으로, 특정 단어들 세트는 사용자로 하여금 읽기를 촉구하는 단어들 전체가 될 수 있다.
단계 740에서, 특정 세트 내의 단어와 매칭하는 각각의 검출된 단어에 대해, 디바이스는 그 매칭되는 단어가 강조 표시되게 할 수 있다.
프로세스(700)에 묘사된 단계들은 텍스트 버전의 작품으로부터의 텍스트를 디스플레이하는 단일 컴퓨팅 디바이스에 의해 수행될 수 있다. 대안으로, 프로세스(700)에 묘사된 단계들은 텍스트 버전으로부터의 텍스트를 디스플레이하는 컴퓨팅 디바이스와는 상이한 하나 이상의 컴퓨팅 디바이스에 의해 수행될 수 있다. 예를 들면, 단계 710에서 사용자로부터의 오디오 입력은 네트워크를 통해 사용자의 디바이스로부터 음성-텍스트 분석을 수행하는 네트워크 서버로 전송될 수 있다. 네트워크 서버는 그 후 강조 표시 데이터를 사용자의 디바이스로 전송하여 사용자의 디바이스가 적절한 텍스트를 강조 표시하게 할 수 있다.
텍스트 선택에 대한 응답으로 오디오 재생
실시예에서, 텍스트 버전의 작품의 부분들을 디스플레이하는 미디어 플레이어의 사용자는 디스플레이된 텍스트의 부분들을 선택하여, 대응하는 오디오가 재생되게 할 수 있다. 예를 들면, 디지털 북으로부터 디스플레이된 단어가 "도넛(donut)"이고 사용자가 그 단어를 (예를 들어, 해당 단어를 디스플레이하는 미디어 플레이어의 터치 스크린의 부분을 터치하는 것에 의해) 선택하면, "donut"이라는 오디오가 재생될 수 있다.
텍스트 버전의 작품 내의 텍스트 위치들을 오디오 데이터 내의 오디오 위치들로 맵핑하는 맵핑은 선택된 텍스트에 대응하는 오디오 데이터의 부분을 식별하기 위해 이용된다. 사용자는 단일의 단어, 구문, 또는 심지어 하나 이상의 문장들을 선택할 수 있다. 디스플레이된 텍스트의 부분을 선택하는 입력에 응답하여, 미디어 플레이어는 하나 이상의 텍스트 위치들을 식별할 수 있다. 예를 들면, 선택된 부분이 다수의 라인들 또는 문장들을 포함한다고 해도, 미디어 플레이어는 선택된 부분에 대응하는 단일의 텍스트 위치를 식별할 수 있다. 식별된 텍스트 위치는 선택된 부분의 시작에 대응할 수 있다. 다른 예로서, 미디어 플레이어는 선택된 부분의 시작에 대응하는 제1 텍스트 위치 및 선택된 부분의 끝에 대응하는 제2 텍스트 위치를 식별할 수 있다.
미디어 플레이어는 식별된 텍스트 위치를 이용하여 식별된 텍스트 위치에 가장 근접한 (또는 가장 근접한 선행) 텍스트 위치를 나타내는 맵핑 내의 맵핑 기록을 검색한다. 미디어 플레이어는 맵핑 기록에 표시된 오디오 위치를 이용하여, 오디오 데이터 내에서 오디오를 재생하기 위해 오디오 데이터의 처리를 시작할 지점을 식별한다. 오직 단일 텍스트 위치가 식별되면, 오디오 위치의 또는 오디오 위치 근방의 단어 또는 사운드만이 재생될 수 있다. 따라서, 단어 또는 사운드가 재생된 후에, 미디어 플레이어는 더 이상의 오디오를 재생하는 것을 멈춘다. 다른 방법으로, 미디어 플레이어는 오디오 위치에서 또는 오디오 위치 근방에서 재생하는 것을 시작하고, (a)오디오 데이터의 종료부분에 도달하거나, (b)사용자로부터 추가로 입력되거나(예를 들면, "정지" 버튼의 선택), 또는 (c)오디오 데이터 내의 미리 지정된 정지 지점(예를 들면, 진행되기 위해 추가의 입력을 필요로 하는 페이지 또는 챕터의 끝부분)이 될때까지, 오디오 위치를 뒤따라서 오디오를 재생하는 것을 중지하지 않는다.
미디어 플레이어가 선택된 부분에 기초한 2개의 텍스트 위치들을 식별하면, 2개의 오디오 위치들은 식별되어, 대응하는 오디오를 어디에서 재생하기 시작하고 어디에서 재생하는 것을 종료할지를 식별하는데 이용될 수 있다.
실시예에서, 오디오 위치에 의해 식별된 오디오 데이터는 천천히(즉, 느린 재생 속도로) 또는 오디오 데이터 내의 현재 재생 위치를 진행하지 않고 계속적으로 재생될 수 있다. 예를 들면, 태블릿 컴퓨터의 사용자가 디스플레이된 단어 "two"를 태블릿 컴퓨터의 터치 스크린을 그의 손가락으로 터치함으로써 선택하고 그 디스플레이된 단어를 계속적으로 터치하면(즉, 그의 손가락을 들어올리지 않고 그의 손가락을 다른 디스플레이된 단어로 이동하지 않음), 태블릿 컴퓨터는 단어 "twoooooooooooooooo"를 읽음으로써 나타내어진 사운드를 생성하는 대응하는 오디오를 재생한다.
유사한 실시예에서, 사용자가 미디어 플레이어의 터치 스크린 상의 디스플레이된 텍스트를 가로질러 그녀의 손가락을 드래그하는 속도는, 대응하는 오디오가 동시에 또는 유사한 속도로 재생되게 한다. 예를 들면, 사용자가 디스플레이된 단어 "donut"의 문자 "d"를 선택하고 그 다음에 그의 손가락을 표시된 단어를 가로질러 천천히 이동한다. 이러한 입력에 응답하여, 미디어 플레이어는 대응하는 오디오 데이터를 (맵핑을 이용하여) 식별하고, 사용자가 그의 손가락을 움직이는 속도와 동일한 속도로 대응하는 오디오를 재생한다. 따라서, 미디어 플레이어는 마치 텍스트 버전의 작품의 텍스트의 판독기가 단어 "donut"을 "dooooooonnnnnnuuuuuut"으로 발음하는 것처럼 사운드를 내는 오디오를 생성한다.
유사한 실시예에서, 사용자가 터치 스크린 상에 디스플레이된 단어를 "터치하는" 시간은 단어의 오디오 버전이 얼마나 빨리 또는 느리게 재생되는 지에 영향을 준다. 예를 들면, 디스플레이된 단어를 사용자의 손가락에 의해 빠르게 태핑(tap)하면 대응하는 오디오는 정상 속도로 재생되는 반면, 사용자가 선택된 단어 위에 그의 손가락을 1초 이상 내려놓고 있으면 대응하는 오디오는 정상 속도의 ½로 재생되게 한다.
사용자 주석을 전송
실시예에서, 사용자는 디지털 작품의 하나의 미디어 버전(예를 들면, 오디오)에 주석들을 생성하는 것을 시작하여, 주석들이 디지털 작품의 다른 미디어 버전(예를 들면, 텍스트)에 연관되게 한다. 따라서, 주석이 하나의 유형의 미디어의 컨텍스트에 생성될 수 있는 한편, 주석은 다른 유형의 미디어의 컨텍스트에서 활용될 수도 있다. 주석이 생성되고 활용되는 "컨텍스트(context)"는 생성 또는 활용이 발생할 때 텍스트가 디스플레이되고 있는지 또는 오디오가 재생되고 있는지를 지칭한다.
다음의 예시들은 주석이 생성되는 때에 오디오나 텍스트 위치 내의 위치를 결정하는 것을 수반하지만, 본 발명의 몇몇 실시예들은 이와 같이 제한되지는 않는다. 예를 들어, 오디오 컨텍스트에서 주석이 생성되는 때의 오디오 파일 내의 현재 재생 위치는, 텍스트 컨텍스트에서 주석을 활용하는 경우에 이용되지는 않는다. 대신에, 주석의 지시는 대응하는 텍스트 버전의 각각의 "페이지" 상에 또는 대응하는 텍스트 버전의 시작이나 끝에서 디바이스에 의해 디스플레이될 수 있다. 다른 예로서, 텍스트 컨텍스트에서 주석이 생성되는 때에 디스플레이되는 텍스트는, 오디오 컨텍스트에서 주석을 활용하는 경우에 이용되지는 않는다. 대신에, 주석의 지시는 대응하는 오디오 버전이 재생되고 있는 동안에 지속적으로 또는 대응하는 오디오 버전의 시작이나 끝에서 디바이스에 의해 디스플레이될 수 있다. 비주얼 지시에 부가적으로 또는 대안적으로, 주석의 오디오 지시가 재생될 수 있다. 예를 들어, 비프음(beep)과 오디오 트랙 모두가 들릴 수 있는 방식으로 오디오 트랙과 동시에 "비프음"이 재생된다.
도 8a 및 도 8b는 본 발명의 일 실시예에 따라 하나의 컨텍스트로부터 다른 컨텍스트로 주석을 전송하는 프로세스들을 도시하는 흐름도들이다. 상세하게는, 도 8a는 "텍스트" 컨텍스트에서 주석을 생성하며 "오디오" 컨텍스트에서 이 주석을 활용하는 프로세스(800)를 도시하는 흐름도인 한편, 도 8b는 "오디오" 컨텍스트에서 주석을 생성하며 "텍스트" 컨텍스트에서 이 주석을 활용하는 프로세스(850)를 도시하는 흐름도이다. 주석의 생성 및 활용은 동일한 컴퓨팅 디바이스(예를 들어, 디바이스(410)) 상에서 또는 별개의 컴퓨팅 디바이스들(예를 들어, 디바이스들(410 및 430)) 상에서 발생할 수 있다. 도 8a는 디바이스(410) 상에서 주석이 생성되며 활용되는 시나리오를 기술하는 한편, 도 8b는 디바이스(410) 상에서 주석이 생성되며 나중에 디바이스(430) 상에서 이 주석이 활용되는 시나리오를 기술한다.
도 8a의 단계 802에서, 디바이스(410) 상에서 실행되는 텍스트 미디어 플레이어(412)는 디지털 미디어 아이템(402)으로부터의 (예를 들어, 페이지 형태의) 텍스트가 디스플레이되게 한다.
단계 804에서, 텍스트 미디어 플레이어(412)는 디지털 미디어 아이템(402)에 반영된 저작물의 텍스트 버전 내의 텍스트 위치를 결정한다. 텍스트 위치는 결국 주석과 연관되어 저장된다. 텍스트 위치는 다수의 방식으로 결정될 수 있다. 예를 들어, 텍스트 미디어 플레이어(412)는 디스플레이된 텍스트 내의 텍스트 위치를 선택하는 입력을 수신할 수 있다. 이 입력은, 시간 기간 동안 사용자가 디바이스(410)의 (텍스트를 디스플레이하는) 터치 스크린을 터치하는 것일 수 있다. 이 입력은 특정 단어, 다수의 단어들, 페이지의 시작이나 끝, 문장의 이전이나 이후 등을 선택할 수 있다. 이 입력은, 텍스트 미디어 플레이어(412)가, 주석이 생성되며 텍스트 위치와 연관될 수 있는 "주석 생성" 모드로 변경하게 하는 버튼을 처음으로 선택하는 것을 더 포함할 수 있다.
텍스트 위치를 결정하는 다른 예로서, 텍스트 미디어 플레이어(412)는, (디지털 미디어 아이템(402)에 반영된) 저작물의 텍스트 버전의 어떤 부분이 디스플레이되고 있는지에 기초하여 자동으로 (사용자 입력 없이) 텍스트 위치를 결정한다. 예를 들어, 디바이스(410)가 저작물의 텍스트 버전의 페이지 20을 디스플레이하고 있는 경우, 주석은 페이지 20과 연관될 것이다.
단계 806에서, 텍스트 미디어 플레이어(412)는, 터치 스크린 상에 디스플레이될 수 있는 "주석 생성" 버튼을 선택하는 입력을 수신한다. 이러한 버튼은, 예를 들어 1초와 같은 시간 기간 동안 사용자가 터치 스크린을 터치하는, 텍스트 위치를 선택하는 단계 804에서의 입력에 응답하여 디스플레이될 수 있다.
단계 804가 단계 806 이전에 발생하는 것으로 도시되어 있지만, 대안적으로, "주석 생성" 버튼의 선택은 텍스트 위치의 결정 이전에 발생할 수 있다.
단계 808에서, 텍스트 미디어 플레이어(412)는 주석 데이터를 생성하는데 이용되는 입력을 수신한다. 이 입력은 (디바이스(410)의 마이크로폰으로 사용자가 말하는 것과 같은) 음성 데이터 또는 (물리적이든지 그래픽이든지 간에, 사용자가 키보드 상의 키들을 선택하는 것과 같은) 텍스트 데이터일 수 있다. 주석 데이터가 음성 데이터인 경우, 텍스트 미디어 플레이어(412)(또는 다른 프로세스)는 음성 데이터의 텍스트 버전을 생성하기 위하여 음성 데이터에 대한 음성-텍스트 분석을 수행할 수 있다.
단계 810에서, 텍스트 미디어 플레이어(412)는 텍스트 위치와 연관하여 주석 데이터를 저장한다. 텍스트 미디어 플레이어(412)는 맵핑(예를 들어, 맵핑(406)의 사본)을 이용하여, 맵핑에서, 텍스트 위치에 가장 가까운 특정 텍스트 위치를 식별한다. 그런 다음, 맵핑을 이용하여, 텍스트 미디어 플레이어는 특정 텍스트 위치에 대응하는 오디오 위치를 식별한다.
단계 810에 대안적으로, 텍스트 미디어 플레이어(412)는 네트워크(440)를 통해 중개 디바이스(420)로 주석 데이터 및 텍스트 위치를 송신한다. 이에 응답하여, 중개 디바이스(420)는 텍스트 위치와 연관하여 주석 데이터를 저장한다. 중개 디바이스(420)는 맵핑(예를 들어, 맵핑(406))을 이용하여, 맵핑(406)에서, 텍스트 위치에 가장 가까운 특정 텍스트 위치를 식별한다. 그런 다음, 맵핑(406)을 이용하여, 중개 디바이스(420)는 특정 텍스트 위치에 대응하는 오디오 위치를 식별한다. 중개 디바이스(420)는 네트워크(440)를 통해 디바이스(410)로 식별된 오디오 위치를 송신한다. 중개 디바이스(420)는, 디바이스(410)로부터의 특정 오디오 데이터와 연관된 주석들에 대한 그리고/또는 특정 오디오 데이터에 대한 요구에 응답하여 식별된 오디오 위치를 송신할 수 있다. 예를 들어, "The Tale of Two Cities"의 오디오 북 버전에 대한 요구에 응답하여, 중개 디바이스(420)는, 오디오 북과 연관된 임의의 주석 데이터가 존재하는지 여부를 판정하고, 그러한 경우 주석 데이터를 디바이스(410)로 송신한다.
단계 810은, 주석이 생성된 때를 나타내는 날짜 및/또는 시간 정보를 저장하는 단계를 더 포함할 수 있다. 이 정보는, 나중에 오디오 컨텍스트에서 주석이 활용되는 때에 디스플레이될 수 있다.
단계 812에서, 오디오 미디어 플레이어(414)는, (도시되지는 않았지만) 이 예에서 디바이스(410) 상에 저장될 수 있거나 또는 네트워크(440)를 통해 중개 디바이스(420)로부터 디바이스(410)로 스트리밍될 수 있는 디지털 미디어 아이템(404)의 오디오 데이터를 처리함으로써 오디오를 재생한다.
단계 814에서, 오디오 미디어 플레이어(414)는, 오디오 데이터에서의 현재 재생 위치가 맵핑(406)을 이용하여 단계 810에서 식별된 오디오 위치와 매칭되는지 또는 거의 매칭되는지를 결정한다. 대안적으로, 단계 812에 나타낸 바와 같이, 오디오 미디어 플레이어(414)는, 주석이 이용가능하다는 것을 나타내는 데이터가, 현재 재생 위치가 위치되는 곳에 관계없이 그리고 어떠한 오디오도 재생할 필요 없이 디스플레이되게 할 수 있다. 다시 말하면, 단계 812는 불필요하다. 예를 들어, 사용자는 오디오 미디어 플레이어(414)를 론칭하며, 오디오 미디어 플레이어(414)가 디지털 미디어 아이템(404)의 오디오 데이터를 로딩하게 할 수 있다. 오디오 미디어 플레이어(414)는, 주석 데이터가 오디오 데이터와 연관된다고 결정한다. 오디오 미디어 플레이어(414)는 오디오 데이터에 관한 정보(예를 들어, 제목, 아티스트, 장르, 길이 등)가 오디오 데이터와 연관된 어떠한 오디오도 생성하지 않고 디스플레이되게 한다. 이 정보는, 주석 데이터와 연관되는 오디오 데이터 내의 위치에 관한 정보 및 주석 데이터에 대한 레퍼런스를 포함할 수 있는데, 이 위치는 단계 810에서 식별된 오디오 위치에 대응한다.
단계 816에서, 오디오 미디어 플레이어(414)는 주석 데이터를 활용한다. 주석 데이터가 오디오 데이터인 경우에는, 주석 데이터를 활용하는 단계는, 음성 데이터를 처리하여 오디오를 생성하는 단계 또는 음성 데이터를 텍스트 데이터로 변환하며 텍스트 데이터를 디스플레이하는 단계를 수반할 수 있다. 주석 데이터가 텍스트 데이터인 경우에는, 주석 데이터를 활용하는 단계는, 예를 들어 GUI와 별개로 보이는 새로운 윈도우에 또는 재생되는 오디오 데이터의 속성들을 디스플레이하는 GUI의 측면 패널에 텍스트 데이터를 디스플레이하는 단계를 수반할 수 있다. 속성들의 비제한적인 예로는, 오디오 데이터의 시간 길이, 오디오 데이터 내의 절대 위치(예를 들어, 시간 오프셋) 또는 오디오 데이터 내의 상대 위치(예를 들어, 챕터나 섹션 번호)를 나타낼 수 있는 현재 재생 위치, 오디오 데이터의 파형, 및 디지털 저작물의 제목이 포함된다.
도 8b는 전술한 바와 같이 주석이 디바이스(430) 상에서 생성되며 나중에 디바이스(410) 상에서 활용되는 시나리오를 기술한다.
단계 852에서, 오디오 미디어 플레이어(432)는 디지털 미디어 아이템(404)으로부터의 오디오 데이터를 처리하여, 오디오를 재생한다.
단계 854에서, 오디오 미디어 플레이어(432)는 오디오 데이터 내의 오디오 위치를 결정한다. 오디오 위치는 결국 주석과 연관되어 저장된다. 오디오 위치는 다수의 방식으로 결정될 수 있다. 예를 들어, 오디오 미디어 플레이어(432)는 오디오 데이터 내의 오디오 위치를 선택하는 입력을 수신할 수 있다. 이 입력은, 시간 기간 동안 사용자가 디바이스(430)의 (오디오 데이터의 속성들을 디스플레이하는) 터치 스크린을 터치하는 것일 수 있다. 이 입력은, 챕터 번호 및 단락 번호와 같이, 오디오 데이터 내의 상대 위치 또는 오디오 데이터의 길이를 반영하는 타임라인 내의 절대 위치를 선택할 수 있다. 이 입력은, 오디오 미디어 플레이어(432)가, 주석이 생성되며 오디오 위치와 연관될 수 있는 "주석 생성" 모드로 변경하게 하는 버튼을 처음으로 선택하는 것을 더 포함할 수 있다.
오디오 위치를 결정하는 다른 예로서, 오디오 미디어 플레이어(432)는, 오디오 데이터의 어떤 부분이 처리되고 있는지에 기초하여 자동으로 (사용자 입력 없이) 오디오 위치를 결정한다. 예를 들어, 오디오 미디어 플레이어(432)가 디지털 미디어 아이템(404)에 반영된 디지털 저작물의 챕터 20에 대응하는 오디오 데이터의 일부를 처리하고 있는 경우, 오디오 미디어 플레이어(432)는, 오디오 위치가 적어도 챕터 20 내의 어딘가에 있다고 결정한다.
단계 856에서, 오디오 미디어 플레이어(432)는 디바이스(430)의 터치 스크린 상에 디스플레이될 수 있는 "주석 생성" 버튼을 선택하는 입력을 수신한다. 이러한 버튼은, 예를 들어 1초와 같은 시간 기간 동안 지속적으로 사용자가 터치 스크린을 터치하는, 오디오 위치를 선택하는 단계 854에서의 입력에 응답하여 디스플레이될 수 있다.
단계 854가 단계 856 이전에 발생하는 것으로 도시되어 있지만, 대안적으로, "주석 생성" 버튼의 선택은 오디오 위치의 결정 이전에 발생할 수 있다.
단계 858에서, 제1 미디어 플레이어는 단계 808과 유사하게 주석 데이터를 생성하는데 이용되는 입력을 수신한다.
단계 860에서, 오디오 미디어 플레이어(432)는 오디오 위치와 연관하여 주석 데이터를 저장한다. 오디오 미디어 플레이어(432)는 단계 854에서 결정된 오디오 위치에 가장 가까운 특정한 오디오 위치를 맵핑에서 식별하기 위해 맵핑(예컨대, 맵핑 406)을 이용한다. 그런 다음, 맵핑을 이용하여, 오디오 미디어 플레이어(432)는 특정 오디오 위치에 대응하는 텍스트 위치를 식별한다.
단계 860에 대안적으로, 오디오 미디어 플레이어(432)는, 네트워크(400)를 통해, 중개 디바이스(420)에, 주석 데이터 및 오디오 위치를 전송한다. 그에 응답하여, 중개 디바이스(420)는 오디오 위치와 연관하여 주석 데이터를 저장한다. 중개 디바이스(420)는 단계 854에서 결정된 오디오 위치에 가장 가까운 특정 오디오 위치를 맵핑에서 식별하기 위해 맵핑(406)을 이용한다. 그런 다음, 맵핑(406)을 이용하여, 중개 디바이스(420)가 특정 오디오 위치에 대응하는 텍스트 위치를 식별한다. 중개 디바이스(420)는 식별된 텍스트 위치를 네트워크(440)를 통해 디바이스(410)에 전송한다. 중개 디바이스(420)는 디바이스(410)로부터 특정 텍스트 데이터와 연관된 주석 및/또는 특정 텍스트 데이터에 대한 요청에 응답하여 식별된 텍스트 위치를 전송한다. 예를 들어, "The Grapes of Wrath"라는 디지털 북에 대한 요청에 응답하여, 중개 디바이스(420)는 그 디지털 북과 연관된 어떠한 주석 데이터가 있는지 판단하고, 만약 있다면, 주석 데이터를 디바이스(430)에 보낸다.
단계 860은 또한 주석이 생성되었을 때를 나타내는 데이터 및/또는 시간 정보를 저장하는 것을 포함한다. 이 정보는 주석이 텍스트 컨텍스트 내에서 소비될 때 추후에 디스플레이될 수 있다.
단계 862에서, 디바이스(410)는 디지털 미디어 아이템(404)의 텍스트 버전인 디지털 미디어 아이템(402)과 연관된 텍스트 데이터를 디스플레이한다. 디바이스(410)는 디지털 미디어 아이템(402)의 국부적으로 저장된 카피에 기초하여 디지털 미디어 아이템(402)의 텍스트 데이터를 디스플레이하거나, 국부적으로 저장된 카피가 존재하지 않는다면, 중개 디바이스(420)로부터 텍스트 데이터가 스트리밍되는 동안 텍스트 데이터를 디스플레이할 수 있다.
단계 864에서, 디바이스(410)는 텍스트 위치(단계 860에서 식별됨)를 포함하는 텍스트 버전의 작품(디지털 미디어 아이템(402)에 반영됨)의 일부가 디스플레이되는 때를 결정한다. 대안적으로 디바이스(410)는, 만약 있다면, 텍스트 버전의 작품의 어떤 부분이 디스플레이되는지에 관계 없이 주석이 이용가능하다는 것을 나타내는 데이터를 디스플레이할 수 있다.
*단계 866에서, 텍스트 미디어 플레이어(412)는 주석 데이터를 소비한다. 주석 데이터가 음성 데이터이면, 주석 데이터를 소비하는 것이 음성 데이터를 재생하거나 음성 데이터를 텍스트 데이터로 변환하여 텍스트 데이터를 디스플레이하는 것을 포함할 수 있다. 주석 데이터가 텍스트 데이터이면, 주석 데이터를 소비하는 것이, 예를 들면, 텍스트 버전의 작품의 일부를 디스플레이하는 GUI의 사이드 패널 또는 GUI와 분리되어 나타나는 새로운 윈도우 내에 텍스트 데이터를 디스플레이하는 것을 포함할 수 있다.
낭독 특징
전술한 바와 같이, 미디어 플레이어의 사용자는 작품의 텍스트 버전을 봄과 동시에 작품의 오디오 버전을 들을 수 있다. 이러한 시나리오를 본 명세서에서는 "낭독(read aloud)" 시나리오라고 한다. 미디어 플레이어가 동시에 작품의 텍스트 버전의 일부분을 디스플레이하고 작품의 오디오 버전의 일부분을 플레이할 때, 미디어 플레이어는 "낭독 모드"에 있다고 한다.
실시예에서, 미디어 플레이어는 미디어 플레이어가 낭독 모드에 있는지를 시각적으로 표시한다. 낭독 모드에 있다는 시각적 표시는 미디어 플레이어의 스크린 상의 어딘가에 나타나는 아이콘 또는 그래픽일 수 있다. 예를 들어, 미디어 플레이어가 낭독 모드에 있는 동안 미디어 플레이어에 의해 디스플레이되는 각각의 페이지 상에 내레이터 "캐릭터"의 이미지가 미디어 플레이어에 의해 디스플레이되어 애니메이션된다.
미디어 플레이어가 낭독 모드에 있는 동안, 사용자는 미디어 플레이어를 통해 제공되고 이 시나리오와 연관되는 다수의 세팅을 선택할 수 있다.
낭독 모드에서의 세팅의 일 예는 자동 페이지 전환 세팅(automatic page turn setting)이다. 미디어 플레이어가 자동 페이지 전환 세팅 하에서 동작하고 있다면, 오디오 데이터 내의 현재 재생 위치가 미디어 플레이어에 의해 디스플레이된 페이지의 끝에 대응할 때, 페이지는 자동으로, 즉, 사용자 입력 없이 "전환"된다. 디지털 페이지 "전환하기"는 제1 페이지의 디스플레이를 중단하고 제1 페이지에 후속하는 제2 페이지를 디스플레이하는 것을 수반한다. 그러한 "전환하기"는 제1 페이지가 전환되고 있는 실제 페이지임을 나타내는 그래픽을 디스플레이하는 것을 포함할 수 있다. 따라서, 자동 페이지 전환 세팅 하에서, 미디어 플레이어는 오디오 데이터의 현재 재생 위치가 디스플레이된 페이지 상의 마지막 단어에 대응할 때를 결정한다. 이러한 결정은 맵핑이 미디어 플레이어 상에 저장되든지 미디어 플레이어에 원격인 서버 상에 저장되든지, 본 명세서에 설명된 바와 같이, 맵핑을 이용하여 현재의 오디오 위치를 현재의 텍스트 위치로 변환함으로써 가능해진다.
낭독 모드에서의 세팅의 다른 예는 페이지 끝 세팅(end of page setting)이다. 미디어 플레이어가 페이지 끝 세팅 하에서 동작하고 있다면, 미디어 플레이어는 오디오 데이터의 현재 재생 위치가 미디어 플레이어에 의해 디스플레이되는 페이지의 끝에 있는 텍스트에 대응할 때를 검출한다. 이러한 검출에 응답하여, 미디어 플레이어는 오디오 데이터의 재생을 중단시킨다. 미디어 플레이어의 사용자로부터의 입력만이 미디어 플레이어가 오디오 데이터의 프로세싱을 계속하게 할 것이다. 또한, 입력은 미디어 플레이어가 페이지를 "전환"하게 할 수 있다. 그러한 입력은 미디어 플레이어의 터치 스크린을 통한 입력 또는 음성 입력일 수 있다.
낭독 모드에서의 세팅의 다른 예는 북 제어 세팅(book control setting)이다. 미디어 플레이어가 북 제어 세팅 하에서 동작하고 있다면, 작품의 텍스트 버전과 연관되는 데이터(예를 들어, 메타데이터)를 이용하여 대응하는 오디오 데이터의 재생을 제어한다. 따라서, 텍스트 데이터 또는 맵핑 내의 태그들과 같은 특정 데이터가, 페이지 위치에 상관없이, 오디오 데이터의 재생을 일시정지 또는 정지시킬 때를 나타낸다. 예를 들어, 어린이 책의 텍스트 버전은, 그 중 하나가 사과인, 객체들에 대한 복수의 픽처들을 갖는 페이지를 가질 수 있다. 어린이 책의 오디오 버전은, "사과를 찾을 수 있나요?"라고 물을 수 있고, 질문의 끝에 대응하는 텍스트 버전의 부분은 오디오 재생을 일시정지할 때를 나타내는 태그(또는 다른 데이터)를 갖는다. 미디어 플레이어는 그 태그를 읽고, 응답하여, 미디어 플레이어의 터치 스크린 상의 디스플레이된 사과의 사용자 선택과 같은, 사용자로부터의 부가적인 입력이 있을 때까지 재생을 일시정지한다. 대안적으로, 오디오 버전 및 텍스트 버전과 연관된 맵핑은 오디오를 일시정지할 때를 나타내는 일시정지 데이터를 포함할 수 있다. 따라서, 오디오 버전의 현재 재생 위치가 변화하고 있는 동안, 미디어 플레이어가 일시정지 데이터를 검출할 때, 미디어 플레이어는 터치 스크린 상의 디스플레이된 사과를 탭핑하는 것과 같이, 사용자가 입력을 제공할 때까지 재생을 일시정지한다. 일단 사용자가 요구된 입력을 제공하면, 오디오 버전의 재생이 재개된다.
오디오 데이터의 재생을 자동으로 일시정지
(전술한 페이지 끝 세팅에서와 같은 페이지의 끝에서와 다른) 일부 시나리오들에서, 작품의 텍스트 버전의 일부분이 디스플레이되고 있는 동안 작품의 오디오 버전의 재생을 자동으로 일시정지하는 것이 유익할 수 있다. 예를 들어, 일부 작품들에 대하여, 텍스트 버전들은 픽처들을 포함한다. 구체적으로, 작품의 텍스트 버전의 페이지는 임의의 텍스트 없이 픽처만을 포함할 수 있거나, 또는 픽처 및 텍스트를 포함할 수 있고, 텍스트 버전의 다른 페이지들은 어떤 픽처도 포함하지 않는다. 그러한 상황들에서는, 작품의 오디오 버전의 재생을 정지시켜서 독자가 조용히 픽처를 분석할 수 있게 하는 것이 유익할 수 있다.
실시예에서, 작품의 텍스트 버전은 작품의 오디오 버전의 재생이 일시정지되어야 하는 때를 나타내는 "일시정지 태그"를 포함한다. 예를 들어, 일시정지 태그는 텍스트 버전 내의 픽처에 선행할 수 있거나 텍스트 버전 내의 질문의 바로 다음에 올 수 있다. 따라서, 일시정지 태그는 작품의 텍스트 버전 내의 특정 텍스트 위치에 대응할 수 있다. 미디어 플레이어(또는 원격 서버)는 맵핑에 기초하여, 작품의 오디오 버전의 현재의 재생이 특정 텍스트 위치에 대응할 때를 결정한다. 결정에 응답하여, 미디어 플레이어는 오디오 데이터의 재생을 일시정지한다. 일시정지는 3초와 같이, 미리 결정될 수 있고, 그 후에 미디어 플레이어는 오디오 데이터의 재생을 자동으로 (즉, 추가 사용자 입력 없이) 다시 시작한다. 대안적으로, 일시정지하는 시간의 양은 텍스트 버전의 메타데이터 내의 정보 또는 일시정지 태그 자체 내의 정보에 기초하여 결정될 수 있고, 여기서 정보는 5초와 같은 시간의 양을 나타내고, 그 후에 미디어 플레이어는 미디어 플레이어가 재생을 정지했던 곳에서 다시 시작하여 오디오 데이터를 자동으로 재생한다. 또한 대안적으로, 미디어 플레이어는 미디어 플레이어가 재생을 일시정지한 후에 미디어 플레이어가 작품의 오디오 버전의 재생을 계속하게 하는 사용자 입력을 수신한다. 사용자 입력은 재생을 계속하기 위해 요구될 수 있거나 일시정지 시간을 단축하는 데 이용될 수 있다.
관련 실시예에서, 작품의 오디오 버전 및 텍스트 버전과 연관된 맵핑은, 오디오 버전에서, 특정 시간의 양 동안 또는 사용자 입력이 수신될 때까지 일시정지할 곳을 나타내는 일시정지 데이터를 포함한다. 예를 들어, 미디어 플레이어가 작품의 오디오 버전을 프로세싱하는 동안, 미디어 플레이어는 오디오 버전 내의 현재 재생 위치를 추적한다. 현재 재생 위치가 맵핑에서 일시정지 데이터와 연관되는 오디오 위치에 대응할 때, 미디어 플레이어는 오디오 데이터의 재생을 일시정지한다.
하드웨어 개요
일 실시예에 따르면, 여기에서 설명하는 기술은 하나 이상의 특수 목적 컴퓨팅 디바이스에 의해 구현된다. 특수 목적 컴퓨팅 디바이스는 기술을 수행하기 위해 하드-와이어드될 수 있거나, 기술을 수행하기 위해 영속적으로 프로그램된 하나 이상의 ASIC(application-specific integrated circuits) 또는 FPGA(field programmable gate arrays) 등의 디지털 전자 디바이스를 포함할 수 있거나, 펌웨어, 메모리, 다른 저장소, 또는 조합의 프로그램 명령어들에 따라 기술을 수행하도록 프로그램된 하나 이상의 범용 하드웨어 프로세서를 포함할 수 있다. 이러한 특수 목적 컴퓨팅 디바이스는 또한 커스텀 하드-와이어드 로직, ASIC, 또는 FPGA를 기술을 성취하기 위해 커스텀 프로그래밍과 조합할 수도 있다. 특수 목적 컴퓨팅 디바이스들은 데스크탑 컴퓨터 시스템, 포터블 컴퓨터 시스템, 핸드헬드 디바이스, 네트워킹 디바이스 또는 기술을 구현하기 위한 하드-와이어드 및/또는 프로그램 로직을 통합한 임의의 다른 디바이스일 수 있다.
예를 들어, 도 9는 본 발명의 일 실시예가 구현될 수 있는 컴퓨터 시스템(900)을 도시하는 블럭도이다. 컴퓨터 시스템(900)은 버스(902) 또는 정보를 통신하기 위한 다른 통신 메커니즘, 및 버스(902)와 연결되어 정보를 처리하는 하드웨어 프로세서(904)를 포함한다. 하드웨어 프로세서(904)는, 예를 들면, 범용 마이크로프로세서일 수 있다.
컴퓨터 시스템(900)은 또한 RAM(random access memory) 등의 주 메모리(906) 또는 버스(902)에 연결되며 프로세서(904)에 의해 실행될 명렁어 및 정보를 저장하는 다른 동적 저장 디바이스를 포함한다. 주 메모리(906)는 또한 프로세서(904)에 의해 실행될 명령어들의 실행 동안 일시적 변수 또는 다른 중간 정보를 저장하는데 이용될 수 있다. 이러한 명령어들은, 프로세서(904)에 액세스가능한 비-일시적 저장 매체에 저장될 때, 컴퓨터 시스템(900)을 명령어에서 특정된 동작들을 수행하도록 맞춤화되어 있는 특수 목적 머신이 되게 한다.
컴퓨터 시스템(900)은 또한 ROM(read only memory)(908) 또는 버스(902)에 연결되며, 프로세서(904)에 대한 정적 정보 및 명령어들을 저장하기 위한 다른 정적 저장 디바이스를 포함한다. 자기 디스크 또는 광학 디스크와 같은 정보 및 명령어들을 저장하기 위한 저장 디바이스(910)가 제공되며, 버스(902)에 연결된다.
컴퓨터 시스템(900)은 컴퓨터 사용자에게 정보를 디스플레이하기 위한 CRT(cathode ray tube)와 같은 디스플레이(912)에 버스(902)를 통해 연결될 수 있다. 영숫자 및 다른 키들을 포함하는 입력 디바이스(914)가 버스(902)에 연결되며, 프로세서(904)에 정보 및 커맨드 선택을 통신한다. 사용자 입력 디바이스의 또 다른 유형으로, 방향 정보 및 커맨드 선택을 프로세서(904)에 통신하고, 디스플레이(912) 상의 커서 움직임을 제어하기 위한 커서 방향키, 마우스 또는 트랙볼 등의 커서 컨트롤(916)이 있다. 이 입력 디바이스는, 전형적으로, 디바이스가 면 내의 위치들을 지정할 수 있게 해주는 제1 축(예컨대, x) 및 제2 축(예컨대, y)의 2개의 축 내의 2 자유도(2 degrees of freedom)를 갖는다.
컴퓨터 시스템(900)은, 여기서, 커스터마이즈화된 하드-와이어드 로직, 하나 이상의 ASIC 또는 FPGA, 컴퓨터 시스템과 조합하여 컴퓨터 시스템(900)을 특수 목적 머신이 되게 하거나 특수 목적 머신이 되도록 프로그램하는 펌웨어 및/또는 프로그램 로직을 이용하여 설명되는 기술을 구현할 수 있다. 일 실시예에 따르면, 여기서의 기술은 프로세서(904)가 주 메모리(906) 내에 포함된 하나 이상의 명령어들의 하나 이상의 시퀀스들을 실행하는 것에 응답하여 컴퓨터 시스템(900)에 의해 수행된다. 이러한 명령어들은 저장 디바이스(910) 등의 또 다른 저장 매체로부터 주 메모리(906)에 읽혀 들여질 수 있다. 주 메모리(906)에 포함된 명령어들의 시퀀스의 실행에 의해, 프로세서(904)가 여기에 설명된 처리 단계들을 수행하게 한다. 대안적인 실시예에서, 하드-와이어드 회로가 소프트웨어 명령어 대신에 또는 이와 조합하여 사용될 수 있다.
여기서 사용하는 "저장 매체"라는 용어는 머신을 특정한 방식으로 동작하게 하는 데이터 및/또는 명령어들을 저장하는 임의의 비-일시적인 매체를 말한다. 이러한 저장 매체는 비휘발성 매체 및/또는 휘발성 매체를 포함할 수 있다. 비휘발성 매체는, 예를 들면, 저장 디바이스(910)와 같은 광 디스크 또는 자기 디스크를 포함한다. 휘발성 매체는 주 메모리(906)와 같은 동적 메모리를 포함한다. 일반적인 형태의 저장 매체로는, 예를 들면, 플로피 디스크, 플렉서블 디스크, 하드 디스크, 솔리드 스테이트 드라이브, 자기 테이프 또는 임의의 다른 자기 데이터 저장 매체, CD-ROM, 임의의 다른 광학 데이터 저장 매체, 홀 패턴을 갖는 임의의 물리적 매체, RAM, PROM 및 EPROM, FLASH-EPROM, NVRAM, 임의의 다른 메모리 칩 또는 카트리지를 포함한다.
*저장 매체는 전송 매체와는 구별되지만, 이 전송 매체와 관련되어 사용될 수 있다. 전송 매체는 저장 매체들 간에 정보를 전송하는데 참여한다. 예를 들면, 전송 매체는 버스(902)를 포함하는 와이어를 비롯한 동축 케이블, 구리 와이어 및 파이버 옵틱을 포함한다. 전송 매체는 또한 무선파 및 적외선 데이터 통신 중에 생성된 것과 같은 음향 또는 광파의 형태를 취할 수도 있다.
프로세서(904)가 실행하기 위한 하나 이상의 명령어들의 하나 이상의 시퀀스를 운반하는데 다양한 형태의 매체가 수반될 수 있다. 예를 들어, 명령어들은 초기에는 원격 컴퓨터의 자기 디스크 또는 솔리드 스테이트 드라이브에 있을 수 있다. 원격 컴퓨터는 명령어들을 그 동적 메모리에 로드하여 명령어들을 모뎀을 이용한 전화선을 통해 전송할 수 있다. 컴퓨터 시스템(900)에 로컬인 모뎀은 전화선을 통해 데이터를 수신하고, 적외선 송신기를 이용하여 데이터를 적외선 신호로 변환할 수 있다. 적외선 검출기는 적외선 신호에 운반되는 데이터를 수신할 수 있고, 적당한 회로가 데이터를 버스(902)에 배치할 수 있다. 버스(902)는 데이터를 주 메모리(906)에 운반하고, 이로부터 프로세서(904)가 명령어들을 검색하고 실행한다. 주 메모리(906)에 의해 수신되는 명령어들은 프로세서(904)에 의해 실행되기 전 또는 후에 저장 디바이스(910)에 선택적으로 저장될 수 있다.
컴퓨터 시스템(900)은 또한 버스(902)에 연결된 통신 인터페이스(918)를 포함한다. 통신 인터페이스(918)는 로컬 네트워크(922)에 접속된 네트워크 링크(920)에 양방향 데이터 통신 커플링을 제공한다. 예를 들면, 통신 인터페이스(918)는 ISDN(integrated services digital network) 카드, 케이블 모뎀, 위성 모뎀, 또는 대응하는 유형의 전화선에 데이터 통신 접속을 제공하는 모뎀일 수 있다. 또 다른 예로, 통신 인터페이스(918)는 호환가능 LAN에 데이터 통신 접속을 제공하기 위한 LAN 카드일 수 있다. 무선 링크도 또한 구현될 수 있다. 임의의 이러한 구현에서, 통신 인터페이스(918)는 다양한 유형의 정보를 나타내는 디지털 데이터 스트림을 운반하는 전기, 전자기 또는 광학 신호들을 송신 및 수신한다.
네트워크 링크(920)는 통상 하나 이상의 네트워크를 통해 데이터 통신을 다른 데이터 디바이스에 제공한다. 예를 들어, 네트워크 링크(920)는 로컬 네트워크(922)를 통해 호스트 컴퓨터(924) 또는 ISP(Internet Service Provider)(926)에 의해 동작되는 데이터 장비에 접속을 제공할 수 있다. 그러면, ISP(926)는 현재 일반적으로 "인터넷(928)"이라고 부르는 월드와이드 패킷 데이터 통신 네트워크를 통해 데이터 통신 서비스를 제공한다. 로컬 네트워크(922) 및 인터넷(928)은 모두 디지털 데이터 스트림들을 운반(carry)하는 전기, 전자기 또는 광학 신호들을 사용한다. 컴퓨터 시스템(900)으로 디지털 데이터를 운반하고 컴퓨터 시스템(900)으로부터 디지털 데이터를 운반하는 각종 네트워크들을 통한 신호들, 네트워크 링크(920) 및 통신 인터페이스(918)를 통한 신호들이 전송 매체의 예시적인 형태들이다.
컴퓨터 시스템(900)은 네트워크(들), 네트워크 링크(920) 및 통신 인터페이스(918)를 통해 메시지들을 전송하고 프로그램 코드를 포함하는 데이터를 수신할 수 있다. 인터넷의 예에서, 서버(930)는 인터넷(928), ISP(926), 로컬 네트워크(922) 및 통신 인터페이스(918)를 통해 애플리케이션 프로그램을 위해 요청된 코드를 송신할 수 있다.
수신된 코드 저장 디바이스(910) 또는 나중의 실행을 위한 다른 비휘발성 저장소에서 수신되고 및/또는 저장됨에 따라, 프로세서(904)에 의해 실행될 수 있다.
일부 실시예들에 따라, 도 10 내지 도 15는 상술한 본원 발명의 원리들에 따른 전자 디바이스들(1000-1500)의 기능 블록도들을 도시한다. 디바이스의 기능 블록도들은 하드웨어, 소프트웨어 또는 하드웨어 및 소프트웨어의 조합에 의해 구현되어, 본 발명의 원리들을 수행할 수 있다. 상술한 본원 발명의 원리들을 구현하기 위하여 도 10 내지 도 15에 개시된 기능 블록도들이 조합되거나 서브블록들로 분리될 수 있음이 당업자에게 이해될 것이다. 따라서, 본원 발명의 설명은 본원 발명에 개시된 기능 블록도들의 임의의 가능한 조합 또는 분리 또는 추가적인 정의를 지원할 수 있다.
도 10에 도시된 바와 같이, 전자 디바이스(1000)는 텍스트 버전이 존재하는 오디오 버전의 작품을 반영하는 오디오 데이터를 수신하도록 구성된 오디오 데이터 수신 유닛(1002)을 포함한다. 전자 디바이스(1000)는 또한 오디오 데이터 수신 유닛(1002)에 연결된 프로세싱 유닛(1006)을 포함한다. 일부 실시예들에서, 프로세싱 유닛(1006)은 텍스트 유닛(1008) 및 맵핑 유닛(1010)에 대한 음성을 포함한다.
프로세싱 유닛(1006)은 (예를 들어, 텍스트 유닛(1008)에 대한 음성에 의해) 오디오 데이터의 부분들에 대한 텍스트를 생성하기 위하여 오디오 데이터의 음성-텍스트 분석을 수행하고, 오디오 데이터의 부분들에 대해 생성된 텍스트에 기초하여, (예를 들어, 맵핑 유닛(1010)에 의해) 오디오 데이터의 복수의 오디오 위치와 텍스트 버전의 작품의 대응하는 복수의 텍스트 위치 사이의 맵핑을 생성하도록 구성된다.
도 11에 도시된 바와 같이, 전자 디바이스(1100)는 텍스트 버전의 작품을 수신하도록 구성된 텍스트 수신 유닛(1102)을 포함한다. 전자 디바이스(1100)는 또한 텍스트 버전이 존재하는 오디오 버전의 작품을 반영하는 제2 오디오 데이터를 수신하도록 구성된 오디오 데이터 수신 유닛(1104)을 포함한다. 전자 디바이스(1100)는 또한 텍스트 수신 유닛(1102)에 연결된 프로세싱 유닛(1106)을 포함한다. 일부 실시예들에서, 프로세싱 유닛(1106)은 음성 유닛(1108) 및 맵핑 유닛(1110)에 대한 텍스트를 포함한다.
프로세싱 유닛(1106)은 (예를 들어, 음성 유닛(1108)에 대한 텍스트에 의해) 제1 오디오 데이터를 생성하기 위하여 텍스트 버전의 텍스트-음성 분석을 수행하고, 제1 오디오 데이터 및 텍스트 버전에 기초하여, (예를 들어, 맵핑 유닛(1110)에 의해) 제1 오디오 데이터의 제1 복수의 오디오 위치와 텍스트 버전의 작품의 대응하는 복수의 텍스트 위치 사이의 제1 맵핑을 생성하도록 구성된다. 프로세싱 유닛(1106)은 (1) 제1 오디오 데이터와 제2 오디오 데이터의 비교, 및 (2) 제1 맵핑에 기초하여, (예를 들어, 맵핑 유닛(1110)에 의해) 제2 오디오 데이터의 제2 복수의 오디오 위치와 텍스트 버전의 작품의 복수의 텍스트 위치 사이의 제2 맵핑을 생성하도록 더 구성된다.
도 12에 도시된 바와 같이, 전자 디바이스(1200)는 오디오 입력을 수신하도록 구성된 오디오 수신 유닛(1202)을 포함한다. 전자 디바이스(1200)는 또한 오디오 수신 유닛(1202)에 연결된 프로세싱 유닛(1206)을 포함한다. 일부 실시예들에서, 프로세싱 유닛(1206)은 텍스트 유닛(1208), 텍스트 매칭 유닛(1209) 및 디스플레이 제어 유닛(1210)에 대한 음성을 포함한다.
프로세싱 유닛(1206)은 (예를 들어, 텍스트 유닛(1208)에 대한 음성에 의해) 오디오 입력의 부분들에 대한 텍스트를 생성하기 위하여 오디오 입력의 음성-텍스트 분석을 수행하고, 오디오 입력의 부분들에 대해 생성된 텍스트가 (예를 들어, 텍스트 매칭 유닛(1209)에 의해) 현재 디스플레이되는 텍스트와 매칭하는지를 결정하고, 텍스트가 현재 디스플레이되는 텍스트와 매칭하는 것으로 결정한 것에 응답하여, (예를 들어, 디스플레이 제어 유닛(1210)에 의해) 현재 디스플레이되는 텍스트가 강조 표시되도록 구성된다.
도 13에 도시된 바와 같이, 전자 디바이스(1300)는 텍스트 버전의 작품 내의 특정된 위치를 나타내는 위치 데이터를 획득하도록 구성된 위치 데이터 획득 유닛(1302)을 포함한다. 전자 디바이스(1300)는 또한 위치 데이터 획득 유닛(1302)에 연결된 프로세싱 유닛(1306)을 포함한다. 일부 실시예들에서, 프로세싱 유닛(1306)은 맵 검사 유닛(1308)을 포함한다.
프로세싱 유닛(1306)은 (예를 들어, 맵 검사 유닛(1308)에 의해) 오디오 버전의 작품의 복수의 오디오 위치와 텍스트 버전의 작품의 대응하는 복수의 텍스트 위치 사이의 맵핑을 검사하고, 복수의 텍스트 위치 중 특정된 위치에 대응하는 특정 텍스트 위치를 결정하고, 특정 텍스트 위치에 기초하여, 복수의 오디오 위치 중 특정 텍스트 위치에 대응하는 특정 오디오 위치를 결정하도록 구성된다. 프로세싱 유닛(1306)은 또한 미디어 플레이어가 오디오 데이터의 현재 재생 위치로서 특정 오디오 위치를 구축하게 하기 위하여 특정 텍스트 위치에 기초하여 결정된 특정 오디오 위치를 미디어 플레이어에 제공하도록 구성된다.
도 14에 도시된 바와 같이, 전자 디바이스(1400)는 오디오 데이터 내의 특정된 위치를 나타내는 위치 데이터를 획득하도록 구성된 위치 획득 유닛(1402)을 포함한다. 전자 디바이스(1400)는 또한 위치 획득 유닛(1402)에 연결된 프로세싱 유닛(1406)을 포함한다. 일부 실시예들에서, 프로세싱 유닛(1406)은 맵 검사 유닛(1408) 및 디스플레이 제어 유닛(1410)을 포함한다.
프로세싱 유닛(1406)은 (예를 들어, 맵 검사 유닛(1408)에 의해) 오디오 데이터의 복수의 오디오 위치와 텍스트 버전의 작품의 대응하는 복수의 텍스트 위치 사이의 맵핑을 검사하고, 복수의 오디오 위치 중 특정된 위치에 대응하는 특정 오디오 위치를 결정하고, 특정 오디오 위치에 기초하여, 복수의 텍스트 위치 중 특정 오디오 위치에 대응하는 특정 텍스트 위치를 결정하도록 구성된다. 프로세싱 유닛(1406)은 또한 (예를 들어, 디스플레이 제어 유닛(1410)에 의해) 미디어 플레이어가 특정 텍스트 위치에 대한 정보를 디스플레이하게 하도록 구성된다.
도 15에 도시된 바와 같이, 전자 디바이스(1500)는 오디오 버전의 작품의 재생 동안 오디오 버전 내의 특정된 위치를 나타내는 위치 데이터를 획득하도록 구성된 위치 획득 유닛(1502)을 포함한다. 전자 디바이스(1500)는 또한 위치 데이터 획득 유닛(1502)에 연결된 프로세싱 유닛(1506)을 포함한다. 일부 실시예들에서, 프로세싱 유닛(1506)은 텍스트 위치 결정 유닛(1508) 및 디스플레이 제어 유닛(1510)을 포함한다.
프로세싱 유닛(1506)은 오디오 버전의 작품의 재생 동안, 특정된 위치에 기초하여, (예를 들어, 텍스트 위치 결정 유닛(1508)에 의해) 텍스트 버전의 작품에서 텍스트 버전의 작품에 반영된 제1 페이지의 종료를 나타내는 페이지 종료 데이터와 연관되는 특정 텍스트 위치를 결정하고, 특정 텍스트 위치가 페이지 종료 데이터와 연관되는 것으로 결정한 것에 응답하여, (예를 들어, 디스플레이 제어 유닛(1510)에 의해) 자동으로 제1 페이지가 디스플레이되는 것을 중지시키고 디스플레이되는 제1 페이지에 후속하는 제2 페이지를 야기하도록 구성된다.
도 16에 도시된 바와 같이, 전자 디바이스(1600)는 작품의 제1 버전이 프로세싱되는 동안, 사용자로부터의 입력에 기초하는 주석 데이터를 획득하도록 구성되는 주석 획득 유닛(1602)을 포함한다. 전자 디바이스(1600)는 또한 연관 데이터 저장 유닛(1603)을 포함한다. 전자 디바이스(1600)는 또한 주석 획득 유닛(1602)과 연관 데이터 저장 유닛(1603)에 연결되는 프로세싱 유닛(1606)을 포함한다. 일부 실시예들에서, 프로세싱 유닛(1606)은 디스플레이 제어 유닛(1610)을 포함한다.
프로세싱 유닛(1606)은 (예를 들어, 연관 데이터 저장 유닛(1603)에) 작품과 주석 데이터를 연관시키는 연관 데이터가 저장되게 하고; 작품의 제2 버전이 프로세싱되는 동안, (예를 들어, 디스플레이 제어 유닛(1610)에 의해) 주석 데이터에 관한 정보가 디스플레이되게 하도록 구성되고, 제2 버전은 제1 버전과 상이하다.
도 17에 도시된 바와 같이, 전자 디바이스(1700)는 작품의 제1 버전 내에 제1 북마크를 구축하는 데이터를 수신하도록 구성된 데이터 수신 유닛(1702)을 포함한다. 전자 디바이스(1700)는 또한 위치 데이터 저장 유닛(1703)을 포함한다. 전자 디바이스(1700)는 또한 데이터 수신 유닛(1702) 및 위치 데이터 저장 유닛(1703)에 연결된 프로세싱 유닛(1706)을 포함한다. 일부 실시예들에서, 프로세싱 유닛(1706)은 맵 검사 유닛(1708)을 포함한다.
프로세싱 유닛(1706)은 (예를 들어, 맵 검사 유닛(1708)에 의해) 작품의 제1 버전 내의 복수의 제1 위치들과 작품의 제2 버전 내의 대응하는 복수의 제2 위치들 사이의 맵핑을 검사하여: 복수의 제1 위치들 중에서 제1 북마크에 대응하는 특정 제1 위치를 결정하고, 특정 제1 위치에 기초하여, 복수의 제2 위치들 중에서 특정 제1 위치에 대응하는 특정 제2 위치를 결정하고 - 작품의 제1 버전은 작품의 제2 버전과 상이함 - ; 및 (예를 들어, 위치 데이터 저장 유닛(1703)에) 작품의 제2 버전 내의 제2 북마크로서 특정 제2 위치를 구축하는 데이터가 저장되게 하도록 구성된다.
도 18에 도시된 바와 같이, 전자 디바이스(1800)는 디바이스에서, 사용자로부터 오디오 입력을 수신하도록 구성되는 오디오 수신 유닛(1802)을 포함한다. 전자 디바이스(1800)는 또한 오디오 수신 유닛(1802)에 연결되는 프로세싱 유닛(1806)을 포함한다. 일부 실시예들에서, 프로세싱 유닛(1806)은 단어 분석 유닛(1808) 및 디스플레이 제어 유닛(1810)을 포함한다.
프로세싱 유닛(1806)은 (예를 들어, 디스플레이 제어 유닛(1810)에 의해) 작품의 텍스트의 일부분이 디바이스에 의해 디스플레이되게 하고; 오디오 수신 유닛에서의 오디오 입력을 수신하는 것에 응답하여: (예를 들어, 단어 분석 유닛(1808)에 의해) 오디오 입력을 분석하여 하나 이상의 단어들을 식별하고; (예를 들어, 단어 분석 유닛(1808)에 의해) 하나 이상의 단어들이 텍스트의 일부분에 반영되어 있는지를 결정하고; 및 하나 이상의 단어들이 텍스트의 일부분에 반영되어 있다고 결정한 것에 응답하여, (예를 들어, 디스플레이 제어 유닛(1810)에 의해) 시각적 표시가 디바이스에 의해 디스플레이되게 하도록 구성된다.
상술한 명세서에서, 본 발명의 실시예들은 구현마다 변할 수 있는 다수의 특정 상세들을 참조하여 기술되었다. 따라서, 명세서 및 도면들은 제한적인 의미라기보다는 예시적인 것으로 고려된다. 본 발명의 범위의 유일하고 배타적인 표시자 및 본 발명의 범위인 것으로 출원인에 의해 의도된 것은 임의의 후속 보정을 포함하는 청구범위가 발행되는 구체적인 형태로 본 출원으로부터 발행되는 청구범위의 문자 그대로의 등가인 범위이다.

Claims (1)

  1. 제1항에 기재된 장치.
KR1020157017690A 2011-06-03 2012-06-04 텍스트 데이터와 오디오 데이터 간의 맵핑 자동 생성 KR101674851B1 (ko)

Applications Claiming Priority (9)

Application Number Priority Date Filing Date Title
US201161493372P 2011-06-03 2011-06-03
US61/493,372 2011-06-03
US201161494375P 2011-06-07 2011-06-07
US61/494,375 2011-06-07
US13/267,749 US10672399B2 (en) 2011-06-03 2011-10-06 Switching between text data and audio data based on a mapping
US13/267,738 2011-10-06
US13/267,738 US20120310642A1 (en) 2011-06-03 2011-10-06 Automatically creating a mapping between text data and audio data
US13/267,749 2011-10-06
PCT/US2012/040801 WO2012167276A1 (en) 2011-06-03 2012-06-04 Automatically creating a mapping between text data and audio data

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
KR1020137034641A Division KR101622015B1 (ko) 2011-06-03 2012-06-04 텍스트 데이터와 오디오 데이터 간의 맵핑 자동 생성

Publications (2)

Publication Number Publication Date
KR20150085115A true KR20150085115A (ko) 2015-07-22
KR101674851B1 KR101674851B1 (ko) 2016-11-09

Family

ID=47262337

Family Applications (4)

Application Number Title Priority Date Filing Date
KR1020120060060A KR101324910B1 (ko) 2011-06-03 2012-06-04 텍스트 데이터와 오디오 데이터 간의 맵핑 자동 생성
KR1020137034641A KR101622015B1 (ko) 2011-06-03 2012-06-04 텍스트 데이터와 오디오 데이터 간의 맵핑 자동 생성
KR1020157017690A KR101674851B1 (ko) 2011-06-03 2012-06-04 텍스트 데이터와 오디오 데이터 간의 맵핑 자동 생성
KR1020167006970A KR101700076B1 (ko) 2011-06-03 2012-06-04 텍스트 데이터와 오디오 데이터 간의 맵핑 자동 생성

Family Applications Before (2)

Application Number Title Priority Date Filing Date
KR1020120060060A KR101324910B1 (ko) 2011-06-03 2012-06-04 텍스트 데이터와 오디오 데이터 간의 맵핑 자동 생성
KR1020137034641A KR101622015B1 (ko) 2011-06-03 2012-06-04 텍스트 데이터와 오디오 데이터 간의 맵핑 자동 생성

Family Applications After (1)

Application Number Title Priority Date Filing Date
KR1020167006970A KR101700076B1 (ko) 2011-06-03 2012-06-04 텍스트 데이터와 오디오 데이터 간의 맵핑 자동 생성

Country Status (7)

Country Link
US (2) US20120310642A1 (ko)
EP (1) EP2593846A4 (ko)
JP (1) JP2014519058A (ko)
KR (4) KR101324910B1 (ko)
CN (1) CN103703431B (ko)
AU (2) AU2012261818B2 (ko)
WO (1) WO2012167276A1 (ko)

Families Citing this family (278)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8645137B2 (en) 2000-03-16 2014-02-04 Apple Inc. Fast, language-independent method for user authentication by voice
US8677377B2 (en) 2005-09-08 2014-03-18 Apple Inc. Method and apparatus for building an intelligent automated assistant
US9318108B2 (en) 2010-01-18 2016-04-19 Apple Inc. Intelligent automated assistant
US9020811B2 (en) * 2006-10-13 2015-04-28 Syscom, Inc. Method and system for converting text files searchable text and for processing the searchable text
US8977255B2 (en) 2007-04-03 2015-03-10 Apple Inc. Method and system for operating a multi-function portable electronic device using voice-activation
US10002189B2 (en) 2007-12-20 2018-06-19 Apple Inc. Method and apparatus for searching using an active ontology
US9330720B2 (en) 2008-01-03 2016-05-03 Apple Inc. Methods and apparatus for altering audio output signals
US8996376B2 (en) 2008-04-05 2015-03-31 Apple Inc. Intelligent text-to-speech conversion
US10496753B2 (en) 2010-01-18 2019-12-03 Apple Inc. Automatically adapting user interfaces for hands-free interaction
US20100030549A1 (en) 2008-07-31 2010-02-04 Lee Michael M Mobile device having human language translation capability with positional feedback
US8676904B2 (en) 2008-10-02 2014-03-18 Apple Inc. Electronic devices with voice command and contextual data processing capabilities
US9959870B2 (en) 2008-12-11 2018-05-01 Apple Inc. Speech recognition involving a mobile device
US10241644B2 (en) 2011-06-03 2019-03-26 Apple Inc. Actionable reminder entries
US9858925B2 (en) 2009-06-05 2018-01-02 Apple Inc. Using context information to facilitate processing of commands in a virtual assistant
US10706373B2 (en) 2011-06-03 2020-07-07 Apple Inc. Performing actions associated with task items that represent tasks to perform
US10241752B2 (en) 2011-09-30 2019-03-26 Apple Inc. Interface for a virtual digital assistant
US9431006B2 (en) 2009-07-02 2016-08-30 Apple Inc. Methods and apparatuses for automatic speech recognition
CN102804182A (zh) * 2010-01-11 2012-11-28 苹果公司 电子文本的操纵和显示
US10705794B2 (en) 2010-01-18 2020-07-07 Apple Inc. Automatically adapting user interfaces for hands-free interaction
US10679605B2 (en) 2010-01-18 2020-06-09 Apple Inc. Hands-free list-reading by intelligent automated assistant
US10276170B2 (en) 2010-01-18 2019-04-30 Apple Inc. Intelligent automated assistant
US10553209B2 (en) 2010-01-18 2020-02-04 Apple Inc. Systems and methods for hands-free notification summaries
US8682667B2 (en) 2010-02-25 2014-03-25 Apple Inc. User profiling for selecting user specific voice input processing information
US10762293B2 (en) 2010-12-22 2020-09-01 Apple Inc. Using parts-of-speech tagging and named entity recognition for spelling correction
US9645986B2 (en) 2011-02-24 2017-05-09 Google Inc. Method, medium, and system for creating an electronic book with an umbrella policy
US10019995B1 (en) 2011-03-01 2018-07-10 Alice J. Stiebel Methods and systems for language learning based on a series of pitch patterns
US11062615B1 (en) 2011-03-01 2021-07-13 Intelligibility Training LLC Methods and systems for remote language learning in a pandemic-aware world
US9262612B2 (en) 2011-03-21 2016-02-16 Apple Inc. Device access using voice authentication
US8948892B2 (en) 2011-03-23 2015-02-03 Audible, Inc. Managing playback of synchronized content
US9734153B2 (en) 2011-03-23 2017-08-15 Audible, Inc. Managing related digital content
US8855797B2 (en) 2011-03-23 2014-10-07 Audible, Inc. Managing playback of synchronized content
US9703781B2 (en) 2011-03-23 2017-07-11 Audible, Inc. Managing related digital content
US10057736B2 (en) 2011-06-03 2018-08-21 Apple Inc. Active transport based notifications
US20120310642A1 (en) 2011-06-03 2012-12-06 Apple Inc. Automatically creating a mapping between text data and audio data
US8994660B2 (en) 2011-08-29 2015-03-31 Apple Inc. Text correction processing
US8819012B2 (en) * 2011-08-30 2014-08-26 International Business Machines Corporation Accessing anchors in voice site content
US9141404B2 (en) 2011-10-24 2015-09-22 Google Inc. Extensible framework for ereader tools
JP5941264B2 (ja) * 2011-11-01 2016-06-29 キヤノン株式会社 情報処理装置、情報処理方法
US9031493B2 (en) 2011-11-18 2015-05-12 Google Inc. Custom narration of electronic books
US20130129310A1 (en) * 2011-11-22 2013-05-23 Pleiades Publishing Limited Inc. Electronic book
US9213705B1 (en) * 2011-12-19 2015-12-15 Audible, Inc. Presenting content related to primary audio content
US9117195B2 (en) * 2012-02-13 2015-08-25 Google Inc. Synchronized consumption modes for e-books
US10134385B2 (en) 2012-03-02 2018-11-20 Apple Inc. Systems and methods for name pronunciation
US9483461B2 (en) 2012-03-06 2016-11-01 Apple Inc. Handling speech synthesis of content for multiple languages
US20130268826A1 (en) * 2012-04-06 2013-10-10 Google Inc. Synchronizing progress in audio and text versions of electronic books
US9075760B2 (en) 2012-05-07 2015-07-07 Audible, Inc. Narration settings distribution for content customization
US9280610B2 (en) 2012-05-14 2016-03-08 Apple Inc. Crowd sourcing information to fulfill user requests
US10417037B2 (en) 2012-05-15 2019-09-17 Apple Inc. Systems and methods for integrating third party services with a digital assistant
US9317500B2 (en) 2012-05-30 2016-04-19 Audible, Inc. Synchronizing translated digital content
US8933312B2 (en) * 2012-06-01 2015-01-13 Makemusic, Inc. Distribution of audio sheet music as an electronic book
US9721563B2 (en) 2012-06-08 2017-08-01 Apple Inc. Name recognition system
US9141257B1 (en) 2012-06-18 2015-09-22 Audible, Inc. Selecting and conveying supplemental content
US9536439B1 (en) 2012-06-27 2017-01-03 Audible, Inc. Conveying questions with content
US9679608B2 (en) 2012-06-28 2017-06-13 Audible, Inc. Pacing content
US9495129B2 (en) 2012-06-29 2016-11-15 Apple Inc. Device, method, and user interface for voice-activated navigation and browsing of a document
US20140013192A1 (en) * 2012-07-09 2014-01-09 Sas Institute Inc. Techniques for touch-based digital document audio and user interface enhancement
US10109278B2 (en) 2012-08-02 2018-10-23 Audible, Inc. Aligning body matter across content formats
US9047356B2 (en) 2012-09-05 2015-06-02 Google Inc. Synchronizing multiple reading positions in electronic books
US9576574B2 (en) 2012-09-10 2017-02-21 Apple Inc. Context-sensitive handling of interruptions by intelligent digital assistant
US9547647B2 (en) 2012-09-19 2017-01-17 Apple Inc. Voice-based media searching
US9684641B1 (en) * 2012-09-21 2017-06-20 Amazon Technologies, Inc. Presenting content in multiple languages
US9367196B1 (en) 2012-09-26 2016-06-14 Audible, Inc. Conveying branched content
US9632647B1 (en) * 2012-10-09 2017-04-25 Audible, Inc. Selecting presentation positions in dynamic content
US9223830B1 (en) 2012-10-26 2015-12-29 Audible, Inc. Content presentation analysis
US9542936B2 (en) * 2012-12-29 2017-01-10 Genesys Telecommunications Laboratories, Inc. Fast out-of-vocabulary search in automatic speech recognition systems
US20140191976A1 (en) * 2013-01-07 2014-07-10 Microsoft Corporation Location Based Augmentation For Story Reading
US9280906B2 (en) * 2013-02-04 2016-03-08 Audible. Inc. Prompting a user for input during a synchronous presentation of audio content and textual content
US9472113B1 (en) 2013-02-05 2016-10-18 Audible, Inc. Synchronizing playback of digital content with physical content
JP2016508007A (ja) 2013-02-07 2016-03-10 アップル インコーポレイテッド デジタルアシスタントのためのボイストリガ
KR101952179B1 (ko) * 2013-03-05 2019-05-22 엘지전자 주식회사 이동 단말기 및 그것의 제어방법
US9368114B2 (en) 2013-03-14 2016-06-14 Apple Inc. Context-sensitive handling of interruptions
US10652394B2 (en) 2013-03-14 2020-05-12 Apple Inc. System and method for processing voicemail
US10748529B1 (en) 2013-03-15 2020-08-18 Apple Inc. Voice activated device for use with a voice-based digital assistant
KR101759009B1 (ko) 2013-03-15 2017-07-17 애플 인크. 적어도 부분적인 보이스 커맨드 시스템을 트레이닝시키는 것
WO2014144579A1 (en) 2013-03-15 2014-09-18 Apple Inc. System and method for updating an adaptive speech recognition model
KR102045281B1 (ko) * 2013-06-04 2019-11-15 삼성전자주식회사 데이터 처리 방법 및 그 전자 장치
WO2014197336A1 (en) 2013-06-07 2014-12-11 Apple Inc. System and method for detecting errors in interactions with a voice-based digital assistant
US9317486B1 (en) 2013-06-07 2016-04-19 Audible, Inc. Synchronizing playback of digital content with captured physical content
WO2014197334A2 (en) 2013-06-07 2014-12-11 Apple Inc. System and method for user-specified pronunciation of words for speech synthesis and recognition
US9582608B2 (en) 2013-06-07 2017-02-28 Apple Inc. Unified ranking with entropy-weighted information for phrase-based semantic auto-completion
WO2014197335A1 (en) 2013-06-08 2014-12-11 Apple Inc. Interpreting and acting upon commands that involve sharing information with remote devices
CN110442699A (zh) 2013-06-09 2019-11-12 苹果公司 操作数字助理的方法、计算机可读介质、电子设备和系统
US10176167B2 (en) 2013-06-09 2019-01-08 Apple Inc. System and method for inferring user intent from speech inputs
CN105265005B (zh) 2013-06-13 2019-09-17 苹果公司 用于由语音命令发起的紧急呼叫的系统和方法
EP3017576A4 (en) * 2013-07-03 2016-06-29 Ericsson Telefon Ab L M PROVIDING A DIGITAL BOOK TO A USER EQUIPMENT
JP6163266B2 (ja) 2013-08-06 2017-07-12 アップル インコーポレイテッド リモート機器からの作動に基づくスマート応答の自動作動
KR20150024188A (ko) * 2013-08-26 2015-03-06 삼성전자주식회사 음성 데이터에 대응하는 문자 데이터를 변경하는 방법 및 이를 위한 전자 장치
US9489360B2 (en) 2013-09-05 2016-11-08 Audible, Inc. Identifying extra material in companion content
WO2015040743A1 (ja) 2013-09-20 2015-03-26 株式会社東芝 アノテーション共有方法、アノテーション共有装置及びアノテーション共有プログラム
US20150089368A1 (en) * 2013-09-25 2015-03-26 Audible, Inc. Searching within audio content
KR102143997B1 (ko) * 2013-10-17 2020-08-12 삼성전자 주식회사 단말장치의 정보 리스트 처리장치 및 방법
US10296160B2 (en) 2013-12-06 2019-05-21 Apple Inc. Method for extracting salient dialog usage from live data
US9620105B2 (en) 2014-05-15 2017-04-11 Apple Inc. Analyzing audio input for efficient speech and music recognition
US10592095B2 (en) 2014-05-23 2020-03-17 Apple Inc. Instantaneous speaking of content on touch devices
US9502031B2 (en) 2014-05-27 2016-11-22 Apple Inc. Method for supporting dynamic grammars in WFST-based ASR
US9966065B2 (en) 2014-05-30 2018-05-08 Apple Inc. Multi-command single utterance input method
US9633004B2 (en) 2014-05-30 2017-04-25 Apple Inc. Better resolution when referencing to concepts
US9760559B2 (en) 2014-05-30 2017-09-12 Apple Inc. Predictive text input
US9785630B2 (en) 2014-05-30 2017-10-10 Apple Inc. Text prediction using combined word N-gram and unigram language models
US9842101B2 (en) 2014-05-30 2017-12-12 Apple Inc. Predictive conversion of language input
US9715875B2 (en) 2014-05-30 2017-07-25 Apple Inc. Reducing the need for manual start/end-pointing and trigger phrases
US9430463B2 (en) 2014-05-30 2016-08-30 Apple Inc. Exemplar-based natural language processing
US9734193B2 (en) 2014-05-30 2017-08-15 Apple Inc. Determining domain salience ranking from ambiguous words in natural speech
US10289433B2 (en) 2014-05-30 2019-05-14 Apple Inc. Domain specific language for encoding assistant dialog
US10170123B2 (en) 2014-05-30 2019-01-01 Apple Inc. Intelligent assistant for home automation
US10078631B2 (en) 2014-05-30 2018-09-18 Apple Inc. Entropy-guided text prediction using combined word and character n-gram language models
US10659851B2 (en) 2014-06-30 2020-05-19 Apple Inc. Real-time digital assistant knowledge updates
US9338493B2 (en) 2014-06-30 2016-05-10 Apple Inc. Intelligent automated assistant for TV user interactions
US10446141B2 (en) 2014-08-28 2019-10-15 Apple Inc. Automatic speech recognition based on user feedback
US9818400B2 (en) 2014-09-11 2017-11-14 Apple Inc. Method and apparatus for discovering trending terms in speech requests
US10789041B2 (en) 2014-09-12 2020-09-29 Apple Inc. Dynamic thresholds for always listening speech trigger
US10074360B2 (en) 2014-09-30 2018-09-11 Apple Inc. Providing an indication of the suitability of speech recognition
US10127911B2 (en) 2014-09-30 2018-11-13 Apple Inc. Speaker identification and unsupervised speaker adaptation techniques
US9886432B2 (en) 2014-09-30 2018-02-06 Apple Inc. Parsimonious handling of word inflection via categorical stem + suffix N-gram language models
US9646609B2 (en) 2014-09-30 2017-05-09 Apple Inc. Caching apparatus for serving phonetic pronunciations
US9668121B2 (en) 2014-09-30 2017-05-30 Apple Inc. Social reminders
US10552013B2 (en) 2014-12-02 2020-02-04 Apple Inc. Data detection
US9711141B2 (en) 2014-12-09 2017-07-18 Apple Inc. Disambiguating heteronyms in speech synthesis
US9865280B2 (en) 2015-03-06 2018-01-09 Apple Inc. Structured dictation using intelligent automated assistants
US10152299B2 (en) 2015-03-06 2018-12-11 Apple Inc. Reducing response latency of intelligent automated assistants
US9721566B2 (en) 2015-03-08 2017-08-01 Apple Inc. Competing devices responding to voice triggers
US10567477B2 (en) 2015-03-08 2020-02-18 Apple Inc. Virtual assistant continuity
US9886953B2 (en) 2015-03-08 2018-02-06 Apple Inc. Virtual assistant activation
US9899019B2 (en) 2015-03-18 2018-02-20 Apple Inc. Systems and methods for structured stem and suffix language models
CN106033678A (zh) * 2015-03-18 2016-10-19 珠海金山办公软件有限公司 一种播放内容显示方法及装置
US10089059B1 (en) * 2015-03-30 2018-10-02 Audible, Inc. Managing playback of media content with location data
US9842105B2 (en) 2015-04-16 2017-12-12 Apple Inc. Parsimonious continuous-space phrase representations for natural language processing
US10331304B2 (en) 2015-05-06 2019-06-25 Microsoft Technology Licensing, Llc Techniques to automatically generate bookmarks for media files
US10460227B2 (en) 2015-05-15 2019-10-29 Apple Inc. Virtual assistant in a communication session
US10083688B2 (en) 2015-05-27 2018-09-25 Apple Inc. Device voice control for selecting a displayed affordance
US10200824B2 (en) 2015-05-27 2019-02-05 Apple Inc. Systems and methods for proactively identifying and surfacing relevant content on a touch-sensitive device
US10127220B2 (en) 2015-06-04 2018-11-13 Apple Inc. Language identification from short strings
US10101822B2 (en) 2015-06-05 2018-10-16 Apple Inc. Language input correction
US9578173B2 (en) 2015-06-05 2017-02-21 Apple Inc. Virtual assistant aided communication with 3rd party service in a communication session
US10255907B2 (en) 2015-06-07 2019-04-09 Apple Inc. Automatic accent detection using acoustic models
US10186254B2 (en) 2015-06-07 2019-01-22 Apple Inc. Context-based endpoint detection
US11025565B2 (en) 2015-06-07 2021-06-01 Apple Inc. Personalized prediction of responses for instant messaging
US20160378747A1 (en) 2015-06-29 2016-12-29 Apple Inc. Virtual assistant for media playback
US10387570B2 (en) * 2015-08-27 2019-08-20 Lenovo (Singapore) Pte Ltd Enhanced e-reader experience
US10747498B2 (en) 2015-09-08 2020-08-18 Apple Inc. Zero latency digital assistant
US10740384B2 (en) 2015-09-08 2020-08-11 Apple Inc. Intelligent automated assistant for media search and playback
US10671428B2 (en) 2015-09-08 2020-06-02 Apple Inc. Distributed personal assistant
US10331312B2 (en) 2015-09-08 2019-06-25 Apple Inc. Intelligent automated assistant in a media environment
GB201516552D0 (en) * 2015-09-18 2015-11-04 Microsoft Technology Licensing Llc Keyword zoom
GB201516553D0 (en) 2015-09-18 2015-11-04 Microsoft Technology Licensing Llc Inertia audio scrolling
US9697820B2 (en) 2015-09-24 2017-07-04 Apple Inc. Unit-selection text-to-speech synthesis using concatenation-sensitive neural networks
US11010550B2 (en) 2015-09-29 2021-05-18 Apple Inc. Unified language modeling framework for word prediction, auto-completion and auto-correction
US10366158B2 (en) 2015-09-29 2019-07-30 Apple Inc. Efficient word encoding for recurrent neural network language models
US11587559B2 (en) 2015-09-30 2023-02-21 Apple Inc. Intelligent device identification
US20170098324A1 (en) * 2015-10-05 2017-04-06 Vitthal Srinivasan Method and system for automatically converting input text into animated video
KR101663300B1 (ko) * 2015-11-04 2016-10-07 주식회사 디앤피코퍼레이션 인터랙티브 동화책 구현 장치 및 방법
US10691473B2 (en) 2015-11-06 2020-06-23 Apple Inc. Intelligent automated assistant in a messaging environment
US10956666B2 (en) 2015-11-09 2021-03-23 Apple Inc. Unconventional virtual assistant interactions
US10049668B2 (en) 2015-12-02 2018-08-14 Apple Inc. Applying neural network language models to weighted finite state transducers for automatic speech recognition
US10147416B2 (en) * 2015-12-09 2018-12-04 Amazon Technologies, Inc. Text-to-speech processing systems and methods
US10223066B2 (en) 2015-12-23 2019-03-05 Apple Inc. Proactive assistance based on dialog communication between devices
US10235367B2 (en) * 2016-01-11 2019-03-19 Microsoft Technology Licensing, Llc Organization, retrieval, annotation and presentation of media data files using signals captured from a viewing environment
CN105632484B (zh) * 2016-02-19 2019-04-09 云知声(上海)智能科技有限公司 语音合成数据库停顿信息自动标注方法及系统
US10446143B2 (en) 2016-03-14 2019-10-15 Apple Inc. Identification of voice inputs providing credentials
EP3430613B1 (en) * 2016-03-16 2019-10-30 Sony Mobile Communications Inc. Controlling playback of speech-containing audio data
US11074034B2 (en) * 2016-04-27 2021-07-27 Sony Corporation Information processing apparatus, information processing method, and program
US20170315976A1 (en) * 2016-04-29 2017-11-02 Seagate Technology Llc Annotations for digital media items post capture
US9934775B2 (en) 2016-05-26 2018-04-03 Apple Inc. Unit-selection text-to-speech synthesis based on predicted concatenation parameters
US9972304B2 (en) 2016-06-03 2018-05-15 Apple Inc. Privacy preserving distributed evaluation framework for embedded personalized systems
US11227589B2 (en) 2016-06-06 2022-01-18 Apple Inc. Intelligent list reading
US10249300B2 (en) 2016-06-06 2019-04-02 Apple Inc. Intelligent list reading
US10049663B2 (en) 2016-06-08 2018-08-14 Apple, Inc. Intelligent automated assistant for media exploration
DK179309B1 (en) 2016-06-09 2018-04-23 Apple Inc Intelligent automated assistant in a home environment
US10490187B2 (en) 2016-06-10 2019-11-26 Apple Inc. Digital assistant providing automated status report
US10192552B2 (en) 2016-06-10 2019-01-29 Apple Inc. Digital assistant providing whispered speech
US10586535B2 (en) 2016-06-10 2020-03-10 Apple Inc. Intelligent digital assistant in a multi-tasking environment
US10067938B2 (en) 2016-06-10 2018-09-04 Apple Inc. Multilingual word prediction
US10509862B2 (en) 2016-06-10 2019-12-17 Apple Inc. Dynamic phrase expansion of language input
DK179343B1 (en) 2016-06-11 2018-05-14 Apple Inc Intelligent task discovery
DK201670540A1 (en) 2016-06-11 2018-01-08 Apple Inc Application integration with a digital assistant
DK179049B1 (en) 2016-06-11 2017-09-18 Apple Inc Data driven natural language event detection and classification
DK179415B1 (en) 2016-06-11 2018-06-14 Apple Inc Intelligent device arbitration and control
US10474753B2 (en) 2016-09-07 2019-11-12 Apple Inc. Language identification using recurrent neural networks
US10043516B2 (en) 2016-09-23 2018-08-07 Apple Inc. Intelligent automated assistant
CN106527845B (zh) * 2016-10-11 2019-12-10 东南大学 对文本中鼠标操作进行语音注释并再现的方法及装置
US10489110B2 (en) 2016-11-22 2019-11-26 Microsoft Technology Licensing, Llc Implicit narration for aural user interface
US10559297B2 (en) * 2016-11-28 2020-02-11 Microsoft Technology Licensing, Llc Audio landmarking for aural user interface
US11281993B2 (en) 2016-12-05 2022-03-22 Apple Inc. Model and ensemble compression for metric learning
US10593346B2 (en) 2016-12-22 2020-03-17 Apple Inc. Rank-reduced token representation for automatic speech recognition
US11204787B2 (en) 2017-01-09 2021-12-21 Apple Inc. Application integration with a digital assistant
US10475438B1 (en) * 2017-03-02 2019-11-12 Amazon Technologies, Inc. Contextual text-to-speech processing
CN107122179A (zh) 2017-03-31 2017-09-01 阿里巴巴集团控股有限公司 语音的功能控制方法和装置
US20200294487A1 (en) * 2017-04-03 2020-09-17 Ex-Iq, Inc. Hands-free annotations of audio text
US10417266B2 (en) 2017-05-09 2019-09-17 Apple Inc. Context-aware ranking of intelligent response suggestions
DK201770383A1 (en) 2017-05-09 2018-12-14 Apple Inc. USER INTERFACE FOR CORRECTING RECOGNITION ERRORS
DK180048B1 (en) 2017-05-11 2020-02-04 Apple Inc. MAINTAINING THE DATA PROTECTION OF PERSONAL INFORMATION
US10726832B2 (en) 2017-05-11 2020-07-28 Apple Inc. Maintaining privacy of personal information
DK201770439A1 (en) 2017-05-11 2018-12-13 Apple Inc. Offline personal assistant
US10395654B2 (en) 2017-05-11 2019-08-27 Apple Inc. Text normalization based on a data-driven learning network
US11301477B2 (en) 2017-05-12 2022-04-12 Apple Inc. Feedback analysis of a digital assistant
DK179496B1 (en) 2017-05-12 2019-01-15 Apple Inc. USER-SPECIFIC Acoustic Models
DK201770429A1 (en) 2017-05-12 2018-12-14 Apple Inc. LOW-LATENCY INTELLIGENT AUTOMATED ASSISTANT
DK179745B1 (en) 2017-05-12 2019-05-01 Apple Inc. SYNCHRONIZATION AND TASK DELEGATION OF A DIGITAL ASSISTANT
DK201770431A1 (en) 2017-05-15 2018-12-20 Apple Inc. Optimizing dialogue policy decisions for digital assistants using implicit feedback
DK201770432A1 (en) 2017-05-15 2018-12-21 Apple Inc. Hierarchical belief states for digital assistants
US10311144B2 (en) 2017-05-16 2019-06-04 Apple Inc. Emoji word sense disambiguation
US10303715B2 (en) 2017-05-16 2019-05-28 Apple Inc. Intelligent automated assistant for media exploration
DK179549B1 (en) 2017-05-16 2019-02-12 Apple Inc. FAR-FIELD EXTENSION FOR DIGITAL ASSISTANT SERVICES
US20180336892A1 (en) 2017-05-16 2018-11-22 Apple Inc. Detecting a trigger of a digital assistant
US10403278B2 (en) 2017-05-16 2019-09-03 Apple Inc. Methods and systems for phonetic matching in digital assistant services
US10657328B2 (en) 2017-06-02 2020-05-19 Apple Inc. Multi-task recurrent neural network architecture for efficient morphology handling in neural language modeling
US10445429B2 (en) 2017-09-21 2019-10-15 Apple Inc. Natural language understanding using vocabularies with compressed serialized tries
CN107657973B (zh) * 2017-09-27 2020-05-08 风变科技(深圳)有限公司 文本及音频混合显示方法、装置、终端设备及存储介质
US10755051B2 (en) 2017-09-29 2020-08-25 Apple Inc. Rule-based natural language processing
CN107885430B (zh) * 2017-11-07 2020-07-24 Oppo广东移动通信有限公司 一种音频播放方法、装置、存储介质及电子设备
US10636424B2 (en) 2017-11-30 2020-04-28 Apple Inc. Multi-turn canned dialog
US10733982B2 (en) 2018-01-08 2020-08-04 Apple Inc. Multi-directional dialog
US10733375B2 (en) 2018-01-31 2020-08-04 Apple Inc. Knowledge-based framework for improving natural language understanding
CN108255386B (zh) * 2018-02-12 2019-07-05 掌阅科技股份有限公司 电子书手写笔记的显示方法、计算设备及计算机存储介质
CN108460120A (zh) * 2018-02-13 2018-08-28 广州视源电子科技股份有限公司 数据保存方法、装置、终端设备及存储介质
US10789959B2 (en) 2018-03-02 2020-09-29 Apple Inc. Training speaker recognition models for digital assistants
US10592604B2 (en) 2018-03-12 2020-03-17 Apple Inc. Inverse text normalization for automatic speech recognition
US10818288B2 (en) 2018-03-26 2020-10-27 Apple Inc. Natural assistant interaction
US10909331B2 (en) 2018-03-30 2021-02-02 Apple Inc. Implicit identification of translation payload with neural machine translation
US10928918B2 (en) 2018-05-07 2021-02-23 Apple Inc. Raise to speak
US11145294B2 (en) 2018-05-07 2021-10-12 Apple Inc. Intelligent automated assistant for delivering content from user experiences
US10984780B2 (en) 2018-05-21 2021-04-20 Apple Inc. Global semantic word embeddings using bi-directional recurrent neural networks
DK180639B1 (en) 2018-06-01 2021-11-04 Apple Inc DISABILITY OF ATTENTION-ATTENTIVE VIRTUAL ASSISTANT
DK179822B1 (da) 2018-06-01 2019-07-12 Apple Inc. Voice interaction at a primary device to access call functionality of a companion device
DK201870355A1 (en) 2018-06-01 2019-12-16 Apple Inc. VIRTUAL ASSISTANT OPERATION IN MULTI-DEVICE ENVIRONMENTS
US11386266B2 (en) 2018-06-01 2022-07-12 Apple Inc. Text correction
US10892996B2 (en) 2018-06-01 2021-01-12 Apple Inc. Variable latency device coordination
US10496705B1 (en) 2018-06-03 2019-12-03 Apple Inc. Accelerated task performance
EP3613037B1 (en) * 2018-06-27 2020-10-21 Google LLC Rendering responses to a spoken utterance of a user utilizing a local text-response map
US10380997B1 (en) * 2018-07-27 2019-08-13 Deepgram, Inc. Deep learning internal state index-based search and classification
KR102136464B1 (ko) * 2018-07-31 2020-07-21 전자부품연구원 어텐션 메커니즘 기반의 오디오 분할 방법
EP3844745B1 (en) * 2018-08-27 2023-03-08 Google LLC Algorithmic determination of a story readers discontinuation of reading
CN112889022A (zh) 2018-08-31 2021-06-01 谷歌有限责任公司 基于场境数据的故事时间特殊效果的动态调整
CN112955861A (zh) 2018-09-04 2021-06-11 谷歌有限责任公司 用于预缓存特殊效果的故事阅读器进度的检测
CN112805779A (zh) 2018-09-04 2021-05-14 谷歌有限责任公司 基于语音模糊匹配和置信区间的阅读进度估计
US11010561B2 (en) 2018-09-27 2021-05-18 Apple Inc. Sentiment prediction from textual data
US10839159B2 (en) 2018-09-28 2020-11-17 Apple Inc. Named entity normalization in a spoken dialog system
US11462215B2 (en) 2018-09-28 2022-10-04 Apple Inc. Multi-modal inputs for voice commands
US11170166B2 (en) 2018-09-28 2021-11-09 Apple Inc. Neural typographical error modeling via generative adversarial networks
CN109522427B (zh) * 2018-09-30 2021-12-10 北京光年无限科技有限公司 一种面向智能机器人的故事数据处理方法及装置
US11475898B2 (en) 2018-10-26 2022-10-18 Apple Inc. Low-latency multi-speaker speech recognition
CN109491740B (zh) * 2018-10-30 2021-09-10 北京云测信息技术有限公司 一种基于上下文背景信息的自动多版本漏斗页面选优方法
GB2578742A (en) * 2018-11-06 2020-05-27 Arm Ip Ltd Resources and methods for tracking progression in a literary work
EP3660848A1 (en) * 2018-11-29 2020-06-03 Ricoh Company, Ltd. Apparatus, system, and method of display control, and carrier means
US11638059B2 (en) 2019-01-04 2023-04-25 Apple Inc. Content playback on multiple devices
KR20200092763A (ko) * 2019-01-25 2020-08-04 삼성전자주식회사 사용자 음성을 처리하는 전자장치 및 그 제어 방법
CN110110136A (zh) * 2019-02-27 2019-08-09 咪咕数字传媒有限公司 一种文音匹配方法、电子设备及存储介质
US11348573B2 (en) 2019-03-18 2022-05-31 Apple Inc. Multimodality in digital assistant systems
US10930284B2 (en) 2019-04-11 2021-02-23 Advanced New Technologies Co., Ltd. Information processing system, method, device and equipment
US11475884B2 (en) 2019-05-06 2022-10-18 Apple Inc. Reducing digital assistant latency when a language is incorrectly determined
DK201970509A1 (en) 2019-05-06 2021-01-15 Apple Inc Spoken notifications
US11307752B2 (en) 2019-05-06 2022-04-19 Apple Inc. User configurable task triggers
US11423908B2 (en) 2019-05-06 2022-08-23 Apple Inc. Interpreting spoken requests
US11140099B2 (en) 2019-05-21 2021-10-05 Apple Inc. Providing message response suggestions
DK201970511A1 (en) 2019-05-31 2021-02-15 Apple Inc Voice identification in digital assistant systems
DK180129B1 (en) 2019-05-31 2020-06-02 Apple Inc. USER ACTIVITY SHORTCUT SUGGESTIONS
US11496600B2 (en) 2019-05-31 2022-11-08 Apple Inc. Remote execution of machine-learned models
US11289073B2 (en) 2019-05-31 2022-03-29 Apple Inc. Device text to speech
US11360641B2 (en) 2019-06-01 2022-06-14 Apple Inc. Increasing the relevance of new available information
US11468890B2 (en) 2019-06-01 2022-10-11 Apple Inc. Methods and user interfaces for voice-based control of electronic devices
EP3791383B1 (en) * 2019-07-09 2021-12-08 Google LLC On-device speech synthesis of textual segments for training of on-device speech recognition model
US11488406B2 (en) 2019-09-25 2022-11-01 Apple Inc. Text detection using global geometry estimators
US11354920B2 (en) * 2019-10-12 2022-06-07 International Business Machines Corporation Updating and implementing a document from an audio proceeding
US11350185B2 (en) * 2019-12-13 2022-05-31 Bank Of America Corporation Text-to-audio for interactive videos using a markup language
US10805665B1 (en) 2019-12-13 2020-10-13 Bank Of America Corporation Synchronizing text-to-audio with interactive videos in the video framework
USD954967S1 (en) * 2020-02-21 2022-06-14 Bone Foam, Inc. Dual leg support device
US11183193B1 (en) 2020-05-11 2021-11-23 Apple Inc. Digital assistant hardware abstraction
US11061543B1 (en) 2020-05-11 2021-07-13 Apple Inc. Providing relevant data items based on context
US11755276B2 (en) 2020-05-12 2023-09-12 Apple Inc. Reducing description length based on confidence
US11490204B2 (en) 2020-07-20 2022-11-01 Apple Inc. Multi-device audio adjustment coordination
US11438683B2 (en) 2020-07-21 2022-09-06 Apple Inc. User identification using headphones
WO2022047516A1 (en) * 2020-09-04 2022-03-10 The University Of Melbourne System and method for audio annotation
CN112530472B (zh) * 2020-11-26 2022-06-21 北京字节跳动网络技术有限公司 音频与文本的同步方法、装置、可读介质和电子设备
CN112990173B (zh) * 2021-02-04 2023-10-27 上海哔哩哔哩科技有限公司 阅读处理方法、装置及系统
US11798536B2 (en) 2021-06-14 2023-10-24 International Business Machines Corporation Annotation of media files with convenient pause points
KR102553832B1 (ko) 2021-07-27 2023-07-07 울산과학기술원 청취 수단의 조작 및 보조 장치
US11537781B1 (en) 2021-09-15 2022-12-27 Lumos Information Services, LLC System and method to support synchronization, closed captioning and highlight within a text document or a media file
US20230177258A1 (en) * 2021-12-02 2023-06-08 At&T Intellectual Property I, L.P. Shared annotation of media sub-content

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6260011B1 (en) * 2000-03-20 2001-07-10 Microsoft Corporation Methods and apparatus for automatically synchronizing electronic audio files with electronic text files
JP2004152063A (ja) * 2002-10-31 2004-05-27 Nec Corp マルチメディアコンテンツ構造化方法、構造化装置および構造化プログラム、ならびに提供方法

Family Cites Families (801)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US626011A (en) * 1899-05-30 stuckwisch
US3828132A (en) 1970-10-30 1974-08-06 Bell Telephone Labor Inc Speech synthesis by concatenation of formant encoded words
US3704345A (en) 1971-03-19 1972-11-28 Bell Telephone Labor Inc Conversion of printed text into synthetic speech
US3979557A (en) 1974-07-03 1976-09-07 International Telephone And Telegraph Corporation Speech processor system for pitch period extraction using prediction filters
BG24190A1 (en) 1976-09-08 1978-01-10 Antonov Method of synthesis of speech and device for effecting same
JPS597120B2 (ja) 1978-11-24 1984-02-16 日本電気株式会社 音声分析装置
US4310721A (en) 1980-01-23 1982-01-12 The United States Of America As Represented By The Secretary Of The Army Half duplex integral vocoder modem system
US4348553A (en) 1980-07-02 1982-09-07 International Business Machines Corporation Parallel pattern verifier with dynamic time warping
US5047617A (en) 1982-01-25 1991-09-10 Symbol Technologies, Inc. Narrow-bodied, single- and twin-windowed portable laser scanning head for reading bar code symbols
EP0411675B1 (en) 1982-06-11 1995-09-20 Mitsubishi Denki Kabushiki Kaisha Interframe coding apparatus
US4688195A (en) 1983-01-28 1987-08-18 Texas Instruments Incorporated Natural-language interface generating system
JPS603056A (ja) 1983-06-21 1985-01-09 Toshiba Corp 情報整理装置
DE3335358A1 (de) 1983-09-29 1985-04-11 Siemens AG, 1000 Berlin und 8000 München Verfahren zur bestimmung von sprachspektren fuer die automatische spracherkennung und sprachcodierung
US5164900A (en) 1983-11-14 1992-11-17 Colman Bernath Method and device for phonetically encoding Chinese textual data for data processing entry
US4726065A (en) 1984-01-26 1988-02-16 Horst Froessl Image manipulation by speech signals
US4955047A (en) 1984-03-26 1990-09-04 Dytel Corporation Automated attendant with direct inward system access
US4811243A (en) 1984-04-06 1989-03-07 Racine Marsh V Computer aided coordinate digitizing system
US4692941A (en) 1984-04-10 1987-09-08 First Byte Real-time text-to-speech conversion system
US4783807A (en) 1984-08-27 1988-11-08 John Marley System and method for sound recognition with feature selection synchronized to voice pitch
US4718094A (en) 1984-11-19 1988-01-05 International Business Machines Corp. Speech recognition system
US5165007A (en) 1985-02-01 1992-11-17 International Business Machines Corporation Feneme-based Markov models for words
US4944013A (en) 1985-04-03 1990-07-24 British Telecommunications Public Limited Company Multi-pulse speech coder
US4819271A (en) 1985-05-29 1989-04-04 International Business Machines Corporation Constructing Markov model word baseforms from multiple utterances by concatenating model sequences for word segments
US4833712A (en) 1985-05-29 1989-05-23 International Business Machines Corporation Automatic generation of simple Markov model stunted baseforms for words in a vocabulary
US4829583A (en) 1985-06-03 1989-05-09 Sino Business Machines, Inc. Method and apparatus for processing ideographic characters
EP0218859A3 (en) 1985-10-11 1989-09-06 International Business Machines Corporation Signal processor communication interface
US4776016A (en) 1985-11-21 1988-10-04 Position Orientation Systems, Inc. Voice control system
JPH0833744B2 (ja) 1986-01-09 1996-03-29 株式会社東芝 音声合成装置
US4724542A (en) 1986-01-22 1988-02-09 International Business Machines Corporation Automatic reference adaptation during dynamic signature verification
US5759101A (en) 1986-03-10 1998-06-02 Response Reward Systems L.C. Central and remote evaluation of responses of participatory broadcast audience with automatic crediting and couponing
US5128752A (en) 1986-03-10 1992-07-07 Kohorn H Von System and method for generating and redeeming tokens
US5032989A (en) 1986-03-19 1991-07-16 Realpro, Ltd. Real estate search and location system and method
DE3779351D1 (ko) 1986-03-28 1992-07-02 American Telephone And Telegraph Co., New York, N.Y., Us
US4903305A (en) 1986-05-12 1990-02-20 Dragon Systems, Inc. Method for representing word models for use in speech recognition
RU2070734C1 (ru) 1986-10-03 1996-12-20 Бритиш Телекоммьюникейшнз Паблик Лимитед Компани Устройство для перевода фраз из нескольких слов с первого языка на второй
USRE34562E (en) 1986-10-16 1994-03-15 Mitsubishi Denki Kabushiki Kaisha Amplitude-adaptive vector quantization system
US4829576A (en) 1986-10-21 1989-05-09 Dragon Systems, Inc. Voice recognition system
US4852168A (en) 1986-11-18 1989-07-25 Sprague Richard P Compression of stored waveforms for artificial speech
US4727354A (en) 1987-01-07 1988-02-23 Unisys Corporation System for selecting best fit vector code in vector quantization encoding
US4827520A (en) 1987-01-16 1989-05-02 Prince Corporation Voice actuated control system for use in a vehicle
US5179627A (en) 1987-02-10 1993-01-12 Dictaphone Corporation Digital dictation system
US4965763A (en) 1987-03-03 1990-10-23 International Business Machines Corporation Computer method for automatic extraction of commonly specified information from business correspondence
US5644727A (en) 1987-04-15 1997-07-01 Proprietary Financial Products, Inc. System for the operation and management of one or more financial accounts through the use of a digital communication and computation system for exchange, investment and borrowing
EP0293259A3 (en) 1987-05-29 1990-03-07 Kabushiki Kaisha Toshiba Voice recognition system used in telephone apparatus
DE3723078A1 (de) 1987-07-11 1989-01-19 Philips Patentverwaltung Verfahren zur erkennung von zusammenhaengend gesprochenen woertern
CA1288516C (en) 1987-07-31 1991-09-03 Leendert M. Bijnagte Apparatus and method for communicating textual and image information between a host computer and a remote display terminal
US4974191A (en) 1987-07-31 1990-11-27 Syntellect Software Inc. Adaptive natural language computer interface system
US4827518A (en) 1987-08-06 1989-05-02 Bell Communications Research, Inc. Speaker verification system using integrated circuit cards
US5022081A (en) 1987-10-01 1991-06-04 Sharp Kabushiki Kaisha Information recognition system
US4852173A (en) 1987-10-29 1989-07-25 International Business Machines Corporation Design and construction of a binary-tree system for language modelling
EP0314908B1 (en) 1987-10-30 1992-12-02 International Business Machines Corporation Automatic determination of labels and markov word models in a speech recognition system
US5072452A (en) 1987-10-30 1991-12-10 International Business Machines Corporation Automatic determination of labels and Markov word models in a speech recognition system
US4914586A (en) 1987-11-06 1990-04-03 Xerox Corporation Garbage collector for hypermedia systems
US4992972A (en) 1987-11-18 1991-02-12 International Business Machines Corporation Flexible context searchable on-line information system with help files and modules for on-line computer system documentation
US5220657A (en) 1987-12-02 1993-06-15 Xerox Corporation Updating local copy of shared data in a collaborative system
US4984177A (en) 1988-02-05 1991-01-08 Advanced Products And Technologies, Inc. Voice language translator
US5194950A (en) 1988-02-29 1993-03-16 Mitsubishi Denki Kabushiki Kaisha Vector quantizer
US4914590A (en) 1988-05-18 1990-04-03 Emhart Industries, Inc. Natural language understanding system
FR2636163B1 (fr) 1988-09-02 1991-07-05 Hamon Christian Procede et dispositif de synthese de la parole par addition-recouvrement de formes d'onde
US4839853A (en) 1988-09-15 1989-06-13 Bell Communications Research, Inc. Computer information retrieval using latent semantic structure
JPH0293597A (ja) 1988-09-30 1990-04-04 Nippon I B M Kk 音声認識装置
US4905163A (en) 1988-10-03 1990-02-27 Minnesota Mining & Manufacturing Company Intelligent optical navigator dynamic information presentation and navigation system
US5282265A (en) 1988-10-04 1994-01-25 Canon Kabushiki Kaisha Knowledge information processing system
DE3837590A1 (de) 1988-11-05 1990-05-10 Ant Nachrichtentech Verfahren zum reduzieren der datenrate von digitalen bilddaten
EP0372734B1 (en) 1988-11-23 1994-03-09 Digital Equipment Corporation Name pronunciation by synthesizer
US5027406A (en) 1988-12-06 1991-06-25 Dragon Systems, Inc. Method for interactive speech recognition and training
US5127055A (en) 1988-12-30 1992-06-30 Kurzweil Applied Intelligence, Inc. Speech recognition apparatus & method having dynamic reference pattern adaptation
US5293448A (en) 1989-10-02 1994-03-08 Nippon Telegraph And Telephone Corporation Speech analysis-synthesis method and apparatus therefor
SE466029B (sv) 1989-03-06 1991-12-02 Ibm Svenska Ab Anordning och foerfarande foer analys av naturligt spraak i ett datorbaserat informationsbehandlingssystem
JPH0782544B2 (ja) 1989-03-24 1995-09-06 インターナショナル・ビジネス・マシーンズ・コーポレーション マルチテンプレートを用いるdpマツチング方法及び装置
US4977598A (en) 1989-04-13 1990-12-11 Texas Instruments Incorporated Efficient pruning algorithm for hidden markov model speech recognition
US5197005A (en) 1989-05-01 1993-03-23 Intelligent Business Systems Database retrieval system having a natural language interface
US5010574A (en) 1989-06-13 1991-04-23 At&T Bell Laboratories Vector quantizer search arrangement
JP2940005B2 (ja) 1989-07-20 1999-08-25 日本電気株式会社 音声符号化装置
US5091945A (en) 1989-09-28 1992-02-25 At&T Bell Laboratories Source dependent channel coding with error protection
CA2027705C (en) 1989-10-17 1994-02-15 Masami Akamine Speech coding system utilizing a recursive computation technique for improvement in processing speed
US5020112A (en) 1989-10-31 1991-05-28 At&T Bell Laboratories Image recognition method using two-dimensional stochastic grammars
US5220639A (en) 1989-12-01 1993-06-15 National Science Council Mandarin speech input method for Chinese computers and a mandarin speech recognition machine
US5021971A (en) 1989-12-07 1991-06-04 Unisys Corporation Reflective binary encoder for vector quantization
US5179652A (en) 1989-12-13 1993-01-12 Anthony I. Rozmanith Method and apparatus for storing, transmitting and retrieving graphical and tabular data
CH681573A5 (en) 1990-02-13 1993-04-15 Astral Automatic teller arrangement involving bank computers - is operated by user data card carrying personal data, account information and transaction records
EP0443548B1 (en) 1990-02-22 2003-07-23 Nec Corporation Speech coder
US5301109A (en) 1990-06-11 1994-04-05 Bell Communications Research, Inc. Computerized cross-language document retrieval using latent semantic indexing
JP3266246B2 (ja) 1990-06-15 2002-03-18 インターナシヨナル・ビジネス・マシーンズ・コーポレーシヨン 自然言語解析装置及び方法並びに自然言語解析用知識ベース構築方法
US5202952A (en) 1990-06-22 1993-04-13 Dragon Systems, Inc. Large-vocabulary continuous speech prefiltering and processing system
GB9017600D0 (en) 1990-08-10 1990-09-26 British Aerospace An assembly and method for binary tree-searched vector quanisation data compression processing
US5309359A (en) 1990-08-16 1994-05-03 Boris Katz Method and apparatus for generating and utlizing annotations to facilitate computer text retrieval
US5404295A (en) 1990-08-16 1995-04-04 Katz; Boris Method and apparatus for utilizing annotations to facilitate computer retrieval of database material
US5297170A (en) 1990-08-21 1994-03-22 Codex Corporation Lattice and trellis-coded quantization
US5400434A (en) 1990-09-04 1995-03-21 Matsushita Electric Industrial Co., Ltd. Voice source for synthetic speech system
JPH0833739B2 (ja) 1990-09-13 1996-03-29 三菱電機株式会社 パターン表現モデル学習装置
US5216747A (en) 1990-09-20 1993-06-01 Digital Voice Systems, Inc. Voiced/unvoiced estimation of an acoustic signal
US5128672A (en) 1990-10-30 1992-07-07 Apple Computer, Inc. Dynamic predictive keyboard
US5325298A (en) 1990-11-07 1994-06-28 Hnc, Inc. Methods for generating or revising context vectors for a plurality of word stems
US5317507A (en) 1990-11-07 1994-05-31 Gallant Stephen I Method for document retrieval and for word sense disambiguation using neural networks
US5247579A (en) 1990-12-05 1993-09-21 Digital Voice Systems, Inc. Methods for speech transmission
US5345536A (en) 1990-12-21 1994-09-06 Matsushita Electric Industrial Co., Ltd. Method of speech recognition
US5127053A (en) 1990-12-24 1992-06-30 General Electric Company Low-complexity method for improving the performance of autocorrelation-based pitch detectors
US5133011A (en) 1990-12-26 1992-07-21 International Business Machines Corporation Method and apparatus for linear vocal control of cursor position
US5268990A (en) 1991-01-31 1993-12-07 Sri International Method for recognizing speech using linguistically-motivated hidden Markov models
GB9105367D0 (en) 1991-03-13 1991-04-24 Univ Strathclyde Computerised information-retrieval database systems
US5303406A (en) 1991-04-29 1994-04-12 Motorola, Inc. Noise squelch circuit with adaptive noise shaping
US5500905A (en) 1991-06-12 1996-03-19 Microelectronics And Computer Technology Corporation Pattern recognition neural network with saccade-like operation
US5475587A (en) 1991-06-28 1995-12-12 Digital Equipment Corporation Method and apparatus for efficient morphological text analysis using a high-level language for compact specification of inflectional paradigms
US5293452A (en) 1991-07-01 1994-03-08 Texas Instruments Incorporated Voice log-in using spoken name input
US5687077A (en) 1991-07-31 1997-11-11 Universal Dynamics Limited Method and apparatus for adaptive control
US5199077A (en) 1991-09-19 1993-03-30 Xerox Corporation Wordspotting for voice editing and indexing
JP2662120B2 (ja) 1991-10-01 1997-10-08 インターナショナル・ビジネス・マシーンズ・コーポレイション 音声認識装置および音声認識用処理ユニット
US5222146A (en) 1991-10-23 1993-06-22 International Business Machines Corporation Speech recognition apparatus having a speech coder outputting acoustic prototype ranks
US5757979A (en) 1991-10-30 1998-05-26 Fuji Electric Co., Ltd. Apparatus and method for nonlinear normalization of image
KR940002854B1 (ko) 1991-11-06 1994-04-04 한국전기통신공사 음성 합성시스팀의 음성단편 코딩 및 그의 피치조절 방법과 그의 유성음 합성장치
US5386494A (en) 1991-12-06 1995-01-31 Apple Computer, Inc. Method and apparatus for controlling a speech recognition function using a cursor control device
US5903454A (en) 1991-12-23 1999-05-11 Hoffberg; Linda Irene Human-factored interface corporating adaptive pattern recognition based controller apparatus
US6081750A (en) 1991-12-23 2000-06-27 Hoffberg; Steven Mark Ergonomic man-machine interface incorporating adaptive pattern recognition based control system
US5502790A (en) 1991-12-24 1996-03-26 Oki Electric Industry Co., Ltd. Speech recognition method and system using triphones, diphones, and phonemes
US5349645A (en) 1991-12-31 1994-09-20 Matsushita Electric Industrial Co., Ltd. Word hypothesizer for continuous speech decoding using stressed-vowel centered bidirectional tree searches
US5267345A (en) 1992-02-10 1993-11-30 International Business Machines Corporation Speech recognition apparatus which predicts word classes from context and words from word classes
ES2128390T3 (es) 1992-03-02 1999-05-16 At & T Corp Metodo de adiestramiento y dispositivo para reconocimiento de voz.
US6055514A (en) 1992-03-20 2000-04-25 Wren; Stephen Corey System for marketing foods and services utilizing computerized centraland remote facilities
US5317647A (en) 1992-04-07 1994-05-31 Apple Computer, Inc. Constrained attribute grammars for syntactic pattern recognition
US5412804A (en) 1992-04-30 1995-05-02 Oracle Corporation Extending the semantics of the outer join operator for un-nesting queries to a data base
WO1993023847A1 (en) 1992-05-20 1993-11-25 Industrial Research Limited Wideband assisted reverberation system
US5293584A (en) 1992-05-21 1994-03-08 International Business Machines Corporation Speech recognition system for natural language translation
US5434777A (en) 1992-05-27 1995-07-18 Apple Computer, Inc. Method and apparatus for processing natural language
US5390281A (en) 1992-05-27 1995-02-14 Apple Computer, Inc. Method and apparatus for deducing user intent and providing computer implemented services
US5734789A (en) 1992-06-01 1998-03-31 Hughes Electronics Voiced, unvoiced or noise modes in a CELP vocoder
JPH064093A (ja) 1992-06-18 1994-01-14 Matsushita Electric Ind Co Ltd Hmm作成装置、hmm記憶装置、尤度計算装置及び、認識装置
US5333275A (en) 1992-06-23 1994-07-26 Wheatley Barbara J System and method for time aligning speech
US5325297A (en) 1992-06-25 1994-06-28 System Of Multiple-Colored Images For Internationally Listed Estates, Inc. Computer implemented method and system for storing and retrieving textual data and compressed image data
JPH0619965A (ja) 1992-07-01 1994-01-28 Canon Inc 自然言語処理装置
US5999908A (en) 1992-08-06 1999-12-07 Abelow; Daniel H. Customer-based product design module
US5412806A (en) 1992-08-20 1995-05-02 Hewlett-Packard Company Calibration of logical cost formulae for queries in a heterogeneous DBMS using synthetic database
GB9220404D0 (en) 1992-08-20 1992-11-11 Nat Security Agency Method of identifying,retrieving and sorting documents
US5333236A (en) 1992-09-10 1994-07-26 International Business Machines Corporation Speech recognizer having a speech coder for an acoustic match based on context-dependent speech-transition acoustic models
US5384893A (en) 1992-09-23 1995-01-24 Emerson & Stern Associates, Inc. Method and apparatus for speech synthesis based on prosodic analysis
FR2696036B1 (fr) 1992-09-24 1994-10-14 France Telecom Procédé de mesure de ressemblance entre échantillons sonores et dispositif de mise en Óoeuvre de ce procédé.
JPH0772840B2 (ja) 1992-09-29 1995-08-02 日本アイ・ビー・エム株式会社 音声モデルの構成方法、音声認識方法、音声認識装置及び音声モデルの訓練方法
US5758313A (en) 1992-10-16 1998-05-26 Mobile Information Systems, Inc. Method and apparatus for tracking vehicle location
US5920837A (en) 1992-11-13 1999-07-06 Dragon Systems, Inc. Word recognition system which stores two models for some words and allows selective deletion of one such model
US6092043A (en) 1992-11-13 2000-07-18 Dragon Systems, Inc. Apparatuses and method for training and operating speech recognition systems
DE69327774T2 (de) 1992-11-18 2000-06-21 Canon Information Syst Inc Prozessor zur Umwandlung von Daten in Sprache und Ablaufsteuerung hierzu
US5455888A (en) 1992-12-04 1995-10-03 Northern Telecom Limited Speech bandwidth extension method and apparatus
US5412756A (en) 1992-12-22 1995-05-02 Mitsubishi Denki Kabushiki Kaisha Artificial intelligence software shell for plant operation simulation
US5390279A (en) 1992-12-31 1995-02-14 Apple Computer, Inc. Partitioning speech rules by context for speech recognition
US5613036A (en) 1992-12-31 1997-03-18 Apple Computer, Inc. Dynamic categories for a speech recognition system
US5384892A (en) 1992-12-31 1995-01-24 Apple Computer, Inc. Dynamic language model for speech recognition
US5734791A (en) 1992-12-31 1998-03-31 Apple Computer, Inc. Rapid tree-based method for vector quantization
US6122616A (en) 1993-01-21 2000-09-19 Apple Computer, Inc. Method and apparatus for diphone aliasing
US5864844A (en) 1993-02-18 1999-01-26 Apple Computer, Inc. System and method for enhancing a user interface with a computer based training tool
CA2091658A1 (en) 1993-03-15 1994-09-16 Matthew Lennig Method and apparatus for automation of directory assistance using speech recognition
US6055531A (en) 1993-03-24 2000-04-25 Engate Incorporated Down-line transcription system having context sensitive searching capability
US5536902A (en) 1993-04-14 1996-07-16 Yamaha Corporation Method of and apparatus for analyzing and synthesizing a sound by extracting and controlling a sound parameter
US5444823A (en) 1993-04-16 1995-08-22 Compaq Computer Corporation Intelligent search engine for associated on-line documentation having questionless case-based knowledge base
US5574823A (en) 1993-06-23 1996-11-12 Her Majesty The Queen In Right Of Canada As Represented By The Minister Of Communications Frequency selective harmonic coding
JPH0756933A (ja) 1993-06-24 1995-03-03 Xerox Corp 文書検索方法
US5515475A (en) 1993-06-24 1996-05-07 Northern Telecom Limited Speech recognition method using a two-pass search
JP3685812B2 (ja) 1993-06-29 2005-08-24 ソニー株式会社 音声信号送受信装置
US5794207A (en) 1996-09-04 1998-08-11 Walker Asset Management Limited Partnership Method and apparatus for a cryptographically assisted commercial network system designed to facilitate buyer-driven conditional purchase offers
AU7323694A (en) 1993-07-07 1995-02-06 Inference Corporation Case-based organizing and querying of a database
US5495604A (en) 1993-08-25 1996-02-27 Asymetrix Corporation Method and apparatus for the modeling and query of database structures using natural language-like constructs
US5619694A (en) 1993-08-26 1997-04-08 Nec Corporation Case database storage/retrieval system
US5940811A (en) 1993-08-27 1999-08-17 Affinity Technology Group, Inc. Closed loop financial transaction method and apparatus
US5377258A (en) 1993-08-30 1994-12-27 National Medical Research Council Method and apparatus for an automated and interactive behavioral guidance system
US5873056A (en) 1993-10-12 1999-02-16 The Syracuse University Natural language processing system for semantic vector representation which accounts for lexical ambiguity
JP2986345B2 (ja) 1993-10-18 1999-12-06 インターナショナル・ビジネス・マシーンズ・コーポレイション 音声記録指標化装置及び方法
US5578808A (en) 1993-12-22 1996-11-26 Datamark Services, Inc. Data card that can be used for transactions involving separate card issuers
WO1995017711A1 (en) 1993-12-23 1995-06-29 Diacom Technologies, Inc. Method and apparatus for implementing user feedback
US5621859A (en) 1994-01-19 1997-04-15 Bbn Corporation Single tree method for grammar directed, very large vocabulary speech recognizer
US5584024A (en) 1994-03-24 1996-12-10 Software Ag Interactive database query system and method for prohibiting the selection of semantically incorrect query parameters
US5642519A (en) 1994-04-29 1997-06-24 Sun Microsystems, Inc. Speech interpreter with a unified grammer compiler
DE69520302T2 (de) 1994-05-25 2001-08-09 Victor Company Of Japan Datenwiedergabegerät mit variabler Übertragungsrate
US5493677A (en) 1994-06-08 1996-02-20 Systems Research & Applications Corporation Generation, archiving, and retrieval of digital images with evoked suggestion-set captions and natural language interface
US5812697A (en) 1994-06-10 1998-09-22 Nippon Steel Corporation Method and apparatus for recognizing hand-written characters using a weighting dictionary
US5675819A (en) 1994-06-16 1997-10-07 Xerox Corporation Document information retrieval using global word co-occurrence patterns
JPH0869470A (ja) 1994-06-21 1996-03-12 Canon Inc 自然言語処理装置及びその方法
US5948040A (en) 1994-06-24 1999-09-07 Delorme Publishing Co. Travel reservation information and planning system
DE69533479T2 (de) 1994-07-01 2005-09-22 Palm Computing, Inc., Los Altos Zeichensatz mit zeichen aus mehreren strichen und handschrifterkennungssystem
US5682539A (en) 1994-09-29 1997-10-28 Conrad; Donovan Anticipated meaning natural language interface
GB2293667B (en) 1994-09-30 1998-05-27 Intermation Limited Database management system
US5715468A (en) 1994-09-30 1998-02-03 Budzinski; Robert Lucius Memory system for storing and retrieving experience and knowledge with natural language
US5845255A (en) 1994-10-28 1998-12-01 Advanced Health Med-E-Systems Corporation Prescription management system
US5577241A (en) 1994-12-07 1996-11-19 Excite, Inc. Information retrieval system and method with implementation extensible query architecture
US5748974A (en) 1994-12-13 1998-05-05 International Business Machines Corporation Multimodal natural language interface for cross-application tasks
US5794050A (en) 1995-01-04 1998-08-11 Intelligent Text Processing, Inc. Natural language understanding system
EP1555591B1 (en) 1995-02-13 2013-08-14 Intertrust Technologies Corp. Secure transaction management
US5701400A (en) 1995-03-08 1997-12-23 Amado; Carlos Armando Method and apparatus for applying if-then-else rules to data sets in a relational data base and generating from the results of application of said rules a database of diagnostics linked to said data sets to aid executive analysis of financial data
US5749081A (en) 1995-04-06 1998-05-05 Firefly Network, Inc. System and method for recommending items to a user
US5642464A (en) 1995-05-03 1997-06-24 Northern Telecom Limited Methods and apparatus for noise conditioning in digital speech compression systems using linear predictive coding
US5812698A (en) 1995-05-12 1998-09-22 Synaptics, Inc. Handwriting recognition system and method
TW338815B (en) 1995-06-05 1998-08-21 Motorola Inc Method and apparatus for character recognition of handwritten input
US5664055A (en) 1995-06-07 1997-09-02 Lucent Technologies Inc. CS-ACELP speech compression system with adaptive pitch prediction filter gain based on a measure of periodicity
US5991441A (en) 1995-06-07 1999-11-23 Wang Laboratories, Inc. Real time handwriting recognition system
US6496182B1 (en) 1995-06-07 2002-12-17 Microsoft Corporation Method and system for providing touch-sensitive screens for the visually impaired
US5710886A (en) 1995-06-16 1998-01-20 Sellectsoft, L.C. Electric couponing method and apparatus
JP3284832B2 (ja) 1995-06-22 2002-05-20 セイコーエプソン株式会社 音声認識対話処理方法および音声認識対話装置
US6038533A (en) 1995-07-07 2000-03-14 Lucent Technologies Inc. System and method for selecting training text
US6026388A (en) 1995-08-16 2000-02-15 Textwise, Llc User interface and other enhancements for natural language information retrieval system and method
JP3697748B2 (ja) 1995-08-21 2005-09-21 セイコーエプソン株式会社 端末、音声認識装置
US5712957A (en) 1995-09-08 1998-01-27 Carnegie Mellon University Locating and correcting erroneously recognized portions of utterances by rescoring based on two n-best lists
US5737734A (en) 1995-09-15 1998-04-07 Infonautics Corporation Query word relevance adjustment in a search of an information retrieval system
US5790978A (en) 1995-09-15 1998-08-04 Lucent Technologies, Inc. System and method for determining pitch contours
US6173261B1 (en) 1998-09-30 2001-01-09 At&T Corp Grammar fragment acquisition using syntactic and semantic clustering
US5884323A (en) 1995-10-13 1999-03-16 3Com Corporation Extendible method and apparatus for synchronizing files on two different computer systems
US5799276A (en) 1995-11-07 1998-08-25 Accent Incorporated Knowledge-based speech recognition system and methods having frame length computed based upon estimated pitch period of vocalic intervals
US5794237A (en) 1995-11-13 1998-08-11 International Business Machines Corporation System and method for improving problem source identification in computer systems employing relevance feedback and statistical source ranking
US6064959A (en) 1997-03-28 2000-05-16 Dragon Systems, Inc. Error correction in speech recognition
US5706442A (en) 1995-12-20 1998-01-06 Block Financial Corporation System for on-line financial services using distributed objects
US6119101A (en) 1996-01-17 2000-09-12 Personal Agents, Inc. Intelligent agents for electronic commerce
EP0876652B1 (en) 1996-01-17 2013-06-26 Paradox Technical Solutions LLC Intelligent agents for electronic commerce
US6125356A (en) 1996-01-18 2000-09-26 Rosefaire Development, Ltd. Portable sales presentation system with selective scripted seller prompts
US5987404A (en) 1996-01-29 1999-11-16 International Business Machines Corporation Statistical natural language understanding using hidden clumpings
US5729694A (en) 1996-02-06 1998-03-17 The Regents Of The University Of California Speech coding, reconstruction and recognition using acoustics and electromagnetic waves
US6076088A (en) 1996-02-09 2000-06-13 Paik; Woojin Information extraction system and method using concept relation concept (CRC) triples
US5835893A (en) 1996-02-15 1998-11-10 Atr Interpreting Telecommunications Research Labs Class-based word clustering for speech recognition using a three-level balanced hierarchical similarity
US5901287A (en) 1996-04-01 1999-05-04 The Sabre Group Inc. Information aggregation and synthesization system
US5867799A (en) 1996-04-04 1999-02-02 Lang; Andrew K. Information system and method for filtering a massive flow of information entities to meet user information classification needs
US5963924A (en) 1996-04-26 1999-10-05 Verifone, Inc. System, method and article of manufacture for the use of payment instrument holders and payment instruments in network electronic commerce
US5987140A (en) 1996-04-26 1999-11-16 Verifone, Inc. System, method and article of manufacture for secure network electronic payment and credit collection
US5913193A (en) 1996-04-30 1999-06-15 Microsoft Corporation Method and system of runtime acoustic unit selection for speech synthesis
US5857184A (en) 1996-05-03 1999-01-05 Walden Media, Inc. Language and method for creating, organizing, and retrieving data from a database
FR2748342B1 (fr) 1996-05-06 1998-07-17 France Telecom Procede et dispositif de filtrage par egalisation d'un signal de parole, mettant en oeuvre un modele statistique de ce signal
US5828999A (en) 1996-05-06 1998-10-27 Apple Computer, Inc. Method and system for deriving a large-span semantic language model for large-vocabulary recognition systems
US5826261A (en) 1996-05-10 1998-10-20 Spencer; Graham System and method for querying multiple, distributed databases by selective sharing of local relative significance information for terms related to the query
US6366883B1 (en) 1996-05-15 2002-04-02 Atr Interpreting Telecommunications Concatenation of speech segments by use of a speech synthesizer
US5727950A (en) 1996-05-22 1998-03-17 Netsage Corporation Agent based instruction system and method
US6556712B1 (en) 1996-05-23 2003-04-29 Apple Computer, Inc. Methods and apparatus for handwriting recognition
US5966533A (en) 1996-06-11 1999-10-12 Excite, Inc. Method and system for dynamically synthesizing a computer program by differentially resolving atoms based on user context data
US5915249A (en) 1996-06-14 1999-06-22 Excite, Inc. System and method for accelerated query evaluation of very large full-text databases
US5987132A (en) 1996-06-17 1999-11-16 Verifone, Inc. System, method and article of manufacture for conditionally accepting a payment method utilizing an extensible, flexible architecture
US5825881A (en) 1996-06-28 1998-10-20 Allsoft Distributing Inc. Public network merchandising system
US6070147A (en) 1996-07-02 2000-05-30 Tecmark Services, Inc. Customer identification and marketing analysis systems
EP0912954B8 (en) 1996-07-22 2006-06-14 Cyva Research Corporation Personal information security and exchange tool
US6453281B1 (en) 1996-07-30 2002-09-17 Vxi Corporation Portable audio database device with icon-based graphical user-interface
EP0829811A1 (en) 1996-09-11 1998-03-18 Nippon Telegraph And Telephone Corporation Method and system for information retrieval
US6181935B1 (en) 1996-09-27 2001-01-30 Software.Com, Inc. Mobility extended telephone application programming interface and method of use
US5794182A (en) 1996-09-30 1998-08-11 Apple Computer, Inc. Linear predictive speech encoding systems with efficient combination pitch coefficients computation
US5721827A (en) 1996-10-02 1998-02-24 James Logan System for electrically distributing personalized information
US6199076B1 (en) * 1996-10-02 2001-03-06 James Logan Audio program player including a dynamic program selection controller
US5732216A (en) 1996-10-02 1998-03-24 Internet Angles, Inc. Audio message exchange system
US5913203A (en) 1996-10-03 1999-06-15 Jaesent Inc. System and method for pseudo cash transactions
US5930769A (en) 1996-10-07 1999-07-27 Rose; Andrea System and method for fashion shopping
US5836771A (en) 1996-12-02 1998-11-17 Ho; Chi Fai Learning method and system based on questioning
US6282511B1 (en) 1996-12-04 2001-08-28 At&T Voiced interface with hyperlinked information
US6665639B2 (en) 1996-12-06 2003-12-16 Sensory, Inc. Speech recognition in consumer electronic products
US6078914A (en) 1996-12-09 2000-06-20 Open Text Corporation Natural language meta-search system and method
US5839106A (en) 1996-12-17 1998-11-17 Apple Computer, Inc. Large-vocabulary speech recognition using an integrated syntactic and semantic statistical language model
US5966126A (en) 1996-12-23 1999-10-12 Szabo; Andrew J. Graphic user interface for database system
US5932869A (en) 1996-12-27 1999-08-03 Graphic Technology, Inc. Promotional system with magnetic stripe and visual thermo-reversible print surfaced medium
JP3579204B2 (ja) 1997-01-17 2004-10-20 富士通株式会社 文書要約装置およびその方法
US5941944A (en) 1997-03-03 1999-08-24 Microsoft Corporation Method for providing a substitute for a requested inaccessible object by identifying substantially similar objects using weights corresponding to object features
US6076051A (en) 1997-03-07 2000-06-13 Microsoft Corporation Information retrieval utilizing semantic representation of text
US5930801A (en) 1997-03-07 1999-07-27 Xerox Corporation Shared-data environment in which each file has independent security properties
US6260013B1 (en) 1997-03-14 2001-07-10 Lernout & Hauspie Speech Products N.V. Speech recognition system employing discriminatively trained models
WO1998041956A1 (en) 1997-03-20 1998-09-24 Schlumberger Technologies, Inc. System and method of transactional taxation using secure stored data devices
US5822743A (en) 1997-04-08 1998-10-13 1215627 Ontario Inc. Knowledge-based information retrieval system
US5970474A (en) 1997-04-24 1999-10-19 Sears, Roebuck And Co. Registry information system for shoppers
US5895464A (en) 1997-04-30 1999-04-20 Eastman Kodak Company Computer program product and a method for using natural language for the description, search and retrieval of multi-media objects
DE69816185T2 (de) 1997-06-12 2004-04-15 Hewlett-Packard Co. (N.D.Ges.D.Staates Delaware), Palo Alto Bildverarbeitungsverfahren und -vorrichtung
US6017219A (en) 1997-06-18 2000-01-25 International Business Machines Corporation System and method for interactive reading and language instruction
WO1999001834A1 (en) 1997-07-02 1999-01-14 Coueignoux, Philippe, J., M. System and method for the secure discovery, exploitation and publication of information
US5860063A (en) 1997-07-11 1999-01-12 At&T Corp Automated meaningful phrase clustering
US5933822A (en) 1997-07-22 1999-08-03 Microsoft Corporation Apparatus and methods for an information retrieval system that employs natural language processing of search results to improve overall precision
US5974146A (en) 1997-07-30 1999-10-26 Huntington Bancshares Incorporated Real time bank-centric universal payment system
US6016476A (en) 1997-08-11 2000-01-18 International Business Machines Corporation Portable information and transaction processing system and method utilizing biometric authorization and digital certificate security
US5895466A (en) 1997-08-19 1999-04-20 At&T Corp Automated natural language understanding customer service system
US6081774A (en) 1997-08-22 2000-06-27 Novell, Inc. Natural language information retrieval system and method
US6404876B1 (en) 1997-09-25 2002-06-11 Gte Intelligent Network Services Incorporated System and method for voice activated dialing and routing under open access network control
US6023684A (en) 1997-10-01 2000-02-08 Security First Technologies, Inc. Three tier financial transaction system with cache memory
DE69712485T2 (de) 1997-10-23 2002-12-12 Sony Int Europe Gmbh Sprachschnittstelle für ein Hausnetzwerk
US6108627A (en) 1997-10-31 2000-08-22 Nortel Networks Corporation Automatic transcription tool
US5943670A (en) 1997-11-21 1999-08-24 International Business Machines Corporation System and method for categorizing objects in combined categories
US5960422A (en) 1997-11-26 1999-09-28 International Business Machines Corporation System and method for optimized source selection in an information retrieval system
US6026375A (en) 1997-12-05 2000-02-15 Nortel Networks Corporation Method and apparatus for processing orders from customers in a mobile environment
US6064960A (en) 1997-12-18 2000-05-16 Apple Computer, Inc. Method and apparatus for improved duration modeling of phonemes
US6094649A (en) 1997-12-22 2000-07-25 Partnet, Inc. Keyword searches of structured databases
US6173287B1 (en) 1998-03-11 2001-01-09 Digital Equipment Corporation Technique for ranking multimedia annotations of interest
US6195641B1 (en) 1998-03-27 2001-02-27 International Business Machines Corp. Network universal spoken language vocabulary
US6026393A (en) 1998-03-31 2000-02-15 Casebank Technologies Inc. Configuration knowledge as an aid to case retrieval
US6233559B1 (en) 1998-04-01 2001-05-15 Motorola, Inc. Speech control of multiple applications using applets
US6173279B1 (en) 1998-04-09 2001-01-09 At&T Corp. Method of using a natural language interface to retrieve information from one or more data resources
US6088731A (en) 1998-04-24 2000-07-11 Associative Computing, Inc. Intelligent assistant for use with a local computer and with the internet
EP1076865B1 (en) 1998-04-27 2002-12-18 BRITISH TELECOMMUNICATIONS public limited company Database access tool
US6081780A (en) 1998-04-28 2000-06-27 International Business Machines Corporation TTS and prosody based authoring system
US6016471A (en) 1998-04-29 2000-01-18 Matsushita Electric Industrial Co., Ltd. Method and apparatus using decision trees to generate and score multiple pronunciations for a spelled word
US6029132A (en) 1998-04-30 2000-02-22 Matsushita Electric Industrial Co. Method for letter-to-sound in text-to-speech synthesis
US6285786B1 (en) 1998-04-30 2001-09-04 Motorola, Inc. Text recognizer and method using non-cumulative character scoring in a forward search
US6144938A (en) 1998-05-01 2000-11-07 Sun Microsystems, Inc. Voice user interface with personality
US20070094224A1 (en) 1998-05-28 2007-04-26 Lawrence Au Method and system for determining contextual meaning for network search applications
US7711672B2 (en) 1998-05-28 2010-05-04 Lawrence Au Semantic network methods to disambiguate natural language meaning
US6778970B2 (en) 1998-05-28 2004-08-17 Lawrence Au Topological methods to organize semantic network data flows for conversational applications
US6144958A (en) 1998-07-15 2000-11-07 Amazon.Com, Inc. System and method for correcting spelling errors in search queries
US6105865A (en) 1998-07-17 2000-08-22 Hardesty; Laurence Daniel Financial transaction system with retirement saving benefit
US6434524B1 (en) 1998-09-09 2002-08-13 One Voice Technologies, Inc. Object interactive user interface using speech recognition and natural language processing
US6499013B1 (en) 1998-09-09 2002-12-24 One Voice Technologies, Inc. Interactive user interface using speech recognition and natural language processing
US6792082B1 (en) 1998-09-11 2004-09-14 Comverse Ltd. Voice mail system with personal assistant provisioning
DE29825146U1 (de) 1998-09-11 2005-08-18 Püllen, Rainer Teilnehmereinheit und System für einen Multimediadienst
US6266637B1 (en) 1998-09-11 2001-07-24 International Business Machines Corporation Phrase splicing and variable substitution using a trainable speech synthesizer
US6317831B1 (en) 1998-09-21 2001-11-13 Openwave Systems Inc. Method and apparatus for establishing a secure connection over a one-way data path
ATE383640T1 (de) 1998-10-02 2008-01-15 Ibm Vorrichtung und verfahren zur bereitstellung von netzwerk-koordinierten konversationsdiensten
US6275824B1 (en) 1998-10-02 2001-08-14 Ncr Corporation System and method for managing data privacy in a database management system
GB9821969D0 (en) 1998-10-08 1998-12-02 Canon Kk Apparatus and method for processing natural language
US6928614B1 (en) 1998-10-13 2005-08-09 Visteon Global Technologies, Inc. Mobile office with speech recognition
US6453292B2 (en) 1998-10-28 2002-09-17 International Business Machines Corporation Command boundary identifier for conversational natural language
US6208971B1 (en) 1998-10-30 2001-03-27 Apple Computer, Inc. Method and apparatus for command recognition using data-driven semantic inference
US6321092B1 (en) 1998-11-03 2001-11-20 Signal Soft Corporation Multiple input data management for wireless location-based applications
US6839669B1 (en) 1998-11-05 2005-01-04 Scansoft, Inc. Performing actions identified in recognized speech
US6519565B1 (en) 1998-11-10 2003-02-11 Voice Security Systems, Inc. Method of comparing utterances for security control
US6446076B1 (en) 1998-11-12 2002-09-03 Accenture Llp. Voice interactive web-based agent system responsive to a user location for prioritizing and formatting information
DE69925932T2 (de) 1998-11-13 2006-05-11 Lernout & Hauspie Speech Products N.V. Sprachsynthese durch verkettung von sprachwellenformen
US6606599B2 (en) 1998-12-23 2003-08-12 Interactive Speech Technologies, Llc Method for integrating computing processes with an interface controlled by voice actuated grammars
US6246981B1 (en) 1998-11-25 2001-06-12 International Business Machines Corporation Natural language task-oriented dialog manager and method
US7082397B2 (en) 1998-12-01 2006-07-25 Nuance Communications, Inc. System for and method of creating and browsing a voice web
US6260024B1 (en) 1998-12-02 2001-07-10 Gary Shkedy Method and apparatus for facilitating buyer-driven purchase orders on a commercial network system
US7881936B2 (en) 1998-12-04 2011-02-01 Tegic Communications, Inc. Multimodal disambiguation of speech recognition
US6317707B1 (en) 1998-12-07 2001-11-13 At&T Corp. Automatic clustering of tokens from a corpus for grammar acquisition
US6177905B1 (en) 1998-12-08 2001-01-23 Avaya Technology Corp. Location-triggered reminder for mobile user devices
US6308149B1 (en) 1998-12-16 2001-10-23 Xerox Corporation Grouping words with equivalent substrings by automatic clustering based on suffix relationships
US6523172B1 (en) 1998-12-17 2003-02-18 Evolutionary Technologies International, Inc. Parser translator system and method
US6460029B1 (en) 1998-12-23 2002-10-01 Microsoft Corporation System for improving search text
US6513063B1 (en) 1999-01-05 2003-01-28 Sri International Accessing network-based electronic information through scripted online interfaces using spoken input
US7036128B1 (en) 1999-01-05 2006-04-25 Sri International Offices Using a community of distributed electronic agents to support a highly mobile, ambient computing environment
US6523061B1 (en) 1999-01-05 2003-02-18 Sri International, Inc. System, method, and article of manufacture for agent-based navigation in a speech-based data navigation system
US6757718B1 (en) 1999-01-05 2004-06-29 Sri International Mobile navigation of network-based electronic information using spoken input
US6742021B1 (en) 1999-01-05 2004-05-25 Sri International, Inc. Navigating network-based electronic information using spoken input with multimodal error feedback
US6851115B1 (en) 1999-01-05 2005-02-01 Sri International Software-based architecture for communication and cooperation among distributed electronic agents
US7152070B1 (en) 1999-01-08 2006-12-19 The Regents Of The University Of California System and method for integrating and accessing multiple data sources within a data warehouse architecture
JP2000207167A (ja) 1999-01-14 2000-07-28 Hewlett Packard Co <Hp> ハイパ―・プレゼンテ―ション用言語の記述方法、ハイパ―・プレゼンテ―ション・システム、モバイル・コンピュ―タ、およびハイパ―・プレゼンテ―ション方法
US6282507B1 (en) 1999-01-29 2001-08-28 Sony Corporation Method and apparatus for interactive source language expression recognition and alternative hypothesis presentation and selection
US6505183B1 (en) 1999-02-04 2003-01-07 Authoria, Inc. Human resource knowledge modeling and delivery system
US20020095290A1 (en) 1999-02-05 2002-07-18 Jonathan Kahn Speech recognition program mapping tool to align an audio file to verbatim text
US6317718B1 (en) 1999-02-26 2001-11-13 Accenture Properties (2) B.V. System, method and article of manufacture for location-based filtering for shopping agent in the physical world
GB9904662D0 (en) 1999-03-01 1999-04-21 Canon Kk Natural language search method and apparatus
US6356905B1 (en) 1999-03-05 2002-03-12 Accenture Llp System, method and article of manufacture for mobile communication utilizing an interface support framework
US6928404B1 (en) 1999-03-17 2005-08-09 International Business Machines Corporation System and methods for acoustic and language modeling for automatic speech recognition with large vocabularies
US6584464B1 (en) 1999-03-19 2003-06-24 Ask Jeeves, Inc. Grammar template query system
WO2000058946A1 (en) 1999-03-26 2000-10-05 Koninklijke Philips Electronics N.V. Client-server speech recognition
US6356854B1 (en) 1999-04-05 2002-03-12 Delphi Technologies, Inc. Holographic object position and type sensing system and method
US6631346B1 (en) 1999-04-07 2003-10-07 Matsushita Electric Industrial Co., Ltd. Method and apparatus for natural language parsing using multiple passes and tags
WO2000060435A2 (en) 1999-04-07 2000-10-12 Rensselaer Polytechnic Institute System and method for accessing personal information
US6647260B2 (en) 1999-04-09 2003-11-11 Openwave Systems Inc. Method and system facilitating web based provisioning of two-way mobile communications devices
US6924828B1 (en) 1999-04-27 2005-08-02 Surfnotes Method and apparatus for improved information representation
US6697780B1 (en) 1999-04-30 2004-02-24 At&T Corp. Method and apparatus for rapid acoustic unit selection from a large speech corpus
AU5451800A (en) 1999-05-28 2000-12-18 Sehda, Inc. Phrase-based dialogue modeling with particular application to creating recognition grammars for voice-controlled user interfaces
US20020032564A1 (en) 2000-04-19 2002-03-14 Farzad Ehsani Phrase-based dialogue modeling with particular application to creating a recognition grammar for a voice-controlled user interface
US6931384B1 (en) 1999-06-04 2005-08-16 Microsoft Corporation System and method providing utility-based decision making about clarification dialog given communicative uncertainty
US6598039B1 (en) 1999-06-08 2003-07-22 Albert-Inc. S.A. Natural language interface for searching database
US7093693B1 (en) 1999-06-10 2006-08-22 Gazdzinski Robert F Elevator access control system and method
US6615175B1 (en) 1999-06-10 2003-09-02 Robert F. Gazdzinski “Smart” elevator system and method
US7711565B1 (en) 1999-06-10 2010-05-04 Gazdzinski Robert F “Smart” elevator system and method
US8065155B1 (en) 1999-06-10 2011-11-22 Gazdzinski Robert F Adaptive advertising apparatus and methods
US6711585B1 (en) 1999-06-15 2004-03-23 Kanisa Inc. System and method for implementing a knowledge management system
US6442518B1 (en) * 1999-07-14 2002-08-27 Compaq Information Technologies Group, L.P. Method for refining time alignments of closed captions
JP3361291B2 (ja) 1999-07-23 2003-01-07 コナミ株式会社 音声合成方法、音声合成装置及び音声合成プログラムを記録したコンピュータ読み取り可能な媒体
US6421672B1 (en) 1999-07-27 2002-07-16 Verizon Services Corp. Apparatus for and method of disambiguation of directory listing searches utilizing multiple selectable secondary search keys
US6628808B1 (en) 1999-07-28 2003-09-30 Datacard Corporation Apparatus and method for verifying a scanned image
US6622121B1 (en) 1999-08-20 2003-09-16 International Business Machines Corporation Testing speech recognition systems using test data generated by text-to-speech conversion
EP1079387A3 (en) 1999-08-26 2003-07-09 Matsushita Electric Industrial Co., Ltd. Mechanism for storing information about recorded television broadcasts
US6912499B1 (en) 1999-08-31 2005-06-28 Nortel Networks Limited Method and apparatus for training a multilingual speech model set
US6601234B1 (en) 1999-08-31 2003-07-29 Accenture Llp Attribute dictionary in a business logic services environment
US6697824B1 (en) 1999-08-31 2004-02-24 Accenture Llp Relationship management in an E-commerce application framework
US7127403B1 (en) 1999-09-13 2006-10-24 Microstrategy, Inc. System and method for personalizing an interactive voice broadcast of a voice service based on particulars of a request
US6601026B2 (en) 1999-09-17 2003-07-29 Discern Communications, Inc. Information retrieval by natural language querying
US6505175B1 (en) 1999-10-06 2003-01-07 Goldman, Sachs & Co. Order centric tracking system
US6625583B1 (en) 1999-10-06 2003-09-23 Goldman, Sachs & Co. Handheld trading system interface
US7020685B1 (en) 1999-10-08 2006-03-28 Openwave Systems Inc. Method and apparatus for providing internet content to SMS-based wireless devices
KR100812109B1 (ko) 1999-10-19 2008-03-12 소니 일렉트로닉스 인코포레이티드 자연어 인터페이스 제어 시스템
US6807574B1 (en) 1999-10-22 2004-10-19 Tellme Networks, Inc. Method and apparatus for content personalization over a telephone interface
JP2001125896A (ja) 1999-10-26 2001-05-11 Victor Co Of Japan Ltd 自然言語対話システム
US7310600B1 (en) 1999-10-28 2007-12-18 Canon Kabushiki Kaisha Language recognition using a similarity measure
GB2355834A (en) 1999-10-29 2001-05-02 Nokia Mobile Phones Ltd Speech recognition
US9076448B2 (en) 1999-11-12 2015-07-07 Nuance Communications, Inc. Distributed real time speech recognition system
US6665640B1 (en) 1999-11-12 2003-12-16 Phoenix Solutions, Inc. Interactive speech based learning/training system formulating search queries based on natural language parsing of recognized user queries
US7725307B2 (en) 1999-11-12 2010-05-25 Phoenix Solutions, Inc. Query engine for processing voice based queries including semantic decoding
US7050977B1 (en) 1999-11-12 2006-05-23 Phoenix Solutions, Inc. Speech-enabled server for internet website and method
US6615172B1 (en) 1999-11-12 2003-09-02 Phoenix Solutions, Inc. Intelligent query engine for processing voice based queries
US6633846B1 (en) 1999-11-12 2003-10-14 Phoenix Solutions, Inc. Distributed realtime speech recognition system
US7392185B2 (en) 1999-11-12 2008-06-24 Phoenix Solutions, Inc. Speech based learning/training system using semantic decoding
US7412643B1 (en) * 1999-11-23 2008-08-12 International Business Machines Corporation Method and apparatus for linking representation and realization data
US6532446B1 (en) 1999-11-24 2003-03-11 Openwave Systems Inc. Server based speech recognition user interface for wireless devices
US6526382B1 (en) 1999-12-07 2003-02-25 Comverse, Inc. Language-oriented user interfaces for voice activated services
US7024363B1 (en) 1999-12-14 2006-04-04 International Business Machines Corporation Methods and apparatus for contingent transfer and execution of spoken language interfaces
US6397186B1 (en) 1999-12-22 2002-05-28 Ambush Interactive, Inc. Hands-free, voice-operated remote control transmitter
US6526395B1 (en) 1999-12-31 2003-02-25 Intel Corporation Application of personality models and interaction with synthetic characters in a computing system
US6556983B1 (en) 2000-01-12 2003-04-29 Microsoft Corporation Methods and apparatus for finding semantic information, such as usage logs, similar to a query using a pattern lattice data space
US6546388B1 (en) 2000-01-14 2003-04-08 International Business Machines Corporation Metadata search results ranking system
US6701294B1 (en) 2000-01-19 2004-03-02 Lucent Technologies, Inc. User interface for translating natural language inquiries into database queries and data presentations
US6829603B1 (en) 2000-02-02 2004-12-07 International Business Machines Corp. System, method and program product for interactive natural dialog
US6895558B1 (en) 2000-02-11 2005-05-17 Microsoft Corporation Multi-access mode electronic personal assistant
US6640098B1 (en) 2000-02-14 2003-10-28 Action Engine Corporation System for obtaining service-related information for local interactive wireless devices
AU2001243277A1 (en) 2000-02-25 2001-09-03 Synquiry Technologies, Ltd. Conceptual factoring and unification of graphs representing semantic models
US6895380B2 (en) 2000-03-02 2005-05-17 Electro Standards Laboratories Voice actuation with contextual learning for intelligent machine control
US6449620B1 (en) 2000-03-02 2002-09-10 Nimble Technology, Inc. Method and apparatus for generating information pages using semi-structured data stored in a structured manner
US6466654B1 (en) 2000-03-06 2002-10-15 Avaya Technology Corp. Personal virtual assistant with semantic tagging
AU2001245447A1 (en) 2000-03-06 2001-09-17 Kanisa Inc. A system and method for providing an intelligent multi-step dialog with a user
US6757362B1 (en) 2000-03-06 2004-06-29 Avaya Technology Corp. Personal virtual assistant
US6477488B1 (en) 2000-03-10 2002-11-05 Apple Computer, Inc. Method for dynamic context scope selection in hybrid n-gram+LSA language modeling
US6615220B1 (en) 2000-03-14 2003-09-02 Oracle International Corporation Method and mechanism for data consolidation
US6510417B1 (en) 2000-03-21 2003-01-21 America Online, Inc. System and method for voice access to internet-based information
GB2366009B (en) 2000-03-22 2004-07-21 Canon Kk Natural language machine interface
US6934684B2 (en) 2000-03-24 2005-08-23 Dialsurf, Inc. Voice-interactive marketplace providing promotion and promotion tracking, loyalty reward and redemption, and other features
US20020035474A1 (en) 2000-07-18 2002-03-21 Ahmet Alpdemir Voice-interactive marketplace providing time and money saving benefits and real-time promotion publishing and feedback
JP3728172B2 (ja) 2000-03-31 2005-12-21 キヤノン株式会社 音声合成方法および装置
US7177798B2 (en) 2000-04-07 2007-02-13 Rensselaer Polytechnic Institute Natural language interface using constrained intermediate dictionary of results
US6865533B2 (en) 2000-04-21 2005-03-08 Lessac Technology Inc. Text to speech
US6810379B1 (en) 2000-04-24 2004-10-26 Sensory, Inc. Client/server architecture for text-to-speech synthesis
US7107204B1 (en) 2000-04-24 2006-09-12 Microsoft Corporation Computer-aided writing system and method with cross-language writing wizard
US6912498B2 (en) 2000-05-02 2005-06-28 Scansoft, Inc. Error correction in speech recognition by correcting text around selected area
AU2001263397A1 (en) 2000-05-24 2001-12-03 Stars 1-To-1 Interactive voice communication method and system for information and entertainment
US20020042707A1 (en) 2000-06-19 2002-04-11 Gang Zhao Grammar-packaged parsing
US6680675B1 (en) 2000-06-21 2004-01-20 Fujitsu Limited Interactive to-do list item notification system including GPS interface
US6691111B2 (en) 2000-06-30 2004-02-10 Research In Motion Limited System and method for implementing a natural language user interface
US6684187B1 (en) 2000-06-30 2004-01-27 At&T Corp. Method and system for preselection of suitable units for concatenative speech
US6505158B1 (en) 2000-07-05 2003-01-07 At&T Corp. Synthesis-based pre-selection of suitable units for concatenative speech
JP3949356B2 (ja) 2000-07-12 2007-07-25 三菱電機株式会社 音声対話システム
TW521266B (en) 2000-07-13 2003-02-21 Verbaltek Inc Perceptual phonetic feature speech recognition system and method
US7139709B2 (en) 2000-07-20 2006-11-21 Microsoft Corporation Middleware layer between speech related applications and engines
JP2002041276A (ja) 2000-07-24 2002-02-08 Sony Corp 対話型操作支援システム及び対話型操作支援方法、並びに記憶媒体
US20060143007A1 (en) 2000-07-24 2006-06-29 Koh V E User interaction with voice information services
US7853664B1 (en) 2000-07-31 2010-12-14 Landmark Digital Services Llc Method and system for purchasing pre-recorded music
US7092928B1 (en) 2000-07-31 2006-08-15 Quantum Leap Research, Inc. Intelligent portal engine
US6778951B1 (en) 2000-08-09 2004-08-17 Concerto Software, Inc. Information retrieval method with natural language interface
US6766320B1 (en) 2000-08-24 2004-07-20 Microsoft Corporation Search engine with natural language-based robust parsing for user query and relevance feedback learning
DE10042944C2 (de) 2000-08-31 2003-03-13 Siemens Ag Graphem-Phonem-Konvertierung
US6799098B2 (en) 2000-09-01 2004-09-28 Beltpack Corporation Remote control system for a locomotive using voice commands
US7689832B2 (en) 2000-09-11 2010-03-30 Sentrycom Ltd. Biometric-based system and method for enabling authentication of electronic messages sent over a network
JP3784289B2 (ja) 2000-09-12 2006-06-07 松下電器産業株式会社 メディア編集方法及びその装置
AU2001290882A1 (en) 2000-09-15 2002-03-26 Lernout And Hauspie Speech Products N.V. Fast waveform synchronization for concatenation and time-scale modification of speech
US6795806B1 (en) 2000-09-20 2004-09-21 International Business Machines Corporation Method for enhancing dictation and command discrimination
WO2002027712A1 (en) 2000-09-29 2002-04-04 Professorq, Inc. Natural-language voice-activated personal assistant
US7451085B2 (en) 2000-10-13 2008-11-11 At&T Intellectual Property Ii, L.P. System and method for providing a compensated speech recognition model for speech recognition
US6832194B1 (en) 2000-10-26 2004-12-14 Sensory, Incorporated Audio recognition peripheral system
US7027974B1 (en) 2000-10-27 2006-04-11 Science Applications International Corporation Ontology-based parser for natural language processing
US7006969B2 (en) 2000-11-02 2006-02-28 At&T Corp. System and method of pattern recognition in very high-dimensional space
TW518482B (en) * 2000-11-10 2003-01-21 Future Display Systems Inc Method for taking notes on an article displayed by an electronic book
JP2002169588A (ja) 2000-11-16 2002-06-14 Internatl Business Mach Corp <Ibm> テキスト表示装置、テキスト表示制御方法、記憶媒体、プログラム伝送装置及び応対支援方法
US6957076B2 (en) 2000-11-22 2005-10-18 Denso Corporation Location specific reminders for wireless mobiles
US20040085162A1 (en) 2000-11-29 2004-05-06 Rajeev Agarwal Method and apparatus for providing a mixed-initiative dialog between a user and a machine
US20020067308A1 (en) 2000-12-06 2002-06-06 Xerox Corporation Location/time-based reminder for personal electronic devices
WO2002050816A1 (en) 2000-12-18 2002-06-27 Koninklijke Philips Electronics N.V. Store speech, select vocabulary to recognize word
US20040190688A1 (en) 2003-03-31 2004-09-30 Timmins Timothy A. Communications methods and systems using voiceprints
TW490655B (en) 2000-12-27 2002-06-11 Winbond Electronics Corp Method and device for recognizing authorized users using voice spectrum information
US6937986B2 (en) 2000-12-28 2005-08-30 Comverse, Inc. Automatic dynamic speech recognition vocabulary based on external sources of information
WO2002054239A2 (en) 2000-12-29 2002-07-11 General Electric Company Method and system for identifying repeatedly malfunctioning equipment
US20020133347A1 (en) 2000-12-29 2002-09-19 Eberhard Schoneburg Method and apparatus for natural language dialog interface
US7257537B2 (en) 2001-01-12 2007-08-14 International Business Machines Corporation Method and apparatus for performing dialog management in a computer conversational interface
US7085723B2 (en) 2001-01-12 2006-08-01 International Business Machines Corporation System and method for determining utterance context in a multi-context speech application
US20020099552A1 (en) * 2001-01-25 2002-07-25 Darryl Rubin Annotating electronic information with audio clips
JP2002229955A (ja) 2001-02-02 2002-08-16 Matsushita Electric Ind Co Ltd 情報端末装置及び認証システム
US6964023B2 (en) 2001-02-05 2005-11-08 International Business Machines Corporation System and method for multi-modal focus detection, referential ambiguity resolution and mood classification using multi-modal input
US6885987B2 (en) 2001-02-09 2005-04-26 Fastmobile, Inc. Method and apparatus for encoding and decoding pause information
US6622136B2 (en) 2001-02-16 2003-09-16 Motorola, Inc. Interactive tool for semi-automatic creation of a domain model
US7171365B2 (en) 2001-02-16 2007-01-30 International Business Machines Corporation Tracking time using portable recorders and speech recognition
US7290039B1 (en) 2001-02-27 2007-10-30 Microsoft Corporation Intent based processing
GB2372864B (en) 2001-02-28 2005-09-07 Vox Generation Ltd Spoken language interface
US6721728B2 (en) 2001-03-02 2004-04-13 The United States Of America As Represented By The Administrator Of The National Aeronautics And Space Administration System, method and apparatus for discovering phrases in a database
US7366979B2 (en) 2001-03-09 2008-04-29 Copernicus Investments, Llc Method and apparatus for annotating a document
EP1490790A2 (en) 2001-03-13 2004-12-29 Intelligate Ltd. Dynamic natural language understanding
US6677929B2 (en) 2001-03-21 2004-01-13 Agilent Technologies, Inc. Optical pseudo trackball controls the operation of an appliance or machine
JP3925611B2 (ja) 2001-03-22 2007-06-06 セイコーエプソン株式会社 情報提供システム、情報提供装置、プログラム、情報記憶媒体およびユーザーインタフェースの設定方法
US7058889B2 (en) * 2001-03-23 2006-06-06 Koninklijke Philips Electronics N.V. Synchronizing text/visual information with audio playback
US6738743B2 (en) 2001-03-28 2004-05-18 Intel Corporation Unified client-server distributed architectures for spoken dialogue systems
US6996531B2 (en) 2001-03-30 2006-02-07 Comverse Ltd. Automated database assistance using a telephone for a speech based or text based multimedia communication mode
GB0110326D0 (en) 2001-04-27 2001-06-20 Ibm Method and apparatus for interoperation between legacy software and screen reader programs
US6654740B2 (en) 2001-05-08 2003-11-25 Sunflare Co., Ltd. Probabilistic information retrieval based on differential latent semantic space
EP1395803B1 (en) 2001-05-10 2006-08-02 Koninklijke Philips Electronics N.V. Background learning of speaker voices
US7085722B2 (en) 2001-05-14 2006-08-01 Sony Computer Entertainment America Inc. System and method for menu-driven voice control of characters in a game environment
JP2002344880A (ja) 2001-05-22 2002-11-29 Megafusion Corp コンテンツ配信システム
US6944594B2 (en) 2001-05-30 2005-09-13 Bellsouth Intellectual Property Corporation Multi-context conversational environment system and method
US7020663B2 (en) * 2001-05-30 2006-03-28 George M. Hay System and method for the delivery of electronic books
US20020194003A1 (en) 2001-06-05 2002-12-19 Mozer Todd F. Client-server security system and method
US20020198714A1 (en) 2001-06-26 2002-12-26 Guojun Zhou Statistical spoken dialog system
US7139722B2 (en) 2001-06-27 2006-11-21 Bellsouth Intellectual Property Corporation Location and time sensitive wireless calendaring
US6604059B2 (en) 2001-07-10 2003-08-05 Koninklijke Philips Electronics N.V. Predictive calendar
US7987151B2 (en) 2001-08-10 2011-07-26 General Dynamics Advanced Info Systems, Inc. Apparatus and method for problem solving using intelligent agents
US6813491B1 (en) 2001-08-31 2004-11-02 Openwave Systems Inc. Method and apparatus for adapting settings of wireless communication devices in accordance with user proximity
US7953447B2 (en) 2001-09-05 2011-05-31 Vocera Communications, Inc. Voice-controlled communications system and method using a badge application
US7313526B2 (en) 2001-09-05 2007-12-25 Voice Signal Technologies, Inc. Speech recognition using selectable recognition modes
US7403938B2 (en) 2001-09-24 2008-07-22 Iac Search & Media, Inc. Natural language query processing
US7101185B2 (en) 2001-09-26 2006-09-05 Scientific Learning Corporation Method and apparatus for automated training of language learning skills
US6985865B1 (en) 2001-09-26 2006-01-10 Sprint Spectrum L.P. Method and system for enhanced response to voice commands in a voice command platform
US6650735B2 (en) 2001-09-27 2003-11-18 Microsoft Corporation Integrated voice access to a variety of personal information services
US7324947B2 (en) 2001-10-03 2008-01-29 Promptu Systems Corporation Global speech user interface
US7167832B2 (en) 2001-10-15 2007-01-23 At&T Corp. Method for dialog management
GB2381409B (en) 2001-10-27 2004-04-28 Hewlett Packard Ltd Asynchronous access to synchronous voice services
NO316480B1 (no) 2001-11-15 2004-01-26 Forinnova As Fremgangsmåte og system for tekstuell granskning og oppdagelse
US7747655B2 (en) 2001-11-19 2010-06-29 Ricoh Co. Ltd. Printable representations for time-based media
US20030101054A1 (en) 2001-11-27 2003-05-29 Ncc, Llc Integrated system and method for electronic speech recognition and transcription
JP2003163745A (ja) 2001-11-28 2003-06-06 Matsushita Electric Ind Co Ltd 電話機、対話応答装置、対話応答端末および対話応答システム
US7483832B2 (en) 2001-12-10 2009-01-27 At&T Intellectual Property I, L.P. Method and system for customizing voice translation of text to speech
US7490039B1 (en) 2001-12-13 2009-02-10 Cisco Technology, Inc. Text to speech system and method having interactive spelling capabilities
TW541517B (en) 2001-12-25 2003-07-11 Univ Nat Cheng Kung Speech recognition system
US20030167335A1 (en) 2002-03-04 2003-09-04 Vigilos, Inc. System and method for network-based communication
AU2002253416A1 (en) 2002-03-27 2003-10-08 Nokia Corporation Pattern recognition
US7197460B1 (en) 2002-04-23 2007-03-27 At&T Corp. System for handling frequently asked questions in a natural language dialog service
US6847966B1 (en) 2002-04-24 2005-01-25 Engenium Corporation Method and system for optimally searching a document database using a representative semantic space
US7546382B2 (en) 2002-05-28 2009-06-09 International Business Machines Corporation Methods and systems for authoring of mixed-initiative multi-modal interactions and related browsing mechanisms
EP1508892B1 (en) 2002-05-31 2017-07-12 Onkyo Corporation Network type content reproduction system
US7398209B2 (en) 2002-06-03 2008-07-08 Voicebox Technologies, Inc. Systems and methods for responding to natural language speech utterance
US20030233230A1 (en) 2002-06-12 2003-12-18 Lucent Technologies Inc. System and method for representing and resolving ambiguity in spoken dialogue systems
MXPA04012865A (es) 2002-06-24 2005-03-31 Matsushita Electric Ind Co Ltd Dispositivo de preparacion de metadatos, metodo de preparacion para el mismo y dispositivo de recuperacion.
US6999066B2 (en) 2002-06-24 2006-02-14 Xerox Corporation System for audible feedback for touch screen displays
US7233790B2 (en) 2002-06-28 2007-06-19 Openwave Systems, Inc. Device capability based discovery, packaging and provisioning of content for wireless mobile devices
US7299033B2 (en) 2002-06-28 2007-11-20 Openwave Systems Inc. Domain-based management of distribution of digital content from multiple suppliers to multiple wireless services subscribers
US7693720B2 (en) 2002-07-15 2010-04-06 Voicebox Technologies, Inc. Mobile systems and methods for responding to natural language speech utterance
US7567902B2 (en) 2002-09-18 2009-07-28 Nuance Communications, Inc. Generating speech recognition grammars from a large corpus of data
US7467087B1 (en) 2002-10-10 2008-12-16 Gillick Laurence S Training and using pronunciation guessers in speech recognition
AU2003293071A1 (en) 2002-11-22 2004-06-18 Roy Rosser Autonomous response engine
US7684985B2 (en) 2002-12-10 2010-03-23 Richard Dominach Techniques for disambiguating speech input using multimodal interfaces
US7386449B2 (en) 2002-12-11 2008-06-10 Voice Enabling Systems Technology Inc. Knowledge-based flexible natural speech dialogue system
US7956766B2 (en) 2003-01-06 2011-06-07 Panasonic Corporation Apparatus operating system
US20040152055A1 (en) * 2003-01-30 2004-08-05 Gliessner Michael J.G. Video based language learning system
US7529671B2 (en) 2003-03-04 2009-05-05 Microsoft Corporation Block synchronous decoding
US6980949B2 (en) 2003-03-14 2005-12-27 Sonum Technologies, Inc. Natural language processor
US20040186714A1 (en) 2003-03-18 2004-09-23 Aurilab, Llc Speech recognition improvement through post-processsing
WO2004083981A2 (en) 2003-03-20 2004-09-30 Creo Inc. System and methods for storing and presenting personal information
US7496498B2 (en) 2003-03-24 2009-02-24 Microsoft Corporation Front-end architecture for a multi-lingual text-to-speech system
US20040220798A1 (en) 2003-05-01 2004-11-04 Visteon Global Technologies, Inc. Remote voice identification system
US7421393B1 (en) 2004-03-01 2008-09-02 At&T Corp. System for developing a dialog manager using modular spoken-dialog components
US20050045373A1 (en) 2003-05-27 2005-03-03 Joseph Born Portable media device with audio prompt menu
US7200559B2 (en) 2003-05-29 2007-04-03 Microsoft Corporation Semantic object synchronous understanding implemented with speech application language tags
US7720683B1 (en) 2003-06-13 2010-05-18 Sensory, Inc. Method and apparatus of specifying and performing speech recognition operations
US7580551B1 (en) 2003-06-30 2009-08-25 The Research Foundation Of State University Of Ny Method and apparatus for analyzing and/or comparing handwritten and/or biometric samples
US20050015772A1 (en) 2003-07-16 2005-01-20 Saare John E. Method and system for device specific application optimization via a portal server
JP4551635B2 (ja) 2003-07-31 2010-09-29 ソニー株式会社 パイプライン処理システムおよび情報処理装置
JP2005070645A (ja) 2003-08-27 2005-03-17 Casio Comput Co Ltd テキスト音声同期装置およびテキスト音声同期処理プログラム
US7475010B2 (en) 2003-09-03 2009-01-06 Lingospot, Inc. Adaptive and scalable method for resolving natural language ambiguities
US7418392B1 (en) 2003-09-25 2008-08-26 Sensory, Inc. System and method for controlling the operation of a device by voice commands
US7460652B2 (en) 2003-09-26 2008-12-02 At&T Intellectual Property I, L.P. VoiceXML and rule engine based switchboard for interactive voice response (IVR) services
US7155706B2 (en) 2003-10-24 2006-12-26 Microsoft Corporation Administrative tool environment
US7292726B2 (en) 2003-11-10 2007-11-06 Microsoft Corporation Recognition of electronic ink with late strokes
US7302099B2 (en) 2003-11-10 2007-11-27 Microsoft Corporation Stroke segmentation for template-based cursive handwriting recognition
US7412385B2 (en) 2003-11-12 2008-08-12 Microsoft Corporation System for identifying paraphrases using machine translation
US7584092B2 (en) 2004-11-15 2009-09-01 Microsoft Corporation Unsupervised learning of paraphrase/translation alternations and selective application thereof
US20050108074A1 (en) 2003-11-14 2005-05-19 Bloechl Peter E. Method and system for prioritization of task items
US7447630B2 (en) 2003-11-26 2008-11-04 Microsoft Corporation Method and apparatus for multi-sensory speech enhancement
WO2005062293A1 (ja) 2003-12-05 2005-07-07 Kabushikikaisha Kenwood オーディオ機器制御装置、オーディオ機器制御方法及びプログラム
CN1879147B (zh) 2003-12-16 2010-05-26 洛昆多股份公司 文本到语音转换方法和系统
US7427024B1 (en) 2003-12-17 2008-09-23 Gazdzinski Mark J Chattel management apparatus and methods
JP2005189454A (ja) 2003-12-25 2005-07-14 Casio Comput Co Ltd テキスト同期音声再生制御装置及びプログラム
US7552055B2 (en) 2004-01-10 2009-06-23 Microsoft Corporation Dialog component re-use in recognition systems
US7298904B2 (en) 2004-01-14 2007-11-20 International Business Machines Corporation Method and apparatus for scaling handwritten character input for handwriting recognition
AU2005207606B2 (en) 2004-01-16 2010-11-11 Nuance Communications, Inc. Corpus-based speech synthesis based on segment recombination
US20050165607A1 (en) 2004-01-22 2005-07-28 At&T Corp. System and method to disambiguate and clarify user intention in a spoken dialog system
DE602004017955D1 (de) 2004-01-29 2009-01-08 Daimler Ag Verfahren und System zur Sprachdialogschnittstelle
KR100612839B1 (ko) 2004-02-18 2006-08-18 삼성전자주식회사 도메인 기반 대화 음성인식방법 및 장치
KR100462292B1 (ko) 2004-02-26 2004-12-17 엔에이치엔(주) 중요도 정보를 반영한 검색 결과 리스트 제공 방법 및 그시스템
US7505906B2 (en) 2004-02-26 2009-03-17 At&T Intellectual Property, Ii System and method for augmenting spoken language understanding by correcting common errors in linguistic performance
US7693715B2 (en) 2004-03-10 2010-04-06 Microsoft Corporation Generating large units of graphonemes with mutual information criterion for letter to sound conversion
US7478033B2 (en) 2004-03-16 2009-01-13 Google Inc. Systems and methods for translating Chinese pinyin to Chinese characters
US7084758B1 (en) 2004-03-19 2006-08-01 Advanced Micro Devices, Inc. Location-based reminders
US7409337B1 (en) 2004-03-30 2008-08-05 Microsoft Corporation Natural language processing interface
US7496512B2 (en) 2004-04-13 2009-02-24 Microsoft Corporation Refining of segmental boundaries in speech waveforms using contextual-dependent models
US8095364B2 (en) 2004-06-02 2012-01-10 Tegic Communications, Inc. Multimodal disambiguation of speech recognition
US20050273626A1 (en) 2004-06-02 2005-12-08 Steven Pearson System and method for portable authentication
US20050289463A1 (en) 2004-06-23 2005-12-29 Google Inc., A Delaware Corporation Systems and methods for spell correction of non-roman characters and words
US7720674B2 (en) 2004-06-29 2010-05-18 Sap Ag Systems and methods for processing natural language queries
US7228278B2 (en) 2004-07-06 2007-06-05 Voxify, Inc. Multi-slot dialog systems and methods
JP2006023860A (ja) 2004-07-06 2006-01-26 Sharp Corp 情報閲覧装置、情報閲覧プログラム、情報閲覧プログラム記録媒体及び情報閲覧システム
JP4652737B2 (ja) 2004-07-14 2011-03-16 インターナショナル・ビジネス・マシーンズ・コーポレーション 単語境界確率推定装置及び方法、確率的言語モデル構築装置及び方法、仮名漢字変換装置及び方法、並びに、未知語モデルの構築方法、
US7559089B2 (en) 2004-07-23 2009-07-07 Findaway World, Inc. Personal media player apparatus and method
TWI252049B (en) 2004-07-23 2006-03-21 Inventec Corp Sound control system and method
US7725318B2 (en) 2004-07-30 2010-05-25 Nice Systems Inc. System and method for improving the accuracy of audio searching
CA2576865C (en) * 2004-08-09 2013-06-18 Nielsen Media Research, Inc. Methods and apparatus to monitor audio/visual content from various sources
US7853574B2 (en) 2004-08-26 2010-12-14 International Business Machines Corporation Method of generating a context-inferenced search query and of sorting a result of the query
KR20060022001A (ko) 2004-09-06 2006-03-09 현대모비스 주식회사 카오디오 버튼 설치구조
US20060061488A1 (en) 2004-09-17 2006-03-23 Dunton Randy R Location based task reminder
US7716056B2 (en) 2004-09-27 2010-05-11 Robert Bosch Corporation Method and system for interactive conversational dialogue for cognitively overloaded device users
US7603381B2 (en) 2004-09-30 2009-10-13 Microsoft Corporation Contextual action publishing
US8107401B2 (en) 2004-09-30 2012-01-31 Avaya Inc. Method and apparatus for providing a virtual assistant to a communication participant
US7693719B2 (en) 2004-10-29 2010-04-06 Microsoft Corporation Providing personalized voice font for text-to-speech applications
US7735012B2 (en) 2004-11-04 2010-06-08 Apple Inc. Audio user interface for computing devices
US7546235B2 (en) 2004-11-15 2009-06-09 Microsoft Corporation Unsupervised learning of paraphrase/translation alternations and selective application thereof
US7552046B2 (en) 2004-11-15 2009-06-23 Microsoft Corporation Unsupervised learning of paraphrase/translation alternations and selective application thereof
US7885844B1 (en) 2004-11-16 2011-02-08 Amazon Technologies, Inc. Automatically generating task recommendations for human task performers
US7702500B2 (en) 2004-11-24 2010-04-20 Blaedow Karen R Method and apparatus for determining the meaning of natural language
CN1609859A (zh) 2004-11-26 2005-04-27 孙斌 搜索结果聚类的方法
US7376645B2 (en) 2004-11-29 2008-05-20 The Intellection Group, Inc. Multimodal natural language query system and architecture for processing voice and proximity-based queries
US20080255837A1 (en) 2004-11-30 2008-10-16 Jonathan Kahn Method for locating an audio segment within an audio file
US8214214B2 (en) 2004-12-03 2012-07-03 Phoenix Solutions, Inc. Emotion detection device and method for use in distributed systems
US20060122834A1 (en) 2004-12-03 2006-06-08 Bennett Ian M Emotion detection device & method for use in distributed systems
US7636657B2 (en) 2004-12-09 2009-12-22 Microsoft Corporation Method and apparatus for automatic grammar generation from data entries
US8478589B2 (en) 2005-01-05 2013-07-02 At&T Intellectual Property Ii, L.P. Library of existing spoken dialog data for use in generating new natural language spoken dialog systems
US7873654B2 (en) 2005-01-24 2011-01-18 The Intellection Group, Inc. Multimodal natural language query system for processing and analyzing voice and proximity-based queries
US7508373B2 (en) 2005-01-28 2009-03-24 Microsoft Corporation Form factor and input method for language input
GB0502259D0 (en) 2005-02-03 2005-03-09 British Telecomm Document searching tool and method
US7949533B2 (en) 2005-02-04 2011-05-24 Vococollect, Inc. Methods and systems for assessing and improving the performance of a speech recognition system
US20060194181A1 (en) * 2005-02-28 2006-08-31 Outland Research, Llc Method and apparatus for electronic books with enhanced educational features
US7676026B1 (en) 2005-03-08 2010-03-09 Baxtech Asia Pte Ltd Desktop telephony system
US7925525B2 (en) 2005-03-25 2011-04-12 Microsoft Corporation Smart reminders
US7721301B2 (en) 2005-03-31 2010-05-18 Microsoft Corporation Processing files from a mobile device using voice commands
US20080120342A1 (en) * 2005-04-07 2008-05-22 Iofy Corporation System and Method for Providing Data to be Used in a Presentation on a Device
US7684990B2 (en) 2005-04-29 2010-03-23 Nuance Communications, Inc. Method and apparatus for multiple value confirmation and correction in spoken dialog systems
WO2006129967A1 (en) 2005-05-30 2006-12-07 Daumsoft, Inc. Conversation system and method using conversational agent
US8041570B2 (en) 2005-05-31 2011-10-18 Robert Bosch Corporation Dialogue management using scripts
US8024195B2 (en) 2005-06-27 2011-09-20 Sensory, Inc. Systems and methods of performing speech recognition using historical information
US8396715B2 (en) 2005-06-28 2013-03-12 Microsoft Corporation Confidence threshold tuning
US7925995B2 (en) 2005-06-30 2011-04-12 Microsoft Corporation Integration of location logs, GPS signals, and spatial resources for identifying user activities, goals, and context
US7826945B2 (en) 2005-07-01 2010-11-02 You Zhang Automobile speech-recognition interface
US20070027732A1 (en) 2005-07-28 2007-02-01 Accu-Spatial, Llc Context-sensitive, location-dependent information delivery at a construction site
WO2007019480A2 (en) 2005-08-05 2007-02-15 Realnetworks, Inc. System and computer program product for chronologically presenting data
US7640160B2 (en) 2005-08-05 2009-12-29 Voicebox Technologies, Inc. Systems and methods for responding to natural language speech utterance
US7362738B2 (en) 2005-08-09 2008-04-22 Deere & Company Method and system for delivering information to a user
US7620549B2 (en) 2005-08-10 2009-11-17 Voicebox Technologies, Inc. System and method of supporting adaptive misrecognition in conversational speech
US20070041361A1 (en) 2005-08-15 2007-02-22 Nokia Corporation Apparatus and methods for implementing an in-call voice user interface using context information
US7949529B2 (en) 2005-08-29 2011-05-24 Voicebox Technologies, Inc. Mobile systems and methods of supporting natural language human-machine interactions
EP1934971A4 (en) 2005-08-31 2010-10-27 Voicebox Technologies Inc DYNAMIC LANGUAGE SCRIPTURE
US8265939B2 (en) 2005-08-31 2012-09-11 Nuance Communications, Inc. Hierarchical methods and apparatus for extracting user intent from spoken utterances
US20070055514A1 (en) * 2005-09-08 2007-03-08 Beattie Valerie L Intelligent tutoring feedback
US8677377B2 (en) 2005-09-08 2014-03-18 Apple Inc. Method and apparatus for building an intelligent automated assistant
JP4908094B2 (ja) 2005-09-30 2012-04-04 株式会社リコー 情報処理システム、情報処理方法及び情報処理プログラム
US7577522B2 (en) 2005-12-05 2009-08-18 Outland Research, Llc Spatially associated personal reminder system and method
US7930168B2 (en) 2005-10-04 2011-04-19 Robert Bosch Gmbh Natural language processing of disfluent sentences
US8620667B2 (en) 2005-10-17 2013-12-31 Microsoft Corporation Flexible speech-activated command and control
US7707032B2 (en) 2005-10-20 2010-04-27 National Cheng Kung University Method and system for matching speech data
US8229745B2 (en) 2005-10-21 2012-07-24 Nuance Communications, Inc. Creating a mixed-initiative grammar from directed dialog grammars
US20070106674A1 (en) 2005-11-10 2007-05-10 Purusharth Agrawal Field sales process facilitation systems and methods
US20070112572A1 (en) 2005-11-15 2007-05-17 Fail Keith W Method and apparatus for assisting vision impaired individuals with selecting items from a list
US8326629B2 (en) 2005-11-22 2012-12-04 Nuance Communications, Inc. Dynamically changing voice attributes during speech synthesis based upon parameter differentiation for dialog contexts
US7822749B2 (en) 2005-11-28 2010-10-26 Commvault Systems, Inc. Systems and methods for classifying and transferring information in a storage network
KR20070057496A (ko) 2005-12-02 2007-06-07 삼성전자주식회사 액정 표시 장치
KR100810500B1 (ko) 2005-12-08 2008-03-07 한국전자통신연구원 대화형 음성 인터페이스 시스템에서의 사용자 편의성증대 방법
US20070156627A1 (en) 2005-12-15 2007-07-05 General Instrument Corporation Method and apparatus for creating and using electronic content bookmarks
GB2433403B (en) 2005-12-16 2009-06-24 Emil Ltd A text editing apparatus and method
US20070211071A1 (en) 2005-12-20 2007-09-13 Benjamin Slotznick Method and apparatus for interacting with a visually displayed document on a screen reader
DE102005061365A1 (de) 2005-12-21 2007-06-28 Siemens Ag Verfahren zur Ansteuerung zumindest einer ersten und zweiten Hintergrundapplikation über ein universelles Sprachdialogsystem
US7996228B2 (en) 2005-12-22 2011-08-09 Microsoft Corporation Voice initiated network operations
US7599918B2 (en) 2005-12-29 2009-10-06 Microsoft Corporation Dynamic search with implicit user intention mining
JP2007183864A (ja) 2006-01-10 2007-07-19 Fujitsu Ltd ファイル検索方法及びそのシステム
US20070174188A1 (en) 2006-01-25 2007-07-26 Fish Robert D Electronic marketplace that facilitates transactions between consolidated buyers and/or sellers
JP2007206317A (ja) 2006-02-01 2007-08-16 Yamaha Corp オーサリング方法、オーサリング装置およびプログラム
IL174107A0 (en) 2006-02-01 2006-08-01 Grois Dan Method and system for advertising by means of a search engine over a data network
US8595041B2 (en) 2006-02-07 2013-11-26 Sap Ag Task responsibility system
WO2007099529A1 (en) 2006-02-28 2007-09-07 Sandisk Il Ltd Bookmarked synchronization of files
US7983910B2 (en) 2006-03-03 2011-07-19 International Business Machines Corporation Communicating across voice and text channels with emotion preservation
KR100764174B1 (ko) 2006-03-03 2007-10-08 삼성전자주식회사 음성 대화 서비스 장치 및 방법
US7752152B2 (en) 2006-03-17 2010-07-06 Microsoft Corporation Using predictive user models for language modeling on a personal device with user behavior models based on statistical modeling
JP4734155B2 (ja) 2006-03-24 2011-07-27 株式会社東芝 音声認識装置、音声認識方法および音声認識プログラム
US7707027B2 (en) 2006-04-13 2010-04-27 Nuance Communications, Inc. Identification and rejection of meaningless input during natural language classification
US8214213B1 (en) 2006-04-27 2012-07-03 At&T Intellectual Property Ii, L.P. Speech recognition based on pronunciation modeling
US20070276714A1 (en) 2006-05-15 2007-11-29 Sap Ag Business process map management
EP1858005A1 (en) 2006-05-19 2007-11-21 Texthelp Systems Limited Streaming speech with synchronized highlighting generated by a server
US20070276651A1 (en) 2006-05-23 2007-11-29 Motorola, Inc. Grammar adaptation through cooperative client and server based speech recognition
US8423347B2 (en) 2006-06-06 2013-04-16 Microsoft Corporation Natural language personal information management
US7523108B2 (en) 2006-06-07 2009-04-21 Platformation, Inc. Methods and apparatus for searching with awareness of geography and languages
US7483894B2 (en) 2006-06-07 2009-01-27 Platformation Technologies, Inc Methods and apparatus for entity search
US20100257160A1 (en) 2006-06-07 2010-10-07 Yu Cao Methods & apparatus for searching with awareness of different types of information
KR100776800B1 (ko) 2006-06-16 2007-11-19 한국전자통신연구원 지능형 가제트를 이용한 맞춤형 서비스 제공 방법 및시스템
KR20080001227A (ko) 2006-06-29 2008-01-03 엘지.필립스 엘시디 주식회사 백라이트 유닛의 램프 고정장치
US7548895B2 (en) 2006-06-30 2009-06-16 Microsoft Corporation Communication-prompted user assistance
US8050500B1 (en) 2006-07-06 2011-11-01 Senapps, LLC Recognition method and system
TWI312103B (en) 2006-07-17 2009-07-11 Asia Optical Co Inc Image pickup systems and methods
US20080027726A1 (en) * 2006-07-28 2008-01-31 Eric Louis Hansen Text to audio mapping, and animation of the text
US8170790B2 (en) 2006-09-05 2012-05-01 Garmin Switzerland Gmbh Apparatus for switching navigation device mode
US9318108B2 (en) 2010-01-18 2016-04-19 Apple Inc. Intelligent automated assistant
US20100278453A1 (en) * 2006-09-15 2010-11-04 King Martin T Capture and display of annotations in paper and electronic documents
US20080077384A1 (en) 2006-09-22 2008-03-27 International Business Machines Corporation Dynamically translating a software application to a user selected target language that is not natively provided by the software application
US7930197B2 (en) 2006-09-28 2011-04-19 Microsoft Corporation Personal data mining
US7528713B2 (en) 2006-09-28 2009-05-05 Ektimisi Semiotics Holdings, Llc Apparatus and method for providing a task reminder based on travel history
US7649454B2 (en) 2006-09-28 2010-01-19 Ektimisi Semiotics Holdings, Llc System and method for providing a task reminder based on historical travel information
US8214208B2 (en) 2006-09-28 2012-07-03 Reqall, Inc. Method and system for sharing portable voice profiles
US20080082338A1 (en) 2006-09-29 2008-04-03 O'neil Michael P Systems and methods for secure voice identification and medical device interface
US8073681B2 (en) 2006-10-16 2011-12-06 Voicebox Technologies, Inc. System and method for a cooperative conversational voice user interface
US8600760B2 (en) 2006-11-28 2013-12-03 General Motors Llc Correcting substitution errors during automatic speech recognition by accepting a second best when first best is confusable
US8401847B2 (en) 2006-11-30 2013-03-19 National Institute Of Advanced Industrial Science And Technology Speech recognition system and program therefor
US20080129520A1 (en) 2006-12-01 2008-06-05 Apple Computer, Inc. Electronic device with enhanced audio feedback
US8045808B2 (en) 2006-12-04 2011-10-25 Trend Micro Incorporated Pure adversarial approach for identifying text content in images
US20080140652A1 (en) * 2006-12-07 2008-06-12 Jonathan Travis Millman Authoring tool
US20080140413A1 (en) * 2006-12-07 2008-06-12 Jonathan Travis Millman Synchronization of audio to reading
US10185779B2 (en) 2008-03-03 2019-01-22 Oath Inc. Mechanisms for content aggregation, syndication, sharing, and updating
WO2008085742A2 (en) 2007-01-07 2008-07-17 Apple Inc. Portable multifunction device, method and graphical user interface for interacting with user input elements in displayed content
KR100883657B1 (ko) 2007-01-26 2009-02-18 삼성전자주식회사 음성 인식 기반의 음악 검색 방법 및 장치
US7818176B2 (en) 2007-02-06 2010-10-19 Voicebox Technologies, Inc. System and method for selecting and presenting advertisements based on natural language processing of voice-based input
US7822608B2 (en) 2007-02-27 2010-10-26 Nuance Communications, Inc. Disambiguating a speech recognition grammar in a multimodal application
US20080221901A1 (en) 2007-03-07 2008-09-11 Joseph Cerra Mobile general search environment speech processing facility
US20080256613A1 (en) 2007-03-13 2008-10-16 Grover Noel J Voice print identification portal
US7801729B2 (en) 2007-03-13 2010-09-21 Sensory, Inc. Using multiple attributes to create a voice search playlist
US8219406B2 (en) 2007-03-15 2012-07-10 Microsoft Corporation Speech-centric multimodal user interface design in mobile technology
JP2008250375A (ja) 2007-03-29 2008-10-16 Toshiba Corp 文字入力装置、方法およびプログラム
US7809610B2 (en) 2007-04-09 2010-10-05 Platformation, Inc. Methods and apparatus for freshness and completeness of information
US8457946B2 (en) 2007-04-26 2013-06-04 Microsoft Corporation Recognition architecture for generating Asian characters
US7983915B2 (en) 2007-04-30 2011-07-19 Sonic Foundry, Inc. Audio content search engine
US8032383B1 (en) 2007-05-04 2011-10-04 Foneweb, Inc. Speech controlled services and devices using internet
US9292807B2 (en) 2007-05-10 2016-03-22 Microsoft Technology Licensing, Llc Recommending actions based on context
US8055708B2 (en) 2007-06-01 2011-11-08 Microsoft Corporation Multimedia spaces
US8204238B2 (en) 2007-06-08 2012-06-19 Sensory, Inc Systems and methods of sonic communication
KR20080109322A (ko) 2007-06-12 2008-12-17 엘지전자 주식회사 사용자의 직관적 의도 파악에 따른 서비스 제공 방법 및장치
US20080313335A1 (en) 2007-06-15 2008-12-18 Searete Llc, A Limited Liability Corporation Of The State Of Delaware Communicator establishing aspects with context identifying
US8190627B2 (en) 2007-06-28 2012-05-29 Microsoft Corporation Machine assisted query formulation
US8019606B2 (en) 2007-06-29 2011-09-13 Microsoft Corporation Identification and selection of a software application via speech
JP4424382B2 (ja) 2007-07-04 2010-03-03 ソニー株式会社 コンテンツ再生装置およびコンテンツ自動受信方法
JP2009036999A (ja) 2007-08-01 2009-02-19 Infocom Corp コンピュータによる対話方法、対話システム、コンピュータプログラムおよびコンピュータに読み取り可能な記憶媒体
KR101359715B1 (ko) 2007-08-24 2014-02-10 삼성전자주식회사 모바일 음성 웹 제공 방법 및 장치
US8190359B2 (en) 2007-08-31 2012-05-29 Proxpro, Inc. Situation-aware personal information management for a mobile device
US20090058823A1 (en) 2007-09-04 2009-03-05 Apple Inc. Virtual Keyboards in Multi-Language Environment
US8713144B2 (en) 2007-09-14 2014-04-29 Ricoh Co., Ltd. Workflow-enabled client
KR100920267B1 (ko) 2007-09-17 2009-10-05 한국전자통신연구원 음성 대화 분석 시스템 및 그 방법
US8706476B2 (en) 2007-09-18 2014-04-22 Ariadne Genomics, Inc. Natural language processing method by analyzing primitive sentences, logical clauses, clause types and verbal blocks
US8165886B1 (en) 2007-10-04 2012-04-24 Great Northern Research LLC Speech interface system and method for control and interaction with applications on a computing system
US8036901B2 (en) 2007-10-05 2011-10-11 Sensory, Incorporated Systems and methods of performing speech recognition using sensory inputs of human position
US20090112677A1 (en) 2007-10-24 2009-04-30 Rhett Randolph L Method for automatically developing suggested optimal work schedules from unsorted group and individual task lists
US7840447B2 (en) 2007-10-30 2010-11-23 Leonard Kleinrock Pricing and auctioning of bundled items among multiple sellers and buyers
US20090112572A1 (en) * 2007-10-30 2009-04-30 Karl Ola Thorn System and method for input of text to an application operating on a device
US7983997B2 (en) 2007-11-02 2011-07-19 Florida Institute For Human And Machine Cognition, Inc. Interactive complex task teaching system that allows for natural language input, recognizes a user's intent, and automatically performs tasks in document object model (DOM) nodes
JP4926004B2 (ja) 2007-11-12 2012-05-09 株式会社リコー 文書処理装置、文書処理方法及び文書処理プログラム
US7890525B2 (en) 2007-11-14 2011-02-15 International Business Machines Corporation Foreign language abbreviation translation in an instant messaging system
US8112280B2 (en) 2007-11-19 2012-02-07 Sensory, Inc. Systems and methods of performing speech recognition with barge-in for use in a bluetooth system
JP5212379B2 (ja) * 2007-11-28 2013-06-19 富士通株式会社 無線タグで管理される金属パイプ及びその無線タグ
US8140335B2 (en) 2007-12-11 2012-03-20 Voicebox Technologies, Inc. System and method for providing a natural language voice user interface in an integrated voice navigation services environment
US10002189B2 (en) 2007-12-20 2018-06-19 Apple Inc. Method and apparatus for searching using an active ontology
WO2009079736A1 (en) 2007-12-21 2009-07-02 Bce Inc. Method and apparatus for interrupting an active telephony session to deliver information to a subscriber
US8219407B1 (en) 2007-12-27 2012-07-10 Great Northern Research, LLC Method for processing the output of a speech recognizer
US20090187577A1 (en) 2008-01-20 2009-07-23 Aviv Reznik System and Method Providing Audio-on-Demand to a User's Personal Online Device as Part of an Online Audio Community
KR101334066B1 (ko) 2008-02-11 2013-11-29 이점식 진화하는 사이버 로봇 시스템 및 그 제공 방법
US8099289B2 (en) 2008-02-13 2012-01-17 Sensory, Inc. Voice interface and search for electronic devices including bluetooth headsets and remote systems
US20090239552A1 (en) 2008-03-24 2009-09-24 Yahoo! Inc. Location-based opportunistic recommendations
US8958848B2 (en) 2008-04-08 2015-02-17 Lg Electronics Inc. Mobile terminal and menu control method thereof
US8666824B2 (en) 2008-04-23 2014-03-04 Dell Products L.P. Digital media content location and purchasing system
US8594995B2 (en) 2008-04-24 2013-11-26 Nuance Communications, Inc. Multilingual asynchronous communications of speech messages recorded in digital media files
US8249857B2 (en) 2008-04-24 2012-08-21 International Business Machines Corporation Multilingual administration of enterprise data with user selected target language translation
US8285344B2 (en) 2008-05-21 2012-10-09 DP Technlogies, Inc. Method and apparatus for adjusting audio for a user environment
US8589161B2 (en) 2008-05-27 2013-11-19 Voicebox Technologies, Inc. System and method for an integrated, multi-modal, multi-device natural language voice services environment
US8694355B2 (en) 2008-05-30 2014-04-08 Sri International Method and apparatus for automated assistance with task management
US8423288B2 (en) 2009-11-30 2013-04-16 Apple Inc. Dynamic alerts for calendar events
US8166019B1 (en) 2008-07-21 2012-04-24 Sprint Communications Company L.P. Providing suggested actions in response to textual communications
US8756519B2 (en) 2008-09-12 2014-06-17 Google Inc. Techniques for sharing content on a web page
KR101005074B1 (ko) 2008-09-18 2010-12-30 주식회사 수현테크 합성수지제 파이프 연결 고정구
US8676904B2 (en) 2008-10-02 2014-03-18 Apple Inc. Electronic devices with voice command and contextual data processing capabilities
US9200913B2 (en) 2008-10-07 2015-12-01 Telecommunication Systems, Inc. User interface for predictive traffic
US8832319B2 (en) * 2008-11-18 2014-09-09 Amazon Technologies, Inc. Synchronization of digital content
US8442824B2 (en) 2008-11-26 2013-05-14 Nuance Communications, Inc. Device, system, and method of liveness detection utilizing voice biometrics
US8140328B2 (en) 2008-12-01 2012-03-20 At&T Intellectual Property I, L.P. User intention based on N-best list of recognition hypotheses for utterances in a dialog
US8489599B2 (en) 2008-12-02 2013-07-16 Palo Alto Research Center Incorporated Context and activity-driven content delivery and interaction
JP5257311B2 (ja) 2008-12-05 2013-08-07 ソニー株式会社 情報処理装置、および情報処理方法
EP2368199B1 (en) 2008-12-22 2018-10-31 Google LLC Asynchronous distributed de-duplication for replicated content addressable storage clusters
CA2748695C (en) 2008-12-31 2017-11-07 Bce Inc. System and method for unlocking a device
US8364488B2 (en) 2009-01-15 2013-01-29 K-Nfb Reading Technology, Inc. Voice models for document narration
US8326637B2 (en) 2009-02-20 2012-12-04 Voicebox Technologies, Inc. System and method for processing multi-modal device interactions in a natural language voice services environment
US20100225809A1 (en) * 2009-03-09 2010-09-09 Sony Corporation And Sony Electronics Inc. Electronic book with enhanced features
US8805823B2 (en) 2009-04-14 2014-08-12 Sri International Content processing systems and methods
KR101581883B1 (ko) 2009-04-30 2016-01-11 삼성전자주식회사 모션 정보를 이용하는 음성 검출 장치 및 방법
KR101032792B1 (ko) 2009-04-30 2011-05-06 주식회사 코오롱 에어백용 폴리에스테르 원단 및 그의 제조 방법
JP5911796B2 (ja) 2009-04-30 2016-04-27 サムスン エレクトロニクス カンパニー リミテッド マルチモーダル情報を用いるユーザ意図推論装置及び方法
WO2010131911A2 (ko) * 2009-05-13 2010-11-18 Lee Doohan 멀티미디어파일 재생방법 및 멀티미디어 재생기기
US8498857B2 (en) 2009-05-19 2013-07-30 Tata Consultancy Services Limited System and method for rapid prototyping of existing speech recognition solutions in different languages
US10540976B2 (en) 2009-06-05 2020-01-21 Apple Inc. Contextual voice commands
US10706373B2 (en) 2011-06-03 2020-07-07 Apple Inc. Performing actions associated with task items that represent tasks to perform
US9858925B2 (en) 2009-06-05 2018-01-02 Apple Inc. Using context information to facilitate processing of commands in a virtual assistant
KR101562792B1 (ko) 2009-06-10 2015-10-23 삼성전자주식회사 목표 예측 인터페이스 제공 장치 및 그 방법
US8484027B1 (en) * 2009-06-12 2013-07-09 Skyreader Media Inc. Method for live remote narration of a digital book
US8290777B1 (en) * 2009-06-12 2012-10-16 Amazon Technologies, Inc. Synchronizing the playing and displaying of digital content
US20100324709A1 (en) * 2009-06-22 2010-12-23 Tree Of Life Publishing E-book reader with voice annotation
US9754224B2 (en) 2009-06-26 2017-09-05 International Business Machines Corporation Action based to-do list
US8527278B2 (en) 2009-06-29 2013-09-03 Abraham Ben David Intelligent home automation
US20110047072A1 (en) 2009-08-07 2011-02-24 Visa U.S.A. Inc. Systems and Methods for Propensity Analysis and Validation
US8768313B2 (en) 2009-08-17 2014-07-01 Digimarc Corporation Methods and systems for image or audio recognition processing
CN101996631B (zh) * 2009-08-28 2014-12-03 国际商业机器公司 用于对齐文本的方法和装置
WO2011028844A2 (en) 2009-09-02 2011-03-10 Sri International Method and apparatus for tailoring the output of an intelligent automated assistant to a user
US8321527B2 (en) 2009-09-10 2012-11-27 Tribal Brands System and method for tracking user location and associated activity and responsively providing mobile device updates
US8768308B2 (en) 2009-09-29 2014-07-01 Deutsche Telekom Ag Apparatus and method for creating and managing personal schedules via context-sensing and actuation
KR20110036385A (ko) 2009-10-01 2011-04-07 삼성전자주식회사 사용자 의도 분석 장치 및 방법
US20110099507A1 (en) 2009-10-28 2011-04-28 Google Inc. Displaying a collection of interactive elements that trigger actions directed to an item
US9197736B2 (en) 2009-12-31 2015-11-24 Digimarc Corporation Intuitive computing methods and systems
US20120137367A1 (en) 2009-11-06 2012-05-31 Cataphora, Inc. Continuous anomaly detection based on behavior modeling and heterogeneous information analysis
US8527859B2 (en) 2009-11-10 2013-09-03 Dulcetta, Inc. Dynamic audio playback of soundtracks for electronic visual works
US9502025B2 (en) 2009-11-10 2016-11-22 Voicebox Technologies Corporation System and method for providing a natural language content dedication service
US9171541B2 (en) 2009-11-10 2015-10-27 Voicebox Technologies Corporation System and method for hybrid processing in a natural language voice services environment
US8712759B2 (en) 2009-11-13 2014-04-29 Clausal Computing Oy Specializing disambiguation of a natural language expression
KR101960835B1 (ko) 2009-11-24 2019-03-21 삼성전자주식회사 대화 로봇을 이용한 일정 관리 시스템 및 그 방법
US20110153330A1 (en) 2009-11-27 2011-06-23 i-SCROLL System and method for rendering text synchronized audio
US8396888B2 (en) 2009-12-04 2013-03-12 Google Inc. Location-based searching using a search area that corresponds to a geographical location of a computing device
KR101622111B1 (ko) 2009-12-11 2016-05-18 삼성전자 주식회사 대화 시스템 및 그의 대화 방법
US20110161309A1 (en) 2009-12-29 2011-06-30 Lx1 Technology Limited Method Of Sorting The Result Set Of A Search Engine
US8494852B2 (en) 2010-01-05 2013-07-23 Google Inc. Word-level correction of speech input
US8334842B2 (en) 2010-01-15 2012-12-18 Microsoft Corporation Recognizing user intent in motion capture system
US8626511B2 (en) 2010-01-22 2014-01-07 Google Inc. Multi-dimensional disambiguation of voice commands
US20110218855A1 (en) 2010-03-03 2011-09-08 Platformation, Inc. Offering Promotions Based on Query Analysis
US8521513B2 (en) 2010-03-12 2013-08-27 Microsoft Corporation Localization for interactive voice response systems
US8374864B2 (en) * 2010-03-17 2013-02-12 Cisco Technology, Inc. Correlation of transcribed text with corresponding audio
US9323756B2 (en) * 2010-03-22 2016-04-26 Lenovo (Singapore) Pte. Ltd. Audio book and e-book synchronization
KR101369810B1 (ko) 2010-04-09 2014-03-05 이초강 로봇을 위한 경험적 상황인식 방법을 실행하는 프로그램을 기록한 컴퓨터 판독가능한 기록 매체.
US8265928B2 (en) 2010-04-14 2012-09-11 Google Inc. Geotagged environmental audio for enhanced speech recognition accuracy
US20110279368A1 (en) 2010-05-12 2011-11-17 Microsoft Corporation Inferring user intent to engage a motion capture system
US8392186B2 (en) * 2010-05-18 2013-03-05 K-Nfb Reading Technology, Inc. Audio synchronization for document narration with user-selected playback
US8694313B2 (en) 2010-05-19 2014-04-08 Google Inc. Disambiguation of contact information using historical data
US8522283B2 (en) 2010-05-20 2013-08-27 Google Inc. Television remote control data transfer
US8468012B2 (en) 2010-05-26 2013-06-18 Google Inc. Acoustic model adaptation using geographic information
ES2534047T3 (es) 2010-06-08 2015-04-16 Vodafone Holding Gmbh Tarjeta inteligente con micrófono
US20110306426A1 (en) 2010-06-10 2011-12-15 Microsoft Corporation Activity Participation Based On User Intent
US8234111B2 (en) 2010-06-14 2012-07-31 Google Inc. Speech and noise models for speech recognition
US8411874B2 (en) 2010-06-30 2013-04-02 Google Inc. Removing noise from audio
US8861925B1 (en) 2010-07-28 2014-10-14 Intuit Inc. Methods and systems for audio-visual synchronization
US8775156B2 (en) 2010-08-05 2014-07-08 Google Inc. Translating languages in response to device motion
US8359020B2 (en) 2010-08-06 2013-01-22 Google Inc. Automatically monitoring for voice input based on context
US8473289B2 (en) 2010-08-06 2013-06-25 Google Inc. Disambiguating input based on context
WO2012033492A1 (en) * 2010-09-09 2012-03-15 Sony Ericsson Mobile Communications Ab Annotating e-books/e-magazines with application results
US8812321B2 (en) 2010-09-30 2014-08-19 At&T Intellectual Property I, L.P. System and method for combining speech recognition outputs from a plurality of domain-specific speech recognizers via machine learning
US20120084634A1 (en) * 2010-10-05 2012-04-05 Sony Corporation Method and apparatus for annotating text
US8862255B2 (en) * 2011-03-23 2014-10-14 Audible, Inc. Managing playback of synchronized content
EP2702473A1 (en) 2011-04-25 2014-03-05 Veveo, Inc. System and method for an intelligent personal timeline assistant
JP5463385B2 (ja) * 2011-06-03 2014-04-09 アップル インコーポレイテッド テキストデータとオーディオデータとの間のマッピングの自動作成
US20120310642A1 (en) 2011-06-03 2012-12-06 Apple Inc. Automatically creating a mapping between text data and audio data

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6260011B1 (en) * 2000-03-20 2001-07-10 Microsoft Corporation Methods and apparatus for automatically synchronizing electronic audio files with electronic text files
JP2004152063A (ja) * 2002-10-31 2004-05-27 Nec Corp マルチメディアコンテンツ構造化方法、構造化装置および構造化プログラム、ならびに提供方法

Also Published As

Publication number Publication date
WO2012167276A1 (en) 2012-12-06
US20120310649A1 (en) 2012-12-06
KR20120135137A (ko) 2012-12-12
CN103703431B (zh) 2018-02-09
KR101700076B1 (ko) 2017-01-26
EP2593846A1 (en) 2013-05-22
JP2014519058A (ja) 2014-08-07
CN103703431A (zh) 2014-04-02
AU2012261818B2 (en) 2016-02-25
AU2012261818A1 (en) 2014-01-16
US10672399B2 (en) 2020-06-02
KR20140027421A (ko) 2014-03-06
KR101674851B1 (ko) 2016-11-09
US20120310642A1 (en) 2012-12-06
KR20160036077A (ko) 2016-04-01
KR101622015B1 (ko) 2016-05-17
AU2016202974A1 (en) 2016-06-02
AU2016202974B2 (en) 2018-04-05
EP2593846A4 (en) 2014-12-03
KR101324910B1 (ko) 2013-11-04

Similar Documents

Publication Publication Date Title
KR101622015B1 (ko) 텍스트 데이터와 오디오 데이터 간의 맵핑 자동 생성
JP5463385B2 (ja) テキストデータとオーディオデータとの間のマッピングの自動作成
US20220115019A1 (en) Method and system for conversation transcription with metadata
CN107516511B (zh) 意图识别和情绪的文本到语音学习系统
US9786283B2 (en) Transcription of speech
US10210769B2 (en) Method and system for reading fluency training
US9478219B2 (en) Audio synchronization for document narration with user-selected playback
US11657725B2 (en) E-reader interface system with audio and highlighting synchronization for digital books
US20100318363A1 (en) Systems and methods for processing indicia for document narration
US20040143673A1 (en) Multimedia linking and synchronization method, presentation and editing apparatus
US20080243510A1 (en) Overlapping screen reading of non-sequential text
KR20100014031A (ko) 멀티미디어 파일에서 원하는 부분만 쉽고 빠르게 정확히추출하여 u-컨텐츠 만드는 장치 및 그 방법
KR20220136801A (ko) 이미지를 이용한 중국어 연상학습 콘텐츠 제공 방법 및 장치
JP2001014137A (ja) 電子文書処理方法及び電子文書処理装置並びに電子文書処理プログラムが記録された記録媒体

Legal Events

Date Code Title Description
A107 Divisional application of patent
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant