KR20150085115A - 텍스트 데이터와 오디오 데이터 간의 맵핑 자동 생성 - Google Patents
텍스트 데이터와 오디오 데이터 간의 맵핑 자동 생성 Download PDFInfo
- Publication number
- KR20150085115A KR20150085115A KR1020157017690A KR20157017690A KR20150085115A KR 20150085115 A KR20150085115 A KR 20150085115A KR 1020157017690 A KR1020157017690 A KR 1020157017690A KR 20157017690 A KR20157017690 A KR 20157017690A KR 20150085115 A KR20150085115 A KR 20150085115A
- Authority
- KR
- South Korea
- Prior art keywords
- text
- audio
- data
- version
- mapping
- Prior art date
Links
Images
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/26—Speech to text systems
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/60—Information retrieval; Database structures therefor; File system structures therefor of audio data
- G06F16/68—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
- G06F16/683—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
- G06F16/685—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content using automatically derived transcript of audio data, e.g. lyrics
-
- G06F17/241—
-
- G06F17/30746—
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/10—Text processing
- G06F40/166—Editing, e.g. inserting or deleting
- G06F40/169—Annotation, e.g. comment data or footnotes
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L13/00—Speech synthesis; Text to speech systems
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
- G10L15/10—Speech classification or search using distance or distortion measures between unknown speech and reference templates
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
- G10L15/18—Speech classification or search using natural language modelling
- G10L15/183—Speech classification or search using natural language modelling using context dependencies, e.g. language models
- G10L15/19—Grammatical context, e.g. disambiguation of the recognition hypotheses based on word sequence rules
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/28—Constructional details of speech recognition systems
Abstract
오디오 데이터(예컨대, 오디오 북) 내의 위치들을 텍스트 데이터(예컨대, 전자책) 내의 대응하는 위치들로 맵핑하는 맵핑을 생성하는 기술을 제공한다. 맵핑이 자동으로 생성되는지 아니면 수동으로 생성되는지에 따라, 오디오 데이터와 텍스트 데이터 간의 맵핑을 이용하는 기술을 제공한다. 디지털 작품의 하나의 버전(예컨대, e-북)에 설정된 북마크가 디지털 작품의 다른 버전(예컨대, 오디오 북)의 대응하는 위치를 식별하는데 사용되는 북마크 스위칭에 맵핑을 이용할 수 있다. 대안으로, 맵핑은 사용자에 의해 선택된 텍스트에 대응하는 오디오를 재생하는데 이용될 수 있다. 대안으로, 맵핑은 재생되고 있는 텍스트에 대응하는 오디오에 응답하여 텍스트를 자동으로 강조 표시하는데 이용될 수 있다. 대안으로, 맵핑은 하나의 미디어 컨텍스트(예컨대, 오디오)에서 생성된 주석이 다른 미디어 컨텍스트(예컨대, 텍스트)에서 소모될 것임을 결정하는데 이용될 수 있다.
Description
본 발명은 오디오 데이터를 분석하여 여기에 반영된 단어를 검출하고 이 단어를 문서 내의 단어와 비교함으로써, 텍스트 데이터와 오디오 데이터 간의 맵핑을 자동으로 생성하는 것에 관한 것이다.
배경기술
핸드헬드 전자 장치들의 비용이 감소하고 디지털 컨텐츠에 대한 요구가 커짐에 따라, 인쇄 매체 상에 한번 공표된 창조적인 작품들이 디지털 매체로서 점점 더 이용가능하게 되고 있다. 예를 들면, ("e-books"로도 알려진) 전자책들이, 전자책 리더들(또는 "e-readers")로서 알려진 특성화된 핸드헬드 전자 장치들과 함께, 점점 더 인기를 얻고 있다. 또한, 비록 전자책 리더만으로서 설계된 것은 아니지만, 태블릿 컴퓨터들 및 스마트 폰들과 같은 다른 핸드헬드 장치들이 전자책 리더들로서 동작되는 능력을 갖고 있다.
전자책들이 포맷되는 공통 표준은 EPUB 표준("electronic publication"의 약어)으로, 이 표준은 무료이고 IDPF(International Digital Publishing Forum)에 의한 공개적인 전자책 표준이다. EPUB 파일은 XHTML 1.1(또는 DTBook)을 사용하여 책의 컨텐츠를 구성한다. 스타일링 및 레이아웃은 OPS Style Sheets로 지칭되는 CSS의 서브세트를 이용하여 수행된다.
몇몇의 작품들, 특히 인기있는 작품들에 대해, 그 작품의 오디오 버전이 생성되어 있다. 예를 들면, 인기있는 개인(또는 호감있는 음성을 가진 사람)이 작품을 읽은 기록이 생성되어 있고, 온라인 스토어나 오프라인(brick and mortar) 스토어든지 간에 구매용으로 이용가능하게 되어 있다.
소비자들이 전자책(e-book)과 그 전자책의 오디오 버전(즉, "오디오 북") 모두를 구매하는 것은 드문일이 아니다. 몇몇의 경우에, 사용자는 전자책 전체를 읽은 다음 오디오 북을 듣고 싶어한다. 다른 경우에, 사용자는 그 사용자의 환경에 기초하여 그 책을 읽고 듣는 것을 바꾼다. 예를 들면, 스포츠에 참가하거나 통근 중에 운전하면서, 사용자는 그 책의 오디오 버전을 듣는 경향이 있을 것이다. 한편, 잠들기 전 소파 의자에 비스듬히 기대어 있을 때, 사용자는 그 책의 전자책 버전을 읽는 경향이 있을 것이다. 불행하게도, 그러한 변환은, 사용자가 전자책에서 중지한 곳을 기억한 다음 오디오 북의 어디에서 시작하는지를 수동으로 찾아야 하고, 그 역도 마찬가지이기 때문에, 고생스러울 수 있다. 사용자가 자신이 그만둔 지점에서 책에서 일어나는 해프닝을 명확히 기억하고 있더라도, 그러한 해프닝을 안다는 것이 그들 해프닝들에 대응하는 전자책 또는 오디오 북의 부분을 반드시 용이하게 찾게 하는 것은 아니기 때문에, 그러한 변환은 여전히 고생스러울 수 있다. 따라서, 전자책과 오디오 북 간의 변환에 매우 많은 시간을 소비할 수 있다.
명세 "EPUB Media Overlays 3.0"은 SMIL(Synchronized Multimedia Integration Language)의 사용, 패키지 다큐먼트, EPUB 스타일 시트, 및 동기화된 텍스트 및 오디오 출판물들을 표현하기 위한 EPUB 컨텐츠 다큐먼트를 정의한다. 출판물의 사전 기록된 나레이션은 각각 텍스트의 부분에 대응하는 일련의 오디오 클립들로 표현될 수 있다. 사전 기록된 나레이션을 구성하는 일련의 오디오 클립들에서 각각의 싱글 오디오 클립은 전형적으로 단일 어구 또는 문단을 나타내지만, 다큐먼트의 다른 클립들에 대한 또는 텍스트에 대한 순서를 추론하는 것은 아니다. 미디어 오버레이(Media Overlays)는 구성된 오디오 나레이션을 SMIL 마크업을 이용하여 EPUB 컨텐츠 다큐먼트 내의 대응하는 텍스트에 관련시킴으로써 동기화 문제를 해결한다. 미디어 오버레이는 이들 클립의 재생 시퀀스가 정의되게 하는 SMIL 3.0의 간략화된 서브세트이다.
불행하게도, 미디어 오버레이 파일들의 생성은 대규모의 수동적 프로세스이다. 결과적으로, 작품의 오디오 버전과 텍스트 버전 간의 맵핑의 입도(granularity)이 매우 거칠게 된다. 예를 들면, 미디어 오버레이 파일은 전자책 내의 각각의 문단의 시작을 그 전자책의 오디오 버전에서의 대응하는 위치와 관계시킬 수 있다. 특히 소설들에 대한 미디어 오버레이 파일들이 단어 대 단어와 같은 임의의 보다 정교한 레벨의 입도의 맵핑을 포함하지 않는 이유는 그러한 매우 정교한 미디어 오버레이 파일을 작성하는 것은 무수한 시간의 인간의 노동이 들어가기 때문이다.
본 발명은 오디오 데이터를 분석하여 여기에 반영된 단어를 검출하고 이 단어를 문서 내의 단어와 비교함으로써, 텍스트 데이터와 오디오 데이터 간의 맵핑을 자동으로 생성하는 것에 관한 것이다.
일부 실시예에 따르면, 텍스트 버전이 존재하는 작품(work)의 오디오 버전을 반영한 오디오 데이터를 수신하는 단계와, 오디오 데이터의 부분에 대한 텍스트를 생성하기 위해 오디오 데이터의 음성-텍스트(speech-to-text) 분석을 수행하는 단계와, 오디오 데이터의 부분에 대해 생성된 텍스트에 기초하여, 오디오 데이터에서의 복수의 오디오 위치와 텍스트 버전의 작품에서의 대응하는 복수의 텍스트 위치 간에 맵핑을 생성하는 단계를 포함하는 방법이 제공된다. 이 방법은 하나 이상의 컴퓨팅 디바이스에 의해 수행된다.
일부 실시예에서, 오디오 데이터의 부분에 대한 텍스트를 생성하는 단계는 작품의 텍스트 컨텍스트(context)에 적어도 부분적으로 기초하여 오디오 데이터의 부분에 대한 텍스트를 생성하는 단계를 포함한다. 일부 실시예에서, 작품의 텍스트 컨텍스트에 적어도 부분적으로 기초하여 오디오 데이터의 부분에 대한 텍스트를 생성하는 단계는, 텍스트 버전의 작품에 사용되는 문법의 하나 이상의 규칙들에 적어도 부분적으로 기초하여 텍스트를 생성하는 단계를 포함한다. 일부 실시예에서, 작품의 텍스트 컨텍스트에 적어도 부분적으로 기초하여 오디오 데이터의 부분에 대한 텍스트를 생성하는 단계는, 단어가 텍스트 버전의 작품 또는 그 서브세트 내에 존재하는지에 기초하여 어느 단어 부분이 변환(translate)될 수 있는지를 제한하는 단계를 포함한다. 일부 실시예에서, 단어가 텍스트 버전의 작품 내에 존재하는 것에 기초하여 어느 단어 부분이 변환될 수 있는지를 제한하는 단계는, 오디오 데이터의 소정 부분에 대하여, 이 소정 부분에 대응하는 텍스트 버전의 작품의 서브섹션을 식별하는 단계와, 단어를 텍스트 버전의 작품의 서브섹션에서의 단어만으로 제한하는 단계를 포함한다. 일부 실시예에서, 텍스트 버전의 작품의 서브섹션을 식별하는 단계는, 오디오 데이터에서 현재 텍스트 위치를 음성-텍스트 분석의 현재 오디오 위치에 대응하는 텍스트 버전의 작품에서 유지하는 단계를 포함하며, 텍스트 버전의 작품의 서브섹션은 현재 텍스트 위치와 연관된 섹션이다.
일부 실시예에서, 부분들은 개별 단어에 대응하는 부분들을 포함하며, 맵핑은 개별 단어에 대응하는 부분들의 위치를 텍스트 버전의 작품에서의 개별 단어에 맵핑한다. 일부 실시예에서, 부분들은 개별 문장(sentence)에 대응하는 부분들을 포함하며, 맵핑은 개별 문장에 대응하는 부분들의 위치를 텍스트 버전의 작품에서의 개별 문장에 맵핑한다. 일부 실시예에서, 부분들은 고정량의 데이터에 대응하는 부분들을 포함하며, 맵핑은 고정량의 데이터에 대응하는 부분들의 위치를 텍스트 버전의 작품에서의 해당 위치에 맵핑한다.
일부 실시예에서, 맵핑을 생성하는 단계는, (1) 오디오 데이터에 앵커(anchor)를 삽입하는 단계, (2) 텍스트 버전의 작품에 앵커를 삽입하는 단계, 또는 (3) 오디오 데이터 또는 텍스트 버전의 작품과 연관돼서 저장되는 미디어 오버레이(media overlay)에서의 맵핑을 저장하는 단계를 포함한다.
일부 실시예에서, 복수의 텍스트 위치들 중 하나 이상의 텍스트 위치들 각각은 텍스트 버전의 작품에서의 상대 위치를 가리킨다. 일부 실시예에서, 복수의 텍스트 위치들 중 하나의 텍스트 위치는 텍스트 버전의 작품에서의 상대 위치를 가리키며, 복수의 텍스트 위치들 중 다른 텍스트 위치는 상대 위치로부터의 절대 위치를 가리킨다. 일부 실시예에서, 복수의 텍스트 위치들 중 하나 이상의 텍스트 위치들 각각은 텍스트 버전의 작품 내의 앵커를 가리킨다.
일부 실시예에 따르면, 텍스트 버전의 작품(textual version)을 수신하는 단계, 텍스트 버전의 텍스트-음성 분석을 수행하여 제1 오디오 데이터를 생성하는 단계, 제1 오디오 데이터 및 텍스트 버전에 기초하여 제1 오디오 데이터 내의 제1의 복수의 오디오 위치와 텍스트 버전의 작품 내의 대응하는 복수의 텍스트 위치 간의 제1 맵핑을 생성하는 단계, 텍스트 버전이 존재하는 작품의 오디오 버전을 반영한 제2 오디오 데이터를 수신하는 단계, (1) 제1 오디오 데이터와 제2 오디오 데이터의 비교 및 (2) 제1 맵핑에 기초하여, 제2 오디오 데이터 내의 제2의 복수의 오디오 위치와 텍스트 버전의 작품 내의 복수의 텍스트 위치 간의 제2 맵핑을 생성하는 단계를 포함하는 방법이 제공된다. 상기 방법은 하나 이상의 컴퓨팅 디바이스에 의해 수행된다.
일부 실시예에 따르면, 오디오 입력을 수신하는 단계, 오디오 입력의 음성-텍스트 분석을 수행하여 오디오 입력의 부분들에 대한 텍스트를 생성하는 단계, 오디오 입력의 부분들에 대해 생성된 텍스트가 현재 디스플레이되는 텍스트와 일치하는지 여부를 판정하는 단계, 텍스트가 현재 디스플레이되는 텍스트와 일치한다고 결정하는 것에 응답하여, 현재 디스플레이되는 텍스트가 강조 표시되게 하는 단계를 포함하는 방법이 제공된다. 상기 방법은 하나 이상의 컴퓨팅 디바이스에 의해 수행된다.
일부 실시예에 따르면, 텍스트 버전이 존재하는 작품의 오디오 버전을 반영한 오디오 데이터를 수신하도록 구성된 오디오 데이터 수신 유닛을 포함하는 전자 디바이스가 제공된다. 전자 디바이스는 오디오 데이터 수신 유닛에 연결되는 프로세싱 유닛도 포함한다. 프로세싱 유닛은 오디오 데이터의 음성-텍스트 분석을 수행하여 오디오 데이터의 부분들에 대한 텍스트를 생성하고, 오디오 데이터의 부분들에 대해 생성된 텍스트에 기초하여 오디오 데이터 내의 복수의 오디오 위치와 텍스트 버전의 작품 내의 대응하는 복수의 텍스트 위치 간의 맵핑을 생성하도록 구성된다.
일부 실시예에 따르면, 텍스트 버전의 작품을 수신하도록 구성된 텍스트 수신 유닛을 포함하는 전자 디바이스가 제공된다. 전자 디바이스는 텍스트 수신 유닛에 연결되는 프로세싱 유닛도 포함하며, 프로세싱 유닛은 텍스트 버전의 텍스트-음성 분석을 수행하여 제1 오디오 데이터를 생성하고, 제1 오디오 데이터와 텍스트 버전에 기초하여 제1 오디오 데이터 내의 제1의 복수의 오디오 위치와 텍스트 버전의 작품 내의 대응하는 복수의 텍스트 위치 간의 제1 맵핑을 생성하도록 구성된다. 전자 디바이스는 텍스트 버전이 존재하는 작품의 오디오 버전을 반영하는 제2 오디오 데이터를 수신하도록 구성된 오디오 데이터 수신 유닛도 포함한다. 프로세싱 유닛은 또한 (1) 제1 오디오 데이터와 제2 오디오 데이터의 비교, 및 (2) 제1 맵핑에 기초하여 제2 오디오 데이터 내의 제2의 복수의 오디오 위치와 텍스트 버전의 작품 내의 복수의 텍스트 위치 간의 제2 맵핑을 생성하도록 구성된다.
일부 실시예에 따르면, 오디오 입력을 수신하도록 구성된 오디오 수신 유닛을 포함하는 전자 디바이스가 제공된다. 전자 디바이스는 오디오 입력 유닛에 연결되는 프로세싱 유닛도 포함한다. 프로세싱 유닛은 오디오 입력의 음성-텍스트 분석을 수행하여 오디오 입력의 부분들에 대한 텍스트를 생성하며, 오디오 입력의 부분들에 대해 생성된 텍스트가 현재 디스플레이되는 텍스트와 일치하는지 여부를 판정하며, 텍스트가 현재 디스플레이되는 텍스트와 일치한다고 결정한 것에 응답하여 현재 디스플레이되는 텍스트가 강조 표시되게 하도록 구성된다.
일부 실시예에 따르면, 텍스트 버전의 작품 내의 특정 위치를 나타내는 위치 데이터를 획득하는 단계, 작품의 오디오 버전 내의 복수의 오디오 위치와 텍스트 버전의 작품 내의 대응하는 복수의 텍스트 위치 간의 맵핑을 검사하는 단계, 복수의 텍스트 위치 중에서 특정 위치에 대응하는 특정 텍스트 위치를 결정하는 단계, 특정 텍스트 위치에 기초하여 복수의 오디오 위치 중에서 특정 텍스트 위치에 대응하는 특정 오디오 위치를 결정하는 단계를 포함하는 방법이 제공된다. 상기 방법은, 미디어 플레이어가 특정 오디오 위치를 오디오 데이터의 현재 재생 위치로서 구축하게 야기하도록, 특정 텍스트 위치에 기초하여 결정된 특정 오디오 위치를 미디어 플레이어에 제공하는 단계를 포함한다. 상기 방법은 하나 이상의 컴퓨팅 디바이스에 의해 수행된다.
일부 실시예에서, 획득하는 단계는 서버가 네트워크를 통해 제1 디바이스로부터 위치 데이터를 수신하는 단계를 포함하며, 검사하는 단계 및 제공하는 단계는 서버에 의해 수행되며, 제공하는 단계는 서버가 미디어 플레이어를 실행하는 제2 디바이스에 특정 오디오 위치를 송신하는 단계를 포함한다. 일부 실시예에서, 제2 디바이스와 제1 디바이스는 동일한 디바이스이다. 일부 실시예에서, 획득하는 단계, 검사하는 단계 및 제공하는 단계는 텍스트 버전의 작품을 디스플레이하도록 구성되며 미디어 플레이어를 실행하는 컴퓨팅 디바이스에 의해 수행된다. 일부 실시예에서, 상기 방법은 텍스트 버전의 작품을 디스플레이하도록 구성된 디바이스에서, 디바이스의 사용자로부터의 입력 없이 위치 데이터를 결정하는 단계를 더 포함한다.
일부 실시예에서, 상기 방법은 사용자로부터 입력을 수신하는 단계, 및 입력의 수신에 응답하여 입력에 기초하여 위치 데이터를 결정하는 단계를 더 포함한다. 일부 실시예에서, 특정 오디오 위치를 미디어 플레이어에 제공하는 단계는, 특정 오디오 위치를 미디어 플레이어에 제공하여 미디어 플레이어가 현재 재생 위치에서 시작하는 오디오 데이터를 처리하도록 야기하는 단계 - 이는 미디어 플레이어가 처리된 오디오 데이터로부터 오디오를 생성하게 함 - 를 포함하며, 미디어 플레이어가 오디오 데이터를 처리하게 하도록 야기하는 단계는 입력을 수신하는 것에 응답하여 수행된다.
일부 실시예에서, 입력은 텍스트 버전의 작품 내에서 다수의 단어들을 선택하며, 특정 위치는 제1 특정 위치이고, 위치 데이터는 또한 텍스트 버전의 작품 내에서 제1 특정 위치와는 상이한 제2 특정 위치를 나타내며, 검사하는 단계는 복수의 텍스트 위치 중에서 제2 특정 위치에 대응하는 제2 특정 텍스트 위치를 결정하고, 제2 특정 텍스트 위치에 기초하여 복수의 오디오 위치 중에서 제2 특정 텍스트 위치에 대응하는 제2 특정 오디오 위치를 결정하기 위해 맵핑을 검사하는 단계를 더 포함하며, 특정 오디오 위치를 미디어 플레이어에 제공하는 단계는 제2 특정 오디오 위치를 미디어 플레이어에 제공하여 미디어 플레이어로 하여금 현재 재생 위치가 제2 특정 오디오 위치 또는 그 부근에 도달했을 때 오디오 데이터를 처리하도록 야기하는 단계를 포함한다.
일부 실시예에서, 상기 방법은 사용자로부터의 입력에 기초하는 주석 데이터를 획득하는 단계, 특정 위치와 연관된 주석 데이터를 저장하는 단계, 및 주석 데이터에 관한 정보가 디스플레이되게 하는 단계를 더 포함한다. 일부 실시예에서, 특정 오디오 위치에 관한 정보 및 주석 데이터가 디스플레이되게 하는 단계는, 오디오 데이터의 현재 재생 위치가 특정 오디오 위치 또는 그 부근에 있는 때를 판정하는 단계, 및 오디오 데이터의 현재 재생 위치가 특정 오디오 위치 또는 그 부근에 있다고 결정한 것에 응답하여 주석 데이터에 관한 정보가 디스플레이 되게 하는 단계를 포함한다.
일부 실시예에서, 주석 데이터는 텍스트 데이터를 포함하며, 주석 데이터에 관한 정보가 디스플레이되게 하는 단계는 텍스트 데이터를 디스플레이하는 단계를 포함한다. 일부 실시예에서, 주석 데이터는 음성 데이터를 포함하며, 주석 데이터에 관한 정보가 디스플레이되게 하는 단계는 음성 데이터가 오디오를 생성하도록 처리하는 단계를 포함한다.
일부 실시예에 따르면, 텍스트 버전의 작품 내의 특정 위치를 나타내는 치 데이터를 획득하도록 구성된 위치 데이터 획득 유닛을 포함하는 전자 장치가 제공된다. 전자 장치는 위치 데이터 획득 유닛에 연결되는 프로세싱 유닛도 포함한다. 프로세싱 유닛은 작품의 오디오 버전 내의 복수의 오디오 위치와 텍스트 버전의 작품 내의 대응하는 텍스트 위치 간의 맵핑을 검사하고, 복수의 텍스트 위치 중에서 특정 위치에 대응하는 특정 텍스트 위치를 결정하며, 특정 텍스트 위치에 기초하여 복수의 오디오 위치 중에서 특정 텍스트 위치에 대응하는 특정 오디오 위치를 결정하며, 특정 텍스트 위치에 기초하여 결정된 특정 오디오 위치를 미디어 플레이어에 제공하여 미디어 플레이어로 하여금 특정 오디오 위치를 오디오 데이터의 현재 재생 위치로서 구축하게 하도록 구성된다.
일부 실시예에 따르면, 오디오 데이터 내의 특정 위치를 나타내는 위치 데이터를 획득하는 단계, 오디오 데이터 내의 복수의 오디오 위치와 텍스트 버전의 작품 내의 대응하는 복수의 텍스트 위치 간의 맵핑을 검사하는 단계와, 복수의 오디오 위치 중에서 특정 위치에 대응하는 특정 오디오 위치를 결정하는 단계, 특정 오디오 위치에 기반하여 복수의 텍스트 위치 중에서 특정 오디오 위치에 대응하는 특정 텍스트 위치를 결정하는 단계, 및 미디어 플레이어가 특정 텍스트 위치에 관한 정보를 디스플레이하도록 야기하는 단계를 포함하는 방법이 제공된다. 상기 방법은 하나 이상의 컴퓨팅 디바이스에 의해 수행된다.
일부 실시예에서, 획득하는 단계는 서버가 네트워크를 통해 제1 디바이스로부터 위치 데이터를 수신하는 단계를 포함하며, 검사하는 단계 및 야기하는 단계는 서버에 의해 수행되며, 야기하는 단계는, 서버가 특정 텍스트 위치를 미디어 플레이어를 실행하는 제2 디바이스에 송신하는 단계를 포함한다. 일부 실시예에서, 제2 디바이스 및 제1 디바이스는 동일한 디바이스이다. 일부 실시예에서, 획득하는 단계, 검사하는 단계 및 야기하는 단계는 텍스트 버전의 작품을 디스플레이하고 미디어 플레이어를 실행하는 컴퓨팅 디바이스에 의해 수행된다. 일부 실시예에서, 상기 방법은 오디오 데이터를 처리하도록 구성된 디바이스에서 디바이스의 사용자로부터의 입력 없이 위치 데이터를 결정하는 단계를 포함한다.
일부 실시예에서, 상기 방법은 사용자로부터 입력을 수신하는 단계, 및 입력의 수신에 응답하여 입력에 기초하여 위치 데이터를 결정하는 단계를 더 포함한다. 일부 실시예들에서, 야기하는 단계는 미디어 플레이어가 특정한 텍스트 위치에 대응하는 텍스트 버전의 작품의 부분을 디스플레이하도록 야기하는 단계; 및 미디어 플레이어가 입력을 수신하는 것에 응답하여 수행되는 텍스트 버전의 작품의 부분을 디스플레이하도록 야기하는 단계를 포함한다.
일부 실시예들에서, 입력은 오디오 데이터의 세그먼트를 선택하고, 특정된 위치는 제1 특정된 위치이고, 위치 데이터는 오디오 데이터 내에서 제1 특정된 위치와는 상이한 제2 특정된 위치를 또한 나타내고, 검사하는 단계는, 복수의 오디오 위치 중에서 제2 특정된 위치에 대응하는 제2 특정한 오디오 위치를 결정하고, 제2 특정한 오디오 위치에 기반하여 복수의 텍스트 위치 중에서 제2 특정한 오디오 위치에 대응하는 제2 특정한 텍스트 위치를 결정하기 위해 맵핑을 검사하는 단계를 더 포함하며, 미디어 플레이어가 특정한 텍스트 위치에 관한 정보를 디스플레이하도록 야기하는 단계는 미디어 플레이어가 제2 특정한 텍스트 위치에 관한 정보를 디스플레이하도록 야기하는 단계를 더 포함한다.
일부 실시예들에서, 특정된 위치는 오디오 데이터에서 현재의 재생 위치에 대응하고, 야기하는 단계는 특정된 위치에서의 오디오 데이터가 처리되어 오디오가 생성됨에 따라 수행되며, 야기하는 단계는 제2 미디어 플레이어가 특정한 텍스트 위치에서 또는 그 근방에서 텍스트 버전의 작품 내의 텍스트를 강조 표시하도록 야기하는 단계를 포함한다.
일부 실시예들에서, 이 방법은 사용자로부터의 입력에 기반한 주석 데이터를 획득하는 단계; 특정된 위치에 연관하여 주석 데이터를 저장하는 단계; 및 주석 데이터에 관한 정보가 디스플레이되도록 야기하는 단계를 더 포함한다. 몇몇 실시예들에서, 주석 데이터에 관한 정보가 디스플레이되도록 야기하는 단계는 특정한 텍스트 위치에 대응하는 텍스트 버전의 작품의 부분이 디스플레이되는 때를 결정하는 단계; 및 특정한 텍스트 위치에 대응하는 텍스트 버전의 작품의 부분이 디스플레이된다고 결정하는 것에 응답하여 주석 데이터에 관한 정보가 디스플레이되도록 야기하는 단계를 포함한다.
몇몇 실시예들에서, 주석 데이터는 텍스트 데이터를 포함하며, 주석 데이터에 관한 정보가 디스플레이되도록 야기하는 단계는 텍스트 데이터가 디스플레이되도록 야기하는 단계를 포함한다. 몇몇 실시예들에서, 주석 데이터는 음성 데이터를 포함하며, 주석 데이터에 관한 정보가 디스플레이되도록 야기하는 단계는 음성 데이터가 오디오를 생성하도록 처리되게 하는 단계를 포함한다.
일부 실시예들에 따르면, 작품의 오디오 버전의 재생 동안에, 오디오 버전 내에서 특정된 위치를 나타내는 위치 데이터를 획득하고, 또한 특정된 위치에 기반하여 오디오 버전의 재생을 일시정지할 때를 나타내는 일시정지 데이터와 연관되는 특정한 텍스트 위치를 텍스트 버전의 작품에서 결정하는 단계; 및 특정한 텍스트 위치가 일시정지 데이터와 연관된다고 결정하는 것에 응답하여 오디오 버전의 재생을 일시정지시키는 단계를 포함하는 방법이 제공된다. 이 방법은 하나 이상의 컴퓨팅 디바이스에 의해 수행된다.
일부 실시예들에서, 일시정지 데이터는 텍스트 버전의 작품 내에 있다. 일부 실시예들에서, 특정한 텍스트 위치를 결정하는 단계는, 복수의 오디오 위치 중에서 특정된 위치에 대응하는 특정한 오디오 위치를 결정하고, 특정한 오디오 위치에 기반하여 복수의 텍스트 위치 중에서 특정한 오디오 위치에 대응하는 특정한 텍스트 위치를 결정하기 위해 오디오 데이터에서의 복수의 오디오 위치와 텍스트 버전의 작품에서의 대응하는 복수의 텍스트 위치 간의 맵핑을 검사하는 단계를 포함한다.
일부 실시예들에서, 일시정지 데이터는 텍스트 버전의 작품에 반영되는 페이지의 끝에 대응한다. 몇몇 실시예들에서, 일시정지 데이터는 텍스트 버전의 작품 내에서 텍스트를 포함하지 않는 픽처에 바로 앞선 위치에 대응한다.
일부 실시예들에서, 이 방법은 사용자 입력을 수신하는 것에 응답하여 오디오 버전의 재생을 계속하는 단계를 더 포함한다. 일부 실시예들에서, 이 방법은 오디오 버전의 재생이 일시정지된 이후의 특정한 시간량의 경과에 응답하여 오디오 버전의 재생을 계속하는 단계를 더 포함한다.
일부 실시예들에 따르면, 작품의 오디오 버전의 재생 동안에, 오디오 버전 내에서 특정된 위치를 나타내는 위치 데이터를 획득하고, 또한 특정된 위치에 기반하여 텍스트 버전의 작품에 반영되는 제1 페이지의 끝을 나타내는 페이지 끝 데이터와 연관되는 특정한 텍스트 위치를 텍스트 버전의 작품에서 결정하는 단계; 및 특정한 텍스트 위치가 페이지 끝 데이터와 연관된다고 결정하는 것에 응답하여, 제1 페이지가 디스플레이되는 것을 중지시키도록 자동으로 야기하고 또한 제1 페이지에 후속하는 제2 페이지가 디스플레이되도록 자동으로 야기하는 단계를 포함하는 방법이 제공된다. 이 방법은 하나 이상의 컴퓨팅 디바이스에 의해 수행된다.
일부 실시예들에서, 이 방법은, 복수의 오디오 위치 중에서 특정된 위치에 대응하는 특정한 오디오 위치를 결정하고, 특정한 오디오 위치에 기반하여 복수의 텍스트 위치 중에서 특정한 오디오 위치에 대응하는 특정한 텍스트 위치를 결정하기 위해 오디오 데이터에서의 복수의 오디오 위치와 텍스트 버전의 작품에서의 대응하는 복수의 텍스트 위치 간의 맵핑을 검사하는 단계를 더 포함한다.
일부 실시예들에 따르면, 오디오 데이터 내에서 특정된 위치를 나타내는 위치 데이터를 획득하도록 구성된 위치 획득 유닛을 포함하는 전자 디바이스가 제공된다. 이 전자 디바이스는 위치 획득 유닛에 결합되는 프로세싱 유닛을 또한 포함한다. 프로세싱 유닛은, 복수의 오디오 위치 중에서 특정된 위치에 대응하는 특정한 오디오 위치를 결정하고, 또한 특정한 오디오 위치에 기반하여 복수의 텍스트 위치 중에서 특정한 오디오 위치에 대응하는 특정한 텍스트 위치를 결정하기 위해 오디오 데이터에서의 복수의 오디오 위치와 텍스트 버전의 작품에서의 대응하는 복수의 텍스트 위치 간의 맵핑을 검사하며, 미디어 플레이어가 특정한 텍스트 위치에 관한 정보를 디스플레이하게 야기하도록 구성된다.
일부 실시예들에 따르면, 작품의 오디오 버전의 재생 동안에 오디오 버전 내에서 특정된 위치를 나타내는 위치 데이터를 획득하도록 구성된 위치 획득 유닛을 포함하는 전자 디바이스가 제공된다. 이 전자 디바이스는, 위치 획득 유닛에 결합되는 프로세싱 유닛을 또한 포함하는데, 이 프로세싱 유닛은, 작품의 오디오 버전의 재생 동안에, 특정된 위치에 기반하여 텍스트 버전의 작품에 반영되는 제1 페이지의 끝을 나타내는 페이지 끝 데이터와 연관되는 특정한 텍스트 위치를 텍스트 버전의 작품에서 결정하고; 특정한 텍스트 위치가 페이지 끝 데이터와 연관된다고 결정하는 것에 응답하여, 제1 페이지가 디스플레이되는 것을 중지시키도록 자동으로 야기하고 또한 제1 페이지에 후속하는 제2 페이지가 디스플레이되도록 야기하도록 구성된다.
일부 실시예들에 따르면, 작품의 제1 버전이 프로세싱되는 동안, 사용자로부터의 입력에 기초하는 주석 데이터를 획득하는 단계; 상기 작품과 상기 주석 데이터를 연관시키는 연관 데이터를 저장하는 단계; 및 상기 작품의 제2 버전이 프로세싱되는 동안, 상기 주석 데이터에 관한 정보가 디스플레이되게 하는 단계를 포함하는 방법이 제공되며, 상기 제2 버전은 상기 제1 버전과 상이하고, 상기 방법은 하나 이상의 컴퓨팅 디바이스에 의해 수행된다.
일부 실시예들에서, 획득하는 단계는 상기 작품의 상기 제1 버전 내의 특정된 위치를 나타내는 위치 데이터를 결정하는 단계를 포함하고; 저장하는 단계는 상기 작품과 연관하여 상기 위치 데이터를 저장하는 단계를 포함하고; 상기 특정된 위치는 상기 작품의 제2 버전 내의 특정 위치에 대응하고; 디스플레이되게 하는 단계는, 상기 주석 데이터에 관한 정보가 상기 제2 버전 내의 상기 특정 위치와 연관하여 디스플레이되게 하는 단계를 포함한다.
일부 실시예들에서, 상기 제1 버전은 상기 작품의 오디오 버전이고, 상기 제2 버전은 상기 작품의 텍스트 버전이며; 상기 주석 데이터에 관한 정보가 디스플레이되게 하는 단계는, 상기 특정 위치에 대응하는 상기 작품의 텍스트 버전의 일부분이 디스플레이될 때를 결정하는 단계; 및 상기 특정 위치에 대응하는 상기 작품의 텍스트 버전의 일부분이 디스플레이된다고 결정한 것에 응답하여, 상기 주석 데이터에 관한 정보가 디스플레이되게 하는 단계를 포함한다. 일부 실시예들에서, 상기 제1 버전은 상기 작품의 텍스트 버전이고, 상기 제2 버전은 상기 작품의 오디오 버전이며; 상기 주석 데이터에 관한 정보가 디스플레이되게 하는 단계는, 상기 특정 위치에 대응하는 상기 작품의 오디오 버전의 일부분이 플레이될 때를 결정하는 단계; 및 상기 특정 위치에 대응하는 상기 작품의 텍스트 버전의 일부분이 플레이된다고 결정한 것에 응답하여, 상기 주석 데이터에 관한 정보가 디스플레이되게 하는 단계를 포함한다.
일부 실시예들에서, 상기 주석 데이터는 텍스트 데이터를 포함하고; 상기 주석 데이터에 관한 정보가 디스플레이되게 하는 단계는 상기 텍스트 데이터가 디스플레이되게 하는 단계를 포함한다. 일부 실시예들에서, 상기 주석 데이터는 음성 데이터를 포함하고; 상기 주석 데이터에 관한 정보가 디스플레이되게 하는 단계는 상기 음성 데이터가 오디오를 생성하도록 처리되게 하는 단계를 포함한다.
일부 실시예들에 따르면, 작품의 제1 버전이 프로세싱되는 동안, 사용자로부터의 입력에 기초하는 주석 데이터를 획득하도록 구성되는 주석 획득 유닛; 및 상기 주석 획득 유닛과 연관 데이터 저장 유닛에 연결되는 프로세싱 유닛을 포함하는 전자 디바이스가 제공되고, 상기 프로세싱 유닛은, 상기 작품과 상기 주석 데이터를 연관시키는 연관 데이터가 저장되게 하고; 상기 작품의 제2 버전이 프로세싱되는 동안, 상기 주석 데이터에 관한 정보가 디스플레이되게 하도록 구성되고, 상기 제2 버전은 상기 제1 버전과 상이하다.
일부 실시예들에 따르면, 작품의 제1 버전 내에 제1 북마크를 구축하는 데이터를 수신하는 단계를 포함하는 방법이 제공된다. 이 방법은, 상기 작품의 상기 제1 버전 내의 복수의 제1 위치들과 상기 작품의 제2 버전 내의 대응하는 복수의 제2 위치들 사이의 맵핑을 검사하여: 상기 복수의 제1 위치들 중에서 상기 제1 북마크에 대응하는 특정 제1 위치를 결정하고, 상기 특정 제1 위치에 기초하여, 상기 복수의 제2 위치들 중에서 상기 특정 제1 위치에 대응하는 특정 제2 위치를 결정하는 단계를 더 포함하고, 상기 작품의 상기 제1 버전은 상기 작품의 상기 제2 버전과 상이하다. 이 방법은, 상기 작품의 상기 제2 버전 내의 제2 북마크로서 상기 특정 제2 위치를 구축하는 데이터가 저장되게 하는 단계를 더 포함하고, 상기 방법은 하나 이상의 컴퓨팅 디바이스에 의해 수행된다.
일부 실시예들에서, 수신하는 단계는 서버가 네트워크를 통해 제1 디바이스로부터 입력을 수신하는 단계를 포함하고; 검사하는 단계는 상기 서버에 의해 수행되고; 저장되게 하는 단계는 상기 서버가 제2 디바이스에 상기 특정 제2 위치를 전송하는 단계를 포함한다. 일부 실시예들에서, 상기 제1 디바이스와 상기 제2 디바이스는 상이한 디바이스들이다. 일부 실시예들에서, 상기 작품의 상기 제1 버전은 상기 작품의 오디오 버전 또는 상기 작품의 텍스트 버전 중 하나이고, 상기 작품의 상기 제2 버전은 상기 오디오 버전 또는 상기 텍스트 버전 중 다른 하나이다.
일부 실시예들에 따르면, 작품의 제1 버전 내에 제1 북마크를 구축하는 데이터를 수신하도록 구성된 데이터 수신 유닛을 포함하는 전자 디바이스가 제공된다. 전자 디바이스는 또한 상기 데이터 수신 유닛에 연결된 프로세싱 유닛을 포함하고, 상기 프로세싱 유닛은, 상기 작품의 상기 제1 버전 내의 복수의 제1 위치들과 상기 작품의 제2 버전 내의 대응하는 복수의 제2 위치들 사이의 맵핑을 검사하여: 상기 복수의 제1 위치들 중에서 상기 제1 북마크에 대응하는 특정 제1 위치를 결정하고, 상기 특정 제1 위치에 기초하여, 상기 복수의 제2 위치들 중에서 상기 특정 제1 위치에 대응하는 특정 제2 위치를 결정하도록 구성되고, 상기 작품의 상기 제1 버전은 상기 작품의 상기 제2 버전과 상이하다. 상기 프로세싱 유닛은 또한 상기 작품의 상기 제2 버전 내의 제2 북마크로서 상기 특정 제2 위치를 구축하는 데이터가 저장되게 하도록 구성된다.
일부 실시예들에 따르면, 작품의 텍스트의 일부분이 디바이스에 의해 디스플레이되게 하는 단계; 상기 텍스트의 일부분이 디스플레이되는 동안: 상기 디바이스에서, 사용자로부터 오디오 입력을 수신하는 단계를 포함하는 방법이 제공된다. 이 방법은 또한 상기 오디오 입력을 수신하는 것에 응답하여: 상기 오디오 입력을 분석하여 하나 이상의 단어들을 식별하는 단계; 상기 하나 이상의 단어들이 상기 텍스트의 일부분에 반영되어 있는지를 결정하는 단계; 및 상기 하나 이상의 단어들이 상기 텍스트의 일부분에 반영되어 있다고 결정한 것에 응답하여, 시각적 표시가 상기 디바이스에 의해 디스플레이되게 하는 단계를 포함한다. 일부 실시예들에서, 상기 시각적 표시가 디스플레이되게 하는 단계는, 상기 하나 이상의 단어들에 대응하는 텍스트 데이터가 강조 표시되게 하는 단계를 포함한다.
일부 실시예들에 따르면, 작품의 텍스트의 일부분이 디바이스에 의해 디스플레이되게 하도록 구성되는 프로세싱 유닛; 및 상기 프로세싱 유닛에 연결되고, 상기 디바이스에서, 사용자로부터 오디오 입력을 수신하도록 구성되는 오디오 수신 유닛을 포함하는 전자 디바이스가 제공된다. 상기 프로세싱 유닛은 또한 상기 오디오 수신 유닛에서 상기 오디오 입력을 수신하는 것에 응답하여: 상기 오디오 입력을 분석하여 하나 이상의 단어들을 식별하고; 상기 하나 이상의 단어들이 상기 텍스트의 일부분에 반영되어 있는지를 결정하고; 상기 하나 이상의 단어들이 상기 텍스트의 일부분에 반영되어 있다고 결정한 것에 응답하여, 시각적 표시가 상기 디바이스에 의해 디스플레이되게 하도록 구성된다.
일부 실시예들에 따르면, 컴퓨터 판독가능 저장 매체가 제공되는데, 이 컴퓨터 판독가능 저장 매체는 전자 디바이스의 하나 이상의 프로세서에 의해 실행되는 하나 이상의 프로그램을 저장하며, 이 하나 이상의 프로그램은 전술한 방법들 중 어느 하나를 수행하기 위한 명령어들을 포함한다. 일부 실시예들에 따르면, 전술한 방법들 중 어느 하나를 수행하기 위한 수단을 포함하는 전자 디바이스가 제공된다. 일부 실시예들에서는, 하나 이상의 프로세서, 및 하나 이상의 프로세서에 의해 실행되는 하나 이상의 프로그램을 저장하는 메모리를 포함하는 전자 디바이스가 제공되며, 하나 이상의 프로그램은 전술한 방법들 중 어느 하나를 수행하기 위한 명령어들을 포함한다. 일부 실시예들에서는, 전자 디바이스에서 이용하기 위한 정보 프로세싱 장치가 제공되는데, 이 정보 프로세싱 장치는 전술한 방법들 중 어느 하나를 수행하기 위한 수단을 포함한다.
본 섹션에 설명된 접근법은, 추구될 수 있지만, 반드시 이전에 인식되거나 추구되어야 하는 것은 아닌 접근법이다. 따라서, 달리 지시되지 않는다면, 본 섹션에서 설명되는 어떠한 접근법들도 본 섹션에서의 단지 포괄에 의해 종래 기술로서 한정하는 것으로 가정되어서는 안 된다.
도 1은 본 발명의 일 실시예에 따라, 텍스트 데이터와 오디오 데이터 간의 맵핑을 자동으로 생성하기 위한 프로세스를 도시하는 흐름도.
도 2는 본 발명의 일 실시예에 따라, 텍스트 데이터와 오디오 데이터 간의 맵핑 생성시 오디오-텍스트 상관자를 수반하는 프로세스를 도시하는 블록도.
도 3은 본 발명의 일 실시예에 따라, 이러한 시나리오들 중 하나 이상에서 맵핑을 이용하기 위한 프로세스를 도시하는 흐름도.
도 4는 본 발명의 일 실시예에 따라, 본 명세서에서 설명된 프로세스들 중 몇몇을 구현하는데 이용될 수 있는 예시적인 시스템(400)을 도시하는 블록도.
도 5a 및 도 5b는 본 발명의 일 실시예에 따라, 북마크 스위칭을 위한 프로세스들을 도시하는 흐름도.
도 6은 본 발명의 일 실시예에 따라, 작품의 오디오 버전이 재생되면서 텍스트 버전의 작품으로부터 텍스트가 강조 표시되도록 야기하기 위한 프로세스를 도시하는 흐름도.
도 7은 본 발명의 일 실시예에 따라, 사용자로부터의 오디오 입력에 응답하여 디스플레이된 텍스트를 강조 표시하는 프로세스를 도시하는 흐름도.
도 8a 및 도 8b는 본 발명의 일 실시예에 따라, 하나의 미디어 컨텍스트로부터 다른 미디어 컨텍스트로 주석을 전달하기 위한 프로세스들을 도시하는 흐름도.
도 9는 본 발명의 일 실시예가 구현될 수 있는 컴퓨터 시스템을 나타내는 블록도.
도 10 내지 도 18은 몇몇 실시예들에 따른 전자 디바이스들의 기능 블록도.
도 2는 본 발명의 일 실시예에 따라, 텍스트 데이터와 오디오 데이터 간의 맵핑 생성시 오디오-텍스트 상관자를 수반하는 프로세스를 도시하는 블록도.
도 3은 본 발명의 일 실시예에 따라, 이러한 시나리오들 중 하나 이상에서 맵핑을 이용하기 위한 프로세스를 도시하는 흐름도.
도 4는 본 발명의 일 실시예에 따라, 본 명세서에서 설명된 프로세스들 중 몇몇을 구현하는데 이용될 수 있는 예시적인 시스템(400)을 도시하는 블록도.
도 5a 및 도 5b는 본 발명의 일 실시예에 따라, 북마크 스위칭을 위한 프로세스들을 도시하는 흐름도.
도 6은 본 발명의 일 실시예에 따라, 작품의 오디오 버전이 재생되면서 텍스트 버전의 작품으로부터 텍스트가 강조 표시되도록 야기하기 위한 프로세스를 도시하는 흐름도.
도 7은 본 발명의 일 실시예에 따라, 사용자로부터의 오디오 입력에 응답하여 디스플레이된 텍스트를 강조 표시하는 프로세스를 도시하는 흐름도.
도 8a 및 도 8b는 본 발명의 일 실시예에 따라, 하나의 미디어 컨텍스트로부터 다른 미디어 컨텍스트로 주석을 전달하기 위한 프로세스들을 도시하는 흐름도.
도 9는 본 발명의 일 실시예가 구현될 수 있는 컴퓨터 시스템을 나타내는 블록도.
도 10 내지 도 18은 몇몇 실시예들에 따른 전자 디바이스들의 기능 블록도.
다음 기재에서, 설명을 위해, 본 발명의 완전한 이해를 제공하도록 다수의 특정 상세가 개시된다. 그러나, 본 발명은 이들 특정 상세 없이도 실시될 수 있다는 것은 자명하다. 다른 예에서, 공지의 구조 및 장치들은 본 발명을 불필요하게 모호하게 하는 것을 피하기 위해 블록도 형태로 도시된다.
오디오-텍스트
맵핑의
자동 생성의 개요
하나의 접근법에 따르면, 맵핑이 자동으로 생성되고, 여기서 맵핑은 오디오 버전의 작품(예컨대, 오디오 북)내의 위치들을 텍스트 버전의 작품(예컨대, 전자책)내의 대응하는 위치에 맵핑한다. 오디오 버전내에 반영된 단어를 식별하기 위해 오디오 버전상에서 음성-텍스트 분석을 수행하여 맵핑이 생성된다. 식별된 워드들은 텍스트 버전의 작품의 대응하는 단어들과 매칭된다. 맵핑은 식별된 단어들의 (오디오 버전내의) 위치들을 텍스트 버전의 작품내의 위치들과 연관시키고, 여기서 식별된 단어들이 발견된다.
오디오 버전 포맷들
오디오 데이터는, 책, 웹 페이지, 팜플렛, 전단지(flyer) 등과 같은 텍스트 버전의 작품의 텍스트의 오디오 리딩을 반영한다. 오디오 데이터는 하나 이상의 오디오 파일에 저장될 수 있다. 하나 이상의 오디오 파일은 다수의 파일 포맷 중 하나가 될 수 있다. 오디오 파일 포맷의 비-제한적 예들은 AAC, MP3, WAV, 및 PCM을 포함한다.
텍스트 버전 포맷들
유사하게, 오디오 데이터가 맵핑되는 텍스트 데이터는 다수의 문서 파일 포맷 중 하나에 저장될 수 있다. 문서 파일 포맷의 비-제한적 예들은 DOC, TXT, PDF, RTF, HTML, XHTML 및 EPUB를 포함한다.
전형적인 EPUB 문서는, (a) 각각의 XHTML 컨텐츠 문서를 열거하고, (b) XHTML 컨텐츠 문서의 순서를 나타내는 파일을 수반한다. 예컨대, 책이 20 챕터들을 포함하면, 다음에 그 책에 대한 EPUB 문서는, 각 챕터 마다 하나씩, 20개의 상이한 XHTML 문서를 가질 수 있다. EPUB 문서를 수반하는 파일은 책 내의 챕터들의 순서에 대응하는 XHTML 문서들의 순서를 식별한다. 따라서, 하나의 (논리적) 문서(EPUB 문서 또는 다른 타입의 문서이든지)는 복수의 데이터 아이템 또는 파일을 포함할 수 있다.
텍스트 데이터 내에 반영된 단어 또는 문자는 하나 또는 복수의 언어들이 될 수 있다. 예컨대, 텍스트 데이터의 일부분은 영어가 될 수 있고, 텍스트 데이터의 다른 부분은 불어가 될 수 있다. 영어 단어들의 예들이 여기에 제공됨에도 불구하고, 본 발명의 실시예는 문자-기반 언어를 포함하는 다른 언어들에도 적용될 수 있다.
맵핑
내의 오디오 및 텍스트 위치들
여기 개시된 바와 같이, 맵핑은 한 세트의 맵핑 기록들을 포함하고, 여기서 각각의 맵핑 기록은 오디오 위치를 텍스트 위치와 관련시킨다.
각각의 오디오 위치는 오디오 데이터 내의 위치를 식별한다. 오디오 위치는 오디오 데이터 내의 절대 위치, 오디오 데이터 내의 상대 위치, 또는 절대 위치와 상대 위치의 조합을 표시할 수 있다. 절대 위치의 일례로서, 오디오 위치는 오디오 데이터로의 시간 오프셋(예컨대, 4시간 32분 24초를 나타내는 04:32:24), 또는 전술한 예 A에 나타난 바와 같은 시간 범위를 표시할 수 있다. 상대 위치의 일례로서, 오디오 위치는 챕터 번호, 문단 번호, 및 라인 번호를 표시할 수 있다. 절대 위치 및 상대 위치의 조합의 일례로서, 오디오 위치는 챕터 번호와 챕터 번호에 의해 표시되는 챕터에서의 시간 오프셋을 표시할 수 있다.
유사하게, 각각의 텍스트 위치는 텍스트 버전의 작품과 같은 텍스트 데이터 내의 위치를 식별한다. 텍스트 위치는 텍스트 버전의 작품 내의 절대 위치, 텍스트 버전의 작품 내의 상대 위치, 또는 절대 위치와 상대 위치의 조합을 표시할 수 있다. 절대 위치의 일례로서, 텍스트 위치는 텍스트 버전의 작품으로의 바이트 오프셋 및/또는 텍스트 버전의 작품 내의 "앵커"를 표시할 수 있다. 앵커는 텍스트의 특정 위치 또는 부분을 식별하는 텍스트 데이터 내의 메타데이터이다. 앵커는 엔드-사용자에게 디스플레이되는 텍스트 데이터 내의 텍스트로부터 별개로 저장될 수 있거나, 또는 엔드-사용자에게 디스플레이되는 텍스트 중에 저장될 수 있다. 예컨대, 텍스트 데이터는 다음 문장들을 포함할 수 있다: "Why did the chicken <i name = "123"/>cross the road?" 여기서 "<i name="123"/>"은 앵커이다. 문장이 사용자에게 디스플레이되면, 사용자는 단지 "Why did the chicken cross the road?" 만을 보게된다. 유사하게, 동일한 문장은 다음과 같은 복수의 앵커들을 가질 수 있다: "<i name="123"/>Why <i name="124"/>did <i name="125"/>the <i name="126"/>chicken <i name="127"/>cross <i name="128"/>the <i name="129"/>road?" 이 예에서, 문장내의 각각의 단어 앞에 앵커가 존재한다.
상대 위치의 일례로서, 텍스트 위치는 페이지 번호, 챕터 번호, 문단 번호, 및/또는 라인 번호를 표시할 수 있다. 절대 위치 및 상대 위치의 조합의 일례로서, 텍스트 위치는 챕터 번호 및 챕터 번호에 의해 표시되는 챕터에서의 앵커를 표시할 수 있다.
텍스트 위치 및 오디오 위치를 나타내는 방법의 일례가 "EPUB Media Overlays 3.0"이란 명칭의 명세서 내에 제공되며, 이것은 SMIL(Synchronized Multimedia Integration Language), EPUB 스타일 시트, 및 EPUB 컨텐츠 문서의 사용을 정의한다. 텍스트 위치를 오디오 위치와 연관시키고 명세서 내에 제공되는 연관의 일례는 다음과 같다.
예시 A
예시 A에서, "par" 구성요소는 두 개의 자녀 구성요소를 포함한다: "text" 구성요소 및 "audio" 구성요소. 텍스트 구성요소는 책의 제1 챕터로부터의 컨텐츠를 포함하는 XHTML 문서 내의 특정 문장을 식별하는 속성(attribute) "src"를 포함한다. 오디오 구성요소는, 책의 제1 챕터의 오디오 버전을 포함하는 오디오 파일을 식별하는 "src" 속성, 오디오 파일 내의 오디오 클립이 시작하는 위치를 식별하는 "clipBegin" 속성, 및 오디오 파일 내의 오디오 클립이 종료하는 위치를 식별하는 "clipEnd" 속성을 포함한다. 따라서, 오디오 파일 내의 23 내지 45초가 책의 챕터 1 내의 제1 문장에 대응한다.
텍스트와 오디오 간의
맵핑
생성
실시예에 따르면, 텍스트 버전의 작품과 동일한 작품의 오디오 버전 간의 맵핑이 자동적으로 생성된다. 맵핑이 자동적으로 생성되기 때문에, 맵핑은 수동 텍스트-오디오 맵핑 기술들을 실질적으로 이용했을 때보다 훨씬 더 양호한 입도를 이용할 수 있다. 각각 자동적으로 생성된 텍스트-오디오 맵핑은 각각 텍스트 버전에서의 텍스트 위치와 오디오 버전에서의 오디오 위치를 연관시키는 여러 맵핑 기록을 포함한다.
도 1은 본 발명의 실시예에 따라 텍스트 버전의 작품과 동일한 작품의 오디오 버전 간의 맵핑을 자동적으로 생성하는 프로세스(100)를 묘사하는 흐름도이다. 단계 110에서, 음성-텍스트 분석기(speech-to-text analyzer)가 작품의 오디오 버전을 반영하는 오디오 데이터를 수신한다. 단계 120에서, 음성-텍스트 분석기가 오디오 데이터의 분석을 수행하면서, 음성-텍스트 분석기는 오디오 데이터의 부분에 대해 텍스트를 생성한다. 단계 130에서, 오디오 데이터의 부분들에 대해 생성된 텍스트에 기초하여, 음성-텍스트 분석기가 작품의 오디오 데이터 내의 복수의 오디오 위치와 텍스트 버전 내의 대응하는 복수의 텍스트 위치 간의 맵핑을 생성한다.
단계 130은 음성-텍스트 분석기가, 텍스트 버전의 작품 내에서 생성된 텍스트가 위치된 곳을 결정하도록, 생성된 텍스트를 텍스트 버전의 작품에서의 텍스트와 비교하는 단계를 수반할 수 있다. 텍스트 버전의 작품에서 발견되는 생성된 텍스트의 각각의 부분에 대해, 음성-텍스트 분석기는 오디오 데이터 내에서 대응하는 오디오 데이터의 부분이 발견되는 곳을 지시하는 오디오 위치(1)와 텍스트 버전의 작품 내에서 텍스트의 부분이 발견되는 곳을 지시하는 텍스트 위치(2)와 연관한다.
텍스트
컨텍스트
모든 문서는 "텍스트 컨텍스트(textual context)"를 가진다. 텍스트 버전의 작품의 텍스트 컨텍스트는 텍스트 버전의 작품의 내재적 특성들(예를 들어, 텍스트 버전의 작품이 쓰여진 언어, 텍스트 버전의 작품이 이용하는 특정 단어들, 텍스트 버전의 작품이 이용하는 문법 및 구두점(punctuation), 텍스트 버전의 작품이 구성되는 방식 등) 및 작품의 외재적 특성들(예를 들어, 작품이 생성되었던 연대, 작품이 속하는 장르, 작품의 저자 등)을 포함한다.
다른 작품들은 상당히 다른 텍스트 컨텍스트들을 가질 수 있다. 예를 들어, 고전 영어 소설에서 이용되는 문법은 현대 시의 문법과 크게 다를 수 있다. 따라서, 특정 단어 순서가 한 문법의 규칙을 따를 수는 있지만, 동일한 어순이 다른 문법의 규칙은 위반할 수 있다. 유사하게, 고전 영어 소설과 현대 시 모두에서 이용되는 문법은 십대들이 서로 주고받는 텍스트 메시지에서 채택되는 문법(또는 문법의 결여)과 다를 수 있다.
앞에서 언급한 바와 같이, 여기서 기술된 하나의 기술은 작품의 오디오 버전의 음성-텍스트 변환을 수행함으로써 작품의 오디오 버전과 동일한 텍스트 버전의 작품 간의 양호한 입도 맵핑을 자동으로 생성한다. 일 실시예에서, 작품의 텍스트 컨텍스트는 작품의 오디오 버전상에서 수행되는 음성-텍스트 분석의 정확도를 향상시키기 위해 이용된다. 예를 들어, 작품에서 채택된 문법을 결정하기 위해, 음성-텍스트 분석기는(또는 다른 프로세스는) 음성-텍스트 분석을 수행하기 전에 텍스트 버전의 작품을 분석할 수 있다. 음성-텍스트 분석기는 그러면 문법 정보를 이용할 수 있어서 그에 따라 작품의 오디오 버전의 음성-텍스트 분석의 정확성이 향상된다.
텍스트 버전의 작품에 기초하여 작품의 문법을 자동적으로 결정하는 것 대신에 또는 이것에 추가로, 사용자는 작품의 저자가 따르는 하나 이상의 문법의 규칙을 식별하는 입력을 제공할 수 있다. 식별된 문법과 연관된 규칙들은 작품의 오디오 버전에서의 단어들을 인식하는 데에 분석기를 돕기 위한 음성-텍스트 분석기로의 입력이다.
텍스트 버전에 기초하여 후보 사전을 제한
전형적으로, 음성-텍스트 분석기들은 영어로 된 사실상(virtually) 모든 단어 및 선택적으로는 다른 언어들로 된 몇몇 단어를 인식하도록 구성되거나 설계되어야만 한다. 따라서, 음성-텍스트 분석기들은 큰 단어 사전에 액세스해야만 한다. 음성-텍스트 분석기가 음성-텍스트 동작 동안에 단어들을 선택하는 사전은 여기서 음성-텍스트 분석기의 "후보 사전(candidate dictionary)"이라고 한다. 전형적인 후보 사전에서의 고유(unique) 단어들의 수는 약 500,000이다.
일 실시예에서, 텍스트 버전의 작품으로부터의 텍스트는 작품의 오디오 버전의 음성-텍스트 분석을 수행할 때에 고려된다. 구체적으로, 일 실시예에서, 작품의 오디오 버전의 음성-텍스트 분석 동안에, 음성-텍스트 분석기에 의해 이용되는 후보 사전은 텍스트 버전의 작품에 있는 단어들의 특정 세트로 제한된다. 다시 말하면, 작품의 오디오 버전상에서 수행되는 음성-텍스트 동작 동안에 "후보들"로 고려되는 단어들은 텍스트 버전의 작품에서 실제로 나타나는 그 단어들이다.
특정 작품의 음성-텍스트(speech-to-text) 변환에 사용되는 후보 사전을 텍스트 버전의 작품(textual version)에 나타나는 단어들로 제한함으로써 음성-텍스트 동작은 현저하게 개선될 수 있다. 예를 들어, 특정 작품에서 고유한 단어들의 수가 20,000개라고 가정한다. 종래의 음성-텍스트 분석기는 오디오의 특정 부분이 대응하는 부분을 500,000 단어의 후보 사전 중 어떤 특정한 단어로 결정할지 어려움을 가질 수 있다. 그러나, 텍스트 버전의 작품에 있는 오직 20,000개의 고유한 단어들이 고려되는 경우, 오디오의 동일한 부분은 명백하게 하나의 특정 단어에 대응할 수 있다. 따라서, 가능한 단어들에 대한 보다 작은 사전을 이용하여, 음성-텍스트 분석기의 정확도가 현저하게 개선될 수 있다.
현재 위치에 기초하여 후보 사전을 제한
정확성을 개선하기 위해, 텍스트 버전의 작품에서의 모든 단어들보다 훨씬 적은 단어들로 후보 사전이 제한될 수 있다. 일 실시예에서, 후보 사전은 텍스트 버전의 작품의 특정 부분에서 발견된 이러한 단어들로 제한된다. 예를 들어, 작품의 음성-텍스트 변환 동안에, 텍스트 버전의 작품에 대한 변환 동작의 "현재 변환 위치"를 대략적으로 추적하는 것이 가능하다. 예를 들어, 그러한 추적은 (a)지금까지 음성-텍스트 동작 동안에 생성된 텍스트를 (b)텍스트 버전의 작품과 비교함으로써 수행될 수 있다.
현재의 변환 위치가 결정되면, 후보 사전은 현재의 변환 위치에 기초하여 더 제한될 수 있다. 예를 들어, 일 실시예에서, 후보 사전은 현재의 변환 위치 이후의, 텍스트 버전의 작품 내에서 나타나는 그러한 단어들로만 제한된다. 따라서, 현재의 변환 위치 이후가 아닌, 현재의 변환 위치 이전에 발견된 단어들은 후보 사전으로부터 효과적으로 제거된다. 더 작은 후보 사전일수록, 음성-텍스트 분석기가 오디오 데이터의 일부를 잘못된 단어로 변환할 가능성이 적기 때문에, 그러한 제거는 음성-텍스트 분석기의 정확성을 증가시킬 수 있다.
다른 예로서, 음성-텍스트 분석 이전에, 오디오 북 및 디지털 북은 다수의 세그먼트 또는 섹션으로 분할될 수 있다. 오디오 북은 오디오 섹션 맵핑과 연관될 수 있고, 디지털 북은 텍스트 섹션 맵핑과 연관될 수 있다. 예를 들어, 오디오 섹션 맵핑과 텍스트 섹션 맵핑은 각각의 챕터가 시작하거나 종료하는 곳을 식별할 수 있다. 이들 각각의 맵핑들은 음성-텍스트 분석기에 의해 사용되어 후보 사전을 제한할 수 있다. 예를 들어, 음성-텍스트 분석기가, 오디오 섹션 맵핑에 기초하여, 음성-텍스트 분석기가 오디오 북의 4번째 챕터를 분석중임을 판정하면, 음성-텍스트 분석기는 텍스트 섹션 맵핑을 이용하여 디지털 북의 4번째 챕터를 식별하고 4번째 챕터에서 발견된 단어들로 후보 사전을 제한한다.
관련 실시예에서, 음성-텍스트 분석기는 현재의 변환 위치가 이동함에 따라 이동하는 슬라이딩 윈도우를 이용한다. 음성-텍스트 분석기가 오디오 데이터를 분석중일 때, 음성-텍스트 분석기는 작품의 테스트 버전을 "가로질러" 슬라이딩 윈도우를 이동시킨다. 슬라이딩 윈도우는 텍스트 버전의 작품 내의 2개의 위치를 나타낸다. 예를 들어, 슬라이딩 윈도우의 경계들은 (a) 현재의 변환 위치에 선행하는 단락의 시작 및 (b) 현재의 변환 위치 이후의 세 번째 단락의 종료일 수 있다. 후보 사전은 이들 2개의 위치들 사이에 나타나는 이러한 단어들만으로 한정된다.
특정 예가 전술되었으나, 윈도우는 텍스트 버전의 작품 내의 임의의 양의 텍스트를 스팬(span)할 수 있다. 예를 들어, 윈도우는 60개의 문자와 같이 절대적 양의 텍스트를 스팬할 수 있다. 다른 예에서는, 윈도우는 10개의 단어들, 텍스트의 3개의 "라인들", 2개의 문장들, 또는 텍스트의 1 "페이지"와 같이 상대적 양의 텍스트를 텍스트 버전의 작품으로부터 스팬할 수 있다. 상대적 양의 시나리오에서, 음성-텍스트 분석기는 텍스트 버전의 작품의 얼마나 많은 부분이 라인 또는 페이지를 이루는지를 판정하기 위해 텍스트 버전의 작품 내에서 포맷팅 데이터를 사용할 수 있다. 예를 들어, 텍스트 버전의 작품은 페이지 표시자(예를 들어, HTML 또는 XML 태그의 형식으로)를 포함할 수 있고, 이 페이지 표시자는 텍스트 버전의 작품의 컨텐츠 내에서 페이지의 시작 또는 페이지의 종료를 나타낸다.
실시예에서, 윈도우의 시작은 현재의 변환 위치에 대응한다. 예를 들어, 음성-텍스트 분석기는 텍스트 버전의 작품에서 가장 최근에 매칭된 단어를 나타내는 현재의 텍스트 위치를 유지하고, 오디오 데이터에서 가장 최근에 식별된 단어를 나타내는 현재의 오디오 위치를 유지한다. 화자(narrator)(화자의 음성이 오디오 데이터에 반영)가 녹음 중에, 텍스트 버전의 작품을 잘못 읽고, 그/그녀 자신의 컨텐츠를 부가하거나, 텍스트 버전의 작품의 일부분들을 건너뛰지 않는 한, 음성-텍스트 분석기가 오디오 데이터에서 검출하는 다음 단어(즉, 현재의 오디오 위치 이후)는 텍스트 버전의 작품에서 다음 단어일 가능성이 매우 높다(즉, 현재의 텍스트 위치 이후). 위치들 모두를 유지하는 것은 음성-텍스트 변환의 정확성을 현저하게 증가시킬 수 있다.
오디오-오디오 상관을 이용하는
맵핑
생성
실시예에서, 텍스트-음성 생성기 및 오디오-텍스트 상관기가 이용되어 오디오 버전의 작품과 텍스트 버전의 작품 간의 맵핑을 자동적으로 생성한다. 도 2는 맵핑을 생성하기 위해 이용된 데이터 및 이러한 분석기들을 도시하는 블록도이다. (EPUB 문서와 같은) 텍스트 버전의 작품(210)이 텍스트-음성 생성기(220)에 입력된다. 텍스트-음성 생성기(220)는 소프트웨어, 하드웨어, 또는 하드웨어 및 소프트웨어의 조합으로 구현될 수 있다. 소프트웨어로 구현되든 또는 하드웨어로 구현되든, 텍스트-음성 생성기(220)는 단일의 컴퓨팅 디바이스 상에 구현될 수 있거나, 다수의 컴퓨팅 디바이스들 간에 분산될 수 있다.
텍스트-음성 생성기(220)는 문서(210)에 기초하여 오디오 데이터(230)를 생성한다. 오디오 데이터(230)의 생성 중에, 텍스트-음성 생성기(220)(또는 다른 도시되지 않은 컴포넌트)는 오디오-문서 맵핑(240)을 생성한다. 오디오-문서 맵핑(240)은 문서(210) 내의 다수의 텍스트 위치를 생성된 오디오 데이터(230) 내의 대응하는 오디오 위치들로 맵핑한다.
예를 들어, 텍스트-음성 생성기(220)는 문서(210) 내의 위치 Y에 위치된 단어에 대한 오디오 데이터를 생성한다고 가정한다. 또한, 작품에 대해 생성된 오디오 데이터가 오디오 데이터(230) 내의 위치 X에 위치된다고 가정한다. 문서(210) 내의 단어의 위치와 오디오 데이터(230)의 대응하는 오디오의 위치 사이의 상관을 반영하기 위해, 위치 X와 위치 Y 사이에 맵핑이 생성된다.
텍스트-음성 생성기(220)는 오디오의 대응하는 단어 또는 구문(phrase)이 생성되는 경우, 문서(210)에서 단어 또는 어구가 나타나는 곳을 알고 있으므로, 대응하는 단어들 또는 구문들 간의 각각의 맵핑이 쉽게 생성될 수 있다.
오디오-텍스트 상관기(260)는, 입력으로서, 생성된 오디오 데이터(230), 오디오 북(250), 및 오디오-문서 맵핑(240)을 받아들인다. 오디오-텍스트 상관기(260)는 2개의 주요 단계들을 수행하는데, 오디오-오디오 상관 단계 및 룩업(look-up) 단계이다. 오디오-오디오 상관 단계에서, 오디오-텍스트 상관기(260)는 생성된 오디오 데이터(230)와 오디오 북(250)을 비교하여 오디오 데이터(230)의 부분들과 오디오 북(250)의 부분들 간의 상관을 판정한다. 예를 들어, 오디오-텍스트 상관기(260)는, 오디오 데이터(230)에서 표현된 각각의 단어에 대해 오디오 북(250)의 대응하는 단어의 위치를 판정할 수 있다.
상관을 구축하기 위해, 오디오 데이터(230)가 분할되는 입도(granularity)는 구현마다 변화할 수 있다. 예를 들어, 오디오 데이터(230) 내의 각각의 단어와 오디오 북(250) 내의 각각의 대응하는 단어 사이에 상관이 구축될 수 있다. 대안으로, 고정 지속시간의 시간 간격들(예를 들어, 오디오의 매 1분마다 1개의 맵핑)에 기초하여 상관이 구축될 수 있다. 또 다른 대안으로, 단락 또는 챕터 경계들, 상당한 일시정지(pause)들(예를 들어, 3초보다 긴 무음(silence)), 또는 오디오 북(250) 내의 오디오 마커들과 같은 오디오 북(250) 내의 데이터에 기초한 다른 위치들 등의 다른 기준에 기초하여 구축된 오디오의 부분들에 대해 상관이 구축될 수 있다.
오디오 데이터(230)의 일부분과 오디오 북(250)의 일부분 사이의 상관이 식별된 후에, 오디오-텍스트 상관기(260)는 오디오-문서 맵핑(240)을 사용하여 생성된 오디오 데이터(230) 내의 오디오 위치에 대응하는 (맵핑(240)으로 표시된) 텍스트 위치를 식별한다. 다음으로, 오디오-텍스트 상관기(260)는 텍스트 위치를 오디오 북(250) 내의 오디오 위치와 연관시켜 문서-오디오 맵핑(270) 내에 맵핑 기록을 생성한다.
예를 들어, (위치 Z에 위치하는) 오디오 북(250)의 일부분이 위치 X에 위치하는 생성된 오디오 데이터(230)의 일부분과 매칭된다고 가정한다. 위치 X를 문서(210) 내의 위치 Y에 상관시키는 (오디오-문서 맵핑(240)에서의) 맵핑 기록에 기초하여, 오디오 북(250)의 위치 Z와 문서(210) 내의 위치 Y를 상관시키는 문서-오디오 맵핑(270)의 맵핑 기록이 생성될 수 있다.
*오디오 텍스트 상관기(260)는 오디오 데이터(230)의 각각의 부분에 대해 오디오-오디오 상관 및 룩업 단계들을 반복적으로 수행한다. 따라서, 문서-오디오 맵핑(270)은 복수의 맵핑 기록을 포함하고, 각각의 맵핑 기록은 문서(210) 내의 위치를 오디오 북(250) 내의 위치로 맵핑한다.
실시예에서, 오디오 데이터(230)의 각각의 부분에 대한 오디오-오디오 상관은 오디오의 그 부분에 대한 룩업 단계에 바로 후속한다. 따라서, 오디오 데이터(230)의 다음 부분으로 진행하기 전에 오디오 데이터(230)의 각각의 부분에 대해 문서-오디오 맵핑(270)이 생성될 수 있다. 대안으로, 임의의 룩업 단계가 수행되기 전에 오디오 데이터(230)의 부분들 모두 또는 오디오 데이터(230)의 다수의 부분들에 대해 오디오-오디오 상관 단계가 수행될 수 있다. 오대오-오디오 상관들 모두가 구축된 후에, 모든 부분들에 대한 룩업 단계들이 일괄적으로 수행될 수 있다.
맵핑
입도
맵핑은 다수의 속성들을 가지며, 속성들 중 하나는 맵핑의 크기이고, 맵핑의 크기는 맵핑에서 맵핑 기록들의 수를 지칭한다. 맵핑의 다른 속성은 맵핑의 "입도"이다. 맵핑의 "입도"는 디지털 작품의 크기에 대한 맵핑에서의 맵핑 기록들의 수를 지칭한다. 따라서, 맵핑의 입도는 디지털 작품마다 변화할 수 있다. 예를 들어, 200 "페이지들"을 포함하는 디지털 북에 대한 제1 맵핑은 디지털 북의 각각의 단락에 대하여만 맵핑 기록을 포함한다. 따라서, 제1 맵핑은 1000개의 맵핑 기록들을 포함할 수 있다. 반면에, 20페이지들을 포함하는 디지털 "아동용" 북에 대한 제2 맵핑은 아동용 북의 각각의 단어에 대한 맵핑 기록을 포함한다. 따라서, 제2 맵핑은 800개의 맵핑 기록들을 포함할 수 있다. 제1 맵핑이 제2 맵핑보다 더 많은 맵핑 기록들을 포함하지만, 제2 맵핑의 입도는 제1 맵핑의 입도보다 미세하다.
실시예에서, 맵핑의 입도는 맵핑을 생성하는 음성-텍스트 분석기로의 입력에 기초하여 지시될 수 있다. 예를 들어, 사용자는 음성-텍스트 분석기가 맵핑을 생성하도록 하기 전에 특정한 입도를 지정할 수 있다. 특정한 입도들의 비제한적인 예시들은 다음을 포함한다:
- 단어 입도 (즉, 각각의 단어에 대한 연관)
- 문장 입도 (즉, 각각의 문장에 대한 연관)
- 단락 입도 (즉, 각각의 단락에 대한 연관)
- 10 단어 입도 (즉, 디지털 작품에서 각각의 10 단어 부분에 대한 맵핑) 및
- 10초 입도 (즉, 오디오의 각 10초 동안의 맵핑).
다른 예시로서, 사용자는 디지털 작품(예를 들어, 소설, 아동용 북, 단편 소설)의 유형을 특정할 수 있고, 음성-텍스트 분석기(또는 다른 프로세스)는 작품의 유형에 기초하여 입도를 결정한다. 예를 들어, 아동용 북은 단어 입도와 연관될 수 있는 한편, 소설은 문장 입도와 연관될 수 있다.
맵핑의 입도는 동일한 디지털 작품 내에서도 변화할 수 있다. 예를 들어, 디지털 북의 처음 3개의 챕터들에 대한 맵핑은 문장 입도를 가질 수 있는 한편, 디지털 북의 나머지 챕터들에 대한 맵핑은 단어 입도를 갖는다.
텍스트-오디오 변환들 중에 온 더 플라이(
on
-
the
-
fly
)
맵핑
생성
다수의 경우들에서, 사용자가 임의의 것에 의존하는 것을 필요로 하기 전에 오디오-텍스트 맵핑이 생성될 것이지만, 일 실시예에서, 오디오-텍스트 맵핑은 실행 시간에서 또는 사용자가 사용자 디바이스의 오디오 데이터 및/또는 텍스트 데이터의 소비를 개시한 후에 생성된다. 예를 들어, 사용자는 태블릿 컴퓨터를 이용하여 디지털 북의 텍스트 버전을 읽는다. 태블릿 컴퓨터는 태블릿 컴퓨터가 사용자에게 디스플레이한 디지털 북의 최근 페이지 또는 섹션에 대한 추적을 계속한다. 최근 페이지 또는 섹션은 "텍스트 북마크"에 의해 식별된다.
이후, 사용자는 동일한 작품의 오디오 북 버전을 재생하는 것을 선택한다. 재생 디바이스는 사용자가 디지털 북 또는 다른 디바이스를 읽고 있었던 동일한 태블릿 컴퓨터일 수 있다. 오디오 북이 재생되는 디바이스에 무관하게, 텍스트 북마크가 검색되고, 오디오 북의 적어도 일부분에 관한 음성-텍스트 분석이 수행된다. 음성-텍스트 분석 중에, 생성된 텍스트와 오디오 북 내의 대응하는 위치들 사이의 상관을 구축하기 위해 "일시적인" 맵핑 기록들이 생성된다.
텍스트 및 상관 기록들이 일단 생성되면, 텍스트-텍스트 비교를 이용하여 텍스트 북마크에 대응하는 생성된 텍스트를 결정한다. 다음으로, 일시적인 맵핑 기록들을 사용하여 텍스트 북마크에 대응하는 생성된 텍스트의 일부분에 대응하는 오디오 북의 일부분을 식별한다. 다음으로, 그 부분으로부터 오디오 북의 재생이 개시된다.
음성-텍스트 분석이 수행되는 오디오 북의 부분은 텍스트 북마크에 대응하는 부분으로 제한될 수 있다. 예컨대, 오디오 북의 특정 부분들이 어디서 시작되고 그리고/또는 끝나는지를 나타내는 오디오 섹션 맵핑이 이미 존재할 수 있다. 예컨대, 오디오 섹션 맵핑은 각각의 챕터가 어디서 시작하는지, 하나 이상의 페이지들이 어디서 시작하는지 등을 나타낼 수 있다. 그러한 오디오 섹션 맵핑은 오디오 북 전체에 대한 음석-텍스트 분석이 수행될 필요가 없도록, 음성-텍스트 분석을 어디에서 시작할지를 결정하는 데 유용할 수 있다. 예컨대, 텍스트 북마크가 디지털 북의 12 챕터 내의 위치를 나타내고, 오디오 데이터와 연관되는 오디오 섹션 맵핑이 오디오 데이터 내의 어디에서 12 챕터가 시작되는지를 식별한다면, 음성-텍스트 분석은 오디오 북의 처음 11개의 챕터들 중 어디에서도 수행될 필요가 없다. 예컨대, 오디오 데이터는 각각의 챕터에 대해 하나의 오디오 파일을 갖는 20개의 오디오 파일들로 구성될 수 있다. 따라서, 12번째 챕터에 대응하는 단 하나의 오디오 파일만이 음성-텍스트 분석기에 입력된다.
음성-텍스트 변환 동안의 온-더-플라이
맵핑
생성
음성-텍스트 변환들 뿐 아니라 텍스트-음성 변환들을 용이하게 하기 위해 맵핑 기록들이 온-더-플라이로 생성될 수 있다. 예컨대, 사용자가 스마트폰을 사용하여 오디오 북을 청취하고 있다고 가정한다. 스마트폰은 재생되고 있는 오디오 북 내의 현재의 위치를 계속 추적한다. 현재 위치는 "오디오 북마크"에 의해 식별된다. 이후, 사용자는 태블릿 컴퓨터를 들고 오디오 북의 디지털 북 버전이 표시되도록 선택한다. 태블릿 컴퓨터는 (예컨대, 태블릿 컴퓨터 및 스마트폰에 대해 원격인 중앙 서버로부터) 오디오 북마크를 수신하고, 오디오 북의 적어도 일부의 음성-텍스트 분석을 수행하고, 오디오 북마크에 대응하는 오디오 북의 텍스트 버전 내의 텍스트의 일부에 대응하는 부분을 오디오 북 내에서 식별한다. 그 후, 태블릿 컴퓨터는 텍스트 버전 내의 식별된 부분을 디스플레이하기 시작한다.
음성-텍스트 분석이 수행되는 오디오 북의 부분은 오디오 북마크에 대응하는 부분으로 제한될 수 있다. 예컨대, 음성-텍스트 분석은 오디오 북 내의 오디오 북마크 이전의 하나 이상의 시간 세그먼트(예컨대, 초)들 및/또는 오디오 북 내의 오디오 북마크 이후의 하나 이상의 시간 세그먼트들을 스팬하는 오디오 북의 일부에 대해 수행된다. 생성된 텍스트의 일련의 단어들 또는 구문들이 텍스트 버전의 텍스트와 어디에서 일치하는지를 알아내기 위해 그 부분에 대한 음성-텍스트 분석에 의해 생성된 텍스트를 텍스트 버전 내의 텍스트와 비교한다.
*텍스트 버전의 특정 부분들이 어디에서 시작되는지 또는 종료되는지를 나타내는 텍스트 섹션 맵핑이 존재하고, 오디오 북마크가 텍스트 섹션 맵핑 내의 섹션을 식별하는 데 이용될 수 있다면, 생성된 텍스트 내의 일련의 단어들 또는 구문들이 텍스트 버전 내의 텍스트와 어디에서 일치하는지를 알아내기 위해 텍스트 버전의 대부분이 분석될 필요가 없다. 예컨대, 오디오 북마크가 오디오 북의 제3 챕터 내의 위치를 나타내고, 디지털 북과 연관되는 텍스트 섹션 맵핑이 텍스트 버전 내의 제3 챕터가 시작되는 위치를 식별한다면, 음성-텍스트 분석은 오디오 북의 처음 두 챕터들 중 어느 챕터에 대하여도 수행될 필요가 없으며, 오디오 북의 제3 챕터 이후의 어느 챕터들에 대하여도 수행될 필요가 없다.
오디오-텍스트
맵핑
이용의 개요
일 방법에 따르면, 디지털 텍스트 버전의 작품(예컨대, 전자책) 내의 위치들에 대응하는 디지털 오디오 버전의 작품(예컨대, 오디오 북) 내의 위치들을 식별하기 위해 (수동으로 생성되었든 또는 자동으로 생성되었든) 맵핑이 이용된다. 예컨대, 맵핑은 오디오 북 내에 구축된 "북마크"에 기초하여 전자책 내의 위치를 식별하기 위해 사용될 수 있다. 다른 예로서, 음성 녹음이 재생되고 있을 때, 표시된 어떤 텍스트가 그 텍스트를 읽는 사람의 음성 녹음에 대응하는지를 식별하고, 식별된 텍스트가 강조 표시되도록 하기 위해 맵핑이 이용될 수 있다. 따라서, 오디오 북이 재생되는 동안, 전자책 리더(reader)의 사용자는 전자책 리더가 대응하는 텍스트를 강조 표시하는 것을 따라갈 수 있다. 다른 예로서, 맵핑은 오디오 데이터 내의 위치를 식별하고, 전자책으로부터 디스플레이되는 텍스트를 선택하는 입력에 응답하여 그 위치에서 오디오를 재생하도록 사용될 수 있다. 따라서, 사용자는 전자책 내의 단어를 선택할 수 있으며, 이 선택은 그 단어에 대응하는 오디오가 재생되도록 한다. 다른 예로서, 사용자는 디지털 작품의 한 버전(예컨대, 전자책)을 "소비하는" (예컨대, 읽거나 청취하는) 동안 주석을 생성하고, 사용자가 디지털 작품의 다른 버전(예컨대, 오디오 북)을 소비하는 동안 그 주석이 소비되도록 할 수 있다. 따라서, 사용자는 전자책의 "페이지" 상에 주석을 달 수 있으며, 전자책의 오디오 북을 청취하는 동안 그 주석들을 볼 수 있다. 유사하게, 사용자는 오디오 북을 청취하는 동안 주석을 만들고, 대응하는 전자책을 읽을 때 그 주석을 볼 수도 있다.
도 3은 본 발명의 실시예에 따른, 하나 이상의 이러한 시나리오들에서 맵핑을 사용하기 위한 프로세스를 예시하는 흐름도이다.
단계 310에서, 제1 미디어 아이템 내의 특정된 위치를 나타내는 위치 데이터가 취득된다. 제1 미디어 아이템은 텍스트 버전의 작품, 또는 텍스트 버전의 작품에 대응하는 오디오 데이터일 수 있다. 이 단계는 제1 미디어 아이템을 소비하는 (사용자에 의해 작동되는) 디바이스에 의해 수행될 수 있다. 대안적으로, 그 단계는 제1 미디어 아이템을 소비하는 디바이스에 대해 원격으로 위치하는 서버에 의해 수행될 수 있다. 따라서, 디바이스는 통신 프로토콜을 사용하여 네트워크를 통해 위치 데이터를 서버에 전송한다.
단계 320에서, 특정된 위치에 대응하는 제1 미디어 위치를 식별하기 위해 맵핑이 검사된다. 유사하게, 이 단계는 제1 미디어 아이템을 소비하는 디바이스에 의해 수행되거나, 디바이스에 대해 원격으로 위치하는 서버에 의해 수행될 수 있다.
단계 330에서, 제1 미디어 위치에 대응하고 맵핑 내에 표시되는 제2 미디어 위치가 결정된다. 예컨대, 특정된 위치가 오디오 "북마크"라면, 제1 미디어 위치는 맵핑에서 표시되는 오디오 위치이고 제2 미디어 위치는 맵핑 내의 오디오 위치와 연관되는 텍스트 위치이다. 유사하게, 예를 들어, 특정된 위치가 텍스트 "북마크"라면, 제1 미디어 위치는 맵핑에서 표시되는 텍스트 위치이고 제2 미디어 위치는 맵핑 내의 텍스트 위치와 연관되는 오디오 위치이다.
단계 340에서, 제2 미디어 위치에 기초하여 제2 미디어 아이템이 처리된다. 예컨대, 제2 미디어 아이템이 오디오 데이터라면, 제2 미디어 위치는 오디오 위치이며, 오디오 데이터 내의 현재 재생 위치로서 사용된다. 다른 예로서, 제2 미디어 아이템이 텍스트 버전의 작품이라면, 제2 미디어 위치는 텍스트 위치이며, 텍스트 버전의 작품의 어떤 부분을 디스플레이할지를 결정하는 데 이용된다.
특정 시나리오들에서 프로세스(300)를 사용하는 예들이 아래에 제공된다.
아키텍처 개요
상기 언급되고 아래에서 상세하게 기술되는 각각의 예시적인 시나리오들은 하나 이상의 컴퓨팅 디바이스들을 포함할 수 있다. 도 4는 본 발명의 일 실시예에 따라 본 명세서에서 기술되는 프로세스들의 일부를 구현하기 위해 사용될 수 있는 예시적인 시스템(400)의 블록도이다. 시스템(400)은 최종-사용자 디바이스(410), 중개 디바이스(420), 및 최종-사용자 디바이스(430)를 포함한다. 최종-사용자 디바이스들(410 및 430)의 제한되지 않는 예들은 데스크탑 컴퓨터들, 랩탑 컴퓨터들, 스마트폰들, 테블릿 컴퓨터들, 및 다른 휴대용 컴퓨팅 디바이스들을 포함한다.
도 4에 도시된 바와 같이, 디바이스(410)는 디지털 미디어 아이템(402)을 저장하고 텍스트 미디어 플레이어(412) 및 오디오 미디어 플레이어(414)를 실행한다. 텍스트 미디어 플레이어(412)는 전자 텍스트 데이터를 처리하고 디바이스(410)가 (예를 들면, 도시되지 않은, 디바이스(410)의 터치 스크린 상에) 텍스트를 디스플레이하게 하도록 구성된다. 따라서, 만일 디지털 미디어 아이템(402)이 전자책이면, 디지털 미디어 아이템(402)이 텍스트 미디어 플레이어(412)가 처리하도록 구성된 텍스트 포맷을 가지는 한, 텍스트 미디어 플레이어(412)는 디지털 미디어 아이템(402)을 처리하도록 구성될 수 있다. 디바이스(410)는 비디오와 같은 다른 유형들의 미디어를 처리하도록 구성된 (도시되지 않은) 하나 이상의 다른 미디어 플레이어들을 실행할 수 있다.
유사하게, 오디오 미디어 플레이어(414)는 오디오 데이터를 처리하고 디바이스(410)가 (예를 들면, 도시되지 않은, 디바이스(410) 상의 스티커들을 통하여) 오디오를 생성하게 하도록 구성된다. 따라서, 만일 디지털 미디어 아이템(402)이 오디오 북이면, 디지털 미디어 아이템(402)이 오디오 미디어 플레이어(414)가 처리하도록 구성된 오디오 포맷을 가지는 한, 오디오 미디어 플레이어(414)는 디지털 미디어 아이템(402)을 처리하도록 구성될 수 있다. 아이템(402)이 전자책이든지 아니면 오디오 북이든지, 아이템(402)은 오디오 파일들이든 텍스트 파일들이든 복수의 파일들을 포함할 수 있다.
디바이스(430)는 디지털 미디어 아이템(404)을 마찬가지로 저장하고, 오디오 데이터를 처리하고 디바이스(430)가 오디오를 생성하게 하도록 구성된 오디오 미디어 플레이어(432)를 실행한다. 디바이스(430)는 비디오 및 텍스트와 같은 다른 유형들의 미디어를 처리하도록 구성된 (도시되지 않은) 하나 이상의 다른 미디어 플레이어들을 실행할 수 있다.
중개 디바이스(420)는 오디오 데이터 내의 오디오 위치들을 텍스트 데이터 내의 텍스트 위치에 맵핑하는 맵핑(406)을 저장한다. 예를 들면, 맵핑(406)은 디지털 미디어 아이템(404) 내의 오디오 위치들을 디지털 미디어 아이템(402) 내의 텍스트 위치들에 맵핑할 수 있다. 비록 도 4에 도시되지 않았지만, 중개 디바이스(420)는, 하나의 맵핑이 각각 대응하는 오디오 데이터 및 텍스트 데이터 세트에 대한 것인 다수의 맵핑들을 저장할 수 있다. 또한, 중개 디바이스(420)는 도시되지 않은 다수의 최종-사용자 디바이스들과 상호작용할 수 있다.
또한, 중개 디바이스(420)는 사용자들이 그들의 각자의 디바이스들을 통하여 액세스할 수 있는 디지털 미디어 아이템들을 저장할 수 있다. 따라서, 디지털 미디어 아이템의 로컬 복사본을 저장하는 대신에, 디바이스(예를 들면, 디바이스(430))는 중개 디바이스(420)로부터의 디지털 미디어 아이템을 요구할 수 있다.
추가로, 중개 디바이스(420)는 사용자의 하나 이상의 디바이스들을 단일의 계정에 연관시키는 계정 데이터를 저장할 수 있다. 따라서, 그러한 계정 데이터는 디바이스들(410 및 430)이 동일한 계정 아래 동일한 사용자에 의해 등록된다는 것을 나타낼 수 있다. 중개 디바이스(420)는 또한 계정을 특정의 사용자에 의해 소유된 (또는 구매된) 하나 이상의 디지털 미디어 아이템들과 연관시키는 계정-아이템 연관 데이터를 저장할 수 있다. 따라서, 중개 디바이스(420)는 계정-아이템 연관 데이터가 디바이스(430)와 특정의 디지털 미디어 아이템이 동일한 계정에 연관된다는 것을 나타내는지 여부를 결정함으로써, 디바이스(430)가 특정의 디지털 미디어 아이템을 액세스할 수 있다는 것을 확인할 수 있다.
비록 단지 두 개의 최종-사용자 디바이스들이 도시되지만, 최종-사용자는 전자책들 및 오디오 북들과 같은 디지털 미디어 아이템들을 소비하는 다소간의 디바이스들을 소유하고 작동할 수 있다. 유사하게, 비록 단지 하나의 중개 디바이스(420)가 도시되지만, 중개 디바이스(420)를 소유하고 동작하는 엔티티는 각각이 동일한 서비스를 제공하거나 최종-사용자 디바이스들(410 및 430)의 사용자들에게 서비스를 제공하도록 함께 동작할 수 있는 복수의 디바이스들을 동작할 수 있다.
중개 디바이스(420)와 최종-사용자 디바이스들(410 및 430) 사이의 통신은 네트워크(440)를 통하여 가능하게 된다. 네트워크(440)는 다양한 컴퓨팅 디바이스들 사이의 데이터의 교환을 제공하는 임의의 매체 또는 메커니즘에 의해 구현될 수 있다. 그러한 네트워크의 예들은, 제한됨이 없이, 구내 정보 통신망(LAN), 광역 통신망(WAN), 이더넷 또는 인터넷, 또는 하나 이상의 지상, 위성, 또는 무선 링크들과 같은 네트워크를 포함한다. 네트워크는 상기 기술된 것들과 같은 네트워크들의 조합을 포함할 수 있다. 네트워크는 전송 컨트롤 프로토콜(TCP), 사용자 다이어그램 프로토콜(UDP), 및/또는 인터넷 프로토콜(IP)에 따라서 데이터를 송신할 수 있다.
맵핑의
저장 위치
맵핑은 그 맵핑이 생성된 텍스트 데이터 및 오디오 데이터와는 분리하여 저장될 수 있다. 예를 들면, 도 4에 도시된 바와 같이, 비록 맵핑(406)은 다른 디지털 미디어 아이템에서의 미디어 위치에 기초하여 하나의 디지털 미디어 아이템에서 미디어 위치를 식별하는데 사용될 수 있지만 맵핑(406)은 디지털 미디어 아이템들(402 및 404)로부터 분리하여 저장된다. 사실, 맵핑(406)은 디지털 미디어 아이템들(402 및 404)을 각자 저장하는 디바이스들(410 및 430)보다는 분리된 컴퓨팅 디바이스(중개 디바이스(420))에 저장된다.
추가로 또는 대안적으로, 맵핑은 대응하는 텍스트 데이터의 부분으로서 저장될 수 있다. 예를 들면, 맵핑(406)은 디지털 미디어 아이템(402)에 저장될 수 있다. 하지만, 비록 맵핑이 텍스트 데이터의 부분으로서 저장되더라도, 맵핑은 텍스트 데이터를 소비하는 최종-사용자에게 디스플레이되지 않을 수 있다. 또한 추가로 또는 대안적으로, 맵핑은 오디오 데이터의 부분으로서 저장될 수 있다. 예를 들면, 맵핑(406)은 디지털 미디어 아이템(404)에 저장될 수 있다.
북마크 스위칭
"북마크 스위칭"은 디지털 작품의 하나의 버전 내의 특정한 위치(즉 "북마크")를 설정하고 북마크를 사용하여 디지털 작품의 다른 버전 내에서 대응하는 위치를 찾는 것을 지칭한다. 두 가지의 유형의 북마크 스위칭: 텍스트-오디오(TA) 북마크 스위칭과 오디오-텍스트(AT) 북마크 스위칭이 있다. TA 북마크 스위칭은 전자책에 설정된 텍스트 북마크를 사용하여 오디오 북에서 대응하는 오디오 위치를 식별하는 것을 수반한다. 역으로, 본 명세서에서 AT 북마크 스위칭으로 지칭되는 다른 유형의 북마크 스위칭은 오디오 북에 설정된 오디오 북마크를 사용하여 전자책 내에서 대응하는 텍스트 위치를 식별하는 것을 수반한다.
텍스트 오디오 북마크 스위칭
도 5a는 본 발명의 일 실시예에 따른 TA 북마크 스위칭을 위한 프로세스(500)를 도시하는 흐름도이다. 도 5a는 도 4에 도시된 시스템(400)의 구성 요소들을 사용하여 설명된다.
단계 502에서, 텍스트 미디어 플레이어(412)(예를 들면, e-리더)는 디지털 미디어 아이템(402)(예를 들면, 디지털 북) 내의 텍스트 북마크를 결정한다. 디바이스(410)는 디지털 미디어 아이템(402)으로부터의 컨텐츠를 디바이스(410)의 사용자에게 디스플레이한다.
텍스트 북마크는 사용자로부터의 입력에 응답하여 결정될 수 있다. 예를 들면, 사용자는 디바이스(410)의 터치 스크린 상의 영역을 터치할 수 있다. 그 영역에 있는 또는 그 영역 근처의, 디바이스(410)의 디스플레이는 하나 이상의 단어를 디스플레이한다. 입력에 응답하여, 텍스트 미디어 플레이어(412)는 영역에 가장 가까이 있는 하나 이상의 단어를 결정한다. 텍스트 미디어 플레이어(412)는 결정된 하나 이상의 단어에 기초하여 텍스트 북마크를 결정한다.
대안적으로, 텍스트 북마크는 사용자에게 디스플레이되었던 마지막 텍스트 데이터에 기초하여 결정될 수 있다. 예를 들면, 디지털 미디어 아이템(402)은 200 전자 "페이지들"을 포함할 수 있고 페이지 110은 디스플레이되었던 마지막 페이지였다. 텍스트 미디어 플레이어(412)는 페이지 110이 디스플레이되었던 마지막 페이지였다고 결정한다. 텍스트 미디어 플레이어(412)는 페이지 110을 텍스트 북마크로서 설정할 수 있거나 또는 페이지 110의 시작 부분에 있는 지점을 텍스트 북마크로서 설정할 수 있는데, 그 이유는 사용자가 읽기를 멈춘 부분을 알 어떠한 방법도 없을 수 있기 때문이다. 사용자가 적어도 페이지 109 상의 마지막 문장을 읽었다고 가정하는 것이 안전할 수 있는데, 이는 문장이 페이지 109 상에서 끝날 수 있거나 또는 페이지 110 상에서 끝날 수 있기 때문이다. 따라서, 텍스트 미디어 플레이어(412)는 (페이지 110 상에서 시작하는) 다음 문장의 시작 부분을 텍스트 북마크로서 설정할 수 있다. 그러나, 맵핑의 입도(granularity)가 단락 레벨에 있는 경우, 텍스트 미디어 플레이어(412)는 페이지 109 상의 마지막 단락의 시작 부분을 설정할 수 있다. 마찬가지로, 맵핑의 입도가 문장 레벨에 있는 경우, 텍스트 미디어 플레이어(412)는 페이지 110을 포함하는 챕터의 시작 부분을 텍스트 북마크로서 설정할 수 있다.
단계 504에서, 텍스트 미디어 플레이어(412)는 네트워크(440)를 통해 중개 디바이스(420)에 텍스트 북마크를 나타내는 데이터를 보낸다. 중개 디바이스(420)는 디바이스(410) 및/또는 디바이스(410)의 사용자의 계정과 연관된 텍스트 북마크를 저장할 수 있다. 단계 502 전에, 사용자는 중개 디바이스(420)의 오퍼레이터와 계정을 설정할 수 있다. 사용자는 그 후 디바이스(410)를 포함하는 하나 이상의 디바이스를 오퍼레이터와 등록한다. 등록은 하나 이상의 디바이스 각각이 사용자의 계정과 연관되게 한다.
하나 이상의 팩터가 텍스트 미디어 플레이어(412)로 하여금 텍스트 북마크를 중개 디바이스(420)에 보내게 할 수 있다. 그러한 팩터들은 텍스트 미디어 플레이어(412)를 나가는 것(또는 종료하는 것), 사용자에 의한 텍스트 북마크의 설정, 또는 텍스트 북마크가 설정된 작품의 텍스쳐 버전에 대응하는 오디오 북을 들을 때 이용하기 위한 텍스트 북마크를 저장하라는 사용자에 의한 명시적 명령을 포함할 수 있다.
전술한 바와 같이, 중개 디바이스(420)는, 이 예에서, 디지털 미디어 아이템(404) 내의 다수의 오디오 위치들을 디지털 미디어 아이템(402) 내의 다수의 텍스트 위치들로 맵핑하는, 맵핑(406)에 액세스(예를 들면, 저장)한다.
단계 506에서, 중개 디바이스(420)는 텍스트 북마크에 대응하는, 다수의 텍스트 위치들 중의, 특정 텍스트 위치를 결정하기 위해 맵핑(406)을 검사한다. 텍스트 북마크는 맵핑(406) 내의 다수의 텍스트 위치들 중 임의의 것을 정확히 일치시키지 못할 수 있다. 그러나, 중개 디바이스(420)는 텍스트 북마크에 가장 가까운 텍스트 위치를 선택할 수 있다. 대안적으로, 중개 디바이스(420)는 텍스트 북마크 바로 전에 있는 텍스트 위치를 선택할 수 있고, 텍스트 위치는 텍스트 북마크에 가장 가까운 텍스트 위치일 수도 있고 또는 아닐 수도 있다. 예를 들면, 텍스트 북마크가 5번째 챕터, 3번째 단락, 5번째 문장을 나타내고, 맵핑(406) 내의 가장 가까운 텍스트 위치들이 (1) 5번째 챕터, 3번째 단락, 1번째 문장, 및 (2) 5번째 챕터, 3번째 단락, 6번째 문장이면, 텍스트 위치(1)가 선택된다.
단계 508에서, 일단 맵핑 내의 특정 텍스트 위치가 식별되면, 중개 디바이스(420)는 특정 텍스트 위치에 대응하는, 맵핑(406) 내의, 특정 오디오 위치를 결정한다.
단계 510에서, 중개 디바이스(420)는, 이 예에서, 디바이스(410)와는 다른, 디바이스(430)에 특정 오디오 위치를 보낸다. 예를 들면, 디바이스(410)는 태블릿 컴퓨터일 수 있고, 디바이스(430)는 스마트폰일 수 있다. 관련된 실시예들에서, 디바이스(430)는 수반되지 않는다. 따라서, 중개 디바이스(420)는 특정 오디오 위치를 디바이스(410)에 보낼 것이다.
단계 510는 자동적으로, 즉, 중개 디바이스(420)가 특정 오디오 위치를 결정하는 것에 응답하여 수행될 것이다. 대안적으로, 스탭(510) 또는 단계 506은, 디바이스(430)가 디지털 미디어 아이템(404)을 처리하는 것에 관한 것이라는 것을 나타내는 표시를, 디바이스(430)로부터, 수신하는 것에 응답하여 수행될 수 있다. 표시는 텍스트 북마크에 대응하는 오디오 위치에 대한 요청일 수 있다.
단계 512에서, 오디오 미디어 플레이어(432)는 디지털 미디어 아이템(404) 내의 오디오 데이터의 현재 재생 위치로서 특정 오디오 위치를 설정한다. 이러한 설정은 중개 디바이스(420)로부터 특정 오디오 위치를 수신하는 것에 응답하여 수행될 수 있다. 현재 재생 위치가 특정 오디오 위치가 되기 때문에, 오디오 미디어 플레이어(432)는 오디오 데이터 내의 특정 오디오 위치를 앞서는 오디오의 임의의 부분을 재생할 필요가 없다. 예를 들면, 특정 오디오 위치가 2:56:03(2시간, 56분, 3초)를 나타내면, 오디오 미디어 플레이어(432)는 오디오 데이터 내에서 그 시간을 현재 재생 위치로서 설정한다. 따라서, 디바이스(430)의 사용자가 디바이스(430) 상의 (그래픽적 또는 물리적인) "재생" 버튼을 선택하면, 오디오 미디어 플레이어(430)는 그 2:56:03 마크에서 오디오 데이터를 처리하는 것을 시작한다.
대안 실시예에서, 디바이스(410)는 맵핑(406)(또는 그의 카피)을 저장한다. 따라서, 단계 504-단계 508 대신에, 텍스트 미디어 플레이어(412)는 텍스트 북마크에 대응하는, 다수의 텍스트 위치들 중의, 특정 텍스트 위치를 결정하기 위해 맵핑(406)을 검사한다. 그 후, 텍스트 미디어 플레이어(412)는 특정 텍스트 위치에 대응하는, 맵핑(406) 내의, 특정 오디오 위치를 결정한다. 텍스트 미디어 플레이어(412)는 그 후 특정 오디오 위치가 중개 디바이스(420)에 보내지게 하여 디바이스(430)가 특정 오디오 위치를 검색하고 오디오 데이터 내의 현재 재생 위치를 특정 오디오 위치가 되도록 설정하게 할 수 있다. 텍스트 미디어 플레이어(412)는 또한 특정 텍스트 위치(또는 텍스트 북마크)가 중개 디바이스(420)에 보내지게 하여, 디바이스(410)(또는 도시되지 않은, 그외의 디바이스)가 나중에 특정 텍스트 위치를 검색하게 하여 다른 디바이스 상에서 실행하는 또 다른 텍스트 미디어 플레이어가 디지털 미디어 아이템(402)의 또 다른 카피의 일부(예를 들면, 페이지)(상기 일부는 특정 텍스트 위치에 대응함)를 디스플레이하게 할 수 있다.
또 다른 대안 실시예에서, 중개 디바이스(420) 및 디바이스(430)는 수반되지 않는다. 따라서, 단계들(504 및 510)은 수행되지 않는다. 따라서, 디바이스(410)는 단계들(506 및 508)을 포함하는, 도 5a 내의 모든 다른 단계들을 수행한다.
오디오-텍스트 북마크 스위칭
도 5b는 본 발명의 실시예에 따른 AT 북마크 스위칭을 위한 프로세스(550)를 나타내는 흐름도이다. 도 5a와 마찬가지로, 도 5b는 도 4에 도시된 시스템(400)의 요소를 이용하여 기술된다.
단계 552에서, 오디오 미디어 플레이어(432)는 디지털 미디어 아이템(404)(예를 들면, 오디오 북) 내의 오디오 북마크를 결정한다.
오디오 북마크는 사용자로부터의 입력에 응답하여 결정될 수 있다. 예를 들면, 사용자는 예를들면, 디바이스(430)의 터치 스크린 상에 디스플레이된 "정지" 버튼을 선택함으로써, 오디오 데이터의 재생을 정지할 수 있다. 오디오 미디어 플레이어(432)는 재생이 정지된 곳에 대응하는 디지털 미디어 아이템(404)의 오디오 데이터 내의 위치를 결정한다. 따라서, 오디오 북마크는 단순히 사용자가 디지털 미디어 아이템(404)으로부터 생성된 오디오를 듣기를 정지한 마지막 위치일 수 있다. 추가적으로 또는 대안적으로, 사용자는 디지털 미디어 아이템(404) 내의 특정 위치를 오디오 북마크로서 설정하기 위해 디바이스(430)의 터치 스크린 상에 하나 이상의 그래픽 버튼을 선택할 수 있다. 예를 들면, 디바이스(430)는 디지털 미디어 아이템(404)에서 오디오 데이터의 길이에 대응하는 타임라인을 디스플레이한다. 사용자는 타임라인 상의 포지션을 선택하고 오디오 북마크를 설정하기 위해 오디오 미디어 플레이어(432)에 의해 사용되는 하나 이상의 추가적인 입력들을 제공할 수 있다.
단계 554에서, 디바이스(430)는 네트워크(440)를 통해, 오디오 북마크를 나타내는 데이터를 중개 디바이스(420)에 송신한다. 중개 디바이스(420)는 디바이스(430)의 사용자의 계정 및/또는 디바이스(430)와 연관된 오디오 북마크를 저장할 수 있다. 단계 552 이전에, 사용자는 중개 디바이스(420)의 운영자와의 계정을 설정했다. 그 후 사용자는 디바이스(430)를 포함하는 하나 이상의 디바이스를 운영자에 등록한다. 등록은 하나 이상의 디바이스의 각각이 사용자의 계정과 연관되게 한다.
중개 디바이스(420)는 또한 매핑(406)에의 액세스(예를 들면, 저장하기)를 갖는다. 매핑(406)은 디지털 미디어 아이템(404)의 오디오 데이터에서의 다수의 오디오 위치들을 디지털 미디어 아이템(402)의 텍스트 데이터 내의 다수의 텍스트 위치와 매핑한다.
하나 이상의 팩터는 오디오 미디어 플레이어(432)가 오디오 북마크를 중개 디바이스(420)로 송신하게 할 수 있다. 그러한 팩터들은 오디오 미디어 플레이어(432)의 종료(또는 클로징 다운), 사용자에 의한 오디오 북마크의 설정, 또는 오디오 북마크가 설정된, 디지털 미디어 아이템(404)에 대응하는 (디지털 미디어 아이템(402)에 반영된) 텍스트 버전의 작품의 부분들을 디스플레이할 때의 사용을 위한 오디오 북마크를 저장하려는 사용자에 의한 외부 명령어를 포함할 수 있다.
단계 556에서, 중개 디바이스(420)는 오디오 북마크에 대응하는, 다수의 오디오 위치의, 특정 오디오 위치를 결정하기 위해 매핑(406)을 검사한다. 오디오 북마크는 매핑(406)에서 다수의 오디오 위치들 중 어느 것과도 정확히 매칭되지 않을 수 있다. 그러나, 중개 디바이스(420)는 오디오 북마크에 가장 가까운 오디오 위치를 선택할 수 있다. 대안적으로, 중개 다비아스(420)는 오디오 북마크 직전의 오디오 위치를 선택할 수 있고, 오디오 위치는 오디오 북마크에 가장 가까운 오디오 위치거나 그렇지 않을 수도 있다. 예를 들면, 오디오 북마크가 02:43:19(또는 2시간, 43분, 19초)를 가리키고 매핑(406)에서의 가장 가까운 오디오 위치들이 (1) 02:41:07 및 (2) 0:43:56을 가리키면, 오디오 위치(2)가 오디오 북마크에 가장 가깝더라도 오디오 위치(1)가 선택된다.
단계 558에서, 매핑에서의 특정한 오디오 위치가 식별되면, 중개 디바이스(420)는 매핑 (406)에서 특정 오디오 위치에 대응하는 특정 텍스트 위치를 결정한다.
단계 560에서, 중개 디바이스(420)는 이 예시에서는 디바이스(430)와 상이한 디바이스(410)에 특정 텍스트 위치를 송신한다. 예를 들면, 디바이스(410)는 테블릿 컴퓨터일 수 있고 디바이스(430)는 오디오 데이터를 처리하고 오디오 사운드를 생성하도록 구성된 스마트폰일 수 있다.
단계 560은 자동으로, 즉 특정 텍스트 위치를 결정하는 중개 디바이스(420)에 응답하여 수행될 수 있다. 대안적으로, 단계 560(또는 단계 556))은 디바이스(410)가 디지털 미디어 아이템(402)을 처리하려 한다는 지시를 디바이스(410)로부터 수신하는 것에 응답하여 수행될 수 있다. 지시는 오디오 북마크에 대응하는 텍스트 위치에 대한 요청일 수 있다.
단계 562에서, 텍스트 미디어 플레이어(412)는 특정 텍스트 위치에 관한 정보를 디스플레이한다. 단계 562은 중개 디바이스(420)로부터 특정 텍스트 위치를 수신하는 것에 응답하여 수행될 수 있다. 디바이스(410)는 디지털 미디어 아이템(402)에 반영된 텍스트 버전의 작품에서 특정 텍스트 위치에 선행하는 임의의 컨텐츠를 디스플레이하도록 요구되지 않는다. 예를 들면, 특정 텍스트 위치가 챕터 3, 단락 2, 문장 4를 가리키면, 디바이스(410)는 그 문장을 포함하는 페이지를 디스플레이한다. 텍스트 미디어 플레이어(412)는 마커가 디바이스(410)의 사용자에게, 페이지에서 리딩을 시작하는 곳을 시각적으로 가리키는 페이지의 특정 텍스트 위치에서 디스플레이되게 한다. 따라서, 사용자는 오디오 북에서 화자에 의해 말해지는 마지막 단어에 대응하는 위치에서 시작하는 텍스트 버전의 작품을 즉시 리딩할 수 있다.
대안적인 실시예에서, 디바이스(410)는 매핑(406)을 저장한다. 그러므로, 단계 556 - 560 대신에, 단계 554(디바이스(430)가 중개 디바이스(420)에 오디오 북마크를 가리키는 데이터를 송신함) 후에, 중개 디바이스(420)는 디바이스(410)에 오디오 북마크를 송신한다. 그 후, 텍스트 미디어 플레이어(412)는 오디오 북마크에 대응하는, 다수의 오디오 위치 중 특정 오디오 위치를 결정하기 위해 매핑(406)을 검사한다. 그 후, 텍스트 미디어 플레이어(412)는 특정 오디오 위치에 대응하는, 매핑(406)에서의 특정 텍스트 위치를 결정한다. 이러한 대안적인 프로세스는 전술한 단계 562으로 진행한다.
다른 대안적인 실시예에서, 중개 디바이스(420)는 포함되지 않는다. 따라서, 단계 554 및 560은 수행되지 않는다. 따라서, 디바이스(430)는 단계 556 및 558을 포함하는 도 5b에서의 모든 다른 단계들을 수행한다.
오디오 재생에 응답하는 텍스트의 강조 표시
실시예에서, 텍스트 버전의 작품의 부분으로터의 텍스트는 텍스트 버전의 작품에 대응하는 오디오 데이터가 재생되는 동안 강조 표시(highlighted) 또는 "발광(lit up)"한다. 전술된 바와 같이, 오디오 데이터는 텍스트 버전의 오디오 버전의 작품이고 인간 사용자에 의한, 텍스트 버전으로부터의 텍스트의 리딩을 반영할 수 있다. 본 명세서에서 사용된 바와 같이, 텍스트를 "강조 표시"하는 것은 텍스트를 동시에 디스플레이된 다른 텍스트로부터 강조 표시된 텍스트로 시각적으로 구별하는 미디어 플레이어(예를 들면, "e-리더")를 지칭한다. 텍스트를 강조 표시하는 것은 텍스트의 폰트를 바꾸는 것, 텍스트의 폰트 스타일(예를 들면, 이탤릭체, 볼드, 밑줄)을 바꾸는 것, 텍스트의 크기를 바꾸는 것, 텍스트의 색상을 바꾸는 것, 텍스트의 배경색을 바꾸는 것, 또는 텍스트와 연관된 애니메이션을 생성하는 것을 포함할 수 있다. 애니메이션의 생성의 예는 텍스트(또는 텍스트의 배경)가 깜박이거나 색상을 바꾸게 하는 것이다. 애니메이션을 생성하는 것의 다른 예는 텍스트 위로, 아래로, 또는 주위에 나타나는 그래픽을 생성하는 것이다. 예를 들면, 미디어 플레이어에 의해 재생되고 검출되는 단어 "토스터"에 응답하여, 미디어 플레이어는 디스플레이된 텍스트내의 단어 "토스터" 위에 토스터 이미지를 디스플레이한다. 애니메이션의 다른 예는 재생되는 오디오 데이터에서 그 부분이 검출될 때 텍스트의 일부를 "바운스"하는 바운싱 볼이다.
도 6은 본 발명의 일 실시예에 따라, 오디오 버전의 작품이 재생되고 있는 동안에, 텍스트 버전의 작품으로부터의 텍스트가 강조 표시되게 하기 위한 프로세스(600)를 묘사하는 흐름도이다.
단계 610에서, 오디오 버전의 오디오 데이터의 (끊임없이 변화하고 있는) 현재 재생 위치가 결정된다. 이 단계는 사용자의 디바이스 상에서 실행하는 미디어 플레이어에 의해 수행될 수 있다. 미디어 플레이어는 오디오 데이터를 처리하여 사용자를 위한 오디오를 생성한다.
단계 620에서는, 현재 재생 위치에 기초하여, 맵핑 내의 맵핑 기록이 식별된다. 현재 재생 위치는 맵핑 기록 내에서 식별된 오디오 위치와 매칭하거나 또는 거의 매칭할 수 있다.
단계 620은 미디어 플레이어가 오디오 데이터 내의 다수의 오디오 위치들을 텍스트 버전의 작품 내의 다수의 텍스트 위치들에 맵핑하는 맵핑에 대한 액세스를 가지면, 미디어 플레이어에 의해 수행될 수 있다. 대안적으로, 단계 620은 사용자의 디바이스 상에서 실행하는 다른 프로세스에 의해, 혹은 사용자의 디바이스로부터 네트워크를 통해 현재 재생 위치를 수신하는 서버에 의해 수행될 수 있다.
단계 630에서, 맵핑 기록 내에서 식별된 텍스트 위치가 식별된다.
단계 640에서, 텍스트 버전의 작품 중 텍스트 위치에 대응하는 부분이 강조 표시되게 된다. 이 단계는 미디어 플레이어에 의해, 또는 사용자의 디바이스 상에서 실행하는 다른 소프트웨어 애플리케이션에 의해 수행될 수 있다. 서버가 룩업 단계들(620과 630)을 수행하면, 단계 640은 서버가 텍스트 위치를 사용자의 디바이스로 전송하는 것을 더 수반할 수 있다. 이에 응답하여, 미디어 플레이어 또는 다른 소프트웨어 애플리케이션은 텍스트 위치를 입력으로서 받아들여, 대응하는 텍스트를 강조 표시되게 한다.
실시예에서, 미디어 플레이어에 의해 맵핑 내에서 식별된 상이한 텍스트 위치들은 상이한 유형들의 강조 표시와 연관된다. 예를 들면, 맵핑 내의 하나의 텍스트 위치는 폰트 색상이 검은색에서 붉은색으로 변경되는 것과 연관될 수 있는 한편, 맵핑 내의 또 다른 텍스트 위치는 토스터(toaster)로부터 "튀어나오는(popping)" 토스트를 보여주는 토스터 그래픽(toaster graphic)과 같은 애니메이션과 연관될 수 있다. 따라서, 맵핑 내의 각각의 맵핑 기록은 대응하는 텍스트 위치에 의해 식별된 텍스트가 어떻게 강조 표시되는지를 나타내는 "강조 표시 데이터"를 포함할 수 있다. 그러므로, 미디어 플레이어가 식별하고 강조 표시 데이터를 포함하는 맵핑 내의 각각의 맵핑 기록에 대해, 미디어 플레이어는 텍스트를 강조 표시하는 방법을 결정하기 위해 강조 표시 데이터를 사용한다. 맵핑 기록이 강조 표시 데이터를 포함하지 않으면, 미디어 플레이어는 대응하는 텍스트를 강조 표시 할 수 없다. 대안으로, 맵핑 내의 맵핑 기록이 강조 표시 데이터를 포함하지 않으면, 미디어 플레이어는 텍스트를 강조 표시 하기 위해 "디폴트(default)" 강조 표시 기술(예를 들면, 텍스트를 굵게하기)을 사용할 수 있다.
오디오 입력에 기초한 텍스트 강조 표시
도 7은 본 발명의 일 실시예에 따라, 사용자로부터의 오디오 입력에 응답하여, 디스플레이된 텍스트를 강조 표시하는 프로세스(700)를 묘사하는 흐름도이다. 이 실시예에서는, 맵핑이 요구되지 않는다. 사용자에게 동시에 디스플레이되고 있는 텍스트 버전의 작품의 부분 내의 텍스트를 강조 표시하기 위해 오디오 입력이 이용된다.
단계 710에서, 오디오 입력을 수신한다. 오디오 입력은 텍스트 버전의 작품으로부터의 텍스트를 사용자가 크게 읽는 것에 기초할 수 있다. 오디오 입력은 텍스트 버전의 부분을 디스플레이하는 디바이스에 의해 수신될 수 있다. 디바이스는 사용자로 하여금 단어, 구문, 또는 전체 문장을 큰소리로 읽도록 촉구할 수 있다. 그 촉구하는 것은 시각적일 수도 있고 청각적일 수도 있다. 시각적 촉구의 예로서, 디바이스는, 디바이스가 밑줄친 문장을 디스플레이하고 있는 동안에 또는 그 직전에, 다음의 문장: "밑줄친 텍스트를 읽어주십시오"가 디스플레이되게 할 수 있다. 오디오 촉구의 예로서, 디바이스는 컴퓨터 생성 음성으로 하여금 "밑줄친 텍스트를 읽어주십시오"를 읽게 하거나, 또는 동일한 명령을 제공하는 미리 녹음된 인간 음성이 재생되게 할 수 있다.
단계 720에서, 오디오 입력에 대해 음성-텍스트 분석을 수행하여 오디오 입력 내에 나타난 하나 이상의 단어들을 검출한다.
단계 730에서, 오디오 입력 내에 나타난 각각의 검출된 단어들에 대해, 그 검출된 단어를 특정 단어들 세트와 비교한다. 특정 단어들 세트는 컴퓨팅 디바이스(예를 들면, e-리더)에 의해 현재 디스플레이되는 모든 단어들일 수 있다. 대안으로, 특정 단어들 세트는 사용자로 하여금 읽기를 촉구하는 단어들 전체가 될 수 있다.
단계 740에서, 특정 세트 내의 단어와 매칭하는 각각의 검출된 단어에 대해, 디바이스는 그 매칭되는 단어가 강조 표시되게 할 수 있다.
프로세스(700)에 묘사된 단계들은 텍스트 버전의 작품으로부터의 텍스트를 디스플레이하는 단일 컴퓨팅 디바이스에 의해 수행될 수 있다. 대안으로, 프로세스(700)에 묘사된 단계들은 텍스트 버전으로부터의 텍스트를 디스플레이하는 컴퓨팅 디바이스와는 상이한 하나 이상의 컴퓨팅 디바이스에 의해 수행될 수 있다. 예를 들면, 단계 710에서 사용자로부터의 오디오 입력은 네트워크를 통해 사용자의 디바이스로부터 음성-텍스트 분석을 수행하는 네트워크 서버로 전송될 수 있다. 네트워크 서버는 그 후 강조 표시 데이터를 사용자의 디바이스로 전송하여 사용자의 디바이스가 적절한 텍스트를 강조 표시하게 할 수 있다.
텍스트 선택에 대한 응답으로 오디오 재생
실시예에서, 텍스트 버전의 작품의 부분들을 디스플레이하는 미디어 플레이어의 사용자는 디스플레이된 텍스트의 부분들을 선택하여, 대응하는 오디오가 재생되게 할 수 있다. 예를 들면, 디지털 북으로부터 디스플레이된 단어가 "도넛(donut)"이고 사용자가 그 단어를 (예를 들어, 해당 단어를 디스플레이하는 미디어 플레이어의 터치 스크린의 부분을 터치하는 것에 의해) 선택하면, "donut"이라는 오디오가 재생될 수 있다.
텍스트 버전의 작품 내의 텍스트 위치들을 오디오 데이터 내의 오디오 위치들로 맵핑하는 맵핑은 선택된 텍스트에 대응하는 오디오 데이터의 부분을 식별하기 위해 이용된다. 사용자는 단일의 단어, 구문, 또는 심지어 하나 이상의 문장들을 선택할 수 있다. 디스플레이된 텍스트의 부분을 선택하는 입력에 응답하여, 미디어 플레이어는 하나 이상의 텍스트 위치들을 식별할 수 있다. 예를 들면, 선택된 부분이 다수의 라인들 또는 문장들을 포함한다고 해도, 미디어 플레이어는 선택된 부분에 대응하는 단일의 텍스트 위치를 식별할 수 있다. 식별된 텍스트 위치는 선택된 부분의 시작에 대응할 수 있다. 다른 예로서, 미디어 플레이어는 선택된 부분의 시작에 대응하는 제1 텍스트 위치 및 선택된 부분의 끝에 대응하는 제2 텍스트 위치를 식별할 수 있다.
미디어 플레이어는 식별된 텍스트 위치를 이용하여 식별된 텍스트 위치에 가장 근접한 (또는 가장 근접한 선행) 텍스트 위치를 나타내는 맵핑 내의 맵핑 기록을 검색한다. 미디어 플레이어는 맵핑 기록에 표시된 오디오 위치를 이용하여, 오디오 데이터 내에서 오디오를 재생하기 위해 오디오 데이터의 처리를 시작할 지점을 식별한다. 오직 단일 텍스트 위치가 식별되면, 오디오 위치의 또는 오디오 위치 근방의 단어 또는 사운드만이 재생될 수 있다. 따라서, 단어 또는 사운드가 재생된 후에, 미디어 플레이어는 더 이상의 오디오를 재생하는 것을 멈춘다. 다른 방법으로, 미디어 플레이어는 오디오 위치에서 또는 오디오 위치 근방에서 재생하는 것을 시작하고, (a)오디오 데이터의 종료부분에 도달하거나, (b)사용자로부터 추가로 입력되거나(예를 들면, "정지" 버튼의 선택), 또는 (c)오디오 데이터 내의 미리 지정된 정지 지점(예를 들면, 진행되기 위해 추가의 입력을 필요로 하는 페이지 또는 챕터의 끝부분)이 될때까지, 오디오 위치를 뒤따라서 오디오를 재생하는 것을 중지하지 않는다.
미디어 플레이어가 선택된 부분에 기초한 2개의 텍스트 위치들을 식별하면, 2개의 오디오 위치들은 식별되어, 대응하는 오디오를 어디에서 재생하기 시작하고 어디에서 재생하는 것을 종료할지를 식별하는데 이용될 수 있다.
실시예에서, 오디오 위치에 의해 식별된 오디오 데이터는 천천히(즉, 느린 재생 속도로) 또는 오디오 데이터 내의 현재 재생 위치를 진행하지 않고 계속적으로 재생될 수 있다. 예를 들면, 태블릿 컴퓨터의 사용자가 디스플레이된 단어 "two"를 태블릿 컴퓨터의 터치 스크린을 그의 손가락으로 터치함으로써 선택하고 그 디스플레이된 단어를 계속적으로 터치하면(즉, 그의 손가락을 들어올리지 않고 그의 손가락을 다른 디스플레이된 단어로 이동하지 않음), 태블릿 컴퓨터는 단어 "twoooooooooooooooo"를 읽음으로써 나타내어진 사운드를 생성하는 대응하는 오디오를 재생한다.
유사한 실시예에서, 사용자가 미디어 플레이어의 터치 스크린 상의 디스플레이된 텍스트를 가로질러 그녀의 손가락을 드래그하는 속도는, 대응하는 오디오가 동시에 또는 유사한 속도로 재생되게 한다. 예를 들면, 사용자가 디스플레이된 단어 "donut"의 문자 "d"를 선택하고 그 다음에 그의 손가락을 표시된 단어를 가로질러 천천히 이동한다. 이러한 입력에 응답하여, 미디어 플레이어는 대응하는 오디오 데이터를 (맵핑을 이용하여) 식별하고, 사용자가 그의 손가락을 움직이는 속도와 동일한 속도로 대응하는 오디오를 재생한다. 따라서, 미디어 플레이어는 마치 텍스트 버전의 작품의 텍스트의 판독기가 단어 "donut"을 "dooooooonnnnnnuuuuuut"으로 발음하는 것처럼 사운드를 내는 오디오를 생성한다.
유사한 실시예에서, 사용자가 터치 스크린 상에 디스플레이된 단어를 "터치하는" 시간은 단어의 오디오 버전이 얼마나 빨리 또는 느리게 재생되는 지에 영향을 준다. 예를 들면, 디스플레이된 단어를 사용자의 손가락에 의해 빠르게 태핑(tap)하면 대응하는 오디오는 정상 속도로 재생되는 반면, 사용자가 선택된 단어 위에 그의 손가락을 1초 이상 내려놓고 있으면 대응하는 오디오는 정상 속도의 ½로 재생되게 한다.
사용자 주석을 전송
실시예에서, 사용자는 디지털 작품의 하나의 미디어 버전(예를 들면, 오디오)에 주석들을 생성하는 것을 시작하여, 주석들이 디지털 작품의 다른 미디어 버전(예를 들면, 텍스트)에 연관되게 한다. 따라서, 주석이 하나의 유형의 미디어의 컨텍스트에 생성될 수 있는 한편, 주석은 다른 유형의 미디어의 컨텍스트에서 활용될 수도 있다. 주석이 생성되고 활용되는 "컨텍스트(context)"는 생성 또는 활용이 발생할 때 텍스트가 디스플레이되고 있는지 또는 오디오가 재생되고 있는지를 지칭한다.
다음의 예시들은 주석이 생성되는 때에 오디오나 텍스트 위치 내의 위치를 결정하는 것을 수반하지만, 본 발명의 몇몇 실시예들은 이와 같이 제한되지는 않는다. 예를 들어, 오디오 컨텍스트에서 주석이 생성되는 때의 오디오 파일 내의 현재 재생 위치는, 텍스트 컨텍스트에서 주석을 활용하는 경우에 이용되지는 않는다. 대신에, 주석의 지시는 대응하는 텍스트 버전의 각각의 "페이지" 상에 또는 대응하는 텍스트 버전의 시작이나 끝에서 디바이스에 의해 디스플레이될 수 있다. 다른 예로서, 텍스트 컨텍스트에서 주석이 생성되는 때에 디스플레이되는 텍스트는, 오디오 컨텍스트에서 주석을 활용하는 경우에 이용되지는 않는다. 대신에, 주석의 지시는 대응하는 오디오 버전이 재생되고 있는 동안에 지속적으로 또는 대응하는 오디오 버전의 시작이나 끝에서 디바이스에 의해 디스플레이될 수 있다. 비주얼 지시에 부가적으로 또는 대안적으로, 주석의 오디오 지시가 재생될 수 있다. 예를 들어, 비프음(beep)과 오디오 트랙 모두가 들릴 수 있는 방식으로 오디오 트랙과 동시에 "비프음"이 재생된다.
도 8a 및 도 8b는 본 발명의 일 실시예에 따라 하나의 컨텍스트로부터 다른 컨텍스트로 주석을 전송하는 프로세스들을 도시하는 흐름도들이다. 상세하게는, 도 8a는 "텍스트" 컨텍스트에서 주석을 생성하며 "오디오" 컨텍스트에서 이 주석을 활용하는 프로세스(800)를 도시하는 흐름도인 한편, 도 8b는 "오디오" 컨텍스트에서 주석을 생성하며 "텍스트" 컨텍스트에서 이 주석을 활용하는 프로세스(850)를 도시하는 흐름도이다. 주석의 생성 및 활용은 동일한 컴퓨팅 디바이스(예를 들어, 디바이스(410)) 상에서 또는 별개의 컴퓨팅 디바이스들(예를 들어, 디바이스들(410 및 430)) 상에서 발생할 수 있다. 도 8a는 디바이스(410) 상에서 주석이 생성되며 활용되는 시나리오를 기술하는 한편, 도 8b는 디바이스(410) 상에서 주석이 생성되며 나중에 디바이스(430) 상에서 이 주석이 활용되는 시나리오를 기술한다.
도 8a의 단계 802에서, 디바이스(410) 상에서 실행되는 텍스트 미디어 플레이어(412)는 디지털 미디어 아이템(402)으로부터의 (예를 들어, 페이지 형태의) 텍스트가 디스플레이되게 한다.
단계 804에서, 텍스트 미디어 플레이어(412)는 디지털 미디어 아이템(402)에 반영된 저작물의 텍스트 버전 내의 텍스트 위치를 결정한다. 텍스트 위치는 결국 주석과 연관되어 저장된다. 텍스트 위치는 다수의 방식으로 결정될 수 있다. 예를 들어, 텍스트 미디어 플레이어(412)는 디스플레이된 텍스트 내의 텍스트 위치를 선택하는 입력을 수신할 수 있다. 이 입력은, 시간 기간 동안 사용자가 디바이스(410)의 (텍스트를 디스플레이하는) 터치 스크린을 터치하는 것일 수 있다. 이 입력은 특정 단어, 다수의 단어들, 페이지의 시작이나 끝, 문장의 이전이나 이후 등을 선택할 수 있다. 이 입력은, 텍스트 미디어 플레이어(412)가, 주석이 생성되며 텍스트 위치와 연관될 수 있는 "주석 생성" 모드로 변경하게 하는 버튼을 처음으로 선택하는 것을 더 포함할 수 있다.
텍스트 위치를 결정하는 다른 예로서, 텍스트 미디어 플레이어(412)는, (디지털 미디어 아이템(402)에 반영된) 저작물의 텍스트 버전의 어떤 부분이 디스플레이되고 있는지에 기초하여 자동으로 (사용자 입력 없이) 텍스트 위치를 결정한다. 예를 들어, 디바이스(410)가 저작물의 텍스트 버전의 페이지 20을 디스플레이하고 있는 경우, 주석은 페이지 20과 연관될 것이다.
단계 806에서, 텍스트 미디어 플레이어(412)는, 터치 스크린 상에 디스플레이될 수 있는 "주석 생성" 버튼을 선택하는 입력을 수신한다. 이러한 버튼은, 예를 들어 1초와 같은 시간 기간 동안 사용자가 터치 스크린을 터치하는, 텍스트 위치를 선택하는 단계 804에서의 입력에 응답하여 디스플레이될 수 있다.
단계 804가 단계 806 이전에 발생하는 것으로 도시되어 있지만, 대안적으로, "주석 생성" 버튼의 선택은 텍스트 위치의 결정 이전에 발생할 수 있다.
단계 808에서, 텍스트 미디어 플레이어(412)는 주석 데이터를 생성하는데 이용되는 입력을 수신한다. 이 입력은 (디바이스(410)의 마이크로폰으로 사용자가 말하는 것과 같은) 음성 데이터 또는 (물리적이든지 그래픽이든지 간에, 사용자가 키보드 상의 키들을 선택하는 것과 같은) 텍스트 데이터일 수 있다. 주석 데이터가 음성 데이터인 경우, 텍스트 미디어 플레이어(412)(또는 다른 프로세스)는 음성 데이터의 텍스트 버전을 생성하기 위하여 음성 데이터에 대한 음성-텍스트 분석을 수행할 수 있다.
단계 810에서, 텍스트 미디어 플레이어(412)는 텍스트 위치와 연관하여 주석 데이터를 저장한다. 텍스트 미디어 플레이어(412)는 맵핑(예를 들어, 맵핑(406)의 사본)을 이용하여, 맵핑에서, 텍스트 위치에 가장 가까운 특정 텍스트 위치를 식별한다. 그런 다음, 맵핑을 이용하여, 텍스트 미디어 플레이어는 특정 텍스트 위치에 대응하는 오디오 위치를 식별한다.
단계 810에 대안적으로, 텍스트 미디어 플레이어(412)는 네트워크(440)를 통해 중개 디바이스(420)로 주석 데이터 및 텍스트 위치를 송신한다. 이에 응답하여, 중개 디바이스(420)는 텍스트 위치와 연관하여 주석 데이터를 저장한다. 중개 디바이스(420)는 맵핑(예를 들어, 맵핑(406))을 이용하여, 맵핑(406)에서, 텍스트 위치에 가장 가까운 특정 텍스트 위치를 식별한다. 그런 다음, 맵핑(406)을 이용하여, 중개 디바이스(420)는 특정 텍스트 위치에 대응하는 오디오 위치를 식별한다. 중개 디바이스(420)는 네트워크(440)를 통해 디바이스(410)로 식별된 오디오 위치를 송신한다. 중개 디바이스(420)는, 디바이스(410)로부터의 특정 오디오 데이터와 연관된 주석들에 대한 그리고/또는 특정 오디오 데이터에 대한 요구에 응답하여 식별된 오디오 위치를 송신할 수 있다. 예를 들어, "The Tale of Two Cities"의 오디오 북 버전에 대한 요구에 응답하여, 중개 디바이스(420)는, 오디오 북과 연관된 임의의 주석 데이터가 존재하는지 여부를 판정하고, 그러한 경우 주석 데이터를 디바이스(410)로 송신한다.
단계 810은, 주석이 생성된 때를 나타내는 날짜 및/또는 시간 정보를 저장하는 단계를 더 포함할 수 있다. 이 정보는, 나중에 오디오 컨텍스트에서 주석이 활용되는 때에 디스플레이될 수 있다.
단계 812에서, 오디오 미디어 플레이어(414)는, (도시되지는 않았지만) 이 예에서 디바이스(410) 상에 저장될 수 있거나 또는 네트워크(440)를 통해 중개 디바이스(420)로부터 디바이스(410)로 스트리밍될 수 있는 디지털 미디어 아이템(404)의 오디오 데이터를 처리함으로써 오디오를 재생한다.
단계 814에서, 오디오 미디어 플레이어(414)는, 오디오 데이터에서의 현재 재생 위치가 맵핑(406)을 이용하여 단계 810에서 식별된 오디오 위치와 매칭되는지 또는 거의 매칭되는지를 결정한다. 대안적으로, 단계 812에 나타낸 바와 같이, 오디오 미디어 플레이어(414)는, 주석이 이용가능하다는 것을 나타내는 데이터가, 현재 재생 위치가 위치되는 곳에 관계없이 그리고 어떠한 오디오도 재생할 필요 없이 디스플레이되게 할 수 있다. 다시 말하면, 단계 812는 불필요하다. 예를 들어, 사용자는 오디오 미디어 플레이어(414)를 론칭하며, 오디오 미디어 플레이어(414)가 디지털 미디어 아이템(404)의 오디오 데이터를 로딩하게 할 수 있다. 오디오 미디어 플레이어(414)는, 주석 데이터가 오디오 데이터와 연관된다고 결정한다. 오디오 미디어 플레이어(414)는 오디오 데이터에 관한 정보(예를 들어, 제목, 아티스트, 장르, 길이 등)가 오디오 데이터와 연관된 어떠한 오디오도 생성하지 않고 디스플레이되게 한다. 이 정보는, 주석 데이터와 연관되는 오디오 데이터 내의 위치에 관한 정보 및 주석 데이터에 대한 레퍼런스를 포함할 수 있는데, 이 위치는 단계 810에서 식별된 오디오 위치에 대응한다.
단계 816에서, 오디오 미디어 플레이어(414)는 주석 데이터를 활용한다. 주석 데이터가 오디오 데이터인 경우에는, 주석 데이터를 활용하는 단계는, 음성 데이터를 처리하여 오디오를 생성하는 단계 또는 음성 데이터를 텍스트 데이터로 변환하며 텍스트 데이터를 디스플레이하는 단계를 수반할 수 있다. 주석 데이터가 텍스트 데이터인 경우에는, 주석 데이터를 활용하는 단계는, 예를 들어 GUI와 별개로 보이는 새로운 윈도우에 또는 재생되는 오디오 데이터의 속성들을 디스플레이하는 GUI의 측면 패널에 텍스트 데이터를 디스플레이하는 단계를 수반할 수 있다. 속성들의 비제한적인 예로는, 오디오 데이터의 시간 길이, 오디오 데이터 내의 절대 위치(예를 들어, 시간 오프셋) 또는 오디오 데이터 내의 상대 위치(예를 들어, 챕터나 섹션 번호)를 나타낼 수 있는 현재 재생 위치, 오디오 데이터의 파형, 및 디지털 저작물의 제목이 포함된다.
도 8b는 전술한 바와 같이 주석이 디바이스(430) 상에서 생성되며 나중에 디바이스(410) 상에서 활용되는 시나리오를 기술한다.
단계 852에서, 오디오 미디어 플레이어(432)는 디지털 미디어 아이템(404)으로부터의 오디오 데이터를 처리하여, 오디오를 재생한다.
단계 854에서, 오디오 미디어 플레이어(432)는 오디오 데이터 내의 오디오 위치를 결정한다. 오디오 위치는 결국 주석과 연관되어 저장된다. 오디오 위치는 다수의 방식으로 결정될 수 있다. 예를 들어, 오디오 미디어 플레이어(432)는 오디오 데이터 내의 오디오 위치를 선택하는 입력을 수신할 수 있다. 이 입력은, 시간 기간 동안 사용자가 디바이스(430)의 (오디오 데이터의 속성들을 디스플레이하는) 터치 스크린을 터치하는 것일 수 있다. 이 입력은, 챕터 번호 및 단락 번호와 같이, 오디오 데이터 내의 상대 위치 또는 오디오 데이터의 길이를 반영하는 타임라인 내의 절대 위치를 선택할 수 있다. 이 입력은, 오디오 미디어 플레이어(432)가, 주석이 생성되며 오디오 위치와 연관될 수 있는 "주석 생성" 모드로 변경하게 하는 버튼을 처음으로 선택하는 것을 더 포함할 수 있다.
오디오 위치를 결정하는 다른 예로서, 오디오 미디어 플레이어(432)는, 오디오 데이터의 어떤 부분이 처리되고 있는지에 기초하여 자동으로 (사용자 입력 없이) 오디오 위치를 결정한다. 예를 들어, 오디오 미디어 플레이어(432)가 디지털 미디어 아이템(404)에 반영된 디지털 저작물의 챕터 20에 대응하는 오디오 데이터의 일부를 처리하고 있는 경우, 오디오 미디어 플레이어(432)는, 오디오 위치가 적어도 챕터 20 내의 어딘가에 있다고 결정한다.
단계 856에서, 오디오 미디어 플레이어(432)는 디바이스(430)의 터치 스크린 상에 디스플레이될 수 있는 "주석 생성" 버튼을 선택하는 입력을 수신한다. 이러한 버튼은, 예를 들어 1초와 같은 시간 기간 동안 지속적으로 사용자가 터치 스크린을 터치하는, 오디오 위치를 선택하는 단계 854에서의 입력에 응답하여 디스플레이될 수 있다.
단계 854가 단계 856 이전에 발생하는 것으로 도시되어 있지만, 대안적으로, "주석 생성" 버튼의 선택은 오디오 위치의 결정 이전에 발생할 수 있다.
단계 858에서, 제1 미디어 플레이어는 단계 808과 유사하게 주석 데이터를 생성하는데 이용되는 입력을 수신한다.
단계 860에서, 오디오 미디어 플레이어(432)는 오디오 위치와 연관하여 주석 데이터를 저장한다. 오디오 미디어 플레이어(432)는 단계 854에서 결정된 오디오 위치에 가장 가까운 특정한 오디오 위치를 맵핑에서 식별하기 위해 맵핑(예컨대, 맵핑 406)을 이용한다. 그런 다음, 맵핑을 이용하여, 오디오 미디어 플레이어(432)는 특정 오디오 위치에 대응하는 텍스트 위치를 식별한다.
단계 860에 대안적으로, 오디오 미디어 플레이어(432)는, 네트워크(400)를 통해, 중개 디바이스(420)에, 주석 데이터 및 오디오 위치를 전송한다. 그에 응답하여, 중개 디바이스(420)는 오디오 위치와 연관하여 주석 데이터를 저장한다. 중개 디바이스(420)는 단계 854에서 결정된 오디오 위치에 가장 가까운 특정 오디오 위치를 맵핑에서 식별하기 위해 맵핑(406)을 이용한다. 그런 다음, 맵핑(406)을 이용하여, 중개 디바이스(420)가 특정 오디오 위치에 대응하는 텍스트 위치를 식별한다. 중개 디바이스(420)는 식별된 텍스트 위치를 네트워크(440)를 통해 디바이스(410)에 전송한다. 중개 디바이스(420)는 디바이스(410)로부터 특정 텍스트 데이터와 연관된 주석 및/또는 특정 텍스트 데이터에 대한 요청에 응답하여 식별된 텍스트 위치를 전송한다. 예를 들어, "The Grapes of Wrath"라는 디지털 북에 대한 요청에 응답하여, 중개 디바이스(420)는 그 디지털 북과 연관된 어떠한 주석 데이터가 있는지 판단하고, 만약 있다면, 주석 데이터를 디바이스(430)에 보낸다.
단계 860은 또한 주석이 생성되었을 때를 나타내는 데이터 및/또는 시간 정보를 저장하는 것을 포함한다. 이 정보는 주석이 텍스트 컨텍스트 내에서 소비될 때 추후에 디스플레이될 수 있다.
단계 862에서, 디바이스(410)는 디지털 미디어 아이템(404)의 텍스트 버전인 디지털 미디어 아이템(402)과 연관된 텍스트 데이터를 디스플레이한다. 디바이스(410)는 디지털 미디어 아이템(402)의 국부적으로 저장된 카피에 기초하여 디지털 미디어 아이템(402)의 텍스트 데이터를 디스플레이하거나, 국부적으로 저장된 카피가 존재하지 않는다면, 중개 디바이스(420)로부터 텍스트 데이터가 스트리밍되는 동안 텍스트 데이터를 디스플레이할 수 있다.
단계 864에서, 디바이스(410)는 텍스트 위치(단계 860에서 식별됨)를 포함하는 텍스트 버전의 작품(디지털 미디어 아이템(402)에 반영됨)의 일부가 디스플레이되는 때를 결정한다. 대안적으로 디바이스(410)는, 만약 있다면, 텍스트 버전의 작품의 어떤 부분이 디스플레이되는지에 관계 없이 주석이 이용가능하다는 것을 나타내는 데이터를 디스플레이할 수 있다.
*단계 866에서, 텍스트 미디어 플레이어(412)는 주석 데이터를 소비한다. 주석 데이터가 음성 데이터이면, 주석 데이터를 소비하는 것이 음성 데이터를 재생하거나 음성 데이터를 텍스트 데이터로 변환하여 텍스트 데이터를 디스플레이하는 것을 포함할 수 있다. 주석 데이터가 텍스트 데이터이면, 주석 데이터를 소비하는 것이, 예를 들면, 텍스트 버전의 작품의 일부를 디스플레이하는 GUI의 사이드 패널 또는 GUI와 분리되어 나타나는 새로운 윈도우 내에 텍스트 데이터를 디스플레이하는 것을 포함할 수 있다.
낭독 특징
전술한 바와 같이, 미디어 플레이어의 사용자는 작품의 텍스트 버전을 봄과 동시에 작품의 오디오 버전을 들을 수 있다. 이러한 시나리오를 본 명세서에서는 "낭독(read aloud)" 시나리오라고 한다. 미디어 플레이어가 동시에 작품의 텍스트 버전의 일부분을 디스플레이하고 작품의 오디오 버전의 일부분을 플레이할 때, 미디어 플레이어는 "낭독 모드"에 있다고 한다.
실시예에서, 미디어 플레이어는 미디어 플레이어가 낭독 모드에 있는지를 시각적으로 표시한다. 낭독 모드에 있다는 시각적 표시는 미디어 플레이어의 스크린 상의 어딘가에 나타나는 아이콘 또는 그래픽일 수 있다. 예를 들어, 미디어 플레이어가 낭독 모드에 있는 동안 미디어 플레이어에 의해 디스플레이되는 각각의 페이지 상에 내레이터 "캐릭터"의 이미지가 미디어 플레이어에 의해 디스플레이되어 애니메이션된다.
미디어 플레이어가 낭독 모드에 있는 동안, 사용자는 미디어 플레이어를 통해 제공되고 이 시나리오와 연관되는 다수의 세팅을 선택할 수 있다.
낭독 모드에서의 세팅의 일 예는 자동 페이지 전환 세팅(automatic page turn setting)이다. 미디어 플레이어가 자동 페이지 전환 세팅 하에서 동작하고 있다면, 오디오 데이터 내의 현재 재생 위치가 미디어 플레이어에 의해 디스플레이된 페이지의 끝에 대응할 때, 페이지는 자동으로, 즉, 사용자 입력 없이 "전환"된다. 디지털 페이지 "전환하기"는 제1 페이지의 디스플레이를 중단하고 제1 페이지에 후속하는 제2 페이지를 디스플레이하는 것을 수반한다. 그러한 "전환하기"는 제1 페이지가 전환되고 있는 실제 페이지임을 나타내는 그래픽을 디스플레이하는 것을 포함할 수 있다. 따라서, 자동 페이지 전환 세팅 하에서, 미디어 플레이어는 오디오 데이터의 현재 재생 위치가 디스플레이된 페이지 상의 마지막 단어에 대응할 때를 결정한다. 이러한 결정은 맵핑이 미디어 플레이어 상에 저장되든지 미디어 플레이어에 원격인 서버 상에 저장되든지, 본 명세서에 설명된 바와 같이, 맵핑을 이용하여 현재의 오디오 위치를 현재의 텍스트 위치로 변환함으로써 가능해진다.
낭독 모드에서의 세팅의 다른 예는 페이지 끝 세팅(end of page setting)이다. 미디어 플레이어가 페이지 끝 세팅 하에서 동작하고 있다면, 미디어 플레이어는 오디오 데이터의 현재 재생 위치가 미디어 플레이어에 의해 디스플레이되는 페이지의 끝에 있는 텍스트에 대응할 때를 검출한다. 이러한 검출에 응답하여, 미디어 플레이어는 오디오 데이터의 재생을 중단시킨다. 미디어 플레이어의 사용자로부터의 입력만이 미디어 플레이어가 오디오 데이터의 프로세싱을 계속하게 할 것이다. 또한, 입력은 미디어 플레이어가 페이지를 "전환"하게 할 수 있다. 그러한 입력은 미디어 플레이어의 터치 스크린을 통한 입력 또는 음성 입력일 수 있다.
낭독 모드에서의 세팅의 다른 예는 북 제어 세팅(book control setting)이다. 미디어 플레이어가 북 제어 세팅 하에서 동작하고 있다면, 작품의 텍스트 버전과 연관되는 데이터(예를 들어, 메타데이터)를 이용하여 대응하는 오디오 데이터의 재생을 제어한다. 따라서, 텍스트 데이터 또는 맵핑 내의 태그들과 같은 특정 데이터가, 페이지 위치에 상관없이, 오디오 데이터의 재생을 일시정지 또는 정지시킬 때를 나타낸다. 예를 들어, 어린이 책의 텍스트 버전은, 그 중 하나가 사과인, 객체들에 대한 복수의 픽처들을 갖는 페이지를 가질 수 있다. 어린이 책의 오디오 버전은, "사과를 찾을 수 있나요?"라고 물을 수 있고, 질문의 끝에 대응하는 텍스트 버전의 부분은 오디오 재생을 일시정지할 때를 나타내는 태그(또는 다른 데이터)를 갖는다. 미디어 플레이어는 그 태그를 읽고, 응답하여, 미디어 플레이어의 터치 스크린 상의 디스플레이된 사과의 사용자 선택과 같은, 사용자로부터의 부가적인 입력이 있을 때까지 재생을 일시정지한다. 대안적으로, 오디오 버전 및 텍스트 버전과 연관된 맵핑은 오디오를 일시정지할 때를 나타내는 일시정지 데이터를 포함할 수 있다. 따라서, 오디오 버전의 현재 재생 위치가 변화하고 있는 동안, 미디어 플레이어가 일시정지 데이터를 검출할 때, 미디어 플레이어는 터치 스크린 상의 디스플레이된 사과를 탭핑하는 것과 같이, 사용자가 입력을 제공할 때까지 재생을 일시정지한다. 일단 사용자가 요구된 입력을 제공하면, 오디오 버전의 재생이 재개된다.
오디오 데이터의 재생을 자동으로 일시정지
(전술한 페이지 끝 세팅에서와 같은 페이지의 끝에서와 다른) 일부 시나리오들에서, 작품의 텍스트 버전의 일부분이 디스플레이되고 있는 동안 작품의 오디오 버전의 재생을 자동으로 일시정지하는 것이 유익할 수 있다. 예를 들어, 일부 작품들에 대하여, 텍스트 버전들은 픽처들을 포함한다. 구체적으로, 작품의 텍스트 버전의 페이지는 임의의 텍스트 없이 픽처만을 포함할 수 있거나, 또는 픽처 및 텍스트를 포함할 수 있고, 텍스트 버전의 다른 페이지들은 어떤 픽처도 포함하지 않는다. 그러한 상황들에서는, 작품의 오디오 버전의 재생을 정지시켜서 독자가 조용히 픽처를 분석할 수 있게 하는 것이 유익할 수 있다.
실시예에서, 작품의 텍스트 버전은 작품의 오디오 버전의 재생이 일시정지되어야 하는 때를 나타내는 "일시정지 태그"를 포함한다. 예를 들어, 일시정지 태그는 텍스트 버전 내의 픽처에 선행할 수 있거나 텍스트 버전 내의 질문의 바로 다음에 올 수 있다. 따라서, 일시정지 태그는 작품의 텍스트 버전 내의 특정 텍스트 위치에 대응할 수 있다. 미디어 플레이어(또는 원격 서버)는 맵핑에 기초하여, 작품의 오디오 버전의 현재의 재생이 특정 텍스트 위치에 대응할 때를 결정한다. 결정에 응답하여, 미디어 플레이어는 오디오 데이터의 재생을 일시정지한다. 일시정지는 3초와 같이, 미리 결정될 수 있고, 그 후에 미디어 플레이어는 오디오 데이터의 재생을 자동으로 (즉, 추가 사용자 입력 없이) 다시 시작한다. 대안적으로, 일시정지하는 시간의 양은 텍스트 버전의 메타데이터 내의 정보 또는 일시정지 태그 자체 내의 정보에 기초하여 결정될 수 있고, 여기서 정보는 5초와 같은 시간의 양을 나타내고, 그 후에 미디어 플레이어는 미디어 플레이어가 재생을 정지했던 곳에서 다시 시작하여 오디오 데이터를 자동으로 재생한다. 또한 대안적으로, 미디어 플레이어는 미디어 플레이어가 재생을 일시정지한 후에 미디어 플레이어가 작품의 오디오 버전의 재생을 계속하게 하는 사용자 입력을 수신한다. 사용자 입력은 재생을 계속하기 위해 요구될 수 있거나 일시정지 시간을 단축하는 데 이용될 수 있다.
관련 실시예에서, 작품의 오디오 버전 및 텍스트 버전과 연관된 맵핑은, 오디오 버전에서, 특정 시간의 양 동안 또는 사용자 입력이 수신될 때까지 일시정지할 곳을 나타내는 일시정지 데이터를 포함한다. 예를 들어, 미디어 플레이어가 작품의 오디오 버전을 프로세싱하는 동안, 미디어 플레이어는 오디오 버전 내의 현재 재생 위치를 추적한다. 현재 재생 위치가 맵핑에서 일시정지 데이터와 연관되는 오디오 위치에 대응할 때, 미디어 플레이어는 오디오 데이터의 재생을 일시정지한다.
하드웨어 개요
일 실시예에 따르면, 여기에서 설명하는 기술은 하나 이상의 특수 목적 컴퓨팅 디바이스에 의해 구현된다. 특수 목적 컴퓨팅 디바이스는 기술을 수행하기 위해 하드-와이어드될 수 있거나, 기술을 수행하기 위해 영속적으로 프로그램된 하나 이상의 ASIC(application-specific integrated circuits) 또는 FPGA(field programmable gate arrays) 등의 디지털 전자 디바이스를 포함할 수 있거나, 펌웨어, 메모리, 다른 저장소, 또는 조합의 프로그램 명령어들에 따라 기술을 수행하도록 프로그램된 하나 이상의 범용 하드웨어 프로세서를 포함할 수 있다. 이러한 특수 목적 컴퓨팅 디바이스는 또한 커스텀 하드-와이어드 로직, ASIC, 또는 FPGA를 기술을 성취하기 위해 커스텀 프로그래밍과 조합할 수도 있다. 특수 목적 컴퓨팅 디바이스들은 데스크탑 컴퓨터 시스템, 포터블 컴퓨터 시스템, 핸드헬드 디바이스, 네트워킹 디바이스 또는 기술을 구현하기 위한 하드-와이어드 및/또는 프로그램 로직을 통합한 임의의 다른 디바이스일 수 있다.
예를 들어, 도 9는 본 발명의 일 실시예가 구현될 수 있는 컴퓨터 시스템(900)을 도시하는 블럭도이다. 컴퓨터 시스템(900)은 버스(902) 또는 정보를 통신하기 위한 다른 통신 메커니즘, 및 버스(902)와 연결되어 정보를 처리하는 하드웨어 프로세서(904)를 포함한다. 하드웨어 프로세서(904)는, 예를 들면, 범용 마이크로프로세서일 수 있다.
컴퓨터 시스템(900)은 또한 RAM(random access memory) 등의 주 메모리(906) 또는 버스(902)에 연결되며 프로세서(904)에 의해 실행될 명렁어 및 정보를 저장하는 다른 동적 저장 디바이스를 포함한다. 주 메모리(906)는 또한 프로세서(904)에 의해 실행될 명령어들의 실행 동안 일시적 변수 또는 다른 중간 정보를 저장하는데 이용될 수 있다. 이러한 명령어들은, 프로세서(904)에 액세스가능한 비-일시적 저장 매체에 저장될 때, 컴퓨터 시스템(900)을 명령어에서 특정된 동작들을 수행하도록 맞춤화되어 있는 특수 목적 머신이 되게 한다.
컴퓨터 시스템(900)은 또한 ROM(read only memory)(908) 또는 버스(902)에 연결되며, 프로세서(904)에 대한 정적 정보 및 명령어들을 저장하기 위한 다른 정적 저장 디바이스를 포함한다. 자기 디스크 또는 광학 디스크와 같은 정보 및 명령어들을 저장하기 위한 저장 디바이스(910)가 제공되며, 버스(902)에 연결된다.
컴퓨터 시스템(900)은 컴퓨터 사용자에게 정보를 디스플레이하기 위한 CRT(cathode ray tube)와 같은 디스플레이(912)에 버스(902)를 통해 연결될 수 있다. 영숫자 및 다른 키들을 포함하는 입력 디바이스(914)가 버스(902)에 연결되며, 프로세서(904)에 정보 및 커맨드 선택을 통신한다. 사용자 입력 디바이스의 또 다른 유형으로, 방향 정보 및 커맨드 선택을 프로세서(904)에 통신하고, 디스플레이(912) 상의 커서 움직임을 제어하기 위한 커서 방향키, 마우스 또는 트랙볼 등의 커서 컨트롤(916)이 있다. 이 입력 디바이스는, 전형적으로, 디바이스가 면 내의 위치들을 지정할 수 있게 해주는 제1 축(예컨대, x) 및 제2 축(예컨대, y)의 2개의 축 내의 2 자유도(2 degrees of freedom)를 갖는다.
컴퓨터 시스템(900)은, 여기서, 커스터마이즈화된 하드-와이어드 로직, 하나 이상의 ASIC 또는 FPGA, 컴퓨터 시스템과 조합하여 컴퓨터 시스템(900)을 특수 목적 머신이 되게 하거나 특수 목적 머신이 되도록 프로그램하는 펌웨어 및/또는 프로그램 로직을 이용하여 설명되는 기술을 구현할 수 있다. 일 실시예에 따르면, 여기서의 기술은 프로세서(904)가 주 메모리(906) 내에 포함된 하나 이상의 명령어들의 하나 이상의 시퀀스들을 실행하는 것에 응답하여 컴퓨터 시스템(900)에 의해 수행된다. 이러한 명령어들은 저장 디바이스(910) 등의 또 다른 저장 매체로부터 주 메모리(906)에 읽혀 들여질 수 있다. 주 메모리(906)에 포함된 명령어들의 시퀀스의 실행에 의해, 프로세서(904)가 여기에 설명된 처리 단계들을 수행하게 한다. 대안적인 실시예에서, 하드-와이어드 회로가 소프트웨어 명령어 대신에 또는 이와 조합하여 사용될 수 있다.
여기서 사용하는 "저장 매체"라는 용어는 머신을 특정한 방식으로 동작하게 하는 데이터 및/또는 명령어들을 저장하는 임의의 비-일시적인 매체를 말한다. 이러한 저장 매체는 비휘발성 매체 및/또는 휘발성 매체를 포함할 수 있다. 비휘발성 매체는, 예를 들면, 저장 디바이스(910)와 같은 광 디스크 또는 자기 디스크를 포함한다. 휘발성 매체는 주 메모리(906)와 같은 동적 메모리를 포함한다. 일반적인 형태의 저장 매체로는, 예를 들면, 플로피 디스크, 플렉서블 디스크, 하드 디스크, 솔리드 스테이트 드라이브, 자기 테이프 또는 임의의 다른 자기 데이터 저장 매체, CD-ROM, 임의의 다른 광학 데이터 저장 매체, 홀 패턴을 갖는 임의의 물리적 매체, RAM, PROM 및 EPROM, FLASH-EPROM, NVRAM, 임의의 다른 메모리 칩 또는 카트리지를 포함한다.
*저장 매체는 전송 매체와는 구별되지만, 이 전송 매체와 관련되어 사용될 수 있다. 전송 매체는 저장 매체들 간에 정보를 전송하는데 참여한다. 예를 들면, 전송 매체는 버스(902)를 포함하는 와이어를 비롯한 동축 케이블, 구리 와이어 및 파이버 옵틱을 포함한다. 전송 매체는 또한 무선파 및 적외선 데이터 통신 중에 생성된 것과 같은 음향 또는 광파의 형태를 취할 수도 있다.
프로세서(904)가 실행하기 위한 하나 이상의 명령어들의 하나 이상의 시퀀스를 운반하는데 다양한 형태의 매체가 수반될 수 있다. 예를 들어, 명령어들은 초기에는 원격 컴퓨터의 자기 디스크 또는 솔리드 스테이트 드라이브에 있을 수 있다. 원격 컴퓨터는 명령어들을 그 동적 메모리에 로드하여 명령어들을 모뎀을 이용한 전화선을 통해 전송할 수 있다. 컴퓨터 시스템(900)에 로컬인 모뎀은 전화선을 통해 데이터를 수신하고, 적외선 송신기를 이용하여 데이터를 적외선 신호로 변환할 수 있다. 적외선 검출기는 적외선 신호에 운반되는 데이터를 수신할 수 있고, 적당한 회로가 데이터를 버스(902)에 배치할 수 있다. 버스(902)는 데이터를 주 메모리(906)에 운반하고, 이로부터 프로세서(904)가 명령어들을 검색하고 실행한다. 주 메모리(906)에 의해 수신되는 명령어들은 프로세서(904)에 의해 실행되기 전 또는 후에 저장 디바이스(910)에 선택적으로 저장될 수 있다.
컴퓨터 시스템(900)은 또한 버스(902)에 연결된 통신 인터페이스(918)를 포함한다. 통신 인터페이스(918)는 로컬 네트워크(922)에 접속된 네트워크 링크(920)에 양방향 데이터 통신 커플링을 제공한다. 예를 들면, 통신 인터페이스(918)는 ISDN(integrated services digital network) 카드, 케이블 모뎀, 위성 모뎀, 또는 대응하는 유형의 전화선에 데이터 통신 접속을 제공하는 모뎀일 수 있다. 또 다른 예로, 통신 인터페이스(918)는 호환가능 LAN에 데이터 통신 접속을 제공하기 위한 LAN 카드일 수 있다. 무선 링크도 또한 구현될 수 있다. 임의의 이러한 구현에서, 통신 인터페이스(918)는 다양한 유형의 정보를 나타내는 디지털 데이터 스트림을 운반하는 전기, 전자기 또는 광학 신호들을 송신 및 수신한다.
네트워크 링크(920)는 통상 하나 이상의 네트워크를 통해 데이터 통신을 다른 데이터 디바이스에 제공한다. 예를 들어, 네트워크 링크(920)는 로컬 네트워크(922)를 통해 호스트 컴퓨터(924) 또는 ISP(Internet Service Provider)(926)에 의해 동작되는 데이터 장비에 접속을 제공할 수 있다. 그러면, ISP(926)는 현재 일반적으로 "인터넷(928)"이라고 부르는 월드와이드 패킷 데이터 통신 네트워크를 통해 데이터 통신 서비스를 제공한다. 로컬 네트워크(922) 및 인터넷(928)은 모두 디지털 데이터 스트림들을 운반(carry)하는 전기, 전자기 또는 광학 신호들을 사용한다. 컴퓨터 시스템(900)으로 디지털 데이터를 운반하고 컴퓨터 시스템(900)으로부터 디지털 데이터를 운반하는 각종 네트워크들을 통한 신호들, 네트워크 링크(920) 및 통신 인터페이스(918)를 통한 신호들이 전송 매체의 예시적인 형태들이다.
컴퓨터 시스템(900)은 네트워크(들), 네트워크 링크(920) 및 통신 인터페이스(918)를 통해 메시지들을 전송하고 프로그램 코드를 포함하는 데이터를 수신할 수 있다. 인터넷의 예에서, 서버(930)는 인터넷(928), ISP(926), 로컬 네트워크(922) 및 통신 인터페이스(918)를 통해 애플리케이션 프로그램을 위해 요청된 코드를 송신할 수 있다.
수신된 코드 저장 디바이스(910) 또는 나중의 실행을 위한 다른 비휘발성 저장소에서 수신되고 및/또는 저장됨에 따라, 프로세서(904)에 의해 실행될 수 있다.
일부 실시예들에 따라, 도 10 내지 도 15는 상술한 본원 발명의 원리들에 따른 전자 디바이스들(1000-1500)의 기능 블록도들을 도시한다. 디바이스의 기능 블록도들은 하드웨어, 소프트웨어 또는 하드웨어 및 소프트웨어의 조합에 의해 구현되어, 본 발명의 원리들을 수행할 수 있다. 상술한 본원 발명의 원리들을 구현하기 위하여 도 10 내지 도 15에 개시된 기능 블록도들이 조합되거나 서브블록들로 분리될 수 있음이 당업자에게 이해될 것이다. 따라서, 본원 발명의 설명은 본원 발명에 개시된 기능 블록도들의 임의의 가능한 조합 또는 분리 또는 추가적인 정의를 지원할 수 있다.
도 10에 도시된 바와 같이, 전자 디바이스(1000)는 텍스트 버전이 존재하는 오디오 버전의 작품을 반영하는 오디오 데이터를 수신하도록 구성된 오디오 데이터 수신 유닛(1002)을 포함한다. 전자 디바이스(1000)는 또한 오디오 데이터 수신 유닛(1002)에 연결된 프로세싱 유닛(1006)을 포함한다. 일부 실시예들에서, 프로세싱 유닛(1006)은 텍스트 유닛(1008) 및 맵핑 유닛(1010)에 대한 음성을 포함한다.
프로세싱 유닛(1006)은 (예를 들어, 텍스트 유닛(1008)에 대한 음성에 의해) 오디오 데이터의 부분들에 대한 텍스트를 생성하기 위하여 오디오 데이터의 음성-텍스트 분석을 수행하고, 오디오 데이터의 부분들에 대해 생성된 텍스트에 기초하여, (예를 들어, 맵핑 유닛(1010)에 의해) 오디오 데이터의 복수의 오디오 위치와 텍스트 버전의 작품의 대응하는 복수의 텍스트 위치 사이의 맵핑을 생성하도록 구성된다.
도 11에 도시된 바와 같이, 전자 디바이스(1100)는 텍스트 버전의 작품을 수신하도록 구성된 텍스트 수신 유닛(1102)을 포함한다. 전자 디바이스(1100)는 또한 텍스트 버전이 존재하는 오디오 버전의 작품을 반영하는 제2 오디오 데이터를 수신하도록 구성된 오디오 데이터 수신 유닛(1104)을 포함한다. 전자 디바이스(1100)는 또한 텍스트 수신 유닛(1102)에 연결된 프로세싱 유닛(1106)을 포함한다. 일부 실시예들에서, 프로세싱 유닛(1106)은 음성 유닛(1108) 및 맵핑 유닛(1110)에 대한 텍스트를 포함한다.
프로세싱 유닛(1106)은 (예를 들어, 음성 유닛(1108)에 대한 텍스트에 의해) 제1 오디오 데이터를 생성하기 위하여 텍스트 버전의 텍스트-음성 분석을 수행하고, 제1 오디오 데이터 및 텍스트 버전에 기초하여, (예를 들어, 맵핑 유닛(1110)에 의해) 제1 오디오 데이터의 제1 복수의 오디오 위치와 텍스트 버전의 작품의 대응하는 복수의 텍스트 위치 사이의 제1 맵핑을 생성하도록 구성된다. 프로세싱 유닛(1106)은 (1) 제1 오디오 데이터와 제2 오디오 데이터의 비교, 및 (2) 제1 맵핑에 기초하여, (예를 들어, 맵핑 유닛(1110)에 의해) 제2 오디오 데이터의 제2 복수의 오디오 위치와 텍스트 버전의 작품의 복수의 텍스트 위치 사이의 제2 맵핑을 생성하도록 더 구성된다.
도 12에 도시된 바와 같이, 전자 디바이스(1200)는 오디오 입력을 수신하도록 구성된 오디오 수신 유닛(1202)을 포함한다. 전자 디바이스(1200)는 또한 오디오 수신 유닛(1202)에 연결된 프로세싱 유닛(1206)을 포함한다. 일부 실시예들에서, 프로세싱 유닛(1206)은 텍스트 유닛(1208), 텍스트 매칭 유닛(1209) 및 디스플레이 제어 유닛(1210)에 대한 음성을 포함한다.
프로세싱 유닛(1206)은 (예를 들어, 텍스트 유닛(1208)에 대한 음성에 의해) 오디오 입력의 부분들에 대한 텍스트를 생성하기 위하여 오디오 입력의 음성-텍스트 분석을 수행하고, 오디오 입력의 부분들에 대해 생성된 텍스트가 (예를 들어, 텍스트 매칭 유닛(1209)에 의해) 현재 디스플레이되는 텍스트와 매칭하는지를 결정하고, 텍스트가 현재 디스플레이되는 텍스트와 매칭하는 것으로 결정한 것에 응답하여, (예를 들어, 디스플레이 제어 유닛(1210)에 의해) 현재 디스플레이되는 텍스트가 강조 표시되도록 구성된다.
도 13에 도시된 바와 같이, 전자 디바이스(1300)는 텍스트 버전의 작품 내의 특정된 위치를 나타내는 위치 데이터를 획득하도록 구성된 위치 데이터 획득 유닛(1302)을 포함한다. 전자 디바이스(1300)는 또한 위치 데이터 획득 유닛(1302)에 연결된 프로세싱 유닛(1306)을 포함한다. 일부 실시예들에서, 프로세싱 유닛(1306)은 맵 검사 유닛(1308)을 포함한다.
프로세싱 유닛(1306)은 (예를 들어, 맵 검사 유닛(1308)에 의해) 오디오 버전의 작품의 복수의 오디오 위치와 텍스트 버전의 작품의 대응하는 복수의 텍스트 위치 사이의 맵핑을 검사하고, 복수의 텍스트 위치 중 특정된 위치에 대응하는 특정 텍스트 위치를 결정하고, 특정 텍스트 위치에 기초하여, 복수의 오디오 위치 중 특정 텍스트 위치에 대응하는 특정 오디오 위치를 결정하도록 구성된다. 프로세싱 유닛(1306)은 또한 미디어 플레이어가 오디오 데이터의 현재 재생 위치로서 특정 오디오 위치를 구축하게 하기 위하여 특정 텍스트 위치에 기초하여 결정된 특정 오디오 위치를 미디어 플레이어에 제공하도록 구성된다.
도 14에 도시된 바와 같이, 전자 디바이스(1400)는 오디오 데이터 내의 특정된 위치를 나타내는 위치 데이터를 획득하도록 구성된 위치 획득 유닛(1402)을 포함한다. 전자 디바이스(1400)는 또한 위치 획득 유닛(1402)에 연결된 프로세싱 유닛(1406)을 포함한다. 일부 실시예들에서, 프로세싱 유닛(1406)은 맵 검사 유닛(1408) 및 디스플레이 제어 유닛(1410)을 포함한다.
프로세싱 유닛(1406)은 (예를 들어, 맵 검사 유닛(1408)에 의해) 오디오 데이터의 복수의 오디오 위치와 텍스트 버전의 작품의 대응하는 복수의 텍스트 위치 사이의 맵핑을 검사하고, 복수의 오디오 위치 중 특정된 위치에 대응하는 특정 오디오 위치를 결정하고, 특정 오디오 위치에 기초하여, 복수의 텍스트 위치 중 특정 오디오 위치에 대응하는 특정 텍스트 위치를 결정하도록 구성된다. 프로세싱 유닛(1406)은 또한 (예를 들어, 디스플레이 제어 유닛(1410)에 의해) 미디어 플레이어가 특정 텍스트 위치에 대한 정보를 디스플레이하게 하도록 구성된다.
도 15에 도시된 바와 같이, 전자 디바이스(1500)는 오디오 버전의 작품의 재생 동안 오디오 버전 내의 특정된 위치를 나타내는 위치 데이터를 획득하도록 구성된 위치 획득 유닛(1502)을 포함한다. 전자 디바이스(1500)는 또한 위치 데이터 획득 유닛(1502)에 연결된 프로세싱 유닛(1506)을 포함한다. 일부 실시예들에서, 프로세싱 유닛(1506)은 텍스트 위치 결정 유닛(1508) 및 디스플레이 제어 유닛(1510)을 포함한다.
프로세싱 유닛(1506)은 오디오 버전의 작품의 재생 동안, 특정된 위치에 기초하여, (예를 들어, 텍스트 위치 결정 유닛(1508)에 의해) 텍스트 버전의 작품에서 텍스트 버전의 작품에 반영된 제1 페이지의 종료를 나타내는 페이지 종료 데이터와 연관되는 특정 텍스트 위치를 결정하고, 특정 텍스트 위치가 페이지 종료 데이터와 연관되는 것으로 결정한 것에 응답하여, (예를 들어, 디스플레이 제어 유닛(1510)에 의해) 자동으로 제1 페이지가 디스플레이되는 것을 중지시키고 디스플레이되는 제1 페이지에 후속하는 제2 페이지를 야기하도록 구성된다.
도 16에 도시된 바와 같이, 전자 디바이스(1600)는 작품의 제1 버전이 프로세싱되는 동안, 사용자로부터의 입력에 기초하는 주석 데이터를 획득하도록 구성되는 주석 획득 유닛(1602)을 포함한다. 전자 디바이스(1600)는 또한 연관 데이터 저장 유닛(1603)을 포함한다. 전자 디바이스(1600)는 또한 주석 획득 유닛(1602)과 연관 데이터 저장 유닛(1603)에 연결되는 프로세싱 유닛(1606)을 포함한다. 일부 실시예들에서, 프로세싱 유닛(1606)은 디스플레이 제어 유닛(1610)을 포함한다.
프로세싱 유닛(1606)은 (예를 들어, 연관 데이터 저장 유닛(1603)에) 작품과 주석 데이터를 연관시키는 연관 데이터가 저장되게 하고; 작품의 제2 버전이 프로세싱되는 동안, (예를 들어, 디스플레이 제어 유닛(1610)에 의해) 주석 데이터에 관한 정보가 디스플레이되게 하도록 구성되고, 제2 버전은 제1 버전과 상이하다.
도 17에 도시된 바와 같이, 전자 디바이스(1700)는 작품의 제1 버전 내에 제1 북마크를 구축하는 데이터를 수신하도록 구성된 데이터 수신 유닛(1702)을 포함한다. 전자 디바이스(1700)는 또한 위치 데이터 저장 유닛(1703)을 포함한다. 전자 디바이스(1700)는 또한 데이터 수신 유닛(1702) 및 위치 데이터 저장 유닛(1703)에 연결된 프로세싱 유닛(1706)을 포함한다. 일부 실시예들에서, 프로세싱 유닛(1706)은 맵 검사 유닛(1708)을 포함한다.
프로세싱 유닛(1706)은 (예를 들어, 맵 검사 유닛(1708)에 의해) 작품의 제1 버전 내의 복수의 제1 위치들과 작품의 제2 버전 내의 대응하는 복수의 제2 위치들 사이의 맵핑을 검사하여: 복수의 제1 위치들 중에서 제1 북마크에 대응하는 특정 제1 위치를 결정하고, 특정 제1 위치에 기초하여, 복수의 제2 위치들 중에서 특정 제1 위치에 대응하는 특정 제2 위치를 결정하고 - 작품의 제1 버전은 작품의 제2 버전과 상이함 - ; 및 (예를 들어, 위치 데이터 저장 유닛(1703)에) 작품의 제2 버전 내의 제2 북마크로서 특정 제2 위치를 구축하는 데이터가 저장되게 하도록 구성된다.
도 18에 도시된 바와 같이, 전자 디바이스(1800)는 디바이스에서, 사용자로부터 오디오 입력을 수신하도록 구성되는 오디오 수신 유닛(1802)을 포함한다. 전자 디바이스(1800)는 또한 오디오 수신 유닛(1802)에 연결되는 프로세싱 유닛(1806)을 포함한다. 일부 실시예들에서, 프로세싱 유닛(1806)은 단어 분석 유닛(1808) 및 디스플레이 제어 유닛(1810)을 포함한다.
프로세싱 유닛(1806)은 (예를 들어, 디스플레이 제어 유닛(1810)에 의해) 작품의 텍스트의 일부분이 디바이스에 의해 디스플레이되게 하고; 오디오 수신 유닛에서의 오디오 입력을 수신하는 것에 응답하여: (예를 들어, 단어 분석 유닛(1808)에 의해) 오디오 입력을 분석하여 하나 이상의 단어들을 식별하고; (예를 들어, 단어 분석 유닛(1808)에 의해) 하나 이상의 단어들이 텍스트의 일부분에 반영되어 있는지를 결정하고; 및 하나 이상의 단어들이 텍스트의 일부분에 반영되어 있다고 결정한 것에 응답하여, (예를 들어, 디스플레이 제어 유닛(1810)에 의해) 시각적 표시가 디바이스에 의해 디스플레이되게 하도록 구성된다.
상술한 명세서에서, 본 발명의 실시예들은 구현마다 변할 수 있는 다수의 특정 상세들을 참조하여 기술되었다. 따라서, 명세서 및 도면들은 제한적인 의미라기보다는 예시적인 것으로 고려된다. 본 발명의 범위의 유일하고 배타적인 표시자 및 본 발명의 범위인 것으로 출원인에 의해 의도된 것은 임의의 후속 보정을 포함하는 청구범위가 발행되는 구체적인 형태로 본 출원으로부터 발행되는 청구범위의 문자 그대로의 등가인 범위이다.
Claims (1)
- 제1항에 기재된 장치.
Applications Claiming Priority (9)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201161493372P | 2011-06-03 | 2011-06-03 | |
US61/493,372 | 2011-06-03 | ||
US201161494375P | 2011-06-07 | 2011-06-07 | |
US61/494,375 | 2011-06-07 | ||
US13/267,749 US10672399B2 (en) | 2011-06-03 | 2011-10-06 | Switching between text data and audio data based on a mapping |
US13/267,738 | 2011-10-06 | ||
US13/267,738 US20120310642A1 (en) | 2011-06-03 | 2011-10-06 | Automatically creating a mapping between text data and audio data |
US13/267,749 | 2011-10-06 | ||
PCT/US2012/040801 WO2012167276A1 (en) | 2011-06-03 | 2012-06-04 | Automatically creating a mapping between text data and audio data |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020137034641A Division KR101622015B1 (ko) | 2011-06-03 | 2012-06-04 | 텍스트 데이터와 오디오 데이터 간의 맵핑 자동 생성 |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20150085115A true KR20150085115A (ko) | 2015-07-22 |
KR101674851B1 KR101674851B1 (ko) | 2016-11-09 |
Family
ID=47262337
Family Applications (4)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020120060060A KR101324910B1 (ko) | 2011-06-03 | 2012-06-04 | 텍스트 데이터와 오디오 데이터 간의 맵핑 자동 생성 |
KR1020137034641A KR101622015B1 (ko) | 2011-06-03 | 2012-06-04 | 텍스트 데이터와 오디오 데이터 간의 맵핑 자동 생성 |
KR1020157017690A KR101674851B1 (ko) | 2011-06-03 | 2012-06-04 | 텍스트 데이터와 오디오 데이터 간의 맵핑 자동 생성 |
KR1020167006970A KR101700076B1 (ko) | 2011-06-03 | 2012-06-04 | 텍스트 데이터와 오디오 데이터 간의 맵핑 자동 생성 |
Family Applications Before (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020120060060A KR101324910B1 (ko) | 2011-06-03 | 2012-06-04 | 텍스트 데이터와 오디오 데이터 간의 맵핑 자동 생성 |
KR1020137034641A KR101622015B1 (ko) | 2011-06-03 | 2012-06-04 | 텍스트 데이터와 오디오 데이터 간의 맵핑 자동 생성 |
Family Applications After (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020167006970A KR101700076B1 (ko) | 2011-06-03 | 2012-06-04 | 텍스트 데이터와 오디오 데이터 간의 맵핑 자동 생성 |
Country Status (7)
Country | Link |
---|---|
US (2) | US20120310642A1 (ko) |
EP (1) | EP2593846A4 (ko) |
JP (1) | JP2014519058A (ko) |
KR (4) | KR101324910B1 (ko) |
CN (1) | CN103703431B (ko) |
AU (2) | AU2012261818B2 (ko) |
WO (1) | WO2012167276A1 (ko) |
Families Citing this family (278)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8645137B2 (en) | 2000-03-16 | 2014-02-04 | Apple Inc. | Fast, language-independent method for user authentication by voice |
US8677377B2 (en) | 2005-09-08 | 2014-03-18 | Apple Inc. | Method and apparatus for building an intelligent automated assistant |
US9318108B2 (en) | 2010-01-18 | 2016-04-19 | Apple Inc. | Intelligent automated assistant |
US9020811B2 (en) * | 2006-10-13 | 2015-04-28 | Syscom, Inc. | Method and system for converting text files searchable text and for processing the searchable text |
US8977255B2 (en) | 2007-04-03 | 2015-03-10 | Apple Inc. | Method and system for operating a multi-function portable electronic device using voice-activation |
US10002189B2 (en) | 2007-12-20 | 2018-06-19 | Apple Inc. | Method and apparatus for searching using an active ontology |
US9330720B2 (en) | 2008-01-03 | 2016-05-03 | Apple Inc. | Methods and apparatus for altering audio output signals |
US8996376B2 (en) | 2008-04-05 | 2015-03-31 | Apple Inc. | Intelligent text-to-speech conversion |
US10496753B2 (en) | 2010-01-18 | 2019-12-03 | Apple Inc. | Automatically adapting user interfaces for hands-free interaction |
US20100030549A1 (en) | 2008-07-31 | 2010-02-04 | Lee Michael M | Mobile device having human language translation capability with positional feedback |
US8676904B2 (en) | 2008-10-02 | 2014-03-18 | Apple Inc. | Electronic devices with voice command and contextual data processing capabilities |
US9959870B2 (en) | 2008-12-11 | 2018-05-01 | Apple Inc. | Speech recognition involving a mobile device |
US10241644B2 (en) | 2011-06-03 | 2019-03-26 | Apple Inc. | Actionable reminder entries |
US9858925B2 (en) | 2009-06-05 | 2018-01-02 | Apple Inc. | Using context information to facilitate processing of commands in a virtual assistant |
US10706373B2 (en) | 2011-06-03 | 2020-07-07 | Apple Inc. | Performing actions associated with task items that represent tasks to perform |
US10241752B2 (en) | 2011-09-30 | 2019-03-26 | Apple Inc. | Interface for a virtual digital assistant |
US9431006B2 (en) | 2009-07-02 | 2016-08-30 | Apple Inc. | Methods and apparatuses for automatic speech recognition |
CN102804182A (zh) * | 2010-01-11 | 2012-11-28 | 苹果公司 | 电子文本的操纵和显示 |
US10705794B2 (en) | 2010-01-18 | 2020-07-07 | Apple Inc. | Automatically adapting user interfaces for hands-free interaction |
US10679605B2 (en) | 2010-01-18 | 2020-06-09 | Apple Inc. | Hands-free list-reading by intelligent automated assistant |
US10276170B2 (en) | 2010-01-18 | 2019-04-30 | Apple Inc. | Intelligent automated assistant |
US10553209B2 (en) | 2010-01-18 | 2020-02-04 | Apple Inc. | Systems and methods for hands-free notification summaries |
US8682667B2 (en) | 2010-02-25 | 2014-03-25 | Apple Inc. | User profiling for selecting user specific voice input processing information |
US10762293B2 (en) | 2010-12-22 | 2020-09-01 | Apple Inc. | Using parts-of-speech tagging and named entity recognition for spelling correction |
US9645986B2 (en) | 2011-02-24 | 2017-05-09 | Google Inc. | Method, medium, and system for creating an electronic book with an umbrella policy |
US10019995B1 (en) | 2011-03-01 | 2018-07-10 | Alice J. Stiebel | Methods and systems for language learning based on a series of pitch patterns |
US11062615B1 (en) | 2011-03-01 | 2021-07-13 | Intelligibility Training LLC | Methods and systems for remote language learning in a pandemic-aware world |
US9262612B2 (en) | 2011-03-21 | 2016-02-16 | Apple Inc. | Device access using voice authentication |
US8948892B2 (en) | 2011-03-23 | 2015-02-03 | Audible, Inc. | Managing playback of synchronized content |
US9734153B2 (en) | 2011-03-23 | 2017-08-15 | Audible, Inc. | Managing related digital content |
US8855797B2 (en) | 2011-03-23 | 2014-10-07 | Audible, Inc. | Managing playback of synchronized content |
US9703781B2 (en) | 2011-03-23 | 2017-07-11 | Audible, Inc. | Managing related digital content |
US10057736B2 (en) | 2011-06-03 | 2018-08-21 | Apple Inc. | Active transport based notifications |
US20120310642A1 (en) | 2011-06-03 | 2012-12-06 | Apple Inc. | Automatically creating a mapping between text data and audio data |
US8994660B2 (en) | 2011-08-29 | 2015-03-31 | Apple Inc. | Text correction processing |
US8819012B2 (en) * | 2011-08-30 | 2014-08-26 | International Business Machines Corporation | Accessing anchors in voice site content |
US9141404B2 (en) | 2011-10-24 | 2015-09-22 | Google Inc. | Extensible framework for ereader tools |
JP5941264B2 (ja) * | 2011-11-01 | 2016-06-29 | キヤノン株式会社 | 情報処理装置、情報処理方法 |
US9031493B2 (en) | 2011-11-18 | 2015-05-12 | Google Inc. | Custom narration of electronic books |
US20130129310A1 (en) * | 2011-11-22 | 2013-05-23 | Pleiades Publishing Limited Inc. | Electronic book |
US9213705B1 (en) * | 2011-12-19 | 2015-12-15 | Audible, Inc. | Presenting content related to primary audio content |
US9117195B2 (en) * | 2012-02-13 | 2015-08-25 | Google Inc. | Synchronized consumption modes for e-books |
US10134385B2 (en) | 2012-03-02 | 2018-11-20 | Apple Inc. | Systems and methods for name pronunciation |
US9483461B2 (en) | 2012-03-06 | 2016-11-01 | Apple Inc. | Handling speech synthesis of content for multiple languages |
US20130268826A1 (en) * | 2012-04-06 | 2013-10-10 | Google Inc. | Synchronizing progress in audio and text versions of electronic books |
US9075760B2 (en) | 2012-05-07 | 2015-07-07 | Audible, Inc. | Narration settings distribution for content customization |
US9280610B2 (en) | 2012-05-14 | 2016-03-08 | Apple Inc. | Crowd sourcing information to fulfill user requests |
US10417037B2 (en) | 2012-05-15 | 2019-09-17 | Apple Inc. | Systems and methods for integrating third party services with a digital assistant |
US9317500B2 (en) | 2012-05-30 | 2016-04-19 | Audible, Inc. | Synchronizing translated digital content |
US8933312B2 (en) * | 2012-06-01 | 2015-01-13 | Makemusic, Inc. | Distribution of audio sheet music as an electronic book |
US9721563B2 (en) | 2012-06-08 | 2017-08-01 | Apple Inc. | Name recognition system |
US9141257B1 (en) | 2012-06-18 | 2015-09-22 | Audible, Inc. | Selecting and conveying supplemental content |
US9536439B1 (en) | 2012-06-27 | 2017-01-03 | Audible, Inc. | Conveying questions with content |
US9679608B2 (en) | 2012-06-28 | 2017-06-13 | Audible, Inc. | Pacing content |
US9495129B2 (en) | 2012-06-29 | 2016-11-15 | Apple Inc. | Device, method, and user interface for voice-activated navigation and browsing of a document |
US20140013192A1 (en) * | 2012-07-09 | 2014-01-09 | Sas Institute Inc. | Techniques for touch-based digital document audio and user interface enhancement |
US10109278B2 (en) | 2012-08-02 | 2018-10-23 | Audible, Inc. | Aligning body matter across content formats |
US9047356B2 (en) | 2012-09-05 | 2015-06-02 | Google Inc. | Synchronizing multiple reading positions in electronic books |
US9576574B2 (en) | 2012-09-10 | 2017-02-21 | Apple Inc. | Context-sensitive handling of interruptions by intelligent digital assistant |
US9547647B2 (en) | 2012-09-19 | 2017-01-17 | Apple Inc. | Voice-based media searching |
US9684641B1 (en) * | 2012-09-21 | 2017-06-20 | Amazon Technologies, Inc. | Presenting content in multiple languages |
US9367196B1 (en) | 2012-09-26 | 2016-06-14 | Audible, Inc. | Conveying branched content |
US9632647B1 (en) * | 2012-10-09 | 2017-04-25 | Audible, Inc. | Selecting presentation positions in dynamic content |
US9223830B1 (en) | 2012-10-26 | 2015-12-29 | Audible, Inc. | Content presentation analysis |
US9542936B2 (en) * | 2012-12-29 | 2017-01-10 | Genesys Telecommunications Laboratories, Inc. | Fast out-of-vocabulary search in automatic speech recognition systems |
US20140191976A1 (en) * | 2013-01-07 | 2014-07-10 | Microsoft Corporation | Location Based Augmentation For Story Reading |
US9280906B2 (en) * | 2013-02-04 | 2016-03-08 | Audible. Inc. | Prompting a user for input during a synchronous presentation of audio content and textual content |
US9472113B1 (en) | 2013-02-05 | 2016-10-18 | Audible, Inc. | Synchronizing playback of digital content with physical content |
JP2016508007A (ja) | 2013-02-07 | 2016-03-10 | アップル インコーポレイテッド | デジタルアシスタントのためのボイストリガ |
KR101952179B1 (ko) * | 2013-03-05 | 2019-05-22 | 엘지전자 주식회사 | 이동 단말기 및 그것의 제어방법 |
US9368114B2 (en) | 2013-03-14 | 2016-06-14 | Apple Inc. | Context-sensitive handling of interruptions |
US10652394B2 (en) | 2013-03-14 | 2020-05-12 | Apple Inc. | System and method for processing voicemail |
US10748529B1 (en) | 2013-03-15 | 2020-08-18 | Apple Inc. | Voice activated device for use with a voice-based digital assistant |
KR101759009B1 (ko) | 2013-03-15 | 2017-07-17 | 애플 인크. | 적어도 부분적인 보이스 커맨드 시스템을 트레이닝시키는 것 |
WO2014144579A1 (en) | 2013-03-15 | 2014-09-18 | Apple Inc. | System and method for updating an adaptive speech recognition model |
KR102045281B1 (ko) * | 2013-06-04 | 2019-11-15 | 삼성전자주식회사 | 데이터 처리 방법 및 그 전자 장치 |
WO2014197336A1 (en) | 2013-06-07 | 2014-12-11 | Apple Inc. | System and method for detecting errors in interactions with a voice-based digital assistant |
US9317486B1 (en) | 2013-06-07 | 2016-04-19 | Audible, Inc. | Synchronizing playback of digital content with captured physical content |
WO2014197334A2 (en) | 2013-06-07 | 2014-12-11 | Apple Inc. | System and method for user-specified pronunciation of words for speech synthesis and recognition |
US9582608B2 (en) | 2013-06-07 | 2017-02-28 | Apple Inc. | Unified ranking with entropy-weighted information for phrase-based semantic auto-completion |
WO2014197335A1 (en) | 2013-06-08 | 2014-12-11 | Apple Inc. | Interpreting and acting upon commands that involve sharing information with remote devices |
CN110442699A (zh) | 2013-06-09 | 2019-11-12 | 苹果公司 | 操作数字助理的方法、计算机可读介质、电子设备和系统 |
US10176167B2 (en) | 2013-06-09 | 2019-01-08 | Apple Inc. | System and method for inferring user intent from speech inputs |
CN105265005B (zh) | 2013-06-13 | 2019-09-17 | 苹果公司 | 用于由语音命令发起的紧急呼叫的系统和方法 |
EP3017576A4 (en) * | 2013-07-03 | 2016-06-29 | Ericsson Telefon Ab L M | PROVIDING A DIGITAL BOOK TO A USER EQUIPMENT |
JP6163266B2 (ja) | 2013-08-06 | 2017-07-12 | アップル インコーポレイテッド | リモート機器からの作動に基づくスマート応答の自動作動 |
KR20150024188A (ko) * | 2013-08-26 | 2015-03-06 | 삼성전자주식회사 | 음성 데이터에 대응하는 문자 데이터를 변경하는 방법 및 이를 위한 전자 장치 |
US9489360B2 (en) | 2013-09-05 | 2016-11-08 | Audible, Inc. | Identifying extra material in companion content |
WO2015040743A1 (ja) | 2013-09-20 | 2015-03-26 | 株式会社東芝 | アノテーション共有方法、アノテーション共有装置及びアノテーション共有プログラム |
US20150089368A1 (en) * | 2013-09-25 | 2015-03-26 | Audible, Inc. | Searching within audio content |
KR102143997B1 (ko) * | 2013-10-17 | 2020-08-12 | 삼성전자 주식회사 | 단말장치의 정보 리스트 처리장치 및 방법 |
US10296160B2 (en) | 2013-12-06 | 2019-05-21 | Apple Inc. | Method for extracting salient dialog usage from live data |
US9620105B2 (en) | 2014-05-15 | 2017-04-11 | Apple Inc. | Analyzing audio input for efficient speech and music recognition |
US10592095B2 (en) | 2014-05-23 | 2020-03-17 | Apple Inc. | Instantaneous speaking of content on touch devices |
US9502031B2 (en) | 2014-05-27 | 2016-11-22 | Apple Inc. | Method for supporting dynamic grammars in WFST-based ASR |
US9966065B2 (en) | 2014-05-30 | 2018-05-08 | Apple Inc. | Multi-command single utterance input method |
US9633004B2 (en) | 2014-05-30 | 2017-04-25 | Apple Inc. | Better resolution when referencing to concepts |
US9760559B2 (en) | 2014-05-30 | 2017-09-12 | Apple Inc. | Predictive text input |
US9785630B2 (en) | 2014-05-30 | 2017-10-10 | Apple Inc. | Text prediction using combined word N-gram and unigram language models |
US9842101B2 (en) | 2014-05-30 | 2017-12-12 | Apple Inc. | Predictive conversion of language input |
US9715875B2 (en) | 2014-05-30 | 2017-07-25 | Apple Inc. | Reducing the need for manual start/end-pointing and trigger phrases |
US9430463B2 (en) | 2014-05-30 | 2016-08-30 | Apple Inc. | Exemplar-based natural language processing |
US9734193B2 (en) | 2014-05-30 | 2017-08-15 | Apple Inc. | Determining domain salience ranking from ambiguous words in natural speech |
US10289433B2 (en) | 2014-05-30 | 2019-05-14 | Apple Inc. | Domain specific language for encoding assistant dialog |
US10170123B2 (en) | 2014-05-30 | 2019-01-01 | Apple Inc. | Intelligent assistant for home automation |
US10078631B2 (en) | 2014-05-30 | 2018-09-18 | Apple Inc. | Entropy-guided text prediction using combined word and character n-gram language models |
US10659851B2 (en) | 2014-06-30 | 2020-05-19 | Apple Inc. | Real-time digital assistant knowledge updates |
US9338493B2 (en) | 2014-06-30 | 2016-05-10 | Apple Inc. | Intelligent automated assistant for TV user interactions |
US10446141B2 (en) | 2014-08-28 | 2019-10-15 | Apple Inc. | Automatic speech recognition based on user feedback |
US9818400B2 (en) | 2014-09-11 | 2017-11-14 | Apple Inc. | Method and apparatus for discovering trending terms in speech requests |
US10789041B2 (en) | 2014-09-12 | 2020-09-29 | Apple Inc. | Dynamic thresholds for always listening speech trigger |
US10074360B2 (en) | 2014-09-30 | 2018-09-11 | Apple Inc. | Providing an indication of the suitability of speech recognition |
US10127911B2 (en) | 2014-09-30 | 2018-11-13 | Apple Inc. | Speaker identification and unsupervised speaker adaptation techniques |
US9886432B2 (en) | 2014-09-30 | 2018-02-06 | Apple Inc. | Parsimonious handling of word inflection via categorical stem + suffix N-gram language models |
US9646609B2 (en) | 2014-09-30 | 2017-05-09 | Apple Inc. | Caching apparatus for serving phonetic pronunciations |
US9668121B2 (en) | 2014-09-30 | 2017-05-30 | Apple Inc. | Social reminders |
US10552013B2 (en) | 2014-12-02 | 2020-02-04 | Apple Inc. | Data detection |
US9711141B2 (en) | 2014-12-09 | 2017-07-18 | Apple Inc. | Disambiguating heteronyms in speech synthesis |
US9865280B2 (en) | 2015-03-06 | 2018-01-09 | Apple Inc. | Structured dictation using intelligent automated assistants |
US10152299B2 (en) | 2015-03-06 | 2018-12-11 | Apple Inc. | Reducing response latency of intelligent automated assistants |
US9721566B2 (en) | 2015-03-08 | 2017-08-01 | Apple Inc. | Competing devices responding to voice triggers |
US10567477B2 (en) | 2015-03-08 | 2020-02-18 | Apple Inc. | Virtual assistant continuity |
US9886953B2 (en) | 2015-03-08 | 2018-02-06 | Apple Inc. | Virtual assistant activation |
US9899019B2 (en) | 2015-03-18 | 2018-02-20 | Apple Inc. | Systems and methods for structured stem and suffix language models |
CN106033678A (zh) * | 2015-03-18 | 2016-10-19 | 珠海金山办公软件有限公司 | 一种播放内容显示方法及装置 |
US10089059B1 (en) * | 2015-03-30 | 2018-10-02 | Audible, Inc. | Managing playback of media content with location data |
US9842105B2 (en) | 2015-04-16 | 2017-12-12 | Apple Inc. | Parsimonious continuous-space phrase representations for natural language processing |
US10331304B2 (en) | 2015-05-06 | 2019-06-25 | Microsoft Technology Licensing, Llc | Techniques to automatically generate bookmarks for media files |
US10460227B2 (en) | 2015-05-15 | 2019-10-29 | Apple Inc. | Virtual assistant in a communication session |
US10083688B2 (en) | 2015-05-27 | 2018-09-25 | Apple Inc. | Device voice control for selecting a displayed affordance |
US10200824B2 (en) | 2015-05-27 | 2019-02-05 | Apple Inc. | Systems and methods for proactively identifying and surfacing relevant content on a touch-sensitive device |
US10127220B2 (en) | 2015-06-04 | 2018-11-13 | Apple Inc. | Language identification from short strings |
US10101822B2 (en) | 2015-06-05 | 2018-10-16 | Apple Inc. | Language input correction |
US9578173B2 (en) | 2015-06-05 | 2017-02-21 | Apple Inc. | Virtual assistant aided communication with 3rd party service in a communication session |
US10255907B2 (en) | 2015-06-07 | 2019-04-09 | Apple Inc. | Automatic accent detection using acoustic models |
US10186254B2 (en) | 2015-06-07 | 2019-01-22 | Apple Inc. | Context-based endpoint detection |
US11025565B2 (en) | 2015-06-07 | 2021-06-01 | Apple Inc. | Personalized prediction of responses for instant messaging |
US20160378747A1 (en) | 2015-06-29 | 2016-12-29 | Apple Inc. | Virtual assistant for media playback |
US10387570B2 (en) * | 2015-08-27 | 2019-08-20 | Lenovo (Singapore) Pte Ltd | Enhanced e-reader experience |
US10747498B2 (en) | 2015-09-08 | 2020-08-18 | Apple Inc. | Zero latency digital assistant |
US10740384B2 (en) | 2015-09-08 | 2020-08-11 | Apple Inc. | Intelligent automated assistant for media search and playback |
US10671428B2 (en) | 2015-09-08 | 2020-06-02 | Apple Inc. | Distributed personal assistant |
US10331312B2 (en) | 2015-09-08 | 2019-06-25 | Apple Inc. | Intelligent automated assistant in a media environment |
GB201516552D0 (en) * | 2015-09-18 | 2015-11-04 | Microsoft Technology Licensing Llc | Keyword zoom |
GB201516553D0 (en) | 2015-09-18 | 2015-11-04 | Microsoft Technology Licensing Llc | Inertia audio scrolling |
US9697820B2 (en) | 2015-09-24 | 2017-07-04 | Apple Inc. | Unit-selection text-to-speech synthesis using concatenation-sensitive neural networks |
US11010550B2 (en) | 2015-09-29 | 2021-05-18 | Apple Inc. | Unified language modeling framework for word prediction, auto-completion and auto-correction |
US10366158B2 (en) | 2015-09-29 | 2019-07-30 | Apple Inc. | Efficient word encoding for recurrent neural network language models |
US11587559B2 (en) | 2015-09-30 | 2023-02-21 | Apple Inc. | Intelligent device identification |
US20170098324A1 (en) * | 2015-10-05 | 2017-04-06 | Vitthal Srinivasan | Method and system for automatically converting input text into animated video |
KR101663300B1 (ko) * | 2015-11-04 | 2016-10-07 | 주식회사 디앤피코퍼레이션 | 인터랙티브 동화책 구현 장치 및 방법 |
US10691473B2 (en) | 2015-11-06 | 2020-06-23 | Apple Inc. | Intelligent automated assistant in a messaging environment |
US10956666B2 (en) | 2015-11-09 | 2021-03-23 | Apple Inc. | Unconventional virtual assistant interactions |
US10049668B2 (en) | 2015-12-02 | 2018-08-14 | Apple Inc. | Applying neural network language models to weighted finite state transducers for automatic speech recognition |
US10147416B2 (en) * | 2015-12-09 | 2018-12-04 | Amazon Technologies, Inc. | Text-to-speech processing systems and methods |
US10223066B2 (en) | 2015-12-23 | 2019-03-05 | Apple Inc. | Proactive assistance based on dialog communication between devices |
US10235367B2 (en) * | 2016-01-11 | 2019-03-19 | Microsoft Technology Licensing, Llc | Organization, retrieval, annotation and presentation of media data files using signals captured from a viewing environment |
CN105632484B (zh) * | 2016-02-19 | 2019-04-09 | 云知声(上海)智能科技有限公司 | 语音合成数据库停顿信息自动标注方法及系统 |
US10446143B2 (en) | 2016-03-14 | 2019-10-15 | Apple Inc. | Identification of voice inputs providing credentials |
EP3430613B1 (en) * | 2016-03-16 | 2019-10-30 | Sony Mobile Communications Inc. | Controlling playback of speech-containing audio data |
US11074034B2 (en) * | 2016-04-27 | 2021-07-27 | Sony Corporation | Information processing apparatus, information processing method, and program |
US20170315976A1 (en) * | 2016-04-29 | 2017-11-02 | Seagate Technology Llc | Annotations for digital media items post capture |
US9934775B2 (en) | 2016-05-26 | 2018-04-03 | Apple Inc. | Unit-selection text-to-speech synthesis based on predicted concatenation parameters |
US9972304B2 (en) | 2016-06-03 | 2018-05-15 | Apple Inc. | Privacy preserving distributed evaluation framework for embedded personalized systems |
US11227589B2 (en) | 2016-06-06 | 2022-01-18 | Apple Inc. | Intelligent list reading |
US10249300B2 (en) | 2016-06-06 | 2019-04-02 | Apple Inc. | Intelligent list reading |
US10049663B2 (en) | 2016-06-08 | 2018-08-14 | Apple, Inc. | Intelligent automated assistant for media exploration |
DK179309B1 (en) | 2016-06-09 | 2018-04-23 | Apple Inc | Intelligent automated assistant in a home environment |
US10490187B2 (en) | 2016-06-10 | 2019-11-26 | Apple Inc. | Digital assistant providing automated status report |
US10192552B2 (en) | 2016-06-10 | 2019-01-29 | Apple Inc. | Digital assistant providing whispered speech |
US10586535B2 (en) | 2016-06-10 | 2020-03-10 | Apple Inc. | Intelligent digital assistant in a multi-tasking environment |
US10067938B2 (en) | 2016-06-10 | 2018-09-04 | Apple Inc. | Multilingual word prediction |
US10509862B2 (en) | 2016-06-10 | 2019-12-17 | Apple Inc. | Dynamic phrase expansion of language input |
DK179343B1 (en) | 2016-06-11 | 2018-05-14 | Apple Inc | Intelligent task discovery |
DK201670540A1 (en) | 2016-06-11 | 2018-01-08 | Apple Inc | Application integration with a digital assistant |
DK179049B1 (en) | 2016-06-11 | 2017-09-18 | Apple Inc | Data driven natural language event detection and classification |
DK179415B1 (en) | 2016-06-11 | 2018-06-14 | Apple Inc | Intelligent device arbitration and control |
US10474753B2 (en) | 2016-09-07 | 2019-11-12 | Apple Inc. | Language identification using recurrent neural networks |
US10043516B2 (en) | 2016-09-23 | 2018-08-07 | Apple Inc. | Intelligent automated assistant |
CN106527845B (zh) * | 2016-10-11 | 2019-12-10 | 东南大学 | 对文本中鼠标操作进行语音注释并再现的方法及装置 |
US10489110B2 (en) | 2016-11-22 | 2019-11-26 | Microsoft Technology Licensing, Llc | Implicit narration for aural user interface |
US10559297B2 (en) * | 2016-11-28 | 2020-02-11 | Microsoft Technology Licensing, Llc | Audio landmarking for aural user interface |
US11281993B2 (en) | 2016-12-05 | 2022-03-22 | Apple Inc. | Model and ensemble compression for metric learning |
US10593346B2 (en) | 2016-12-22 | 2020-03-17 | Apple Inc. | Rank-reduced token representation for automatic speech recognition |
US11204787B2 (en) | 2017-01-09 | 2021-12-21 | Apple Inc. | Application integration with a digital assistant |
US10475438B1 (en) * | 2017-03-02 | 2019-11-12 | Amazon Technologies, Inc. | Contextual text-to-speech processing |
CN107122179A (zh) | 2017-03-31 | 2017-09-01 | 阿里巴巴集团控股有限公司 | 语音的功能控制方法和装置 |
US20200294487A1 (en) * | 2017-04-03 | 2020-09-17 | Ex-Iq, Inc. | Hands-free annotations of audio text |
US10417266B2 (en) | 2017-05-09 | 2019-09-17 | Apple Inc. | Context-aware ranking of intelligent response suggestions |
DK201770383A1 (en) | 2017-05-09 | 2018-12-14 | Apple Inc. | USER INTERFACE FOR CORRECTING RECOGNITION ERRORS |
DK180048B1 (en) | 2017-05-11 | 2020-02-04 | Apple Inc. | MAINTAINING THE DATA PROTECTION OF PERSONAL INFORMATION |
US10726832B2 (en) | 2017-05-11 | 2020-07-28 | Apple Inc. | Maintaining privacy of personal information |
DK201770439A1 (en) | 2017-05-11 | 2018-12-13 | Apple Inc. | Offline personal assistant |
US10395654B2 (en) | 2017-05-11 | 2019-08-27 | Apple Inc. | Text normalization based on a data-driven learning network |
US11301477B2 (en) | 2017-05-12 | 2022-04-12 | Apple Inc. | Feedback analysis of a digital assistant |
DK179496B1 (en) | 2017-05-12 | 2019-01-15 | Apple Inc. | USER-SPECIFIC Acoustic Models |
DK201770429A1 (en) | 2017-05-12 | 2018-12-14 | Apple Inc. | LOW-LATENCY INTELLIGENT AUTOMATED ASSISTANT |
DK179745B1 (en) | 2017-05-12 | 2019-05-01 | Apple Inc. | SYNCHRONIZATION AND TASK DELEGATION OF A DIGITAL ASSISTANT |
DK201770431A1 (en) | 2017-05-15 | 2018-12-20 | Apple Inc. | Optimizing dialogue policy decisions for digital assistants using implicit feedback |
DK201770432A1 (en) | 2017-05-15 | 2018-12-21 | Apple Inc. | Hierarchical belief states for digital assistants |
US10311144B2 (en) | 2017-05-16 | 2019-06-04 | Apple Inc. | Emoji word sense disambiguation |
US10303715B2 (en) | 2017-05-16 | 2019-05-28 | Apple Inc. | Intelligent automated assistant for media exploration |
DK179549B1 (en) | 2017-05-16 | 2019-02-12 | Apple Inc. | FAR-FIELD EXTENSION FOR DIGITAL ASSISTANT SERVICES |
US20180336892A1 (en) | 2017-05-16 | 2018-11-22 | Apple Inc. | Detecting a trigger of a digital assistant |
US10403278B2 (en) | 2017-05-16 | 2019-09-03 | Apple Inc. | Methods and systems for phonetic matching in digital assistant services |
US10657328B2 (en) | 2017-06-02 | 2020-05-19 | Apple Inc. | Multi-task recurrent neural network architecture for efficient morphology handling in neural language modeling |
US10445429B2 (en) | 2017-09-21 | 2019-10-15 | Apple Inc. | Natural language understanding using vocabularies with compressed serialized tries |
CN107657973B (zh) * | 2017-09-27 | 2020-05-08 | 风变科技(深圳)有限公司 | 文本及音频混合显示方法、装置、终端设备及存储介质 |
US10755051B2 (en) | 2017-09-29 | 2020-08-25 | Apple Inc. | Rule-based natural language processing |
CN107885430B (zh) * | 2017-11-07 | 2020-07-24 | Oppo广东移动通信有限公司 | 一种音频播放方法、装置、存储介质及电子设备 |
US10636424B2 (en) | 2017-11-30 | 2020-04-28 | Apple Inc. | Multi-turn canned dialog |
US10733982B2 (en) | 2018-01-08 | 2020-08-04 | Apple Inc. | Multi-directional dialog |
US10733375B2 (en) | 2018-01-31 | 2020-08-04 | Apple Inc. | Knowledge-based framework for improving natural language understanding |
CN108255386B (zh) * | 2018-02-12 | 2019-07-05 | 掌阅科技股份有限公司 | 电子书手写笔记的显示方法、计算设备及计算机存储介质 |
CN108460120A (zh) * | 2018-02-13 | 2018-08-28 | 广州视源电子科技股份有限公司 | 数据保存方法、装置、终端设备及存储介质 |
US10789959B2 (en) | 2018-03-02 | 2020-09-29 | Apple Inc. | Training speaker recognition models for digital assistants |
US10592604B2 (en) | 2018-03-12 | 2020-03-17 | Apple Inc. | Inverse text normalization for automatic speech recognition |
US10818288B2 (en) | 2018-03-26 | 2020-10-27 | Apple Inc. | Natural assistant interaction |
US10909331B2 (en) | 2018-03-30 | 2021-02-02 | Apple Inc. | Implicit identification of translation payload with neural machine translation |
US10928918B2 (en) | 2018-05-07 | 2021-02-23 | Apple Inc. | Raise to speak |
US11145294B2 (en) | 2018-05-07 | 2021-10-12 | Apple Inc. | Intelligent automated assistant for delivering content from user experiences |
US10984780B2 (en) | 2018-05-21 | 2021-04-20 | Apple Inc. | Global semantic word embeddings using bi-directional recurrent neural networks |
DK180639B1 (en) | 2018-06-01 | 2021-11-04 | Apple Inc | DISABILITY OF ATTENTION-ATTENTIVE VIRTUAL ASSISTANT |
DK179822B1 (da) | 2018-06-01 | 2019-07-12 | Apple Inc. | Voice interaction at a primary device to access call functionality of a companion device |
DK201870355A1 (en) | 2018-06-01 | 2019-12-16 | Apple Inc. | VIRTUAL ASSISTANT OPERATION IN MULTI-DEVICE ENVIRONMENTS |
US11386266B2 (en) | 2018-06-01 | 2022-07-12 | Apple Inc. | Text correction |
US10892996B2 (en) | 2018-06-01 | 2021-01-12 | Apple Inc. | Variable latency device coordination |
US10496705B1 (en) | 2018-06-03 | 2019-12-03 | Apple Inc. | Accelerated task performance |
EP3613037B1 (en) * | 2018-06-27 | 2020-10-21 | Google LLC | Rendering responses to a spoken utterance of a user utilizing a local text-response map |
US10380997B1 (en) * | 2018-07-27 | 2019-08-13 | Deepgram, Inc. | Deep learning internal state index-based search and classification |
KR102136464B1 (ko) * | 2018-07-31 | 2020-07-21 | 전자부품연구원 | 어텐션 메커니즘 기반의 오디오 분할 방법 |
EP3844745B1 (en) * | 2018-08-27 | 2023-03-08 | Google LLC | Algorithmic determination of a story readers discontinuation of reading |
CN112889022A (zh) | 2018-08-31 | 2021-06-01 | 谷歌有限责任公司 | 基于场境数据的故事时间特殊效果的动态调整 |
CN112955861A (zh) | 2018-09-04 | 2021-06-11 | 谷歌有限责任公司 | 用于预缓存特殊效果的故事阅读器进度的检测 |
CN112805779A (zh) | 2018-09-04 | 2021-05-14 | 谷歌有限责任公司 | 基于语音模糊匹配和置信区间的阅读进度估计 |
US11010561B2 (en) | 2018-09-27 | 2021-05-18 | Apple Inc. | Sentiment prediction from textual data |
US10839159B2 (en) | 2018-09-28 | 2020-11-17 | Apple Inc. | Named entity normalization in a spoken dialog system |
US11462215B2 (en) | 2018-09-28 | 2022-10-04 | Apple Inc. | Multi-modal inputs for voice commands |
US11170166B2 (en) | 2018-09-28 | 2021-11-09 | Apple Inc. | Neural typographical error modeling via generative adversarial networks |
CN109522427B (zh) * | 2018-09-30 | 2021-12-10 | 北京光年无限科技有限公司 | 一种面向智能机器人的故事数据处理方法及装置 |
US11475898B2 (en) | 2018-10-26 | 2022-10-18 | Apple Inc. | Low-latency multi-speaker speech recognition |
CN109491740B (zh) * | 2018-10-30 | 2021-09-10 | 北京云测信息技术有限公司 | 一种基于上下文背景信息的自动多版本漏斗页面选优方法 |
GB2578742A (en) * | 2018-11-06 | 2020-05-27 | Arm Ip Ltd | Resources and methods for tracking progression in a literary work |
EP3660848A1 (en) * | 2018-11-29 | 2020-06-03 | Ricoh Company, Ltd. | Apparatus, system, and method of display control, and carrier means |
US11638059B2 (en) | 2019-01-04 | 2023-04-25 | Apple Inc. | Content playback on multiple devices |
KR20200092763A (ko) * | 2019-01-25 | 2020-08-04 | 삼성전자주식회사 | 사용자 음성을 처리하는 전자장치 및 그 제어 방법 |
CN110110136A (zh) * | 2019-02-27 | 2019-08-09 | 咪咕数字传媒有限公司 | 一种文音匹配方法、电子设备及存储介质 |
US11348573B2 (en) | 2019-03-18 | 2022-05-31 | Apple Inc. | Multimodality in digital assistant systems |
US10930284B2 (en) | 2019-04-11 | 2021-02-23 | Advanced New Technologies Co., Ltd. | Information processing system, method, device and equipment |
US11475884B2 (en) | 2019-05-06 | 2022-10-18 | Apple Inc. | Reducing digital assistant latency when a language is incorrectly determined |
DK201970509A1 (en) | 2019-05-06 | 2021-01-15 | Apple Inc | Spoken notifications |
US11307752B2 (en) | 2019-05-06 | 2022-04-19 | Apple Inc. | User configurable task triggers |
US11423908B2 (en) | 2019-05-06 | 2022-08-23 | Apple Inc. | Interpreting spoken requests |
US11140099B2 (en) | 2019-05-21 | 2021-10-05 | Apple Inc. | Providing message response suggestions |
DK201970511A1 (en) | 2019-05-31 | 2021-02-15 | Apple Inc | Voice identification in digital assistant systems |
DK180129B1 (en) | 2019-05-31 | 2020-06-02 | Apple Inc. | USER ACTIVITY SHORTCUT SUGGESTIONS |
US11496600B2 (en) | 2019-05-31 | 2022-11-08 | Apple Inc. | Remote execution of machine-learned models |
US11289073B2 (en) | 2019-05-31 | 2022-03-29 | Apple Inc. | Device text to speech |
US11360641B2 (en) | 2019-06-01 | 2022-06-14 | Apple Inc. | Increasing the relevance of new available information |
US11468890B2 (en) | 2019-06-01 | 2022-10-11 | Apple Inc. | Methods and user interfaces for voice-based control of electronic devices |
EP3791383B1 (en) * | 2019-07-09 | 2021-12-08 | Google LLC | On-device speech synthesis of textual segments for training of on-device speech recognition model |
US11488406B2 (en) | 2019-09-25 | 2022-11-01 | Apple Inc. | Text detection using global geometry estimators |
US11354920B2 (en) * | 2019-10-12 | 2022-06-07 | International Business Machines Corporation | Updating and implementing a document from an audio proceeding |
US11350185B2 (en) * | 2019-12-13 | 2022-05-31 | Bank Of America Corporation | Text-to-audio for interactive videos using a markup language |
US10805665B1 (en) | 2019-12-13 | 2020-10-13 | Bank Of America Corporation | Synchronizing text-to-audio with interactive videos in the video framework |
USD954967S1 (en) * | 2020-02-21 | 2022-06-14 | Bone Foam, Inc. | Dual leg support device |
US11183193B1 (en) | 2020-05-11 | 2021-11-23 | Apple Inc. | Digital assistant hardware abstraction |
US11061543B1 (en) | 2020-05-11 | 2021-07-13 | Apple Inc. | Providing relevant data items based on context |
US11755276B2 (en) | 2020-05-12 | 2023-09-12 | Apple Inc. | Reducing description length based on confidence |
US11490204B2 (en) | 2020-07-20 | 2022-11-01 | Apple Inc. | Multi-device audio adjustment coordination |
US11438683B2 (en) | 2020-07-21 | 2022-09-06 | Apple Inc. | User identification using headphones |
WO2022047516A1 (en) * | 2020-09-04 | 2022-03-10 | The University Of Melbourne | System and method for audio annotation |
CN112530472B (zh) * | 2020-11-26 | 2022-06-21 | 北京字节跳动网络技术有限公司 | 音频与文本的同步方法、装置、可读介质和电子设备 |
CN112990173B (zh) * | 2021-02-04 | 2023-10-27 | 上海哔哩哔哩科技有限公司 | 阅读处理方法、装置及系统 |
US11798536B2 (en) | 2021-06-14 | 2023-10-24 | International Business Machines Corporation | Annotation of media files with convenient pause points |
KR102553832B1 (ko) | 2021-07-27 | 2023-07-07 | 울산과학기술원 | 청취 수단의 조작 및 보조 장치 |
US11537781B1 (en) | 2021-09-15 | 2022-12-27 | Lumos Information Services, LLC | System and method to support synchronization, closed captioning and highlight within a text document or a media file |
US20230177258A1 (en) * | 2021-12-02 | 2023-06-08 | At&T Intellectual Property I, L.P. | Shared annotation of media sub-content |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6260011B1 (en) * | 2000-03-20 | 2001-07-10 | Microsoft Corporation | Methods and apparatus for automatically synchronizing electronic audio files with electronic text files |
JP2004152063A (ja) * | 2002-10-31 | 2004-05-27 | Nec Corp | マルチメディアコンテンツ構造化方法、構造化装置および構造化プログラム、ならびに提供方法 |
Family Cites Families (801)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US626011A (en) * | 1899-05-30 | stuckwisch | ||
US3828132A (en) | 1970-10-30 | 1974-08-06 | Bell Telephone Labor Inc | Speech synthesis by concatenation of formant encoded words |
US3704345A (en) | 1971-03-19 | 1972-11-28 | Bell Telephone Labor Inc | Conversion of printed text into synthetic speech |
US3979557A (en) | 1974-07-03 | 1976-09-07 | International Telephone And Telegraph Corporation | Speech processor system for pitch period extraction using prediction filters |
BG24190A1 (en) | 1976-09-08 | 1978-01-10 | Antonov | Method of synthesis of speech and device for effecting same |
JPS597120B2 (ja) | 1978-11-24 | 1984-02-16 | 日本電気株式会社 | 音声分析装置 |
US4310721A (en) | 1980-01-23 | 1982-01-12 | The United States Of America As Represented By The Secretary Of The Army | Half duplex integral vocoder modem system |
US4348553A (en) | 1980-07-02 | 1982-09-07 | International Business Machines Corporation | Parallel pattern verifier with dynamic time warping |
US5047617A (en) | 1982-01-25 | 1991-09-10 | Symbol Technologies, Inc. | Narrow-bodied, single- and twin-windowed portable laser scanning head for reading bar code symbols |
EP0411675B1 (en) | 1982-06-11 | 1995-09-20 | Mitsubishi Denki Kabushiki Kaisha | Interframe coding apparatus |
US4688195A (en) | 1983-01-28 | 1987-08-18 | Texas Instruments Incorporated | Natural-language interface generating system |
JPS603056A (ja) | 1983-06-21 | 1985-01-09 | Toshiba Corp | 情報整理装置 |
DE3335358A1 (de) | 1983-09-29 | 1985-04-11 | Siemens AG, 1000 Berlin und 8000 München | Verfahren zur bestimmung von sprachspektren fuer die automatische spracherkennung und sprachcodierung |
US5164900A (en) | 1983-11-14 | 1992-11-17 | Colman Bernath | Method and device for phonetically encoding Chinese textual data for data processing entry |
US4726065A (en) | 1984-01-26 | 1988-02-16 | Horst Froessl | Image manipulation by speech signals |
US4955047A (en) | 1984-03-26 | 1990-09-04 | Dytel Corporation | Automated attendant with direct inward system access |
US4811243A (en) | 1984-04-06 | 1989-03-07 | Racine Marsh V | Computer aided coordinate digitizing system |
US4692941A (en) | 1984-04-10 | 1987-09-08 | First Byte | Real-time text-to-speech conversion system |
US4783807A (en) | 1984-08-27 | 1988-11-08 | John Marley | System and method for sound recognition with feature selection synchronized to voice pitch |
US4718094A (en) | 1984-11-19 | 1988-01-05 | International Business Machines Corp. | Speech recognition system |
US5165007A (en) | 1985-02-01 | 1992-11-17 | International Business Machines Corporation | Feneme-based Markov models for words |
US4944013A (en) | 1985-04-03 | 1990-07-24 | British Telecommunications Public Limited Company | Multi-pulse speech coder |
US4819271A (en) | 1985-05-29 | 1989-04-04 | International Business Machines Corporation | Constructing Markov model word baseforms from multiple utterances by concatenating model sequences for word segments |
US4833712A (en) | 1985-05-29 | 1989-05-23 | International Business Machines Corporation | Automatic generation of simple Markov model stunted baseforms for words in a vocabulary |
US4829583A (en) | 1985-06-03 | 1989-05-09 | Sino Business Machines, Inc. | Method and apparatus for processing ideographic characters |
EP0218859A3 (en) | 1985-10-11 | 1989-09-06 | International Business Machines Corporation | Signal processor communication interface |
US4776016A (en) | 1985-11-21 | 1988-10-04 | Position Orientation Systems, Inc. | Voice control system |
JPH0833744B2 (ja) | 1986-01-09 | 1996-03-29 | 株式会社東芝 | 音声合成装置 |
US4724542A (en) | 1986-01-22 | 1988-02-09 | International Business Machines Corporation | Automatic reference adaptation during dynamic signature verification |
US5759101A (en) | 1986-03-10 | 1998-06-02 | Response Reward Systems L.C. | Central and remote evaluation of responses of participatory broadcast audience with automatic crediting and couponing |
US5128752A (en) | 1986-03-10 | 1992-07-07 | Kohorn H Von | System and method for generating and redeeming tokens |
US5032989A (en) | 1986-03-19 | 1991-07-16 | Realpro, Ltd. | Real estate search and location system and method |
DE3779351D1 (ko) | 1986-03-28 | 1992-07-02 | American Telephone And Telegraph Co., New York, N.Y., Us | |
US4903305A (en) | 1986-05-12 | 1990-02-20 | Dragon Systems, Inc. | Method for representing word models for use in speech recognition |
RU2070734C1 (ru) | 1986-10-03 | 1996-12-20 | Бритиш Телекоммьюникейшнз Паблик Лимитед Компани | Устройство для перевода фраз из нескольких слов с первого языка на второй |
USRE34562E (en) | 1986-10-16 | 1994-03-15 | Mitsubishi Denki Kabushiki Kaisha | Amplitude-adaptive vector quantization system |
US4829576A (en) | 1986-10-21 | 1989-05-09 | Dragon Systems, Inc. | Voice recognition system |
US4852168A (en) | 1986-11-18 | 1989-07-25 | Sprague Richard P | Compression of stored waveforms for artificial speech |
US4727354A (en) | 1987-01-07 | 1988-02-23 | Unisys Corporation | System for selecting best fit vector code in vector quantization encoding |
US4827520A (en) | 1987-01-16 | 1989-05-02 | Prince Corporation | Voice actuated control system for use in a vehicle |
US5179627A (en) | 1987-02-10 | 1993-01-12 | Dictaphone Corporation | Digital dictation system |
US4965763A (en) | 1987-03-03 | 1990-10-23 | International Business Machines Corporation | Computer method for automatic extraction of commonly specified information from business correspondence |
US5644727A (en) | 1987-04-15 | 1997-07-01 | Proprietary Financial Products, Inc. | System for the operation and management of one or more financial accounts through the use of a digital communication and computation system for exchange, investment and borrowing |
EP0293259A3 (en) | 1987-05-29 | 1990-03-07 | Kabushiki Kaisha Toshiba | Voice recognition system used in telephone apparatus |
DE3723078A1 (de) | 1987-07-11 | 1989-01-19 | Philips Patentverwaltung | Verfahren zur erkennung von zusammenhaengend gesprochenen woertern |
CA1288516C (en) | 1987-07-31 | 1991-09-03 | Leendert M. Bijnagte | Apparatus and method for communicating textual and image information between a host computer and a remote display terminal |
US4974191A (en) | 1987-07-31 | 1990-11-27 | Syntellect Software Inc. | Adaptive natural language computer interface system |
US4827518A (en) | 1987-08-06 | 1989-05-02 | Bell Communications Research, Inc. | Speaker verification system using integrated circuit cards |
US5022081A (en) | 1987-10-01 | 1991-06-04 | Sharp Kabushiki Kaisha | Information recognition system |
US4852173A (en) | 1987-10-29 | 1989-07-25 | International Business Machines Corporation | Design and construction of a binary-tree system for language modelling |
EP0314908B1 (en) | 1987-10-30 | 1992-12-02 | International Business Machines Corporation | Automatic determination of labels and markov word models in a speech recognition system |
US5072452A (en) | 1987-10-30 | 1991-12-10 | International Business Machines Corporation | Automatic determination of labels and Markov word models in a speech recognition system |
US4914586A (en) | 1987-11-06 | 1990-04-03 | Xerox Corporation | Garbage collector for hypermedia systems |
US4992972A (en) | 1987-11-18 | 1991-02-12 | International Business Machines Corporation | Flexible context searchable on-line information system with help files and modules for on-line computer system documentation |
US5220657A (en) | 1987-12-02 | 1993-06-15 | Xerox Corporation | Updating local copy of shared data in a collaborative system |
US4984177A (en) | 1988-02-05 | 1991-01-08 | Advanced Products And Technologies, Inc. | Voice language translator |
US5194950A (en) | 1988-02-29 | 1993-03-16 | Mitsubishi Denki Kabushiki Kaisha | Vector quantizer |
US4914590A (en) | 1988-05-18 | 1990-04-03 | Emhart Industries, Inc. | Natural language understanding system |
FR2636163B1 (fr) | 1988-09-02 | 1991-07-05 | Hamon Christian | Procede et dispositif de synthese de la parole par addition-recouvrement de formes d'onde |
US4839853A (en) | 1988-09-15 | 1989-06-13 | Bell Communications Research, Inc. | Computer information retrieval using latent semantic structure |
JPH0293597A (ja) | 1988-09-30 | 1990-04-04 | Nippon I B M Kk | 音声認識装置 |
US4905163A (en) | 1988-10-03 | 1990-02-27 | Minnesota Mining & Manufacturing Company | Intelligent optical navigator dynamic information presentation and navigation system |
US5282265A (en) | 1988-10-04 | 1994-01-25 | Canon Kabushiki Kaisha | Knowledge information processing system |
DE3837590A1 (de) | 1988-11-05 | 1990-05-10 | Ant Nachrichtentech | Verfahren zum reduzieren der datenrate von digitalen bilddaten |
EP0372734B1 (en) | 1988-11-23 | 1994-03-09 | Digital Equipment Corporation | Name pronunciation by synthesizer |
US5027406A (en) | 1988-12-06 | 1991-06-25 | Dragon Systems, Inc. | Method for interactive speech recognition and training |
US5127055A (en) | 1988-12-30 | 1992-06-30 | Kurzweil Applied Intelligence, Inc. | Speech recognition apparatus & method having dynamic reference pattern adaptation |
US5293448A (en) | 1989-10-02 | 1994-03-08 | Nippon Telegraph And Telephone Corporation | Speech analysis-synthesis method and apparatus therefor |
SE466029B (sv) | 1989-03-06 | 1991-12-02 | Ibm Svenska Ab | Anordning och foerfarande foer analys av naturligt spraak i ett datorbaserat informationsbehandlingssystem |
JPH0782544B2 (ja) | 1989-03-24 | 1995-09-06 | インターナショナル・ビジネス・マシーンズ・コーポレーション | マルチテンプレートを用いるdpマツチング方法及び装置 |
US4977598A (en) | 1989-04-13 | 1990-12-11 | Texas Instruments Incorporated | Efficient pruning algorithm for hidden markov model speech recognition |
US5197005A (en) | 1989-05-01 | 1993-03-23 | Intelligent Business Systems | Database retrieval system having a natural language interface |
US5010574A (en) | 1989-06-13 | 1991-04-23 | At&T Bell Laboratories | Vector quantizer search arrangement |
JP2940005B2 (ja) | 1989-07-20 | 1999-08-25 | 日本電気株式会社 | 音声符号化装置 |
US5091945A (en) | 1989-09-28 | 1992-02-25 | At&T Bell Laboratories | Source dependent channel coding with error protection |
CA2027705C (en) | 1989-10-17 | 1994-02-15 | Masami Akamine | Speech coding system utilizing a recursive computation technique for improvement in processing speed |
US5020112A (en) | 1989-10-31 | 1991-05-28 | At&T Bell Laboratories | Image recognition method using two-dimensional stochastic grammars |
US5220639A (en) | 1989-12-01 | 1993-06-15 | National Science Council | Mandarin speech input method for Chinese computers and a mandarin speech recognition machine |
US5021971A (en) | 1989-12-07 | 1991-06-04 | Unisys Corporation | Reflective binary encoder for vector quantization |
US5179652A (en) | 1989-12-13 | 1993-01-12 | Anthony I. Rozmanith | Method and apparatus for storing, transmitting and retrieving graphical and tabular data |
CH681573A5 (en) | 1990-02-13 | 1993-04-15 | Astral | Automatic teller arrangement involving bank computers - is operated by user data card carrying personal data, account information and transaction records |
EP0443548B1 (en) | 1990-02-22 | 2003-07-23 | Nec Corporation | Speech coder |
US5301109A (en) | 1990-06-11 | 1994-04-05 | Bell Communications Research, Inc. | Computerized cross-language document retrieval using latent semantic indexing |
JP3266246B2 (ja) | 1990-06-15 | 2002-03-18 | インターナシヨナル・ビジネス・マシーンズ・コーポレーシヨン | 自然言語解析装置及び方法並びに自然言語解析用知識ベース構築方法 |
US5202952A (en) | 1990-06-22 | 1993-04-13 | Dragon Systems, Inc. | Large-vocabulary continuous speech prefiltering and processing system |
GB9017600D0 (en) | 1990-08-10 | 1990-09-26 | British Aerospace | An assembly and method for binary tree-searched vector quanisation data compression processing |
US5309359A (en) | 1990-08-16 | 1994-05-03 | Boris Katz | Method and apparatus for generating and utlizing annotations to facilitate computer text retrieval |
US5404295A (en) | 1990-08-16 | 1995-04-04 | Katz; Boris | Method and apparatus for utilizing annotations to facilitate computer retrieval of database material |
US5297170A (en) | 1990-08-21 | 1994-03-22 | Codex Corporation | Lattice and trellis-coded quantization |
US5400434A (en) | 1990-09-04 | 1995-03-21 | Matsushita Electric Industrial Co., Ltd. | Voice source for synthetic speech system |
JPH0833739B2 (ja) | 1990-09-13 | 1996-03-29 | 三菱電機株式会社 | パターン表現モデル学習装置 |
US5216747A (en) | 1990-09-20 | 1993-06-01 | Digital Voice Systems, Inc. | Voiced/unvoiced estimation of an acoustic signal |
US5128672A (en) | 1990-10-30 | 1992-07-07 | Apple Computer, Inc. | Dynamic predictive keyboard |
US5325298A (en) | 1990-11-07 | 1994-06-28 | Hnc, Inc. | Methods for generating or revising context vectors for a plurality of word stems |
US5317507A (en) | 1990-11-07 | 1994-05-31 | Gallant Stephen I | Method for document retrieval and for word sense disambiguation using neural networks |
US5247579A (en) | 1990-12-05 | 1993-09-21 | Digital Voice Systems, Inc. | Methods for speech transmission |
US5345536A (en) | 1990-12-21 | 1994-09-06 | Matsushita Electric Industrial Co., Ltd. | Method of speech recognition |
US5127053A (en) | 1990-12-24 | 1992-06-30 | General Electric Company | Low-complexity method for improving the performance of autocorrelation-based pitch detectors |
US5133011A (en) | 1990-12-26 | 1992-07-21 | International Business Machines Corporation | Method and apparatus for linear vocal control of cursor position |
US5268990A (en) | 1991-01-31 | 1993-12-07 | Sri International | Method for recognizing speech using linguistically-motivated hidden Markov models |
GB9105367D0 (en) | 1991-03-13 | 1991-04-24 | Univ Strathclyde | Computerised information-retrieval database systems |
US5303406A (en) | 1991-04-29 | 1994-04-12 | Motorola, Inc. | Noise squelch circuit with adaptive noise shaping |
US5500905A (en) | 1991-06-12 | 1996-03-19 | Microelectronics And Computer Technology Corporation | Pattern recognition neural network with saccade-like operation |
US5475587A (en) | 1991-06-28 | 1995-12-12 | Digital Equipment Corporation | Method and apparatus for efficient morphological text analysis using a high-level language for compact specification of inflectional paradigms |
US5293452A (en) | 1991-07-01 | 1994-03-08 | Texas Instruments Incorporated | Voice log-in using spoken name input |
US5687077A (en) | 1991-07-31 | 1997-11-11 | Universal Dynamics Limited | Method and apparatus for adaptive control |
US5199077A (en) | 1991-09-19 | 1993-03-30 | Xerox Corporation | Wordspotting for voice editing and indexing |
JP2662120B2 (ja) | 1991-10-01 | 1997-10-08 | インターナショナル・ビジネス・マシーンズ・コーポレイション | 音声認識装置および音声認識用処理ユニット |
US5222146A (en) | 1991-10-23 | 1993-06-22 | International Business Machines Corporation | Speech recognition apparatus having a speech coder outputting acoustic prototype ranks |
US5757979A (en) | 1991-10-30 | 1998-05-26 | Fuji Electric Co., Ltd. | Apparatus and method for nonlinear normalization of image |
KR940002854B1 (ko) | 1991-11-06 | 1994-04-04 | 한국전기통신공사 | 음성 합성시스팀의 음성단편 코딩 및 그의 피치조절 방법과 그의 유성음 합성장치 |
US5386494A (en) | 1991-12-06 | 1995-01-31 | Apple Computer, Inc. | Method and apparatus for controlling a speech recognition function using a cursor control device |
US5903454A (en) | 1991-12-23 | 1999-05-11 | Hoffberg; Linda Irene | Human-factored interface corporating adaptive pattern recognition based controller apparatus |
US6081750A (en) | 1991-12-23 | 2000-06-27 | Hoffberg; Steven Mark | Ergonomic man-machine interface incorporating adaptive pattern recognition based control system |
US5502790A (en) | 1991-12-24 | 1996-03-26 | Oki Electric Industry Co., Ltd. | Speech recognition method and system using triphones, diphones, and phonemes |
US5349645A (en) | 1991-12-31 | 1994-09-20 | Matsushita Electric Industrial Co., Ltd. | Word hypothesizer for continuous speech decoding using stressed-vowel centered bidirectional tree searches |
US5267345A (en) | 1992-02-10 | 1993-11-30 | International Business Machines Corporation | Speech recognition apparatus which predicts word classes from context and words from word classes |
ES2128390T3 (es) | 1992-03-02 | 1999-05-16 | At & T Corp | Metodo de adiestramiento y dispositivo para reconocimiento de voz. |
US6055514A (en) | 1992-03-20 | 2000-04-25 | Wren; Stephen Corey | System for marketing foods and services utilizing computerized centraland remote facilities |
US5317647A (en) | 1992-04-07 | 1994-05-31 | Apple Computer, Inc. | Constrained attribute grammars for syntactic pattern recognition |
US5412804A (en) | 1992-04-30 | 1995-05-02 | Oracle Corporation | Extending the semantics of the outer join operator for un-nesting queries to a data base |
WO1993023847A1 (en) | 1992-05-20 | 1993-11-25 | Industrial Research Limited | Wideband assisted reverberation system |
US5293584A (en) | 1992-05-21 | 1994-03-08 | International Business Machines Corporation | Speech recognition system for natural language translation |
US5434777A (en) | 1992-05-27 | 1995-07-18 | Apple Computer, Inc. | Method and apparatus for processing natural language |
US5390281A (en) | 1992-05-27 | 1995-02-14 | Apple Computer, Inc. | Method and apparatus for deducing user intent and providing computer implemented services |
US5734789A (en) | 1992-06-01 | 1998-03-31 | Hughes Electronics | Voiced, unvoiced or noise modes in a CELP vocoder |
JPH064093A (ja) | 1992-06-18 | 1994-01-14 | Matsushita Electric Ind Co Ltd | Hmm作成装置、hmm記憶装置、尤度計算装置及び、認識装置 |
US5333275A (en) | 1992-06-23 | 1994-07-26 | Wheatley Barbara J | System and method for time aligning speech |
US5325297A (en) | 1992-06-25 | 1994-06-28 | System Of Multiple-Colored Images For Internationally Listed Estates, Inc. | Computer implemented method and system for storing and retrieving textual data and compressed image data |
JPH0619965A (ja) | 1992-07-01 | 1994-01-28 | Canon Inc | 自然言語処理装置 |
US5999908A (en) | 1992-08-06 | 1999-12-07 | Abelow; Daniel H. | Customer-based product design module |
US5412806A (en) | 1992-08-20 | 1995-05-02 | Hewlett-Packard Company | Calibration of logical cost formulae for queries in a heterogeneous DBMS using synthetic database |
GB9220404D0 (en) | 1992-08-20 | 1992-11-11 | Nat Security Agency | Method of identifying,retrieving and sorting documents |
US5333236A (en) | 1992-09-10 | 1994-07-26 | International Business Machines Corporation | Speech recognizer having a speech coder for an acoustic match based on context-dependent speech-transition acoustic models |
US5384893A (en) | 1992-09-23 | 1995-01-24 | Emerson & Stern Associates, Inc. | Method and apparatus for speech synthesis based on prosodic analysis |
FR2696036B1 (fr) | 1992-09-24 | 1994-10-14 | France Telecom | Procédé de mesure de ressemblance entre échantillons sonores et dispositif de mise en Óoeuvre de ce procédé. |
JPH0772840B2 (ja) | 1992-09-29 | 1995-08-02 | 日本アイ・ビー・エム株式会社 | 音声モデルの構成方法、音声認識方法、音声認識装置及び音声モデルの訓練方法 |
US5758313A (en) | 1992-10-16 | 1998-05-26 | Mobile Information Systems, Inc. | Method and apparatus for tracking vehicle location |
US5920837A (en) | 1992-11-13 | 1999-07-06 | Dragon Systems, Inc. | Word recognition system which stores two models for some words and allows selective deletion of one such model |
US6092043A (en) | 1992-11-13 | 2000-07-18 | Dragon Systems, Inc. | Apparatuses and method for training and operating speech recognition systems |
DE69327774T2 (de) | 1992-11-18 | 2000-06-21 | Canon Information Syst Inc | Prozessor zur Umwandlung von Daten in Sprache und Ablaufsteuerung hierzu |
US5455888A (en) | 1992-12-04 | 1995-10-03 | Northern Telecom Limited | Speech bandwidth extension method and apparatus |
US5412756A (en) | 1992-12-22 | 1995-05-02 | Mitsubishi Denki Kabushiki Kaisha | Artificial intelligence software shell for plant operation simulation |
US5390279A (en) | 1992-12-31 | 1995-02-14 | Apple Computer, Inc. | Partitioning speech rules by context for speech recognition |
US5613036A (en) | 1992-12-31 | 1997-03-18 | Apple Computer, Inc. | Dynamic categories for a speech recognition system |
US5384892A (en) | 1992-12-31 | 1995-01-24 | Apple Computer, Inc. | Dynamic language model for speech recognition |
US5734791A (en) | 1992-12-31 | 1998-03-31 | Apple Computer, Inc. | Rapid tree-based method for vector quantization |
US6122616A (en) | 1993-01-21 | 2000-09-19 | Apple Computer, Inc. | Method and apparatus for diphone aliasing |
US5864844A (en) | 1993-02-18 | 1999-01-26 | Apple Computer, Inc. | System and method for enhancing a user interface with a computer based training tool |
CA2091658A1 (en) | 1993-03-15 | 1994-09-16 | Matthew Lennig | Method and apparatus for automation of directory assistance using speech recognition |
US6055531A (en) | 1993-03-24 | 2000-04-25 | Engate Incorporated | Down-line transcription system having context sensitive searching capability |
US5536902A (en) | 1993-04-14 | 1996-07-16 | Yamaha Corporation | Method of and apparatus for analyzing and synthesizing a sound by extracting and controlling a sound parameter |
US5444823A (en) | 1993-04-16 | 1995-08-22 | Compaq Computer Corporation | Intelligent search engine for associated on-line documentation having questionless case-based knowledge base |
US5574823A (en) | 1993-06-23 | 1996-11-12 | Her Majesty The Queen In Right Of Canada As Represented By The Minister Of Communications | Frequency selective harmonic coding |
JPH0756933A (ja) | 1993-06-24 | 1995-03-03 | Xerox Corp | 文書検索方法 |
US5515475A (en) | 1993-06-24 | 1996-05-07 | Northern Telecom Limited | Speech recognition method using a two-pass search |
JP3685812B2 (ja) | 1993-06-29 | 2005-08-24 | ソニー株式会社 | 音声信号送受信装置 |
US5794207A (en) | 1996-09-04 | 1998-08-11 | Walker Asset Management Limited Partnership | Method and apparatus for a cryptographically assisted commercial network system designed to facilitate buyer-driven conditional purchase offers |
AU7323694A (en) | 1993-07-07 | 1995-02-06 | Inference Corporation | Case-based organizing and querying of a database |
US5495604A (en) | 1993-08-25 | 1996-02-27 | Asymetrix Corporation | Method and apparatus for the modeling and query of database structures using natural language-like constructs |
US5619694A (en) | 1993-08-26 | 1997-04-08 | Nec Corporation | Case database storage/retrieval system |
US5940811A (en) | 1993-08-27 | 1999-08-17 | Affinity Technology Group, Inc. | Closed loop financial transaction method and apparatus |
US5377258A (en) | 1993-08-30 | 1994-12-27 | National Medical Research Council | Method and apparatus for an automated and interactive behavioral guidance system |
US5873056A (en) | 1993-10-12 | 1999-02-16 | The Syracuse University | Natural language processing system for semantic vector representation which accounts for lexical ambiguity |
JP2986345B2 (ja) | 1993-10-18 | 1999-12-06 | インターナショナル・ビジネス・マシーンズ・コーポレイション | 音声記録指標化装置及び方法 |
US5578808A (en) | 1993-12-22 | 1996-11-26 | Datamark Services, Inc. | Data card that can be used for transactions involving separate card issuers |
WO1995017711A1 (en) | 1993-12-23 | 1995-06-29 | Diacom Technologies, Inc. | Method and apparatus for implementing user feedback |
US5621859A (en) | 1994-01-19 | 1997-04-15 | Bbn Corporation | Single tree method for grammar directed, very large vocabulary speech recognizer |
US5584024A (en) | 1994-03-24 | 1996-12-10 | Software Ag | Interactive database query system and method for prohibiting the selection of semantically incorrect query parameters |
US5642519A (en) | 1994-04-29 | 1997-06-24 | Sun Microsystems, Inc. | Speech interpreter with a unified grammer compiler |
DE69520302T2 (de) | 1994-05-25 | 2001-08-09 | Victor Company Of Japan | Datenwiedergabegerät mit variabler Übertragungsrate |
US5493677A (en) | 1994-06-08 | 1996-02-20 | Systems Research & Applications Corporation | Generation, archiving, and retrieval of digital images with evoked suggestion-set captions and natural language interface |
US5812697A (en) | 1994-06-10 | 1998-09-22 | Nippon Steel Corporation | Method and apparatus for recognizing hand-written characters using a weighting dictionary |
US5675819A (en) | 1994-06-16 | 1997-10-07 | Xerox Corporation | Document information retrieval using global word co-occurrence patterns |
JPH0869470A (ja) | 1994-06-21 | 1996-03-12 | Canon Inc | 自然言語処理装置及びその方法 |
US5948040A (en) | 1994-06-24 | 1999-09-07 | Delorme Publishing Co. | Travel reservation information and planning system |
DE69533479T2 (de) | 1994-07-01 | 2005-09-22 | Palm Computing, Inc., Los Altos | Zeichensatz mit zeichen aus mehreren strichen und handschrifterkennungssystem |
US5682539A (en) | 1994-09-29 | 1997-10-28 | Conrad; Donovan | Anticipated meaning natural language interface |
GB2293667B (en) | 1994-09-30 | 1998-05-27 | Intermation Limited | Database management system |
US5715468A (en) | 1994-09-30 | 1998-02-03 | Budzinski; Robert Lucius | Memory system for storing and retrieving experience and knowledge with natural language |
US5845255A (en) | 1994-10-28 | 1998-12-01 | Advanced Health Med-E-Systems Corporation | Prescription management system |
US5577241A (en) | 1994-12-07 | 1996-11-19 | Excite, Inc. | Information retrieval system and method with implementation extensible query architecture |
US5748974A (en) | 1994-12-13 | 1998-05-05 | International Business Machines Corporation | Multimodal natural language interface for cross-application tasks |
US5794050A (en) | 1995-01-04 | 1998-08-11 | Intelligent Text Processing, Inc. | Natural language understanding system |
EP1555591B1 (en) | 1995-02-13 | 2013-08-14 | Intertrust Technologies Corp. | Secure transaction management |
US5701400A (en) | 1995-03-08 | 1997-12-23 | Amado; Carlos Armando | Method and apparatus for applying if-then-else rules to data sets in a relational data base and generating from the results of application of said rules a database of diagnostics linked to said data sets to aid executive analysis of financial data |
US5749081A (en) | 1995-04-06 | 1998-05-05 | Firefly Network, Inc. | System and method for recommending items to a user |
US5642464A (en) | 1995-05-03 | 1997-06-24 | Northern Telecom Limited | Methods and apparatus for noise conditioning in digital speech compression systems using linear predictive coding |
US5812698A (en) | 1995-05-12 | 1998-09-22 | Synaptics, Inc. | Handwriting recognition system and method |
TW338815B (en) | 1995-06-05 | 1998-08-21 | Motorola Inc | Method and apparatus for character recognition of handwritten input |
US5664055A (en) | 1995-06-07 | 1997-09-02 | Lucent Technologies Inc. | CS-ACELP speech compression system with adaptive pitch prediction filter gain based on a measure of periodicity |
US5991441A (en) | 1995-06-07 | 1999-11-23 | Wang Laboratories, Inc. | Real time handwriting recognition system |
US6496182B1 (en) | 1995-06-07 | 2002-12-17 | Microsoft Corporation | Method and system for providing touch-sensitive screens for the visually impaired |
US5710886A (en) | 1995-06-16 | 1998-01-20 | Sellectsoft, L.C. | Electric couponing method and apparatus |
JP3284832B2 (ja) | 1995-06-22 | 2002-05-20 | セイコーエプソン株式会社 | 音声認識対話処理方法および音声認識対話装置 |
US6038533A (en) | 1995-07-07 | 2000-03-14 | Lucent Technologies Inc. | System and method for selecting training text |
US6026388A (en) | 1995-08-16 | 2000-02-15 | Textwise, Llc | User interface and other enhancements for natural language information retrieval system and method |
JP3697748B2 (ja) | 1995-08-21 | 2005-09-21 | セイコーエプソン株式会社 | 端末、音声認識装置 |
US5712957A (en) | 1995-09-08 | 1998-01-27 | Carnegie Mellon University | Locating and correcting erroneously recognized portions of utterances by rescoring based on two n-best lists |
US5737734A (en) | 1995-09-15 | 1998-04-07 | Infonautics Corporation | Query word relevance adjustment in a search of an information retrieval system |
US5790978A (en) | 1995-09-15 | 1998-08-04 | Lucent Technologies, Inc. | System and method for determining pitch contours |
US6173261B1 (en) | 1998-09-30 | 2001-01-09 | At&T Corp | Grammar fragment acquisition using syntactic and semantic clustering |
US5884323A (en) | 1995-10-13 | 1999-03-16 | 3Com Corporation | Extendible method and apparatus for synchronizing files on two different computer systems |
US5799276A (en) | 1995-11-07 | 1998-08-25 | Accent Incorporated | Knowledge-based speech recognition system and methods having frame length computed based upon estimated pitch period of vocalic intervals |
US5794237A (en) | 1995-11-13 | 1998-08-11 | International Business Machines Corporation | System and method for improving problem source identification in computer systems employing relevance feedback and statistical source ranking |
US6064959A (en) | 1997-03-28 | 2000-05-16 | Dragon Systems, Inc. | Error correction in speech recognition |
US5706442A (en) | 1995-12-20 | 1998-01-06 | Block Financial Corporation | System for on-line financial services using distributed objects |
US6119101A (en) | 1996-01-17 | 2000-09-12 | Personal Agents, Inc. | Intelligent agents for electronic commerce |
EP0876652B1 (en) | 1996-01-17 | 2013-06-26 | Paradox Technical Solutions LLC | Intelligent agents for electronic commerce |
US6125356A (en) | 1996-01-18 | 2000-09-26 | Rosefaire Development, Ltd. | Portable sales presentation system with selective scripted seller prompts |
US5987404A (en) | 1996-01-29 | 1999-11-16 | International Business Machines Corporation | Statistical natural language understanding using hidden clumpings |
US5729694A (en) | 1996-02-06 | 1998-03-17 | The Regents Of The University Of California | Speech coding, reconstruction and recognition using acoustics and electromagnetic waves |
US6076088A (en) | 1996-02-09 | 2000-06-13 | Paik; Woojin | Information extraction system and method using concept relation concept (CRC) triples |
US5835893A (en) | 1996-02-15 | 1998-11-10 | Atr Interpreting Telecommunications Research Labs | Class-based word clustering for speech recognition using a three-level balanced hierarchical similarity |
US5901287A (en) | 1996-04-01 | 1999-05-04 | The Sabre Group Inc. | Information aggregation and synthesization system |
US5867799A (en) | 1996-04-04 | 1999-02-02 | Lang; Andrew K. | Information system and method for filtering a massive flow of information entities to meet user information classification needs |
US5963924A (en) | 1996-04-26 | 1999-10-05 | Verifone, Inc. | System, method and article of manufacture for the use of payment instrument holders and payment instruments in network electronic commerce |
US5987140A (en) | 1996-04-26 | 1999-11-16 | Verifone, Inc. | System, method and article of manufacture for secure network electronic payment and credit collection |
US5913193A (en) | 1996-04-30 | 1999-06-15 | Microsoft Corporation | Method and system of runtime acoustic unit selection for speech synthesis |
US5857184A (en) | 1996-05-03 | 1999-01-05 | Walden Media, Inc. | Language and method for creating, organizing, and retrieving data from a database |
FR2748342B1 (fr) | 1996-05-06 | 1998-07-17 | France Telecom | Procede et dispositif de filtrage par egalisation d'un signal de parole, mettant en oeuvre un modele statistique de ce signal |
US5828999A (en) | 1996-05-06 | 1998-10-27 | Apple Computer, Inc. | Method and system for deriving a large-span semantic language model for large-vocabulary recognition systems |
US5826261A (en) | 1996-05-10 | 1998-10-20 | Spencer; Graham | System and method for querying multiple, distributed databases by selective sharing of local relative significance information for terms related to the query |
US6366883B1 (en) | 1996-05-15 | 2002-04-02 | Atr Interpreting Telecommunications | Concatenation of speech segments by use of a speech synthesizer |
US5727950A (en) | 1996-05-22 | 1998-03-17 | Netsage Corporation | Agent based instruction system and method |
US6556712B1 (en) | 1996-05-23 | 2003-04-29 | Apple Computer, Inc. | Methods and apparatus for handwriting recognition |
US5966533A (en) | 1996-06-11 | 1999-10-12 | Excite, Inc. | Method and system for dynamically synthesizing a computer program by differentially resolving atoms based on user context data |
US5915249A (en) | 1996-06-14 | 1999-06-22 | Excite, Inc. | System and method for accelerated query evaluation of very large full-text databases |
US5987132A (en) | 1996-06-17 | 1999-11-16 | Verifone, Inc. | System, method and article of manufacture for conditionally accepting a payment method utilizing an extensible, flexible architecture |
US5825881A (en) | 1996-06-28 | 1998-10-20 | Allsoft Distributing Inc. | Public network merchandising system |
US6070147A (en) | 1996-07-02 | 2000-05-30 | Tecmark Services, Inc. | Customer identification and marketing analysis systems |
EP0912954B8 (en) | 1996-07-22 | 2006-06-14 | Cyva Research Corporation | Personal information security and exchange tool |
US6453281B1 (en) | 1996-07-30 | 2002-09-17 | Vxi Corporation | Portable audio database device with icon-based graphical user-interface |
EP0829811A1 (en) | 1996-09-11 | 1998-03-18 | Nippon Telegraph And Telephone Corporation | Method and system for information retrieval |
US6181935B1 (en) | 1996-09-27 | 2001-01-30 | Software.Com, Inc. | Mobility extended telephone application programming interface and method of use |
US5794182A (en) | 1996-09-30 | 1998-08-11 | Apple Computer, Inc. | Linear predictive speech encoding systems with efficient combination pitch coefficients computation |
US5721827A (en) | 1996-10-02 | 1998-02-24 | James Logan | System for electrically distributing personalized information |
US6199076B1 (en) * | 1996-10-02 | 2001-03-06 | James Logan | Audio program player including a dynamic program selection controller |
US5732216A (en) | 1996-10-02 | 1998-03-24 | Internet Angles, Inc. | Audio message exchange system |
US5913203A (en) | 1996-10-03 | 1999-06-15 | Jaesent Inc. | System and method for pseudo cash transactions |
US5930769A (en) | 1996-10-07 | 1999-07-27 | Rose; Andrea | System and method for fashion shopping |
US5836771A (en) | 1996-12-02 | 1998-11-17 | Ho; Chi Fai | Learning method and system based on questioning |
US6282511B1 (en) | 1996-12-04 | 2001-08-28 | At&T | Voiced interface with hyperlinked information |
US6665639B2 (en) | 1996-12-06 | 2003-12-16 | Sensory, Inc. | Speech recognition in consumer electronic products |
US6078914A (en) | 1996-12-09 | 2000-06-20 | Open Text Corporation | Natural language meta-search system and method |
US5839106A (en) | 1996-12-17 | 1998-11-17 | Apple Computer, Inc. | Large-vocabulary speech recognition using an integrated syntactic and semantic statistical language model |
US5966126A (en) | 1996-12-23 | 1999-10-12 | Szabo; Andrew J. | Graphic user interface for database system |
US5932869A (en) | 1996-12-27 | 1999-08-03 | Graphic Technology, Inc. | Promotional system with magnetic stripe and visual thermo-reversible print surfaced medium |
JP3579204B2 (ja) | 1997-01-17 | 2004-10-20 | 富士通株式会社 | 文書要約装置およびその方法 |
US5941944A (en) | 1997-03-03 | 1999-08-24 | Microsoft Corporation | Method for providing a substitute for a requested inaccessible object by identifying substantially similar objects using weights corresponding to object features |
US6076051A (en) | 1997-03-07 | 2000-06-13 | Microsoft Corporation | Information retrieval utilizing semantic representation of text |
US5930801A (en) | 1997-03-07 | 1999-07-27 | Xerox Corporation | Shared-data environment in which each file has independent security properties |
US6260013B1 (en) | 1997-03-14 | 2001-07-10 | Lernout & Hauspie Speech Products N.V. | Speech recognition system employing discriminatively trained models |
WO1998041956A1 (en) | 1997-03-20 | 1998-09-24 | Schlumberger Technologies, Inc. | System and method of transactional taxation using secure stored data devices |
US5822743A (en) | 1997-04-08 | 1998-10-13 | 1215627 Ontario Inc. | Knowledge-based information retrieval system |
US5970474A (en) | 1997-04-24 | 1999-10-19 | Sears, Roebuck And Co. | Registry information system for shoppers |
US5895464A (en) | 1997-04-30 | 1999-04-20 | Eastman Kodak Company | Computer program product and a method for using natural language for the description, search and retrieval of multi-media objects |
DE69816185T2 (de) | 1997-06-12 | 2004-04-15 | Hewlett-Packard Co. (N.D.Ges.D.Staates Delaware), Palo Alto | Bildverarbeitungsverfahren und -vorrichtung |
US6017219A (en) | 1997-06-18 | 2000-01-25 | International Business Machines Corporation | System and method for interactive reading and language instruction |
WO1999001834A1 (en) | 1997-07-02 | 1999-01-14 | Coueignoux, Philippe, J., M. | System and method for the secure discovery, exploitation and publication of information |
US5860063A (en) | 1997-07-11 | 1999-01-12 | At&T Corp | Automated meaningful phrase clustering |
US5933822A (en) | 1997-07-22 | 1999-08-03 | Microsoft Corporation | Apparatus and methods for an information retrieval system that employs natural language processing of search results to improve overall precision |
US5974146A (en) | 1997-07-30 | 1999-10-26 | Huntington Bancshares Incorporated | Real time bank-centric universal payment system |
US6016476A (en) | 1997-08-11 | 2000-01-18 | International Business Machines Corporation | Portable information and transaction processing system and method utilizing biometric authorization and digital certificate security |
US5895466A (en) | 1997-08-19 | 1999-04-20 | At&T Corp | Automated natural language understanding customer service system |
US6081774A (en) | 1997-08-22 | 2000-06-27 | Novell, Inc. | Natural language information retrieval system and method |
US6404876B1 (en) | 1997-09-25 | 2002-06-11 | Gte Intelligent Network Services Incorporated | System and method for voice activated dialing and routing under open access network control |
US6023684A (en) | 1997-10-01 | 2000-02-08 | Security First Technologies, Inc. | Three tier financial transaction system with cache memory |
DE69712485T2 (de) | 1997-10-23 | 2002-12-12 | Sony Int Europe Gmbh | Sprachschnittstelle für ein Hausnetzwerk |
US6108627A (en) | 1997-10-31 | 2000-08-22 | Nortel Networks Corporation | Automatic transcription tool |
US5943670A (en) | 1997-11-21 | 1999-08-24 | International Business Machines Corporation | System and method for categorizing objects in combined categories |
US5960422A (en) | 1997-11-26 | 1999-09-28 | International Business Machines Corporation | System and method for optimized source selection in an information retrieval system |
US6026375A (en) | 1997-12-05 | 2000-02-15 | Nortel Networks Corporation | Method and apparatus for processing orders from customers in a mobile environment |
US6064960A (en) | 1997-12-18 | 2000-05-16 | Apple Computer, Inc. | Method and apparatus for improved duration modeling of phonemes |
US6094649A (en) | 1997-12-22 | 2000-07-25 | Partnet, Inc. | Keyword searches of structured databases |
US6173287B1 (en) | 1998-03-11 | 2001-01-09 | Digital Equipment Corporation | Technique for ranking multimedia annotations of interest |
US6195641B1 (en) | 1998-03-27 | 2001-02-27 | International Business Machines Corp. | Network universal spoken language vocabulary |
US6026393A (en) | 1998-03-31 | 2000-02-15 | Casebank Technologies Inc. | Configuration knowledge as an aid to case retrieval |
US6233559B1 (en) | 1998-04-01 | 2001-05-15 | Motorola, Inc. | Speech control of multiple applications using applets |
US6173279B1 (en) | 1998-04-09 | 2001-01-09 | At&T Corp. | Method of using a natural language interface to retrieve information from one or more data resources |
US6088731A (en) | 1998-04-24 | 2000-07-11 | Associative Computing, Inc. | Intelligent assistant for use with a local computer and with the internet |
EP1076865B1 (en) | 1998-04-27 | 2002-12-18 | BRITISH TELECOMMUNICATIONS public limited company | Database access tool |
US6081780A (en) | 1998-04-28 | 2000-06-27 | International Business Machines Corporation | TTS and prosody based authoring system |
US6016471A (en) | 1998-04-29 | 2000-01-18 | Matsushita Electric Industrial Co., Ltd. | Method and apparatus using decision trees to generate and score multiple pronunciations for a spelled word |
US6029132A (en) | 1998-04-30 | 2000-02-22 | Matsushita Electric Industrial Co. | Method for letter-to-sound in text-to-speech synthesis |
US6285786B1 (en) | 1998-04-30 | 2001-09-04 | Motorola, Inc. | Text recognizer and method using non-cumulative character scoring in a forward search |
US6144938A (en) | 1998-05-01 | 2000-11-07 | Sun Microsystems, Inc. | Voice user interface with personality |
US20070094224A1 (en) | 1998-05-28 | 2007-04-26 | Lawrence Au | Method and system for determining contextual meaning for network search applications |
US7711672B2 (en) | 1998-05-28 | 2010-05-04 | Lawrence Au | Semantic network methods to disambiguate natural language meaning |
US6778970B2 (en) | 1998-05-28 | 2004-08-17 | Lawrence Au | Topological methods to organize semantic network data flows for conversational applications |
US6144958A (en) | 1998-07-15 | 2000-11-07 | Amazon.Com, Inc. | System and method for correcting spelling errors in search queries |
US6105865A (en) | 1998-07-17 | 2000-08-22 | Hardesty; Laurence Daniel | Financial transaction system with retirement saving benefit |
US6434524B1 (en) | 1998-09-09 | 2002-08-13 | One Voice Technologies, Inc. | Object interactive user interface using speech recognition and natural language processing |
US6499013B1 (en) | 1998-09-09 | 2002-12-24 | One Voice Technologies, Inc. | Interactive user interface using speech recognition and natural language processing |
US6792082B1 (en) | 1998-09-11 | 2004-09-14 | Comverse Ltd. | Voice mail system with personal assistant provisioning |
DE29825146U1 (de) | 1998-09-11 | 2005-08-18 | Püllen, Rainer | Teilnehmereinheit und System für einen Multimediadienst |
US6266637B1 (en) | 1998-09-11 | 2001-07-24 | International Business Machines Corporation | Phrase splicing and variable substitution using a trainable speech synthesizer |
US6317831B1 (en) | 1998-09-21 | 2001-11-13 | Openwave Systems Inc. | Method and apparatus for establishing a secure connection over a one-way data path |
ATE383640T1 (de) | 1998-10-02 | 2008-01-15 | Ibm | Vorrichtung und verfahren zur bereitstellung von netzwerk-koordinierten konversationsdiensten |
US6275824B1 (en) | 1998-10-02 | 2001-08-14 | Ncr Corporation | System and method for managing data privacy in a database management system |
GB9821969D0 (en) | 1998-10-08 | 1998-12-02 | Canon Kk | Apparatus and method for processing natural language |
US6928614B1 (en) | 1998-10-13 | 2005-08-09 | Visteon Global Technologies, Inc. | Mobile office with speech recognition |
US6453292B2 (en) | 1998-10-28 | 2002-09-17 | International Business Machines Corporation | Command boundary identifier for conversational natural language |
US6208971B1 (en) | 1998-10-30 | 2001-03-27 | Apple Computer, Inc. | Method and apparatus for command recognition using data-driven semantic inference |
US6321092B1 (en) | 1998-11-03 | 2001-11-20 | Signal Soft Corporation | Multiple input data management for wireless location-based applications |
US6839669B1 (en) | 1998-11-05 | 2005-01-04 | Scansoft, Inc. | Performing actions identified in recognized speech |
US6519565B1 (en) | 1998-11-10 | 2003-02-11 | Voice Security Systems, Inc. | Method of comparing utterances for security control |
US6446076B1 (en) | 1998-11-12 | 2002-09-03 | Accenture Llp. | Voice interactive web-based agent system responsive to a user location for prioritizing and formatting information |
DE69925932T2 (de) | 1998-11-13 | 2006-05-11 | Lernout & Hauspie Speech Products N.V. | Sprachsynthese durch verkettung von sprachwellenformen |
US6606599B2 (en) | 1998-12-23 | 2003-08-12 | Interactive Speech Technologies, Llc | Method for integrating computing processes with an interface controlled by voice actuated grammars |
US6246981B1 (en) | 1998-11-25 | 2001-06-12 | International Business Machines Corporation | Natural language task-oriented dialog manager and method |
US7082397B2 (en) | 1998-12-01 | 2006-07-25 | Nuance Communications, Inc. | System for and method of creating and browsing a voice web |
US6260024B1 (en) | 1998-12-02 | 2001-07-10 | Gary Shkedy | Method and apparatus for facilitating buyer-driven purchase orders on a commercial network system |
US7881936B2 (en) | 1998-12-04 | 2011-02-01 | Tegic Communications, Inc. | Multimodal disambiguation of speech recognition |
US6317707B1 (en) | 1998-12-07 | 2001-11-13 | At&T Corp. | Automatic clustering of tokens from a corpus for grammar acquisition |
US6177905B1 (en) | 1998-12-08 | 2001-01-23 | Avaya Technology Corp. | Location-triggered reminder for mobile user devices |
US6308149B1 (en) | 1998-12-16 | 2001-10-23 | Xerox Corporation | Grouping words with equivalent substrings by automatic clustering based on suffix relationships |
US6523172B1 (en) | 1998-12-17 | 2003-02-18 | Evolutionary Technologies International, Inc. | Parser translator system and method |
US6460029B1 (en) | 1998-12-23 | 2002-10-01 | Microsoft Corporation | System for improving search text |
US6513063B1 (en) | 1999-01-05 | 2003-01-28 | Sri International | Accessing network-based electronic information through scripted online interfaces using spoken input |
US7036128B1 (en) | 1999-01-05 | 2006-04-25 | Sri International Offices | Using a community of distributed electronic agents to support a highly mobile, ambient computing environment |
US6523061B1 (en) | 1999-01-05 | 2003-02-18 | Sri International, Inc. | System, method, and article of manufacture for agent-based navigation in a speech-based data navigation system |
US6757718B1 (en) | 1999-01-05 | 2004-06-29 | Sri International | Mobile navigation of network-based electronic information using spoken input |
US6742021B1 (en) | 1999-01-05 | 2004-05-25 | Sri International, Inc. | Navigating network-based electronic information using spoken input with multimodal error feedback |
US6851115B1 (en) | 1999-01-05 | 2005-02-01 | Sri International | Software-based architecture for communication and cooperation among distributed electronic agents |
US7152070B1 (en) | 1999-01-08 | 2006-12-19 | The Regents Of The University Of California | System and method for integrating and accessing multiple data sources within a data warehouse architecture |
JP2000207167A (ja) | 1999-01-14 | 2000-07-28 | Hewlett Packard Co <Hp> | ハイパ―・プレゼンテ―ション用言語の記述方法、ハイパ―・プレゼンテ―ション・システム、モバイル・コンピュ―タ、およびハイパ―・プレゼンテ―ション方法 |
US6282507B1 (en) | 1999-01-29 | 2001-08-28 | Sony Corporation | Method and apparatus for interactive source language expression recognition and alternative hypothesis presentation and selection |
US6505183B1 (en) | 1999-02-04 | 2003-01-07 | Authoria, Inc. | Human resource knowledge modeling and delivery system |
US20020095290A1 (en) | 1999-02-05 | 2002-07-18 | Jonathan Kahn | Speech recognition program mapping tool to align an audio file to verbatim text |
US6317718B1 (en) | 1999-02-26 | 2001-11-13 | Accenture Properties (2) B.V. | System, method and article of manufacture for location-based filtering for shopping agent in the physical world |
GB9904662D0 (en) | 1999-03-01 | 1999-04-21 | Canon Kk | Natural language search method and apparatus |
US6356905B1 (en) | 1999-03-05 | 2002-03-12 | Accenture Llp | System, method and article of manufacture for mobile communication utilizing an interface support framework |
US6928404B1 (en) | 1999-03-17 | 2005-08-09 | International Business Machines Corporation | System and methods for acoustic and language modeling for automatic speech recognition with large vocabularies |
US6584464B1 (en) | 1999-03-19 | 2003-06-24 | Ask Jeeves, Inc. | Grammar template query system |
WO2000058946A1 (en) | 1999-03-26 | 2000-10-05 | Koninklijke Philips Electronics N.V. | Client-server speech recognition |
US6356854B1 (en) | 1999-04-05 | 2002-03-12 | Delphi Technologies, Inc. | Holographic object position and type sensing system and method |
US6631346B1 (en) | 1999-04-07 | 2003-10-07 | Matsushita Electric Industrial Co., Ltd. | Method and apparatus for natural language parsing using multiple passes and tags |
WO2000060435A2 (en) | 1999-04-07 | 2000-10-12 | Rensselaer Polytechnic Institute | System and method for accessing personal information |
US6647260B2 (en) | 1999-04-09 | 2003-11-11 | Openwave Systems Inc. | Method and system facilitating web based provisioning of two-way mobile communications devices |
US6924828B1 (en) | 1999-04-27 | 2005-08-02 | Surfnotes | Method and apparatus for improved information representation |
US6697780B1 (en) | 1999-04-30 | 2004-02-24 | At&T Corp. | Method and apparatus for rapid acoustic unit selection from a large speech corpus |
AU5451800A (en) | 1999-05-28 | 2000-12-18 | Sehda, Inc. | Phrase-based dialogue modeling with particular application to creating recognition grammars for voice-controlled user interfaces |
US20020032564A1 (en) | 2000-04-19 | 2002-03-14 | Farzad Ehsani | Phrase-based dialogue modeling with particular application to creating a recognition grammar for a voice-controlled user interface |
US6931384B1 (en) | 1999-06-04 | 2005-08-16 | Microsoft Corporation | System and method providing utility-based decision making about clarification dialog given communicative uncertainty |
US6598039B1 (en) | 1999-06-08 | 2003-07-22 | Albert-Inc. S.A. | Natural language interface for searching database |
US7093693B1 (en) | 1999-06-10 | 2006-08-22 | Gazdzinski Robert F | Elevator access control system and method |
US6615175B1 (en) | 1999-06-10 | 2003-09-02 | Robert F. Gazdzinski | “Smart” elevator system and method |
US7711565B1 (en) | 1999-06-10 | 2010-05-04 | Gazdzinski Robert F | “Smart” elevator system and method |
US8065155B1 (en) | 1999-06-10 | 2011-11-22 | Gazdzinski Robert F | Adaptive advertising apparatus and methods |
US6711585B1 (en) | 1999-06-15 | 2004-03-23 | Kanisa Inc. | System and method for implementing a knowledge management system |
US6442518B1 (en) * | 1999-07-14 | 2002-08-27 | Compaq Information Technologies Group, L.P. | Method for refining time alignments of closed captions |
JP3361291B2 (ja) | 1999-07-23 | 2003-01-07 | コナミ株式会社 | 音声合成方法、音声合成装置及び音声合成プログラムを記録したコンピュータ読み取り可能な媒体 |
US6421672B1 (en) | 1999-07-27 | 2002-07-16 | Verizon Services Corp. | Apparatus for and method of disambiguation of directory listing searches utilizing multiple selectable secondary search keys |
US6628808B1 (en) | 1999-07-28 | 2003-09-30 | Datacard Corporation | Apparatus and method for verifying a scanned image |
US6622121B1 (en) | 1999-08-20 | 2003-09-16 | International Business Machines Corporation | Testing speech recognition systems using test data generated by text-to-speech conversion |
EP1079387A3 (en) | 1999-08-26 | 2003-07-09 | Matsushita Electric Industrial Co., Ltd. | Mechanism for storing information about recorded television broadcasts |
US6912499B1 (en) | 1999-08-31 | 2005-06-28 | Nortel Networks Limited | Method and apparatus for training a multilingual speech model set |
US6601234B1 (en) | 1999-08-31 | 2003-07-29 | Accenture Llp | Attribute dictionary in a business logic services environment |
US6697824B1 (en) | 1999-08-31 | 2004-02-24 | Accenture Llp | Relationship management in an E-commerce application framework |
US7127403B1 (en) | 1999-09-13 | 2006-10-24 | Microstrategy, Inc. | System and method for personalizing an interactive voice broadcast of a voice service based on particulars of a request |
US6601026B2 (en) | 1999-09-17 | 2003-07-29 | Discern Communications, Inc. | Information retrieval by natural language querying |
US6505175B1 (en) | 1999-10-06 | 2003-01-07 | Goldman, Sachs & Co. | Order centric tracking system |
US6625583B1 (en) | 1999-10-06 | 2003-09-23 | Goldman, Sachs & Co. | Handheld trading system interface |
US7020685B1 (en) | 1999-10-08 | 2006-03-28 | Openwave Systems Inc. | Method and apparatus for providing internet content to SMS-based wireless devices |
KR100812109B1 (ko) | 1999-10-19 | 2008-03-12 | 소니 일렉트로닉스 인코포레이티드 | 자연어 인터페이스 제어 시스템 |
US6807574B1 (en) | 1999-10-22 | 2004-10-19 | Tellme Networks, Inc. | Method and apparatus for content personalization over a telephone interface |
JP2001125896A (ja) | 1999-10-26 | 2001-05-11 | Victor Co Of Japan Ltd | 自然言語対話システム |
US7310600B1 (en) | 1999-10-28 | 2007-12-18 | Canon Kabushiki Kaisha | Language recognition using a similarity measure |
GB2355834A (en) | 1999-10-29 | 2001-05-02 | Nokia Mobile Phones Ltd | Speech recognition |
US9076448B2 (en) | 1999-11-12 | 2015-07-07 | Nuance Communications, Inc. | Distributed real time speech recognition system |
US6665640B1 (en) | 1999-11-12 | 2003-12-16 | Phoenix Solutions, Inc. | Interactive speech based learning/training system formulating search queries based on natural language parsing of recognized user queries |
US7725307B2 (en) | 1999-11-12 | 2010-05-25 | Phoenix Solutions, Inc. | Query engine for processing voice based queries including semantic decoding |
US7050977B1 (en) | 1999-11-12 | 2006-05-23 | Phoenix Solutions, Inc. | Speech-enabled server for internet website and method |
US6615172B1 (en) | 1999-11-12 | 2003-09-02 | Phoenix Solutions, Inc. | Intelligent query engine for processing voice based queries |
US6633846B1 (en) | 1999-11-12 | 2003-10-14 | Phoenix Solutions, Inc. | Distributed realtime speech recognition system |
US7392185B2 (en) | 1999-11-12 | 2008-06-24 | Phoenix Solutions, Inc. | Speech based learning/training system using semantic decoding |
US7412643B1 (en) * | 1999-11-23 | 2008-08-12 | International Business Machines Corporation | Method and apparatus for linking representation and realization data |
US6532446B1 (en) | 1999-11-24 | 2003-03-11 | Openwave Systems Inc. | Server based speech recognition user interface for wireless devices |
US6526382B1 (en) | 1999-12-07 | 2003-02-25 | Comverse, Inc. | Language-oriented user interfaces for voice activated services |
US7024363B1 (en) | 1999-12-14 | 2006-04-04 | International Business Machines Corporation | Methods and apparatus for contingent transfer and execution of spoken language interfaces |
US6397186B1 (en) | 1999-12-22 | 2002-05-28 | Ambush Interactive, Inc. | Hands-free, voice-operated remote control transmitter |
US6526395B1 (en) | 1999-12-31 | 2003-02-25 | Intel Corporation | Application of personality models and interaction with synthetic characters in a computing system |
US6556983B1 (en) | 2000-01-12 | 2003-04-29 | Microsoft Corporation | Methods and apparatus for finding semantic information, such as usage logs, similar to a query using a pattern lattice data space |
US6546388B1 (en) | 2000-01-14 | 2003-04-08 | International Business Machines Corporation | Metadata search results ranking system |
US6701294B1 (en) | 2000-01-19 | 2004-03-02 | Lucent Technologies, Inc. | User interface for translating natural language inquiries into database queries and data presentations |
US6829603B1 (en) | 2000-02-02 | 2004-12-07 | International Business Machines Corp. | System, method and program product for interactive natural dialog |
US6895558B1 (en) | 2000-02-11 | 2005-05-17 | Microsoft Corporation | Multi-access mode electronic personal assistant |
US6640098B1 (en) | 2000-02-14 | 2003-10-28 | Action Engine Corporation | System for obtaining service-related information for local interactive wireless devices |
AU2001243277A1 (en) | 2000-02-25 | 2001-09-03 | Synquiry Technologies, Ltd. | Conceptual factoring and unification of graphs representing semantic models |
US6895380B2 (en) | 2000-03-02 | 2005-05-17 | Electro Standards Laboratories | Voice actuation with contextual learning for intelligent machine control |
US6449620B1 (en) | 2000-03-02 | 2002-09-10 | Nimble Technology, Inc. | Method and apparatus for generating information pages using semi-structured data stored in a structured manner |
US6466654B1 (en) | 2000-03-06 | 2002-10-15 | Avaya Technology Corp. | Personal virtual assistant with semantic tagging |
AU2001245447A1 (en) | 2000-03-06 | 2001-09-17 | Kanisa Inc. | A system and method for providing an intelligent multi-step dialog with a user |
US6757362B1 (en) | 2000-03-06 | 2004-06-29 | Avaya Technology Corp. | Personal virtual assistant |
US6477488B1 (en) | 2000-03-10 | 2002-11-05 | Apple Computer, Inc. | Method for dynamic context scope selection in hybrid n-gram+LSA language modeling |
US6615220B1 (en) | 2000-03-14 | 2003-09-02 | Oracle International Corporation | Method and mechanism for data consolidation |
US6510417B1 (en) | 2000-03-21 | 2003-01-21 | America Online, Inc. | System and method for voice access to internet-based information |
GB2366009B (en) | 2000-03-22 | 2004-07-21 | Canon Kk | Natural language machine interface |
US6934684B2 (en) | 2000-03-24 | 2005-08-23 | Dialsurf, Inc. | Voice-interactive marketplace providing promotion and promotion tracking, loyalty reward and redemption, and other features |
US20020035474A1 (en) | 2000-07-18 | 2002-03-21 | Ahmet Alpdemir | Voice-interactive marketplace providing time and money saving benefits and real-time promotion publishing and feedback |
JP3728172B2 (ja) | 2000-03-31 | 2005-12-21 | キヤノン株式会社 | 音声合成方法および装置 |
US7177798B2 (en) | 2000-04-07 | 2007-02-13 | Rensselaer Polytechnic Institute | Natural language interface using constrained intermediate dictionary of results |
US6865533B2 (en) | 2000-04-21 | 2005-03-08 | Lessac Technology Inc. | Text to speech |
US6810379B1 (en) | 2000-04-24 | 2004-10-26 | Sensory, Inc. | Client/server architecture for text-to-speech synthesis |
US7107204B1 (en) | 2000-04-24 | 2006-09-12 | Microsoft Corporation | Computer-aided writing system and method with cross-language writing wizard |
US6912498B2 (en) | 2000-05-02 | 2005-06-28 | Scansoft, Inc. | Error correction in speech recognition by correcting text around selected area |
AU2001263397A1 (en) | 2000-05-24 | 2001-12-03 | Stars 1-To-1 | Interactive voice communication method and system for information and entertainment |
US20020042707A1 (en) | 2000-06-19 | 2002-04-11 | Gang Zhao | Grammar-packaged parsing |
US6680675B1 (en) | 2000-06-21 | 2004-01-20 | Fujitsu Limited | Interactive to-do list item notification system including GPS interface |
US6691111B2 (en) | 2000-06-30 | 2004-02-10 | Research In Motion Limited | System and method for implementing a natural language user interface |
US6684187B1 (en) | 2000-06-30 | 2004-01-27 | At&T Corp. | Method and system for preselection of suitable units for concatenative speech |
US6505158B1 (en) | 2000-07-05 | 2003-01-07 | At&T Corp. | Synthesis-based pre-selection of suitable units for concatenative speech |
JP3949356B2 (ja) | 2000-07-12 | 2007-07-25 | 三菱電機株式会社 | 音声対話システム |
TW521266B (en) | 2000-07-13 | 2003-02-21 | Verbaltek Inc | Perceptual phonetic feature speech recognition system and method |
US7139709B2 (en) | 2000-07-20 | 2006-11-21 | Microsoft Corporation | Middleware layer between speech related applications and engines |
JP2002041276A (ja) | 2000-07-24 | 2002-02-08 | Sony Corp | 対話型操作支援システム及び対話型操作支援方法、並びに記憶媒体 |
US20060143007A1 (en) | 2000-07-24 | 2006-06-29 | Koh V E | User interaction with voice information services |
US7853664B1 (en) | 2000-07-31 | 2010-12-14 | Landmark Digital Services Llc | Method and system for purchasing pre-recorded music |
US7092928B1 (en) | 2000-07-31 | 2006-08-15 | Quantum Leap Research, Inc. | Intelligent portal engine |
US6778951B1 (en) | 2000-08-09 | 2004-08-17 | Concerto Software, Inc. | Information retrieval method with natural language interface |
US6766320B1 (en) | 2000-08-24 | 2004-07-20 | Microsoft Corporation | Search engine with natural language-based robust parsing for user query and relevance feedback learning |
DE10042944C2 (de) | 2000-08-31 | 2003-03-13 | Siemens Ag | Graphem-Phonem-Konvertierung |
US6799098B2 (en) | 2000-09-01 | 2004-09-28 | Beltpack Corporation | Remote control system for a locomotive using voice commands |
US7689832B2 (en) | 2000-09-11 | 2010-03-30 | Sentrycom Ltd. | Biometric-based system and method for enabling authentication of electronic messages sent over a network |
JP3784289B2 (ja) | 2000-09-12 | 2006-06-07 | 松下電器産業株式会社 | メディア編集方法及びその装置 |
AU2001290882A1 (en) | 2000-09-15 | 2002-03-26 | Lernout And Hauspie Speech Products N.V. | Fast waveform synchronization for concatenation and time-scale modification of speech |
US6795806B1 (en) | 2000-09-20 | 2004-09-21 | International Business Machines Corporation | Method for enhancing dictation and command discrimination |
WO2002027712A1 (en) | 2000-09-29 | 2002-04-04 | Professorq, Inc. | Natural-language voice-activated personal assistant |
US7451085B2 (en) | 2000-10-13 | 2008-11-11 | At&T Intellectual Property Ii, L.P. | System and method for providing a compensated speech recognition model for speech recognition |
US6832194B1 (en) | 2000-10-26 | 2004-12-14 | Sensory, Incorporated | Audio recognition peripheral system |
US7027974B1 (en) | 2000-10-27 | 2006-04-11 | Science Applications International Corporation | Ontology-based parser for natural language processing |
US7006969B2 (en) | 2000-11-02 | 2006-02-28 | At&T Corp. | System and method of pattern recognition in very high-dimensional space |
TW518482B (en) * | 2000-11-10 | 2003-01-21 | Future Display Systems Inc | Method for taking notes on an article displayed by an electronic book |
JP2002169588A (ja) | 2000-11-16 | 2002-06-14 | Internatl Business Mach Corp <Ibm> | テキスト表示装置、テキスト表示制御方法、記憶媒体、プログラム伝送装置及び応対支援方法 |
US6957076B2 (en) | 2000-11-22 | 2005-10-18 | Denso Corporation | Location specific reminders for wireless mobiles |
US20040085162A1 (en) | 2000-11-29 | 2004-05-06 | Rajeev Agarwal | Method and apparatus for providing a mixed-initiative dialog between a user and a machine |
US20020067308A1 (en) | 2000-12-06 | 2002-06-06 | Xerox Corporation | Location/time-based reminder for personal electronic devices |
WO2002050816A1 (en) | 2000-12-18 | 2002-06-27 | Koninklijke Philips Electronics N.V. | Store speech, select vocabulary to recognize word |
US20040190688A1 (en) | 2003-03-31 | 2004-09-30 | Timmins Timothy A. | Communications methods and systems using voiceprints |
TW490655B (en) | 2000-12-27 | 2002-06-11 | Winbond Electronics Corp | Method and device for recognizing authorized users using voice spectrum information |
US6937986B2 (en) | 2000-12-28 | 2005-08-30 | Comverse, Inc. | Automatic dynamic speech recognition vocabulary based on external sources of information |
WO2002054239A2 (en) | 2000-12-29 | 2002-07-11 | General Electric Company | Method and system for identifying repeatedly malfunctioning equipment |
US20020133347A1 (en) | 2000-12-29 | 2002-09-19 | Eberhard Schoneburg | Method and apparatus for natural language dialog interface |
US7257537B2 (en) | 2001-01-12 | 2007-08-14 | International Business Machines Corporation | Method and apparatus for performing dialog management in a computer conversational interface |
US7085723B2 (en) | 2001-01-12 | 2006-08-01 | International Business Machines Corporation | System and method for determining utterance context in a multi-context speech application |
US20020099552A1 (en) * | 2001-01-25 | 2002-07-25 | Darryl Rubin | Annotating electronic information with audio clips |
JP2002229955A (ja) | 2001-02-02 | 2002-08-16 | Matsushita Electric Ind Co Ltd | 情報端末装置及び認証システム |
US6964023B2 (en) | 2001-02-05 | 2005-11-08 | International Business Machines Corporation | System and method for multi-modal focus detection, referential ambiguity resolution and mood classification using multi-modal input |
US6885987B2 (en) | 2001-02-09 | 2005-04-26 | Fastmobile, Inc. | Method and apparatus for encoding and decoding pause information |
US6622136B2 (en) | 2001-02-16 | 2003-09-16 | Motorola, Inc. | Interactive tool for semi-automatic creation of a domain model |
US7171365B2 (en) | 2001-02-16 | 2007-01-30 | International Business Machines Corporation | Tracking time using portable recorders and speech recognition |
US7290039B1 (en) | 2001-02-27 | 2007-10-30 | Microsoft Corporation | Intent based processing |
GB2372864B (en) | 2001-02-28 | 2005-09-07 | Vox Generation Ltd | Spoken language interface |
US6721728B2 (en) | 2001-03-02 | 2004-04-13 | The United States Of America As Represented By The Administrator Of The National Aeronautics And Space Administration | System, method and apparatus for discovering phrases in a database |
US7366979B2 (en) | 2001-03-09 | 2008-04-29 | Copernicus Investments, Llc | Method and apparatus for annotating a document |
EP1490790A2 (en) | 2001-03-13 | 2004-12-29 | Intelligate Ltd. | Dynamic natural language understanding |
US6677929B2 (en) | 2001-03-21 | 2004-01-13 | Agilent Technologies, Inc. | Optical pseudo trackball controls the operation of an appliance or machine |
JP3925611B2 (ja) | 2001-03-22 | 2007-06-06 | セイコーエプソン株式会社 | 情報提供システム、情報提供装置、プログラム、情報記憶媒体およびユーザーインタフェースの設定方法 |
US7058889B2 (en) * | 2001-03-23 | 2006-06-06 | Koninklijke Philips Electronics N.V. | Synchronizing text/visual information with audio playback |
US6738743B2 (en) | 2001-03-28 | 2004-05-18 | Intel Corporation | Unified client-server distributed architectures for spoken dialogue systems |
US6996531B2 (en) | 2001-03-30 | 2006-02-07 | Comverse Ltd. | Automated database assistance using a telephone for a speech based or text based multimedia communication mode |
GB0110326D0 (en) | 2001-04-27 | 2001-06-20 | Ibm | Method and apparatus for interoperation between legacy software and screen reader programs |
US6654740B2 (en) | 2001-05-08 | 2003-11-25 | Sunflare Co., Ltd. | Probabilistic information retrieval based on differential latent semantic space |
EP1395803B1 (en) | 2001-05-10 | 2006-08-02 | Koninklijke Philips Electronics N.V. | Background learning of speaker voices |
US7085722B2 (en) | 2001-05-14 | 2006-08-01 | Sony Computer Entertainment America Inc. | System and method for menu-driven voice control of characters in a game environment |
JP2002344880A (ja) | 2001-05-22 | 2002-11-29 | Megafusion Corp | コンテンツ配信システム |
US6944594B2 (en) | 2001-05-30 | 2005-09-13 | Bellsouth Intellectual Property Corporation | Multi-context conversational environment system and method |
US7020663B2 (en) * | 2001-05-30 | 2006-03-28 | George M. Hay | System and method for the delivery of electronic books |
US20020194003A1 (en) | 2001-06-05 | 2002-12-19 | Mozer Todd F. | Client-server security system and method |
US20020198714A1 (en) | 2001-06-26 | 2002-12-26 | Guojun Zhou | Statistical spoken dialog system |
US7139722B2 (en) | 2001-06-27 | 2006-11-21 | Bellsouth Intellectual Property Corporation | Location and time sensitive wireless calendaring |
US6604059B2 (en) | 2001-07-10 | 2003-08-05 | Koninklijke Philips Electronics N.V. | Predictive calendar |
US7987151B2 (en) | 2001-08-10 | 2011-07-26 | General Dynamics Advanced Info Systems, Inc. | Apparatus and method for problem solving using intelligent agents |
US6813491B1 (en) | 2001-08-31 | 2004-11-02 | Openwave Systems Inc. | Method and apparatus for adapting settings of wireless communication devices in accordance with user proximity |
US7953447B2 (en) | 2001-09-05 | 2011-05-31 | Vocera Communications, Inc. | Voice-controlled communications system and method using a badge application |
US7313526B2 (en) | 2001-09-05 | 2007-12-25 | Voice Signal Technologies, Inc. | Speech recognition using selectable recognition modes |
US7403938B2 (en) | 2001-09-24 | 2008-07-22 | Iac Search & Media, Inc. | Natural language query processing |
US7101185B2 (en) | 2001-09-26 | 2006-09-05 | Scientific Learning Corporation | Method and apparatus for automated training of language learning skills |
US6985865B1 (en) | 2001-09-26 | 2006-01-10 | Sprint Spectrum L.P. | Method and system for enhanced response to voice commands in a voice command platform |
US6650735B2 (en) | 2001-09-27 | 2003-11-18 | Microsoft Corporation | Integrated voice access to a variety of personal information services |
US7324947B2 (en) | 2001-10-03 | 2008-01-29 | Promptu Systems Corporation | Global speech user interface |
US7167832B2 (en) | 2001-10-15 | 2007-01-23 | At&T Corp. | Method for dialog management |
GB2381409B (en) | 2001-10-27 | 2004-04-28 | Hewlett Packard Ltd | Asynchronous access to synchronous voice services |
NO316480B1 (no) | 2001-11-15 | 2004-01-26 | Forinnova As | Fremgangsmåte og system for tekstuell granskning og oppdagelse |
US7747655B2 (en) | 2001-11-19 | 2010-06-29 | Ricoh Co. Ltd. | Printable representations for time-based media |
US20030101054A1 (en) | 2001-11-27 | 2003-05-29 | Ncc, Llc | Integrated system and method for electronic speech recognition and transcription |
JP2003163745A (ja) | 2001-11-28 | 2003-06-06 | Matsushita Electric Ind Co Ltd | 電話機、対話応答装置、対話応答端末および対話応答システム |
US7483832B2 (en) | 2001-12-10 | 2009-01-27 | At&T Intellectual Property I, L.P. | Method and system for customizing voice translation of text to speech |
US7490039B1 (en) | 2001-12-13 | 2009-02-10 | Cisco Technology, Inc. | Text to speech system and method having interactive spelling capabilities |
TW541517B (en) | 2001-12-25 | 2003-07-11 | Univ Nat Cheng Kung | Speech recognition system |
US20030167335A1 (en) | 2002-03-04 | 2003-09-04 | Vigilos, Inc. | System and method for network-based communication |
AU2002253416A1 (en) | 2002-03-27 | 2003-10-08 | Nokia Corporation | Pattern recognition |
US7197460B1 (en) | 2002-04-23 | 2007-03-27 | At&T Corp. | System for handling frequently asked questions in a natural language dialog service |
US6847966B1 (en) | 2002-04-24 | 2005-01-25 | Engenium Corporation | Method and system for optimally searching a document database using a representative semantic space |
US7546382B2 (en) | 2002-05-28 | 2009-06-09 | International Business Machines Corporation | Methods and systems for authoring of mixed-initiative multi-modal interactions and related browsing mechanisms |
EP1508892B1 (en) | 2002-05-31 | 2017-07-12 | Onkyo Corporation | Network type content reproduction system |
US7398209B2 (en) | 2002-06-03 | 2008-07-08 | Voicebox Technologies, Inc. | Systems and methods for responding to natural language speech utterance |
US20030233230A1 (en) | 2002-06-12 | 2003-12-18 | Lucent Technologies Inc. | System and method for representing and resolving ambiguity in spoken dialogue systems |
MXPA04012865A (es) | 2002-06-24 | 2005-03-31 | Matsushita Electric Ind Co Ltd | Dispositivo de preparacion de metadatos, metodo de preparacion para el mismo y dispositivo de recuperacion. |
US6999066B2 (en) | 2002-06-24 | 2006-02-14 | Xerox Corporation | System for audible feedback for touch screen displays |
US7233790B2 (en) | 2002-06-28 | 2007-06-19 | Openwave Systems, Inc. | Device capability based discovery, packaging and provisioning of content for wireless mobile devices |
US7299033B2 (en) | 2002-06-28 | 2007-11-20 | Openwave Systems Inc. | Domain-based management of distribution of digital content from multiple suppliers to multiple wireless services subscribers |
US7693720B2 (en) | 2002-07-15 | 2010-04-06 | Voicebox Technologies, Inc. | Mobile systems and methods for responding to natural language speech utterance |
US7567902B2 (en) | 2002-09-18 | 2009-07-28 | Nuance Communications, Inc. | Generating speech recognition grammars from a large corpus of data |
US7467087B1 (en) | 2002-10-10 | 2008-12-16 | Gillick Laurence S | Training and using pronunciation guessers in speech recognition |
AU2003293071A1 (en) | 2002-11-22 | 2004-06-18 | Roy Rosser | Autonomous response engine |
US7684985B2 (en) | 2002-12-10 | 2010-03-23 | Richard Dominach | Techniques for disambiguating speech input using multimodal interfaces |
US7386449B2 (en) | 2002-12-11 | 2008-06-10 | Voice Enabling Systems Technology Inc. | Knowledge-based flexible natural speech dialogue system |
US7956766B2 (en) | 2003-01-06 | 2011-06-07 | Panasonic Corporation | Apparatus operating system |
US20040152055A1 (en) * | 2003-01-30 | 2004-08-05 | Gliessner Michael J.G. | Video based language learning system |
US7529671B2 (en) | 2003-03-04 | 2009-05-05 | Microsoft Corporation | Block synchronous decoding |
US6980949B2 (en) | 2003-03-14 | 2005-12-27 | Sonum Technologies, Inc. | Natural language processor |
US20040186714A1 (en) | 2003-03-18 | 2004-09-23 | Aurilab, Llc | Speech recognition improvement through post-processsing |
WO2004083981A2 (en) | 2003-03-20 | 2004-09-30 | Creo Inc. | System and methods for storing and presenting personal information |
US7496498B2 (en) | 2003-03-24 | 2009-02-24 | Microsoft Corporation | Front-end architecture for a multi-lingual text-to-speech system |
US20040220798A1 (en) | 2003-05-01 | 2004-11-04 | Visteon Global Technologies, Inc. | Remote voice identification system |
US7421393B1 (en) | 2004-03-01 | 2008-09-02 | At&T Corp. | System for developing a dialog manager using modular spoken-dialog components |
US20050045373A1 (en) | 2003-05-27 | 2005-03-03 | Joseph Born | Portable media device with audio prompt menu |
US7200559B2 (en) | 2003-05-29 | 2007-04-03 | Microsoft Corporation | Semantic object synchronous understanding implemented with speech application language tags |
US7720683B1 (en) | 2003-06-13 | 2010-05-18 | Sensory, Inc. | Method and apparatus of specifying and performing speech recognition operations |
US7580551B1 (en) | 2003-06-30 | 2009-08-25 | The Research Foundation Of State University Of Ny | Method and apparatus for analyzing and/or comparing handwritten and/or biometric samples |
US20050015772A1 (en) | 2003-07-16 | 2005-01-20 | Saare John E. | Method and system for device specific application optimization via a portal server |
JP4551635B2 (ja) | 2003-07-31 | 2010-09-29 | ソニー株式会社 | パイプライン処理システムおよび情報処理装置 |
JP2005070645A (ja) | 2003-08-27 | 2005-03-17 | Casio Comput Co Ltd | テキスト音声同期装置およびテキスト音声同期処理プログラム |
US7475010B2 (en) | 2003-09-03 | 2009-01-06 | Lingospot, Inc. | Adaptive and scalable method for resolving natural language ambiguities |
US7418392B1 (en) | 2003-09-25 | 2008-08-26 | Sensory, Inc. | System and method for controlling the operation of a device by voice commands |
US7460652B2 (en) | 2003-09-26 | 2008-12-02 | At&T Intellectual Property I, L.P. | VoiceXML and rule engine based switchboard for interactive voice response (IVR) services |
US7155706B2 (en) | 2003-10-24 | 2006-12-26 | Microsoft Corporation | Administrative tool environment |
US7292726B2 (en) | 2003-11-10 | 2007-11-06 | Microsoft Corporation | Recognition of electronic ink with late strokes |
US7302099B2 (en) | 2003-11-10 | 2007-11-27 | Microsoft Corporation | Stroke segmentation for template-based cursive handwriting recognition |
US7412385B2 (en) | 2003-11-12 | 2008-08-12 | Microsoft Corporation | System for identifying paraphrases using machine translation |
US7584092B2 (en) | 2004-11-15 | 2009-09-01 | Microsoft Corporation | Unsupervised learning of paraphrase/translation alternations and selective application thereof |
US20050108074A1 (en) | 2003-11-14 | 2005-05-19 | Bloechl Peter E. | Method and system for prioritization of task items |
US7447630B2 (en) | 2003-11-26 | 2008-11-04 | Microsoft Corporation | Method and apparatus for multi-sensory speech enhancement |
WO2005062293A1 (ja) | 2003-12-05 | 2005-07-07 | Kabushikikaisha Kenwood | オーディオ機器制御装置、オーディオ機器制御方法及びプログラム |
CN1879147B (zh) | 2003-12-16 | 2010-05-26 | 洛昆多股份公司 | 文本到语音转换方法和系统 |
US7427024B1 (en) | 2003-12-17 | 2008-09-23 | Gazdzinski Mark J | Chattel management apparatus and methods |
JP2005189454A (ja) | 2003-12-25 | 2005-07-14 | Casio Comput Co Ltd | テキスト同期音声再生制御装置及びプログラム |
US7552055B2 (en) | 2004-01-10 | 2009-06-23 | Microsoft Corporation | Dialog component re-use in recognition systems |
US7298904B2 (en) | 2004-01-14 | 2007-11-20 | International Business Machines Corporation | Method and apparatus for scaling handwritten character input for handwriting recognition |
AU2005207606B2 (en) | 2004-01-16 | 2010-11-11 | Nuance Communications, Inc. | Corpus-based speech synthesis based on segment recombination |
US20050165607A1 (en) | 2004-01-22 | 2005-07-28 | At&T Corp. | System and method to disambiguate and clarify user intention in a spoken dialog system |
DE602004017955D1 (de) | 2004-01-29 | 2009-01-08 | Daimler Ag | Verfahren und System zur Sprachdialogschnittstelle |
KR100612839B1 (ko) | 2004-02-18 | 2006-08-18 | 삼성전자주식회사 | 도메인 기반 대화 음성인식방법 및 장치 |
KR100462292B1 (ko) | 2004-02-26 | 2004-12-17 | 엔에이치엔(주) | 중요도 정보를 반영한 검색 결과 리스트 제공 방법 및 그시스템 |
US7505906B2 (en) | 2004-02-26 | 2009-03-17 | At&T Intellectual Property, Ii | System and method for augmenting spoken language understanding by correcting common errors in linguistic performance |
US7693715B2 (en) | 2004-03-10 | 2010-04-06 | Microsoft Corporation | Generating large units of graphonemes with mutual information criterion for letter to sound conversion |
US7478033B2 (en) | 2004-03-16 | 2009-01-13 | Google Inc. | Systems and methods for translating Chinese pinyin to Chinese characters |
US7084758B1 (en) | 2004-03-19 | 2006-08-01 | Advanced Micro Devices, Inc. | Location-based reminders |
US7409337B1 (en) | 2004-03-30 | 2008-08-05 | Microsoft Corporation | Natural language processing interface |
US7496512B2 (en) | 2004-04-13 | 2009-02-24 | Microsoft Corporation | Refining of segmental boundaries in speech waveforms using contextual-dependent models |
US8095364B2 (en) | 2004-06-02 | 2012-01-10 | Tegic Communications, Inc. | Multimodal disambiguation of speech recognition |
US20050273626A1 (en) | 2004-06-02 | 2005-12-08 | Steven Pearson | System and method for portable authentication |
US20050289463A1 (en) | 2004-06-23 | 2005-12-29 | Google Inc., A Delaware Corporation | Systems and methods for spell correction of non-roman characters and words |
US7720674B2 (en) | 2004-06-29 | 2010-05-18 | Sap Ag | Systems and methods for processing natural language queries |
US7228278B2 (en) | 2004-07-06 | 2007-06-05 | Voxify, Inc. | Multi-slot dialog systems and methods |
JP2006023860A (ja) | 2004-07-06 | 2006-01-26 | Sharp Corp | 情報閲覧装置、情報閲覧プログラム、情報閲覧プログラム記録媒体及び情報閲覧システム |
JP4652737B2 (ja) | 2004-07-14 | 2011-03-16 | インターナショナル・ビジネス・マシーンズ・コーポレーション | 単語境界確率推定装置及び方法、確率的言語モデル構築装置及び方法、仮名漢字変換装置及び方法、並びに、未知語モデルの構築方法、 |
US7559089B2 (en) | 2004-07-23 | 2009-07-07 | Findaway World, Inc. | Personal media player apparatus and method |
TWI252049B (en) | 2004-07-23 | 2006-03-21 | Inventec Corp | Sound control system and method |
US7725318B2 (en) | 2004-07-30 | 2010-05-25 | Nice Systems Inc. | System and method for improving the accuracy of audio searching |
CA2576865C (en) * | 2004-08-09 | 2013-06-18 | Nielsen Media Research, Inc. | Methods and apparatus to monitor audio/visual content from various sources |
US7853574B2 (en) | 2004-08-26 | 2010-12-14 | International Business Machines Corporation | Method of generating a context-inferenced search query and of sorting a result of the query |
KR20060022001A (ko) | 2004-09-06 | 2006-03-09 | 현대모비스 주식회사 | 카오디오 버튼 설치구조 |
US20060061488A1 (en) | 2004-09-17 | 2006-03-23 | Dunton Randy R | Location based task reminder |
US7716056B2 (en) | 2004-09-27 | 2010-05-11 | Robert Bosch Corporation | Method and system for interactive conversational dialogue for cognitively overloaded device users |
US7603381B2 (en) | 2004-09-30 | 2009-10-13 | Microsoft Corporation | Contextual action publishing |
US8107401B2 (en) | 2004-09-30 | 2012-01-31 | Avaya Inc. | Method and apparatus for providing a virtual assistant to a communication participant |
US7693719B2 (en) | 2004-10-29 | 2010-04-06 | Microsoft Corporation | Providing personalized voice font for text-to-speech applications |
US7735012B2 (en) | 2004-11-04 | 2010-06-08 | Apple Inc. | Audio user interface for computing devices |
US7546235B2 (en) | 2004-11-15 | 2009-06-09 | Microsoft Corporation | Unsupervised learning of paraphrase/translation alternations and selective application thereof |
US7552046B2 (en) | 2004-11-15 | 2009-06-23 | Microsoft Corporation | Unsupervised learning of paraphrase/translation alternations and selective application thereof |
US7885844B1 (en) | 2004-11-16 | 2011-02-08 | Amazon Technologies, Inc. | Automatically generating task recommendations for human task performers |
US7702500B2 (en) | 2004-11-24 | 2010-04-20 | Blaedow Karen R | Method and apparatus for determining the meaning of natural language |
CN1609859A (zh) | 2004-11-26 | 2005-04-27 | 孙斌 | 搜索结果聚类的方法 |
US7376645B2 (en) | 2004-11-29 | 2008-05-20 | The Intellection Group, Inc. | Multimodal natural language query system and architecture for processing voice and proximity-based queries |
US20080255837A1 (en) | 2004-11-30 | 2008-10-16 | Jonathan Kahn | Method for locating an audio segment within an audio file |
US8214214B2 (en) | 2004-12-03 | 2012-07-03 | Phoenix Solutions, Inc. | Emotion detection device and method for use in distributed systems |
US20060122834A1 (en) | 2004-12-03 | 2006-06-08 | Bennett Ian M | Emotion detection device & method for use in distributed systems |
US7636657B2 (en) | 2004-12-09 | 2009-12-22 | Microsoft Corporation | Method and apparatus for automatic grammar generation from data entries |
US8478589B2 (en) | 2005-01-05 | 2013-07-02 | At&T Intellectual Property Ii, L.P. | Library of existing spoken dialog data for use in generating new natural language spoken dialog systems |
US7873654B2 (en) | 2005-01-24 | 2011-01-18 | The Intellection Group, Inc. | Multimodal natural language query system for processing and analyzing voice and proximity-based queries |
US7508373B2 (en) | 2005-01-28 | 2009-03-24 | Microsoft Corporation | Form factor and input method for language input |
GB0502259D0 (en) | 2005-02-03 | 2005-03-09 | British Telecomm | Document searching tool and method |
US7949533B2 (en) | 2005-02-04 | 2011-05-24 | Vococollect, Inc. | Methods and systems for assessing and improving the performance of a speech recognition system |
US20060194181A1 (en) * | 2005-02-28 | 2006-08-31 | Outland Research, Llc | Method and apparatus for electronic books with enhanced educational features |
US7676026B1 (en) | 2005-03-08 | 2010-03-09 | Baxtech Asia Pte Ltd | Desktop telephony system |
US7925525B2 (en) | 2005-03-25 | 2011-04-12 | Microsoft Corporation | Smart reminders |
US7721301B2 (en) | 2005-03-31 | 2010-05-18 | Microsoft Corporation | Processing files from a mobile device using voice commands |
US20080120342A1 (en) * | 2005-04-07 | 2008-05-22 | Iofy Corporation | System and Method for Providing Data to be Used in a Presentation on a Device |
US7684990B2 (en) | 2005-04-29 | 2010-03-23 | Nuance Communications, Inc. | Method and apparatus for multiple value confirmation and correction in spoken dialog systems |
WO2006129967A1 (en) | 2005-05-30 | 2006-12-07 | Daumsoft, Inc. | Conversation system and method using conversational agent |
US8041570B2 (en) | 2005-05-31 | 2011-10-18 | Robert Bosch Corporation | Dialogue management using scripts |
US8024195B2 (en) | 2005-06-27 | 2011-09-20 | Sensory, Inc. | Systems and methods of performing speech recognition using historical information |
US8396715B2 (en) | 2005-06-28 | 2013-03-12 | Microsoft Corporation | Confidence threshold tuning |
US7925995B2 (en) | 2005-06-30 | 2011-04-12 | Microsoft Corporation | Integration of location logs, GPS signals, and spatial resources for identifying user activities, goals, and context |
US7826945B2 (en) | 2005-07-01 | 2010-11-02 | You Zhang | Automobile speech-recognition interface |
US20070027732A1 (en) | 2005-07-28 | 2007-02-01 | Accu-Spatial, Llc | Context-sensitive, location-dependent information delivery at a construction site |
WO2007019480A2 (en) | 2005-08-05 | 2007-02-15 | Realnetworks, Inc. | System and computer program product for chronologically presenting data |
US7640160B2 (en) | 2005-08-05 | 2009-12-29 | Voicebox Technologies, Inc. | Systems and methods for responding to natural language speech utterance |
US7362738B2 (en) | 2005-08-09 | 2008-04-22 | Deere & Company | Method and system for delivering information to a user |
US7620549B2 (en) | 2005-08-10 | 2009-11-17 | Voicebox Technologies, Inc. | System and method of supporting adaptive misrecognition in conversational speech |
US20070041361A1 (en) | 2005-08-15 | 2007-02-22 | Nokia Corporation | Apparatus and methods for implementing an in-call voice user interface using context information |
US7949529B2 (en) | 2005-08-29 | 2011-05-24 | Voicebox Technologies, Inc. | Mobile systems and methods of supporting natural language human-machine interactions |
EP1934971A4 (en) | 2005-08-31 | 2010-10-27 | Voicebox Technologies Inc | DYNAMIC LANGUAGE SCRIPTURE |
US8265939B2 (en) | 2005-08-31 | 2012-09-11 | Nuance Communications, Inc. | Hierarchical methods and apparatus for extracting user intent from spoken utterances |
US20070055514A1 (en) * | 2005-09-08 | 2007-03-08 | Beattie Valerie L | Intelligent tutoring feedback |
US8677377B2 (en) | 2005-09-08 | 2014-03-18 | Apple Inc. | Method and apparatus for building an intelligent automated assistant |
JP4908094B2 (ja) | 2005-09-30 | 2012-04-04 | 株式会社リコー | 情報処理システム、情報処理方法及び情報処理プログラム |
US7577522B2 (en) | 2005-12-05 | 2009-08-18 | Outland Research, Llc | Spatially associated personal reminder system and method |
US7930168B2 (en) | 2005-10-04 | 2011-04-19 | Robert Bosch Gmbh | Natural language processing of disfluent sentences |
US8620667B2 (en) | 2005-10-17 | 2013-12-31 | Microsoft Corporation | Flexible speech-activated command and control |
US7707032B2 (en) | 2005-10-20 | 2010-04-27 | National Cheng Kung University | Method and system for matching speech data |
US8229745B2 (en) | 2005-10-21 | 2012-07-24 | Nuance Communications, Inc. | Creating a mixed-initiative grammar from directed dialog grammars |
US20070106674A1 (en) | 2005-11-10 | 2007-05-10 | Purusharth Agrawal | Field sales process facilitation systems and methods |
US20070112572A1 (en) | 2005-11-15 | 2007-05-17 | Fail Keith W | Method and apparatus for assisting vision impaired individuals with selecting items from a list |
US8326629B2 (en) | 2005-11-22 | 2012-12-04 | Nuance Communications, Inc. | Dynamically changing voice attributes during speech synthesis based upon parameter differentiation for dialog contexts |
US7822749B2 (en) | 2005-11-28 | 2010-10-26 | Commvault Systems, Inc. | Systems and methods for classifying and transferring information in a storage network |
KR20070057496A (ko) | 2005-12-02 | 2007-06-07 | 삼성전자주식회사 | 액정 표시 장치 |
KR100810500B1 (ko) | 2005-12-08 | 2008-03-07 | 한국전자통신연구원 | 대화형 음성 인터페이스 시스템에서의 사용자 편의성증대 방법 |
US20070156627A1 (en) | 2005-12-15 | 2007-07-05 | General Instrument Corporation | Method and apparatus for creating and using electronic content bookmarks |
GB2433403B (en) | 2005-12-16 | 2009-06-24 | Emil Ltd | A text editing apparatus and method |
US20070211071A1 (en) | 2005-12-20 | 2007-09-13 | Benjamin Slotznick | Method and apparatus for interacting with a visually displayed document on a screen reader |
DE102005061365A1 (de) | 2005-12-21 | 2007-06-28 | Siemens Ag | Verfahren zur Ansteuerung zumindest einer ersten und zweiten Hintergrundapplikation über ein universelles Sprachdialogsystem |
US7996228B2 (en) | 2005-12-22 | 2011-08-09 | Microsoft Corporation | Voice initiated network operations |
US7599918B2 (en) | 2005-12-29 | 2009-10-06 | Microsoft Corporation | Dynamic search with implicit user intention mining |
JP2007183864A (ja) | 2006-01-10 | 2007-07-19 | Fujitsu Ltd | ファイル検索方法及びそのシステム |
US20070174188A1 (en) | 2006-01-25 | 2007-07-26 | Fish Robert D | Electronic marketplace that facilitates transactions between consolidated buyers and/or sellers |
JP2007206317A (ja) | 2006-02-01 | 2007-08-16 | Yamaha Corp | オーサリング方法、オーサリング装置およびプログラム |
IL174107A0 (en) | 2006-02-01 | 2006-08-01 | Grois Dan | Method and system for advertising by means of a search engine over a data network |
US8595041B2 (en) | 2006-02-07 | 2013-11-26 | Sap Ag | Task responsibility system |
WO2007099529A1 (en) | 2006-02-28 | 2007-09-07 | Sandisk Il Ltd | Bookmarked synchronization of files |
US7983910B2 (en) | 2006-03-03 | 2011-07-19 | International Business Machines Corporation | Communicating across voice and text channels with emotion preservation |
KR100764174B1 (ko) | 2006-03-03 | 2007-10-08 | 삼성전자주식회사 | 음성 대화 서비스 장치 및 방법 |
US7752152B2 (en) | 2006-03-17 | 2010-07-06 | Microsoft Corporation | Using predictive user models for language modeling on a personal device with user behavior models based on statistical modeling |
JP4734155B2 (ja) | 2006-03-24 | 2011-07-27 | 株式会社東芝 | 音声認識装置、音声認識方法および音声認識プログラム |
US7707027B2 (en) | 2006-04-13 | 2010-04-27 | Nuance Communications, Inc. | Identification and rejection of meaningless input during natural language classification |
US8214213B1 (en) | 2006-04-27 | 2012-07-03 | At&T Intellectual Property Ii, L.P. | Speech recognition based on pronunciation modeling |
US20070276714A1 (en) | 2006-05-15 | 2007-11-29 | Sap Ag | Business process map management |
EP1858005A1 (en) | 2006-05-19 | 2007-11-21 | Texthelp Systems Limited | Streaming speech with synchronized highlighting generated by a server |
US20070276651A1 (en) | 2006-05-23 | 2007-11-29 | Motorola, Inc. | Grammar adaptation through cooperative client and server based speech recognition |
US8423347B2 (en) | 2006-06-06 | 2013-04-16 | Microsoft Corporation | Natural language personal information management |
US7523108B2 (en) | 2006-06-07 | 2009-04-21 | Platformation, Inc. | Methods and apparatus for searching with awareness of geography and languages |
US7483894B2 (en) | 2006-06-07 | 2009-01-27 | Platformation Technologies, Inc | Methods and apparatus for entity search |
US20100257160A1 (en) | 2006-06-07 | 2010-10-07 | Yu Cao | Methods & apparatus for searching with awareness of different types of information |
KR100776800B1 (ko) | 2006-06-16 | 2007-11-19 | 한국전자통신연구원 | 지능형 가제트를 이용한 맞춤형 서비스 제공 방법 및시스템 |
KR20080001227A (ko) | 2006-06-29 | 2008-01-03 | 엘지.필립스 엘시디 주식회사 | 백라이트 유닛의 램프 고정장치 |
US7548895B2 (en) | 2006-06-30 | 2009-06-16 | Microsoft Corporation | Communication-prompted user assistance |
US8050500B1 (en) | 2006-07-06 | 2011-11-01 | Senapps, LLC | Recognition method and system |
TWI312103B (en) | 2006-07-17 | 2009-07-11 | Asia Optical Co Inc | Image pickup systems and methods |
US20080027726A1 (en) * | 2006-07-28 | 2008-01-31 | Eric Louis Hansen | Text to audio mapping, and animation of the text |
US8170790B2 (en) | 2006-09-05 | 2012-05-01 | Garmin Switzerland Gmbh | Apparatus for switching navigation device mode |
US9318108B2 (en) | 2010-01-18 | 2016-04-19 | Apple Inc. | Intelligent automated assistant |
US20100278453A1 (en) * | 2006-09-15 | 2010-11-04 | King Martin T | Capture and display of annotations in paper and electronic documents |
US20080077384A1 (en) | 2006-09-22 | 2008-03-27 | International Business Machines Corporation | Dynamically translating a software application to a user selected target language that is not natively provided by the software application |
US7930197B2 (en) | 2006-09-28 | 2011-04-19 | Microsoft Corporation | Personal data mining |
US7528713B2 (en) | 2006-09-28 | 2009-05-05 | Ektimisi Semiotics Holdings, Llc | Apparatus and method for providing a task reminder based on travel history |
US7649454B2 (en) | 2006-09-28 | 2010-01-19 | Ektimisi Semiotics Holdings, Llc | System and method for providing a task reminder based on historical travel information |
US8214208B2 (en) | 2006-09-28 | 2012-07-03 | Reqall, Inc. | Method and system for sharing portable voice profiles |
US20080082338A1 (en) | 2006-09-29 | 2008-04-03 | O'neil Michael P | Systems and methods for secure voice identification and medical device interface |
US8073681B2 (en) | 2006-10-16 | 2011-12-06 | Voicebox Technologies, Inc. | System and method for a cooperative conversational voice user interface |
US8600760B2 (en) | 2006-11-28 | 2013-12-03 | General Motors Llc | Correcting substitution errors during automatic speech recognition by accepting a second best when first best is confusable |
US8401847B2 (en) | 2006-11-30 | 2013-03-19 | National Institute Of Advanced Industrial Science And Technology | Speech recognition system and program therefor |
US20080129520A1 (en) | 2006-12-01 | 2008-06-05 | Apple Computer, Inc. | Electronic device with enhanced audio feedback |
US8045808B2 (en) | 2006-12-04 | 2011-10-25 | Trend Micro Incorporated | Pure adversarial approach for identifying text content in images |
US20080140652A1 (en) * | 2006-12-07 | 2008-06-12 | Jonathan Travis Millman | Authoring tool |
US20080140413A1 (en) * | 2006-12-07 | 2008-06-12 | Jonathan Travis Millman | Synchronization of audio to reading |
US10185779B2 (en) | 2008-03-03 | 2019-01-22 | Oath Inc. | Mechanisms for content aggregation, syndication, sharing, and updating |
WO2008085742A2 (en) | 2007-01-07 | 2008-07-17 | Apple Inc. | Portable multifunction device, method and graphical user interface for interacting with user input elements in displayed content |
KR100883657B1 (ko) | 2007-01-26 | 2009-02-18 | 삼성전자주식회사 | 음성 인식 기반의 음악 검색 방법 및 장치 |
US7818176B2 (en) | 2007-02-06 | 2010-10-19 | Voicebox Technologies, Inc. | System and method for selecting and presenting advertisements based on natural language processing of voice-based input |
US7822608B2 (en) | 2007-02-27 | 2010-10-26 | Nuance Communications, Inc. | Disambiguating a speech recognition grammar in a multimodal application |
US20080221901A1 (en) | 2007-03-07 | 2008-09-11 | Joseph Cerra | Mobile general search environment speech processing facility |
US20080256613A1 (en) | 2007-03-13 | 2008-10-16 | Grover Noel J | Voice print identification portal |
US7801729B2 (en) | 2007-03-13 | 2010-09-21 | Sensory, Inc. | Using multiple attributes to create a voice search playlist |
US8219406B2 (en) | 2007-03-15 | 2012-07-10 | Microsoft Corporation | Speech-centric multimodal user interface design in mobile technology |
JP2008250375A (ja) | 2007-03-29 | 2008-10-16 | Toshiba Corp | 文字入力装置、方法およびプログラム |
US7809610B2 (en) | 2007-04-09 | 2010-10-05 | Platformation, Inc. | Methods and apparatus for freshness and completeness of information |
US8457946B2 (en) | 2007-04-26 | 2013-06-04 | Microsoft Corporation | Recognition architecture for generating Asian characters |
US7983915B2 (en) | 2007-04-30 | 2011-07-19 | Sonic Foundry, Inc. | Audio content search engine |
US8032383B1 (en) | 2007-05-04 | 2011-10-04 | Foneweb, Inc. | Speech controlled services and devices using internet |
US9292807B2 (en) | 2007-05-10 | 2016-03-22 | Microsoft Technology Licensing, Llc | Recommending actions based on context |
US8055708B2 (en) | 2007-06-01 | 2011-11-08 | Microsoft Corporation | Multimedia spaces |
US8204238B2 (en) | 2007-06-08 | 2012-06-19 | Sensory, Inc | Systems and methods of sonic communication |
KR20080109322A (ko) | 2007-06-12 | 2008-12-17 | 엘지전자 주식회사 | 사용자의 직관적 의도 파악에 따른 서비스 제공 방법 및장치 |
US20080313335A1 (en) | 2007-06-15 | 2008-12-18 | Searete Llc, A Limited Liability Corporation Of The State Of Delaware | Communicator establishing aspects with context identifying |
US8190627B2 (en) | 2007-06-28 | 2012-05-29 | Microsoft Corporation | Machine assisted query formulation |
US8019606B2 (en) | 2007-06-29 | 2011-09-13 | Microsoft Corporation | Identification and selection of a software application via speech |
JP4424382B2 (ja) | 2007-07-04 | 2010-03-03 | ソニー株式会社 | コンテンツ再生装置およびコンテンツ自動受信方法 |
JP2009036999A (ja) | 2007-08-01 | 2009-02-19 | Infocom Corp | コンピュータによる対話方法、対話システム、コンピュータプログラムおよびコンピュータに読み取り可能な記憶媒体 |
KR101359715B1 (ko) | 2007-08-24 | 2014-02-10 | 삼성전자주식회사 | 모바일 음성 웹 제공 방법 및 장치 |
US8190359B2 (en) | 2007-08-31 | 2012-05-29 | Proxpro, Inc. | Situation-aware personal information management for a mobile device |
US20090058823A1 (en) | 2007-09-04 | 2009-03-05 | Apple Inc. | Virtual Keyboards in Multi-Language Environment |
US8713144B2 (en) | 2007-09-14 | 2014-04-29 | Ricoh Co., Ltd. | Workflow-enabled client |
KR100920267B1 (ko) | 2007-09-17 | 2009-10-05 | 한국전자통신연구원 | 음성 대화 분석 시스템 및 그 방법 |
US8706476B2 (en) | 2007-09-18 | 2014-04-22 | Ariadne Genomics, Inc. | Natural language processing method by analyzing primitive sentences, logical clauses, clause types and verbal blocks |
US8165886B1 (en) | 2007-10-04 | 2012-04-24 | Great Northern Research LLC | Speech interface system and method for control and interaction with applications on a computing system |
US8036901B2 (en) | 2007-10-05 | 2011-10-11 | Sensory, Incorporated | Systems and methods of performing speech recognition using sensory inputs of human position |
US20090112677A1 (en) | 2007-10-24 | 2009-04-30 | Rhett Randolph L | Method for automatically developing suggested optimal work schedules from unsorted group and individual task lists |
US7840447B2 (en) | 2007-10-30 | 2010-11-23 | Leonard Kleinrock | Pricing and auctioning of bundled items among multiple sellers and buyers |
US20090112572A1 (en) * | 2007-10-30 | 2009-04-30 | Karl Ola Thorn | System and method for input of text to an application operating on a device |
US7983997B2 (en) | 2007-11-02 | 2011-07-19 | Florida Institute For Human And Machine Cognition, Inc. | Interactive complex task teaching system that allows for natural language input, recognizes a user's intent, and automatically performs tasks in document object model (DOM) nodes |
JP4926004B2 (ja) | 2007-11-12 | 2012-05-09 | 株式会社リコー | 文書処理装置、文書処理方法及び文書処理プログラム |
US7890525B2 (en) | 2007-11-14 | 2011-02-15 | International Business Machines Corporation | Foreign language abbreviation translation in an instant messaging system |
US8112280B2 (en) | 2007-11-19 | 2012-02-07 | Sensory, Inc. | Systems and methods of performing speech recognition with barge-in for use in a bluetooth system |
JP5212379B2 (ja) * | 2007-11-28 | 2013-06-19 | 富士通株式会社 | 無線タグで管理される金属パイプ及びその無線タグ |
US8140335B2 (en) | 2007-12-11 | 2012-03-20 | Voicebox Technologies, Inc. | System and method for providing a natural language voice user interface in an integrated voice navigation services environment |
US10002189B2 (en) | 2007-12-20 | 2018-06-19 | Apple Inc. | Method and apparatus for searching using an active ontology |
WO2009079736A1 (en) | 2007-12-21 | 2009-07-02 | Bce Inc. | Method and apparatus for interrupting an active telephony session to deliver information to a subscriber |
US8219407B1 (en) | 2007-12-27 | 2012-07-10 | Great Northern Research, LLC | Method for processing the output of a speech recognizer |
US20090187577A1 (en) | 2008-01-20 | 2009-07-23 | Aviv Reznik | System and Method Providing Audio-on-Demand to a User's Personal Online Device as Part of an Online Audio Community |
KR101334066B1 (ko) | 2008-02-11 | 2013-11-29 | 이점식 | 진화하는 사이버 로봇 시스템 및 그 제공 방법 |
US8099289B2 (en) | 2008-02-13 | 2012-01-17 | Sensory, Inc. | Voice interface and search for electronic devices including bluetooth headsets and remote systems |
US20090239552A1 (en) | 2008-03-24 | 2009-09-24 | Yahoo! Inc. | Location-based opportunistic recommendations |
US8958848B2 (en) | 2008-04-08 | 2015-02-17 | Lg Electronics Inc. | Mobile terminal and menu control method thereof |
US8666824B2 (en) | 2008-04-23 | 2014-03-04 | Dell Products L.P. | Digital media content location and purchasing system |
US8594995B2 (en) | 2008-04-24 | 2013-11-26 | Nuance Communications, Inc. | Multilingual asynchronous communications of speech messages recorded in digital media files |
US8249857B2 (en) | 2008-04-24 | 2012-08-21 | International Business Machines Corporation | Multilingual administration of enterprise data with user selected target language translation |
US8285344B2 (en) | 2008-05-21 | 2012-10-09 | DP Technlogies, Inc. | Method and apparatus for adjusting audio for a user environment |
US8589161B2 (en) | 2008-05-27 | 2013-11-19 | Voicebox Technologies, Inc. | System and method for an integrated, multi-modal, multi-device natural language voice services environment |
US8694355B2 (en) | 2008-05-30 | 2014-04-08 | Sri International | Method and apparatus for automated assistance with task management |
US8423288B2 (en) | 2009-11-30 | 2013-04-16 | Apple Inc. | Dynamic alerts for calendar events |
US8166019B1 (en) | 2008-07-21 | 2012-04-24 | Sprint Communications Company L.P. | Providing suggested actions in response to textual communications |
US8756519B2 (en) | 2008-09-12 | 2014-06-17 | Google Inc. | Techniques for sharing content on a web page |
KR101005074B1 (ko) | 2008-09-18 | 2010-12-30 | 주식회사 수현테크 | 합성수지제 파이프 연결 고정구 |
US8676904B2 (en) | 2008-10-02 | 2014-03-18 | Apple Inc. | Electronic devices with voice command and contextual data processing capabilities |
US9200913B2 (en) | 2008-10-07 | 2015-12-01 | Telecommunication Systems, Inc. | User interface for predictive traffic |
US8832319B2 (en) * | 2008-11-18 | 2014-09-09 | Amazon Technologies, Inc. | Synchronization of digital content |
US8442824B2 (en) | 2008-11-26 | 2013-05-14 | Nuance Communications, Inc. | Device, system, and method of liveness detection utilizing voice biometrics |
US8140328B2 (en) | 2008-12-01 | 2012-03-20 | At&T Intellectual Property I, L.P. | User intention based on N-best list of recognition hypotheses for utterances in a dialog |
US8489599B2 (en) | 2008-12-02 | 2013-07-16 | Palo Alto Research Center Incorporated | Context and activity-driven content delivery and interaction |
JP5257311B2 (ja) | 2008-12-05 | 2013-08-07 | ソニー株式会社 | 情報処理装置、および情報処理方法 |
EP2368199B1 (en) | 2008-12-22 | 2018-10-31 | Google LLC | Asynchronous distributed de-duplication for replicated content addressable storage clusters |
CA2748695C (en) | 2008-12-31 | 2017-11-07 | Bce Inc. | System and method for unlocking a device |
US8364488B2 (en) | 2009-01-15 | 2013-01-29 | K-Nfb Reading Technology, Inc. | Voice models for document narration |
US8326637B2 (en) | 2009-02-20 | 2012-12-04 | Voicebox Technologies, Inc. | System and method for processing multi-modal device interactions in a natural language voice services environment |
US20100225809A1 (en) * | 2009-03-09 | 2010-09-09 | Sony Corporation And Sony Electronics Inc. | Electronic book with enhanced features |
US8805823B2 (en) | 2009-04-14 | 2014-08-12 | Sri International | Content processing systems and methods |
KR101581883B1 (ko) | 2009-04-30 | 2016-01-11 | 삼성전자주식회사 | 모션 정보를 이용하는 음성 검출 장치 및 방법 |
KR101032792B1 (ko) | 2009-04-30 | 2011-05-06 | 주식회사 코오롱 | 에어백용 폴리에스테르 원단 및 그의 제조 방법 |
JP5911796B2 (ja) | 2009-04-30 | 2016-04-27 | サムスン エレクトロニクス カンパニー リミテッド | マルチモーダル情報を用いるユーザ意図推論装置及び方法 |
WO2010131911A2 (ko) * | 2009-05-13 | 2010-11-18 | Lee Doohan | 멀티미디어파일 재생방법 및 멀티미디어 재생기기 |
US8498857B2 (en) | 2009-05-19 | 2013-07-30 | Tata Consultancy Services Limited | System and method for rapid prototyping of existing speech recognition solutions in different languages |
US10540976B2 (en) | 2009-06-05 | 2020-01-21 | Apple Inc. | Contextual voice commands |
US10706373B2 (en) | 2011-06-03 | 2020-07-07 | Apple Inc. | Performing actions associated with task items that represent tasks to perform |
US9858925B2 (en) | 2009-06-05 | 2018-01-02 | Apple Inc. | Using context information to facilitate processing of commands in a virtual assistant |
KR101562792B1 (ko) | 2009-06-10 | 2015-10-23 | 삼성전자주식회사 | 목표 예측 인터페이스 제공 장치 및 그 방법 |
US8484027B1 (en) * | 2009-06-12 | 2013-07-09 | Skyreader Media Inc. | Method for live remote narration of a digital book |
US8290777B1 (en) * | 2009-06-12 | 2012-10-16 | Amazon Technologies, Inc. | Synchronizing the playing and displaying of digital content |
US20100324709A1 (en) * | 2009-06-22 | 2010-12-23 | Tree Of Life Publishing | E-book reader with voice annotation |
US9754224B2 (en) | 2009-06-26 | 2017-09-05 | International Business Machines Corporation | Action based to-do list |
US8527278B2 (en) | 2009-06-29 | 2013-09-03 | Abraham Ben David | Intelligent home automation |
US20110047072A1 (en) | 2009-08-07 | 2011-02-24 | Visa U.S.A. Inc. | Systems and Methods for Propensity Analysis and Validation |
US8768313B2 (en) | 2009-08-17 | 2014-07-01 | Digimarc Corporation | Methods and systems for image or audio recognition processing |
CN101996631B (zh) * | 2009-08-28 | 2014-12-03 | 国际商业机器公司 | 用于对齐文本的方法和装置 |
WO2011028844A2 (en) | 2009-09-02 | 2011-03-10 | Sri International | Method and apparatus for tailoring the output of an intelligent automated assistant to a user |
US8321527B2 (en) | 2009-09-10 | 2012-11-27 | Tribal Brands | System and method for tracking user location and associated activity and responsively providing mobile device updates |
US8768308B2 (en) | 2009-09-29 | 2014-07-01 | Deutsche Telekom Ag | Apparatus and method for creating and managing personal schedules via context-sensing and actuation |
KR20110036385A (ko) | 2009-10-01 | 2011-04-07 | 삼성전자주식회사 | 사용자 의도 분석 장치 및 방법 |
US20110099507A1 (en) | 2009-10-28 | 2011-04-28 | Google Inc. | Displaying a collection of interactive elements that trigger actions directed to an item |
US9197736B2 (en) | 2009-12-31 | 2015-11-24 | Digimarc Corporation | Intuitive computing methods and systems |
US20120137367A1 (en) | 2009-11-06 | 2012-05-31 | Cataphora, Inc. | Continuous anomaly detection based on behavior modeling and heterogeneous information analysis |
US8527859B2 (en) | 2009-11-10 | 2013-09-03 | Dulcetta, Inc. | Dynamic audio playback of soundtracks for electronic visual works |
US9502025B2 (en) | 2009-11-10 | 2016-11-22 | Voicebox Technologies Corporation | System and method for providing a natural language content dedication service |
US9171541B2 (en) | 2009-11-10 | 2015-10-27 | Voicebox Technologies Corporation | System and method for hybrid processing in a natural language voice services environment |
US8712759B2 (en) | 2009-11-13 | 2014-04-29 | Clausal Computing Oy | Specializing disambiguation of a natural language expression |
KR101960835B1 (ko) | 2009-11-24 | 2019-03-21 | 삼성전자주식회사 | 대화 로봇을 이용한 일정 관리 시스템 및 그 방법 |
US20110153330A1 (en) | 2009-11-27 | 2011-06-23 | i-SCROLL | System and method for rendering text synchronized audio |
US8396888B2 (en) | 2009-12-04 | 2013-03-12 | Google Inc. | Location-based searching using a search area that corresponds to a geographical location of a computing device |
KR101622111B1 (ko) | 2009-12-11 | 2016-05-18 | 삼성전자 주식회사 | 대화 시스템 및 그의 대화 방법 |
US20110161309A1 (en) | 2009-12-29 | 2011-06-30 | Lx1 Technology Limited | Method Of Sorting The Result Set Of A Search Engine |
US8494852B2 (en) | 2010-01-05 | 2013-07-23 | Google Inc. | Word-level correction of speech input |
US8334842B2 (en) | 2010-01-15 | 2012-12-18 | Microsoft Corporation | Recognizing user intent in motion capture system |
US8626511B2 (en) | 2010-01-22 | 2014-01-07 | Google Inc. | Multi-dimensional disambiguation of voice commands |
US20110218855A1 (en) | 2010-03-03 | 2011-09-08 | Platformation, Inc. | Offering Promotions Based on Query Analysis |
US8521513B2 (en) | 2010-03-12 | 2013-08-27 | Microsoft Corporation | Localization for interactive voice response systems |
US8374864B2 (en) * | 2010-03-17 | 2013-02-12 | Cisco Technology, Inc. | Correlation of transcribed text with corresponding audio |
US9323756B2 (en) * | 2010-03-22 | 2016-04-26 | Lenovo (Singapore) Pte. Ltd. | Audio book and e-book synchronization |
KR101369810B1 (ko) | 2010-04-09 | 2014-03-05 | 이초강 | 로봇을 위한 경험적 상황인식 방법을 실행하는 프로그램을 기록한 컴퓨터 판독가능한 기록 매체. |
US8265928B2 (en) | 2010-04-14 | 2012-09-11 | Google Inc. | Geotagged environmental audio for enhanced speech recognition accuracy |
US20110279368A1 (en) | 2010-05-12 | 2011-11-17 | Microsoft Corporation | Inferring user intent to engage a motion capture system |
US8392186B2 (en) * | 2010-05-18 | 2013-03-05 | K-Nfb Reading Technology, Inc. | Audio synchronization for document narration with user-selected playback |
US8694313B2 (en) | 2010-05-19 | 2014-04-08 | Google Inc. | Disambiguation of contact information using historical data |
US8522283B2 (en) | 2010-05-20 | 2013-08-27 | Google Inc. | Television remote control data transfer |
US8468012B2 (en) | 2010-05-26 | 2013-06-18 | Google Inc. | Acoustic model adaptation using geographic information |
ES2534047T3 (es) | 2010-06-08 | 2015-04-16 | Vodafone Holding Gmbh | Tarjeta inteligente con micrófono |
US20110306426A1 (en) | 2010-06-10 | 2011-12-15 | Microsoft Corporation | Activity Participation Based On User Intent |
US8234111B2 (en) | 2010-06-14 | 2012-07-31 | Google Inc. | Speech and noise models for speech recognition |
US8411874B2 (en) | 2010-06-30 | 2013-04-02 | Google Inc. | Removing noise from audio |
US8861925B1 (en) | 2010-07-28 | 2014-10-14 | Intuit Inc. | Methods and systems for audio-visual synchronization |
US8775156B2 (en) | 2010-08-05 | 2014-07-08 | Google Inc. | Translating languages in response to device motion |
US8359020B2 (en) | 2010-08-06 | 2013-01-22 | Google Inc. | Automatically monitoring for voice input based on context |
US8473289B2 (en) | 2010-08-06 | 2013-06-25 | Google Inc. | Disambiguating input based on context |
WO2012033492A1 (en) * | 2010-09-09 | 2012-03-15 | Sony Ericsson Mobile Communications Ab | Annotating e-books/e-magazines with application results |
US8812321B2 (en) | 2010-09-30 | 2014-08-19 | At&T Intellectual Property I, L.P. | System and method for combining speech recognition outputs from a plurality of domain-specific speech recognizers via machine learning |
US20120084634A1 (en) * | 2010-10-05 | 2012-04-05 | Sony Corporation | Method and apparatus for annotating text |
US8862255B2 (en) * | 2011-03-23 | 2014-10-14 | Audible, Inc. | Managing playback of synchronized content |
EP2702473A1 (en) | 2011-04-25 | 2014-03-05 | Veveo, Inc. | System and method for an intelligent personal timeline assistant |
JP5463385B2 (ja) * | 2011-06-03 | 2014-04-09 | アップル インコーポレイテッド | テキストデータとオーディオデータとの間のマッピングの自動作成 |
US20120310642A1 (en) | 2011-06-03 | 2012-12-06 | Apple Inc. | Automatically creating a mapping between text data and audio data |
-
2011
- 2011-10-06 US US13/267,738 patent/US20120310642A1/en not_active Abandoned
- 2011-10-06 US US13/267,749 patent/US10672399B2/en active Active
-
2012
- 2012-06-04 KR KR1020120060060A patent/KR101324910B1/ko not_active IP Right Cessation
- 2012-06-04 KR KR1020137034641A patent/KR101622015B1/ko active IP Right Grant
- 2012-06-04 EP EP12729332.2A patent/EP2593846A4/en not_active Ceased
- 2012-06-04 JP JP2014513799A patent/JP2014519058A/ja active Pending
- 2012-06-04 CN CN201280036281.5A patent/CN103703431B/zh active Active
- 2012-06-04 KR KR1020157017690A patent/KR101674851B1/ko active IP Right Grant
- 2012-06-04 KR KR1020167006970A patent/KR101700076B1/ko active IP Right Grant
- 2012-06-04 AU AU2012261818A patent/AU2012261818B2/en not_active Ceased
- 2012-06-04 WO PCT/US2012/040801 patent/WO2012167276A1/en active Application Filing
-
2016
- 2016-05-09 AU AU2016202974A patent/AU2016202974B2/en not_active Ceased
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6260011B1 (en) * | 2000-03-20 | 2001-07-10 | Microsoft Corporation | Methods and apparatus for automatically synchronizing electronic audio files with electronic text files |
JP2004152063A (ja) * | 2002-10-31 | 2004-05-27 | Nec Corp | マルチメディアコンテンツ構造化方法、構造化装置および構造化プログラム、ならびに提供方法 |
Also Published As
Publication number | Publication date |
---|---|
WO2012167276A1 (en) | 2012-12-06 |
US20120310649A1 (en) | 2012-12-06 |
KR20120135137A (ko) | 2012-12-12 |
CN103703431B (zh) | 2018-02-09 |
KR101700076B1 (ko) | 2017-01-26 |
EP2593846A1 (en) | 2013-05-22 |
JP2014519058A (ja) | 2014-08-07 |
CN103703431A (zh) | 2014-04-02 |
AU2012261818B2 (en) | 2016-02-25 |
AU2012261818A1 (en) | 2014-01-16 |
US10672399B2 (en) | 2020-06-02 |
KR20140027421A (ko) | 2014-03-06 |
KR101674851B1 (ko) | 2016-11-09 |
US20120310642A1 (en) | 2012-12-06 |
KR20160036077A (ko) | 2016-04-01 |
KR101622015B1 (ko) | 2016-05-17 |
AU2016202974A1 (en) | 2016-06-02 |
AU2016202974B2 (en) | 2018-04-05 |
EP2593846A4 (en) | 2014-12-03 |
KR101324910B1 (ko) | 2013-11-04 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR101622015B1 (ko) | 텍스트 데이터와 오디오 데이터 간의 맵핑 자동 생성 | |
JP5463385B2 (ja) | テキストデータとオーディオデータとの間のマッピングの自動作成 | |
US20220115019A1 (en) | Method and system for conversation transcription with metadata | |
CN107516511B (zh) | 意图识别和情绪的文本到语音学习系统 | |
US9786283B2 (en) | Transcription of speech | |
US10210769B2 (en) | Method and system for reading fluency training | |
US9478219B2 (en) | Audio synchronization for document narration with user-selected playback | |
US11657725B2 (en) | E-reader interface system with audio and highlighting synchronization for digital books | |
US20100318363A1 (en) | Systems and methods for processing indicia for document narration | |
US20040143673A1 (en) | Multimedia linking and synchronization method, presentation and editing apparatus | |
US20080243510A1 (en) | Overlapping screen reading of non-sequential text | |
KR20100014031A (ko) | 멀티미디어 파일에서 원하는 부분만 쉽고 빠르게 정확히추출하여 u-컨텐츠 만드는 장치 및 그 방법 | |
KR20220136801A (ko) | 이미지를 이용한 중국어 연상학습 콘텐츠 제공 방법 및 장치 | |
JP2001014137A (ja) | 電子文書処理方法及び電子文書処理装置並びに電子文書処理プログラムが記録された記録媒体 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A107 | Divisional application of patent | ||
A201 | Request for examination | ||
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant |