KR20120132465A - 키워드 및 스트링 입력에 기초한 애니메이트된 미디어를 어셈블링하는 방법 및 시스템 - Google Patents

키워드 및 스트링 입력에 기초한 애니메이트된 미디어를 어셈블링하는 방법 및 시스템 Download PDF

Info

Publication number
KR20120132465A
KR20120132465A KR1020127013090A KR20127013090A KR20120132465A KR 20120132465 A KR20120132465 A KR 20120132465A KR 1020127013090 A KR1020127013090 A KR 1020127013090A KR 20127013090 A KR20127013090 A KR 20127013090A KR 20120132465 A KR20120132465 A KR 20120132465A
Authority
KR
South Korea
Prior art keywords
animation
data
templates
engine
scene
Prior art date
Application number
KR1020127013090A
Other languages
English (en)
Other versions
KR101715971B1 (ko
Inventor
더그 임브루스
Original Assignee
퀴키, 인코퍼레이티드
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 퀴키, 인코퍼레이티드 filed Critical 퀴키, 인코퍼레이티드
Publication of KR20120132465A publication Critical patent/KR20120132465A/ko
Application granted granted Critical
Publication of KR101715971B1 publication Critical patent/KR101715971B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T13/00Animation
    • G06T13/802D [Two Dimensional] animation, e.g. using sprites
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/90Details of database functions independent of the retrieved data types
    • G06F16/95Retrieval from the web
    • G06F16/957Browsing optimisation, e.g. caching or content distillation
    • G06F16/9577Optimising the visualization of content, e.g. distillation of HTML documents
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/50Information retrieval; Database structures therefor; File system structures therefor of still image data
    • G06F16/58Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0482Interaction with lists of selectable items, e.g. menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T13/00Animation
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/02Editing, e.g. varying the order of information signals recorded on, or reproduced from, record carriers
    • G11B27/031Electronic editing of digitised analogue information signals, e.g. audio or video signals
    • G11B27/034Electronic editing of digitised analogue information signals, e.g. audio or video signals on discs
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2213/00Indexing scheme for animation
    • G06T2213/08Animation software package

Abstract

본 발명의 일 양태는 애니메이션을 자동으로 어셈블링하는 방법이다. 이 실시예에 따라, 상기 방법은 상기 애니메이션의 서브젝트와 관련된 적어도 하나의 입력 키워드를 채택하는 단계 및 템플릿들의 세트를 액세스하는 단계를 포함한다. 이 실시예에서, 각각의 템플릿들은 상이한 유형의 출력을 생성하고, 각각의 템플릿은 디스플레이 시간, 스크린 위치, 및 애니메이션 파라미터들에 대한 구성요소들을 포함한다. 상기 방법은 또한 상기 적어도 하나의 입력 키워드 및 상기 템플릿들에 기초하여 전자 검색을 사용하여 복수의 웹사이트들 또는 데이터 수집으로부터 데이터를 검색하는 단계, 어떤 검색된 데이터를 상기 템플릿들의 세트로 어셈블링할 지 결정하는 단계; 상기 애니메이션을 형성하기 위해 데이터-조밀(data-populated) 템플릿들의 어셈블리를 조정하는 단계; 및 사용자에 의한 재생을 위해 상기 애니메이션을 반환하는 단계를 포함한다.

Description

키워드 및 스트링 입력에 기초한 애니메이트된 미디어를 어셈블링하는 방법 및 시스템{METHOD AND SYSTEM FOR ASSEMBLING ANIMATED MEDIA BASED ON KEYWORD AND STRING INPUT}
최근에, 인터넷을 위한 멀티미디어 콘텐트를 만들려는 욕구를 갖는 소비자 또는 발행인(publishers)은 매우 복잡한 프로세스를 찾아내었다.
소비자들은 멀티미디어를 생성하기 위해 (애플의 iMove 소프트웨어 및 마이크로소프트의 파워포인트를 포함하는) 각종의 오프라인 툴들을 이용한다. 이어서, 이들 툴들에 의해 생성된 출력은 사용자의 하드드라이브에 저장되어 사용자들이 친구들 및 동료들과 출력을 공유할 수 있는 사이트들에 업로드된다(유투브, 슬라이드웨어 등과 같은). 주목할만한 멀티미디어 프리젠테이션들을 만들기를 원하는 발행인들은 보다 값비싼 소프트웨어 패키지들의 세트를 갖는 동일한 프로세스를 뒤따른다. 전통적인 인터넷 검색 결과는 그들이 찾고 있는 정보를 발견하기 위해 사용자들을 강제로 복수의 웹사이트들에 방문시키는 텍스트-중심 SERP("Search Engine Results Pages"; 검색 엔진 결과 페이지들)이다. 이런 경험은 매우 복잡하고 시간이 소요된다.
본 발명의 일 실시예는 애니메이션을 자동으로 에셈블리하는 방법이다. 이러한 실시예에 따라, 본 발명은 애니메이션의 서브젝트와 관련된 적어도 하나의 입력 키워드를 채택하여, 템플릿들의 세트에 액세스하는 단계를 포함한다. 예를 들어, 사용자가 타이핑한 하나 또는 여러 단어들은 입력을 위해 선택 및 채택되도록 메뉴에서 선택될 수 있거나 다른 텍스트에서 강조될 수 있다. 이 실시예에서, 각각의 템플릿은 다른 유형의 출력을 생성하고, 각각의 템플릿은 디스플레이 시간, 스크린 위치 및 애니메이션 파라미터들에 대한 구성요소들을 포함한다. 이 실시예에서, 본 발명은 또한 복수의 웹사이트들 또는 적어도 하나의 입력 키워드 및 템플릿들에 기초로 하는 전자 검색을 이용한 데이터 수집들로부터 데이터를 검색하는 단계, 어느 검색된 데이터가 템플릿들의 세트로 어셈블링하는지를 결정하는 단계, 애니메이션을 형성하기 위해 데이터-조밀(data-populated) 템플릿들의 어셈블리를 조정하는 단계, 및 사용자에 의한 재생을 위해 애니메이션을 반환하는 단계를 포함한다. 데이터를 검색하는 행위는 동적으로 복수의 데이터 소스들로부터 데이터를 동적으로 검색하는 단계를 포함한다. 도 1은 애니메이션을 자동으로 어셈블링하는 이러한 방법의 일 실시예를 도시한다.
본 발명의 다른 실시예는 애니메이션을 자동으로 어셈블링하는 시스템이다. 이 실시예에서, 시스템은 사용자에의 프리젠테이션을 위한 질의 인터페이스(queary interface)로서, 상기 질의 인터페이스는 애니메이션의 서브젝트에 관련된 적어도 하나의 입력 키워드를 채택하는데 이용되는, 상기 질의 인터페이스, 및 템플릿들의 세트를 갖는 데이터베이스를 포함한다. 이 실시예에서, 각각의 템플릿은 다른 유형의 출력을 생성하고, 각각의 템플릿은 디스플레이 시간, 스크린 위치 및 애니메이션 파라미터들에 대한 구성요소들을 포함한다. 시스템은 또한 복수의 웹사이트들 또는 적어도 하나의 입력 키워드 및 템플릿들에 기초로 하는 전자 검색을 이용한 데이터 수집들로부터 데이터를 검색하는 검색 엔진, 어느 데이터가 템플릿들의 세트로 어셈블링하는지를 결정하고, 애니메이션을 형성하기 위해 데이터-조밀 템플릿들의 어셈블리를 조정하는 런타임 엔진, 및 사용자에 대한 재생을 위해 애니메이션을 프리젠트하는 프리젠테이션 엔진을 포함한다.
도 1은 본 발명에 따른 방법의 일 실시예에 대한 흐름도.
도 2는 프리젠테이션 엔진의 일 실시예의 블록도.
도 3은 프리젠테이션으로 장면들의 어셈블리를 나타내는 일 실시예.
도 4는 본 발명의 실시예에 따른 재생 스크린의 스크린 샷.
도 5는 본 발명의 다른 실시예에 다른 재생의 제 2 스트린 샷.
도 6은 본 발명에 다른 검색 엔진의 일 실시예의 블록도.
도 7은 표준화 엔진의 일 실시예의 블록도.
도 8은 본 발명의 일 실시예에 따른 추출 엔진의 블록도.
도 9는 본 발명의 일 실시예에 따른 선택 엔진의 블록도.
도 10은 본 발명의 일 실시예에 따른 애니메이션 엔진의 블록도.
A. 개요
키워드 및 스트링 입력을 기초로 동적으로 애니메이트된 미디어를 어셈블링하는 본 발명에 따른 방법 및 시스템은 두 가지 주요 목적들, 즉 키워드 기반의 인터넷 검색을 위한 우수한 멀티미디어 결과들을 생성하고, 소비자들 및 발행인이 웹을 위한 멀티미디어 콘텐트를 용이하게 생성할 수 있도록 하는 목적들을 제공한다.
도 1은 본 발명에 따른 방법의 일 실시예에 대한 흐름도이다. 이 실시예에서, 제 1 단계(블록 2)는 애니메이션의 서브젝트에 관련된 적어도 하나의 입력 키워드(예컨대, 사용자가 타이핑하거나 메뉴로부터 선택되는 하나 또는 여러 워드들일 수 있음)를 채택하는 단계를 포함한다. 다음 단계(블록 4)에서, 키워드 또는 키워드들은 검색을 위해 이용되어 복수의 웹사이트들 또는 적어도 하나의 입력 키워드에 기초로 하는 전자 검색을 이용한 다른 데이터 수집들로부터 데이터를 검색한다. 데이터를 검색하는 단계는 복수의 데이터 소스들로부터 데이터를 동적으로 검색하는 단계를 포함할 수 있다. 블록 6에서, 방법은 하나 이상의 템플릿들에 액세스할 수 있고, 각각의 템플릿은 다른 유형의 출력에 대한 것이다. 예를 들어 일 실시예에서, 각각의 템플릿은 다른 유형의 출력을 생성하고, 각각의 템플릿은 디스플레이 시간, 스크린 위치 및 애니메이션 파라미터들에 대한 구성요소들을 포함한다. 일부 실시예들에서, 데이터의 검색은 템플릿 또는 템플릿들의 요건들에 부분적으로 기초될 수 있다.
도 1의 실시예에서 다음 단계(블록 8)는 어느 검색된 데이터가 템플릿 또는 템플릿들의 세트로 어셈블링되는지를 결정하는 것을 포함한다. 일례로서, 원하는 프리젠테이션 또는 일관성 있는 프리젠테이션(coherent presentation)을 위한 가장 적합한 데이터는 템플릿 또는 템플릿들로 어셈블링될 수 있다. 블록 10은 애니메이션을 형성하기 위해 데이터-조밀 템플릿들의 어셈블리를 조정하는 것을 포함한다. 이러한 단계가 수행될 수 있어 프리젠테이션은 프리젠테이션을 형성하기 위해 템플렛들의 전체 구성의 면에서 일관성이 있다. 블록 12는 상기 방법이 완료된 후(블록 14), 사용자에 의한 재생을 위한 애니메이션을 복귀시키는 것을 포함한다.
1. 콘텐트 생성(Content Creation)
일 실시예에서, 키워드 및 스트링 입력 또는 콘텐트 선택에 기초하여 동적 애니메이팅된 미디어를 어셈블링하기 위한 시스템을 채용하면, 시스템 및 방법은 소비자들 및 발행인에 의해 발생된 텍스트를 평가할 수 있고, 동일한 것을 기술하는 흥미있는 멀티미디어 프리젠테이션을 - 즉석에서 - 발생하기 위해 이러한 텍스트를 사용할 수 있다. 따라서, 강렬한 멀티미디어 콘텐트를 개발하는 과정이 극적으로 간단해진다.
2. 검색(Searching)
전형적으로, 인터넷 상에서 키워드 검색들을 실행하는 사용자들은 출력으로 SERP("Search Engine Results Page")를 수신한다. 이들 페이지들은 현재 매치들로서 식별되는 웹 페이지들로부터 텍스트 발췌들 및 링크들의 리스트를 포함한다. 종종, 이들 웹 페이지 결과들은 사용자의 질의와도 일치하는 다른 미디어 유형들(뉴스 아이템들, 이미지들 등)과 함께 나열된다. 그러나, 웹이 성장하고 멀티미디어 콘텐트의 소비가 극적으로 증가함에 따라, 이러한 전통적인 검색 경험은 덜 적절하고 덜 유용하게 된다.
본 발명의 일 실시예에 따른 시스템은 사용자의 검색 용어들을 평가하고, 사용자의 질의 - 이들 결과들은 사용자의 검색의 나레이션된 정의(narrated definition)인지의 여부 - 의 결과들을 제공하는 멀티미디어 프리젠테이션, 사용자에 의해 요청된 특정 질의에 대한 답변, 또는 특정 워드들 또는 문구들을 이용하여 인터넷 검색을 실행할 때 사용자 예측과 일치하는 방식으로 제공되는 다른 유형의 데이터를 즉석에서 어셈블링하는 메카니즘이다. 일 실시예에 있어서, 소프트웨어는 이때 각각의 프리젠테이션을 저장하고 다른 사용자들로 하여금 브라우저-기반 편집 툴들의 세트를 통해 프리젠테이션의 정밀도를 개선시킨다.
3. 프리젠테이션들의 어셈블링(Assembling presentations)
따라서, 본 발명의 시스템은 호스팅 서비스(hosted service)로서 제공되는 확고한 해결방법일 수 있다. 그것은 일반적인 인터넷 검색 결과들 또는 몇몇 응용들에서는 벤더 특정 데이터를 제공하는 동적으로 발생되는 멀티미디어 프리젠테이션들을 생성하고, 소비자들 또는 전문 작가들에 의해 저술되고, 프로그램에 의해 발생된 짧은 멀티미디어 프리젠테이션들 또는 이들 생성 방법들의 임의의 조합을 생성하기 위해 사용될 수 있다. 또한, 전문 발행인들로 하여금 웹 데이터의 동적 세트에 기초하여 매력적인 멀티미디어 프리젠테이션들을 개발하게 하는 비지니스-지향 웹 애플리케이션으로서 그리고 제 3 자로 하여금 멀티미디어 생성 기능을 직접 이들의 웹 애플리케이션들에 통합할 수 있게 하는 API로서 작용할 수 있다. 시스템은 소비자 사용자들 및 전문 발행인들이 매력적인 멀티미디어를 즉석에서 개발 및 소비할 수 있게 하는 신속하고 단순한 해결방법이다.
이하에 기재된 많은 논의는 XML의 사용에 집중하고 있다. 이것은 단지 예시적인 것임을 의미하고 다른 언어들 및 데이터 유형들이 본 발명의 범위 내에서 이용될 수 있다. 또한, 장면들의 유형들, 데이터 유형들, 및 명령들의 특정 예들이 이하에 기재된다. 이들 장면들, 데이터 유형들, 및 명령들은 단지 예시이고 본 발명의 범위 내에서 변할 수 있다.
B. 애니메이션(Animation)
일 실시예에 따르면, 미디어 생성 엔진은 미리 제작되고 고객-정의된 "장면" 라이브러리에 기초하고 있고 장면의 재생은 프리젠테이션 엔진에 의해 디스플레이되는 머신 또는 사용자-커스터마이징된 XML 입력(또는 다른 입력 유형들)에 의해 지배된다. 도 2는 이와 같은 프리젠테이션 엔진(20)을, 장면들(22) 및 애니메이션을 재생(24)하는 능력의 프리젠테이션와 함께 설명한다.
프리젠테이션 엔진(20)(도 2에서 "퀴키 프리젠테이션 엔진(Qwiki presentation engine)"으로도 불림)은 예를 들어 다음과 같은 것을 애니메이팅하는 미리 제작된 장면들(22)을 포함한다:
● 텍스트의 표준 스트링들(Standard strings of text)
● 텍스트의 불릿 리스트들(Bulleted lists of text)
● 이미지들 및 비디오
● 날짜
● 품질 등급들("5스타")
● 주소 및 맵들(Addresses & Maps)
● 선 그래프들(Line graphs)
● 파이 차트들(Pie charts)
● 타임라인(Timelines)
● 범위들(Ranges)
● 인터넷 URL들(Internet URLs)
● 예/아니오 데이터 포인트들(Yes/no Data Points)
각각의 장면(22)은 위에서 언급한 데이터 유형들 중 하나로 구성될 수 있다. 선택적으로, XML 마크업(도 2의 예에 도시된 것과 같은)을 이용하여, 다수의 데이터 유형들을 포함하는 새로운 장면들(22)이 생성될 수 있고, 개발자는 즉석에서 새로운 유형의 장면을 정의한다. 예를 들어, 장면의 유형은 로컬 비지니스를 기술하는 스타 레이팅(star rating) 또는 텍스트 옆에 디스플레이되는 맵일 수 있다.
일 실시예에 있어서, 각각의 애니메이션은 최대 14 장면들로 구성되는 연속하는 스크린들로 구성될 수 있고, 각각의 장면은 2-3초 상영되고 1-2초 지속되는 장면전환들(transitions)을 포함한다. 장면들의 수 및 각 장면에 대한 시간은 본 발명의 범위 내에서 넓게 변할 수 있다.
1. 마스터 데이터 유형(master data type)
일 실시예에 대해 위에서 설명된 것과 같이, 각각의 프리젠테이션의 모습 및 느낌은 프리젠테이션의 재생을 통제하는 XML 도큐먼트(또는 다른 유형의 도큐먼트)에 의해 정의된다. 하나의 모범적인 실시예에 있어서, 프리젠테이션을 정의하는 XML 도큐먼트를 생성하는 제 1 단계는 프리젠테이션 재생을 위해 7개의 주 옵션들에 값들을 할당하는 것을 포함한다:
- 상표(Descriptive Name)
- 음악 mp3 URL(Music mp3 URL)
- 나레이션 텍스트 또는 나레이션 mp3 URL(Narration Text OR Narration mp3 URL)
- 배경 이미지(Background Image)
- 크기(Size)
- 포함된 장면 및 재생 순서(Included Scenes and order of play)
- 시작 모드(Start Mode) (Play 또는 Browse)
게다가, 이 실시예에서, 온-스크린 액션을 조정하는 임의의 프리젠테이션에 포괄적인 몇몇 XML 구성요소들이 존재한다. 게다가, 다른 유형들의 구성요소들이 이용될 수 있다. 예들은:
○ 디스플레이 시간은 장면이 보이는 시간의 양을 설정한다(이것은 프리젠테이션 엔진에 의해 자동 계산될 수 있지만, 또한 이용자들을 위한 커스터마이징(customizing)된 옵션으로서 이용가능할 수 있다.
○ 이동은 플레이어와 관련된 장면의 온-스크린 XY 위치를 설정한다. "풀스크린(fullscreen)"으로 설정되면, 장면은 그것이 디스플레이되는 시간의 양에 대해 플레이어의 완전한 리얼 에스테이트(full real estate)를 점유할 것이다.
○ 장면전환 파라미터들(Transition parameters)은 사람의 판독가능한 이름에 의해 어드레스된 미리 생성된 장면전환들의 라이브러리로부터 선택함으로써 각각의 장면이 또 다른 장면으로 장면전환되는 방식을 결정한다.
○ 온클릭(onClick)은 마우스 클릭 시에 새로운 윈도우에서의 오픈을 위한 URL을 지정한다.
저장된 장면들 및 플레이 순서는 각각의 장면 유형에 특정된 한 세트의 프로그램 명령들을 통해 재생하기 위한 주요 옵션들을 리스트하는 동일한 파일(XML 파일과 같은) 내에 규정될 수 있다. 많은 유형들의 장면 구성들은 다음의 장면 구성들을 포함하는, 본 발명의 범위 내에서 이용될 수 있다:
Figure pct00001
Figure pct00002
Figure pct00003
Figure pct00004
Figure pct00005
Figure pct00006
함께, 각 장면에 대한 라벨들 및 설정들에 더하여 마스터 설정들은 실행-시간에서 프리젠테이션 엔진에 의해 해석되고 사용자에 디스플레이된 애니메이션을 생성하는 (XML과 같은) 단일 파일로 결합한다.
2. 커스텀 장면의 규정
일 실시예에서, (XML 스크립팅 언어와 같은, 그러나 한정되지 않는) 스크립팅 언어를 사용하여, 새로운 장면들은 다르고, 이전에 존재하는 데이터 유형들(즉, 텍스트 장면 및 맵 장면을 비지니스 접근들을 위한 단일의 새로운 유형의 장면과 결합)을 통합하도록 정의될 수 있다.
본 발명의 일 실시예에 따라, 위에서 설정된 이전에 제조된 장면들의 13개의 구성요소 중 일부, 또는 개발자들에 의해 정의된 새로운 소비 장면들은 3x3 XY 그리드(30)의 좌표들에 기초한 디스플레이된 애니메이션 내의 위치를 규정함으로써 단일의 새로운 장면 내에 위치된다(도 3 참조). 이러한 장면 구성들은 인간-판독가능한 이름을 그것들에 할당함으로써 접근가능하게 만들어지고 재사용하기 위해 저장된다.
3. 애니메이션 & 재생
여기에서 설정된 프리젠테이션들의 성공적인 사용자 선정으로 이끌 수 있는 하나의 측면은 템플릿들 내의 포함된 정보가 응집된 영화 또는 비디오 클립으로 링크되고 표현되는 방식일 것이다.
일 실시예에서, 로딩시 시작하기 위해, 프리젠테이션 엔진은 도 4에 도시된 방식으로 재생을 정의하는 XML로부터 판독함으로써 시작부터 마지막까지 애니메이션을 플레이한다. 사용자가 프리젠테이션 내에 포함된 어떤 장면을 소개하거나 진행시킬 수 있는, 이러한 메뉴를 사용하는 플레이어의 하단의 "챕터 메뉴(Chapter Menu)"(40)를 주목하라.
도 4는 하나의 이미지를 포함하는 하나와 텍스트를 포함하는 다른 하나의 2개의 장면들 사이의 장면전환의 스크린-캡쳐이다.
어떤 지점에서, 사용자들은 또한 플로팅 템플릿들을 브라우징하기 위해 재생을 중단하고 브라우즈 버튼(또는 비디오 상의 어떤 곳을) 클릭함으로써 플로팅 템플릿들을 수동으로 확장/축소시키고, 그 후 제어 바 상의 플레이 버튼(42)을 통해 재생을 재개시킬 수 있다. 예를 들어 도 5를 참조하라.
다른 유형의 장면들은 또한, 예를 들어 재생을 중지시킬 상호작용 트리거들을 가질 수 있고, 사용자들은 텍스트 장면에서 "리드 모어(Read More)" 버튼을 클릭할 수 있고, 어떤 지점에서 재생은 중단될 것이고 사용자들은 어떤 주어진 텍스트 템플릿에서 스크린 상에 디스플레이되는 것을 넘어 추가의 텍스트를 판독하기 위해 스크롤할 수 있을 것이다.
C.검색
본 발명의 일부 실시예들의 검색 방법론은, 동일한 의미론적 이해에 기초하여 용어들 및 어구들에 관한 멀티미디어 특성들의 할당을 주관하는 규칙들의 세트를 통해 텍스트의 스트링들 내에 또는 웹 페이지들 상에서 발견된 구성된 데이터를 표준화하는 일련의 기술들에 기초한다.
검색 엔진에 키워드 또는 키워드들의 입력시, 정보 매칭들은 사람인 에디터들에 의해 선택된 공공으로 어드레스 가능한 API들을 갖는 일련의 데이터 소스들, 공공 데이터, 벤더 개인 데이터, 및 본 발명의 시스템에 의해 정의된 데이터를 검색함으로써 평가될 수 있다. 통상적으로, 각 소스는 구체적인 종적인 정보(즉, 일반적인 지식을 위한 위키피디아 또는 레스토랑들을 위한 Yelp & Citysearch)를 나타낸다.
정확한 매칭들이 미리선택된 데이터 소스들 내에서 발견되지 않으면, 검색 엔진은 키워드들의 입력을 위한 매치로서 식별된 데이터베이스들 또는 웹 페이지들로부터 상기에서 설정된 13개의 디폴트 장면 유형들(이미지들, 타임라인들, 날짜들, 등급들 등)에 대응하는 구성된 세트들의 데이터를 검색하여 일반적으로 웹 또는 다른 데이터베이스들을 검색할 수 있다. 도 6은 데이터 소스들(62)로부터 검색되는 구성된 데이터(66)를 갖는 그와 같은 검색를 묘사한다. 도 6에서, 검색 엔진(60)이 매치를 발견하는 곳이 어디든지, 정보가 사용자에게 프리젠테이션될 때 오리지널 데이터 소스(62)에 대한 링크가 포함된다. 이러한 예에서, 정보는 인터넷(64)을 통해 프리젠테이션된다. 예시적인 목적들을 위해, 도 6은 3개의 데이터 소스들(62) 및 4개의 구성된 데이터 세트들(66)을 도시한다.
일부 실시예들에서, 검색 엔진은 임시 데이터 저장소에 검색 엔진이 인식하는 어떤 데이터를 추출하고 저장하여, 일관성 있는 검색 결과들을 애니메이팅하는 다음 단계: 표준화를 가능하게 한다.
1. 구성된 데이터 분석을 통해 멀티미디어 표준화
구성된 데이터 소스들 또는 자유 형식 웹 페이지들로부터 추출될 데이터의 조각 각각의 주의깊은 분석을 통해, 프리젠테이션 엔진은 필요한 어떤 방법에서도 데이터를 증가시키기 위해 한 세트의 내부 처리들에 의해 보완되는, 데이터 내에 포함된 정보의 주요 부분들을 프리젠테이션하는 짧은 1-3초의 애니메이션을 생성한다. 애니메이션 길이는 예를 들어, 길이에서 1초보다 짧거나 3초보다 긴 것을 포함하도록 본 발명의 범위 내에서 변할 수 있다.
도 7은 이 표준화 과정을 수행하는 표준화 엔진(70)을 도시한다. 데이터의 조각의 각각을 분석하고, 구성 부분들을 식별하고, 각 부분의 특성을 인식하고, 각 부분에 애니메이트된 값 또는 식별을 할당하는 이러한 공정은 "표준화(normalization)"으로 알려진다. 도 7에서, 표준화 엔진은 구성된 데이터(72)(이 예에서, 3세트의 구성된 데이터(72))를 수신하고, 구성된 데이터의 구성요소 부분들을 식별하고 값들을 구성된 데이터로 할당하기 위해 이러한 데이터를 분석하고, 장면들(74)(본 명세서에서, 3개의 장면들(74)이 도시된다)에 표준화된 데이터를 출력한다.
예를 들어, 로컬 비지니스 상의 품질 등급을 식별하는 Citysearch 웹 페이지로부터 구성된 데이터의 조각은 (Citysearch.com 웹 사이트로부터 검출되어) 다음과 같이 보여질 수 있다.
Figure pct00007
이러한 스트링은 그것의 구성요소 부분-이 경우에서 품질 등급의 범위 및 이러한 스케일 상의 이러한 특별한 비지니스의 값-을 검출하기 위해 분석되고 애니메이션의 재생을 좌우하는 데이터를 준비하기 위해 XML 마크업(또는 다른 언어)으로 다시 쓰여질 수 있다. 다음의 것은 애니메이션의 재생을 좌우하는 하나의 예시적인 구조를 도시한다.
Figure pct00008
이 표준화 프로세스는 주어진 키워드에 대한 매치(match)로서 인식되는 모든 데이터 조각에 대해 일어날 수 있다.
데이터를 XML(또는 다른 언어)로 번역한 후, 프리젠테이션 엔진(presentation engine)은 각각의 인식된 데이터 조각을 생성하여, 엔진에 의한 추후의 우선순위화 및 잠재적인 프리젠테이션을 위해 임시 데이터 저장소에 저장한다.
2. 자유-유형 스트링을 통한 멀티미디어 표준화
검색 질의에 응답하여 멀티미디어 XML-정의 "장면들"을 동적으로 생성하는 것 이외에, 프리젠테이션 엔진은 사용자들 또는 출판업자에 의해 제공된 스트링들의 임의의 세트에 대한 멀티미디어를 생성할 수 있다. 이 프로세스를 통해, 프리젠테이션 엔진은 개개의 주제들, 일일 활동들을 설명하고, 또는 한 텍스트 문단에 대한 몇 줄의 텍스트(예를 들어, 100 - 300개의 문자들의 텍스트와 같은) 설명에 적합한 임의의 다른 목적을 위한 강렬한 애니메이션을 생성할 수 있다.
이 경우, 프리젠테이션 엔진은 구성된 데이터 소스들에 대한 텍스트 블럭 내에 같은 표준화 방법을 적용하여, 엔진에 스트링이 제공될 시에, 스트링으로부터 인식되는 데이터 유형들을 분석하고 추출한다.
예를 들어, 다음의 텍스트는 프리젠테이션 엔진에 의해 인식되는 4개의 데이터 유형들을 포함한다:
"10/9/07: 뉴욕시의 랜드마크(Landmarc) 식당에서 식사함. ***. 버거가 너무 익혀졌음."
10/9/07은 퀴키(Qwiki) 데이터 유형으로 인식 및 저장된다.
뉴욕시의 랜드마크 식당은 지도 위치로서 인식되고 저장된다.
● ***는 스타 품질 등급으로서 인식되고 저장된다.
● 각각의 텍스트 문장은 애니메이션될 텍스트로서 인식되고 저장된다.
● 업로드되거나 첨부된 임의의 이미지들/미디어들은 그 자체로서 인식된다.
따라서 스트링은, 예로서, 다음의 XML을 생성한다:
Figure pct00009
Figure pct00010
어셈블링 검색 결과들에 대한 동일한 프로세스에서, 데이터를 XML로 번역한 후, 프리젠테이션 엔진은 각각의 인식된 데이터 조각을 생성하여, 엔진에 의한 추후의 우선순위화 및 잠재적인 프리젠테이션을 위해 임시 데이터 저장소에 저장한다.
3. 나레이션 추출(Narrative Extraction)
설명하는 텍스트 또는 검색 결과들의 스트링을 포함하는 멀티미디어 경험의 핵심(core piece)은 나레이터가 스크린-상 동작을 설명하는 것을 포함한다. 프리젠테이션 엔진은 재생기 내에 프리젠테이션되는 정보를 보완하는 결합 나레이션을 프리젠테이션하기 위해 생성된 애니메이션의 콘텐츠들로 조정된 텍스트-대-음성 소프트웨어(예를 들어, 제3자 소프트웨어일 수 있음)를 통합한다.
정확한 나레이션을 제공하기 위해, 일 실시예에서, 비주얼들 내에 프리젠테이션되는 데이터와 매치하는 나레이션 문단은, 이 데이터가 미리-선택된 소스인지 또는 일반적으로 웹인지 여부가, 소스 데이터로부터 식별될 필요가 있다. 도 8은 나레이션 추출 엔진(80)의 일 실시예를 나타낸다. 이 실시예에서, 나레이션 추출 엔진(80)은 스크린-상 미디어를 나레이션(84)으로 보완할 수 있는 텍스트를 식별하기 위해, 나레이션 결합들(narraitve conjunctions)을 포함할 수 있는 나레이션 규칙들의 세트(82)를 적용한다.
예로서, 이 나레이션 프로세스는 스크린-상 미디어를 나레이션으로 보완할 수 있는 임의의 텍스트를 추출하고 적절하게 식별하기 위해, "이다(is a)", "였다(was a)", "이어오고 있다(has been)" 등의 나레이션 결합자의 식별 또는 "약력" 또는 "프로파일"과 같은 그들의 META 태그들 및/또는 제목들 내의 나레이션 프리젠테이션 단어들을 포함하는 소스들의 식별을 포함할 수 있다. 나레이션 결합 식별 프로세스의 예는, 단지 예로서, "베리 메이어(Barry Meyer)"에 대한 웹 검색을 통해 찾은 텔레비전 스튜디오의 경영진을 설명하는 아래의 텍스트에 나타내진다:
http :www.timewarner.com/corp/management/executives_by_business/warner_b ros / bio / meyer _ barry . html
제목: "타임 워너 - 베리 엠. 메이어"
Meta 설명: "베리 엠. 메이어의 약력..."
추출된 나레이션 :
가장 존경받는 엔터테인먼트 산업의 경영진들 중 하나인 베리 엠. 메이어는 워너 브라더스의 회장 겸 최고 경영 책임자가 됐다. 1994년 4월부터 스튜디오의 부사장 겸 최고 운영 책임자로 재직한 이후 1999년 10월 4일에...
다수의 나레이션들이 식별된 경우, 프레젠테이션 엔진은 궁극적으로 가장 포괄적인 설명이 가능한 것을 선택하여 모든 매칭들 중 가장 유사한 수의 용어들을 포함하는 설명적인 텍스트를 결정하기 위한 스트링 분석을 수행한다.
D. 음악 선택
몇몇 실시예들에서, 애니메이션을 수반할 음악을 선택하는 주된 방법은 프레젠테이션을 수반하기 위해 선택된 설명적인 해설을 분석하고 애니메이션들에 포함을 위해 상업적 음악 제공자들로부터 라이센싱될 수 있는 수천개의 트랙들을 나타내는 3,000 키워드들(1,000,000 + 동의어들에 맵핑됨) 중 하나를 검색함으로써 발생될 수 있다.
오디오 엔진에 수집된(ingested) 각각의 트랙은 그의 페이싱(pacing), 템포, 및 오디오 "특성"을 기술하는 카테고리 및 시간을 포함할 수 있다. 이들 태그들은 수동으로 각각의 곡을 평가하는 인간 편집자들에 의해 기록될 수 있다.
몇몇 실시예들에서, 사운드 효과들이 또한 준비되고 스크린 상의 데이터의 유형 및 양과 일치하도록 동적으로 표현된다.(즉, 시각적으로 프리젠테이션된 큰 수의 문자들을 가진 텍스트 장면은 수개의 문자들(characters)을 가진 것보다 더 긴 "타이핑" 사운드 효과를 생성할 것이다.) 도 9는 음악 선택 엔진(90)의 일 실시예를 도시한다. 이러한 실시예에서, 음악 선택 엔진(90)은 텍스트 입력(92)을 수신하고, 매칭들을 위해 텍스트 입력(92)을 통해 검색하기 위해 키워드들 및 동의어들(94)을 사용하고, 이후 장면을 위한 매칭하는 음악 또는 사운드를 찾기 위해 사운드 라이브러리(96)를 사용한다. 음악 스코어(98)는 음악 선택 엔진(90)을 사용하여 이러한 프로세스의 결과로서 생성될 수 있다.
1. 애니메이션 어셈블리 및 우선순위화
모든 장면들이 텍스트 또는 검색 소스들의 분석을 통해 생성된 후, 프레젠테이션 엔진은 내부에 포함된 정보 및 데이터가 어디로부터 소싱되는지와 관련되는 정보에 기초한 각각의 데이터 형식에 품질 등급(quality raing)을 평가하고 할당할 수 있다.
데이터 형식들은 이후 본 발명의 일 실시예에서 사용될 수 있는, 다음의 규칙들에 따라서, 그들의 품질 등급 순으로 애니메이션에 어셈블링될 수 있다:
ㆍ 각각의 데이터 형식은 디폴트 스코어를 갖는다:
○ 이미지들 및 비디오: 12
○ 어드레스들 및 맵들: 11
○ 텍스트의 불릿 리스트들: 6, 각각의 불릿에 대해 +1
○ 날짜: 9
○ 타임라인: 8
○ 품질 등급("5 stars"): 7
○ 라인 그래프들: 6
○ 파이 차트들: 5
○ 범위: 4
○ Yes/no 데이터 포인트: 2
○ 인터넷 URL: 3
○ 텍스트의 표준 스트링들: 1
ㆍ디폴트 스코어들은 인간 입력 및 머신 러닝 기술들에 기초하여 개발된 다음의 규칙들 및 추가의 규칙들에 의해 변경된다.
○ 수동 입력의 데이터 형식들은 관련된 각각의 수동 편집에 대해 + 1 포인트가 할당된다.
○ 웹페이지들 내의 썸네일들(thumbnails)로부터 소싱된 이미지들은 +1 포인트를 수신한다.
○ 캡션들 내 이미지들은 +1 포인트를 수신한다.
○ 이미지에 의해 수반된 소스 데이터내에 링크된 대문자로 시작된 멀티-워드 구들에 기초한 텍스트는 +2 포인트들을 수신한다.
○ 소스 데이터내 링크된 텍스트 기반 용어들은 +1 포인트를 수신한다.
○ 대문자로 시작되지 않은 링크된 용어들에 기반한 텍스트는 -1 포인트를 수신한다.
몇몇 실시예들에서, 데이터 형식들이 그들의 스코어에 따라 내림차순으로 어셈블링되면, 다음의 규칙들(및 인간 입력 및 머신 러닝 기술들에 전개된 추가의 규칙들)이 다음을 포함하기 위해 최대 14 장면들을 우선순위화하기 위해 사용될 수 있다;
ㆍ 넌(non) 이미지 또는 미디어 형식들에 대하여 이미지 또는 미디어 형식들의 비가 1:1이어야 한다.
ㆍ 이미지는 항상 애니메이션을 시작해야 한다.
ㆍ 가능한 경우, 동일한 데이터 형식의 장면들은 결코 연속적으로 재생할 수 없다.
ㆍ 나레이션의 80% 이상을 반복하는 텍스트 장면들은 폐기된다.
ㆍ 모든 장면들은, 100 문자들 또는 100 화소들 당 1초인, 이미지의 크기 또는 문자 카운트들을 통해 확립된 그들의 컨텐츠의 길이에 의존하여 계산된 스크린 상의 시간의 양을 수신한다.
이들 규칙들의 애플리케이션은 프레젠테이션 엔진이 입력에 밀접하게 대응하여 XML 파일을 생성하는 것을 허용하고, 이후 XML 파일은 프레젠테이션 엔진에 의해 해석되고(interpreted) 이러한 애플리케이션의 제 1 섹션에 기술된 애니메이션 실행들과 일치하는 방식으로 사용자에게 디스플레이된다. 도 10은 애니메이션 우선순위화(104)를 위한 장면 우선순위화 규칙세트들(102) 및 XML 명령들과 결합된 애니메이션 엔진(100)의 일 실시예를 설명한다. 애니메이션 엔진(100) 및 규칙세트(102)는 애니메이션 우선순위화(104)를 위한 장면들(106)을 구성할 수 있다.
상기에 설명한 방법론은 포함할 정보가 무엇인지를 결정하는 하나의 방식이지만, 다른 방법들 또한 본 발명의 범위 내에서 사용될 수 있다.
여기에 설명된 바와 같이, 프레젠테이션 엔진은 텍스트의 구절들 또는 임의의 문자 숫자식의 스트링(또는 스트링들의 세트) 또는 스크린 상에 풀다운 메뉴들로부터 선택되고 스크린상의 텍스트로 선택된 질의들로 구성된 입력을 받아들인다. 응답으로, 입력의 시맨틱 미닝(semantic meaning)을 규정하는(또는 그에 대응하는) 짧은(1분 이하) 애니메이팅된 프레젠테이션들을 어셈블링한다. 각각의 애니메이션은 작동중에 생성된 동적으로 렌더링된 멀티미디어 "장면들"의 세트를 포함한다. 다른 실시예들은 또한 본 발명의 범위 내에 있다.
상기에 설명된 구성요소들은 본 발명의 실시예에 따라 하나의 시스템을 형성하기 위해 결합될 수 있다. 이러한 실시예에서, 예를 들면, 시스템은 애니메이션에 대한 서브젝트에 연관된 적어도 하나의 입력 키워드를 받아들이기 위한 질의 인터페이스, 적어도 두개의 템플릿들의 세트를 갖는 데이터베이스, 복수의 웹사이트들로부터 데이터를 검색하기 위한 검색 엔진, 어떤 데이터를 템플릿들의 세트로 어셈블링할지를 결정하기 위한 런타임 엔진, 및 사용자에게 재생을 위한 애니메이션을 프레젠팅하기 위한 애니메이션 엔진을 포함할 수 있다. 런타임 엔진은, 예를 들면, 상기에 설명된 표준화 엔진, 추출 엔진, 및 선택 엔진을 포함할 수 있다. 추가로, 본 발명의 일 실시예에 따른 프레젠테이션 엔진은 질의 인터페이스, 데이터 베이스, 표준화 엔진, 추출 엔진, 선택 엔진, 및 애니메이션 엔진의 각각을 포함할 수 있다. 검색 엔진은 복수의 데이터 소스들로부터 데이터를 동적으로 검색할 수 있다.
본 발명은 상기에 설명된 예시적인 실시예들을 참조하여 기술되고, 당업자들은 본 발명의 정신 및 범위를 벗어나지 않고 본 발명의 기술된 실시예들에 대해 다양한 변형들을 만들 수 있을 것이다. 따라서, 상기의 예시의 기술은 본 발명의 범위를 제한하는 것을 의미하지 않고, 단지 청구항들에 대해서만 제한된다.

Claims (20)

  1. 애니메이션을 자동으로 어셈블링하는 방법에 있어서,
    상기 애니메이션의 서브젝트와 관련된 적어도 하나의 입력 키워드를 채택하는 단계;
    적어도 두 개의 템플릿들의 세트에 액세스하는 단계로서, 각각의 템플릿은 상이한 유형의 출력을 생성하고, 각각의 템플릿은 디스플레이 시간, 스크린 위치, 및 애니메이션 파라미터들에 대한 구성요소들을 포함하는, 상기 액세스 단계;
    상기 적어도 하나의 입력 키워드 및 상기 템플릿들에 기초하여 전자 검색을 사용하여 복수의 데이터 소스들을 검색하는 단계;
    어떤 검색된 데이터를 상기 템플릿들의 세트로 어셈블링할 지 결정하는 단계;
    상기 애니메이션을 형성하기 위해 데이터-조밀(data-populated) 템플릿들의 어셈블리를 조정하는 단계; 및
    사용자에 의한 재생을 위해 상기 애니메이션을 반환하는 단계를 포함하는, 애니메이션 자동 어셈블링 방법.
  2. 제 1 항에 있어서,
    상기 데이터를 검색하는 동작은 인터넷 검색 및 웹 페이지들로부터 데이터의 검색을 포함하는, 애니메이션 자동 어셈블링 방법.
  3. 제 1 항에 있어서,
    각각의 템플릿은 미리-제작된 유형의 장면을 나타내는, 애니메이션 자동 어셈블링 방법.
  4. 제 3 항에 있어서,
    상기 유형의 장면에 기초하여 재생을 위해 상기 템플릿들을 우선순위화하는 단계를 더 포함하는, 애니메이션 자동 어셈블링 방법.
  5. 제 3 항에 있어서,
    다른 유형의 장면에 대한 한 유형의 장면의 비에 기초하여 재생을 위해 상기 템플릿들을 우선순위화하는 단계를 더 포함하는, 애니메이션 자동 어셈블링 방법.
  6. 제 3 항에 있어서,
    상기 장면들은 텍스트, 이미지, 및 미디어를 포함하는, 애니메이션 자동 어셈블링 방법.
  7. 제 1 항에 있어서,
    상기 애니메이션은 상기 애니메이션의 재생을 규정하는 명령들을 포함하는, 애니메이션 자동 어셈블링 방법.
  8. 제 1 항에 있어서,
    상기 결정 동작은 데이터를 분석하는 단계 및 상기 애니메이션에 대한 상기 템플릿들에 잠재적인 포함을 위해 상기 데이터에 값들을 할당하는 단계를 포함하는, 애니메이션 자동 어셈블링 방법.
  9. 제 1 항에 있어서,
    재생 동안 상기 애니메이션을 보완하기 위한 나레이션 텍스트를 식별하는 단계를 더 포함하는, 애니메이션 자동 어셈블링 방법.
  10. 제 1 항에 있어서,
    상기 적어도 하나의 키워드에 기초하여 상기 애니메이션에 대해 매칭하는 음악 또는 사운드를 결정하는 단계를 더 포함하는, 애니메이션 자동 어셈블링 방법.
  11. 제 1 항에 있어서,
    상기 데이터 검색 동작은 복수의 데이터 소스들로부터 데이터를 동적으로 검색하는 단계를 포함하는, 애니메이션 자동 어셈블링 방법.
  12. 애니메이션을 자동으로 어셈블링하는 시스템에 있어서,
    사용자에게 프리젠테이션하기 위한 질의 인터페이스(query interface)로서, 상기 애니메이션의 서브젝트와 관련된 적어도 하나의 입력 키워드를 채택하기 위해 사용되는, 상기 질의 인터페이스;
    적어도 두 개의 템플릿들의 세트를 갖는 데이터베이스로서, 각각의 템플릿은 상이한 유형의 출력을 생성하고, 각각의 템플릿은 디스플레이 시간, 스크린 위치, 및 애니메이션 파라미터들에 대한 구성요소들을 포함하는, 상기 데이터베이스;
    상기 적어도 하나의 입력 키워드 및 상기 템플릿들에 기초하여 전자 검색을 사용하여 복수의 데이터 소스들로부터 데이터를 검색하는 검색 엔진;
    상기 템플릿들의 세트로 어셈블링할 데이터를 결정하고 상기 애니메이션을 형성하기 위해 데이터-조밀 템플릿들의 어셈블리를 조정하는 런타임 엔진(runtime engine); 및
    사용자에게 재생을 위해 상기 애니메이션을 프리젠테이션하는 애니메이션 엔진을 포함하는, 애니메이션 자동 어셈블링 시스템.
  13. 제 12 항에 있어서,
    상기 데이터 소스는 웹 페이지들인, 애니메이션 자동 어셈블링 시스템.
  14. 제 12 항에 있어서,
    상기 런타임 엔진은 데이터를 분석하고 상기 애니메이션에 대한 상기 템플릿들에 잠재적인 포함을 위해 상기 데이터에 값들을 할당하는 표준화 엔진(normalization engine)을 포함하는, 애니메이션 자동 어셈블링 시스템.
  15. 제 14 항에 있어서,
    상기 런타임 엔진은 재생 동안 상기 애니메이션을 보완하기 위한 나레이션 텍스트를 식별하는 추출 엔진(extraction engine)을 포함하는, 애니메이션 자동 어셈블링 시스템.
  16. 제 15 항에 있어서,
    상기 런타임 엔진은 상기 적어도 하나의 키워드에 기초하여 상기 애니메이션에 대해 매칭하는 음악 또는 사운드를 결정하는 선택 엔진을 포함하는, 애니메이션 자동 어셈블링 시스템.
  17. 제 12 항에 있어서,
    각각의 템플릿은 미리-제작된 유형의 장면을 나타내는, 애니메이션 자동 어셈블링 시스템.
  18. 제 17 항에 있어서,
    상기 애니메이션 엔진은 상기 유형의 장면에 기초하여 재생을 위해 상기 템플릿들을 우선순위화하는, 애니메이션 자동 어셈블링 시스템.
  19. 제 18 항에 있어서,
    상기 애니메이션 엔진은 또한 다른 유형의 장면에 대한 한 유형의 장면의 비에 기초하여 재생을 위해 상기 템플릿들을 우선순위화하는, 애니메이션 자동 어셈블링 시스템.
  20. 애니메이션을 자동으로 어셈블링하는 시스템에 있어서,
    상기 애니메이션의 서브젝트와 관련된 적어도 하나의 입력 키워드를 채택하는 수단;
    적어도 두 개의 템플릿들의 세트에 액세스하는 수단으로서, 각각의 템플릿은 상이한 유형의 출력을 생성하고, 각각의 템플릿은 디스플레이 시간, 스크린 위치, 및 애니메이션 파라미터들에 대한 구성요소들을 포함하는, 상기 액세스 수단;
    상기 적어도 하나의 입력 키워드 및 상기 템플릿들에 기초하여 전자 검색을 사용하여 복수의 데이터 소스들을 검색하는 수단;
    어떤 검색된 데이터를 상기 템플릿들의 세트로 어셈블링할 지 결정하는 수단;
    상기 애니메이션을 형성하기 위해 데이터-조밀 템플릿들의 어셈블리를 조정하는 수단; 및
    사용자에 의한 재생을 위해 상기 애니메이션을 반환하는 수단을 포함하는, 애니메이션 자동 어셈블링 시스템.
KR1020127013090A 2009-10-20 2010-10-13 키워드 및 스트링 입력에 기초한 애니메이트된 미디어를 어셈블링하는 방법 및 시스템 KR101715971B1 (ko)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US25327509P 2009-10-20 2009-10-20
US61/253,275 2009-10-20
PCT/US2010/052478 WO2011049799A1 (en) 2009-10-20 2010-10-13 Method and system for assembling animated media based on keyword and string input

Publications (2)

Publication Number Publication Date
KR20120132465A true KR20120132465A (ko) 2012-12-05
KR101715971B1 KR101715971B1 (ko) 2017-03-13

Family

ID=43900621

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020127013090A KR101715971B1 (ko) 2009-10-20 2010-10-13 키워드 및 스트링 입력에 기초한 애니메이트된 미디어를 어셈블링하는 방법 및 시스템

Country Status (6)

Country Link
US (2) US9177407B2 (ko)
EP (1) EP2491536B1 (ko)
JP (2) JP2013508856A (ko)
KR (1) KR101715971B1 (ko)
CN (1) CN102754127B (ko)
WO (1) WO2011049799A1 (ko)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102005829B1 (ko) * 2018-12-11 2019-07-31 이수민 디지털 라이브 북 제작 시스템

Families Citing this family (26)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8861890B2 (en) * 2010-11-24 2014-10-14 Douglas Alan Lefler System and method for assembling and displaying individual images as a continuous image
US10375534B2 (en) 2010-12-22 2019-08-06 Seyyer, Inc. Video transmission and sharing over ultra-low bitrate wireless communication channel
JP6019108B2 (ja) 2011-05-06 2016-11-02 セイヤー インコーポレイテッド 文字に基づく映像生成
CN102682082B (zh) * 2012-04-07 2015-03-25 山东师范大学 基于内容结构特征的网络Flash搜索系统及搜索方法
US9721321B1 (en) * 2012-04-12 2017-08-01 Farshad Nayeri Automated interactive dynamic audio/visual performance with integrated data assembly system and methods
US9031927B2 (en) 2012-04-13 2015-05-12 Ebay Inc. Method and system to provide video-based search results
US9524751B2 (en) 2012-05-01 2016-12-20 Wochit, Inc. Semi-automatic generation of multimedia content
US9396758B2 (en) 2012-05-01 2016-07-19 Wochit, Inc. Semi-automatic generation of multimedia content
US10303723B2 (en) * 2012-06-12 2019-05-28 Excalibur Ip, Llc Systems and methods involving search enhancement features associated with media modules
DE102012013989A1 (de) * 2012-07-12 2014-01-16 Hochschule Mittweida (Fh) Verfahren und Einrichtung zur automatischen Ordnung von Datensätzen zu einer bestimmten Datenmenge mit Datensätzen
US9223870B2 (en) 2012-11-30 2015-12-29 Microsoft Technology Licensing, Llc Decoration of search results by third-party content providers
CN104392729B (zh) * 2013-11-04 2018-10-12 贵阳朗玛信息技术股份有限公司 一种动画内容的提供方法及装置
US9553904B2 (en) 2014-03-16 2017-01-24 Wochit, Inc. Automatic pre-processing of moderation tasks for moderator-assisted generation of video clips
US11107038B2 (en) 2015-02-03 2021-08-31 PEOZZLE Corporation Multimedia resume distribution system
US9659219B2 (en) 2015-02-18 2017-05-23 Wochit Inc. Computer-aided video production triggered by media availability
CN104967897A (zh) * 2015-06-25 2015-10-07 上海庆科信息技术有限公司 一种应用于led显示屏上的显示方法及装置
US20170098324A1 (en) * 2015-10-05 2017-04-06 Vitthal Srinivasan Method and system for automatically converting input text into animated video
US20170316807A1 (en) * 2015-12-11 2017-11-02 Squigl LLC Systems and methods for creating whiteboard animation videos
JP6460347B2 (ja) * 2016-03-01 2019-01-30 京セラドキュメントソリューションズ株式会社 動画生成装置、動画生成プログラムおよび動画生成方法
US20180143741A1 (en) * 2016-11-23 2018-05-24 FlyrTV, Inc. Intelligent graphical feature generation for user content
CN109714624B (zh) * 2017-10-25 2021-11-09 武汉斗鱼网络科技有限公司 一种基于QTextEdit的直播弹幕的显示方法及系统
CN110020307B (zh) * 2017-11-30 2023-06-13 阿里巴巴集团控股有限公司 一种客户端视图的绘制方法和装置
CN109408051B (zh) * 2018-12-03 2021-12-28 福建省天奕网络科技有限公司 一种识别安卓游戏应用开发引擎的方法及终端
TWI780333B (zh) * 2019-06-03 2022-10-11 緯創資通股份有限公司 動態處理並播放多媒體內容的方法及多媒體播放裝置
US11907284B2 (en) * 2019-07-09 2024-02-20 Visuo Technology Pty Limited Method and a system for processing an image and for generating a contextually coherent video based on images processed thereby
CN112614211B (zh) * 2020-12-29 2023-09-22 广州光锥元信息科技有限公司 用于文本、图像自适应排版及动画联动的方法及装置

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20040205515A1 (en) * 2003-04-10 2004-10-14 Simple Twists, Ltd. Multi-media story editing tool
KR20080011210A (ko) * 2005-05-27 2008-01-31 마이크로소프트 코포레이션 비디오 파일의 운영 체제 셸 관리

Family Cites Families (28)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2994996B2 (ja) * 1995-12-01 1999-12-27 松下電器産業株式会社 マルチメディア編集装置
WO2000039997A2 (en) 1998-12-30 2000-07-06 Earthnoise.Com Inc. Creating and editing digital video movies
GB2354104A (en) * 1999-09-08 2001-03-14 Sony Uk Ltd An editing method and system
US7010537B2 (en) * 2000-04-27 2006-03-07 Friskit, Inc. Method and system for visual network searching
US20070239785A1 (en) * 2000-04-28 2007-10-11 Duncombe Jefferson D Media distribution system for distributing media that includes media personalities
US7248778B1 (en) 2001-03-16 2007-07-24 Gateway Inc. Automated video editing system and method
JP2003203088A (ja) * 2002-01-08 2003-07-18 Nippon Telegr & Teleph Corp <Ntt> プログラマブルコンテンツ提供方法および提供システム、送信端末、プログラム、記録媒体
US20050206751A1 (en) * 2004-03-19 2005-09-22 East Kodak Company Digital video system for assembling video sequences
US7836110B1 (en) * 2004-06-28 2010-11-16 MediaZ, Inc. Method and system to generate and deliver auto-assembled presentations based on queries of multimedia collections
US8077179B2 (en) * 2005-07-11 2011-12-13 Pandoodle Corp. System and method for creating animated video with personalized elements
US7477254B2 (en) * 2005-07-13 2009-01-13 Microsoft Corporation Smooth transitions between animations
US8572088B2 (en) 2005-10-21 2013-10-29 Microsoft Corporation Automated rich presentation of a semantic topic
US7945848B2 (en) * 2006-06-21 2011-05-17 Microsoft Corporation Dynamically modifying a theme-based media presentation
US8812945B2 (en) * 2006-10-11 2014-08-19 Laurent Frederick Sidon Method of dynamically creating real time presentations responsive to search expression
US20080158230A1 (en) * 2006-12-29 2008-07-03 Pictureal Corp. Automatic facial animation using an image of a user
US20080163317A1 (en) * 2006-12-29 2008-07-03 Yahoo! Inc. Generation of video streams from content items
WO2008093630A1 (ja) * 2007-01-29 2008-08-07 Access Co., Ltd. 動画生成方法、動画生成プログラム、および動画生成装置
US8100766B2 (en) * 2007-03-23 2012-01-24 Electrified Games, Inc. Method and system for personalized digital game creation
US20080244373A1 (en) * 2007-03-26 2008-10-02 Morris Robert P Methods, systems, and computer program products for automatically creating a media presentation entity using media objects from a plurality of devices
US8966369B2 (en) * 2007-05-24 2015-02-24 Unity Works! Llc High quality semi-automatic production of customized rich media video clips
US20080306995A1 (en) * 2007-06-05 2008-12-11 Newell Catherine D Automatic story creation using semantic classifiers for images and associated meta data
US8934717B2 (en) 2007-06-05 2015-01-13 Intellectual Ventures Fund 83 Llc Automatic story creation using semantic classifiers for digital assets and associated metadata
US7945847B2 (en) * 2007-06-26 2011-05-17 International Business Machines Corporation Recasting search engine results as a motion picture with audio
US8145632B2 (en) * 2008-02-22 2012-03-27 Tigerlogic Corporation Systems and methods of identifying chunks within multiple documents
US8907984B2 (en) 2009-07-08 2014-12-09 Apple Inc. Generating slideshows using facial detection information
WO2011097405A1 (en) 2010-02-03 2011-08-11 Nik Software, Inc. Narrative-based media organizing system for converting digital media into personal story
US20120130834A1 (en) 2010-11-18 2012-05-24 Landry Lawrence B Method for remotely configuring a digital image display device
US8543586B2 (en) 2010-11-24 2013-09-24 International Business Machines Corporation Determining points of interest using intelligent agents and semantic data

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20040205515A1 (en) * 2003-04-10 2004-10-14 Simple Twists, Ltd. Multi-media story editing tool
KR20080011210A (ko) * 2005-05-27 2008-01-31 마이크로소프트 코포레이션 비디오 파일의 운영 체제 셸 관리

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102005829B1 (ko) * 2018-12-11 2019-07-31 이수민 디지털 라이브 북 제작 시스템

Also Published As

Publication number Publication date
CN102754127A (zh) 2012-10-24
JP2015201236A (ja) 2015-11-12
US9177407B2 (en) 2015-11-03
EP2491536A4 (en) 2013-03-27
EP2491536A1 (en) 2012-08-29
US20160055664A1 (en) 2016-02-25
KR101715971B1 (ko) 2017-03-13
WO2011049799A1 (en) 2011-04-28
US20110115799A1 (en) 2011-05-19
CN102754127B (zh) 2016-08-31
JP2013508856A (ja) 2013-03-07
US10096145B2 (en) 2018-10-09
EP2491536B1 (en) 2019-06-12
JP5996734B2 (ja) 2016-09-21

Similar Documents

Publication Publication Date Title
KR101715971B1 (ko) 키워드 및 스트링 입력에 기초한 애니메이트된 미디어를 어셈블링하는 방법 및 시스템
US10325397B2 (en) Systems and methods for assembling and/or displaying multimedia objects, modules or presentations
US8793256B2 (en) Method and apparatus for selecting related content for display in conjunction with a media
JP6015568B2 (ja) コンテンツ・リンクを生成する方法、装置およびプログラム
US8972458B2 (en) Systems and methods for comments aggregation and carryover in word pages
TWI514171B (zh) 動態頁面產生之頁面模組與方法
US20220208155A1 (en) Systems and methods for transforming digital audio content
US11166000B1 (en) Creating a video for an audio file
EP2073193A1 (en) Method and device for generating a soundtrack
Gil et al. Going through the clouds: search overviews and browsing of movies
WO2012145561A1 (en) Systems and methods for assembling and/or displaying multimedia objects, modules or presentations
Chambel et al. Content-based search overviews and exploratory browsing of movies with MovieClouds
CN114503100A (zh) 将情绪相关元数据标注到多媒体文件的方法和装置
Serra et al. Quote Surfing in Music and Movies with an Emotional Flavor.
TWI780333B (zh) 動態處理並播放多媒體內容的方法及多媒體播放裝置
US20240087547A1 (en) Systems and methods for transforming digital audio content
CA3208553A1 (en) Systems and methods for transforming digital audio content
WO2023003555A1 (en) Automated generation of immersive interfaces
LEHMANN SEARCHING FOR SOUNDS
EP1521181A1 (en) Method and apparatus for automatically proposing an accompaniment to a text content
van Houten Searching for videos: The structure of video interaction in the framework of information foraging theory
CN116600178A (zh) 一种视频发布方法、装置、计算机设备及存储介质
KR20120050153A (ko) 멀티미디어 플레이어 제공 장치 및 방법
WO2009023129A1 (en) Systems and methods for comments aggregation and carryover in word pages
Looms Sync-by-CBA: Using metadata for content-based associations to facilitate logically synchronized and adaptive multimedia presentations

Legal Events

Date Code Title Description
A201 Request for examination
N231 Notification of change of applicant
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20200218

Year of fee payment: 4