KR20100031516A - 송신자-선택 사운드 아이템을 대화 참여자에게 제공 - Google Patents

송신자-선택 사운드 아이템을 대화 참여자에게 제공 Download PDF

Info

Publication number
KR20100031516A
KR20100031516A KR1020097026822A KR20097026822A KR20100031516A KR 20100031516 A KR20100031516 A KR 20100031516A KR 1020097026822 A KR1020097026822 A KR 1020097026822A KR 20097026822 A KR20097026822 A KR 20097026822A KR 20100031516 A KR20100031516 A KR 20100031516A
Authority
KR
South Korea
Prior art keywords
user
sound item
item
sound
receiving
Prior art date
Application number
KR1020097026822A
Other languages
English (en)
Inventor
케이. 아론 윌리암스
존 알. 셀비에
윌리암 에스. 아크벨
칸다르프 자니
트로이 에이. 스카울스
토마스 에이. 바르보어
라그후비어 심하
유안콴 장
Original Assignee
마이크로소프트 코포레이션
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 마이크로소프트 코포레이션 filed Critical 마이크로소프트 코포레이션
Publication of KR20100031516A publication Critical patent/KR20100031516A/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/40Business processes related to the transportation industry
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/162Interface to dedicated audio devices, e.g. audio drivers, interface to CODECs
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q10/00Administration; Management
    • G06Q10/10Office automation; Time management
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F15/00Digital computers in general; Data processing equipment in general
    • G06F15/16Combinations of two or more digital computers each having at least an arithmetic unit, a program unit and a register, e.g. for a simultaneous processing of several programs
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L51/00User-to-user messaging in packet-switching networks, transmitted according to store-and-forward or real-time protocols, e.g. e-mail
    • H04L51/04Real-time or near real-time messaging, e.g. instant messaging [IM]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L51/00User-to-user messaging in packet-switching networks, transmitted according to store-and-forward or real-time protocols, e.g. e-mail
    • H04L51/04Real-time or near real-time messaging, e.g. instant messaging [IM]
    • H04L51/043Real-time or near real-time messaging, e.g. instant messaging [IM] using or handling presence information
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L51/00User-to-user messaging in packet-switching networks, transmitted according to store-and-forward or real-time protocols, e.g. e-mail
    • H04L51/07User-to-user messaging in packet-switching networks, transmitted according to store-and-forward or real-time protocols, e.g. e-mail characterised by the inclusion of specific contents
    • H04L51/10Multimedia information
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L51/00User-to-user messaging in packet-switching networks, transmitted according to store-and-forward or real-time protocols, e.g. e-mail
    • H04L51/21Monitoring or handling of messages
    • H04L51/224Monitoring or handling of messages providing notification on incoming messages, e.g. pushed notifications of received messages

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Business, Economics & Management (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Resources & Organizations (AREA)
  • Strategic Management (AREA)
  • General Engineering & Computer Science (AREA)
  • Entrepreneurship & Innovation (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Signal Processing (AREA)
  • Marketing (AREA)
  • Economics (AREA)
  • Tourism & Hospitality (AREA)
  • General Business, Economics & Management (AREA)
  • Human Computer Interaction (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Operations Research (AREA)
  • Quality & Reliability (AREA)
  • Data Mining & Analysis (AREA)
  • Computer Hardware Design (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Multimedia (AREA)
  • Software Systems (AREA)
  • Primary Health Care (AREA)
  • Information Transfer Between Computers (AREA)
  • Telephonic Communication Services (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

제1 사용자가 사운드 아이템을 선택할 수 있게 해주는 기능에 대해 설명한다. 제1 사용자가 제1 장치를 사용하여 이 사운드 아이템을 제2 사용자에 의해 운용되는 제2 장치로 전송할 수 있다. 트리거링 이벤트의 발생 시에, 제1 사용자에 의해 선택된 사운드 아이템이 제2 장치에 의해 제2 사용자에게 제공될 수 있다. 제1 장치 및 제2 장치는 인스턴트 메시징(IM) 시스템 내의 2개의 장치에 대응할 수 있다. 다른 예시적인 측면에 따르면, 소스 사운드 아이템의 그래픽 표현 상에 제공되는 그래픽 선택 유닛의 위치 및/또는 크기(예를 들어, 폭)을 조정함으로써 제1 사용자가 소스 사운드 아이템으로부터 새로운 사운드 아이템을 선택할 수 있게 해주는 기능이 기술되어 있다.
인스턴트 메시징, 사운드 아이템, 트리거링 이벤트, 피어-투-피어, 프레즌스 정보

Description

송신자-선택 사운드 아이템을 대화 참여자에게 제공{PROVIDING SENDER-SELECTED SOUND ITEMS TO CONVERSATION PARTICIPANTS}
인스턴트 메시징(IM) 시스템은 사용자가 서로 실시간으로 통신을 할 수 있게 해준다. 종래에는, 2명의 IM 사용자 간의 IM 대화가 IM 사용자들 간에 교환되는 텍스트 메시지의 형태를 취하고 있다. 보다 흥미로운 사용자 경험을 제공하기 위해, 많은 IM 시스템은 IM 사용자들에게 비텍스트 정보를 제공함으로써 대화를 보완한다. 예를 들어, 제1 사용자는 임의의 다른 사용자가 IM 시스템에 로그인할 때 제공되는 일종의 글로벌 사운드(global sound)를 선택할 수 있다. 이 경우에, 제2 사용자가 IM 시스템에 로그인할 때, 제1 사용자는 선택된 글로벌 사운드의 프리젠테이션(presentation)에 의해 로그인 이벤트를 통지받는다. 이 경우에, 제1 사용자가 자신에게 나중에 제공되는 사운드를 결정한다.
제1 사용자가 사운드 아이템을 선택할 수 있게 해주는 기능에 대해 설명한다. 제1 사용자가 제1 장치를 사용하여 이 사운드 아이템을 제2 사용자에 의해 운용되는 제2 장치로 전송할 수 있다. 트리거링 이벤트의 발생 시에, 제1 사용자에 의해 선택된 사운드 아이템이 제2 장치에 의해 제2 사용자에게 제공될 수 있다. 이와 같이, 제1 사용자가 제2 사용자에게 재생되는 사운드 아이템을 지시(dictating)한다. 제1 장치 및 제2 장치는 인스턴트 메시징(IM) 시스템 내의 2개의 장치에 대응할 수 있다.
한 예시적인 경우에, 제1 장치는 제2 장치에게 프레즌스 정보(presence information)를 전송함으로써 새로운 사운드 아이템을 제2 장치에게 통지할 수 있다. 프레즌스 정보는 새로운 사운드 아이템에 대한 참조를 포함한다. 프레즌스 정보가 새로운 사운드 아이템을 식별하였음을 발견할 때, 제2 장치는 제1 장치로부터의 또는 어떤 다른 소스로부터의 새로운 사운드 아이템을 요청할 수 있다. 한 예시적인 경우에, 제1 장치는 피어-투-피어 통신 채널을 통해 제2 장치로 새로운 사운드 아이템을 전송할 수 있다. 통신 대역폭의 사용을 평탄화(smooth)하는 데 도움을 주기 위해 새로운 사운드 아이템이 큐잉 메카니즘을 통해 전송될 수 있다.
다른 예시적인 측면에 따르면, 사용자가 소스 사운드 아이템(source sound item)으로부터 새로운 사운드 아이템을 선택할 수 있게 해주는 기능이 설명되어 있다. 이 기능은 그래픽 선택 유닛과 함께 소스 사운드 아이템의 그래픽 표현을 제공하는 동작을 한다. 그래픽 선택 유닛이 소스 사운드 아이템의 세그먼트 상에 위치한다. 이 기능은 사용자가 그래픽 선택 유닛의 위치 및 크기(예를 들어, 폭)를 조절하고 또 그래픽 선택 유닛에 의해 경계가 표시된(demarcated) 세그먼트를 재생할 수 있게 해준다. 이들 동작을 반복함으로써, 이 기능은 사용자가 시행착오법(trial-and-error approach)을 통해 새로운 사운드 아이템을 선택할 수 있게 해줄 수 있다.
부가의 예시적인 구현 특징들이 이하에서 설명된다.
도 1은 사용자들 간에 메시지 및 사운드 아이템을 교환하는 시스템을 나타낸 도면.
도 2는 도 1의 시스템에서 사용되는 컨텐츠 생성 모듈 및 컨텐츠 관리 모듈을 나타낸 도면.
도 3은 도 1의 시스템을 사용하여 사용자가 다른 사용자와 통신을 하는 데 사용하는 사용자 인터페이스 프리젠테이션을 나타낸 도면.
도 4는 사용자가 새로운 사운드 아이템을 생성하는 데 사용하는 사용자 인터페이스 프리젠테이션을 나타낸 도면.
도 5는 도 1의 시스템의 임의의 측면을 구현하는 데 사용될 수 있는 예시적인 처리 기능을 나타낸 도면.
도 6은 새로운 사운드 아이템을 생성하는 예시적인 절차를 나타낸 플로우차트.
도 7은 사용자 장치가 새로운 사운드 아이템을 수신하는 데 사용하는 예시적인 절차를 나타낸 플로우차트.
도 8은 트리거링 이벤트에 응답하여 사용자 장치가 사운드 아이템을 제공하는 데 사용하는 예시적인 절차를 나타낸 플로우차트.
유사한 구성요소들 및 특징들을 참조하기 위해 본 명세서 및 도면 전체에 걸쳐 동일한 번호가 사용된다. 100번대 번호는 도 1에서 처음으로 나오는 특징들을 나타내고, 200번대 번호는 도 2에서 처음으로 나오는 특징들을 나타내며, 300번대 번호는 도 3에서 처음으로 나오는 특징들을 나타내고, 이하 마찬가지이다.
본 개시 내용은 제1 장치를 사용하여 제2 장치에게 사운드 아이템을 제공하는 기능에 대해 설명한다. 제2 장치는 트리거링 이벤트의 발생 시에 사운드 아이템을 제공한다. 본 개시 내용은 또한 사용자 인터페이스 프리젠테이션을 사용하여 사운드 아이템을 선택하는 기능도 제공한다. 본 기능은 다양한 시스템, 장치, 모듈, 절차, 저장 매체, 데이터 구조, 및 기타 형태로 구현될 수 있다.
"사운드 아이템"이라는 용어는 오디오 형태(audible form)로 제공될 수 있는 임의의 유형의 컨텐츠를 포함할 수 있다. 사운드 아이템의 유형으로는 음악 컨텐츠, 음성 언어 컨텐츠, 다양한 비언어 노이즈(예를 들어, 짖는 개, 흐르는 물, 기타)가 있다.
서문으로서, 도면들을 참조하여 기술되는 기능들 중 어느 것이라도 소프트웨어, 펌웨어, 하드웨어(예를 들어, 고정 논리 회로), 수동 처리, 또는 이들 구현의 조합을 사용하여 구현될 수 있다. "논리", "모듈", "컴포넌트", "시스템" 또는 "기능"이라는 용어는, 본 명세서에서 사용되는 바와 같이, 일반적으로 소프트웨어, 펌웨어, 하드웨어, 또는 이들의 조합을 말한다. 예를 들어, 소프트웨어 구현의 경우에, "논리", "모듈", "컴포넌트", "시스템" 또는 "기능"이라는 용어는 처리 장치 또는 장치들(예를 들어, CPU 또는 CPU들)에서 실행될 때 지정된 태스크들을 수행하는 프로그램 코드를 말한다. 프로그램 코드는 하나 이상의 컴퓨터 판독가능 메모리 장치에 저장될 수 있다.
보다 일반적으로, 논리, 모듈, 컴포넌트, 시스템 및 기능을 서로 다른 유닛으로 구분하여 설명하는 것은 소프트웨어, 펌웨어 및/또는 하드웨어의 실제적인 물리적 그룹화 및 할당을 반영할 수 있거나, 하나의 소프트웨어 프로그램, 펌웨어 프로그램, 및/또는 하드웨어 유닛에 의해 수행되는 서로 다른 태스크들의 개념적 할당에 대응할 수 있다. 예시된 논리, 모듈, 컴포넌트, 시스템 및 기능이 (예를 들어, 처리 장치에 의해 구현되는 것과 같이) 하나의 장소에 위치되어 있을 수 있거나, 다수의 장소에 걸쳐 분산되어 있을 수 있다.
"머신 판독가능 매체", 기타 등등의 용어는 다양한 종류의 저장 장치(자기 저장 장치, 광 저장 장치, 정적 저장 장치, 기타)를 비롯한, 정보를 임의의 형태로 보유하고 있는 임의의 종류의 매체를 말한다. 머신 판독가능 매체라는 용어는 또한 한 곳에서 다른 곳으로 정보를 전송하는 다양한 유선 및/또는 무선 링크를 비롯한, 정보를 표현하는 임시 형태(transitory form)도 포함한다.
어떤 특징들은 플로우차트 형태로 기술되어 있다. 이러한 방식의 설명에서, 어떤 동작들은 어떤 순서로 수행되는 서로 다른 블록들로 이루어져 있는 것으로 기술되어 있다. 이러한 구현들은 예시적이며 제한하는 것이 아니다. 본 명세서에 기술되어 있는 어떤 블록들은 함께 그룹화되어 하나의 동작으로 수행될 수 있고, 어떤 블록들은 본 개시 내용에 기술되어 있는 예들에서 이용되는 순서와 다른 순서로 수행될 수 있다. 플로우차트에 도시되어 있는 블록들은 소프트웨어, 펌웨어, 하드웨어, 수동 처리, 이들 구현의 임의의 조합, 기타 등등에 의해 구현될 수 있다.
이 개시 내용은 2개의 섹션을 포함하고 있다. 섹션 A에서는 사운드 아이템을 전달 및 재생하는 한 예시적인 시스템에 대해 기술하고 있다. 섹션 B에서는 섹션 A의 시스템의 동작에 대해 플로우차트 형태로 기술하고 있다.
A. 예시적인 시스템
도 1은 사용자가 서로 통신을 할 수 있게 해주는 시스템(100)을 나타낸 것이다. 한 예시적인 구현에서, 시스템(100)은 사용자들이 서로 실시간으로 통신을 할 수 있게 해주는 인스턴트 메시징(IM) 시스템에 대응한다. 즉, IM 시스템은 온라인 프레즌스를 유지하고 있는 어느 사용자라도 역시 온라인 프레즌스를 유지하고 있는 하나 이상의 연락처(예를 들어, "친구")와 통신을 할 수 있게 해준다.
시스템(100)은 사용자들이 네트워크(104)를 통해 서로 통신을 할 수 있게 해주는 통신-관련 인프라(102)를 포함한다. 사용자들은 각자의 사용자 장치를 운용한다. 도 1이 단지 4개의 대표적인 사용자 장치(106, 108, 110, 112)만을 도시하고 있지만, 시스템(100)이 임의의 수의 사용자 장치, 예를 들어, 수천개의 사용자 장치, 수백만개의 사용자 장치, 기타 등등을 수용할 수 있다는 것을 잘 알 것이다. 이하의 설명에서는 먼저 시스템(100)의 주요 구성요소에 관한 소개 정보를 제공한다. 이 설명에서는 그 다음에 사용자 장치들 간에 사운드 아이템을 전달하는 것에 시스템(100)을 적용하는 것에 대해 자세히 살펴본다.
통신 인프라(102)는 다양한 서버-유형 컴퓨터, 데이터 저장소, 및/또는 기타 데이터 처리 장비를 포함할 수 있다. 예를 들어, 통신 인프라(102)는 사용자 장치들 간의 연결을 관리하는 연결-관련 기능(도시 생략)을 포함할 수 있다. 통신 인 프라(102)는 또한 시스템(100) 내에서 프레즌스 정보를 관리 및 배포하는 프레즌스-관련 기능(도시 생략)도 포함할 수 있다. 프레즌스 정보는 사용자가 통신 참여자로서 시스템(100)에 관여되어 있는지를 기술하는 데이터를 포함한다. 프레즌스 정보가 사용자가 현재 온라인, 자리 비움, 용무 중, 기타 등등인지와 같은 사용자의 네트워크-관련 상태를 전달할 수 있지만, 이것으로 제한되지 않는다. 프레즌스 정보는 또한 사용자와 연관된 개인 정보도 전달할 수 있다. 개인 정보는 사용자와 연관되어 있는 개인화된 텍스트 메시지, 개인화된 표시 이름, 기타 등등을 노출시킬 수 있다. 설명할 것인 바와 같이, 프레즌스 정보는 또한 사용자와 연관된 사운드 아이템도 참조할 수 있다. 한 예시적인 경우에, 프레즌스 정보는 XML(extensible Markup Language) 포맷을 사용하여 표현될 수 있다.
동작을 설명하면, 통신 인프라(102)의 프레즌스-관련 기능은 사용자 그룹들 간에 프레즌스 정보를 전달할 수 있다. 예를 들어, 제1 사용자가 제1 사용자 장치(106)를 운용하고 제2 사용자가 제2 사용자 장치(108)를 운용하는 경우를 생각해보자. 제2 사용자는 제1 사용자의 연락처들 중 하나이다. 이 예시적인 시나리오에서, 프레즌스-관련 기능은 제1 장치(106)와 연관된 프레즌스 정보를 제2 장치(108)로 전달할 수 있다. 한 경우에, 이 프레즌스 정보(114)는 제1 사용자가 시스템(100)에 방금 로그인했다는 것, 기타 등등을 제2 장치(108)에게 알려줄 수 있다.
네트워크(104)는 근거리 통신망(LAN), 원거리 통신망(WAN)(예를 들어, 인터넷), 또는 LAN(들) 및 WAN(들)의 어떤 조합일 수 있다. 네트워크(104)는 무선 링 크, 유선 링크, 라우터, 게이트웨이, 네임 서버, 기타 등등의 임의의 조합으로 구현될 수 있고, 임의의 프로토콜 또는 프로토콜들의 조합에 의해 규제될 수 있다. 한 경우에, 시스템(100)은 사용자 장치들(106, 108, 110, 112)이 네트워크(104) 및 통신 인프라(102) 둘다의 자원을 사용하여 서로 통신을 할 수 있게 해준다. 다른 경우에, 시스템(100)은 사용자 장치(106, 108, 110, 112)가 네트워크(104)의 자원만을 사용하여, 즉 통신 인프라(102)에 의존하지 않고 또는 통신 인프라(102)에 최소한으로만 의존하고 서로 통신을 할 수 있게 해준다. 환언하면, 시스템(100)은 또한 사용자 장치들이 피어-투-피어(P2P) 방식으로 서로 직접 통신을 할 수 있게 해주도록 구성되어 있다. IM 시스템에서 P2P 통신을 용이하게 해주는 한 메카니즘이 2003년 7월 1일자로 출원된 동시 계류 중인, 발명의 명칭이 "Transport System for Instant Messaging(인스턴트 메시징의 전송 시스템)"인 John Holmes 등의 미국 특허 출원 제10/611,575호에 기술되어 있다.
각각의 사용자 장치는 임의의 유형의 데이터 처리 장치에 대응할 수 있다. 예를 들어, 사용자 장치는 퍼스널 컴퓨터, 랩톱 컴퓨터, PDA(personal digital assistant), 이동 전화 장치, 게임 콘솔, 텔레비전 세트와 연관된 셋톱 박스, 기타 등등에 대응할 수 있다. 이하의 예들 중 몇몇에서, 제1 장치(106)는 사운드 아이템을 제2 장치(108)로 전송하는 데 사용된다. 그 다음에, 사운드 아이템이 제2 장치(108)에 의해 재생된다. 상기한 바와 같이, 제1 장치(106)는 제1 사용자라고 하는 사용자에 의해 운용된다. 제2 장치(108)는 제2 사용자라고 하는 사용자에 의해 운용된다. 이 예가 단지 예시적인 것이라는 것을 잘 알 것이다. 예를 들어, 다른 시나리오에서, 제1 장치(106)는 제2 장치(108)에 의해 제공되는 사운드 아이템의 수신기로서 기능할 수 있다. 게다가, 한 쌍의 통신 참여자를 언급하는 것이 단지 예시적인 것이다. 예를 들어, 다른 경우에, 제1 장치(106)는 복수의 개별 연락처들에 대응하는 복수의 수신자 장치들로 사운드 아이템을 전달할 수 있다.
각각의 장치는 저장소 내의 컨텐츠 아이템을 관리하는 컨텐츠 관리 모듈을 포함할 수 있다. 예를 들어, 제1 장치(106)는 저장소(118)에 저장된 컨텐츠 아이템을 관리하는 컨텐츠 관리 모듈(116)을 포함한다. 제2 장치(108)는 저장소(122)에 저장된 컨텐츠 아이템을 관리하는 컨텐츠 관리 모듈(120)을 포함한다. 이하에서 보다 상세히 기술하게 되는 바와 같이, 컨텐츠 관리 모듈은 다양한 역할들을 수행할 수 있다. 한 역할에 따르면, 컨텐츠 관리 모듈은 컨텐츠 아이템을 다른 사용자 장치로 전송하는 것 및 다른 사용자 장치로부터 컨텐츠 아이템을 수신하는 것을 조정할 수 있다. 컨텐츠 관리 모듈은 또한 컨텐츠 아이템의 프리젠테이션도 조정할 수 있다.
지금까지의 설명을 바탕으로, 이제부터 사용자 장치들 간에 사운드 아이템을 전달하는 것에 시스템(100)을 적용하는 것에 대해 설명할 수 있다. 상기한 바와 같이, 사운드 아이템은 사용자에게 오디오로 제공될 수 있는 임의의 컨텐츠 아이템에 대응한다. 대표적인 유형의 사운드 아이템으로는 음악 아이템, 음성 언어 아이템, 비언어 노이즈 아이템, 기타 등등이 있다. 사용자는, 예를 들어, 일종의 명함, 기타 등등과 같이, 다른 사용자(또는 사용자들)에게 자신을 나타내는 사운드 아이템을 선택할 수 있다. 예를 들어, 사용자는 자기가 좋아하는 노래 중의 몇 초 분에 대응하는 자신의 사운드 아이템을 선택할 수 있다. 다른 사용자는 영감을 주는 음성 언어 인용구에 대응하는 자신의 사운드 아이템을 선택할 수 있다. 다른 사용자는 익살스럽다고 생각하는 비언어 사운드에 대응하는 자신의 사운드 아이템, 기타 등등을 선택할 수 있다.
통상적인 시나리오에서, 제1 사용자는 자신의 장치(106)를 사용하여 제2 장치(108)에게 사운드 아이템을 제공할 수 있다. 제1 사용자와 연관된 트리거링 이벤트의 발생 시에, 제2 장치(108)는 제2 사용자에게 사운드 아이템을 재생할 수 있다. 예를 들어, 제1 사용자가 시스템(100)에 로그인할 때 트리거링 이벤트가 발생할 수 있다. 이와 같이, 제1 사용자가 제2 장치(108)에 의해 제2 사용자에게 재생되는 사운드 아이템을 결정할 수 있다(어떤 제한 및 예외가 있음).
상기한 바와 같이 기능하기 위해, 첫번째 작업으로서, 제1 사용자는 사운드 아이템을 선택한다. 이 동작을 용이하게 해주기 위해, 제1 사용자는 컨텐츠 생성 모듈(이하에서 상세히 설명함)을 호출할 수 있다. 컨텐츠 생성 모듈은 소스 사운드 아이템(노래 파일 등)의 그래픽 표현을 제공하는 사용자 인터페이스 프리젠테이션을 디스플레이한다. 이 사용자 인터페이스 프리젠테이션을 사용하여, 제1 사용자는 소스 사운드 아이템의 세그먼트를 선택할 수 있다. 선택된 세그먼트는 다른 사용자들에게 제1 사용자를 나타내기 위해 차후에 사용되는 사운드 아이템에 대응한다. 제1 장치의 컨텐츠 관리 모듈(116)은 선택된 사운드 아이템을 그의 로컬 저장소(118)에 저장할 수 있다.
보다 구체적으로는, 제1 장치(106)의 저장소(118)는 제1 사용자와 연관된 다 양한 아이템들(124)을 포함할 수 있다. 한 유형의 아이템은 제1 사용자가 다른 사용자들에게 자신을 나타내기 위해 선택한 사운드 아이템에 대응한다. 다른 아이템은 제1 사용자에 의해 정의된 개인 텍스트 메시지에 대응할 수 있다. 다른 아이템은 제1 사용자에 의해 선택된 이미지, 기타 등등에 대응할 수 있다. 저장소(118)는 또한 다른 사용자들과 연관된 다양한 다른 아이템들(126)도 포함할 수 있다. 예를 들어, 제1 사용자는 다양한 연락처들(예를 들어, "친구")과 통신하도록 제1 장치(106)를 구성했을 수 있다. 다른 아이템들(126)은 사용자의 연락처들에 의해 정의된 사운드 아이템 및 기타 컨텐츠 아이템을 제공할 수 있다. 예를 들어, 제1 사용자가 통신을 하는 연락처로서 제2 사용자를 선택한 것으로 가정한다. 이 경우에, 저장소(118)는 제2 사용자에 의해 선택된 사운드 아이템, 제2 사용자에 의해 선택된 이미지, 기타 등등을 포함할 수 있다.
제1 사용자가 상기한 방식으로 새로운 사운드 아이템을 방금 선택한 것으로(또는 사실상 새로운 사운드 아이템을 생성하기 위해 기존의 사운드 아이템을 수정한 것으로) 가정한다. 컨텐츠 관리 모듈(116)이 이 시점에서 새로운 사운드 아이템의 존재에 관하여 제1 사용자의 연락처들에게 통지하기 위해 호출된다. 컨텐츠 관리 모듈(116)은, 상기한 바와 같은 사용자의 프레즌스의 다른 특성들과 함께, 새로운 사운드 아이템을 식별해주는 프레즌스 정보를 준비함으로써 이 태스크를 수행한다. 보다 구체적으로는, 프레즌스 정보(114)가 새로운 사운드 아이템으로의 링크를 제공하는 참조 정보를 포함할 수 있지만, 프레즌스 정보(114)가 프레즌스 정보 자체의 실제 컨텐츠는 포함하고 있지 않다. 통신 인프라(102)에서의 하나 이상 의 프레즌스 서버(도시 생략)가 프레즌스 정보(114)를 수신하고 이를 그 순간에 마침 온라인 상태에 있는 제1 사용자의 연락처들 모두에게 배포할 수 있다.
프레즌스 정보(114)가 전송될 때 제2 장치(108)가 온라인 상태에 있는 것으로 가정한다. 제2 장치(108)는 프레즌스 정보(114)를 수신 및 처리하여 그 프레즌스 정보가 어떤 새로운 정보를 포함하고 있는지 여부를 판정한다. 예를 들어, 제2 장치(108)의 컨텐츠 관리 모듈(120)은 (사운드 아이템을 식별해주는) 프레즌스 정보(114)에 들어 있는 참조 정보가 이전에 수신된 참조 정보와 다른지 여부를 판정할 수 있다. 또는 어쩌면 제2 장치(108)가 제1 사용자로부터 사운드 아이템을 결코 수신하지 않았으며, 이 경우에 제2 장치(108)는 새로 수신된 프레즌스 정보(114)에 들어 있는 참조 정보가 새로운 사운드 아이템을 알려주는 것으로 간주한다.
제2 장치(108)는 제1 장치(106)로부터의 새로운 사운드 아이템을 요청하는 것에 의해, 새로운 사운드 아이템이 수신되었는지에 대한 판정에 응답한다. 제1 장치(106)는 새로운 사운드 아이템을 제2 장치(108)에 제공하는 것에 의해, 이 요청에 응답한다. 그 다음에, 제2 장치(108)는 새로운 사운드 아이템을 그 자신의 저장소(122)에 저장한다. 한 예시적인 경우에, 제1 장치(106)와 제2 장치(108) 간의 요청 및 응답 교환이 피어-투-피어(P2P) 통신을 사용하여 수행될 수 있다. 예를 들어, 도 1은 P2P 경로를 통해 제1 장치(106)로부터 제2 장치(108)로 사운드 아이템(128)을 전송하는 것을 나타내고 있다. 도시된 바와 같이, P2P 경로는 통신 인프라(102)이 자원을 사용하지 않거나, 통신 인프라(102)의 자원의 어떤 측면만을 사용할 수 있다. 다른 경우에, 다양한 환경-관련 인자들 중 하나 이상으로 인해 P2P 채널이 이용가능하지 않은 것으로 판정되는 경우, 제1 장치(106)와 제2 장치(108) 간에 수행되는 요청 및 응답 교환이 통신 인프라(102)의 자원을 사용하여 수행될 수 있다. 또 다른 경우에, 제1 장치(106)와 제2 장치(108) 간에 수행되는 요청 및 응답 교환이 항상 통신 인프라(102)의 자원을 사용하여 수행될 수 있다.
제2 장치(108)가 제1 사용자로부터 사운드 아이템을 수신 및 저장하는 경우, 제2 장치는 이하에서 기술하는 바와 같이 하나 이상의 유형의 트리거링 이벤트에 응답하여 이 사운드 아이템을 제2 사용자에게 재생할 수 있다.
Figure 112009079519330-PCT00001
제1 사용자가 시스템(100)에 로그인할 때 한 유형의 트리거링 이벤트가 발생한다. 이 상황에서, 제2 장치(108)는 제1 사용자와 대화할 수 있다는 것을 제2 사용자에게 통지하기 위해 사운드 아이템을 재생할 수 있다.
Figure 112009079519330-PCT00002
제1 사용자가 시스템(100)으로부터 로그오프할 때 다른 유형의 트리거링 이벤트가 발생한다.
Figure 112009079519330-PCT00003
제1 사용자가 메시지를 제2 사용자에게 전송할 때 다른 유형의 트리거링 이벤트가 발생한다.
Figure 112009079519330-PCT00004
제1 사용자가 제2 사용자에게로 보내지는 임의의 유형의 특별 통신 옵션을 호출할 때 다른 유형의 트리거링 이벤트가 발생한다. 예를 들어, 제1 사용자가 흔들기 명령(nudge command)을 호출할 수 있으며, 이 흔들기 명령은 제2 장치(108)에 있는 사용자 인터페이스 프리젠테이션이 떨리게 하거나 어떤 다른 움직임에 관여(engage in)하게 한다. 또는 제1 사용자가 윙크 명령(wink command)을 호출할 수 있으며, 이 윙크 명령은 제2 장치(108)의 사용자 인터페이스 프리젠테이션 내의 그래픽 특징이 소정의 거동을 수행하게 한다. 이들 환경 각각에서, 특별 통신 옵션이 호출될 때 사운드 아이템이 제2 사용자에게 제공된다.
또 다른 유형의 트리거링 이벤트는 사운드 아이템의 재생을 야기할 수 있다. 이상의 리스트는 대표적인 것이며, 전부를 망라한 것이 아니다.
사운드 아이템을 수신 및 재생하는 상기 프로토콜은 시스템(100) 내의 임의의 장치에 의해 수행될 수 있다. 예를 들어, 제2 장치(108)는 제2 사용자에 의해 선택된 사운드 아이템을 제1 사용자에게 전달(forward)할 수 있다. 그 다음에, 제2 사용자가 상기한 거동들 중 임의의 거동에 관여할 때, 제1 장치(106)는 제2 사용자의 사운드 아이템을 재생할 수 있다. 마지막으로, 유의할 점은 어느 사용자라도 통상적으로 복수의 연락처를 포함하고 있다는 것이다. 예를 들어, 제1 사용자는 통상적으로 복수의 연락처를 가지고 있다. 이 경우에, 제1 사용자 장치(106)는 제1 사용자의 사운드 아이템을 제1 사용자의 연락처들과 연관된 장치들 모두로 전송할 수 있다.
상기한 아이템 배포 및 재생 절차는 시스템(100)의 한 동작 모드에 대응한다. 이하의 설명에서는 시스템(100)의 다양한 부가의 및/또는 대안의 특징들을 살펴본다.
한 특징에 따르면, 제1 사용자가 오프라인 동안에 새로운 사운드 아이템을 선택하고 나중에 온라인으로 되는 것으로 가정한다. 게다가, 제1 사용자가 온라인으로 될 때 제2 사용자도 온라인인 것으로 가정한다. 이 경우에, 제2 장치(108)가 제1 사용자의 온라인 프레즌스를 알리려고 하지만, 제2 장치(108)가 제1 사용자 장치(106)로부터 새로운 사운드 아이템을 획득하지 않았을지도 모른다. 이 상황을 해결하기 위해, 제2 장치(108)는 제1 사용자와 연관된 이전의 사운드 아이템 또는 제2 사용자에 의해 선택된 임의의 유형의 사운드 아이템(또는 디폴트 사운드 아이템) 등의 다른 사운드 아이템을 재생할 수 있다. 이러한 대비는 로그인 절차를 지연시키지 않기 위해 유용하다. 제2 장치(108)는 궁극적으로 제1 장치(106)로부터 새로운 사운드 아이템을 획득할 기회를 받게 된다. 그 다음 트리거링 이벤트 시에, 제2 장치(108)는 이어서 새로운 사운드 아이템을 재생할 수 있다.
제2 특징에 따르면, 사용자가 하나의 계정 하에서 복수의 사용자 장치를 운용하는 것으로 가정한다. 예를 들어, 도 1에 도시된 바와 같이, 사용자 C는 장치(110) 및 장치(112)를 운용한다. 예를 들어, 사용자 C는 장치(110)를 업무 컴퓨터("업무 장치(110)")로서 운용할 수 있고, 장치(112)를 홈 컴퓨터("홈 장치(112)")로서 운용할 수 있다. 그 다음에 사용자 C가 자신의 업무 장치(110)에서 새로운 사운드 아이템을 선택하는 것으로 가정한다. 게다가, 생성 시에 사용자가 그와 동시에 홈 장치(112)에 로그인되어 있지 않은 것으로 가정한다. 이 상황에서, 업무 장치(100)는 통신 인프라(102)에 의해 제공되는 네트워크 저장소(130)로 새로운 사운드 아이템을 전달할 수 있다. 사용자 C가 나중에 홈 장치(112)에 로그인할 때, 통신 인프라(102)는 새로운 사운드 아이템이 업무 장치(110)에 의해 생성되었음을 알려주는 통지를 홈 장치(112)에 제공할 수 있다. 홈 장치(112)는 이어서 네트워크 저장소(130)로부터 사운드 아이템을 검색하고 이 사운드 아이템을 그 의 로컬 메모리에 저장할 수 있다. 이와 같이, 시스템(100)은 하나의 계정과 연관된 모든 사용자 장치의 컨텐츠 저장소들을 동기화시킬 수 있다.
제3 특징에 따르면, 제1 사용자가 다수의 연락처들을 갖는 것으로 가정한다. 제1 사용자가 새로운 사운드 아이템을 생성할 때, 프레즌스 정보가 제1 사용자의 모든 연락처들로 전달되어, 그 연락처들에게 새로운 사운드 아이템을 통지한다. 연락처에 의해 운용되는 장치들("연락처 장치들") 각각이 이어서 새로운 사운드 아이템을 요청할 것으로 예상될 수 있다. 이에 따라, 차례로 제1 사용자 장치는 새로운 사운드 아이템을 요청하는 연락처 장치들 모두에게 새로운 사운드 아이템을 제공해야만 한다. 이러한 많은 수의 요청 및 응답이 잠재적으로 시스템(100)에 많은 대역폭을 요구할 수 있다. 이러한 상황을 개선하는 데 도움을 주기 위해, 시스템(100)은 다양한 방식으로 사운드 아이템의 배포를 겹치지 않게 하도록(stagger) 구성될 수 있다. 한 기법에 따르면, 새로운 사운드 아이템을 필요로 하는 연락처 장치들 각각이 동작 아이템(action item)을 큐에 넣어둘 수 있고, 이어서 동작 아이템이 큐에서 차례가 될 때 새로운 사운드 아이템을 요청할 수 있다. 연락처 장치들이 동시에 새로운 사운드 아이템을 요청하지 않는 한, 통신 대역폭이 평탄화될 수 있다.
제4 특징에 따르면, 상기한 시나리오에 따라, (1) 제1 장치(106)가 새로운 사운드 아이템을 생성하고, (2) 제1 장치(106)가 제2 장치(108)에게 새로운 사운드 아이템을 통지하며, (3) 제2 장치(108)가 제1 장치(106)에게 새로운 사운드 아이템을 요구하고, (4) 제1 장치(106)가 새로운 사운드 아이템을 제2 장치(108)에 제공 한다. 이 기법의 변형에서, (1) 제1 장치(106)가 새로운 사운드 아이템을 생성하고, (2) 제1 장치(106)가 새로운 사운드 아이템을 네트워크 저장소(130)에 제공하며, (3) 제1 장치(106)가 제2 장치(108)에게 새로운 사운드 아이템을 통지하고, (4) 제2 장치(108)가 (제1 장치(106)라기 보다는) 네트워크 저장소(130)에 새로운 사운드 아이템을 요청하여 획득한다.
도 2에 따르면, 동 도면은 사운드 아이템을 생성 및 관리하기 위해 사용자 장치가 이용할 수 있는 기능에 관한 부가의 정보를 나타내고 있다. 한 경우에, 각각의 사용자 장치는 도 2에 도시된 기능을 구현하는 개별적인 논리를 포함할 수 있다. 다른 경우에, 도 2에 도시된 기능의 하나 이상의 측면이 다수의 사용자 장치들에 의해 공유될 수 있다. 도 2에 도시된 기능을 운용하는 사용자는 상기한 제1 사용자(새로운 사운드 아이템을 생성하여 다른 장치들에 전달함) 또는 제2 사용자(제1 사용자로부터 사운드 아이템을 수신하고 트리거링 이벤트 시에 이를 재생함)로서 역할할 수 있다.
이 기능은 컨텐츠 생성 모듈(202)을 포함한다. 컨텐츠 생성 모듈(202)은 사용자가 새로운 사운드 아이템을 생성하거나 기존의 사운드 아이템을 수정할 수 있게 해준다. 컨텐츠 생성 모듈(202)은 사용자에게 사용자 인터페이스 프리젠테이션을 제공하는 것으로 이 태스크를 수행할 수 있다. 사용자는 도 4의 설명과 관련하여 이하에서 더 충분히 기술되는 방식으로 사용자 인터페이스 프리젠테이션을 사용하여 사운드 아이템을 정의할 수 있다.
도 2에 도시된 기능은 또한 컨텐츠 관리 모듈(204)을 포함한다. 컨텐츠 관 리 모듈(204)은 사용자에 의해 생성된 컨텐츠 아이템(사운드 아이템을 포함함)을 컨텐츠 저장소(206) 내에 저장할 수 있다. 컨텐츠 관리 모듈(204)은 또한 다른 사용자들에 의해 생성된 컨텐츠 아이템(사운드 아이템을 포함함)을 저장소(206)에 저장할 수 있다. 컨텐츠 관리 모듈(204)은 또한 컨텐츠 아이템이 다른 장치들로 전달되는, 다른 장치들로부터 수신되는, 소비되는, 기타 등등의 방식을 관리한다.
보다 구체적으로는, 컨텐츠 관리 모듈(204)은 컨텐츠 동기화 모듈(208)을 포함한다. 컨텐츠 동기화 모듈(208)의 목적은 2가지이다. 첫째, 컨텐츠 동기화 모듈(208)은 사용자의 연락처들에게 프레즌스 정보를 제공하고 또한 이들 연락처로부터 프레즌스 정보를 수신한다. 프레즌스 정보는 시스템(100) 내에서의 사용자의 프레즌스의 특징들을 알려준다. 예를 들어, 프레즌스 정보는 사용자에 의해 생성된 사운드 아이템을 알려준다. 컨텐츠 동기화 모듈(208)은 또한 다른 장치에 의해 요청될 때 다른 장치로 컨텐츠 아이템을 전송하는 동작을 한다. 컨텐츠 동기화 모듈(208)은 또한 다른 장치가 자기에게 컨텐츠 아이템을 전달할 것을 요청할 수 있다. 예를 들어, 컨텐츠 동기화 모듈(208)이 먼저 새로운 사운드 아이템을 비롯한 다양한 컨텐츠 아이템을 식별해주는 프레즌스 정보를 다른 장치로부터 수신하는 것으로 가정한다. 컨텐츠 동기화 모듈(208)은 새로운 사운드 아이템을 이미 포함하고 있는지 여부를 판정할 수 있다. 포함하고 있지 않은 경우, 컨텐츠 동기화 모듈(208)은 다른 장치에게 새로운 사운드 아이템을 제공하도록 요청할 수 있다. 상기한 바와 같이, 컨텐츠 동기화 모듈(208)은 선택적으로 큐-기반 프로토콜을 적용하여 컨텐츠 아이템을 요청할 수 있다.
컨텐츠 관리 모듈(204)은 또한 컨텐츠 재생 모듈(210)을 포함한다. 컨텐츠 재생 모듈(210)은 다른 사용자와 관련이 있는 트리거링 이벤트가 발생할 때 그 다른 사용자와 연관된 사운드 아이템을 재생한다. 예를 들어, 그 다른 사용자가 시스템(100)에 로그인할 때 트리거링 이벤트가 발생할 수 있다. 이 이벤트에 응답하여, 컨텐츠 재생 모듈(210)은 로그인한 사용자(예를 들어, 제1 사용자)에 대응하는 사운드 아이템을 검색하고 (예를 들어, 제2 사용자를 위해) 이를 재생한다.
컨텐츠 관리 모듈(204)은 또한 재생 설정 모듈(212)을 포함한다. 재생 설정 모듈(212)은 사운드 아이템을 재생하기 위한 다양한 조건들을 정의한다. 예를 들어, 한 경우에, 제어측 사용자(컨텐츠 관리 모듈(204)과 연관된 사용자 장치를 운용하는 사용자를 의미함)는 재생 설정 모듈(212)을 통해 적절한 명령을 입력함으로써 하나 이상의 다른 사용자들에 의해 정의된 사운드 아이템을 오버라이드(override)하도록 선택할 수 있다. 이러한 오버라이드 명령은 트리거링 이벤트에 응답하여 다른 사용자에 대한 사운드 아이템이 재생되는 것을 방지한다. 다른 사용자에 의해 정의된 사운드 아이템 대신에, 제어측 사용자는 트리거링 이벤트에 응답하여 재생될 다른 사운드들을 정의할 수 있다. 한 경우에, 제어측 사용자는 특정의 다른 사용자가 트리거링 이벤트를 구성하는 거동에 관여할 때 제공될 커스텀 사운드를 정의할 수 있다. 다른 경우에, 제어측 사용자는 제어측 사용자의 연락처들 중 임의의 연락처가 트리거링 이벤트를 수행할 때 제공될 글로벌 사운드를 정의할 수 있다. 이들 2개의 오버라이드 시나리오에서, 제어측 사용자는 트리거링 이벤트 시에 재생될 사운드를 선택하는 개체이며, 사운드의 프리젠테이션을 트리거 링하는 다른 사용자들이 어느 사운드를 재생해야 하는지를 지시하지 않는다.
도 3은 임의의 사용자 장치 상에 제공될 수 있는 통신-관련 사용자 인터페이스 프리젠테이션(302)을 나타낸 것이다. 사용자 인터페이스 프리젠테이션(302)이 Alice라는 사용자에게 제공되는 것으로 가정한다. 사용자 인터페이스 프리젠테이션(302)은 Alice의 연락처를 식별해주는 리스트(304)를 포함하고 있다. 이들은 Alice가 허가된 통신 참여자로서 선택한 사람들 또는 기타 개체들(예를 들어, 자동화된 프로그램)이다. 사용자 인터페이스 프리젠테이션(302)은 또한 Alice가 임의의 연락처(들)에 대한 메시지를 작성하고 연락처(들)로부터 메시지를 수신할 수 있게 해주는 영역(도시 생략)을 포함하고 있다.
Alice의 사용자 장치와 연관된 컨텐츠 재생 모듈(210)은 Alice의 연락처들 중 임의의 연락처와 연관되어 있는 트리거링 이벤트가 발생할 때 Alice에게 사운드 아이템을 제공한다. 예를 들어, Alice의 연락처들 중 하나가 Bob인 것으로 가정하자. Bob이 시스템에 로그인할 때, Alice의 사용자 장치는 Bob의 온라인 상태를 통지받는다. 그에 응답하여, Alice의 컨텐츠 재생 모듈(210)은 또한 Bob 자신이 Alice의 장치에서 재생하기 위해 선택한 사운드 아이템을 재생할 수 있다. 스피커 및 음악(306)의 그래픽 표현은 Bob이 자신의 온라인 프레즌스를 알리기 위해 선택한 음악 클립의 오디오 프리젠테이션을 Alice가 수신한다는 것을 나타낸다.
도 4는 사운드 선택 사용자 인터페이스 프리젠테이션(402)을 나타낸 것이다. 컨텐츠 생성 모듈(202)(도 2)은 이 사용자 인터페이스 프리젠테이션(402)을 사용자에게 제공한다. 사용자 인터페이스 프리젠테이션(402)은 사용자가 새로운 사운드 아이템을 생성하거나 기존의 사운드 아이템을 수정할 수 있게 해준다.
사용자 인터페이스 프리젠테이션(402)은 사용자가 소스 사운드 아이템이 들어 있는 파일 폴더를 선택할 수 있게 해주는 입력 섹션(404)을 포함한다. 소스 사운드 아이템은 이전에 생성된 오디오 파일에 대응하며, 이 오디오 파일로부터 사용자가 새로운 사운드 아이템을 선택할 수 있다. 예를 들어, 소스 사운드 아이템은 상업적으로 제작된 노래에 대응할 수 있다. 또는 소스 사운드 아이템은 사용자에 의해 제작된 개인 레코딩, 예를 들어, 음성 언어 컨텐츠, 음악, 비언어 사운드, 기타를 제공하는 것에 대응할 수 있다. 어느 경우든, 사용자는 새로운 사운드 아이템을 제작하기 위해 소스 사운드 아이템으로부터 작은 스닛핏(snippet)을 선택할 수 있다. 한 경우에, 사용자는 소스 사운드 아이템의 임의의 부분을 선택할 수 있지만, 선택된 부분이 지정된 최대 시간 길이, 예를 들어, 5초(이에 한정되지 않음)를 초과할 수 없다. 다른 경우에, 사운드 아이템의 길이에 어떤 제한도 두지 않는다. 사용자가 새로운 사운드 아이템을 선택하기 위해 사용될 소스 사운드 아이템에 대한 저작권을 소유하는 것으로 가정한다.
사용자가 (필드(404)에서) 파일 폴더를 선택할 시에, 사용자 인터페이스 프리젠테이션(402)은 폴더의 내용을 필드(408)에 열거할 수 있다. 이 대표적인 경우에, 파일 "Music"은 2개의 소스 사운드 아이템, 즉 SongXYZ라는 노래와 SongABC라는 노래를 포함하고 있다. 도 4에서 음영으로 나타낸 바와 같이, 사용자는 새로운 사운드 아이템을 선택하기 위하여 그로부터 노래 SongXYZ를 선택하였다.
사용자가 노래 SongXYZ를 선택할 시에, 사용자 인터페이스 프리젠테이 션(402)은 SongXYZ의 그래픽 표현을 그래픽 프리젠테이션 필드(410)에 디스플레이한다. 그래픽 프리젠테이션 필드(410)는 SongXYZ의 음파(sound wave)의 일부의 표현을 포함한다. 예를 들어, 전체 사운드의 길이가 3분인 것으로 가정하면, 그래픽 프리젠테이션 필드(410)는 그 노래의 10초 분량의 일부와 연관된 음파를 나타낼 수 있다. 사용자 인터페이스 프리젠테이션(402)은 사운드 탐색(navigation) 필드(412)를 포함한다. 사용자는 고속 감기 컨트롤(414) 또는 되감기 컨트롤(416)을 활성화시켜 노래의 다른 부분으로 갈 수 있다. 이들 명령(414, 416)은 그래픽 프리젠테이션 필드(410)에 노래의 다른 부분을 디스플레이하라고 프롬프트한다. 사용자는 또한 다른 상호작용 모드(노래의 그래픽 표현을 클릭하여 그 표현을 한 방향 또는 다른 방향(예를 들어, 오른쪽 또는 왼쪽)으로 드래그하는 것 등)를 사용하여 노래의 다른 부분들을 디스플레이할 수 있다.
그래픽 프리젠테이션 필드(410)는 노래의 그래픽 표현 상에 제공되는 그래픽 선택 유닛(418)을 포함하고 있다. 그래픽 선택 유닛(418)은 창(window)으로서 형성될 수 있다. 이 창은 화살표(420)로 식별되는 제1 단부 및 화살표(422)로 식별되는 제2 단부를 갖는다. 제1 단부 및 제2 단부는 노래의 미리 정해진 기간을 갖는 세그먼트의 경계를 나타낸다. 그래픽 선택 유닛(418)은 사용자가 제1 단부 및 제2 단부로 경계가 표시된 노래의 일부분을 볼 수 있게 해주는 투명한 중간 섹션을 포함한다.
그래픽 선택 유닛(418)은, 예를 들어, 그래픽 선택 유닛(418)을 클릭하여 드래그함으로써 또는 어떤 이동 명령을 입력함으로써 노래의 다른 위치로 이동될 수 있다. 사용자는 또한 그래픽 선택 유닛(418)의 폭을 조정할 수 있다. 사용자는 그래픽 선택 유닛(418)의 가장자리의 경계를 나타내는 화살표(420, 422) 중 어느 하나(또는 둘다)를 조정함으로써 이 태스크를 수행할 수 있다. 이들 동작을 통해, 사용자는 새로운 사운드 아이템으로서 선택되는 노래의 일부분을 정의할 수 있다. 환언하면, 그래픽 선택 유닛(418)의 가장자리로 경계가 표시된 노래의 일부분이 새로운 사운드 아이템에 대응한다.
노래의 올바른 부분이 선택되도록 하기 위해, 사용자 인터페이스 프리젠테이션(402)은 사용자가 그래픽 선택 유닛(418)에 의해 경계가 표시된 사운드 아이템을 재생할 수 있게 해준다. 사용자는 시작/정지 컨트롤(424)을 액츄에이트(actuate)시킴으로써 이 태스크를 수행할 수 있다. 즉, 컨트롤(424)은 컨트롤(424)을 액츄에이트시킴으로써 비재생(no-play) 상태에서 재생 상태로 전환하는 데 사용될 수 있고, 동일한 컨트롤(424)이 컨트롤(424)을 액츄에이트시킴으로써 재생 상태에서 비재생 상태로 전환(transition)하는 데 사용될 수 있다. 사운드 아이템을 재생하라고 명령을 할 때, 그래픽 선택 유닛(418)은 라인(426)을 사용하여 재생의 진행을 보여줄 수 있다, 즉, 라인(426)은 재생되는 컨텐츠의 진행에 따라 좌에서 우로 이동한다.
통상적인 선택 프로세스에서, 사용자는 시행착오법을 사용하여 노래의 원하는 부분을 선택할 것으로 예상된다. 예를 들어, 사용자는 그래픽 선택 유닛(418)의 초기 위치 및 폭을 선택하고 이어서 재생 컨트롤(424)을 액츄에이트시킬 수 있다. 사용자가 선택된 노래의 부분에 만족하지 않는 경우, 사용자는 그래픽 선택 유닛(418)의 위치 및/또는 폭을 수정할 수 있고, 그 후에 사용자는 선택된 컨텐츠를 다시 재생할 수 있다. 사용자는 선택된 부분에 만족할 때까지 이 절차를 임의의 횟수 반복할 수 있다.
사용자는 선택적으로 (사운드 아이템의 시작에) 페이드-인 효과 및/또는 (사운드 아이템의 끝에) 페이드-아웃 효과를 추가함으로써 더 만족스러운 사운드 아이템을 생성할 수 있다. 사용자는 페이드-인 컨트롤(428) 및 페이드-아웃 컨트롤(430)을 선택함으로써 이러한 유형의 전환 효과들을 추가할 수 있다.
사용자가 선택된 사운드 아이템에 만족하는 경우, 사용자는 저장 컨트롤(432)을 활성화시켜 새로운 사운드 아이템을 저장할 수 있다. 사용자는 필드(434)를 통해 사운드 아이템의 이름을 선택할 수 있다. 다른 대안으로서, 사용자는 취소 컨트롤을 활성화시켜 사운드 아이템 선택 절차를 그만둘 수 있다.
한 경우에, 사용자는 임의의 트리거링 이벤트의 발생 시에 자신의 연락처들 모두에 대해 디스플레이될 사운드 아이템을 정의할 수 있다. 다른 경우에, 사용자는 서로 다른 사용자들 또는 사용자 그룹들에 대해 서로 다른 사운드 아이템을 정의할 수 있다. 다른 대안으로서 또는 그에 부가하여, 사용자는 서로 다른 트리거링 이벤트에 대해 서로 다른 사운드 아이템을 정의할 수 있다.
도 5로 가면, 이 도면은 도 1에 도시된 시스템(100)의 임의의 측면을 구현하는 데 사용될 수 있는 예시적인 처리 기능(502)에 대해 설명하고 있다. 한 비제한적인 경우에, 예를 들어, 처리 기능(502)은, 예를 들어, 임의의 사용자 장치의 임의의 측면 및/또는 통신 인프라(102)의 임의의 측면, 기타 등등을 구현하기 위해, 시스템(100)에 의해 사용되는 임의의 컴퓨터 머신을 나타낼 수 있다.
처리 기능(502)은 다양한 처리 기능들을 구현하는 처리 모듈(504)을 포함할 수 있다. 처리 모듈(504)은 RAM(506) 및 ROM(508) 등의 휘발성 및 비휘발성 메모리는 물론 하나 이상의 프로세서(510)를 포함할 수 있다. 처리 기능(502)은 프로세서(들)(510)가 메모리(예를 들어, 506, 508, 또는 다른 곳)에 유지되는 명령어들을 실행할 때 상기한 다양한 동작들을 수행할 수 있다. 처리 기능(502)은 또한 선택적으로 하드 디스크 모듈, 광 디스크 모듈, 기타 등등의 다양한 매체 장치(512)를 포함하고 있다.
처리 기능(502)은 또한 (입력 모듈(516)을 통해) 사용자로부터 다양한 입력을 수신하고 (프리젠테이션 모듈(518)을 통해) 사용자에게 다양한 출력을 제공하는 입/출력 모듈(514)을 포함하고 있다. 프리젠테이션 모듈(518)은 그래픽 사용자 인터페이스(GUI)(520)를 제공할 수 있다. 처리 기능(502)은 하나 이상의 통신 통로(communication conduit)(524)를 통해 다른 장치들 및 시스템들과 데이터를 교환하기 위한 하나 이상의 네트워크 인터페이스(522)를 포함할 수 있다. 하나 이상의 통신 버스(526)는 상기한 컴포넌트들을 서로 통신 연결시킨다.
B. 예시적인 절차
도 6은 새로운 사운드 아이템을 생성하는 예시적인 절차(600)를 나타낸 것이다. 섹션 A에서 설명한 바와 같이, 컨텐츠 생성 모듈(202)은 사용자가 사운드 아이템을 생성할 수 있게 해주는 하나의 도구이다. 컨텐츠 생성 모듈(202)은 사용자가 소스 사운드 아이템의 원하는 부분을 반복적으로 선택할 수 있게 해주는 사용자 인터페이스 프리젠테이션(402)을 제공한다.
블록(602)에서, 컨텐츠 생성 모듈(202)은 소스 사운드 아이템의 사용자 선택을 수신한다. 이것은 사용자가 원하는 폴더를 선택하고 이어서 폴더에 포함되어 있는 소스 사운드 아이템을 선택하는 것에 대응할 수 있다.
블록(604)에서, 컨텐츠 생성 모듈(202)은 소스 사운드 아이템의 일부의 그래픽 표현을 제공한다. 예를 들어, 컨텐츠 생성 모듈(202)은 사운드 아이템의 일부분의 음파 표현을 제공할 수 있다.
블록(606)에서, 컨텐츠 생성 모듈(202)은 소스 사운드 아이템의 일부분 상에 그래픽 선택 유닛(418)을 제공한다. 그래픽 선택 유닛(418)은 경계가 표시된 사운드 세그먼트의 시간 길이를 정의하는 크기(예를 들어, 폭)를 갖는다.
블록(608)에서, 컨텐츠 생성 모듈(202)은, 그래픽 선택 유닛(418)에 의해 경계가 표시된 세그먼트를 반복적으로 재생하는 것과 관련하여, 그래픽 선택 유닛(418)의 위치 및/또는 크기를 반복적으로 이동시킴으로써 사용자가 소스 사운드 아이템의 원하는 세그먼트를 반복적으로 선택할 수 있게 해준다.
블록(610)에서, 컨텐츠 생성 모듈(202)은, 선택적으로, 선택된 사운드 아이템의 시작 및/또는 끝에 나타나는 전환 효과를 선택할 수 있게 해준다. 전환 효과는 세그먼트의 시작에서의 페이드-인 효과 및 세그먼트의 끝에서의 페이드-아웃 효과에 대응할 수 있다.
블록(612)에서, 컨텐츠 생성 모듈(202)은 사용자로부터의 저장 명령에 응답하여 마지막으로 선택된 사운드 아이템을 저장할 수 있다.
블록(614)에서, 컨텐츠 동기화 모듈(208)은 새로운 사운드 아이템의 존재를 사용자의 연락처들에게 알려주는 프레즌스 정보를 사용자의 연락처들에게 전달할 수 있다. 그 연락처들은 그 다음에 새로운 사운드 아이템을 요청하여 수신할 수 있다.
도 6의 우측 부분은 컨텐츠 생성 모듈(202)이 사용자가 소스 사운드 아이템의 원하는 세그먼트를 반복적으로 선택할 수 있게 해주는 방식에 대해 상세히 설명하는 일련의 블록들을 포함하고 있다. 블록(616)에서, 컨텐츠 생성 모듈(202)은 그래픽 선택 유닛(418)을 이동시키라는 및/또는 그래픽 선택 유닛(418)의 크기(예를 들어, 폭)를 조정하라는 사용자의 명령을 수신한다. 블록(618)에서, 컨텐츠 생성 모듈(202)은 그래픽 선택 유닛(418)에 의해 경계가 표시된 부분을 재생하라는 사용자의 명령을 수신한다. 다시 블록(616)을 가리키는 루프 화살표는 사용자가 선택된 사운드 아이템에 만족할 때까지 사용자가 일련의 동작(616, 618)을 여러 번 수행할 수 있다는 것을 나타낸다.
도 7은 장치(대표적인 제2 장치(108) 등)가 다른 장치(대표적인 제1 장치(106) 등)로부터 새로운 컨텐츠 아이템을 수신할 수 있게 해주는 예시적인 절차(700)를 나타낸 것이다. 제1 사용자는 제1 장치(106)를 운용하며, 제2 사용자는 제2 장치(108)를 운용한다.
블록(702)에서, 제2 장치(108)는 제1 장치(106)로부터 새로운 프레즌스 정보를 수신했는지 여부를 판정한다. 이 예에서, 제1 장치(106)의 사용자는 연락처 X에 대응한다.
블록(702)에서 '예'인 경우, 블록(704)에서, 제2 장치(108)는 프레즌스 정보가 새로운 사운드 아이템을 식별해주는지 여부를 판정한다. 제2 장치(108)는 새로 수신된 참조 정보를 이전에 수신된 참조 정보와 비교함으로써 또는 이전에 수신된 참조 정보가 없는지를 판정함으로써 이 판정을 할 수 있다.
블록(704)에서, '예'인 경우(프레즌스 정보가 새로운 사운드 아이템을 식별해주는 것을 의미함), 제2 장치(108)는 제1 장치(106)에게 새로운 사운드 아이템을 제공하라고 요청한다. 그에 응답하여, 제2 장치(108)는 이 새로운 사운드 아이템을 수신한다. 상기한 바와 같이, 제2 장치(108)는 다른 대안으로서 네트워크 저장소(130) 등의 서버측 소스로부터 새로운 사운드 아이템을 획득할 수 있다.
도 8은 장치(대표적인 제2 장치(108) 등)에 의해 다른 장치(대표적인 제1 장치(106) 등)로부터 수신된 사운드 아이템을 재생하는 절차(800)를 나타낸 것이다. 제1 사용자는 제1 장치(106)를 운용하며, 제2 사용자는 제2 장치(108)를 운용한다.
블록(802)에서, 제2 장치(108)는 제1 사용자와 연관된 트리거링 이벤트를 수신했는지 여부를 판정한다.
블록(802)에서 '예'인 경우, 블록(804)에서, 제2 장치(108)는 제1 사용자에 의해 생성된 사운드 아이템을 가지고 있는지 여부를 판정한다.
블록(804)에서 '예'인 경우, 블록(806)에서, 제2 장치(108)는 (제2 장치(108)의) 제2 사용자가 제1 사용자에 의해 생성된 사운드 아이템을 오버라이드하라는 명령을 이전에 입력했는지 여부를 판정한다.
블록(806)에서 '아니오'인 경우(사용자가 사운드 아이템을 오버라이드하라는 명령을 입력하지 않았음을 의미함), 블록(808)에서, 제2 장치(108)는 제1 사용자의 사운드 아이템을 제2 사용자에게 제공한다.
블록(806)에서 '예'인 경우(사용자가 오버라이드하라는 명령을 입력했음을 의미함), 제2 장치(108)는 선택적으로 다른 사운드를 제2 사용자에게 제공할 수 있다. 한 경우에, 제2 장치(108)는 제1 사용자에 대해 제2 사용자에 의해 특별히 정의된 사운드 아이템을 제공할 수 있다. 다른 경우에, 제2 장치(108)는 트리거링 이벤트를 호출하는 모든 사용자들에 대해 제공하는 기본 사운드를 제공할 수 있다.
본 발명이 구조적 특징들 및/또는 방법적 동작들과 관련하여 기술되어 있지만, 첨부된 청구항들에 정의된 본 발명이 상기한 특정의 특징들 또는 동작들로 반드시 제한되는 것은 아니라는 것을 잘 알 것이다. 오히려, 특정의 특징들 및 동작들은 청구된 발명을 구현하는 예시적인 형태로서 개시되어 있다.

Claims (20)

  1. 사용자들 간의 통신 방법으로서,
    제2 장치에서 제1 장치로부터 프레즌스 정보(presence information)를 수신하는 단계(702) - 상기 프레즌스 정보는 상기 제1 장치의 제1 사용자와 연관된 사운드 아이템에 대한 참조를 포함함 -,
    상기 참조에 기초하여, 상기 사운드 아이템이 상기 제2 장치에 아직 제공되지 않았는지 여부를 판정하는 단계(704),
    상기 사운드 아이템이 상기 제2 장치에 아직 제공되지 않은 것으로 판정되는 경우, 상기 제1 장치로부터의 상기 사운드 아이템을 요청하는 단계(706), 및
    상기 요청하는 단계에 응답하여, 상기 제1 장치로부터 상기 사운드 아이템을 수신하는 단계(706)를 포함하는, 사용자들 간의 통신 방법.
  2. 제1항에 있어서, 상기 수신하는 단계는 피어-투-피어 통신을 사용하여 수행되는 것인, 사용자들 간의 통신 방법.
  3. 제1항에 있어서, 상기 제1 장치는 대역폭 소모를 평탄화(smooth)하기 위해 큐-기반 프로토콜을 사용하여 상기 제2 장치로 상기 사운드 아이템을 전송하는 것인, 사용자들 간의 통신 방법.
  4. 제1항에 있어서, 상기 사운드 아이템의 프리젠테이션(presentation)을 트리거하는 트리거링 이벤트를 식별하는 단계, 및
    상기 트리거링 이벤트에 응답하여 상기 제2 사용자에게 상기 사운드 아이템을 제공하는 단계를 더 포함하는, 사용자들 간의 통신 방법.
  5. 제4항에 있어서, 상기 제1 사용자가 상기 제1 장치에 로그인할 때 상기 트리거링 이벤트가 발생하는 것인, 사용자들 간의 통신 방법.
  6. 제4항에 있어서, 상기 제1 사용자가 상기 제2 장치로 임의의 유형의 인스턴트 메시징(IM) 통신을 전송할 때 상기 트리거링 이벤트가 발생하는 것인, 사용자들 간의 통신 방법.
  7. 제1항의 컴퓨터화된 방법을 구현하는 머신 판독가능 명령어들을 포함하는 하나 이상의 머신 판독가능 매체.
  8. 하나 이상의 컴퓨팅 장치로서,
    하나 이상의 프로세서, 및
    상기 하나 이상의 프로세서에 의해 실행될 때, 제1항의 컴퓨터화된 방법을 수행하는 컴퓨터 실행가능 명령어들을 저장하는 메모리를 포함하는, 하나 이상의 컴퓨팅 장치.
  9. 인스턴트 메시징(IM) 사용자들 간의 통신 방법으로서,
    사운드 아이템의 프리젠테이션을 트리거하는 트리거링 이벤트를 식별하는 단계(802) - 상기 사운드 아이템은 제1 장치를 운용하는 제1 사용자와 연관되어 있고, 상기 사운드 아이템은 제2 장치를 통해 제2 사용자에게 제공됨 -,
    상기 제2 장치가 상기 사운드 아이템의 인에이블된 버전을 포함하고 있는지를 판정하는 단계(804, 806),
    상기 제2 장치가 상기 사운드 아이템의 인에이블된 버전을 포함하고 있는 경우, 상기 사운드 아이템을 상기 제2 사용자에게 제공하는 단계(808), 및
    상기 제2 장치가 상기 사운드 아이템의 인에이블된 버전을 포함하고 있지 않은 경우, 다른 사운드 아이템을 상기 사용자에게 제공하는 단계(810)를 포함하는, 인스턴트 메시징 사용자들 간의 통신 방법.
  10. 제9항에 있어서, 상기 제1 사용자가 상기 제1 장치에 로그인할 때 상기 트리거링 이벤트가 발생하는 것인, 인스턴트 메시징 사용자들 간의 통신 방법.
  11. 제9항에 있어서, 상기 제1 사용자가 상기 제2 장치로 임의의 유형의 인스턴트 메시징(IM) 통신을 전송할 때 상기 트리거링 이벤트가 발생하는 것인, 인스턴트 메시징 사용자들 간의 통신 방법.
  12. 제9항에 있어서, 상기 제2 장치는 상기 사운드 아이템을 포함하고,
    상기 방법은 상기 사운드 아이템을 디스에이블시키라는 사용자의 명령을 수신하는 단계를 더 포함하는 것인, 인스턴트 메시징 사용자들 간의 통신 방법.
  13. 제9항의 컴퓨터화된 방법을 구현하는 머신 판독가능 명령어들을 포함하는 하나 이상의 머신 판독가능 매체.
  14. 하나 이상의 컴퓨팅 장치로서,
    하나 이상의 프로세서, 및
    상기 하나 이상의 프로세서에 의해 실행될 때, 제9항의 컴퓨터화된 방법을 수행하는 컴퓨터 실행가능 명령어들을 저장하는 메모리를 포함하는, 하나 이상의 컴퓨팅 장치.
  15. 새로운 사운드 아이템을 생성하는 방법으로서,
    소스 사운드 아이템의 사용자 선택을 수신하는 단계(602),
    상기 소스 사운드 아이템의 일부의 그래픽 표현을 디스플레이하는 단계(604),
    상기 소스 사운드 아이템의 디스플레이된 상기 일부 내의 상기 소스 사운드 아이템의 세그먼트 상에 그래픽 선택 유닛을 제공하는 단계(606) - 상기 그래픽 선택 유닛은 상기 소스 사운드 아이템의 상기 세그먼트의 경계를 나타내는 시작 종 점 및 끝 종점을 갖는 창(window)임 -,
    상기 그래픽 선택 유닛의 적어도 하나의 종점을 이동시키라는 사용자의 명령을 수신하는 단계(616),
    상기 사용자의 명령에 응답하여 상기 그래픽 선택 유닛에 의해 경계가 표시되는 상기 소스 사운드 아이템의 상기 세그먼트를 재생하는 단계(618), 및
    상기 소스 사운드 아이템의 상기 세그먼트를 새로운 사운드 아이템으로서 저장하라는 사용자의 명령을 수신하는 단계(612)를 포함하는, 새로운 사운드 아이템을 생성하는 방법.
  16. 제15항에 있어서, 상기 그래픽 선택 유닛의 위치를 상기 소스 사운드 아이템 내에서 전방으로 또는 후방으로 이동시키라는 사용자의 명령을 수신하는 단계를 더 포함하는, 새로운 사운드 아이템을 생성하는 방법.
  17. 제15항에 있어서, 상기 적어도 하나의 종점의 사용자 선택을 수신하는 단계 및 상기 세그먼트를 적어도 한번 재생하는 단계를 반복하는 단계를 더 포함하는, 새로운 사운드 아이템을 생성하는 방법.
  18. 제15항에 있어서, 상기 새로운 소스 사운드 아이템의 시작이나 끝에서, 또는 상기 새로운 소스 세그먼트의 시작 및 끝 둘다에서 재생될 전환 효과(transition effect)의 사용자 선택을 수신하는 단계를 더 포함하는, 새로운 사운드 아이템을 생성하는 방법.
  19. 제15항의 컴퓨터화된 방법을 구현하는 머신 판독가능 명령어들을 포함하는 하나 이상의 머신 판독가능 매체.
  20. 하나 이상의 컴퓨팅 장치로서,
    하나 이상의 프로세서, 및
    상기 하나 이상의 프로세서에 의해 실행될 때, 제15항의 컴퓨터화된 방법을 수행하는 컴퓨터 실행가능 명령어들을 저장하는 메모리를 포함하는, 하나 이상의 컴퓨팅 장치.
KR1020097026822A 2007-06-29 2008-06-07 송신자-선택 사운드 아이템을 대화 참여자에게 제공 KR20100031516A (ko)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US11/772,114 US8762458B2 (en) 2007-06-29 2007-06-29 Providing sender-selected sound items to conversation participants
US11/772,114 2007-06-29

Publications (1)

Publication Number Publication Date
KR20100031516A true KR20100031516A (ko) 2010-03-22

Family

ID=40161990

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020097026822A KR20100031516A (ko) 2007-06-29 2008-06-07 송신자-선택 사운드 아이템을 대화 참여자에게 제공

Country Status (14)

Country Link
US (2) US8762458B2 (ko)
EP (1) EP2162857A4 (ko)
JP (1) JP5122645B2 (ko)
KR (1) KR20100031516A (ko)
CN (1) CN101689286B (ko)
AU (1) AU2008270833B2 (ko)
BR (1) BRPI0811920A2 (ko)
CA (1) CA2687455A1 (ko)
IL (1) IL201817A (ko)
MX (1) MX2009013456A (ko)
MY (1) MY151632A (ko)
RU (1) RU2493597C2 (ko)
TW (1) TW200900940A (ko)
WO (1) WO2009005948A2 (ko)

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102790730B (zh) * 2012-07-18 2016-06-29 上海量明科技发展有限公司 即时通信联系人对象声音属性的实现方法、客户端及系统
KR102006413B1 (ko) 2012-09-05 2019-08-01 삼성전자주식회사 메신저 서비스를 제공하기 위한 방법 및 그 전자 장치
USD772919S1 (en) 2014-10-23 2016-11-29 Visa International Service Association Display screen or portion thereof with animated graphical user interface
USD823885S1 (en) * 2016-11-10 2018-07-24 Apple Inc. Display screen or portion thereof with graphical user interface
USD855069S1 (en) * 2017-03-16 2019-07-30 Dwango Co., Ltd. Display screen with transitional graphical user interface
USD881213S1 (en) * 2017-11-14 2020-04-14 Life Technologies Corporation Display screen with transitional graphical user interface
MX2020010420A (es) * 2018-04-04 2020-12-11 Arvinas Operations Inc Moduladores de la proteólisis y métodos asociados de uso.
US10755717B2 (en) * 2018-05-10 2020-08-25 International Business Machines Corporation Providing reminders based on voice recognition
US11257510B2 (en) 2019-12-02 2022-02-22 International Business Machines Corporation Participant-tuned filtering using deep neural network dynamic spectral masking for conversation isolation and security in noisy environments
JP7048113B2 (ja) * 2020-09-16 2022-04-05 株式会社時空テクノロジーズ 情報処理装置、情報処理システム、および、プログラム
CN115019765A (zh) * 2022-06-30 2022-09-06 浙江吉利控股集团有限公司 一种主动声音获取方法和装置

Family Cites Families (36)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6185603B1 (en) 1997-03-13 2001-02-06 At&T Corp. Method and system for delivery of e-mail and alerting messages
JP3496565B2 (ja) 1999-03-29 2004-02-16 ヤマハ株式会社 音声処理装置及び音声処理方法
JP2001203779A (ja) 2000-01-21 2001-07-27 Nec Mobile Commun Ltd 移動通信端末装置及びその着信音鳴動方法
US6760754B1 (en) 2000-02-22 2004-07-06 At&T Corp. System, method and apparatus for communicating via sound messages and personal sound identifiers
US7043530B2 (en) * 2000-02-22 2006-05-09 At&T Corp. System, method and apparatus for communicating via instant messaging
US20020032020A1 (en) 2000-05-12 2002-03-14 Brown Bonnie L. Local and remote email alert apparatus and methods
JP2002027112A (ja) 2000-07-07 2002-01-25 Matsushita Electric Ind Co Ltd 着信通知データ指定機能付き通信システムおよび着信通知方法
JP3810991B2 (ja) 2000-08-02 2006-08-16 株式会社エヌ・ティ・ティ・ドコモ コンテンツ配信方法、サーバ及び無線回線制御装置
KR20020036290A (ko) 2000-11-09 2002-05-16 이의복 발신자 정보 표시 서비스용 전화기 및 그 전화기에서의 호처리 방법
US6882891B2 (en) * 2000-12-06 2005-04-19 Microsoft Corporation Methods and systems for mixing digital audio signals
US20020145518A1 (en) 2001-02-05 2002-10-10 Smith Robert E. External notification of multimedia computer events
JP2003046606A (ja) 2001-08-01 2003-02-14 Nec Corp 携帯通信端末装置及び携帯通信端末装置の音鳴動方法
GB2379572B (en) * 2001-09-11 2003-09-24 Donald William Bursill A method of displaying images
JP2003216187A (ja) 2002-01-23 2003-07-30 Canon Inc 再生装置
US20030208545A1 (en) 2002-05-01 2003-11-06 Eaton Eric Thomas Instant message communication system for providing notification of one or more events and method therefor
US20030225848A1 (en) * 2002-05-31 2003-12-04 Brian Heikes Remote instant messaging personalization items
US7353455B2 (en) 2002-05-21 2008-04-01 At&T Delaware Intellectual Property, Inc. Caller initiated distinctive presence alerting and auto-response messaging
US20040015610A1 (en) * 2002-07-18 2004-01-22 Sytex, Inc. Methodology and components for client/server messaging system
DE60330576D1 (de) 2002-08-19 2010-01-28 Nagravision Sa Schlüsselgültigkeitsprüfungsmethode für ein digitales heimnetzwerk
KR20040075412A (ko) 2003-02-21 2004-08-30 에스케이텔레텍주식회사 이동통신 단말기에서 인스턴트 메신저의 로그인 알람 설정방법
US7672439B2 (en) 2003-04-02 2010-03-02 Aol Inc. Concatenated audio messages
KR100749456B1 (ko) 2003-03-03 2007-08-14 에이오엘 엘엘씨 디지털 통신용 소스 오디오 식별자
US7769811B2 (en) 2003-03-03 2010-08-03 Aol Llc Instant messaging sound control
JP2004312316A (ja) 2003-04-07 2004-11-04 Nippon Telegr & Teleph Corp <Ntt> 通話端末、通話システムおよび通話端末の着信/呼出中音再生方法
JP2005175723A (ja) 2003-12-09 2005-06-30 Pioneer Electronic Corp 電話システム及びコードレス電話機
US7836389B2 (en) * 2004-04-16 2010-11-16 Avid Technology, Inc. Editing system for audiovisual works and corresponding text for television news
KR20050114805A (ko) 2004-06-01 2005-12-07 이경환 웹과 문서상에서 메신저 사용자의 상태를 실시간으로 알수 있고, 실시간 대화를 지원하는 시스템과 그 서비스방법 그리고 이를 수행하기 위한 프로그램을 기록한컴퓨터로 판독가능한 기록매체
JP2008530842A (ja) 2005-02-08 2008-08-07 サイグニフィカント サービスズ リミテッド 呼通知のシステムおよび方法
US20060248150A1 (en) 2005-04-29 2006-11-02 International Business Machines Corporation Methods and apparatus for managing and distinguishing instant messaging sessions and threads
CN1881887A (zh) * 2005-06-16 2006-12-20 联发科技股份有限公司 即时传讯系统与方法
US20060288077A1 (en) 2005-06-16 2006-12-21 Mediatek Inc. Systems and methods for instant messaging
US20070061403A1 (en) 2005-09-15 2007-03-15 Seaburg Stephen L Priority email alert system
US20070073848A1 (en) 2005-09-28 2007-03-29 Fratti Roger A Audio notification to aid email screening
KR20070037267A (ko) 2005-09-30 2007-04-04 엘지전자 주식회사 발신자 확인 휴대단말기
US20080107045A1 (en) * 2006-11-02 2008-05-08 Viktors Berstis Queuing voip messages
US20080167995A1 (en) * 2007-01-07 2008-07-10 Eddy Cue Method for purchasing and editing ringtones

Also Published As

Publication number Publication date
JP5122645B2 (ja) 2013-01-16
US20140123007A1 (en) 2014-05-01
CN101689286A (zh) 2010-03-31
RU2009148788A (ru) 2011-07-10
CA2687455A1 (en) 2009-01-08
CN101689286B (zh) 2013-08-21
US8762458B2 (en) 2014-06-24
EP2162857A2 (en) 2010-03-17
AU2008270833B2 (en) 2012-05-31
EP2162857A4 (en) 2012-04-11
WO2009005948A3 (en) 2009-02-19
US20090006567A1 (en) 2009-01-01
AU2008270833A1 (en) 2009-01-08
BRPI0811920A2 (pt) 2014-11-25
WO2009005948A2 (en) 2009-01-08
JP2010532521A (ja) 2010-10-07
US9063695B2 (en) 2015-06-23
MX2009013456A (es) 2010-01-15
TW200900940A (en) 2009-01-01
IL201817A0 (en) 2010-06-16
IL201817A (en) 2014-07-31
MY151632A (en) 2014-06-30
RU2493597C2 (ru) 2013-09-20

Similar Documents

Publication Publication Date Title
KR20100031516A (ko) 송신자-선택 사운드 아이템을 대화 참여자에게 제공
US10331309B2 (en) Persistent conversations
US10582157B1 (en) Live interaction in persistent conversations
US20160042322A1 (en) Computer-implemented method, tool, and program product for automatically replying to an instant message
US20070168480A1 (en) Interactive Robot Creation
KR20080080582A (ko) 프레즌스 기반 애플리케이션을 이용하여 원격 액세스 및소셜 네트워킹하기 위한 컴퓨터 구현 방법 및 시스템
KR20080025689A (ko) 데이터 공유가 행해지는 인스턴트 메시징
JP2016014976A (ja) 音声チャットを可能とするシステム、方法及びプログラム
CN101689126A (zh) 应用和数据不可知的协作服务
US20080263235A1 (en) Device-to-Device Sharing of Digital Media Assets
US9705842B2 (en) Integrating communication modes in persistent conversations
KR20100094515A (ko) 네트워크 채팅 장치 및 그 방법
KR102254253B1 (ko) 인스턴트 메시징 어플리케이션을 통한 그룹 이벤트 참여 방법
JP7143874B2 (ja) 情報処理装置、情報処理方法およびプログラム
AU2012216544B2 (en) Providing sender-selected sound items to conversation participants
JP5153520B2 (ja) データ配信装置、データ配信プログラム
US20230146585A1 (en) Techniques of coordinating sensory event timelines of multiple devices
JP2018139115A (ja) 音声チャットを可能とするシステム、方法及びプログラム
KR101983837B1 (ko) 사용자 피드백이 가능한 봇을 기반으로 영상을 제작하는 방법과 시스템 및 비-일시적인 컴퓨터 판독가능한 기록 매체
EP4388710A1 (en) Ambient, ad hoc, multimedia collaboration in a group-based communication system
JP2024525753A (ja) 仮想メタバースにおける空間化オーディオチャット
Johansson Instant Music & Messaging: Interconnecting music and messaging
JP2016015161A (ja) 音声チャットを可能とするシステム、方法及びプログラム

Legal Events

Date Code Title Description
SUBM Surrender of laid-open application requested