KR102172128B1 - 미디어 아이템들을 선택하기 위한 시스템들 및 방법들 - Google Patents

미디어 아이템들을 선택하기 위한 시스템들 및 방법들 Download PDF

Info

Publication number
KR102172128B1
KR102172128B1 KR1020157034759A KR20157034759A KR102172128B1 KR 102172128 B1 KR102172128 B1 KR 102172128B1 KR 1020157034759 A KR1020157034759 A KR 1020157034759A KR 20157034759 A KR20157034759 A KR 20157034759A KR 102172128 B1 KR102172128 B1 KR 102172128B1
Authority
KR
South Korea
Prior art keywords
media
image
media items
processor
user interface
Prior art date
Application number
KR1020157034759A
Other languages
English (en)
Other versions
KR20160013062A (ko
Inventor
바박 포루탄푸어
디프티 파바가다
로만 티브얀
Original Assignee
퀄컴 인코포레이티드
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 퀄컴 인코포레이티드 filed Critical 퀄컴 인코포레이티드
Publication of KR20160013062A publication Critical patent/KR20160013062A/ko
Application granted granted Critical
Publication of KR102172128B1 publication Critical patent/KR102172128B1/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/72Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
    • H04M1/724User interfaces specially adapted for cordless or mobile telephones
    • H04M1/72403User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality
    • H04M1/7243User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality with interactive means for internal management of messages
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/01Protocols
    • H04L67/10Protocols in which an application is distributed across nodes in the network
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/422Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
    • H04N21/42204User interfaces specially adapted for controlling a client device through a remote control device; Remote control devices therefor
    • H04N21/42206User interfaces specially adapted for controlling a client device through a remote control device; Remote control devices therefor characterized by hardware details
    • H04N21/42212Specific keyboard arrangements
    • H04N21/42213Specific keyboard arrangements for facilitating data entry
    • H04N21/42216Specific keyboard arrangements for facilitating data entry for quick navigation, e.g. through an EPG
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/50Information retrieval; Database structures therefor; File system structures therefor of still image data
    • G06F16/55Clustering; Classification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/50Information retrieval; Database structures therefor; File system structures therefor of still image data
    • G06F16/58Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/50Information retrieval; Database structures therefor; File system structures therefor of still image data
    • G06F16/58Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/583Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/50Information retrieval; Database structures therefor; File system structures therefor of still image data
    • G06F16/58Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/587Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using geographical or spatial information, e.g. location
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0482Interaction with lists of selectable items, e.g. menus
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/422Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
    • H04N21/42204User interfaces specially adapted for controlling a client device through a remote control device; Remote control devices therefor
    • H04N21/42206User interfaces specially adapted for controlling a client device through a remote control device; Remote control devices therefor characterized by hardware details
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/422Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
    • H04N21/42204User interfaces specially adapted for controlling a client device through a remote control device; Remote control devices therefor
    • H04N21/42206User interfaces specially adapted for controlling a client device through a remote control device; Remote control devices therefor characterized by hardware details
    • H04N21/42208Display device provided on the remote control
    • H04N21/42209Display device provided on the remote control for displaying non-command information, e.g. electronic program guide [EPG], e-mail, messages or a second television channel
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/422Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
    • H04N21/42204User interfaces specially adapted for controlling a client device through a remote control device; Remote control devices therefor
    • H04N21/42206User interfaces specially adapted for controlling a client device through a remote control device; Remote control devices therefor characterized by hardware details
    • H04N21/4222Remote control device emulator integrated into a non-television apparatus, e.g. a PDA, media center or smart toy
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/482End-user interface for program selection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/50Information retrieval; Database structures therefor; File system structures therefor of still image data
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M2250/00Details of telephonic subscriber devices
    • H04M2250/64Details of telephonic subscriber devices file transfer between terminals

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Library & Information Science (AREA)
  • Databases & Information Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Human Computer Interaction (AREA)
  • Signal Processing (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Business, Economics & Management (AREA)
  • General Business, Economics & Management (AREA)
  • User Interface Of Digital Computer (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Multimedia (AREA)
  • Information Transfer Between Computers (AREA)
  • Television Signal Processing For Recording (AREA)
  • Image Analysis (AREA)

Abstract

방법이 모바일 디바이스에서, 모바일 디바이스로부터 원격 디바이스로 전송될 제 1 미디어 아이템의 선택을 수신하는 단계를 포함한다. 그 방법은, 모바일 디바이스에 의해, 제 1 미디어 아이템에 대한 제 2 미디어 아이템의 유사도에 기초하여 원격 디바이스로 전송할 제 2 미디어 아이템을 선택하는 단계를 또한 포함한다. 그 방법은 모바일 디바이스에 의해, 원격 디바이스로 전송할 패키지형 모멘트 데이터를 생성하는 단계를 더 포함하며, 패키지형 모멘트 데이터는 제 1 미디어 아이템 및 제 2 미디어 아이템을 포함하는 다수의 미디어 아이템들에 연관된 미디어 데이터를 포함한다.

Description

미디어 아이템들을 선택하기 위한 시스템들 및 방법들{SYSTEMS AND METHODS FOR SELECTING MEDIA ITEMS}
우선권 주장
본 출원은 2013년 5월 28일자로 출원된 미국 가특허출원 제61/828,104호와, 2013년 5월 27일자로 출원된 미국 특허출원 제14/288,250호를 우선권 주장하며, 그것들의 내용은 전부가 참조에 의해 본원에 명시적으로 통합된다.
분야
본 개시물은 대체로 이미지 프로세싱에 관한 것이다.
기술에서의 진보가 컴퓨팅 디바이스들이 더 작고 더 강력해지게 하였다. 예를 들어, 작으며, 경량이고, 및 사용자들이 쉽게 운반하는 무선 컴퓨팅 디바이스들, 이를테면 휴대용 무선 전화기들, 개인 정보 단말기들 (PDA들), 및 페이징 디바이스들을 포함한 다양한 휴대용 개인 컴퓨팅 디바이스들이 현재 존재한다. 더 구체적으로는, 휴대용 무선 전화기들, 이를테면 셀룰러 전화기들 및 인터넷 프로토콜 (IP) 전화기들이 무선 네트워크들을 통해 음성 및 데이터 패킷들을 통신할 수 있다. 게다가, 많은 이러한 무선 전화기들은 그 속에 통합되는 다른 유형들의 디바이스들을 구비한다. 예를 들어, 무선 전화기가 디지털 스틸 카메라, 디지털 비디오 카메라, 디지털 레코더, 및 오디오 파일 플레이어를 또한 포함할 수 있다. 또한, 이러한 무선 전화기들은, 소프트웨어 애플리케이션들, 이를테면 인터넷에 액세스하는데 사용될 수 있는 웹 브라우저 애플리케이션을 포함하는 실행가능 명령들을 프로세싱할 수 있다. 이처럼, 이들 무선 전화기들은 상당한 컴퓨팅 능력들을 포함할 수 있다.
미디어 아이템들 (예컨대, 이미지들 및 비디오들) 을 전자 메일 및 소셜 미디어 네트워크들을 통해 친구들 및 가족과 공유하는 것이 점점 더 대중화되고 있다. 그러나, 무선 전화기로부터의 미디어 아이템들을 공유하는 것은 시간 낭비적일 수도 있다. 예를 들어, 그것은 무선 전화기의 사용자가 업로드할 다수의 미디어 아이템들을 선택하기 위해 늘어난 시간량을 요하게 할 수도 있다. 예를 들어, 사용자가 미디어 아이템들을 업로드하기 원한다면, 그 사용자는 데이터베이스를 통해 검색하고 미디어 아이템들을 개별적으로 선택해야 할 수도 있는데, 이는 많은 미디어 아이템들이 선택되게 한다면 시간 낭비적일 수도 있다. 덧붙여서, 미디어 아이템들이 비디오 파일들에 대응한다면, 이는 비디오가 업로드될 것인지의 여부를 결정하기 위해 각각의 비디오를 보는데 늘어난 시간량을 요하게 할 수도 있다. 예를 들어, 관람자는 각각의 비디오를 따로따로 선택 및 플레이해야 할 수도 있으며, 이는 시간 낭비적 프로세스일 수도 있다.
사용자가 모바일 디바이스를 사용하여 미디어 아이템 (예컨대, 이미지 또는 비디오) 을 캡처하는 경우, 모바일 디바이스는 미디어 아이템을 프로세싱하고 미디어 아이템을 메모리 속에 저장할 수도 있다. 예를 들어, 미디어 아이템들을 프로세싱하는 것은 각각의 미디어 아이템에 연관된 메트릭들을 식별하기 위해 각각의 미디어 아이템에 대한 특징 벡터를 생성하는 것을 포함할 수도 있고, 모바일 디바이스는 각각의 특징 벡터를 메모리 내에 저장할 수도 있다. 각각의 메트릭은 특정 특성, 이를테면 미디어 아이템이 캡처된 시간, 미디어 아이템에서의 컬러들, 미디어 아이템에 대응하는 지리적 로케이션 등에 해당할 수도 있다. 사용자가 모바일 디바이스로부터 특정 미디어 아이템을 전송하기를 선택하는 경우, 모바일 디바이스는 특정 미디어 아이템에 연관된 식별된 메트릭들에 기초하여 특정 미디어 아이템과 유사한 특성들을 갖는 다른 저장된 미디어 아이템들을 자동으로 결정할 수도 있다. 예를 들어, 사용자가 휴가로부터의 첫 번째 이미지 (예컨대, 첫 번째 휴가 사진) 를 모바일 디바이스로부터 전송할 것을 선택하면, 모바일 디바이스는 첫 번째 이미지에 연관된 메트릭들 (예컨대, 지리적 로케이션, 시간, 얼굴 특징들 등) 에 기초하여 휴가로부터의 부가적인 이미지들 (예컨대, 휴가로부터의 부가적인 사진들 또는 비디오들) 을 찾기 위해 데이터베이스를 자동으로 검색할 수도 있다.
특정 실시형태에서, 방법이, 전자 디바이스의 프로세서에서, 전자 디바이스로부터 원격 디바이스로 전송될 미디어 아이템의 사용자 선택을 수신하는 단계를 포함한다. 그 방법은 미디어 아이템 및 다른 미디어 아이템을 원격 디바이스로 전송하기 전에 선택된 미디어 아이템에 대한 다른 미디어 아이템의 유사도 (예컨대, 유사한 지리적 로케이션, 유사한 캡처 시간 등) 에 기초하여 다른 미디어 아이템을 선택하는 단계를 또한 포함한다.
다른 특정 실시형태에서, 장치가 메모리와 그 메모리에 커플링된 프로세서를 포함한다. 프로세서는 원격 디바이스로 전송될 미디어 아이템의 사용자 선택을 수신하도록 구성된다. 프로세서는 미디어 아이템 및 다른 미디어 아이템을 원격 디바이스로 전송하기 전에 선택된 미디어 아이템에 대한 다른 미디어 아이템의 유사도에 기초하여 다른 미디어 아이템을 선택하도록 또한 구성된다.
다른 특정 실시형태에서, 방법이, 전자 디바이스의 프로세서에서, 제 1 이미지의 캡처에 응답하여 제 1 이미지의 제 1 특징 벡터를 생성하는 단계를 포함한다. 제 1 특징 벡터는 제 1 이미지에 연관된 메트릭들의 값들을 포함한다. 그 방법은 제 1 이미지를 원격 디바이스로 전송하기 전에 제 1 특징 벡터에 기초하여 제 1 이미지와 유사한 적어도 하나의 다른 이미지를 결정하는 단계를 또한 포함한다.
다른 특정 실시형태에서, 장치가 메모리와 그 메모리에 커플링된 프로세서를 포함한다. 그 프로세서는 제 1 이미지의 제 1 특징 벡터를 생성하도록 구성된다. 제 1 특징 벡터는 제 1 이미지에 연관된 메트릭들의 값들 (예컨대, 제 1 이미지의 특성들을 식별하는 데이터 값들) 을 포함한다. 그 프로세서는 또한, 제 1 이미지를 원격 디바이스로 전송하기 전에 제 1 특징 벡터에 기초하여 제 1 이미지와 유사한 적어도 하나의 다른 이미지를 결정하도록 구성된다.
다른 특정 실시형태에서, 방법이, 전자 디바이스의 프로세서에서, 제 1 비디오의 캡처에 응답하여 제 1 비디오의 제 1 특징 벡터를 생성하는 단계를 포함한다. 제 1 특징 벡터는 제 1 비디오에 연관된 메트릭들의 값들을 포함한다. 그 방법은 제 1 비디오를 원격 디바이스로 전송하기 전에 제 1 특징 벡터에 기초하여 제 1 비디오와 유사한 적어도 하나의 다른 비디오를 결정하는 단계를 또한 포함한다.
다른 특정 실시형태에서, 장치가 메모리와 그 메모리에 커플링된 프로세서를 포함한다. 그 프로세서는 제 1 비디오의 제 1 특징 벡터를 생성하도록 구성된다. 제 1 특징 벡터는 제 1 비디오에 연관된 메트릭들의 값들을 포함한다. 그 프로세서는 또한, 제 1 비디오를 원격 디바이스로 전송하기 전에 제 1 특징 벡터에 기초하여 제 1 비디오와 유사한 적어도 하나의 다른 비디오를 결정하도록 구성된다.
다른 특정 실시형태에서, 모바일 디바이스가 메모리와 그 메모리에 커플링된 프로세서를 포함한다. 그 프로세서는 메모리에 저장된 미디어 아이템들에 대응하는 메트릭들의 값들을 결정하도록 구성된다. 모바일 디바이스는 프로세서에 커플링된 사용자 인터페이스 디바이스를 또한 포함한다. 사용자 인터페이스 디바이스는 미디어 아이템들 중 적어도 부분의 에뮬레이트된 3차원 표현을 디스플레이하도록 구성된다. 그 3차원 표현은 그 부분에서의 미디어 아이템들의 제 1 메트릭에 연관된 제 1 축, 그 부분에서의 미디어 아이템들의 제 2 메트릭에 연관된 제 2 축, 및 그 부분에서의 미디어 아이템들의 제 3 메트릭에 연관된 제 3 축을 포함한다. 그 부분의 각각의 특정 미디어 아이템의 표현이 특정 미디어 아이템에 연관된 메트릭들의 값들에 기초하여 제 1 축, 제 2 축, 및 제 3 축을 기준으로 위치된다.
다른 특정 실시형태에서, 모바일 디바이스가 메모리와 그 메모리에 커플링된 프로세서를 포함한다. 그 프로세서는 메모리에 저장된 미디어 아이템들에 대응하는 메트릭들의 값들을 결정하도록 구성된다. 모바일 디바이스는 프로세서에 커플링된 사용자 인터페이스 디바이스를 또한 포함한다. 사용자 인터페이스 디바이스는 미디어 아이템들의 적어도 부분의 2차원 표현을 디스플레이하도록 구성된다. 2차원 표현은 그 부분에서의 미디어 아이템들의 제 1 메트릭에 연관된 제 1 축과, 그 부분에서의 미디어 아이템들의 제 2 메트릭에 연관된 제 2 축을 포함한다. 그 부분의 각각의 특정 미디어 아이템의 표현이 특정 미디어 아이템에 연관된 메트릭들의 값들에 기초하여 제 1 축 및 제 2 축에 관하여 위치된다.
다른 특정 실시형태에서, 방법이, 이미지 센서를 포함하는 모바일 디바이스에서, 이미지 센서를 통한 제 1 이미지의 이미지 캡처에 응답하여 제 1 이미지에 연관된 메트릭들을 생성하는 단계를 포함한다. 제 1 이미지의 각각의 메트릭은 제 1 이미지의 특정 특성에 대응한다. 그 방법은 특정 메트릭의 가중치를 결정하는 단계를 또한 포함한다. 그 가중치는 특정 메트릭의 유사한 값들을 갖는 이미지들을 유사한 이미지들로서 분류하는 이력적 빈도에 기초할 수도 있다. 예를 들어, 이미지들을 분류하는 이력적 빈도는 이미지들의 이전의 사용자 선택들에 기초할 수도 있다. 그 방법은 가중치가 임계값을 충족시킨다는 결정에 응답하여 특정 메트릭에 기초하여 제 1 이미지와 유사한 적어도 하나의 다른 이미지를 결정하는 단계를 또한 포함한다.
다른 특정 실시형태에서, 장치가 메모리와 그 메모리에 커플링된 프로세서를 포함한다. 그 프로세서는 제 1 이미지에 연관된 메트릭들을 생성하도록 구성된다. 제 1 이미지의 각각의 메트릭은 제 1 이미지의 특정 특성에 대응한다. 프로세서는 또한, 특정 메트릭의 가중치를 결정하도록 구성된다. 그 가중치는 특정 메트릭의 유사한 값들을 갖는 이미지들을 유사한 이미지들로서 분류하는 이력적 빈도에 기초할 수도 있다. 그 프로세서는 가중치가 임계값을 충족시킨다는 결정에 응답하여 특정 메트릭에 기초하여 제 1 이미지와 유사한 적어도 하나의 다른 이미지를 결정하도록 추가로 구성된다.
다른 특정 실시형태에서, 방법이, 전자 디바이스의 프로세서에서, 미디어 아이템의 제 1 사용자 선택을 수신하는 단계를 포함한다. 그 방법은 미디어 아이템에 연관된 메트릭들과 프로세서에 액세스 가능한 미디어 아이템들의 콜렉션에서의 다른 미디어 아이템들에 연관된 대응 메트릭들을 비교하는 단계를 또한 포함한다. 그 방법은, 가중된 비교 결과들을 생성하기 위해 저장된 가중치들의 세트에 기초하여 메트릭들 중 하나 이상에 가중을 적용하는 단계를 또한 포함한다. 그 방법은 가중된 비교 결과들에 기초하여 다른 미디어 아이템들 중 하나 이상을 선택하는 단계를 또한 포함한다.
다른 특정 실시형태에서, 장치가 메모리와 그 메모리에 커플링된 프로세서를 포함한다. 그 프로세서는 미디어 아이템의 제 1 사용자 선택을 수신하도록 구성된다. 그 프로세서는 또한 미디어 아이템에 연관된 메트릭들과 프로세서에 액세스 가능한 미디어 아이템들의 콜렉션에서의 다른 미디어 아이템들에 연관된 대응 메트릭들을 비교하도록 구성된다. 그 프로세서는 또한, 가중된 비교 결과들을 생성하기 위해 저장된 가중치들의 세트에 기초하여 메트릭들 중 하나 이상에 가중을 적용하도록 구성된다. 그 프로세서는 또한, 가중된 비교 결과들에 기초하여 다른 미디어 아이템들 중 하나 이상을 선택하도록 구성된다.
다른 특정 실시형태에서, 방법이 제 1 미디어 유형을 갖는 미디어 아이템의 제 1 사용자 선택을 수신하는 단계를 포함한다. 그 방법은, 다른 미디어 아이템의 타임 스탬프, 다른 미디어 아이템에 연관된 지리적 로케이션, 또는 다른 미디어 아이템에 연관된 텍스트 정보 중 적어도 하나에 기초한 다른 미디어 유형을 갖는 다른 미디어 아이템의 선택을 또한 포함한다. 그 방법은 사용자 인터페이스로부터 수신된 파일 전송 명령들이 논리 그룹에서의 모든 미디어 아이템들에 적용되는 것을 가능하게 하기 위해 미디어 아이템 및 다른 미디어 아이템을 포함하는 미디어 아이템들의 논리 그룹을 생성하는 단계를 또한 포함한다.
다른 특정 실시형태에서, 장치가 메모리와 그 메모리에 커플링된 프로세서를 포함한다. 프로세서는 제 1 미디어 유형을 갖는 미디어 아이템의 제 1 사용자 선택을 수신하도록 구성된다. 제 1 사용자 선택의 수신에 응답하여, 프로세서는 또한, 다른 미디어 아이템의 타임 스탬프, 다른 미디어 아이템에 연관된 지리적 로케이션, 또는 다른 미디어 아이템에 연관된 텍스트 정보 중 적어도 하나에 기초한 다른 미디어 유형을 갖는 다른 미디어 아이템을 선택하도록 구성된다. 그 프로세서는 또한, 사용자 인터페이스로부터 수신된 파일 전송 명령들이 논리 그룹에서의 모든 미디어 아이템들에 적용되는 것을 가능하게 하기 위해 미디어 아이템 및 다른 미디어 아이템을 포함하는 미디어 아이템들의 논리 그룹을 생성하도록 구성된다.
다른 특정 실시형태에서, 방법이, 컴퓨터에서, 컴퓨터를 모바일 디바이스에 접속시키는 통신 링크를 통해 모바일 디바이스로부터의 데이터를 수신하는 단계를 포함한다. 그 데이터는 모바일 디바이스로부터 컴퓨터로 전송될 미디어 아이템의 사용자 선택을 포함한다. 그 방법은 선택된 미디어 아이템에 대한 다른 미디어 아이템의 유사도에 기초하여 모바일 디바이스로부터 다른 미디어 아이템을 수신하는 단계를 또한 포함한다.
다른 특정 실시형태에서, 컴퓨터가 메모리와 그 메모리에 커플링된 프로세서를 포함한다. 그 프로세서는 컴퓨터를 모바일 디바이스에 접속시키는 통신 링크를 통해 모바일 디바이스로부터 데이터를 수신하도록 구성된다. 그 데이터는 모바일 디바이스로부터 컴퓨터로 전송될 미디어 아이템의 사용자 선택을 포함한다. 그 프로세서는 또한, 선택된 미디어 아이템에 대한 다른 미디어 아이템의 유사도에 기초하여 모바일 디바이스로부터 다른 미디어 아이템을 수신하도록 구성된다.
다른 특정 실시형태에서, 프로세서가, 통신 링크가 컴퓨터를 모바일 디바이스에 접속시킴에 응답하여 모바일 디바이스로부터 데이터를 수신하도록 구성된다. 그 정보는 모바일 디바이스에 저장된 미디어 아이템들에 대응하는 메트릭들의 값들을 포함한다. 컴퓨터는 프로세서에 커플링된 사용자 인터페이스 디바이스를 또한 포함한다. 사용자 인터페이스 디바이스는 미디어 아이템들 중 적어도 서브세트의 에뮬레이트된 3차원 표현을 디스플레이하도록 구성된다. 그 3차원 표현은 그 서브세트에서의 미디어 아이템들의 제 1 메트릭에 연관된 제 1 축, 그 서브세트에서의 미디어 아이템들의 제 2 메트릭에 연관된 제 2 축, 및 그 서브세트에서의 미디어 아이템들의 제 3 메트릭에 연관된 제 3 축을 포함한다. 그 서브세트의 각각의 특정 미디어 아이템의 표현이 특정 미디어 아이템에 연관된 메트릭들의 값들에 기초하여 제 1 축, 제 2 축, 및 제 3 축을 기준으로 위치된다.
다른 특정 실시형태에서, 사용자 인터페이스 디바이스가 적어도 미디어 아이템들의 서브세트의 2차원 표현을 디스플레이하도록 구성된다. 2차원 표현은 그 서브세트에서의 미디어 아이템들의 제 1 메트릭에 연관된 제 1 축과, 그 서브세트에서의 미디어 아이템들의 제 2 메트릭에 연관된 제 2 축을 포함한다. 그 서브세트의 각각의 특정 미디어 아이템의 표현이 특정 미디어 아이템에 연관된 메트릭들의 값들에 기초하여 제 1 축 및 제 2 축에 관하여 위치된다.
특정 실시형태에서, 방법이, 모바일 디바이스에서, 제 1 미디어 아이템의 캡처에 응답하여 메트릭들의 그룹에 기초하여 미디어 아이템들의 콜렉션을 생성하는 단계를 포함한다. 메트릭들의 그룹은 미디어 아이템들이 서로 유사한지의 여부를 결정하는데 사용되는 특정 메트릭들을 포함한다. 그 방법은 미디어 아이템들의 콜렉션의 사용자 선택 미디어 아이템들의 표시를 수신하는 단계를 또한 포함한다. 그 방법은 사용자 선택 미디어 아이템들에 기초하여 메트릭들의 그룹에서 하나 이상의 메트릭들에 대한 가중치를 수정하는 단계를 또한 포함한다.
특정 실시형태에서, 장치가 메모리와 그 메모리에 커플링된 프로세서를 포함한다. 그 프로세서는 제 1 미디어 아이템의 캡처에 응답하여 메트릭들의 그룹에 기초하여 미디어 아이템들의 콜렉션을 생성하도록 구성된다. 메트릭들의 그룹은 미디어 아이템들이 서로 유사한지의 여부를 결정하는데 사용되는 특정 메트릭들을 포함한다. 그 프로세서는 또한, 미디어 아이템들의 콜렉션의 사용자 선택 미디어 아이템들의 표시를 수신하도록 구성된다. 그 프로세서는 또한, 사용자 선택 미디어 아이템들에 기초하여 메트릭들의 그룹에서 하나 이상의 메트릭들에 대한 가중치를 수정하도록 구성된다.
다른 특정 실시형태에서, 방법이 모바일 디바이스에서, 모바일 디바이스로부터 원격 디바이스로 전송될 제 1 미디어 아이템의 선택을 수신하는 단계를 포함한다. 그 방법은, 모바일 디바이스에 의해, 제 1 미디어 아이템에 대한 제 2 미디어 아이템의 유사도에 기초하여 원격 디바이스로 전송할 제 2 미디어 아이템을 선택하는 단계를 포함한다. 그 방법은, 모바일 디바이스에 의해, 원격 디바이스로 전송할 패키지형 모멘트 데이터를 생성하는 단계를 더 포함한다. 패키지형 모멘트 데이터는 제 1 미디어 아이템 및 제 2 미디어 아이템을 포함하는 다수의 미디어 아이템들에 연관된 미디어 데이터를 포함할 수도 있다.
다른 특정 실시형태에서, 모바일 디바이스가 메모리와 그 메모리에 커플링된 프로세서를 포함한다. 프로세서는 제 1 미디어 아이템을 선택하는 사용자 입력을 수신하도록 구성될 수도 있다. 그 프로세서는 제 1 미디어 아이템을 기술하는 정보와 하나 이상의 부가적인 미디어 아이템들을 기술하는 정보의 비교를 수행하도록 구성될 수도 있다. 그 프로세서는 그 비교에 기초하여, 제 2 미디어 아이템을 선택하도록 구성될 수도 있다. 그 프로세서는 또한, 제 1 미디어 아이템 및 제 2 미디어 아이템에 연관된 미디어 데이터를 포함하는 패키지형 모멘트 데이터를 생성하도록 구성될 수도 있다.
다른 특정 실시형태에서, 비일시적 컴퓨터 판독가능 매체가, 모바일 디바이스 내의 프로세서에 의해 실행되는 경우, 프로세서로 하여금, 모바일 디바이스로부터 원격 디바이스로 전송되는 제 1 미디어 아이템의 선택을 수신하게 하는 명령들을 포함한다. 그 비일시적 컴퓨터 판독가능 매체는, 프로세서에 의해 실행되는 경우, 프로세서로 하여금, 제 1 미디어 아이템에 대한 제 2 미디어 아이템의 유사도에 기초하여 원격 디바이스로 전송할 제 2 미디어 아이템을 선택하게 하는 명령들을 포함한다. 그 비일시적 컴퓨터 판독가능 매체는, 프로세서에 의해 실행되는 경우, 프로세서로 하여금, 원격 디바이스로 전송할 패키지형 모멘트 데이터를 셍성하게 하는 명령들을 또한 포함한다. 패키지형 모멘트 데이터는 제 1 미디어 아이템 및 제 2 미디어 아이템을 포함하는 다수의 미디어 아이템들에 연관된 미디어 데이터를 포함할 수도 있다.
다른 특정 실시형태에서, 모바일 디바이스가 그 모바일 디바이스로부터 원격 디바이스로 전송된 제 1 미디어 아이템의 선택을 수신하는 수단을 포함한다. 모바일 디바이스는 또한, 제 1 미디어 아이템에 대한 제 2 미디어 아이템의 유사도에 기초하여 원격 디바이스로 전송할 제 2 미디어 아이템을 선택하는 수단을 포함한다. 패키지형 모멘트 데이터는 제 1 미디어 아이템 및 제 2 미디어 아이템을 포함하는 다수의 미디어 아이템들에 연관된 미디어 데이터를 포함할 수도 있다.
개시된 실시형태들 중 적어도 하나에 의해 제공된 하나의 특정 장점은, 모바일 디바이스로부터 유사한 특성들을 갖는 미디어 아이템들을 선택 및 전송하는 것에 관한 감소된 시간량이다. 본 개시물의 다른 양태들, 장점들, 및 특징들은 다음의 도면들을 포함한 전체 출원의 검토 후에 명확하게 될 것이다. 도면들, 상세한 설명, 및 청구범위의 간략한 설명.
도 1은 캡처된 이미지와 유사한 특성들을 갖는 이미지들을 선택하도록 동작 가능한 시스템의 특정 예시적 실시형태의 도면이며;
도 2는 캡처된 비디오와 유사한 특성들을 갖는 비디오들을 선택하도록 동작 가능한 시스템의 특정 예시적 실시형태의 도면이며;
도 3은 미디어 아이템들의 에뮬레이트된 3차원 표현을 디스플레이하도록 동작 가능한 사용자 인터페이스 디바이스의 특정 예시적 실시형태의 도면이며;
도 4는 미디어 아이템들의 2차원 표현을 디스플레이하도록 동작 가능한 사용자 인터페이스 디바이스의 특정 예시적 실시형태의 도면이며;
도 5는 미디어 아이템들의 2차원 표현을 디스플레이하도록 동작 가능한 사용자 인터페이스 디바이스의 다른 특정 예시적 실시형태의 도면이며;
도 6은 선택된 미디어 아이템와 유사한 특성들을 갖는 다른 미디어 아이템들을 선택하도록 동작 가능한 시스템의 특정 예시적 실시형태의 도면이며;
도 7은 사용자 구성가능 패키지형 모멘트 설정들을 디스플레이하도록 동작 가능한 사용자 인터페이스 디바이스의 제 1 특정 실시형태의 도면이며;
도 8은 사용자 구성가능 패키지형 모멘트 설정들을 디스플레이하도록 동작 가능한 사용자 인터페이스 디바이스의 제 2 특정 실시형태의 도면이며;
도 9는 패키지형 모멘트 데이터 정보를 디스플레이하도록 동작 가능한 사용자 인터페이스 디바이스의 특정 실시형태의 도면이며;
도 10a 및 도 10b는 패키지형 모멘트 데이터의 미디어 데이터에 대응하는 미디어 아이템들을 디스플레이하도록 동작 가능한 사용자 인터페이스 디바이스의 특정 실시형태의 도면들이며;
도 11은 유사한 특징에 기초하여 미디어 아이템을 선택하는 방법의 특정 실시형태의 흐름도이며;
도 12는 유사한 특징들에 기초하여 이미지를 선택하는 방법의 특정 실시형태의 흐름도이며;
도 13은 유사한 특징들에 기초하여 비디오를 선택하는 방법의 특정 실시형태의 흐름도이며;
도 14는 빈번하게 사용되는 메트릭들에 기초하여 이미지를 선택하는 방법의 특정 실시형태의 흐름도이며;
도 15는 가중된 비교 결과들에 기초하여 미디어 아이템을 선택하는 방법의 특정 실시형태의 흐름도이며;
도 16은 선택된 미디어 아이템에 대한 유사도에 기초하여 하나 이상의 다른 미디어 아이템들을 선택하는 방법의 특정 실시형태의 흐름도이며;
도 17은 선택된 미디어 아이템에 대한 유사도에 기초하여 하나 이상의 다른 미디어 아이템들을 선택하는 방법의 다른 특정 실시형태의 흐름도이며;
도 18은 미디어 아이템에 대한 특징 벡터를 생성하는 방법의 특정 실시형태의 흐름도이며;
도 19는 패키지형 모멘트 데이터의 미디어 데이터에 대응하는 미디어 아이템들을 선택하는 방법의 특정 실시형태의 흐름도이며;
도 20은 도 1 내지 도 19에 도시된 실시형태들을 지원하도록 동작 가능한 모바일 디바이스의 블록도이며; 그리고
도 21은 모바일 디바이스에 접속하도록 동작 가능한 컴퓨터를 포함하는 시스템의 특정 실시형태의 블록도이다.
도 1을 참조하면, 캡처된 이미지와 유사한 특성들을 갖는 이미지들을 선택하도록 동작 가능한 시스템 (100) 의 특정 예시적 실시형태가 도시되어 있다. 그 시스템 (100) 은 전자 디바이스 (102) 를 포함할 수도 있다. 전자 디바이스 (102) 는 프로세서 (104), 메모리 (106), 및 사용자 인터페이스 디바이스 (108) 를 포함할 수도 있다. 특정 실시형태에서, 전자 디바이스 (102) 는 이미지들을 캡처하도록 구성되는 이미지 센서를 구비하는 모바일 디바이스일 수도 있다. 예를 들어, 전자 디바이스 (102) 는 이미지 센서를 통해 제 1 이미지 (111) 를 캡처할 수도 있다.
프로세서 (104) 는 전자 디바이스 (102) 의 이미지 센서가 제 1 이미지 (111) 를 캡처하는 것에 응답하여 제 1 이미지 (111) 의 메트릭들을 생성하도록 구성된다. 예를 들어, 프로세서 (104) 는 이미지 센서가 제 1 이미지 (111) 를 캡처하는 것에 응답하여 제 1 이미지 (111) 의 제 1 특징 벡터 (121) 를 생성할 수도 있다. 제 1 특징 벡터 (121) 는 제 1 이미지 (111) 의 메트릭들을 식별할 수도 있다. 제 1 특징 벡터 (121) 는 N 개의 메트릭들을 식별할 수도 있는데, N은 0보다 큰 임의의 정수이다. 예를 들어, 특정 실시형태에서, N은 9와 동일할 수도 있고 제 1 특징 벡터 (121) 는 제 1 이미지 (111) 의 9 개의 메트릭들을 식별할 수도 있다.
각각의 메트릭은 제 1 이미지 (111) 의 상이한 특성들에 해당할 수도 있다. 예를 들어, 메트릭이 제 1 이미지 (111) 의 지리적 로케이션, 제 1 이미지 (111) 가 캡처되었던 시간, 제 1 이미지 (111) 의 컬러 성분들, 제 1 이미지 (111) 에서의 에지 성분들, 제 1 이미지 (111) 에서의 얼굴들, 제 1 이미지 (111) 에서의 개체 (object) 들, 제 1 이미지 (111) 가 캡처되었을 때 전자 디바이스 (102) 에서 검출된 무선 네트워크 (예컨대, Wifi) 신호 강도, 제 1 이미지 (111) 가 캡처되었을 때 전자 디바이스 (102) 가 가리키고 있었던 방향, 제 1 이미지 (111) 가 캡처되었기 전 및/또는 후의 오디오 품질들 등에 해당할 수도 있다. 특정 실시형태에서, 무선 네트워크 신호 강도는 제 1 이미지 (111) 가 실내 또는 실외에서 캡처되는지의 여부를 검출하는데 사용될 수도 있다. 예를 들어, 강한 신호 강도가 실내에서 캡처된 것에 해당하는 제 1 이미지 (111) 에 대응할 수도 있고 약한 신호 강도가 실내에서 캡처된 제 1 이미지 (111) 에 대응할 수도 있다.
예시적인 비제한적 예들로서, 제 1 특징 벡터 (121) 의 제 1 메트릭은 제 1 이미지 (111) 의 지리적 로케이션에 해당할 수도 있고 프로세서 (104) 는 제 1 이미지 (111) 의 지리적 로케이션에 대응하는 GPS 좌표들을 결정하기 위해 글로벌 포지셔닝 시스템 (global positioning system, GPS) 을 사용할 수도 있다. 예시된 실시형태에서, 제 1 메트릭은 뉴욕 주, 뉴욕 시에 해당하는 GPS 좌표들을 식별할 수도 있다. 제 1 특징 벡터 (121) 의 제 2 메트릭은 제 1 이미지 (111) 가 전자 디바이스 (102) 에 의해 캡처되었던 시간에 해당할 수도 있다. 예시된 실시형태에서, 제 2 메트릭에 해당하는 시간은 2002년 8월 31일 3:00pm일 수도 있다. 제 1 특징 벡터 (121) 의 제 3 메트릭은 제 1 이미지 (111) 에서의 얼굴들에 해당할 수도 있다. 예시된 실시형태에서, 프로세서 (104) 는 제 1 이미지 (111) 에서의 제 1 얼굴의 제 1 얼굴 특징들을 메모리 (106) 에서의 하나 이상의 다른 이미지들에서의 얼굴 특징들과 유사한 것으로 그리고 제 1 이미지 (111) 에서의 제 2 얼굴의 제 2 얼굴 특징들을 메모리 (106) 에서의 하나 이상의 다른 이미지들에서의 얼굴 특징들과 유사한 것으로 인식할 수도 있다.
메모리 (106) 는 전자 디바이스 (102) 에 저장된 이미지들 (112~117) 의 메트릭들을 식별하는 특징 벡터들 (122~127) 을 포함할 수도 있다. 예를 들어, 메모리 (106) 는 제 2 이미지 (112) 의 제 2 특징 벡터 (122), 제 3 이미지 (113) 의 제 3 특징 벡터 (123), 제 4 이미지 (114) 의 제 4 특징 벡터 (124), 제 5 이미지 (115) 의 제 5 특징 벡터 (125), 제 6 이미지 (116) 의 제 6 특징 벡터 (126), 및 제 7 이미지 (117) 의 제 7 특징 벡터 (127) 를 포함할 수도 있다. 특징 벡터들 (122~127) 에서의 각각의 메트릭은 제 1 특징 벡터 (121) 에서의 동일한 메트릭에 대응할 수도 있다. 예를 들어, 제 1 특징 벡터 (121) 의 제 1 메트릭이 제 1 이미지 (111) 의 지리적 로케이션에 해당한다면, 제 2 특징 벡터 (122) 의 제 1 메트릭은 제 2 이미지 (112) 의 지리적 로케이션에 해당하며, 제 3 특징 벡터 (123) 의 제 1 메트릭은 제 3 이미지 (113) 의 지리적 로케이션에 해당하는 등등이다. 전자 디바이스 (102) 에 저장된 이미지들 (112~117) 은 사용자 인터페이스 디바이스 (108) 를 통해 사용자가 볼 수도 있다.
프로세서 (104) 는 제 1 특징 벡터 (121) 에 기초하여 제 1 이미지 (111) 와 유사한 적어도 하나의 다른 이미지를 결정하도록 추가로 구성된다. 특정 실시형태에서, 프로세서 (104) 는 제 1 이미지 (111) 를 캡처하는 것에 응답하여 제 1 이미지 (111) 와 유사한 적어도 하나의 다른 이미지를 결정할 수도 있다. 다른 실시형태에서, 프로세서 (104) 는 도 6에 관해 더 상세히 설명되는 바와 같이, 제 1 이미지 (111) 또는 제 1 이미지 (111) 의 사용자 선택을 전달하기 위한 사용자 요청에 응답하여, 제 1 이미지 (111) 와는 유사한 적어도 하나의 다른 이미지를 결정할 수도 있다. 예를 들어, 프로세서 (104) 는 제 1 특징 벡터 (121) 와 메모리 (106) 에 저장된 제 2 특징 벡터 (122) 를 비교할 수도 있다. 특정 실시형태에서, 프로세서 (104) 는 제 1 특징 벡터 (121) 와 제 2 특징 벡터 (122) 를 비교하기 위해 F12 = w1*Norm1[g(IMG1) - g(IMG2)] + w2*Norm2[t(IMG1) - t(IMG2)] + w3*Norm3[f(IMG1) - f(IMG2)]와 같은 알고리즘을 사용할 수도 있는데, 여기서 F12는 제 1 이미지 (111) 의 메트릭들 및 제 2 이미지 (112) 의 메트릭들 간의 유사도 레벨이며, w1은 지리적 로케이션에 대응하는 메트릭의 제 1 가중치이며, w2는 시간에 대응하는 메트릭의 제 2 가중치이고, w3는 검출된 얼굴 특징들에 대응하는 메트릭의 제 3 가중치이다.
제 1 이미지 (111) 의 GPS 좌표들 및 제 2 이미지 (112) 의 GPS 좌표들 간의 차이 (예컨대, g(IMG1) - g(IMG2)) 는 제 1 정규화 팩터 (Norm1) 에 기초하여 정규화되고 제 1 가중치가 곱해질 수도 있다. 제 1 이미지 (111) 의 캡처 시간 및 제 2 이미지 (112) 의 캡처 시간 간의 차이 (예컨대, t(IMG1) - t(IMG2)) 는 제 2 정규화 팩터 (Norm2) 에 기초하여 정규화되고 제 2 가중치가 곱해질 수도 있다. 제 1 이미지 (111) 에서의 얼굴 특징들에 대응하는 데이터 및 제 2 이미지 (112) 에서의 얼굴 특징들에 대응하는 데이터 간의 차이 (예컨대, f(IMG1) - f(IMG2)) 는 제 3 정규화 팩터 (Norm3) 에 기초하여 정규화되고 제 3 가중치가 곱해질 수도 있다.
각각의 정규화 팩터는 데이터의 유사도 값이 감소할수록 0에 접근하고 데이터의 유사도 값이 증가할수록 1에 접근하는 특정 메트릭의 유사도 함수에 기초하여 컴퓨팅될 수도 있다. 예를 들어, 각각의 정규화 팩터는 1과 동일한 피크 값 및 특정 메트릭의 특성들에 기초한 표준 편차를 갖는 가우스 함수 (예컨대, 가우스 곡선) 로서 표현될 수도 있으며, 여기서 비교되고 있는 데이터의 유사도 값이 최대 값에 도달할 때 피크는 존재한다. 다른 예로서, 각각의 정규화 팩터는 1과 동일한 피크 값을 갖는 아크 코탄젠트 (arc cotangent) 함수 (또는 스플라인 (spline) 함수) 의 절대 값으로서 표현될 수도 있으며, 여기서 비교되고 있는 데이터의 유사도 값이 최대 값에 도달할 때 피크는 존재한다.
특정 실시형태에서, 각각의 메트릭에 대한 유사도 범위들은 대응하는 정규화 팩터에 대한 참조 포인트들로서 사용된다. 예를 들어, 비교되고 있는 두 개의 미디어 아이템들 (예컨대, 이미지들, 비디오들 등) 의 로케이션에서의 차이 특정 범위 (예컨대, 100 피트) 내에 있다면, 제 1 정규화 팩터는 피크 값에 해당할 수도 있다. 다른 예로서, 비교되고 있는 두 개의 미디어 아이템들의 캡처 시간 간의 시간 차이가 특정 범위 (예컨대, 5 초 미만) 내에 있다면, 제 2 정규화 팩터는 피크 값에 해당할 수도 있다.
가중치들의 값들은 특정 메트릭의 우선순위 또는 관련도 (relevance) 에 기초하여 조정될 수도 있다. 예를 들어, 특정 실시형태에서, 사용자가 각각의 특정 가중치에 대한 값을 대응하는 메트릭의 우선순위 또는 관련도에 기초하여 입력할 수도 있다. 지리적 로케이션이 얼굴 특징 인식보다 사용자에 대해 높은 우선순위를 가진다면, 사용자는 제 1 가중치에 대해 큰 값을 그리고 제 3 가중치에 대해 유사한 값을 입력할 수도 있다. 다른 실시형태에서, 머신 (예컨대, 프로세서 (104)) 이 사용자 선호도들에 대응하는 이력 데이터에 기초하여 각각의 특정 가중치에 대해 값들을 자동으로 적용할 수도 있다. 예를 들어, 프로세서 (104) 는, 사용자가 프로세서 (104) 에 의해 선택된 이력적으로 수정된 이미지들 또는 유사한 지리적 위치들을 갖는 이미지들을 포함시키기 위한 달리 선택된 이미지들을 갖는다면, 제 1 가중치에 대해 더 큰 값을 그리고 제 3 가중치에 대해 유사한 값을 적용할 수도 있다.
프로세서 (104) 는 제 1 이미지 (111) 의 메트릭들 및 제 2 이미지 (112) 의 메트릭들 간의 유사도 레벨 (예컨대, F12) 이 임계값을 충족시키는 경우 제 2 이미지 (112) 가 제 1 이미지 (111) 와 유사하다고 결정할 수도 있다. 예를 들어, 제 2 이미지 (112) 와 제 1 이미지 (111) 는 유사한 GPS 좌표들, 얼굴 특징들 (예컨대, 유사한 얼굴들) 에 대응하는 유사한 데이터를 가질 수도 있고, 유사한 시간에 캡처될 수도 있다. 특정 실시형태에서, 프로세서 (104) 는 로케이션에 대응하는 메트릭에 주로 기초하여 제 5 이미지 (115) 가 제 1 이미지 (111) 와 유사하다고 결정할 수도 있다. 예시적 실시형태에서, 제 1 이미지 (111) 와 제 5 이미지 (115) 는 유사한 로케이션 (예컨대, 뉴욕 주, 뉴욕 시) 에서 캡처될 수도 있다. 제 1 가중치 (예컨대, 지리적 로케이션에 대응하는 가중치) 가 높은 값을 갖는다면, 제 1 이미지 (111) 및 제 5 이미지 (115) 간의 유사도 레벨은 임계값을 충족시킬 수도 있다. 특정 실시형태에서, 프로세서 (104) 는 검출된 얼굴 특징들에 대응하는 메트릭에 주로 기초하여 제 6 이미지 (116) 가 제 1 이미지 (111) 와 유사하다고 결정할 수도 있다. 예시적 실시형태에서, 제 1 이미지 (111) 와 제 6 이미지 (116) 는 유사한 얼굴 특징들 (예컨대, 남성 플레이어의 얼굴 특징들) 에 대응하는 데이터를 가질 수도 있다. 제 3 가중치 (예컨대, 검출된 얼굴 특징들에 대응하는 가중치) 가 높은 값을 갖는다면, 제 1 이미지 (111) 및 제 6 이미지 (116) 간의 유사도 레벨은 임계값을 충족시킬 수도 있다.
프로세서 (104) 는 이미지들의 콜렉션을 생성하기 위해 제 1 이미지 (111) 와 적어도 하나의 다른 유사한 이미지를 클러스터화할 수도 있다. 예를 들어, 프로세서 (104) 는 제 1 이미지 (111) 와 제 2 이미지 (112), 제 5 이미지 (115), 제 6 이미지 (116), 또는 그것들의 조합을 클러스터화하여, 메트릭들의 유사도들 및 각각의 가중치의 값들에 의존하는 이미지들의 콜렉션을 생성할 수도 있다. 특정 실시형태에서, 프로세서 (104) 는 제 1 이미지 (111) 와 유사한 이미지들을 클러스터화하기 위한 요청을 생성하도록 구성될 수도 있고, 이미지들의 콜렉션은 그 요청에 대한 응답에 기초하여 생성된다. 다른 특정 실시형태에서, 프로세서 (104) 는 전송을 위한 제 1 이미지 (111) 의 사용자 선택에 응답하여 (예컨대, 자동으로, 생성될 이미지들의 콜렉션을 요청하는 사용자 액션과는 독립적으로) 이미지들의 콜렉션을 생성하도록 구성된다. 프로세서 (104) 는, 예시적 비제한적인 예들로서, 이미지들의 콜렉션을 소셜 미디어 웹사이트에 업로드하거나 또는 이미지들의 콜렉션을 전자 메일 주소로 전송할 수도 있다.
도 2를 참조하면, 캡처된 비디오와 유사한 특성들을 갖는 비디오들을 선택하도록 동작 가능한 시스템 (200) 의 특정 예시적 실시형태가 도시되어 있다. 그 시스템 (200) 은 전자 디바이스 (202) 를 포함할 수도 있다. 전자 디바이스 (202) 는 프로세서 (204), 메모리 (206), 및 사용자 인터페이스 디바이스 (208) 를 포함할 수도 있다. 특정 실시형태에서, 전자 디바이스 (202) 는 비디오들을 캡처하도록 구성되는 모션 이미지 센서를 구비하는 모바일 디바이스일 수도 있다. 예를 들어, 전자 디바이스 (202) 는 모션 이미지 센서를 통해 제 1 비디오 (211) 를 캡처할 수도 있다. 특정 실시형태에서, 전자 디바이스 (202) 는 도 1의 전자 디바이스 (102) 에 대응하고 실질적으로 유사한 방식으로 동작할 수도 있다. 프로세서 (204) 는 도 1의 프로세서 (104) 에 대응하고 실질적으로 유사한 방식으로 동작할 수도 있다. 메모리 (206) 는 도 1의 메모리 (106) 에 대응하고 실질적으로 유사한 방식으로 동작할 수도 있다. 사용자 인터페이스 디바이스 (208) 는 도 1의 사용자 인터페이스 디바이스 (108) 에 대응하고 실질적으로 유사한 방식으로 동작할 수도 있다.
프로세서 (204) 는 전자 디바이스 (202) 의 모션 이미지 센서가 제 1 비디오 (211) 를 캡처하는 것에 응답하여 제 1 비디오 (211) 의 메트릭들을 생성하도록 구성된다. 예를 들어, 프로세서 (204) 는 모션 이미지 센서가 제 1 비디오 (211) 를 캡처하는 것에 응답하여 제 1 비디오 (211) 의 제 1 특징 벡터 (221) 를 생성할 수도 있다. 제 1 특징 벡터 (221) 는 제 1 비디오 (211) 의 메트릭들을 식별할 수도 있다. 제 1 특징 벡터 (221) 는 N 개의 메트릭들을 식별할 수도 있는데, N은 0보다 큰 임의의 정수이다. 예를 들어, 특정 실시형태에서, N은 12와 동일할 수도 있고 제 1 특징 벡터 (221) 는 제 1 비디오 (211) 의 12 개의 메트릭들을 식별할 수도 있다.
각각의 메트릭은 제 1 비디오 (211) 의 상이한 특성들에 해당할 수도 있다. 예를 들어, 메트릭이 제 1 비디오 (211) 의 지리적 로케이션, 제 1 비디오 (211) 가 캡처되었던 시간, 제 1 비디오 (211) 의 컬러 성분들, 제 1 비디오 (211) 에서의 에지 성분들, 제 1 비디오 (211) 에서의 얼굴들, 제 1 비디오 (211) 에서의 개체들, 제 1 비디오 (211) 가 캡처되었을 때 전자 디바이스 (202) 에서 검출된 무선 네트워크 (예컨대, WiFi) 신호 강도, 제 1 비디오 (211) 가 캡처되었을 때 전자 디바이스 (202) 가 가리키고 있었던 방향, 제 1 비디오 (211) 의 오디오 품질들 등에 해당할 수도 있다.
예시적인 비제한적 예들로서, 제 1 특징 벡터 (221) 의 제 1 메트릭은 제 1 비디오 (211) 의 지리적 로케이션에 해당할 수도 있고 프로세서 (204) 는 제 1 비디오 (211) 의 지리적 로케이션에 대응하는 GPS 좌표들을 결정하기 위해 글로벌 포지셔닝 시스템 (global positioning system, GPS) 을 사용할 수도 있다. 예시된 실시형태에서, 제 1 메트릭은 뉴욕 주, 뉴욕 시에 해당하는 GPS 좌표들을 식별할 수도 있다. 제 1 특징 벡터 (221) 의 제 2 메트릭은 제 1 비디오 (211) 가 전자 디바이스 (202) 에 의해 캡처되었던 시간에 해당할 수도 있다. 예시된 실시형태에서, 제 2 메트릭에 해당하는 시간은 2002년 8월 31일 3:00pm일 수도 있다. 제 1 특징 벡터 (221) 의 제 3 메트릭은 제 1 비디오 (211) 에서의 얼굴들에 해당할 수도 있다. 예시된 실시형태에서, 프로세서 (204) 는 제 1 비디오 (211) 에서의 제 1 얼굴의 제 1 얼굴 특징들을 메모리 (206) 에서의 하나 이상의 다른 이미지들에서의 얼굴 특징들과 유사한 것으로 그리고 제 1 비디오 (211) 에서의 제 2 얼굴의 제 2 얼굴 특징들을 메모리 (206) 에서의 하나 이상의 다른 이미지들에서의 얼굴 특징들과 유사한 것으로 인식할 수도 있다.
메모리 (206) 는 전자 디바이스 (202) 에 저장된 비디오들 (212~117) 의 메트릭들을 식별하는 특징 벡터들 (222~127) 을 포함할 수도 있다. 예를 들어, 메모리 (206) 는 제 2 비디오 (212) 의 제 2 특징 벡터 (222), 제 3 비디오 (213) 의 제 3 특징 벡터 (223), 제 4 비디오 (214) 의 제 4 특징 벡터 (224), 제 5 비디오 (215) 의 제 5 특징 벡터 (225), 제 6 비디오 (216) 의 제 6 특징 벡터 (226), 및 제 7 비디오 (217) 의 제 7 특징 벡터 (227) 를 포함할 수도 있다. 특징 벡터들 (222~127) 에서의 각각의 메트릭은 제 1 특징 벡터 (221) 에서의 동일한 메트릭에 대응할 수도 있다. 예를 들어, 제 1 특징 벡터 (221) 의 제 1 메트릭이 제 1 비디오 (211) 의 지리적 로케이션에 해당한다면, 제 2 특징 벡터 (222) 의 제 1 메트릭은 제 2 비디오 (212) 의 지리적 로케이션에 해당하며, 제 3 특징 벡터 (223) 의 제 1 메트릭은 제 3 비디오 (213) 의 지리적 로케이션에 해당하는 등등이다. 전자 디바이스 (202) 에 저장된 비디오들 (212-217) 은 사용자 인터페이스 디바이스 (208) 를 통해 사용자가 볼 수도 있다.
프로세서 (204) 는 제 1 특징 벡터 (221) 에 기초하여 제 1 비디오 (211) 와 유사한 적어도 하나의 다른 비디오를 결정하도록 추가로 구성된다. 특정 실시형태에서, 프로세서 (204) 는 제 1 비디오 (211) 를 캡처하는 것에 응답하여 제 1 비디오 (211) 와 유사한 적어도 하나의 다른 비디오를 결정할 수도 있다. 다른 실시형태에서, 프로세서 (204) 는 제 1 비디오 (211) 를 전송하기 위한 사용자 요청에 응답하여 제 1 비디오 (211) 와 유사한 적어도 하나의 다른 비디오를 결정할 수도 있다. 예를 들어, 프로세서 (204) 는 제 1 특징 벡터 (221) 와 메모리 (206) 에 저장된 제 2 특징 벡터 (222) 를 비교할 수도 있다. 특정 실시형태에서, 프로세서 (204) 는 제 1 특징 벡터 (221) 와 제 2 특징 벡터 (222) 를 비교하기 위해 F12 = w1*Norm1[g(IMG1) - g(IMG2)] + w2*Norm2[t(IMG1) - t(IMG2)] + w3*Norm3[f(IMG1) - f(IMG2)]와 같은 알고리즘을 사용할 수도 있는데, 여기서 F12는 제 1 비디오 (211) 의 메트릭들 및 제 2 비디오 (212) 의 메트릭들 간의 유사도 레벨이며, w1은 지리적 로케이션에 대응하는 메트릭의 제 1 가중치이며, w2는 시간에 대응하는 메트릭의 제 2 가중치이고, w3는 검출된 얼굴 특징들에 대응하는 메트릭의 제 3 가중치이다.
제 1 비디오 (211) 의 GPS 좌표들 및 제 2 비디오 (212) 의 GPS 좌표들 간의 차이 (예컨대, g(IMG1) - g(IMG2)) 는 제 1 정규화 팩터 (Norm1) 에 기초하여 정규화되고 제 1 가중치가 곱해질 수도 있다. 제 1 비디오 (211) 의 캡처 시간 및 제 2 비디오 (212) 의 캡처 시간 간의 차이 (예컨대, t(IMG1) - t(IMG2)) 는 제 2 정규화 팩터 (Norm2) 에 기초하여 정규화되고 제 2 가중치가 곱해질 수도 있다. 제 1 비디오 (211) 에서의 얼굴 특징들에 대응하는 데이터 및 제 2 비디오 (212) 에서의 얼굴 특징들에 대응하는 데이터 간의 차이 (예컨대, f(IMG1) - f(IMG2)) 는 제 3 정규화 팩터 (Norm3) 에 기초하여 정규화되고 제 3 가중치가 곱해질 수도 있다.
가중치들의 값들은 특정 메트릭의 중요도에 기초하여 조정될 수도 있다. 예를 들어, 특정 실시형태에서, 사용자가 각각의 특정 가중치에 대한 값을 대응하는 메트릭의 중요도에 기초하여 입력할 수도 있다. 지리적 로케이션이 얼굴 특징 인식보다 사용자에 대해 더 중요하다면, 사용자는 제 1 가중치에 대해 큰 값을 그리고 제 3 가중치에 대해 유사한 값을 입력할 수도 있다. 다른 실시형태에서, 머신 (예컨대, 프로세서 (204)) 이 사용자 선호도들에 대응하는 이력 데이터에 기초하여 각각의 특정 가중치에 대해 값들을 자동으로 적용할 수도 있다.
프로세서 (204) 는 제 1 비디오 (211) 의 메트릭들 및 제 2 비디오 (212) 의 메트릭들 간의 유사도 레벨 (예컨대, F12) 이 임계값을 충족시키는 경우 제 2 비디오 (212) 가 제 1 비디오 (211) 와 유사하다고 결정할 수도 있다. 예를 들어, 제 2 비디오 (212) 와 제 1 비디오 (211) 는 유사한 GPS 좌표들, 얼굴 특징들 (예컨대, 유사한 얼굴들) 에 대응하는 유사한 데이터를 가질 수도 있고, 유사한 시간에 캡처될 수도 있다.
프로세서 (204) 는 제 1 비디오 (211) 와 적어도 하나의 다른 유사한 비디오를 연접하여 연접된 비디오를 생성할 수도 있다. 예를 들어, 프로세서 (204) 는 제 1 비디오 (211) 와 제 2 비디오 (212) 를 연접하여 제 1 비디오 (211) 및 제 2 비디오 (212) 를 포함하는 하나의 비디오 파일을 생성할 수도 있다. 특정 실시형태에서, 프로세서 (204) 는 제 1 비디오 (211) 와 유사한 비디오들을 연접하기 위한 요청을 생성하도록 구성되고, 연접된 비디오는 그 요청에 대한 응답에 기초하여 생성된다. 다른 특정 실시형태에서, 프로세서 (204) 는 전송을 위해 제 1 비디오 (211) 를 선택하는 것에 응답하여 (예컨대, 연접된 비디오를 생성할 것을 요청하는 사용자 액션과는 독립적으로) 연접된 비디오를 생성하도록 구성된다. 프로세서 (204) 는 연접된 비디오를 소셜 미디어 웹사이트에 업로드하거나 또는 연접된 비디오를 전자 메일 주소로 전송할 수도 있다.
도 3을 참조하면, 미디어 아이템들의 에뮬레이트된 3차원 표현을 디스플레이하도록 동작 가능한 사용자 인터페이스 디바이스 (300) 의 특정 실시형태가 도시되어 있다. 특정 실시형태에서, 사용자 인터페이스 디바이스 (300) 는 도 1의 사용자 인터페이스 디바이스 (108) 또는 도 2의 사용자 인터페이스 디바이스 (208) 에 해당할 수도 있다. 사용자 인터페이스 디바이스 (300) 는 손가락 접촉 (350) 에 응답하는 터치 스크린 디스플레이를 포함할 수도 있다.
사용자 인터페이스 디바이스 (300) 에서의 미디어 아이템들의 3차원 표현은 미디어 아이템들의 제 1 메트릭에 연관된 제 1 축 (310), 미디어 아이템들의 제 2 메트릭에 연관된 제 2 축 (320), 및 미디어 아이템들의 제 3 메트릭에 연관된 제 3 축 (330) 을 포함할 수도 있다. 미디어 아이템들은 이미지들, 비디오들, 텍스트 문서들, 또는 그것들의 임의의 조합에 해당할 수도 있다. 예를 들어, 특정 예시된 실시형태에서, 미디어 아이템들은 도 1의 이미지들 (112~117) 에 해당할 수도 있다. 다른 특정 실시형태에서, 미디어 아이템들은 도 2의 비디오들 (212~217) 에, 또는 이미지들 (112~117) 및 비디오들 (212~217) 의 조합에 해당할 수도 있다.
각각의 미디어 아이템은 메트릭들의 값들에 기초하여 제 1 축 (310), 제 2 축 (320), 및 제 3 축 (330) 을 기준으로 위치된다. 예를 들어, 제 1 축 (310) 은 제 1 이미지 (111) 의 지리적 로케이션 메트릭 (예컨대, 제 1 메트릭) 과 연관될 수도 있으며, 제 2 축 (320) 은 제 1 이미지 (111) 의 시간 메트릭 (예컨대, 제 2 메트릭) 과 연관될 수도 있고, 제 3 축 (330) 은 제 1 이미지 (111) 의 검출된 얼굴 특징 메트릭 (예컨대, 제 3 메트릭) 과 연관될 수도 있다. 제 2 이미지 (112) 는 원점에 비교적 가까이 (예컨대, 각각의 축 (310~330) 에 닿게) 위치될 수도 있는데, 제 1 이미지 (111) 의 유사한 지리적 로케이션 (예컨대, 뉴욕 주, 뉴욕 시) 을 갖는 제 2 이미지 (112) 가 제 1 이미지 (111) 에 관하여 유사한 시간 (예컨대, 2002년 8월 31일의 대략 3:00 pm) 에 캡처되었고 제 1 이미지 (111) 와 유사한 검출된 얼굴 특징들 (예컨대, 남성 플레이어 및 여성 플레이어) 을 갖기 때문이다. 제 5 이미지 (115) 는 제 1 축 (310) 의 제로 크로싱에 그리고 제 2 축 (320) 의 제로 크로싱에 비교적 가까이 위치될 수도 있는데, 제 5 이미지 (115) 가 제 1 이미지 (111) 의 유사한 지리적 로케이션을 갖고 제 1 이미지 (111) 에 관하여 유사한 시간에 캡처되었을 수도 있기 때문이다. 특정 실시형태에서, 제 5 이미지 (115) 는 제 3 축 (330) 의 제로 크로싱으로부터 비교적 멀리 위치될 수도 있는데, 제 5 이미지 (115) 가 제 1 이미지 (111) 에 관하여 유사한 검출된 얼굴 특징들을 갖지 않을 수도 있기 때문이다. 제 6 이미지 (116) 는 제 3 축 (330) 의 제로 크로싱에 비교적 가까이 위치될 수도 있는데, 제 6 이미지 (115) 및 제 1 이미지 (111) 가 유사한 검출된 얼굴 특징들 (예컨대, 남성 플레이어) 을 갖기 때문이다.
제 1 이미지 (111) 와 유사한 것으로 결정되지 않은 이미지들은 제 1 이미지 (111) 와 유사한 것으로 결정된 이미지들보다 더 작게 보일 수도 있다. 예를 들어, 제 3, 제 4, 및 제 7 이미지들 (113, 114, 117) 은 각각, 제 2, 제 5, 및 제 6 이미지들 (112, 115, 116) 보다 각각 더 작게 보일 수도 있다.
프로세서 (예컨대, 도 1의 프로세서 (104) 및/또는 도 2의 프로세서 (204)) 가 그룹화될 미디어 아이템들의 이력적 사용자 선택에 적어도 부분적으로 기초하여 메트릭들의 그룹 중에서 제 1 메트릭, 제 2 메트릭, 및 제 3 메트릭을 선택하도록 구성될 수도 있다. 예를 들어, 프로세서는 다른 양태들 (예컨대, 캡처 시의 컬러 콘텐츠 또는 환경적 오디오 특성들) 에 따른 유사도들과 비교하여, 지리적 로케이션, 시간, 및/또는 얼굴 특징들에 따라 유사한 미디어 아이템들을 사용자가 보통 그룹화했다고 결정할 수도 있다. 그 결과, 프로세서는 지리적 로케이션, 시간, 및 검출된 얼굴 특징들을 미디어 아이템들 (예컨대, 이미지들) 이 유사한지의 여부를 결정하는 경우의 메트릭들이라고 간주할 것을 결정할 수도 있다. 따라서, 메트릭들의 그룹의 각각의 특정 메트릭의 관련도는 특정 메트릭이 미디어 아이템들을 분류함에 있어서 사용되는 빈도에 적어도 부분적으로 기초하여 결정될 수도 있다. 대안으로, 그 메트릭들은 사용자 선택가능할 수도 있다. 예를 들어, 사용자는 상이한 메트릭들에 배정된 가중 값들을 선택 및/또는 조정할 수도 있고, 가장 큰 가중 값들을 갖는 메트릭들은 제 1, 제 2, 및 제 3 축들 (310~330) 에 대응할 수도 있다.
사용자 인터페이스 디바이스 (300) 는 캡처 선택기 (340), 제 1 선택기 (342), 제 2 선택기 (344), 제 3 선택기 (346), 및 공유 선택기 (348) 를 또한 포함할 수도 있다. 각각의 선택기 (340~348) 는 손가락 접촉 (350) 에 응답할 수도 있다. 캡처 선택기 (340) 는 사용자가 다른 이미지를 캡처하는 것을 허용하는 스크린에 대해 사용자가 네비게이트할 수 있게 한다. 다른 이미지의 캡처 시, 다른 이미지에 대한 특징 벡터가 프로세서에 의해 생성되고 메모리 (예컨대, 도 1의 메모리 (106) 및/또는 도 2의 메모리 (206)) 에서의 다른 특징 벡터들과 비교될 수도 있다. 제 1 선택기 (342) 는 사용자 인터페이스 디바이스 (300) 를 통해 디스플레이된 이미지들 (112~117) 의 모두를 선택할 수도 있다. 제 2 선택기 (344) 는 캡처된 이미지 (예컨대, 제 1 이미지 (111)) 와 유사한 것으로 프로세서가 결정한 이미지들 (112, 115, 116) 을 가중된 메트릭들에 기초하여 선택할 수도 있다. 제 3 선택기 (346) 는 사용자가 사용자 인터페이스 디바이스 (300) 를 통해 디스플레이된 이미지들 (112~117) 을, 이를테면 각각의 이미지에 연관된 체크 박스를 활성화 또는 비활성화함으로써 랜덤으로 선택하는 것을 허가할 수도 있다.
공유 선택기 (348) 는 사용자가 선택된 이미지들을 공유하는 것을 허가할 수도 있다. 예를 들어, 공유 선택기 (348) 의 사용자 활성화의 검출에 응답하여, 프로세서는 선택된 이미지들을 다른 디바이스로 전송하며, 선택된 이미지들을 소셜 미디어 웹사이트에 업로드하며, 선택된 이미지들을 전자 메일 주소로 전송하며, 그 이미지들을 단문 메시지 서비스 (short message service, SMS) 메시지를 통해 공유하며, 또는 그것들의 임의의 조합을 행할 수도 있다.
도 4를 참조하면, 미디어 아이템들의 2차원 표현을 디스플레이하도록 동작 가능한 사용자 인터페이스 디바이스 (400) 의 특정 실시형태가 도시되어 있다. 특정 실시형태에서, 사용자 인터페이스 디바이스 (400) 는 도 1의 사용자 인터페이스 디바이스 (108) 또는 도 2의 사용자 인터페이스 디바이스 (208) 에 해당할 수도 있다. 사용자 인터페이스 디바이스 (400) 는 손가락 접촉 (450) 에 응답하는 터치 스크린 디스플레이를 포함할 수도 있다.
사용자 인터페이스 디바이스 (400) 에서의 미디어 아이템들의 2차원 표현은 미디어 아이템들의 제 1 메트릭에 연관된 제 1 축 (410) 및 미디어 아이템들의 제 2 메트릭에 연관된 제 2 축 (420) 을 포함할 수도 있다. 미디어 아이템들은 이미지들, 비디오들, 텍스트 문서들, 또는 그것들의 임의의 조합에 해당할 수도 있다. 예를 들어, 특정 예시된 실시형태에서, 미디어 아이템들은 도 1의 이미지들 (112~117) 에 해당할 수도 있다. 다른 특정 실시형태에서, 미디어 아이템들은 도 2의 비디오들 (212~217) 에, 또는 이미지들 (112~117) 및 비디오들 (212~217) 의 조합에 해당할 수도 있다.
각각의 미디어 아이템은 메트릭들의 값들에 기초하여 제 1 축 (410) 및 제 2 축 (420) 을 기준으로 위치된다. 예를 들어, 제 1 축 (410) 은 제 1 이미지 (111) 의 지리적 로케이션 메트릭 (예컨대, 제 1 메트릭) 과 연관될 수도 있고 제 2 축 (420) 은 제 1 이미지 (111) 의 검출된 얼굴 특징 메트릭 (예컨대, 제 3 메트릭) 과 연관될 수도 있다. 제 2 이미지 (112) 는 원점에 비교적 가까이 (예컨대, 각각의 축 (410, 420) 에 닿게) 위치될 수도 있는데, 제 2 이미지 (112) 가 제 1 이미지 (111) 의 유사한 지리적 로케이션 (예컨대, 뉴욕 주, 뉴욕 시) 을 갖고 제 1 이미지 (111) 와 유사한 검출된 얼굴 특징들 (예컨대, 남성 플레이어 및 여성 플레이어) 을 갖기 때문이다. 제 5 이미지 (115) 는 제 1 축 (410) 에 비교적 가까이 위치될 수도 있는데, 제 5 이미지 (115) 가 제 1 이미지 (111) 의 유사한 지리적 로케이션을 갖기 때문이다. 제 6 이미지 (116) 는 제 2 축 (420) 에 비교적 가까이 위치될 수도 있는데, 제 6 이미지 (115) 및 제 1 이미지 (111) 가 유사한 검출된 얼굴 특징들 (예컨대, 남성 플레이어) 을 갖기 때문이다.
프로세서 (예컨대, 도 1의 프로세서 (104) 및/또는 도 2의 프로세서 (204)) 가 그룹화될 미디어 아이템들의 이력적 사용자 선택에 적어도 부분적으로 기초하여 메트릭들의 그룹 중에서 제 1 메트릭 및 제 2 메트릭을 선택하도록 구성될 수도 있다. 예를 들어, 프로세서는 다른 양태들 (예컨대, 캡처 시의 시간, 컬러 콘텐츠, 또는 환경적 오디오 특성들) 에 따른 유사도들과 비교하여, 지리적 로케이션 및 얼굴 특징들에 따라 유사한 미디어 아이템들을 사용자가 보통 그룹화했다고 결정할 수도 있다. 그 결과, 프로세서는 지리적 로케이션 및 검출된 얼굴 특징들을 미디어 아이템들 (예컨대, 이미지들) 이 유사한지의 여부를 결정하는 경우의 메트릭들이라고 간주할 것을 결정할 수도 있다. 따라서, 메트릭들의 그룹의 각각의 특정 메트릭의 관련도 또는 우선순위는 특정 메트릭이 미디어 아이템들을 분류함에 있어서 사용되는 빈도에 적어도 부분적으로 기초하여 결정될 수도 있다. 대안으로, 그 메트릭들은 사용자 선택가능할 수도 있다. 예를 들어, 사용자는 상이한 메트릭들에 배정된 가중 값들을 선택 및/또는 조정할 수도 있고, 가장 큰 가중 값들을 갖는 메트릭들은 제 1 및 제 2축들 (410, 420) 에 대응할 수도 있다.
사용자 인터페이스 디바이스 (400) 는 캡처 선택기 (440), 제 1 선택기 (442), 제 2 선택기 (444), 제 3 선택기 (446), 및 공유 선택기 (448) 를 또한 포함할 수도 있다. 각각의 선택기 (440~348) 는 손가락 접촉 (450) 에 응답할 수도 있다. 캡처 선택기 (440), 제 1 선택기 (442), 제 2 선택기 (444), 제 3 선택기 (446), 및 공유 선택기 (448) 는 도 3의 캡처 선택기 (340), 도 3의 제 1 선택기 (342), 도 3의 제 2 선택기 (344), 도 3의 제 3 선택기 (346), 및 도 3의 공유 선택기 (348) 에 대응할 수도 있고, 실질적으로 유사한 방식으로 동작할 수도 있다.
도 5를 참조하면, 미디어 아이템들의 2차원 표현을 디스플레이하도록 동작 가능한 사용자 인터페이스 디바이스 (500) 의 특정 실시형태가 도시되어 있다. 특정 실시형태에서, 사용자 인터페이스 디바이스 (500) 는 도 1의 사용자 인터페이스 디바이스 (108) 또는 도 2의 사용자 인터페이스 디바이스 (208) 에 해당할 수도 있다. 사용자 인터페이스 디바이스 (500) 는 손가락 접촉 (550) 에 응답하는 터치 스크린 디스플레이를 포함할 수도 있다.
사용자 인터페이스 디바이스 (500) 에서의 미디어 아이템들의 2차원 표현은 제 1 행 (510), 제 2 행 (520), 및 제 3 행 (530) 을 포함할 수도 있다. 제 1 행 (510) 은 미디어 아이템들의 다수의 메트릭들과 연관될 수도 있다. 제 2 행 (520) 은 미디어 아이템들의 제 1 메트릭과 연관될 수도 있고 제 3 행 (530) 은 미디어 아이템들의 제 2 메트릭과 연관될 수도 있다. 각각의 행 (510~530) 의 테두리들은 연관된 메트릭에 기초한 컬러들을 가질 수도 있다. 예를 들어, 제 2 행 (520) 의 테두리가 제 2 메트릭 (예컨대, 시간) 에 기초하여 특정 컬러 (예컨대, 적색) 일 수도 있고, 제 3 행 (530) 의 테두리가 제 3 메트릭 (예컨대, 얼굴 특징들) 에 기초하여 다른 컬러 (예컨대, 청색) 일 수도 있다. 따라서, 사용자 인터페이스 디바이스 (500) 를 통해 제시된 각각의 메트릭은 고유한 컬러를 갖는 테두리를 포함할 수도 있다. 미디어 아이템들은 이미지들, 비디오들, 텍스트 문서들, 또는 그것들의 임의의 조합에 해당할 수도 있다. 예를 들어, 특정 예시된 실시형태에서, 미디어 아이템들은 도 1의 이미지들 (112~117) 에 해당할 수도 있다. 다른 특정 실시형태에서, 미디어 아이템들은 도 2의 비디오들 (212~217) 에, 또는 이미지들 (112~117) 및 비디오들 (212~217) 의 조합에 해당할 수도 있다.
미디어 아이템들은 메트릭들의 값들에 기초하여 행들 (510~530) 내에 위치된다. 예를 들어, 제 1 행 (510) 은 전체 유사도 (예컨대, 제 1 이미지 (111) 의 지리적 로케이션, 제 1 이미지 (111) 의 캡처 시간, 및 제 1 이미지 (111) 에서의 검출된 얼굴 특징들에 해당하는 메트릭들에 기초한 도 1의 F12) 와 연관될 수도 있다. 제 2 이미지 (112), 제 5 이미지 (115), 및 제 6 이미지 (116) 는 제 1 이미지 (111) 에 관해 유사한 값들을 갖는 적어도 하나의 메트릭 (또는 메트릭들의 조합) 을 갖는 각각의 이미지 (112, 115, 116) 로 인해, (예컨대, F12의 값에 의한) 유사도의 순서로 제 1 행 (510) 내에 위치될 수도 있다. 예를 들어, 지리적 로케이션 메트릭의 값들, 시간 메트릭, 및 제 1 및 제 2 이미지들 (111, 112) 의 검출된 얼굴 특징 메트릭은 유사할 수도 있다. 제 1 및 제 5 이미지들 (111, 115) 의 검출된 얼굴 특징 메트릭은 유사할 수도 있고, 제 1 및 제 6 이미지 (116) 의 시간 메트릭은 유사할 수도 있다. 제 2 행 (520) 은 제 1 이미지 (111) 의 지리적 로케이션에 단독으로 대응하는 메트릭과 연관될 수도 있다. 따라서, 제 2 및 제 6 이미지들 (112, 116) 은 제 1 이미지 (111) 에 관해 유사한 지리적 위치들을 가짐에 응답하여 제 2 행 (520) 내에 위치될 수도 있다. 제 3 행 (530) 은 제 1 이미지에서의 검출된 얼굴 특징들에 단독으로 대응하는 메트릭과 연관될 수도 있다. 따라서, 제 2 및 제 5 이미지들 (112, 115) 은 제 1 이미지 (111) 에 관해 유사한 얼굴 특징들을 가짐에 응답하여 제 3 행 (530) 내에 위치될 수도 있다.
프로세서 (예컨대, 도 1의 프로세서 (104) 및/또는 도 2의 프로세서 (204)) 가 그룹화될 미디어 아이템들의 이력적 사용자 선택에 적어도 부분적으로 기초하여 메트릭들의 그룹 중에서 제 2 행 (520) 의 제 1 메트릭 및 제 3 행 (530) 의 제 2 메트릭을 선택하도록 구성될 수도 있다. 예를 들어, 프로세서는 다른 양태들 (예컨대, 캡처 시의 컬러 콘텐츠 또는 환경적 오디오 특성들) 에 따른 유사도들과 비교하여, 지리적 로케이션 및 얼굴 특징들에 따라 유사한 미디어 아이템들을 사용자가 보통 그룹화했다고 결정할 수도 있다. 그 결과, 프로세서는 지리적 로케이션 및 검출된 얼굴 특징들을 미디어 아이템들 (예컨대, 이미지들) 이 유사한지의 여부를 결정하는 경우의 메트릭들이라고 간주할 것을 결정할 수도 있다. 따라서, 메트릭들의 그룹의 각각의 특정 메트릭의 관련도는 특정 메트릭이 미디어 아이템들을 분류함에 있어서 사용되는 빈도에 적어도 부분적으로 기초하여 결정될 수도 있다. 대안으로, 메트릭들과 따라서 제 2 및 제 3 행들 (520, 530) 에 나타낸 특성들은, 사용자 선택가능일 수도 있다. 예를 들어, 사용자는 상이한 메트릭들에 대한 가중 값들을 선택 및/또는 조정할 수도 있고 가장 큰 가중 값들을 갖는 메트릭들은 제 2 및 제 3 행들 (520, 530) 에 대응할 수도 있다.
사용자 인터페이스 디바이스 (500) 는 캡처 선택기 (540), "모두 선택 (select all)" 선택기 (541), 제 1 메트릭 선택기 (542), 제 2 메트릭 선택기 (544), 제 4 선택기 (546), 및 공유 선택기 (548) 를 또한 포함할 수도 있다. 각각의 선택기 (540~548) 는 손가락 접촉 (550) 에 응답할 수도 있다. 캡처 선택기 (540) 는 도 3 및 도 4의 켑처 선택기들 (340, 440) 에 대응할 수도 있고 실질적으로 유사한 방식으로 동작할 수도 있다. 공유 선택기 (548) 는 도 3 내지 도 4의 공유 선택기들 (348, 448) 에 대응할 수도 있고 실질적으로 유사한 방식으로 동작할 수도 있다. "모두 선택" 선택기 (541) 는 제 1 행 (510) 에서의 이미지들의 모두를 선택할 수도 있으며, 제 1 메트릭 선택기 (542) 는 제 2 행 (520) 에서의 이미지들의 모두를 선택할 수도 있고, 제 2 메트릭 선택기 (544) 는 제 3 행 (530) 에서의 이미지들의 모두를 선택할 수도 있다. 제 4 선택기 (546) 는 사용자가 사용자 인터페이스 디바이스 (500) 를 통해 디스플레이된 이미지들을, 이를테면 각각의 이미지에 연관된 체크 박스를 활성화 또는 비활성화함으로써 랜덤으로 선택하는 것을 허가할 수도 있다.
도 6을 참조하면, 선택된 미디어 아이템에 대해 유사한 특성들을 갖는 다른 미디어 아이템들을 선택하도록 동작 가능한 시스템 (600) 의 특정 예시적 실시형태가 도시되어 있다. 시스템 (600) 은 프로세서 (604), 메모리 (606), 사용자 인터페이스 디바이스 (608), 및 데이터 캐시 (610) 를 포함할 수도 있다. 특정 실시형태에서, 프로세서 (604) 는 도 1 내지 도 2의 프로세서들 (104~204) 에 대응하고 실질적으로 유사한 방식으로 동작할 수도 있으며, 메모리 (606) 는 도 1 내지 도 2의 메모리들 (106~206) 에 대응하고 실질적으로 유사한 방식으로 동작할 수도 있고, 사용자 인터페이스 디바이스 (608) 는 도 1 내지 도 2의 사용자 인터페이스 디바이스들 (108~208) 또는 도 3 내지 도 5의 사용자 인터페이스 디바이스들 (300~500) 에 대응하고 실질적으로 유사한 방식으로 동작할 수도 있다.
메모리 (606) 는 상이한 미디어 유형들에 대응하는 파일들을 저장할 수도 있다. 예를 들어, 메모리 (606) 는 이미지들 (예컨대, JPEG, GIF, TIFF, PNG, BITMAP) 에 대응하는 파일들, 오디오 및/또는 비디오 (예컨대, WMV, MP3, MP4) 에 대응하는 파일들, 또는 텍스트 문서들에 대응하는 파일들 등을 저장할 수도 있다. 메모리 (606) 는 도 1의 특징 벡터들 (121~127), 도 2의 특징 벡터들 (221~227), 또는 그것들의 임의의 조합을 저장할 수도 있다. 예시의 편의를 위해, 예시된 실시형태에서, 메모리 (606) 는 제 2 비디오 (212) 와 제 5 이미지 (115) 를 포함한다. 그러나, 메모리 (606) 는 제 2 비디오 (212) 에 대응하는 제 2 특징 벡터 (222) 와 제 5 이미지 (115) 에 대응하는 제 5 특징 벡터 (125) 를 또한 저장할 수도 있다. 메모리 (606) 는 텍스트 문서들 (예컨대, 제 1 텍스트 문서 (611)) 및 대응 특징 벡터들을 또한 저장할 수도 있고, 메모리 (606) 는 오디오 파일들 (예컨대, 제 1 오디오 파일 (612)) 및 대응 특징 벡터들을 저장할 수도 있다. 특정 실시형태에서, 제 1 텍스트 문서 (611) 는 워드 프로세싱 문서, 스프레드시트 문서 등에 해당할 수도 있다. 메모리 (606) 는 단문 메시지 서비스 (SMS) 텍스트 메시지들을 또한 저장할 수도 있다. 특정 실시형태에서, 제 1 텍스트 문서 (611) 는 SMS 텍스트 메시지에 해당할 수도 있다.
데이터 캐시 (610) 는 네트워크 (609) 를 통해 프로세서 (604) 에 액세스 가능할 수도 있고 데이터 캐시 (610) 는 하나 이상의 상이한 소스들로부터의 정보를 캐시할 수도 있다. 예를 들어, 데이터 캐시 (610) 는 인터넷 접속을 통해 프로세서 (604) 에 액세스 가능할 수도 있고 프로세서 (604) 는 데이터 캐시 (610) 로부터의 콘텐츠를 인터넷 접속을 통해 검색 및 취출할 수도 있다. 데이터 캐시 (610) 는 소셜 미디어 포스팅들 및/또는 이메일들의 아카이브를 캐시할 수도 있다. 특정 실시형태에서, 데이터 캐시 (610) (또는 다수의 데이터 캐시들) 은, 텍스트 메시지들로 제한되는 제 1 소셜 미디어 서비스의 제 1 아카이브, 이미지들로 제한되는 제 2 소셜 미디어 서비스의 제 2 아카이브, 또는 텍스트 메시지들로 또는 이미지들로 제한되지 않는 제 3 소셜 미디어 서비스의 제 3 아카이브를 적어도 포함한다. 예를 들어, 데이터 캐시 (610) 는 www.facebook.com, www.twitter.com, www.instagram.com 등을 포함하는 소셜 미디어 웹사이트들로부터의 포스팅들을 포함할 수도 있다.
데이터 캐시 (610) 는 텍스트 메시지들로 제한되는 소셜 미디어 서비스에 저장된 제 1 메시지 (613) 및 제 2 메시지 (614) 를 캐시할 수도 있다. 데이터 캐시 (610) 는 텍스트 메시지들, 비디오들, 또는 이미지들로 제한되지 않는 소셜 미디어 서비스에 저장된 제 3 메시지 (615) 를 또한 캐시할 수도 있다. 특정 실시형태에서, 데이터 캐시 (610) 는 텍스트 메시지들, 이미지들, 또는 비디오들 중 적어도 하나로 제한된 메시지들을 캐시할 수도 있다. 비록 단일 데이터 캐시 (610) 로서 예시되었지만, 다수의 데이터 캐시들이 네트워크 (609) 를 통해 프로세서 (604) 에 (예컨대, 소셜 미디어 서비스 당 하나의 데이터 캐시로) 액세스 가능할 수도 있다.
프로세서 (604) 는 제 1 미디어 유형을 갖는 미디어 아이템의 제 1 사용자 선택을 수신하도록 구성될 수도 있다. 예를 들어, 사용자가 사용자 인터페이스 디바이스 (608) 를 통해 제 1 이미지 (111) 를 선택할 수도 있다. 특정 실시형태에서, 사용자 인터페이스 디바이스 (608) 는 터치스크린이고 사용자는 사용자 인터페이스 디바이스 (608) 와의 손가락 접촉을 통해 제 1 이미지 (111) 를 선택할 수도 있다.
프로세서 (604) 는 제 1 이미지 (111) 의 선택을 수신하고 다른 미디어 아이템의 특성들에 기초하여 다른 미디어 유형을 갖는 다른 미디어 아이템을 선택할 수도 있다. 프로세서 (604) 는 메모리 (606) 로부터 또는 데이터 캐시 (610) 로부터 제 1 특징 벡터 (121) 의 메트릭들에 대해 유사한 메트릭들을 갖는 다른 미디어 아이템들을 선택할 수도 있다. 예를 들어, 도 1에 관해 설명된 바와 같이, 제 1 특징 벡터 (121) (제 1 이미지 (111) 에 대응함) 는 뉴욕 주, 뉴욕 시에 대응하는 GPS 좌표들을 식별하는 메트릭들, 3:00pm의 시간에 해당하는 메트릭들, 및 제 1 이미지 (111) 에서의 제 1 얼굴의 제 1 얼굴 특징들 (예컨대, 남성 플레이어) 및 제 1 이미지 (111) 에서의 제 2 얼굴의 제 2 얼굴 특징들 (예컨대, 여성 플레이어) 을 인식하는 메트릭들을 가질 수도 있다. 프로세서 (604) 는 다른 미디어 아이템들을 다른 미디어 아이템들의 타임 스탬프, 다른 미디어 아이템들에 연관된 지리적 로케이션, 또는 다른 미디어 아이템들에 연관된 텍스트 정보에 기초하여 선택할 수도 있다.
예를 들어, 프로세서 (604) 는 제 2 비디오 (212) 의 지리적 로케이션 (예컨대, 뉴욕 주, 뉴욕 시) 을 식별하는 메트릭 및 제 2 비디오 (212) 가 캡처되었던 시간 (예컨대, 대락 3:00 pm) 을 식별하는 메트릭에 주로 기초하여 메모리 (606) 로부터 제 2 비디오 (212) 를 선택할 수도 있다. 프로세서 (604) 는 제 5 이미지 (115) 의 지리적 로케이션 (예컨대, 뉴욕 주, 뉴욕 시) 을 식별하는 메트릭에 주로 기초하여 메모리 (606) 로부터 제 5 이미지 (115) 를 선택할 수도 있다. 프로세서 (604) 는 제 1 텍스트 문서 (611) 내의 텍스트 정보에 기초하여 제 1 텍스트 문서 (611) 를 선택할 수도 있다. 예를 들어, 프로세서 (604) 는 제 1 이미지 (111) 에서의 텍스트 문자들을 결정하기 위해 제 1 이미지 (111) 상의 광학적 문자 인식을 수행할 수도 있다. 제 1 텍스트 문서 (611) 는 제 1 이미지 (111) 에서의 텍스트 문자들에 대응하는 텍스트 정보를 포함할 수도 있다.
프로세서 (604) 는 데이터 캐시 (610) 로부터 제 1 메시지 (613) (예컨대, 소셜 미디어 포스팅) 를 또한 선택할 수도 있다. 예를 들어, 프로세서 (604) 는 제 1 이미지 (111) 와 제 1 메시지 (613) 에서의 텍스트 정보 및/또는 해시태그들 간의 유사도를 검색할 수도 있다. 특정 실시형태에서, 제 1 메시지 (613) 는 제 1 이미지 (111) 에서의 데이터에 대응하는 해시태그 (예컨대, #Tennis) 를 포함한다. 프로세서 (604) 는 데이터 캐시 (610) 로부터 제 3 메시지 (615) (예컨대, 소셜 미디어 포스팅) 를 또한 선택할 수도 있다. 예를 들어, 프로세서 (604) 는 제 1 이미지 (111) 가 캡처되었던 시간과 유사한 시간 (예컨대 2002년 8월 31일 3:01pm) 즈음에 제 3 메시지 (615) 가 포스팅되었다고 결정할 수도 있다.
특정 실시형태에서, 프로세서 (604) 는 제 3 메시지 (615) 의 소셜 미디어 공유 이벤트들 (예컨대, 좋아요들 (likes), 댓글들, 공유들, 리트윗들 등) 의 카운트와 임계값을 비교함으로써 제 3 메시지 (615) 를 선택할 수도 있다. 예를 들어, 소셜 미디어 공유 이벤트들의 임계값이 사용자에 의해 설정될 수도 있다. 프로세서 (604) 는 소셜 미디어 공유 이벤트들의 수가 임계값을 충족시킨다면 미디어 아이템을 선택할 수도 있다. 특정 실시형태에서, 그 임계값은 3 회의 공유 이벤트들과 동일할 수도 있다. 프로세서 (604) 는 제 3 메시지 (615) 가 임계값을 충족시킴 (예컨대, 제 3 메시지 (615) 는 6 회의 좋아요들을 갖는 임계값을 충족시킴) 에 응답하여 제 3 메시지 (615) 를 선택할 수도 있다. 특정 실시형태에서, 임계값은 (예컨대, 소셜 미디어 계정으로부터의 수신된 업데이트들에 등록된 다른 사용자들 중 10 %와 같은 총 사용자들의 백분율처럼) 얼마나 많은 사용자들 (예컨대, 친구들, 팔로어들 등) 이 소셜 미디어 계정과 연관되는지에 기초하여 결정된다.
프로세서 (604) 는 제 1 이미지 (111), 제 2 비디오 (212), 제 5 이미지 (115), 제 1 텍스트 문서 (611), 제 1 메시지 (613), 제 3 메시지 (615), 또는 그것들의 임의의 조합을 포함하는 미디어 아이템들의 논리 그룹 ("패키지형 모멘트" 데이터에 포함된 미디어 데이터에 대응함) 을 생성하도록 구성될 수도 있다. 예를 들어, 사용자가 제 1 이미지 (111) 를 전송할 것을 선택하면, 프로세서 (604) 는 파일 전송 명령들이 논리 그룹 (예컨대, 패키지형 모멘트 데이터의 미디어 데이터) 에서의 각각의 미디어 아이템 역시 전송하는 것을 가능하게 할 수도 있다. 특정 실시형태에서, 논리 그룹 (예컨대, 패키지형 모멘트 데이터의 미디어 데이터) 은 제 1 이미지 (111), 제 2 비디오 (212), 제 5 이미지 (115), 제 1 텍스트 문서 (611), 제 1 메시지 (613), 제 3 메시지 (615), 또는 그것들의 임의의 조합을 포함하는 단일 파일 (예컨대, 압축된 파일, zip 파일 등) 을 포함할 수도 있다.
특정 실시형태에서, 사용자가 파일을 공유할 것을 선택할 수도 있고 프로세서 (604) 는, 선택된 파일의 특성들에 기초하여, SMS 텍스트 메시지들, 이메일들, 소셜 미디어 포스트들, 또는 그것들의 임의의 조합을 포함하는 패키지형 모멘트 데이터의 압축된 파일 (예컨대, "zip" 파일) 을 생성할 수도 있다. 비제한적 예로서, 사용자는 2008년 4월 23일 9:43 am에 메사추세츠 주 보스턴에서 캡처되었던 업무 회의로부터의 이미지 (예컨대, 회의 이미지) 를 공유할 것을 선택할 수도 있다. 프로세서 (604) 는 회의 이미지에 대한 메트릭들을 결정하고 그 회의 이미지의 메트릭들과 유사한 특성들을 갖는 다른 파일들, 메시지들, 이메일들, 및/또는 포스트들을 메모리 (606) 및 데이터 캐시 (610) 에서 검색할 수도 있다. 프로세서 (604) 는 회의 이미지와 함께 패키지형 모멘트 데이터의 압축된 파일 (예컨대, "zip" 파일) 내에 다른 파일들, 메시지들, 이메일들, 및/또는 포스트들을 "번들화 (bundle)"하고 원격 사용자 (예컨대, 원격 디바이스) 로의 압축된 파일의 송신을 개시할 수도 있다.
예를 들어, 메모리 (606) 는 2008년 4월 23일 9:43 am에 또는 그 즈음에 전송 또는 수신되었던 SMS 텍스트 메시지들을 저장할 수도 있다. 위에서 설명된 기법들을 사용하여, 프로세서 (604) 는 메트릭 값들에 기초하여 SMS 텍스트 메시지들을 선택하고 그 SMS 텍스트 메시지들을 압축된 파일에 추가할 수도 있다. 다른 예로서, 프로세서 (604) 는 데이터 캐시 (610) 에 저장된 소셜 미디어 포스트들을 네트워크 (609) 를 통해 액세스할 수도 있다. 특정 실시형태에서, 프로세서 (604) 는 임의의 포스트들이 회의 이미지와 유사한 메트릭들을 갖는지의 여부를 결정하기 위해 www.facebook.com에 대응하는 포스트들의 제 1 데이터베이스를 검색할 수도 있다. 예를 들어, 프로세서 (604) 는 포스트들의 시간 및/또는 로케이션을 식별하고 그 시간 및/또는 로케이션과 회의 이미지의 메트릭들을 비교할 수도 있다. 특정 포스트가 이미지 파일 또는 비디오 파일이면, 프로세서 (604) 는, 위에서 설명된 바와 같이 특정 포스트의 얼굴 특징 메트릭들을 결정하고, 얼굴 특징 메트릭들과 회의 이미지를 비교할 수도 있다. 특정 실시형태에서, 포스트들에 연관된 "좋아요", "댓글들", 및/또는 "공유들"의 수가 그 포스트들을 압축된 파일에 추가할지의 여부를 결정함에 있어서 프로세서 (604) 에 의해 사용될 수도 있다. 예를 들어, 포스트들이 회의 이미지에 유사하다고 프로세서 (604) 가 결정하면, 프로세서 (604) 는, "좋아요", "댓글들", 및/또는 "공유들"의 수가 임계값을 충족시킨다는 것을 조건으로 하여, 그 포스트들을 패키지형 모멘트 데이터의 압축된 파일에 추가할 수도 있다.
다른 예로서, 프로세서 (604) 는 www.twitter.com에 대응하는 포스트들 (예컨대, 소셜 미디어 데이터) 의 제 2 데이터베이스 및/또는 www.instagram.com에 대응하는 포스트들의 제 3 데이터베이스를 검색하기 위해 네트워크 (609) 를 통해 데이터 캐시 (610) 에 액세스할 수도 있다. 프로세서 (604) 는 제 2 데이터베이스 및/또는 제 3 데이터베이스를 검색하는 경우 제 1 데이터베이스를 검색하는 경우와 실질적으로 유사한 방식으로 동작할 수도 있다. 덧붙여서, 프로세서 (604) 는 각각의 포스트 (예컨대, 소셜 미디어 데이터) 에 포힘되는 해시태그들 (#) 를 식별하고 해시태그가 회의와 연관되는지의 여부를 결정할 수도 있다. 예를 들어, 특정 포스트가 해시태그 "#BostonConference"를 포함할 수도 있다. 그 결과, 프로세서 (604) 는 특정 포스트를 압축된 파일 내에 포함시킬 것을 결정할 수도 있다.
다른 예로서, 프로세서 (604) 는 전송 및/또는 수신되었던 이메일들이 회의와 연관됨 (예컨대, 회의 이미지와 연관됨) 을 검색하기 위해 네트워크 (609) 를 통해 데이터 캐시 (610) 에 액세스할 수도 있다. 프로세서 (604) 는 이메일들이 송신되었던 때와 연관되는 시간 및/또는 로케이션을 식별하고 그 시간 및/또는 로케이션과 회의 이미지의 메트릭들을 비교할 수도 있다. 프로세서 (604) 는 이메일들이 회의와 연관되는지의 여부를 결정하기 위해 이메일들의 텍스트 검색을 또한 수행할 수도 있다. 특정 이메일이 회의와 연관된다는 결정에 응답하여, 프로세서 (604) 는 특정 이메일을 패키지형 모멘트 데이터의 압축된 파일 내에 포함시킬 수도 있다. 특정 실시형태에서, 이메일들의 수신자들 및/또는 발신자들은 특정 이메일이 회의와 연관되는지의 여부를 식별하는데 사용될 수도 있다. 예를 들어, 프로세서 (604) 는 수신자들의 이메일 주소들 및/또는 발신자들의 이메일 주소들이 소셜 미디어 포스트들에 대응하는 계정들, SMS 텍스트 메시지들에 대응하는 폰 번호들, 또는 그것들의 임의의 조합과 연관되는지의 여부를 결정할 수도 있다.
도 7을 참조하면, 사용자 구성가능 패키지형 모멘트 설정들을 디스플레이하도록 동작 가능한 사용자 인터페이스 디바이스 (700) 의 제 1 특정 실시형태가 도시되어 있다. 사용자 인터페이스 디바이스 (700) 는 그래픽 사용자 인터페이스 (graphical user interface, GUI) 를 통해 패키지형 모멘트 설정들을 디스플레이할 수도 있다. 특정 실시형태에서, 사용자 인터페이스 디바이스 (700) 는 도 1의 사용자 인터페이스 디바이스 (108) 또는 도 2의 사용자 인터페이스 디바이스 (208) 에 해당할 수도 있다. 프로세서 (예컨대, 도 1의 프로세서 (104), 도 2의 프로세서 (204), 및/또는 도 6의 프로세서 (604)) 가 패키지형 모멘트 설정들을 메모리, 이를테면 도 1의 메모리 (106), 도 2의 메모리 (206), 또는 도 6의 메모리 (606) 내에 저장하도록 구성될 수도 있다. 사용자 인터페이스 디바이스 (700) 는 접촉에 응답하는 터치 스크린 디스플레이를 포함할 수도 있다. 특정 실시형태에서, 프로세서는 디스플레이 (예컨대, 사용자 인터페이스 디바이스 (700) 의 디스플레이 디바이스) 에서의 프레젠테이션을 위한 GUI를 생성하도록 그리고 GUI를 통해 수신된 사용자 입력에 기초하여 패키지형 모멘트 설정들을 수정하도록 구성될 수도 있다.
패키지형 모멘트 데이터는 공통 이벤트에 관련된 하나 이상의 미디어 아이템들에 연관되는 (예컨대, 그 아이템들을 나타내는) 미디어 데이터를 포함할 수도 있다. 예를 들어, 하나 이상의 미디어 아이템들은 결혼에 관련된 이미지들 (예컨대, 화상들), 비디오, 및 다른 미디어 아이템들을 포함할 수도 있다. 패키지형 모멘트 설정들은 사용자가 프로세서에 의한 미디어 아이템들의 선택을 위한 하나 이상의 기준을 구성하는 것을 가능하게 할 수도 있다. 미디어 아이템들의 선택 후, 미디어 아이템들에 대응하는 미디어 데이터는 패키지형 모멘트 데이터 내에 포함될 수도 있다. 프로세서를 사용하여 미디어 아이템들을 선택함으로써, 사용자의 시간 및 노력은 공통 이벤트에 관련된 다수의 미디어 아이템들을 선택함에 있어서 감소될 수도 있다. 덧붙여서, 패키지형 모멘트 데이터를 다른 사용자들에게 단일 파일 (예컨대, 패키지형 모멘트 데이터를 포함하는 파일) 로서 송신함으로써, 각각의 미디어 아이템을 개별적으로 송신하는 것과 비교하여 다른 사용자들에 대한 인터럽션이 감소될 수도 있다.
사용자 인터페이스 디바이스 (700) 를 통해 디스플레이된 패키지형 모멘트 설정들은 유사도 설정들, 미디어 유형 설정들, 차단 (block) 리스트, 및 사이즈 설정들을 포함할 수도 있다. 예를 들어, 패키지형 모멘트 설정들은 사용자 구성가능 지정의 유사도 설정들을 포함할 수도 있다. 프로세서는 유사도 설정들 중 하나 이상을 충족시키는 선택된 미디어 아이템 (예컨대, 도 1의 제 1 이미지 (111)) 과 미디어 아이템들 간의 비교들에 기초하여 미디어 아이템들을 선택할 수도 있고, 선택된 미디어 아이템들에 대응하는 미디어 데이터는 패키지형 모멘트 데이터 내에 포함될 수도 있다. 예를 들어, 제 2 미디어 아이템이 유사도 설정들 중 하나 이상을 충족시키는 (제 1 미디어 아이템 및 제 2 미디어 아이템 간의) 비교에 기초하여 선택될 수도 있다. 미디어 아이템들 및 선택된 미디어 아이템 간의 유사도들은 (예컨대, 메트릭들에 기초하여) 도 1 및 도 2를 참조하여 설명된 바와 같이 결정될 수도 있다.
유사도 설정들은 얼굴 특징들, 오디오 특성들, 지리적 로케이션, 및 시간 중 적어도 하나를 포함한다. 특정 실시형태에서, 유사도 설정들은 유사한 얼굴들 선택기 (702), 유사한 오디오 선택기 (704), 유사한 로케이션 선택기 (706), 및 유사한 시간 선택기 (712) 를 통해 구성될 수도 있다. 유사한 로케이션 선택기 (706) 는 로케이션 시간 선택기 (708) 와 거리 선택기 (710) 를 구비할 수도 있고, 유사한 시간 선택기 (712) 는 시구간 (time period) 선택기 (714) 를 구비할 수도 있다. 다른 실시형태들에서, 유사도 설정들은 다른 메트릭들에 기초하여 부가적인 또는 다른 설정들 선택기들을 통해 구성될 수도 있다.
프로세서는 사용자에 의해 선택되는 선택기들 (702~714) 중 하나 이상에 대응하는 유사도들에 기초하여 미디어 아이템들을 선택할 수도 있다. 특정 실시형태에서, 유사한 얼굴들 선택기 (702) 및 유사한 오디오 선택기 (704) 는 각각 선택 (또는 선택해제) 을 나타내는 체크 박스와 연관될 수도 있다. 유사한 얼굴들 선택기 (702) 의 선택은 선택된 미디어 아이템과 유사한 검출된 얼굴 특징들을 갖는 미디어 아이템들이 프로세서에 의해 선택되게 할 수도 있다. 유사한 오디오 선택기 (704) 의 선택은, 도 1을 참조하여 설명된 바와 같이 또는 도 2를 참조하여 설명된 바와 같이, 미디어 아이템들에 연관된 오디오 특성들이 선택된 미디어 아이템에 연관된 오디오 특성들과 비교되게 할 수도 있다. 프로세서는 그 비교들에 기초하여 하나 이상의 미디어 아이템들을 선택할 수도 있다.
유사한 로케이션들에 대한 설정들을 구성하기 위해, 사용자는 유사한 로케이션 선택기 (706) 의 로케이션 시간 선택기 (708) 및 거리 선택기 (710) 를 사용하여 값들을 선택할 수도 있다. 유사한 시간들에 대한 설정들을 구성하기 위해, 사용자는 유사한 시간 선택기 (712) 의 시구간 선택기 (714) 를 사용하여 값들을 선택할 수도 있다. 로케이션 시간 선택기 (708), 거리 선택기 (710), 및 시구간 선택기 (714) 는 각각이 선택 메커니즘을 포함할 수도 있다. 특정 실시형태에서, 선택 메커니즘은 위쪽 화살표 및 아래쪽 화살표를 포함한다. 다른 실시형태들에서, 선택 메커니즘은 손잡이 (knob), 다이얼, 드롭다운 메뉴, 또는 선택된 값을 변경하는 다른 메커니즘을 포함할 수도 있다. 사용자는 선택 메커니즘들을 사용하여 값들을 선택할 수도 있다. 예를 들어, 사용자는 거리 선택기 (710) 의 선택 메커니즘을 통해, 선택된 미디어 아이템의 로케이션으로부터의 거리 (예컨대, 범위) 를 설정할 수도 있다. 사용자는 로케이션 시간 선택기 (708) 의 선택 메커니즘을 통해 로케이션 관련 시구간을 또한 설정할 수도 있다. 도 7에 도시된 특정 예에서, 로케이션 시간 선택기 (708) 는 30 분으로 설정되고 거리 선택기 (710) 는 2 마일로 설정된다. 이 특정 예에서, 프로세서는 적어도 30 분 동안 선택된 미디어 아이템의 로케이션의 2 마일 내에 있는 로케이션에 대응하는 미디어 아이템을 선택할 수도 있다. 다른 예로서, 사용자는 시구간 선택기 (714) 의 선택 메커니즘을 통해 시구간을 설정할 수도 있다. 도 7에 도시된 특정 예에서, 시구간 선택기 (714) 는 두 시간으로 설정된다. 이 특정 예에서, 프로세서는 선택된 미디어 아이템에 대응하는 두 시간의 특정 시간 내의 시간들 (예컨대, 캡처 시간들) 에 대응하는 미디어 아이템들을 선택할 수도 있다.
유사한 로케이션 선택기 (706) 및 유사한 시간 선택기 (712) 는 각각이 프로세서가 유사한 로케이션들 또는 유사한 시간들에 대응하는 미디어 아이템들을 선택하는 것을 방지 (예컨대, 금지) 시키기 위해 선택해제될 수도 있다. 특정 실시형태에서, 사용자는 로케이션 시간 선택기 (708), 거리 선택기 (710), 및 시구간 선택기 (714) 의 값들을 0 (예컨대, 선택해제 값) 으로 설정함으로써 유사한 로케이션 선택기 (706) 및/또는 유사한 시간 선택기 (712) 를 선택해제할 수도 있다. 다른 실시형태에서, 유사한 로케이션 선택기 (706) 및 유사한 시간 선택기 (712) 는 각각이 체크 박스와 연관될 수도 있고, 선택 및 선택해제는, 유사한 얼굴들 선택기 (702) 또는 유사한 오디오 선택기 (704) 와 유사한 방식으로, 사용자 입력에 응답하여 발생할 수도 있다.
미디어 유형 설정들은 하나 이상의 미디어 유형들의 사용자 구성가능 지정들 (예컨대, 선택들) 을 포함할 수도 있다. 패키지형 모멘트 데이터의 미디어 데이터에 대응하는 각각의 미디어 아이템이 하나 이상의 미디어 유형들에 연관된 미디어 유형을 가질 수도 있다. 예를 들어, 프로세서는 미디어 유형 설정들에 따라 하나 이상의 미디어 유형들의 미디어 아이템들을 선택할 수도 있고, 미디어 데이터는 선택된 미디어 아이템들과 연관될 수도 있다. 미디어 유형들은 화상들 (예컨대, 이미지들), 비디오들, 음성 호들의 오디오 녹음물들, 이메일 메시지들, SMS 메시지들, 및 소셜 미디어 포스트들 (예컨대, 텍스트 및/또는 이미지들) 을, 비제한적 예들로서 포함할 수도 있다. 특정 실시형태에서, 미디어 유형 설정들은 화상 (예컨대, 이미지) 선택기 (720), 비디오 선택기 (722), 착신호 선택기 (724), 발신호 선택기 (726), 착신 이메일 선택기 (728), 발신 이메일 선택기 (730), 착신 SMS 선택기 (732), 발신 SMS 선택기 (734), 및 소셜 미디어 선택기 (736) 를 통해 구성될 수도 있다. 다른 실시형태에서, 소셜 미디어 선택기 (736) 는 상이한 소셜 미디어 소스 (예컨대, 비제한적 예들로서, 웹사이트들 www.twitter.com, www.facebook.com, www.instagram.com, 및/또는 www.pinterest.com에 연관된 소셜 미디어) 에 각각 대응하는 다수의 선택기들을 포함할 수도 있다. 다른 실시형태들에서, 미디어 유형 설정들은 다른 미디어 유형들에 대응하는 부가적인 또는 다른 선택기들을 통해 구성될 수도 있다.
선택기들 (720~736) 의 각각은 사용자 입력을 통해 선택될 (또는 선택해제될) 수도 있다. 패키지형 모멘트 데이터의 미디어 데이터는 선택기들 (720~736) 의 선택에 기초하여 미디어 유형들과 연관된다. 도 7에 도시된 특정 예에서, 화상 선택기 (720), 비디오 선택기 (722), 착신호 선택기 (724), 착신 이메일 선택기 (728), 발신 SMS 선택기 (734), 및 소셜 미디어 선택기 (736) 는 선택되고, 다른 선택기들은 선택해제된다. 이 특정 예에서, 패키지형 모멘트 데이터의 미디어 데이터는 화상들, 비디오들, 착신 음성 호들 (예컨대, 착신 음성 호들의 녹음된 오디오), 착신 이메일들 (예컨대, 착신 이메일들의 텍스트), 발신 SMS 메시지들 (예컨대, 발신 SMS 메시지들의 텍스트), 및 소셜 미디어 포스트들로부터 선택되고, 발신 음성 호들, 발신 이메일들, 및 착신 SMS 메시지들로부터는 선택되지 않는다. 특정 실시형태에서, 패키지형 모멘트 데이터의 미디어 데이터는, 위에서 설명된 바와 같이, 유사도 설정들에 기초하여 또한 선택된다. 다른 실시형태에서, 선택기들 (720~736) 의 각각은 (시구간 선택기 (714) 와 유사한) 대응하는 시간 선택기를 포함할 수도 있어서, 사용자는 각각의 미디어 콘텐츠 유형에 연관된 시구간을 지정할 수 있다. 예를 들어, 사용자는 선택된 미디어 아이템의 특정 캡처 시간의 제 1 시구간 (예컨대, 1 시간) 내에 캡처된 화상들을 포함시키도록 그리고 선택된 미디어 아이템의 특정 캡처 시간의 제 2 시구간 (예컨대, 3 시간) 내에 비디오 캡처물들을 포함시키도록 선택할 수도 있다.
차단 리스트는 사용자가 패키지형 모멘트 데이터의 수신자들을 조정 (예컨대, 구성) 하는 것을 가능하게 한다. 예를 들어, 차단 리스트는 사용자가 패키지형 모멘트 데이터 대신 선택된 미디어 아이템만을 수신하기 위해 하나 이상의 타겟들 (예컨대, 사용자들) 을 선택하는 것을 가능하게 할 수도 있다. 차단 리스트는 수신자 선택기 (742) 를 통해 구성될 수도 있다. 수신자 선택기 (742) 는 선택 메커니즘을 포함할 수도 있다. 특정 실시형태에서, 선택 메커니즘은 화살표 또는 다른 버튼일 수도 있다. 수신자 선택기 (742) 는, 사용자 선택에 응답하여, 패키지형 모멘트 데이터를 수신할 자격이 있는 당사자들 및/또는 그룹들의 드롭다운 리스트를 제공할 수도 있다. 예를 들어, 그 당사자들 또는 그룹들은 사용자에 연관된 주소록으로부터 디스플레이될 수도 있다. 사용자는 당사자들 또는 그룹들 중 하나 이상을 차단 리스트에 추가하기 위해 선택할 수도 있다. 도 7에 도시된 특정 예에서, 사용자는 상사 (예컨대, 특정 당사자) 및 동료들 (예컨대, 특정 그룹) 을 차단 리스트에 추가하기 위해 선택할 수도 있다. 이 특정 예에서, 패키지형 모멘트 데이터가 다른 당사자들 또는 그룹들로 전송되는 경우, 선택된 미디어 아이템은 패키지형 모멘트 데이터 대신 상사에게 그리고 동료들에게 전송된다. 다른 실시형태에서, 사용자 인터페이스 디바이스 (700) 는 사용자가 패키지형 모멘트 데이터를 수신하기 위한 당사자들 및/또는 그룹들을 선택하는 것을 가능하게 하는 승인된 수신자 리스트를 포함할 수도 있다.
사이즈 설정들은 사용자가 패키지형 모멘트 데이터의 사이즈의 상한을 지정 (예컨대, 구성) 하는 것을 가능하게 한다. 특정 실시형태에서, 사이즈 설정들은 화상 수 선택기 (750), 비디오 길이 선택기 (752), 오디오 길이 선택기 (754), 및 파일 사이즈 선택기 (756) 를 통해 구성 가능할 수도 있다. 다른 실시형태들에서, 사이즈 설정들은 부가적인 선택기들, 이를테면 이메일 길이 선택기, SMS 길이 선택기, 하나 이상의 소셜 미디어 길이 선택기들, 또는 다른 미디어 유형들에 기초한 다른 선택기들과 연관될 수도 있다. 선택기들 (750~754) 은 대응하는 미디어 유형의 사이즈의 상한의 사용자 지정에 대응할 수도 있다. 예를 들어, 화상 수 선택기 (750) 는 패키지형 모멘트 데이터의 미디어 데이터에 대응하는 화상들 (예컨대, 이미지들) 의 최대 수를 나타낼 수도 있으며, 비디오 길이 선택기 (752) 는 패키지형 모멘트 데이터의 미디어 데이터에 대응하는 비디오의 최대 집계 길이를 나타낼 수도 있고, 오디오 길이 선택기 (754) 는 패키지형 모멘트 데이터의 미디어 데이터에 대응하는 오디오 (예컨대, 음성 호들의 오디오 녹음물들) 의 최대 집계 길이를 나타낼 수도 있다. 파일 사이즈 선택기 (756) 는 패키지형 모멘트 데이터를 포함하는 파일의 최대 집계 파일 사이즈의 사용자 구성가능 지정을 나타낼 수도 있다. 선택기들 (750~756) 의 각각은 선택 메커니즘을 포함할 수도 있고 유사한 얼굴들 선택기 (702) 또는 유사한 오디오 선택기 (704) 와 유사한 방식으로 동작할 수도 있다.
프로세서는 사이즈 설정들에 따라 미디어 아이템들을 선택하도록 구성될 수도 있다. 예를 들어, 프로세서는 화상 수 선택기 (750) 에 기초하여 특정 수의 이미지들을 선택할 수도 있다. 다른 예로서, 프로세서는 선택된 비디오의 집계된 길이가 비디오 길이 선택기 (752) 에 대응하는 길이를 초과하지 않도록 하나 이상의 비디오들을 선택할 수도 있다. 다른 예로서, 프로세서는 선택된 오디오 녹음물들의 집계된 길이가 오디오 길이 선택기 (754) 에 대응하는 길이를 초과하지 않도록 하나 이상의 오디오 녹음물들 (예컨대, 음성 호들의 녹음물들) 을 선택할 수도 있다. 프로세서는 선택된 미디어 아이템들에 연관된 미디어 데이터의 집계된 파일 사이즈가 파일 사이즈 선택기 (756) 에 연관된 파일 사이즈를 초과하지 않도록 미디어 아이템들을 또한 선택할 수도 있다.
특정 실시형태에서, 프로세서는 선택된 미디어 아이템에 대한 유사도들에 기초하여 신뢰 레벨을 각각의 미디어 아이템에게 배정할 수도 있고, 프로세서는 사이즈 설정들이 충족되기까지 최고 신뢰 레벨들에 연관된 미디어 아이템들을 선택할 수도 있다. 신뢰 레벨들은 미디어 아이템들 및 선택된 미디어 아이템 간의 유사도 정도에 기초하여 배정될 수도 있고, 도 1 및 도 2를 참조하여 설명된 바와 같이, 메트릭들에 기초하여 결정될 수도 있다. 예를 들어, 프로세서는 화상 수 선택기 (750) 가 10 개의 화상들을 나타내는 경우 10 개의 최고 신뢰 레벨들에 연관된 10 개의 화상들을 선택할 수도 있다. 대체 실시형태에서, 프로세서는 신뢰 레벨들에 기초한 우선순위화 없이 선택된 미디어 아이템과 유사한 것으로 결정되는 제 1 의 10 개의 화상들을 선택할 수도 있다.
사용자 인터페이스 디바이스 (700) 는 확인 버튼 (760) 과 취소 버튼 (762) 을 또한 구비할 수도 있다. 버튼들 (760 및 762) 의 각각은 선택을 나타내는 사용자 입력에 응답할 수도 있다. 확인 버튼 (760) 은 사용자 인터페이스 디바이스 (700) 를 통해 디스플레이된 패키지형 모멘트 설정들의 수락을 유발할 수도 있다. 확인 버튼 (760) 의 선택은 부가적인 설정 화면들로 내비게이트하게 할 수도 있거나, 또는 패키지형 모멘트 데이터가 패키지형 모멘트 설정들에 따라 생성되게 할 수도 있다. 취소 버튼 (762) 은 패키지형 모멘트 데이터의 생성을 취소시킬 수도 있다.
도 8을 참조하면, 사용자 구성가능 패키지형 모멘트 설정들을 디스플레이하도록 동작 가능한 사용자 인터페이스 디바이스 (800) 의 제 2 특정 실시형태가 도시되어 있다. 사용자 인터페이스 디바이스 (800) 는 그래픽 사용자 인터페이스 (GUI) 를 통해 패키지형 모멘트 설정들을 디스플레이할 수도 있다. 특정 실시형태에서, 사용자 인터페이스 디바이스 (800) 는 도 1의 사용자 인터페이스 디바이스 (108) 또는 도 2의 사용자 인터페이스 디바이스 (208) 에 해당할 수도 있다. 프로세서 (예컨대, 도 1의 프로세서 (104), 도 2의 프로세서 (204), 및/또는 도 6의 프로세서 (604)) 가 패키지형 모멘트 설정들을 메모리, 이를테면 도 1의 메모리 (106), 도 2의 메모리 (206), 또는 도 6의 메모리 (606) 내에 저장하도록 구성될 수도 있다. 사용자 인터페이스 디바이스 (800) 는 터치 스크린 디스플레이를 포함할 수도 있다. 패키지형 모멘트 설정들은 사용자 입력에 기초하여 수정될 수도 있다.
사용자 인터페이스 디바이스 (800) 를 통해 디스플레이된 패키지형 모멘트 설정들은 패키지형 모멘트 데이터의 미디어 데이터에 대응하는 미디어 아이템들을 취출하기 위한 외부 소스들을 식별하는 데이터 소스 설정들을 포함할 수도 있다. 사용자 인터페이스 디바이스 (800) 는 선택된 미디어 아이템 (예컨대, 도 1의 제 1 이미지 (111)) 과 유사한 미디어 아이템들을 취출할 하나 이상의 디바이스들 또는 다른 소스들을 사용자가 지정하는 것을 가능하게 한다. 예를 들어, 프로세서는 데이터 소스 설정들에 따라 하나 이상의 디바이스들 또는 다른 소스들로부터 선택된 미디어 아이템과 유사한 것으로 결정된 특정 미디어 아이템을 취출하도록 구성될 수도 있다. 특정 실시형태에서, 데이터 소스 설정들은, 사용자 인터페이스 디바이스 (800) 를 통해 각각이 디스플레이될 수도 있는, 인근 네트워크들의 윈도우 (802), 네트워크 디바이스들의 윈도우 (810), 및 다른 소스들의 윈도우 (820) 와 연관될 수도 있다. 다른 실시형태들에서, 더 적거나 또는 더 많은 윈도우들이 사용자 인터페이스 디바이스 (800) 를 통해 디스플레이될 수도 있다.
특정 실시형태에서, 인근 네트워크들의 윈도우 (802) 는 네트워크 선택기 (804), 신뢰성 있는 디바이스들 선택기 (806), 및 모든 디바이스들 선택기 (808) 를 포함할 수도 있다. 다른 실시형태들에서, 인근 네트워크들의 윈도우 (802) 는 더 적거나 또는 더 많은 선택기들을 포함할 수도 있다. 네트워크 선택기 (804) 는 사용자가 취출될 미디어 아이템들을 위해 쿼리 (query) 될 하나 이상의 네트워크들을 선택하는 것을 가능하게 한다. 네트워크 선택기 (804) 는 선택 메커니즘을 포함할 수도 있다. 특정 실시형태에서, 선택 메커니즘은 화살표 또는 다른 버튼일 수도 있고, 도 7의 수신자 선택기 (742) 와 유사한 방식으로 동작할 수도 있다. 네트워크 선택기 (804) 는, 사용자 선택에 응답하여, 프로세서 및 사용자 인터페이스 디바이스 (800) 를 구비한 모바일 디바이스에 가장 가까운 그리고 액세스 가능한 네트워크들의 드롭다운 리스트를 제공할 수도 있다. 예를 들어, 하나 이상의 네트워크들은 모바일 디바이스의 네트워크 인터페이스를 사용하여 식별될 수도 있다. 하나 이상의 네트워크들은 무선 통신 (예컨대, "wi-fi") 네트워크들, 셀룰러 통신네트워크들, 블루투스 통신네트워크들, RF 통신네트워크들, 또는 그것들의 결합물들을, 비제한적 예들로서 포함할 수도 있다.
사용자는 부가적인 콘텐츠에 대해 쿼리하기 위해 네트워크들 중 하나 이상을 선택할 수도 있다. 도 8에 예시된 특정 예에서, 사용자는 네트워크 선택기 (804) 를 통해 "네트워크 1" (예컨대, 프로세서에 액세스가능한 특정 무선 네트워크) 을 선택할 수도 있다. 이 특정 예에서, 선택된 미디어 아이템과 유사한 부가적인 미디어 아이템이 "네트워크 1"의 특정 모바일 디바이스로부터 자동으로 취출될 수도 있다. 예시를 위하여, 모바일 디바이스 (예컨대, 프로세서) 는 패키지형 모멘트 기준들 (예컨대, 설정들) 을 나타내는 쿼리를 특정 모바일 디바이스로 전송할 수도 있고, 패키지형 모멘트 기준들을 충족시키는 미디어 아이템들을 요청할 수도 있다. 쿼리의 수신에 응답하여, 특정 모바일 디바이스는 선택된 네트워크 (예컨대, "네트워크 1") 를 통해 패키지형 모멘트 기준들을 충족시키는 미디어 아이템들을 모바일 디바이스에게 제공할 수도 있다.
부가적인 설정들은 신뢰성 있는 디바이스들 선택기 (806) 및 모든 디바이스들 선택기 (808) 를 통해 조정될 수도 있다. 신뢰성 있는 디바이스들 선택기 (806) 와 모든 디바이스들 선택기 (808) 는 선택 메커니즘을 포함할 수도 있고 도 7의 유사한 얼굴들 선택기 (702) 또는 유사한 오디오 선택기 (704) 와 유사한 방식으로 동작할 수도 있다. 신뢰성 있는 디바이스들 선택기 (806) 의 선택은 모바일 디바이스가 하나 이상의 네트워크들에 연관된 각각의 디바이스로 대신, 네트워크 선택기 (804) 에 대응하는 하나 이상의 네트워크들에서의 신뢰성 있는 디바이스들로 쿼리를 전송하게 할 수도 있다. 예를 들어, 모바일 디바이스는 모바일 디바이스와의 신뢰성 있는 네트워크의 부분인 하나 이상의 디바이스들에게, 또는 그 모바일 디바이스와 이전에 통신했던 또는 인증했던 하나 이상의 디바이스들에게 쿼리를 전송할 수도 있다. 대안으로, 모든 디바이스들 선택기 (808) 의 선택은 모바일 디바이스가 네트워크 선택기 (804) 에 대응하는 하나 이상의 네트워크들에 연관된 각각의 디바이스로 쿼리를 전송하게 할 수도 있다.
네트워크 디바이스들 윈도우 (810) 는 하나 이상의 디바이스들의 사용자 구성가능 지정을 나타낼 수도 있고, 프로세서는 하나 이상의 디바이스들에게 미디어 아이템들을 쿼리하도록 그리고 하나 이상의 디바이스들로부터 미디어 아이템들을 수신하도록 구성될 수도 있다. 디바이스들의 쿼리를 가능하게 하기 위해, 네트워크 디바이스들 윈도우 (810) 는 모바일 디바이스와 통신하도록 구성되는 하나 이상의 네트워크 디바이스들에 연관된 선택기들을 포함할 수도 있다. 네트워크 디바이스들은 모바일 디바이스와 통신하도록 또는 그 모바일 디바이스에 의해 제어되도록 구성되는 하나 이상의 어플라이언스들 또는 다른 디바이스들을 포함할 수도 있다. 특정 실시형태에서, 네트워크 디바이스들 윈도우 (810) 는 제 1 디바이스 (예컨대, 텔레비전) 선택기 (812), 제 2 디바이스 (예컨대, 오디오 시스템) 선택기 (814), 제 3 디바이스 (예컨대, 자동차) 선택기 (816), 및 제 4 디바이스 (예컨대, 오븐) 선택기 (818) 와 연관된다. 다른 실시형태들에서, 네트워크 디바이스들 윈도우 (810) 는 다른 네트워크 디바이스들에 연관된 더 적거나 또는 더 많은 선택기들을 포함할 수도 있다. 선택기들 (812~818) 은 선택 메커니즘 (예컨대, 체크 박스) 을 포함할 수도 있고 도 7의 유사한 얼굴들 선택기 (702) 또는 유사한 오디오 선택기 (704) 와 유사한 방식으로 동작할 수도 있다. 선택기들 (812~818) 의 선택은 모바일 디바이스가 대응하는 네트워크 디바이스들로부터 미디어 아이템들을 검색 및 취출하게 할 수도 있다. 예를 들어, 도 8에 예시된 바와 같이 제 1 디바이스 선택기 (812) 와 제 2 디바이스 선택기 (814) 가 선택되고 제 3 디바이스 선택기 (816) 와 제 4 디바이스 선택기 (818) 가 선택해제된 경우, 모바일 디바이스는 제 1 디바이스 (예컨대, 텔레비전) 및 제 2 디바이스 (예컨대, 오디오 시스템) 로부터 선택된 미디어 아이템과 유사한 미디어 아이템들을 취출할 수도 있다.
다른 소스들 윈도우 (820) 는 다른 소스들 선택기 (822) 를 포함할 수도 있다. 다른 실시형태들에서, 다른 소스들 윈도우 (820) 는 더 적거나 또는 더 많은 선택기들을 포함할 수도 있다. 다른 소스들 선택기 (822) 는 사용자가 패키지형 모멘트 데이터의 미디어 데이터에 대응하는 미디어 아이템들에 대한 콘텐츠 소스들로서 하나 이상의 다른 소스들을 선택하는 것을 가능하게 한다. 다른 소스들 선택기 (822) 는 선택 메커니즘을 포함할 수도 있다. 특정 실시형태에서, 선택 메커니즘은 화살표 또는 다른 버튼일 수도 있고, 도 7의 수신자 선택기 (742) 와 유사한 방식으로 동작할 수도 있다. 다른 소스들 선택기 (822) 는, 사용자 선택에 응답하여, 다른 콘텐츠 소스들의 드롭다운 리스트를 제공할 수도 있다. 사용자는 드롭다운 리스트를 통해 하나 이상의 다른 소스들을 선택할 수도 있다. 예를 들어, 도 8에 예시된 바와 같이, 사용자는 음악 식별 소스를 선택할 수도 있다. 음악 식별 소스가 선택되는 경우, 모바일 디바이스는 선택된 미디어 아이템에 연관된 하나 이상의 노래들을 결정하기 위해 음악 식별 소스에게 쿼리할 수도 있다. 하나 이상의 노래들의 식별에 응답하여, 하나 이상의 식별된 노래들을 구입하기 위한 링크를 표현하는 데이터가 패키지형 모멘트 데이터 내에 포함될 수도 있다. 다른 소스들이 다른 소스들 선택기 (822) 를 통해 선택되는 경우 그 다른 소스들은 미디어 아이템들 또는 데이터를 제공하기 위해 유사하게 쿼리될 수도 있다.
사용자 인터페이스 디바이스 (800) 는 확인 버튼 (830) 과 취소 버튼 (832) 을 또한 구비할 수도 있다. 버튼들 (830 및 832) 의 각각은 선택을 나타내는 사용자 입력에 응답할 수도 있다. 확인 버튼 (830) 및 취소 버튼 (832) 은 도 7의 확인 버튼 (760) 및 도 7의 취소 버튼 (762) 에 각각 대응할 수도 있고, 실질적으로 유사한 방식으로 동작할 수도 있다.
도 9를 참조하면, 패키지형 모멘트 데이터 정보를 디스플레이하도록 동작 가능한 사용자 인터페이스 디바이스 (900) 의 특정 실시형태가 도시되어 있다. 사용자 인터페이스 디바이스 (900) 는 그래픽 사용자 인터페이스 (GUI) 를 통해 패키지형 모멘트 데이터 정보를 디스플레이할 수도 있다. 특정 실시형태에서, 사용자 인터페이스 디바이스 (900) 는 도 1의 사용자 인터페이스 디바이스 (108) 또는 도 2의 사용자 인터페이스 디바이스 (208) 에 해당할 수도 있다. 패키지형 모멘트 데이터 정보는 패키지형 모멘트 데이터에 기초하여 생성될 수도 있다. 예를 들어, 패키지형 모멘트 데이터가 생성된 후, 패키지형 모멘트 데이터 정보는 사용자 인터페이스 디바이스 (900) 를 통해 생성되고 디스플레이될 수도 있다. 프로세서 (예컨대, 도 1의 프로세서 (104), 도 2의 프로세서 (204), 및/또는 도 6의 프로세서 (604)) 가 패키지형 모멘트 데이터 정보를 메모리, 이를테면 도 1의 메모리 (106), 도 2의 메모리 (206), 또는 도 6의 메모리 (606) 내에 저장하도록 구성될 수도 있다. 사용자 인터페이스 디바이스 (900) 는 터치 스크린 디스플레이를 포함할 수도 있다. 패키지형 모멘트 데이터 정보의 디스플레이는 사용자 입력에 기초하여 수정될 수도 있다.
사용자 인터페이스 디바이스 (900) 를 통해 디스플레이된 패키지형 모멘트 데이터 정보는 요약 데이터 및 수신자 리스트 데이터를 포함할 수도 있다. 특정 실시형태에서, 요약 데이터는 요약 윈도우 (summary window) (902) 를 통해 디스플레이될 수도 있고 수신자 리스트 데이터는 수신자 리스트 윈도우 (910) 를 통해 디스플레이될 수도 있다. 다른 실시형태들에서, 더 적거나 또는 더 많은 윈도우들이 사용자 인터페이스 디바이스 (900) 를 통해 디스플레이될 수도 있다.
요약 윈도우 (902) 는 패키지형 모멘트 데이터 표시자 (904) 및 사이즈 표시자 (906) 를 포함할 수도 있다. 패키지형 모멘트 데이터 표시자 (904) 는 패키지형 모멘트 데이터의 미디어 데이터에 대응하는 미디어 아이템들의 유형들과, 미디어 아이템의 각각의 유형에 대응하는 미디어 데이터의 총 사이즈의 백분율을 나타낼 수도 있다. 특정 실시형태에서, 패키지형 모멘트 데이터 표시자 (904) 는 파이형 도표를 포함할 수도 있다. 이 실시형태에서, 파이형 도표의 각각의 부분 (예컨대, 파이) 이 아이콘 또는 다른 식별자에 의해 표시된 미디어 유형에 대응한다. 파이형 도표의 각각의 부분의 사이즈가 식별된 미디어 유형에 대응하는 미디어 데이터의 총 사이즈의 백분율에 기초할 수도 있고 그러한 백분율을 나타낼 수도 있다. 예를 들어, 도 9에 예시된 패키지형 모멘트 데이터 표시자 (904) (예컨대, 파이형 도표) 는 이미지들, 비디오들, 음성 호들의 오디오 녹음물들, 이메일들, SMS 메시지들, 및 소셜 미디어 포스트들의 미디어 유형들로의 미디어 데이터의 분해 (breakdown) 를 디스플레이할 수도 있고, 그 부분들의 사이즈들은 미디어 유형들의 각각에 대응하는 미디어 데이터의 사이즈의 백분율을 나타낸다. 다른 예들에서, 패키지형 모멘트 데이터 표시자 (904) 는 패키지형 모멘트 데이터의 미디어 데이터에 포함되어 있는, 상이한 미디어 유형들, 또는 미디어 유형들의 상이한 양들에 기초하여 상이한 외관을 가질 수도 있다.
사이즈 표시자 (906) 는 사용자가 패키지형 모멘트 데이터에 연관된 사이즈 정보를 보는 것을 가능하게 할 수도 있다. 사이즈 표시자 (906) 는 선택 메커니즘을 포함할 수도 있다. 특정 실시형태에서, 선택 메커니즘은 화살표 또는 다른 버튼일 수도 있고, 도 7의 수신자 선택기 (742) 와 유사한 방식으로 동작할 수도 있다. 사이즈 표시자 (906) 는 사이즈 정보의 드롭다운 리스트를 제공할 수도 있다. 사용자는 선택 메커니즘을 통해 보기 위한 사이즈 정보의 하나의 특정 엘리먼트를 선택할 수도 있다. 도 9에 예시된 바와 같이, 사이즈 표시자 (906) 는 패키지형 모멘트 데이터의 미디어 데이터에 대응하는 화상들 (예컨대, 이미지들) 의 수를 디스플레이할 수도 있다. 패키지형 모멘트 데이터에 연관된 다른 사이즈 정보, 이를테면 비디오의 집계된 길이, 오디오의 집계된 길이, 이메일들의 단어들의 수, SMS 메시지들의 단어들의 수, 소셜 미디어 포스트들의 단어들의 수, 소셜 미디어 포스트들의 이미지들의 수, 및 패키지형 모멘트 데이터를 포함하는 파일의 집계된 파일 사이즈가, 사이즈 표시자 (906) 를 통해 보이기 위해 선택될 수도 있다.
수신자 리스트 윈도우 (910) 는 대응하는 데이터를 수신하도록 구성된 하나 이상의 수신자들 또는 그룹들 (예컨대, 사용자들의 그룹들) 을 식별할 수도 있다. 수신자 리스트 윈도우 (910) 는 하나 이상의 수신자들 또는 그룹들로 전송되도록 지정되는 패키지형 모멘트 데이터의 미디어 데이터에 대응하는 미디어 아이템들을 또한 나타내었을 수도 있다. 예를 들어, 수신자 리스트 윈도우 (910) 에서의 제 1 지정 (912) 은 미디어 데이터에 대응하는 모든 미디어 아이템들이 제 1 수신자 그룹 "가족"에게 전송될 것임을 나타낼 수도 있다. 다른 예로서, 수신자 리스트 윈도우 (910) 에서의 제 2 지정 (914) 이, 선택된 미디어 아이템 (예컨대, 패키지형 모멘트 데이터의 미디어 데이터에 대응하는 미디어 아이템들의 서브세트) 만이 "상사 " 및 "동료들"을 포함하는 제 2 수신자 그룹에게 전송될 것임을 나타낼 수도 있다. 특정 실시형태에서, 수신자들 또는 그룹들은 주소록에서 식별된 하나 이상의 사용자들 (예컨대, 당사자들) 또는 그룹들에 대응할 수도 있다. 지정들 (예컨대, 제 1 지정 (912) 및 제 2 지정 (914)) 은 도 7을 참조하여 설명된 바와 같이 그래픽 사용자 인터페이스를 통해 조정 가능할 수도 있다.
수신자 리스트 윈도우 (910) 는 제 1 수신자 그룹에게 전송될 패키지형 모멘트 데이터의 파일 사이즈를 나타내는 제 1 파일 사이즈 (916) 와, 제 2 수신자 그룹에게 전송될 패키지형 모멘트 데이터 (예컨대, 미디어 아이템들의 서브세트) 의 파일 사이즈를 나타내는 제 2 파일 사이즈 (918) 를 또한 포함할 수도 있다. 다른 실시형태에서, 수신자 리스트 윈도우 (910) 는 패키지형 모멘트 데이터의 미디어 아이템들을 받지 않도록 구성된 제 3 수신자 리스트와 데이터가 전송되지 않음을 나타내는 제 3 파일 사이즈를 포함할 수도 있다. 프로세서는 수신자 리스트 윈도우 (910) 에서의 지정들에 기초하여 패키지형 모멘트 데이터, 또는 그 부분을, 하나 이상의 수신자들 또는 그룹들의 멤버들에게 전송하도록 구성될 수도 있다.
사용자 인터페이스 디바이스 (900) 는 확인 버튼 (920) 과 취소 버튼 (922) 을 또한 구비할 수도 있다. 버튼들 (920 및 922) 의 각각은 선택을 나타내는 사용자 입력에 응답할 수도 있다. 확인 버튼 (920) 및 취소 버튼 (922) 은 도 7의 확인 버튼 (760) 및 도 7의 취소 버튼 (762), 또는 도 8의 확인 버튼 (830) 및 취소 버튼 (832) 에 각각 대응할 수도 있고, 실질적으로 유사한 방식으로 동작할 수도 있다.
도 10a 및 도 10b를 참조하면, 패키지형 모멘트 데이터의 미디어 데이터에 대응하는 미디어 아이템들을 디스플레이하도록 동작 가능한 사용자 인터페이스 디바이스 (1000) 의 특정 실시형태가 도시되어 있다. 사용자 인터페이스 디바이스 (1000) 는 그래픽 사용자 인터페이스 (GUI) 를 통해 미디어 아이템들을 디스플레이할 수도 있다. 특정 실시형태에서, 사용자 인터페이스 디바이스 (1000) 는 도 1의 사용자 인터페이스 디바이스 (108) 또는 도 2의 사용자 인터페이스 디바이스 (208) 에 해당할 수도 있다. 사용자 인터페이스 디바이스 (1000) 는 터치 스크린 디스플레이를 포함할 수도 있다. 사용자 인터페이스 디바이스 (1000) 는 탭들 (1002, 1004, 및 1006) 중 하나를 통해 선택된 제 1 미디어 유형에 연관된 미디어 아이템들을 디스플레이할 수도 있다. 예를 들어, 제 1 탭 (1002) 은 화상들 (예컨대, 이미지들) 과 연관될 수도 있으며, 제 2 탭 (1004) 은 비디오들과 연관될 수도 있고, 제 3 탭 (1006) 은 오디오, 이를테면 음성 호들의 오디오 녹음물들과 연관될 수도 있다. 다른 미디어 유형들에 연관된 부가적인 탭들은 다른 실시형태들에서 디스플레이될 수도 있거나, 또는 제 3 탭 (1006) 이 선택되는 경우 디스플레이될 수도 있다.
도 10a는 제 1 탭 (1002) (예컨대, 화상들 탭) 이 선택되는 경우의 사용자 인터페이스 디바이스 (1000) 를 예시한다. 사용자 인터페이스 디바이스 (1000) 는 패키지형 모멘트 데이터의 미디어 데이터에 대응할 수도 있는 이미지에 각각이 대응하는 다수의 이미지 아이콘들 (1010~1026) 의 디스플레이를 포함할 수도 있다. 이미지 아이콘들 (1010~1026) 의 각각은 사용자 입력에 기초하여 선택 또는 선택해제될 수도 있다.
하나 이상의 이미지 아이콘들 (1010~1026) 은 특정 이미지 아이콘의 선택에 응답하여 프로세서 (예컨대, 도 1의 프로세서 (104), 도 2의 프로세서 (204), 및/또는 도 6의 프로세서 (604)) 에 의해 선택될 수도 있다. 예를 들어, 제 1 이미지 아이콘 (1010) 은 선택된 미디어 아이템 (예컨대, 도 1의 제 1 이미지 (111)) 에 대응할 수도 있다. 사용자에 의한 제 1 이미지 아이콘 (1010) 의 선택에 응답하여, 선택의 표시가 제시될 수도 있다. 특정 실시형태에서, 제 1 이미지 아이콘 (1010) 의 테두리가 제 1 이미지 아이콘 (1010) 의 선택을 나타내기 위해 하이라이트되거나 또는 (예컨대, 굵은 선에 의해) 강조될 수도 있다. 다른 실시형태들에서, 제 1 이미지 아이콘 (1010) 의 테두리는 제 1 이미지 아이콘 (1010) 의 선택을 나타내기 위해 제 1 컬러 (예컨대, 흑색) 로부터 제 2 컬러 (예컨대, 적색) 로 변경될 수도 있다.
제 1 이미지 아이콘 (1010) (예컨대, 선택된 이미지) 의 선택에 응답하여, 프로세서는, 도 1을 참조하여 설명된 바와 같이, 하나 이상의 이미지들 및 선택된 이미지 간의 유사도들에 기초하여 하나 이상의 이미지들을 선택할 수도 있다. 예를 들어, 프로세서는 제 2 이미지 및 선택된 이미지 간의 유사도와 제 3 이미지 및 선택된 이미지 간의 유사도에 각각 기초하여 제 2 이미지 아이콘 (1018) 에 대응하는 제 2 이미지와 제 3 이미지 아이콘 (1022) 에 대응하는 제 3 이미지를 선택할 수도 있다. 제 2 이미지 아이콘 (1018) 의 테두리와 제 3 이미지 아이콘 (1022) 의 테두리는 프로세서에 의해 대응하는 이미지들의 선택을 나타내기 위해 하이라이트 또는 강조될 수도 있다.
특정 실시형태에서, 제 2 이미지 아이콘 (1018) 에 대응하는 제 2 이미지 및 제 3 이미지 아이콘 (1022) 에 대응하는 제 3 이미지는 사용자에 의해 선택해제될 수도 있다. 하나 이상의 이미지 아이콘들을 선택해제함으로써, 사용자는 패키지형 모멘트 데이터의 미디어 데이터에 대응하도록 선택된 미디어 아이템들의 사용자 지정 서브 세트를 선택할 수도 있다. 다른 실시형태들에서, 제 2 이미지 아이콘 (1018) 과 제 3 이미지 아이콘 (1022) 은 제 1 이미지 아이콘 (1010) 과는 상이한 방식으로 하이라이트 또는 강조될 수도 있고, 사용자가 제 2 이미지 아이콘 (1018) 및 제 3 이미지 아이콘 (1022) 을 선택한다면, 제 2 이미지 아이콘 (1018) 에 대응하는 제 2 이미지 및 제 3 이미지 아이콘 (1022) 에 대응하는 제 3 이미지는 패키지형 모멘트 데이터에 추가될 수도 있다.
사용자 인터페이스 디바이스 (1000) 는 파일 사이즈 (1030) 의 표시 및 화상들의 수 (1032) 를 또한 포함할 수도 있다. 파일 사이즈 (1030) 는 선택된 미디어 아이템들 (예컨대, 각각, 제 1 이미지, 제 2 이미지, 및 제 1 이미지 아이콘 (1010) 에 대응하는 제 3 이미지, 제 2 이미지 아이콘 (1018), 및 제 3 이미지 아이콘 (1022) 의 각각) 에 기초하여 패키지형 모멘트 데이터를 포함하는 파일의 파일 사이즈를 나타낼 수도 있다. 이미지 아이콘들이 선택 또는 선택해제될 때, 파일 사이즈 (1030) 는 그에 따라 수정될 수도 있다. 화상들의 수 (1032) 는 선택된 화상들의 수를 나타낼 수도 있다. 예를 들어, 제 1 이미지 아이콘 (1010) 에 대응하는 제 1 이미지, 제 2 이미지 아이콘 (1018) 에 대응하는 제 2 이미지, 및 제 3 이미지 아이콘 (1022) 에 대응하는 제 3 이미지가 선택되는 경우, 화상들의 수 (1032) 는 3 개의 화상들이 선택됨을 나타낼 수도 있다. 이미지 아이콘들이 선택 또는 선택해제될 때, 화상들의 수 (1032) 는 그에 따라 수정될 수도 있다.
사용자 인터페이스 디바이스 (1000) 는 확인 버튼 (1040) 과 취소 버튼 (1042) 을 또한 구비할 수도 있다. 버튼들 (1040 및 1042) 의 각각은 선택을 나타내는 사용자 입력에 응답할 수도 있다. 확인 버튼 (1040) 의 선택은 프로세서가 선택된 이미지 아이콘들 (예컨대, 제 1 이미지 아이콘 (1010), 제 2 이미지 아이콘 (1018), 및 제 3 이미지 아이콘 (1022)) 에 기초하여 패키지형 모멘트 데이터를 생성하게 할 수도 있다. 취소 버튼 (1042) 의 선택은 프로세서가 패키지형 모멘트 데이터의 생성을 취소하게 할 수도 있다.
도 10b는 제 2 탭 (1004) (예컨대, 비디오 탭) 이 선택되는 경우의 사용자 인터페이스 디바이스 (1000) 를 예시한다. 예를 들어, 제 1 이미지 아이콘 (1010) 을 선택하고, 제 2 이미지 아이콘 (1018) 및 제 3 이미지 아이콘 (1022) 의 선택을 확인한 후, 사용자는 비디오들의 선택을 가능하게 하기 위해 제 2 탭 (1004) 을 선택할 수도 있다. 제 2 탭 (1004) 의 선택 후, 사용자 인터페이스 디바이스 (1000) 는 패키지형 모멘트 데이터에 추가될 수도 있는 비디오에 각각이 대응하는 다수의 비디오 아이콘들 (1050~1066) 의 디스플레이를 포함할 수도 있다. 비디오 아이콘들 (1010~1026) 의 각각은 사용자 입력에 기초하여 선택 또는 선택해제될 수도 있다.
하나 이상의 비디오 아이콘들 (1050~1066) 은 이미지 아이콘들 (1010~1026) 과 유사한 방식으로 특정 이미지 아이콘의 선택에 응답하여 프로세서에 의해 선택될 수도 있다. 도 10a에 도시된 바와 같은 제 1 이미지 아이콘 (1010) (예컨대, 선택된 이미지) 의 선택에 응답하여, 프로세서는, 도 2를 참조하여 설명된 바와 같이, 하나 이상의 비디오 아이콘들에 대응하는 하나 이상의 비디오들과 선택된 이미지 간의 유사도들에 기초하여 하나 이상의 비디오 아이콘들을 선택할 수도 있다. 예를 들어, 프로세서는 제 1 비디오 및 선택된 이미지 간의 유사도와 제 2 비디오 및 선택된 이미지 간의 유사도에 각각 기초하여 제 1 비디오 아이콘 (1058) 에 대응하는 제 1 비디오 및 제 2 비디오 아이콘 (1062) 에 대응하는 제 2 비디오를 선택할 수도 있다. 제 1 비디오 아이콘 (1058) 의 테두리 및 제 2 비디오 아이콘 (1062) 의 테두리는 제 2 이미지 아이콘 (1018) 및 제 3 이미지 아이콘 (1022) 과 유사한 방식으로, 프로세서에 의해 대응하는 이미지들의 선택을 나타내기 위해 하이라이트 또는 강조될 수도 있다.
하나 이상의 비디오들의 선택에 응답하여, 파일 사이즈 (1030) 는 업데이트될 수도 있고 비디오들의 길이 (1072) 는 디스플레이될 수도 있다. 파일 사이즈 (1030) 는 하나 이상의 선택된 비디오들 (예컨대, 각각 제 1 비디오 아이콘 (1058) 및 제 2 비디오 아이콘 (1062) 에 대응하는 제 1 비디오 및 제 2 비디오) 의 파일 사이즈들에 기초하여 업데이트될 수도 있다. 비디오 아이콘들이 선택 또는 선택해제될 때, 파일 사이즈 (1030) 는 그에 따라 수정될 수도 있다. 비디오들의 길이 (1072) 는 선택된 비디오의 집계된 길이를 나타낼 수도 있다. 예를 들어, 제 1 비디오 아이콘 (1058) 에 대응하는 제 1 비디오 및 제 2 비디오 아이콘 (1062) 에 대응하는 제 2 비디오가 선택되는 경우, 비디오의 길이 (1072) 는 1 분의 비디오가 선택됨을 나타낼 수도 있다. 덧붙여, 파일 사이즈 (1030) 는 제 1 이미지, 제 2 이미지, 제 3 이미지, 제 1 비디오, 및 제 2 비디오의 파일 사이즈에 기초하여 6 mb를 나타낼 수도 있다. 비디오 아이콘들이 선택 또는 선택해제될 때, 비디오의 길이 (1072) 는 그에 따라 수정될 수도 있다.
사용자 인터페이스 디바이스 (1000) 는 제 1 탭 (1002) 및 제 2 탭 (1004) 을 참조하여 설명된 바와 유사한 방식으로 다른 탭들에 대응하는 아이콘들을 또한 디스플레이할 수도 있다. 예를 들어, 사용자 인터페이스 디바이스 (1000) 는 제 3 탭 (1006) 의 선택에 응답하여 음성 호들의 오디오 녹음물들에 대응하는 하나 이상의 오디오 아이콘들을 디스플레이할 수도 있다. 오디오 아이콘들 중 하나 이상은 하나 이상의 오디오 아이콘들에 대응하는 오디오 녹음물들 및 선택된 미디어 아이템 간의 유사도들에 기초하여 프로세서에 의해 선택될 수도 있고, 사용자는 사용자 입력을 통해 하나 이상의 오디오 녹음물들의 선택을 확인 또는 수정할 수도 있다. 사용자 인터페이스 디바이스 (1000) 는 다른 탭들 (미도시) 의 다른 미디어 유형들에 대해 유사한 방식으로 동작할 수도 있다.
확인 버튼 (1040) 의 선택은 프로세서가 도 10a의 선택된 이미지 아이콘들 (예컨대, 제 1 이미지 아이콘 (1010), 제 2 이미지 아이콘 (1018), 및 제 3 이미지 아이콘 (1022)) 및 도 10b의 선택된 비디오 아이콘들 (예컨대, 제 1 비디오 아이콘 (1058) 및 제 2 비디오 아이콘 (1062)) 에 기초하여 패키지형 모멘트 데이터를 생성하게 할 수도 있다. 취소 버튼 (1042) 의 선택은 프로세서가 패키지형 모멘트 데이터의 생성을 취소하게 할 수도 있다.
도 11을 참조하면, 유사한 특징에 기초하여 미디어 아이템을 선택하는 방법 (1100) 의 특정 실시형태의 흐름도가 도시되어 있다. 예시적인 실시형태에서, 그 방법 (1100) 은 도 1의 시스템 (100), 도 2의 시스템 (200), 도 6의 시스템 (600) 에 의해, 그리고/또는 도 3의 사용자 인터페이스 디바이스 (300), 도 4의 사용자 인터페이스 디바이스 (400), 도 5의 사용자 인터페이스 디바이스 (500), 도 10a 및 도 10b의 사용자 인터페이스 디바이스 (1000), 또는 그것들의 임의의 조합에 연계하여 수행될 수도 있다.
방법 (1100) 은, 1102에서는, 전자 디바이스의 프로세서에서, 전자 디바이스로부터 원격 디바이스로 전송될 미디어 아이템의 사용자 선택을 수신하는 단계를 포함한다. 예를 들어, 도 1에서, 프로세서 (104) 는 전자 디바이스 (102) 로부터 제 1 이미지 (111) 를 전송하기 위한 사용자 선택을 사용자 인터페이스를 통해 수신할 수도 있다. 다른 예로서, 도 2의 프로세서 (204) 는 전자 디바이스 (202) 로부터 제 1 비디오 (211) 를 전송하기 위한 사용자 선택을 수신할 수도 있다. 비제한적 예들로서, 원격 디바이스는 제 2 전자 디바이스 (예컨대, 모바일 폰, 개인 정보 단말기, 컴퓨터 등), 전자 메일 주소에 대응하는 서버, 소셜 미디어 웹사이트에 대응하는 서버 등을 포함할 수도 있다.
다른 미디어 아이템은, 1104에서, 미디어 아이템 및 다른 미디어 아이템을 원격 디바이스로 전송하기 전에 선택된 미디어 아이템에 대한 다른 미디어 아이템의 유사도에 기초하여 선택될 수도 있다. 예를 들어, 도 1에서, 프로세서 (104) 는 제 1 이미지 (111) 의 메트릭들 및 제 2 이미지 (112) 의 메트릭들 간의 유사도 레벨 (예컨대, F12) 이 임계값을 충족시키는 경우 제 2 이미지 (112) 가 제 1 이미지 (111) 와 유사하다고 결정할 수도 있다. 예를 들어, 제 2 이미지 (112) 와 제 1 이미지 (111) 는 유사한 GPS 좌표들, 얼굴 특징들 (예컨대, 유사한 얼굴들) 에 대응하는 유사한 데이터를 가질 수도 있고, 유사한 시간에 캡처될 수도 있다. 덧붙여, 도 2에서, 프로세서 (204) 는 제 1 비디오 (211) 의 메트릭들 및 제 2 비디오 (212) 의 메트릭들 간의 유사도 레벨 (예컨대, F12) 이 임계값을 충족시키는 경우 제 2 비디오 (212) 가 제 1 비디오 (211) 와 유사하다고 결정할 수도 있다.
특정 실시형태에서, 방법 (1100) 은 전송될 다른 미디어 아이템의 사용자 선택, 또는 사용자 확인을 가능하게 하기 위해 전자 디바이스의 사용자 인터페이스 디바이스를 통해 다른 미디어 아이템의 표현을 제공하는 단계를 포함할 수도 있다. 예를 들어, 도 3에서, 제 2 이미지 (112) 는 사용자 인터페이스 디바이스 (300) 를 통해 사용자에게 3차원 표현으로 제공될 수도 있다. 사용자는 손가락 접촉 (350) 을 사용하여 공유 선택기 (348) 를 활성화시킴으로써 제 2 이미지 (112) 를 전송할 수도 있다.
다른 특정 실시형태에서, 전자 디바이스는 다른 미디어 아이템의 사용자 선택을 수신하는 일 없이 미디어 아이템 및 다른 미디어 아이템을 전송할 수도 있다. 예를 들어, 도 1의 전자 디바이스 (102) 는 제 2 이미지 (112) 의 사용자 선택을 수신하는 일 없이 제 1 이미지 (111) 및 제 2 이미지 (112) 를 전송할 수도 있다.
특정 실시형태에서, 유사도는 제 1 미디어 아이템의 제 1 특징들 대 제 2 미디어 아이템의 제 2 특징들의 비교를 통해 결정된다. 제 1 특징들과 제 2 특징들을 비교하는 것은 제 1 미디어 아이템에 대응하는 제 1 특징 벡터와 제 2 미디어 아이템에 대응하는 제 2 특징 벡터 간의 차이를 결정하는 것을 포함할 수도 있다. 예를 들어, 도 1에서, 프로세서 (104) 는 제 1 특징 벡터 (121) 와 제 2 특징 벡터 (122) 를 비교하기 위해 F12 = w1*Norm1[g(IMG1) - g(IMG2)] + w2*Norm2[t(IMG1) - t(IMG2)] + w3*Norm3[f(IMG1) - f(IMG2)]와 같은 알고리즘을 사용할 수도 있는데, 여기서 F12는 제 1 이미지 (111) 의 메트릭들 및 제 2 이미지 (112) 의 메트릭들 간의 유사도 레벨이며, w1은 지리적 로케이션에 대응하는 메트릭의 제 1 가중치이며, w2는 시간에 대응하는 메트릭의 제 2 가중치이고, w3는 검출된 얼굴 특징들에 대응하는 메트릭의 제 3 가중치이다. 프로세서 (104) 는 제 1 이미지 (111) 의 메트릭들 및 제 2 이미지 (112) 의 메트릭들 간의 유사도 레벨 (예컨대, F12) 이 임계값을 충족시키는 경우 제 2 이미지 (112) 가 제 1 이미지 (111) 와 유사하다고 결정할 수도 있다.
특정 실시형태에서, 방법 (1100) 은 이미지들의 콜렉션을 생성하기 위해 제 1 이미지 파일과 제 2 이미지 파일을 클러스터화하는 단계를 포함한다. 예를 들어, 도 1에서, 프로세서 (104) 는 제 1 이미지 (111) 와 제 2 이미지 (112), 제 5 이미지 (115), 제 6 이미지 (116), 또는 그것들의 조합을 클러스터화하여, 이미지들의 콜렉션을 생성할 수도 있다. 다른 특정 실시형태에서, 방법 (1100) 은 연접된 비디오를 생성하기 위해 제 1 비디오 파일과 제 2 비디오 파일을 연접시키는 단계를 포함한다. 예를 들어, 도 2에서, 프로세서 (204) 는 제 1 및 제 2 비디오 (211, 212) 를 포함하는 하나의 비디오 파일을 생성하기 위해 제 1 비디오 (211) 와 제 2 비디오 (212) 를 연접시킬 수도 있다.
도 12를 참조하면, 유사한 특징에 기초하여 이미지를 선택하는 방법 (1200) 의 특정 실시형태가 도시되어 있다. 예시적인 실시형태에서, 그 방법 (1200) 은 도 1의 시스템 (100), 도 2의 시스템 (200), 도 6의 시스템 (600) 에 의해, 그리고/또는 도 3의 사용자 인터페이스 디바이스 (300), 도 4의 사용자 인터페이스 디바이스 (400), 도 5의 사용자 인터페이스 디바이스 (500), 도 10a 및 도 10b의 사용자 인터페이스 디바이스 (1000), 또는 그것들의 임의의 조합에 연계하여 수행될 수도 있다.
방법 (1200) 은, 1202에서는, 전자 디바이스의 프로세서에서, 제 1 이미지의 캡처에 응답하여 제 1 이미지의 제 1 특징 벡터를 생성하는 단계를 포함한다. 예를 들어, 도 1에서, 프로세서 (104) 는 이미지 센서가 제 1 이미지 (111) 를 캡처하는 것에 응답하여 제 1 이미지 (111) 의 제 1 특징 벡터 (121) 를 생성할 수도 있다. 제 1 특징 벡터 (121) 는 제 1 이미지 (111) 의 메트릭들의 값들을 포함할 수도 있다.
제 1 특징 벡터는, 1204에서, 전자 디바이스에 저장된 제 2 이미지의 제 2 특징 벡터와 비교될 수도 있다. 예를 들어, 도 1에서, 프로세서 (104) 는 제 1 특징 벡터 (121) 와 메모리 (106) 에 저장된 제 2 특징 벡터 (122) 를 비교할 수도 있다. 제 2 특징 벡터 (122) 는 제 2 이미지 (112) 의 메트릭들의 값들을 포함할 수도 있다. 특정 실시형태에서, 프로세서 (104) 는 제 1 특징 벡터 (121) 와 제 2 특징 벡터 (122) 를 비교하기 위해 F12 = w1*Norm1[g(IMG1) - g(IMG2)] + w2*Norm2[t(IMG1) - t(IMG2)] + w3*Norm3[f(IMG1) - f(IMG2)]와 같은 알고리즘을 사용할 수도 있는데, 여기서 F12는 제 1 이미지 (111) 의 메트릭들의 값들 및 제 2 이미지 (112) 의 메트릭들의 값들 간의 유사도 레벨이며, w1은 지리적 로케이션에 대응하는 메트릭의 제 1 가중치이며, w2는 시간에 대응하는 메트릭의 제 2 가중치이고, w3는 검출된 얼굴 특징들에 대응하는 메트릭의 제 3 가중치이다.
제 1 이미지의 메트릭들의 값들 및 제 2 이미지의 메트릭들의 값들 간의 유사도 레벨이, 1206에서, 임계값과 비교될 수도 있다. 예를 들어, 도 1에서, 프로세서 (104) 는, 1204에서, 비교에 기초하여 제 1 이미지 (111) 의 메트릭들의 값들 및 제 2 이미지 (112) 의 메트릭들의 값들 간의 유사도 레벨이 임계값을 충족시키는지의 여부를 결정할 수도 있다. 제 2 이미지는, 1208에서, 유사도 레벨이 임계값을 충족시킴에 응답하여, 제 1 이미지와 유사한 것으로 결정될 수도 있다. 예를 들어, 도 1에서, 프로세서 (104) 는 제 1 이미지 (111) 의 메트릭들 및 제 2 이미지 (112) 의 메트릭들 간의 유사도 레벨 (예컨대, F12) 이 임계값을 충족시키는 경우 제 2 이미지 (112) 가 제 1 이미지 (111) 와 유사하다고 결정할 수도 있다.
특정 실시형태에서, 방법 (1200) 은, 1210에서, 이미지들의 콜렉션을 생성하기 위해 제 2 이미지와 제 1 이미지를 클러스터화하는 단계를 포함한다. 예를 들어, 프로세서 (104) 는 이미지들의 콜렉션을 생성하기 위해 제 1 이미지 (111) 와 제 2 이미지 (112) 를 클러스터화할 수도 있다. 특정 실시형태에서, 방법 (1200) 은 제 1 이미지와, 유사한 이미지들을 클러스터화하기 위한 요청을 생성하는 단계를 포함한다. 이미지들의 콜렉션은 요청에 대한 응답에 기초하여 생성될 수도 있다.
특정 실시형태에서, 방법 (1200) 은 제 1 이미지를 캡처하기 전 제 1 시구간에서 제 1 오디오를 캡처하는 단계와 제 1 이미지를 캡처한 후 제 2 시구간에서 제 1 오디오를 캡처하는 단계를 포함한다. 예를 들어, 도 1에서, 전자 디바이스 (102) 는 제 1 이미지 (111) 를 캡처하기 전의 시구간 (예컨대, 5 초) 동안 제 1 오디오를 캡처할 수도 있고, 전자 디바이스 (102) 는 제 1 이미지 (111) 를 캡처한 후의 시구간 (예컨대, 5 초) 동안 제 2 오디오를 캡처할 수도 있다. 특정 실시형태에서, 제 1 특징 벡터 (121) 에서의 메트릭들 중 적어도 하나는 제 1 오디오의 오디오 품질들에 대응할 수도 있고, 제 1 특징 벡터 (121) 에서의 메트릭들 중 적어도 하나는 제 2 오디오의 오디오 품질들에 대응할 수도 있다. 제 1 특징 벡터 (121) 에 대한 메트릭들로서 사용될 수도 있는 오디오 품질들의 비제한적 예들은 캡처된 오디오의 피치, 오디오 (예컨대, 데시벨) 레벨, 위상, 또는 음색 (timbre) 을 포함한다.
도 13을 참조하면, 유사한 특징에 기초하여 비디오를 선택하는 방법 (1300) 의 특정 실시형태가 도시되어 있다. 예시적인 실시형태에서, 그 방법 (1300) 은 도 1의 시스템 (100), 도 2의 시스템 (200), 도 6의 시스템 (600) 에 의해, 그리고/또는 도 3의 사용자 인터페이스 디바이스 (300), 도 4의 사용자 인터페이스 디바이스 (400), 도 5의 사용자 인터페이스 디바이스 (500), 도 10a 및 도 10b의 사용자 인터페이스 디바이스 (1000), 또는 그것들의 임의의 조합에 연계하여 수행될 수도 있다.
방법 (1300) 은, 1302에서는, 전자 디바이스의 프로세서에서, 제 1 비디오의 캡처에 응답하여 제 1 비디오의 제 1 특징 벡터를 생성하는 단계를 포함한다. 예를 들어, 도 2에서, 프로세서 (204) 는 모션 이미지 센서가 제 1 비디오 (211) 를 캡처하는 것에 응답하여 제 1 비디오 (211) 의 제 1 특징 벡터 (221) 를 생성할 수도 있다. 제 1 특징 벡터 (221) 는 제 1 비디오 (211) 의 메트릭들의 값들을 포함할 수도 있다.
제 1 특징 벡터는, 1304에서, 전자 디바이스에 저장된 제 2 비디오의 제 2 특징 벡터와 비교될 수도 있다. 예를 들어, 도 2에서, 프로세서 (204) 는 제 2 특징 벡터 (221) 와 메모리 (206) 에 저장된 제 2 특징 벡터 (222) 를 비교할 수도 있다. 제 2 특징 벡터 (222) 는 제 2 비디오 (212) 의 메트릭들의 값들을 포함할 수도 있다. 특정 실시형태에서, 프로세서 (204) 는 제 1 특징 벡터 (221) 와 제 2 특징 벡터 (222) 를 비교하기 위해 F12 = w1*Norm1[g(IMG1) - g(IMG2)] + w2*Norm2[t(IMG1) - t(IMG2)] + w3*Norm3[f(IMG1) - f(IMG2)]와 같은 알고리즘을 사용할 수도 있는데, 여기서 F12는 제 1 비디오 (211) 의 메트릭들의 값들 및 제 2 비디오 (212) 의 메트릭들의 값들 간의 유사도 레벨이며, w1은 지리적 로케이션에 대응하는 메트릭의 제 1 가중치이며, w2는 시간에 대응하는 메트릭의 제 2 가중치이고, w3는 검출된 얼굴 특징들에 대응하는 메트릭의 제 3 가중치이다.
제 1 비디오의 메트릭들의 값들 및 제 2 비디오의 메트릭들의 값들 간의 유사도 레벨이, 1306에서, 임계값과 비교될 수도 있다. 예를 들어, 도 2에서, 프로세서 (204) 는, 1304에서, 비교에 기초하여 제 1 비디오 (211) 의 메트릭들의 값들 및 제 2 비디오 (212) 의 메트릭들의 값들 간의 유사도 레벨이 임계값을 충족시키는지의 여부를 결정할 수도 있다. 제 2 비디오는, 1308에서, 유사도 레벨이 임계값을 충족시킴에 응답하여, 제 1 비디오와 유사한 것으로 결정될 수도 있다. 예를 들어, 도 2에서, 프로세서 (204) 는 제 1 비디오 (211) 의 메트릭들 및 제 2 비디오 (212) 의 메트릭들 간의 유사도 레벨 (예컨대, F12) 이 임계값을 충족시키는 경우 제 2 비디오 (212) 가 제 1 비디오 (211) 와 유사하다고 결정할 수도 있다.
특정 실시형태에서, 방법 (1300) 은, 1310에서, 연접된 비디오를 생성하기 위해 제 2 비디오와 제 1 비디오를 연접시키는 단계를 포함한다. 예를 들어, 프로세서 (204) 는 연접된 비디오를 생성하기 위해 제 1 비디오 (211) 와 제 2 비디오 (212) 를 연접시킬 수도 있다. 특정 실시형태에서, 방법 (1300) 은 제 1 비디오 (211) 와, 유사한 비디오들을 연접시키기 위한 요청을 생성하는 단계를 포함한다. 연접된 비디오는 그 요청에 응답하여 생성될 수도 있다.
도 14를 참조하면, 빈번하게 사용되는 메트릭들에 기초하여 이미지를 선택하는 방법 (1400) 의 특정 실시형태가 도시되어 있다. 예시적인 실시형태에서, 그 방법 (1400) 은 도 1의 시스템 (100), 도 2의 시스템 (200), 도 6의 시스템 (600) 에 의해, 그리고/또는 도 3의 사용자 인터페이스 디바이스 (300), 도 4의 사용자 인터페이스 디바이스 (400), 도 5의 사용자 인터페이스 디바이스 (500), 도 10a, 도 10b의 사용자 인터페이스 디바이스 (1000), 또는 그것들의 임의의 조합에 연계하여 수행될 수도 있다.
방법 (1400) 은, 1402에서는, 이미지 센서를 포함하는 모바일 디바이스에서, 이미지 센서를 통한 제 1 이미지의 캡처에 응답하여 제 1 이미지의 메트릭들을 생성하는 단계를 포함한다. 예를 들어, 도 1에서, 프로세서 (104) 는 이미지 센서가 제 1 이미지 (111) 를 캡처하는 것에 응답하여 제 1 이미지 (111) 의 제 1 특징 벡터 (121) 를 생성할 수도 있다. 제 1 특징 벡터 (121) 는 제 1 이미지 (111) 의 메트릭들을 식별할 수도 있다. 제 1 이미지 (111) 의 각각의 메트릭은 제 1 이미지 (111) 의 특정 특성에 대응할 수도 있다. 예를 들어, 메트릭이 제 1 이미지 (111) 의 지리적 로케이션, 제 1 이미지 (111) 가 캡처되었던 시간, 제 1 이미지 (111) 의 컬러 성분들, 제 1 이미지 (111) 에서의 에지 성분들, 제 1 이미지 (111) 에서의 얼굴들, 제 1 이미지 (111) 에서의 개체들, 제 1 이미지 (111) 가 캡처되었을 때 전자 디바이스 (102) 에서 검출된 무선 네트워크 강도, 제 1 이미지 (111) 가 캡처되었을 때 전자 디바이스 (102) 가 가리키고 있었던 방향, 제 1 이미지 (111) 가 캡처되었기 전 및/또는 후의 오디오 품질들 등에 해당할 수도 있다.
특정 메트릭의 가중치가, 1404에서 결정될 수도 있다. 예를 들어, 도 1에서, 프로세서 (104) 는 특정 메트릭에 대한 가중치를 결정할 수도 있다. 가중치는 특정 메트릭의 유사한 값들을 갖는 이미지들을 유사한 이미지들로서 (예컨대, 그룹으로서) 분류하는 이력적 빈도에 기초할 수도 있다. 예를 들어, 사용자가 지리적 로케이션에 기초하여 이미지들을 빈번하게 그룹화하면, 지리적 로케이션에 대응하는 메트릭이 비교적 무거운 가중치 (예컨대, 높은 값) 를 가질 수도 있다. 대안으로, 이미지가 캡처될 때 전자 디바이스 (102) 가 가리키는 방향 (예컨대, 북쪽, 동쪽, 남쪽, 또는 서쪽) 에 기초하여 사용자가 이미지들을 드물게 그룹화한다면, 그 방향에 대응하는 메트릭이 상대적으로 가벼운 가중치 (예컨대, 낮은 값) 를 가질 수도 있다. 특정 실시형태에서, 사용자는 각각의 메트릭이 유사한 이미지들을 결정하기 위해 사용되는지의 여부, 그렇게 사용되는 정도를 선택할 수도 있다.
제 1 이미지와 유사한 적어도 하나의 다른 이미지가, 1406에서, 가중치가 임계값을 충족시킨다는 결정에 응답하여 특정 메트릭에 기초하여 결정될 수도 있다. 예를 들어, 도 1에서, 사용자가 유사한 지리적 로케이션을 갖는 이미지들을 빈번하게 그룹화한다고 프로세서 (104) 가 결정하면, 프로세서 (104) 는 적어도 하나의 다른 이미지를 결정하기 위해 지리적 로케이션에 대응하는 메트릭을 무겁게 가중할 수도 있다.
특정 실시형태에서, 미디어 아이템들의 콜렉션이 제 1 미디어 아이템의 캡처에 응답하여 메트릭들의 그룹에 기초하여 생성될 수도 있다. 예를 들어, 도 1에서, 프로세서 (104) 는 이미지 센서가 제 1 이미지 (111) 를 캡처함에 응답하여 미디어 아이템들의 콜렉션 (예컨대, 제 2 이미지 (112), 제 5 이미지 (115), 및 제 6 이미지 (116)) 을 생성할 수도 있다. 메트릭들의 그룹은 미디어 아이템들이 서로 유사한지의 여부를 결정하는데 사용되는 특정 메트릭들을 포함할 수도 있다. 예를 들어, 그 메트릭들의 그룹은 지리적 로케이션에 대응하는 메트릭, 캡처 시간에 대응하는 메트릭, 및 얼굴 특징 인식에 대응하는 메트릭을 포함할 수도 있다.
시스템이 사용자 선호도들을 "학습"함에 따라 각각의 메트릭에 대한 가중치들은 사용자 선택들의 이력에 기초하여 업데이트될 수도 있다. 예를 들어, 프로세서 (104) 는 제 6 이미지 (116) 및 제 5 이미지 (115) 가 사용자를 통해 선택되었다는 표시를 사용자 인터페이스 디바이스 (108) 로부터 수신할 수도 있다. 프로세서 (104) 는 선택된 미디어 아이템들 (예컨대, 제 6 이미지 (116) 및 제 5 이미지 (115)) 의 메트릭들과 제 1 미디어 아이템 (예컨대, 제 1 이미지 (111)) 의 메트릭들을 비교할 수도 있다. 예를 들어, 프로세서 (104) 는 제 1 미디어 아이템 및 선택된 미디어 아이템들 간의 어떤 메트릭들이 유사한 값들을 갖는지와 어떤 메트릭들이 서로 동떨어진 값들을 갖는지를 결정할 수도 있다. 특정 실시형태에서, 프로세서 (104) 는 선택된 미디어 아이템들 (예컨대, 제 6 이미지 (116) 및 제 5 이미지 (115)) 과 제 1 미디어 아이템 (예컨대, 제 1 이미지 (111)) 을 비교하는 경우 캡처 시간에 대응하는 메트릭이 서로 동떨어진 값들을 갖는다고 결정할 수도 있다. 덧붙여서, 프로세서 (104) 는 선택된 미디어 아이템들과 제 1 미디어 아이템을 비교하는 경우 지리적 로케이션에 대응하는 메트릭 및 얼굴 인식에 대응하는 메트릭이 유사한 값들을 갖는다고 결정할 수도 있다.
메트릭들이 유사하다는 결정에 응답하여, 프로세서 (104) 는 각각의 메트릭에 대응하는 가중치들을 업데이트할 수도 있다. 유사한 값들을 갖는 메트릭들에 대한 가중치들은 증가될 수도 있는 반면 서로 동떨어진 값들을 갖는 메트릭들에 대한 가중치들은 감소될 수도 있다. 예를 들어, 특징 벡터들을 비교하기 위한 알고리즘 (즉, F12 = w1*Norm1[g(IMG1) - g(IMG2)] + w2*Norm2[t(IMG1) - t(IMG2)] + w3*Norm3[f(IMG1) - f(IMG2)]) 에 관해, 프로세서 (104) 는 지리적 로케이션에 대응하는 제 1 가중치 (w1) 의 값을 증가시키며, 시간에 대응하는 제 2 가중치 (w2) 의 값을 감소시키고, 얼굴 특징 인식에 대응하는 제 3 가중치 (w3) 의 값을 증가시킬 수도 있다. 따라서, 장래에, 시스템 (100) 은 높은 우선순위를 갖는 것으로서 (사용자 선택들에 기초하여) 이력적으로 나타내어진 메트릭들에 기초하여 미디어 아이템들을 "공격적으로" 제안 (예컨대, 미디어 아이템들의 콜렉션들을 생성) 할 수도 있다. 예를 들어, 이미지 센서가 다른 이미지를 캡처함에 응답하여, 프로세서 (104) 는 캡처된 이미지와 유사한 지리적 위치들 및 유사한 얼굴 특징들을 갖는 이미지들의 콜렉션을 생성할 수도 있다.
도 15를 참조하면, 가중된 비교 결과들에 기초하여 미디어 아이템을 선택하는 방법 (1500) 의 특정 실시형태가 도시되어 있다. 예시적인 실시형태에서, 그 방법 (1500) 은 도 1의 시스템 (100), 도 2의 시스템 (200), 도 6의 시스템 (600) 에 의해, 그리고/또는 도 3의 사용자 인터페이스 디바이스 (300), 도 4의 사용자 인터페이스 디바이스 (400), 도 5의 사용자 인터페이스 디바이스 (500), 도 10a 및 도 10b의 사용자 인터페이스 디바이스 (1000), 또는 그것들의 임의의 조합에 연계하여 수행될 수도 있다.
방법 (1500) 은, 1502에서는, 전자 디바이스의 프로세서에서, 미디어 아이템의 제 1 사용자 선택을 수신하는 단계를 포함한다. 예를 들어, 도 1에서, 프로세서 (104) 는 제 1 이미지 (111) 의 제 1 사용자 선택을 수신할 수도 있다. 덧붙여, 또는 대안으로, 도 2에서, 프로세서 (204) 는 제 1 비디오 (211) 의 제 1 사용자 선택을 수신할 수도 있다.
미디어 아이템의 메트릭들은, 1504에서, 프로세서에 액세스 가능한 미디어 아이템들의 콜렉션에서의 다른 미디어 아이템들의 대응 메트릭들과 비교될 수도 있다. 예를 들어, 도 1에서, 제 1 이미지 (111) 의 메트릭들은 메모리 (106) 에 저장된 이미지들 (112~117) 의 메트릭들과 비교될 수도 있다. 메모리 (106) 는 프로세서 (104) 에 액세스 가능할 수도 있다. 덧붙여, 또는 대안으로, 도 2에서, 제 1 비디오 (211) 의 메트릭들은 메모리 (206) 에 저장된 비디오들 (212~217) 의 메트릭들과 비교될 수도 있다. 메모리 (206) 는 프로세서 (204) 에 액세스 가능할 수도 있다.
가중이, 1506에서, 가중된 비교 결과들을 생성하기 위해 저장된 가중치들의 세트에 기초하여 메트릭들 중 하나 이상에 적용될 수도 있다. 예를 들어, 도 1에서, 제 1 가중치 (w1) 는 제 1 가중된 비교 결과들을 생성하기 위해 저장된 가중치들의 세트에 기초하여 제 1 이미지 (111) 의 GPS 좌표들 및 제 2 이미지 (112) 의 GPS 좌표들 간의 정규화된 차이 (예컨대, g(IMG1) - g(IMG2)) 에 적용될 수도 있다. 덧붙여, 제 2 가중치 (w2) 는 가중된 비교 결과들을 생성하기 위해 저장된 가중치들의 세트에 기초하여 제 1 이미지 (111) 가 캡처되었던 시간 및 제 2 이미지 (112) 가 캡처되었던 시간 간의 정규화된 차이 (예컨대, t(IMG1) - t(IMG2)) 에 적용될 수도 있다. 제 3 가중치 (w3) 는 제 3 가중된 비교 결과들을 생성하기 위해 저장된 가중치들의 세트에 기초하여 제 1 이미지 (111) 에서의 얼굴 특징들에 대응하는 데이터 및 제 2 이미지 (112) 에서의 얼굴 특징들에 대응하는 데이터 간의 정규화된 차이 (예컨대, f(IMG1) - f(IMG2)) 에 적용될 수도 있다.
다른 미디어 아이템들 중 하나 이상이, 1508에서 가중된 비교 결과들에 기초하여 선택될 수도 있다. 예를 들어, 제 2 이미지 (112) 는 제 1, 제 2, 및 제 3 가중된 비교 결과들에 기초하여 선택될 수도 있다. 프로세서 (104) 는 비교 결과들에 기초하여 제 2 이미지 (112) 가 제 1 이미지 (111) 와 유사하다고 결정할 수도 있다. 예를 들어, 제 2 이미지 (112) 와 제 1 이미지 (111) 는 유사한 GPS 좌표들, 얼굴 특징들 (예컨대, 유사한 얼굴들) 에 대응하는 유사한 데이터를 가질 수도 있고, 유사한 시간에 캡처될 수도 있다.
특정 실시형태에서, 방법 (1500) 은 선택된 다른 미디어 아이템들을 나타내는 그래픽 표현을 생성하는 단계를 포함한다. 예를 들어, 도 1에서, 프로세서 (104) 는 제 2 이미지 (112) 가 제 1 이미지 (111) 와 유사함을 나타내기 위한 그래픽 표현을 생성할 수도 있다. 사용자 인터페이스 디바이스 (108) 는 그래픽 표현을 디스플레이할 수도 있다.
특정 실시형태에서, 방법 (1500) 은 선택된 하나 이상의 다른 미디어 아이템들의 제 2 사용자 선택을 수신하는 단계를 포함한다. 예를 들어, 도 1에서, 프로세서 (104) 는 제 6 이미지 (116) 의 제 2 사용자 선택을 수신할 수도 있다. 프로세서 (104) 는 제 2 사용자 선택에 기초하여 저장된 가중치들의 세트를 수정할 수도 있다. 예를 들어, 프로세서 (104) 는 제 3 가중치 (w3) (예컨대, 검출된 얼굴 특징들에 대응하는 가중치) 의 값을 증가시킬 수도 있는데, 제 6 이미지 (116) 가 제 1 이미지 (111) 에서의 유사한 얼굴 특징들에 대응하는 데이터를 포함하기 때문이다. 덧붙여, 프로세서 (104) 는 제 1 가중치 (w1) (예컨대, 지리적 로케이션에 대응하는 가중치) 의 값을 감소시킬 수도 있는데, 제 6 이미지 (116) 및 제 1 이미지 (111) 가 지리적으로 멀리 떨어져 있을 수도 있기 때문이다.
도 16을 참조하면, 선택된 미디어 아이템에 대한 유사도에 기초하여 하나 이상의 다른 미디어 아이템들을 선택하는 방법 (1600) 의 특정 실시형태가 도시되어 있다. 예시적인 실시형태에서, 그 방법 (1600) 은 도 1의 시스템 (100), 도 2의 시스템 (200), 도 6의 시스템 (600) 에 의해, 그리고/또는 도 3의 사용자 인터페이스 디바이스 (300), 도 4의 사용자 인터페이스 디바이스 (400), 도 5의 사용자 인터페이스 디바이스 (500), 도 10a 및 도 10b의 사용자 인터페이스 디바이스 (1000), 또는 그것들의 임의의 조합에 연계하여 수행될 수도 있다.
방법 (1600) 은, 1602에서, 제 1 미디어 유형을 갖는 미디어 아이템의 제 1 사용자 선택을 수신하는 단계를 포함한다. 예를 들어, 도 6에서, 사용자는 사용자 인터페이스 디바이스 (608) 를 통해 제 1 이미지 (111) 를 선택할 수도 있고 프로세서 (604) 는 제 1 이미지 (111) 의 선택을 수신할 수도 있다.
다른 미디어 유형을 갖는 다른 미디어 아이템이, 1604에서, 다른 미디어 아이템의 타임 스탬프, 다른 미디어 아이템에 연관된 지리적 로케이션, 또는 다른 미디어 아이템에 연관된 텍스트 정보 중 적어도 하나에 기초하여 선택될 수도 있다. 예를 들어, 도 6에서, 프로세서 (604) 는 제 2 비디오 (212) 의 지리적 로케이션 (예컨대, 뉴욕 주, 뉴욕 시) 을 식별하는 메트릭에 기초하여 그리고 제 2 비디오 (212) 가 캡처되었던 시간 (예컨대, 대략 3:00 pm) 을 식별하는 메트릭에 기초하여 제 2 비디오 (212) 를 선택할 수도 있다. 프로세서 (604) 는 제 5 이미지 (115) 의 지리적 로케이션 (예컨대, 뉴욕 주, 뉴욕 시) 을 식별하는 메트릭에 기초하여 제 5 이미지 (115) 를 또한 선택할 수도 있다.
1606에서, 사용자 인터페이스로부터 수신된 파일 전송 명령이 논리 그룹에서의 모든 미디어 아이템들에 인가되는 것을 가능하게 하는 미디어 아이템 및 다른 미디어 아이템을 포함하는 미디어 아이템들의 논리 그룹이 생성될 수도 있다. 예를 들어, 도 6에서, 프로세서 (604) 는 제 1 이미지 (111), 제 2 비디오 (212), 및 제 5 이미지 (115) 를 포함하는 미디어 아이템들의 논리 그룹을 생성할 수도 있다. 사용자가 제 1 이미지 (111) 를 전송할 것을 선택한다면, 프로세서 (604) 는 제 2 비디오 (212) 와 제 5 이미지 (115) 에도 파일 전송 명령들을 가능하게 할 수도 있다. 특정 실시형태에서, 미디어 아이템들의 논리 그룹은 zip압축된 파일 내에 포함되고 원격 소스로 전송될 수도 있다.
특정 실시형태에서, 다른 미디어 아이템을 선택하는 것은 소셜 미디어 포스팅들의 아카이브에 액세스하는 것과, 타임 스탬프, 지리적 로케이션, 또는 텍스트 정보 중 적어도 하나에 대응하는 소셜 미디어 포스팅을 선택하는 것을 포함할 수도 있다. 예를 들어, 도 6에서, 프로세서 (604) 는 제 1 및 제 3 메시지들 (613, 615) 의 타임 스탬프, 지리적 로케이션, 또는 텍스트 정보에 기초하여 제 1 메시지 (613), 제 3 메시지 (615), 또는 그것들의 임의의 조합을 선택할 수도 있다.
특정 실시형태에서, 다른 미디어 아이템을 선택하는 것은 미디어 아이템의 소셜 미디어 공유 이벤트들의 카운트와 임계값을 비교하는 것을 포함할 수도 있다. 예를 들어, 도 6에서, 프로세서 (604) 는 제 3 메시지 (615) 의 소셜 미디어 공유 이벤트들 (예컨대, 좋아요, 댓글들, 공유들, 리트윗들 등) 의 카운트와 임계값의 비교 및 소셜 미디어 공유 이벤트들의 카운트가 임계값을 충족시킨다는 결정에 응답하여 제 3 메시지 (615) 를 선택할 수도 있다.
특정 실시형태에서, 방법 (1600) 은 텍스트 정보에 대한 웹 검색을 수행하는 것을 포함할 수도 있다. 예를 들어, 도 6에서, 프로세서 (604) 는 제 1 이미지 (111) 에 관련된 텍스트 정보를 다수의 웹 페이지들에서 검색할 수도 있다. 최고 (top) 검색 결과에 대응하는 웹 페이지가 논리 그룹에 포함될 수도 있다.
도 17을 참조하면, 선택된 미디어 아이템에 대한 유사도에 기초하여 하나 이상의 다른 미디어 아이템들을 선택하는 방법 (1700) 의 특정 실시형태가 도시되어 있다. 예시적인 실시형태에서, 그 방법 (1700) 은 도 1의 시스템 (100), 도 2의 시스템 (200), 도 6의 시스템 (600) 에 의해, 그리고/또는 도 3의 사용자 인터페이스 디바이스 (300), 도 4의 사용자 인터페이스 디바이스 (400), 도 5의 사용자 인터페이스 디바이스 (500), 도 10a 및 도 10b의 사용자 인터페이스 디바이스 (1000), 또는 그것들의 임의의 조합에 연계하여 수행될 수도 있다.
방법 (1700) 은, 1702에서, 미디어 콘텐츠를 캡처하는 단계를 포함할 수도 있다. 예를 들어, 도 1의 전자 디바이스 (102) 의 이미지 센서는 제 1 이미지 (111) 를 캡처할 수도 있고 그리고/또는 도 2의 전자 디바이스 (202) 의 모션 이미지 센서는 제 1 비디오 (211) 를 캡처할 수도 있다. 백그라운드 프로세스가, 1704에서, 도 18을 참조하여 더 상세히 설명되는 바와 같이, 미디어 콘텐츠가 캡처된 후 미디어 콘텐츠를 분류하는 것을 시작할 수도 있다. 예를 들어, 도 1에서, 프로세서 (104) 는 전자 디바이스 (102) 의 이미지 센서가 제 1 이미지 (111) 를 캡처함에 응답하여 제 1 이미지 (111) 의 메트릭들을 생성하는 것을 시작할 수도 있다. 다른 예로서, 도 2에서, 프로세서 (204) 는 전자 디바이스 (202) 의 모션 이미지 센서가 제 1 비디오 (211) 를 캡처함에 응답하여 제 1 비디오 (211) 의 메트릭들을 생성하는 것을 시작할 수도 있다.
특정 실시형태에서, 방법 (1700) 은, 1706에서, 미디어 콘텐츠가 캡처되기 전 및 후에 오디오를 캡처하는 단계를 포함할 수도 있다. 예를 들어, 도 1에서, 전자 디바이스 (102) 는 제 1 이미지 (111) 를 캡처하기 전의 시구간 (예컨대, 5 초) 동안 제 1 오디오를 캡처할 수도 있고, 전자 디바이스 (102) 는 제 1 이미지 (111) 를 캡처한 후의 시구간 (예컨대, 5 초) 동안 제 2 오디오를 캡처할 수도 있다. 다른 예로서, 카메라 애플리케이션이 전자 디바이스 (102) 에서 시작될 때, 오디오 레코더가 또한 시작될 수도 있다. 가장 최근에 녹음된 오디오 신호의 버퍼 (예컨대, 5 초 버퍼) 가 이미지 캡처 동작이 개시되기까지 유지되고 업데이트될 수도 있다. 이미지 캡처에 응답하여, 이미지 캡처 전의 5 초의 기간에 대응하는 버퍼링된 오디오 데이터가 프로세싱되고 (예컨대, 필터링, 압축 등이 되고) 저장될 수도 있다. 또한, 오디오 신호가 이미지 캡처 후에 녹음, 프로세싱, 및 저장될 수도 있다. 특정 실시형태에서, 오디오는, 1708에서, 메타데이터로서 저장될 수도 있다. 예를 들어, 도 1에서, 제 1 특징 벡터 (121) 에서의 메트릭들 중 적어도 하나가 제 1 오디오의 오디오 품질들에 대응할 수도 있고 제 1 특징 벡터 (121) 에서의 메트릭들 중 적어도 하나가 제 2 오디오의 오디오 품질들에 대응할 수도 있다.
방법 (1700) 은, 1710에서, 캡처된 미디어 콘텐츠를 공유하기 위한 명령을 수신하는 단계를 또한 포함할 수도 있다. 예를 들어, 도 1에서, 전자 디바이스 (102) 는 제 1 이미지 (111) 를 전송하기 위한 (예컨대, 제 1 이미지 (111) 를 원격 디바이스로 전송하기 위한) 사용자 선택을 검출할 수도 있다. 특정 실시형태에서, 제 1 이미지 (111) 는 전자 메일을 통해 전송되거나, 소셜 미디어 웹사이트 상에서 공유되거나, 단문 메시지 서비스 (SMS) 메시지를 사용하여 전송되거나, 하나 이상의 다른 전송 메커니즘들에 따라 전송되거나, 또는 그것들의 임의의 조합으로 처리될 수도 있다. 특정 실시형태에서, 제 1 이미지 (111) 는, 도 21에 관해 더 상세히 설명되는 바와 같이, 컴퓨터로 전송될 (예컨대, 동기화될) 수도 있다. 캡처된 미디어 콘텐츠를 전송 (예컨대, 공유) 하기 위한 사용자 선택의 검출에 응답하여, 1712에서는, 1704에서 개시되었던 백그라운드 프로세스가 완료되었는지의 여부에 대한 결정이 이루어진다. 예를 들어, 도 1의 프로세서 (104) 가 제 1 이미지 (111) 의 메트릭들의 세트의 생성을 완료하였고 제 1 특징 벡터 (121) 를 완성하였는지에 대한 결정이 이루어질 수도 있다. 다른 예로서, 도 2의 프로세서 (204) 가 제 1 비디오 (211) 의 메트릭들의 세트의 생성을 완료하였고 제 1 특징 벡터 (221) 를 완성하였는지에 대한 결정이 이루어질 수도 있다.
백그라운드 프로세스가 미완료라고 결정되면, 1714에서, 프로세서 (예컨대, 도 1의 프로세서 (104) 또는 도 2의 프로세서 (204)) 가 백그라운드 프로세스를 완료하는 것을 사용자가 기다릴지의 여부를 결정하기 위한 프롬프트가 생성될 수도 있다. 특정 실시형태에서, 추정된 대기 시간이 사용자 인터페이스 디바이스 (예컨대, 도 1의 사용자 인터페이스 디바이스 (108) 또는 도 2의 사용자 인터페이스 디바이스 (208)) 를 통해 제공될 수도 있다. 사용자가 기다리지 않을 것을 결정한다는 표시가 수신된다면, 1726에서, 캡처된 미디어 콘텐츠는 업로드될 수도 있다. 예를 들어, 도 1에서, 제 1 이미지 (111) 는, 제 1 특징 벡터 (121) 의 생성의 완료 전에 그리고 업로드할 유사한 이미지들의 제안 없이, 소셜 미디어 사이트에 업로드되거나, 전자 메일을 통해 전송되거나, 컴퓨터에 동기화되거나, 또는 그것들의 임의의 조합으로 처리될 수도 있다. 대안으로, 사용자가 기다릴 것을 결정했다는 표시가 수신된다면, 방법 (1700) 은 1712로 복귀한다.
1712에서 백그라운드 프로세스가 완료되었다고 결정되면, 프로세서가 1716에서 사용자 설정들을 배정할 수도 있다. 예를 들어, 도 1에서, 프로세서 (104) 는 제 1 이미지 (111) 의 제 1 특징 벡터 (121) 와 제 2 이미지 (112) 의 제 2 특징 벡터 (122) 를 비교하는 휴리스틱 함수 (예컨대, F12 = w1*Norm1[g(IMG1) - g(IMG2)] + w2*Norm2[t(IMG1) - t(IMG2)] + w3*Norm3[f(IMG1) - f(IMG2)]) 에 가중치들을 배정할 수도 있다. 특정 실시형태에서, 제 1 가중치 (w1) 의 값, 제 2 가중치 (w2) 의 값, 및 제 3 가중치 (w3) 의 값은 사용자 선택될 수도 있다. 예를 들어, 사용자 인터페이스가 각각의 가중치의 값을 조정하기 위해 손가락 접촉에 응답하는 슬라이더를 포함할 수도 있다. 다른 특정 실시형태에서, 각각의 가중치의 값은 그룹화될 미디어 아이템들의 이력적 사용자 선택에 기초할 수도 있다. 예를 들어, 프로세서는 다른 양태들 (예컨대, 캡처 시의 컬러 콘텐츠 또는 환경적 오디오 특성들) 에 따른 유사도들과 비교하여, 지리적 로케이션, 시간, 및/또는 얼굴 특징들에 따라 유사한 미디어 아이템들을 사용자가 보통 그룹화했다고 결정할 수도 있다. 사용자 설정은, 1716에서, 공유될 미디어 아이템들의 수에 대한 제한을 정의할 수도 있다. 예를 들어, 그 제한은 데이터 요금제 (data plan) 및/또는 데이터 요금제에 연관된 비용에 기초할 수도 있다. 그 제한은 대안으로, 또는 덧붙여서, 미디어 아이템들의 파일 사이즈 또는 공유 매체의 데이터 한도 (예컨대, 전자 메일 계정에 대한 데이터 한도) 에 기초할 수도 있다.
사용자 설정들이 배정된 후, 1718에서, 미디어 어셈블리에 대한 하나 이상의 옵션들이 제안될 수도 있다. 예를 들어, 도 1의 프로세서 (104) 는 사용자 설정들 및 휴리스틱 함수에 기초하여 제 1 이미지 (111) 에 대한 유사한 이미지들을 제안할 수도 있다. 특정 실시형태에서, 제안된 미디어 아이템들 (예컨대, 썸네일 이미지들) 의 표시가 사용자 인터페이스 디바이스, 이를테면 도 1 내지 도 2의 사용자 인터페이스 디바이스들 (108~208), 도 3 내지 도 5의 사용자 인터페이스 디바이스들 (300~500), 도 6의 사용자 인터페이스 디바이스 (608), 도 10a 및 도 10b의 사용자 인터페이스 디바이스 (1000), 또는 그것들의 임의의 조합을 통해 사용자에게 어셈블리 및 제시될 수도 있다. 다른 실시형태에서, 제안된 미디어 아이템들은 사용자 인터페이스를 통해 음악이 함께 하는 슬라이드 쇼로서 자동으로 결합 및 제시될 수도 있다. 예를 들어, 도 1에서, 프로세서 (104) 는 이미지들의 콜렉션을 생성하기 위해 제 2 이미지 (112), 제 5 이미지 (115), 및 제 6 이미지 (116) 를 선택 및 결합할 수도 있다. 프로세서 (104) 는 디폴트 오디오 파일을 선택하며, 이미지들 (112, 115, 115) 을 이용한 슬라이드 쇼를 생성하고, 사용자 인터페이스 디바이스 (108) 를 통해 슬라이드 쇼를 제시하는 동안 디폴트 오디오 파일을 플레이할 수도 있다.
선택들의 사용자 편집의 표시가, 1720에서, 수신될 수도 있다. 예를 들어, 도 3 내지 도 5의 사용자 인터페이스 디바이스들 (300~500) 에 관해 설명된 바와 같이, 사용자는 각각의 이미지에 연관된 (예컨대, 그 이미지 근처에 위치된) 체크 박스를 활성화 또는 비활성화함으로써 디스플레이된 이미지들 (112~117) 을 선택 또는 선택해제할 수도 있다. 그 선택들은, 1722에서 결합되고, 1724에서, 사용자에 의한 검토를 가능하게 하기 위해 사용자 인터페이스 디바이스를 통해 제시될 수도 있다. 제시된 선택들로 진행하라는 표시를 수신한 후, 미디어 아이템들은, 1726에서, 공유될 수도 있다.
1726에서, 미디어 아이템들은 전자 메일을 통해 전송되거나, 소셜 미디어 웹사이트 상에서 공유되거나, 단문 메시지 서비스 (SMS) 메시지를 사용하여 전송되거나, 하나 이상의 다른 전송 메커니즘들에 따라 전송되거나, 또는 그것들의 임의의 조합으로 처리될 수도 있다. 특정 실시형태에서, 미디어 아이템들은, 도 16에 관해 더 상세히 설명되는 바와 같이, 컴퓨터로 전송될 (예컨대, 동기화될) 수도 있다.
도 18을 참조하면, 미디어 아이템들에 대한 특징 벡터를 생성하는 방법 (1800) 의 특정 실시형태가 도시되어 있다. 예시적인 실시형태에서, 방법 (1800) 은 도 1의 시스템 (100), 도 2의 시스템 (200), 도 6의 시스템 (600), 또는 그것들의 임의의 조합을 사용하여 수행될 수도 있다. 예를 들어, 방법 (1800) 은 미디어 아이템들의 특징 벡터들을 생성하기 위해, 도 1 내지 도 2의 프로세서들 (104, 204), 도 6의 프로세서 (604), 도 10a 및 도 10b의 사용자 인터페이스 디바이스 (1000), 또는 그것들의 임의의 조합 중 하나 이상에 의해 수행될 수도 있다.
방법 (1800) 은, 1802에서, 미디어 아이템에 대해 메모리를 할당하는 단계를 포함할 수도 있다. 예를 들어, 도 1의 전자 디바이스 (102) 의 이미지 센서가 제 1 이미지 (111) 를 캡처함에 응답하여, 프로세서 (104) 는 제 1 이미지 (111) 에 대해 그리고 제 1 이미지 (111) 에 연관된 제 1 특징 벡터 (121) 에 대해 메모리 (106) 의 부분을 할당할 수도 있다. 예를 들어, 도 1의 전자 디바이스 (202) 의 모션 이미지 센서가 제 1 비디오 (211) 를 캡처함에 응답하여, 프로세서 (204) 는 제 1 비디오 (211) 에 대해 그리고 제 1 비디오 (211) 에 연관된 제 1 특징 벡터 (221) 에 대해 메모리 (206) 의 부분을 할당할 수도 있다.
방법 (1800) 은, 1804에서, 미디어 콘텐츠의 캡처에 연관된 사용자를 결정하는 단계를 또한 포함할 수도 있다. 예를 들어, 도 1에서, 프로세서 (104) 는 전자 디바이스 (102) 의 배향 대면형 (back facing) 이미지 센서를 사용하여 사용자의 얼굴의 이미지를 획득함으로써 제 1 이미지 (111) 의 캡처에 연관된 사용자를 결정할 수도 있다. 프로세서 (104) 는 사용자가 식별 또는 인식될 지의 여부를 결정하기 위해 사용자의 얼굴의 이미지와 저장된 얼굴 검출 데이터를 비교할 수도 있다. 대안으로, 로그인 프로세스에서 획득된 사용자 크리덴셜이 사용될 수도 있다. 사용자 크리덴셜은 음성 인식, 사용자이름 및 패스워드 등을 포함할 수도 있다.
방법 (1800) 은, 1806에서, 타임 스탬프를 캡처된 미디어 콘텐츠에 덧붙이는 단계를 또한 포함할 수도 있다. 예를 들어, 도 1에서, 프로세서 (104) 는 제 1 이미지 (111) 에 대응하는 제 1 메트릭에 제 1 이미지 (111) 가 캡처되었던 시간 (예컨대, 2002년 8월 31일 3:00pm) 에 대응하는 타임 스탬프를 덧붙일 수도 있다. 프로세서 (104) 는 전자 디바이스 (102) 내부의 클록에 액세스하고 그 클록으로부터 시간과 날짜를 결정할 수도 있다. 프로세서 (104) 는 시간과 날짜에 기초하여 제 1 메트릭에 덧붙일 수도 있다. 방법 (1800) 은, 1808에서, 미디어 콘텐츠의 지속기간을 결정하는 단계를 또한 포함할 수도 있다. 예를 들어, 도 2에서, 프로세서 (204) 는 제 1 비디오 (211) 의 기록을 시작하라는 표시에 응답하여 전자 디바이스 (202) 의 타이머에 대한 시작을 개시하게 하고 제 1 비디오 (211) 의 기록을 중지하라는 표시에 응답하여 타이머에 대한 중지를 개시하게 함으로써 제 1 비디오 (211) 가 2 분 11 초 (예컨대, 2:11) 의 지속기간을 갖는다고 결정할 수도 있다. 제 1 비디오 (211) 의 지속기간은 제 1 특징 벡터 (221) 의 메트릭으로서 포함될 수도 있다.
방법 (1800) 은, 1810에서, 미디어 콘텐츠의 로케이션을 결정하는 단계를 또한 포함할 수도 있다. 예를 들어, 도 1에서, 프로세서 (104) 는 전자 디바이스 (102) 의 GPS 센서에게 쿼리하고 GPS 센서로부터 전자 디바이스 (102) 의 로케이션 (예컨대, 위도 및 경도) 을 나타내는 데이터를 수신함으로써 제 1 이미지 (111) 의 GPS 좌표들을 결정할 수도 있다. 전자 디바이스 (102) 의 로케이션은 제 1 이미지 (111) 가 캡처되었던 로케이션에 대응할 수도 있다. 특정 실시형태에서, 프로세서 (104) 는 제 1 이미지 (111) 가 캡처되었던 때에 전자 디바이스 (102) 에서 검출된 신호 강도와 하나 이상의 무선 네트워크들 (예컨대, Wifi) 의 식별자를 결정할 수도 있다. 예를 들어, 낮은 강도가 실외에서 캡처되어 있는 제 1 이미지 (111) 에 연관성이 있을 수도 있는 반면, 높은 강도가 실내에서 캡처되어 있는 제 1 이미지 (111) 에 연관성이 있을 수도 있다. 다른 특정 실시형태에서, 프로세서 (104) 는 액세스 포인트에 관한 거리를 결정하기 위해 전자 디바이스 (102) 의 안테나를 통해 수신된 무선 신호들의 신호 강도를 결정할 수도 있다. 강한 신호들은 전자 디바이스 (102) 가 액세스 포인트에 비교적 가깝다는 것을 나타낼 수도 있고 약한 신호들은 전자 디바이스 (102) 가 액세스 포인트로부터 비교적 멀다는 것을 나타낼 수도 있다. 제 1 이미지 (111) 가 캡처되었던 로케이션은 제 1 특징 벡터 (121) 의 메트릭으로서 포함될 수도 있다.
방법 (1800) 은, 1812에서 얼굴 인식 프로세스를 수행하는 단계를 또한 포함할 수도 있다. 예를 들어, 도 1에서, 프로세서 (104) 는 비올라 존스 형 (Viola-Jones-type) 오브젝트 검출 프레임워크를 사용함으로써 제 1 이미지 (111) 에서 얼굴들을 검출할 수도 있다. 특정 실시형태에서, 그 프로세서는 미디어 아이템에 관하여 얼굴의 사이즈에 기초하여 얼굴들을 검출할 수도 있다. 예를 들어, 도 1에서, 프로세서 (104) 는 제 1 얼굴 (예컨대, 남성 플레이어) 및 제 2 얼굴 (예컨대, 여성 플레이어) 을 검출할 수도 있는데, 제 1 얼굴 및 제 2 얼굴이 제 1 이미지 (111) 의 사이즈에 대하여 상대적으로 더 크기 때문이다. 그러나, 프로세서 (104) 는 소비 전력을 감소시키기 위해, 감소된 해상도로 인한 거짓 (spurious) 결과들을 감소시키기 위해, 그리고 사용자가 특별히 관심을 가질 수도 없는 비-포어그라운드 (non-foreground) 얼굴들에 연관된 데이터의 양을 줄이기 위해, 제 1 이미지 (111) 에서의 유사한 얼굴들에 대한 얼굴 검출을 진행할 수도 있다. 제 1 이미지 (111) 에서의 검출된 및/또는 인식된 얼굴들에 대응하는 데이터는 제 1 특징 벡터 (121) 의 메트릭으로서 포함될 수도 있다.
방법 (1800) 은, 1814에서 미디어 아이템에서 검출된 하나 이상의 얼굴들에 대한 감정 결정 동작을 수행하는 단계를 또한 포함할 수도 있다. 예를 들어, 도 1에서, 프로세서 (104) 는 제 1 이미지 (111) 에서의 검출된 얼굴들이 행복, 웃음, 슬픔, 분노 등을 표현하는 것으로서 평가될지의 여부를 결정하기 위해 하나 이상의 필터들 또는 프로세스들을 적용할 수도 있다. 특정 실시형태에서, 프로세서 (104) 는 제 1 이미지 (111) 에 연관된 감정적 콘텍스트를 결정하기 위해 얼굴 특징들 (예컨대, 치아, 얼굴 안색 등), 사운드 (예컨대, 웃음소리, 고함 등), 또는 그것들의 임의의 조합을 검사할 수도 있다. 감정적 콘텍스트에 대응하는 데이터는 제 1 특징 벡터 (121) 의 메트릭으로서 포함될 수도 있다.
방법 (1800) 은, 1816에서 미디어 아이템의 오디오 프로파일을 결정하는 단계를 또한 포함할 수도 있다. 예를 들어, 도 2에서, 프로세서 (204) 는 제 1 비디오 (211) 에서의 사운드의 평균 표준 편차를 결정하며, 제 1 비디오 (211) 의 사운드 히스토그램을 생성하며, 제 1 비디오 (211) 에서의 특정 사운드 (예컨대, 웃음소리, 울음소리 등) 를 분류하며, 또는 그것들의 임의의 조합을 행할 수도 있다. 오디오 프로파일에 대응하는 데이터는 제 1 특징 벡터 (121) 의 메트릭으로서 포함될 수도 있다.
방법 (1800) 은, 1818에서 미디어 아이템의 컬러 히스토그램을 생성하는 단계를 또한 포함할 수도 있다. 예를 들어, 도 1에서, 프로세서 (104) 는 제 1 이미지 (111) 에 걸쳐 있는 컬러 범위들의 리스트에서의 특정 컬러 성분을 갖는 제 1 이미지 (111) 에서의 화소들의 수를 결정함으로써 제 1 이미지 (111) 의 컬러 히스토그램을 생성할 수도 있다. 그 히스토그램은 제 1 이미지 (111) 내에 컬러 성분이 얼마나 빈번하게 존재하는지 (예컨대, 얼마나 많은 화소들이 컬러 성분을 포함하는지) 에 기초할 수도 있다. 카운트가 제 1 이미지 (111) 에서의 각각의 상이한 컬러 성분에 대해 생성될 수도 있다. 컬러 히스토그램에 대응하는 데이터는 제 1 특징 벡터 (121) 의 메트릭으로서 포함될 수도 있다.
방법 (1800) 은, 1820에서 하나 이상의 카메라 파라미터들을 결정하는 단계를 또한 포함할 수도 있다. 예를 들어, 도 1에서, 프로세서 (104) 는 전자 디바이스 (102) 의 이미지 센서의 자동 초점 설정에 대응하는 값, 이미지 센서의 자동 화이트 밸런스 설정에 대응하는 값, 이미지 센서의 자동 노출 설정에 대응하는 값, 또는 그것들의 임의의 조합을 결정할 수도 있다. 카메라 파라미터들에 대응하는 데이터는 제 1 특징 벡터 (121) 의 메트릭으로서 포함될 수도 있다.
비록 방법 (1800) 이 10 개의 메트릭들을 예시하지만, 다른 실시형태들에서, 10개 미만의 메트릭들 또는 10개를 초과하는 메트릭들이 결정될 수도 있다. 또한, 비록 방법 (1800) 이 메트릭 결정의 특정 순서를 예시하지만, 다른 실시형태들에서, 상이한 순서가 사용될 수도 있고 그리고/또는 둘 이상의 메트릭들이 병행하여 생성될 수도 있다.
방법 (1800) 은, 1822에서 미디어 아이템을 캡처하기 전에 유사한 특성들을 갖는 숏 (shot) 들이 얼마나 많이 캡처되었는지를 결정하는 단계를 또한 포함할 수도 있다. 예를 들어, 도 1에서, 프로세서 (104) 는 전자 디바이스 (102) 의 이미지 센서가 제 1 이미지 (111) 를 캡처하기 전에 얼마나 많은 (제 1 이미지 (111) 와 유사한 메트릭 값들을 갖는) 이미지들이 취해졌는지를 결정할 수도 있다. 특정 실시형태에서, 이미지들의 수가 임계값을 충족시키면, 프로세서 (104) 는 제 1 이미지 (111) 가 특정 중요하다고 결정할 수도 있다.
도 19를 참조하면, 패키지형 모멘트 데이터의 미디어 데이터에 대응하는 미디어 아이템들을 선택하는 방법 (1900) 의 특정 실시형태가 도시되어 있다. 예시적 실시형태에서, 그 방법 (1900) 도 1의 시스템 (100), 도 2의 시스템 (200), 도 6의 시스템 (600) 에 의해, 그리고/또는 도 3의 사용자 인터페이스 디바이스 (300), 도 4의 사용자 인터페이스 디바이스 (400), 도 5의 사용자 인터페이스 디바이스 (500), 도 7의 사용자 인터페이스 디바이스 (700), 도 8의 사용자 인터페이스 디바이스 (800), 도 9의 사용자 인터페이스 디바이스 (900), 도 10a 및 도 10b의 용자 인터페이스 디바이스 (1000), 또는 그것들의 임의의 조합에 연계하여 수행될 수도 있다.
방법 (1900) 은, 1902에서는, 모바일 디바이스에서, 모바일 디바이스로부터 원격 디바이스로 전송되는 제 1 미디어 아이템의 선택을 수신하는 단계를 포함한다. 예를 들어, 도 6에서, 프로세서 (604) 는 제 1 이미지 (111) 의 제 1 사용자 선택을 수신할 수도 있다. 특정 실시형태에서, 원격 디바이스는 제 2 모바일 디바이스, 컴퓨터, 또는 서버를 포함할 수도 있다.
방법 (1900) 은, 1904에서, 그 모바일 디바이스에 의해, 제 1 미디어 아이템에 대한 제 2 미디어 아이템의 유사도에 기초하여 원격 디바이스로 전송할 제 2 미디어 아이템을 선택하는 단계를 포함한다. 예를 들어, 도 6에서, 프로세서 (604) 는 제 1 이미지 (111) 및 제 2 비디오 (212) 간의 유사도에 기초하여 제 2 비디오 (212) 를 선택할 수도 있다.
방법 (1900) 은, 그 모바일 디바이스에 의해, 원격 디바이스로 전송할 패키지형 모멘트 데이터를 생성하는 단계를 더 포함한다. 패키지형 모멘트 데이터는 제 1 미디어 아이템 및 제 2 미디어 아이템을 포함하는 다수의 미디어 아이템들에 연관된 미디어 데이터를 포함할 수도 있다. 예를 들어, 도 6에서, 프로세서 (604) 는 제 1 이미지 (111) 및 제 2 비디오 (212) 를 포함하는 미디어 아이템들의 논리 그룹에 연관된 미디어 데이터를 포함하는 패키지형 모멘트 데이터를 생성하도록 구성될 수도 있다. 특정 실시형태에서, 다수의 미디어 아이템들은 모바일 디바이스에서의 음성 호의 오디오 녹음물, 전자 메일 메시지, SMS 메시지, 또는 소셜 미디어 포스트의 이미지 중 적어도 하나를 포함할 수도 있다.
특정 실시형태에서, 제 1 미디어 아이템에 대한 제 2 미디어 아이템의 유사도는 사용자 구성가능 패키지형 모멘트 설정들에 기초하여 결정될 수도 있다. 예를 들어, 제 1 미디어 아이템에 대한 제 2 미디어 아이템의 유사도는 도 7의 유사도 설정들에 기초하여 결정될 수도 있다. 사용자 구성가능 패키지형 모멘트 설정들은 특정 특성의 선택을 나타낼 수도 있다. 제 1 미디어 아이템에 대한 제 2 미디어 아이템의 유사도는 제 1 미디어 아이템의 특정 특성에 대한 제 2 미디어 아이템의 특정 특성의 유사도에 적어도 부분적으로 기초할 수도 있다. 예를 들어, 도 7에서, 제 1 미디어 아이템에 대한 제 2 미디어 아이템의 유사도는 유사한 얼굴들 선택기 (702) 의 선택, 유사한 오디오 선택기 (704), 유사한 로케이션 선택기 (706), 유사한 시간 선택기 (712), 또는 그것들의 조합에 의해 나타내어진 하나 이상의 특성들에 적어도 부분적으로 기초하여 결정될 수도 있다.
특정 실시형태에서, 방법 (1900) 은, 모바일 디바이스에 의해, 그 모바일 디바이스의 임계 근접도 내의 다른 모바일 디바이스로부터의 제 2 미디어 아이템을 취출하는 단계를 더 포함한다. 제 2 미디어 아이템은 다른 모바일 디바이스로 쿼리를 전송하는 것에 응답하여 취출될 수도 있다. 쿼리는 패키지형 모멘트 기준들을 나타낼 수도 있고 패키지형 모멘트 기준들을 충족시키는 미디어 아이템들을 요청할 수도 있다. 예를 들어, 도 8에서, 쿼리가 네트워크 선택기 (804) 를 통해 선택된 네트워크의 모바일 디바이스로 전송될 수도 있다.
특정 실시형태에서, 방법 (1900) 은 패키지형 모멘트 데이터를 생성한 후에 모바일 디바이스에서 수신자 디스플레이 윈도우를 제시하는 단계를 더 포함한다. 예를 들어, 사용자 인터페이스 디바이스 (900) 는 수신자 리스트 윈도우 (910) 를 제시할 수도 있다. 수신자 디스플레이 윈도우는 특정 사용자들에게 전송되도록 지정되는 패키지형 모멘트 데이터의 미디어 데이터에 대응하는 미디어 아이템들을 나타낼 수도 있다. 방법 (1900) 은 수신자 디스플레이 윈도우에서의 미디어 아이템들의 지정들에 기초하여 패키지형 모멘트 데이터의 미디어 데이터에 대응하는 미디어 아이템들의 서브세트를 특정 사용자에게 전송하는 단계를 더 포함할 수도 있다. 예를 들어, 도 9에서, 미디어 아이템들의 서브세트에 연관된 미디어 데이터는 미디어 아이템들의 제 1 지정 (912) 및/또는 미디어 아이템들의 제 2 지정 (914) 에 기초하여 특정 사용자에게 전송될 수도 있다. 수신자 디스플레이 윈도우에서의 지정들은 그래픽 사용자 인터페이스 (GUI) 를 통해 조정 가능할 수도 있다. 예를 들어, 미디어 아이템들의 제 1 지정 (912) 및 미디어 아이템들의 제 2 지정 (914) 은 도 9의 사용자 인터페이스 디바이스 (900) 를 통해 디스플레이된 GUI에 의해 조정 가능할 수도 있다.
특정 실시형태에서, 방법 (1900) 은 패키지형 모멘트 데이터를 생성한 후에 모바일 디바이스에서 요약 윈도우를 제시하는 단계를 더 포함한다. 예를 들어, 사용자 인터페이스 디바이스 (900) 는 요약 윈도우 (902) 를 제시할 수도 있다. 요약 윈도우는 패키지형 모멘트 데이터의 미디어 데이터에 대응하는 미디어 아이템들의 유형들을 나타낸다. 예를 들어, 요약 윈도우 (902) 의 패키지형 모멘트 데이터 표시자 (904) 는 패키지형 모멘트 데이터의 미디어 데이터에 대응하는 미디어 아이템들의 유형들을 나타낼 수도 있다.
도 20을 참조하면, 모바일 디바이스의 특정 예시적인 실시형태의 블록도가 묘사되어 있고 전체가 2000으로 지정된다. 디바이스 (2000) 는 메모리 (2032) 에 커플링된 프로세서 (2010), 이를테면 디지털 신호 프로세서 (DSP) 를 구비한다. 예시적인 예에서, 프로세서 (2010) 는 캡처된 이미지들의 이미지 특징들을 식별하도록 구성된 이미지 프로세싱 로직 (2064) 을 포함한다. 예를 들어, 프로세서 (2010) 는 도 1의 프로세서 (104) 또는 도 2의 프로세서 (204) 에 해당할 수도 있다. 프로세서 (2010) 는 도 11 내지 도 19의 방법들 (1100~1900) 을 수행하도록 동작가능할 수도 있다. 특정 실시형태에서, 메모리 (2032) 는 명령들 (2060) 을 포함하는 비일시적 컴퓨터 판독가능 매체이다. 프로세서 (2010) 는 도 11 내지 도 19의 방법들 (1100~1900) 중 하나 이상을 수행하기 위해 메모리 (2032) 에 저장된 명령들 (2060) 을 실행하도록 구성될 수도 있다.
특정 실시형태에서, 프로세서 (2010) 는 프로세서 (2010) 가 모바일 디바이스 (예컨대, 모바일 디바이스 (2000)) 로부터 원격 디바이스로 전송된 제 1 미디어 아이템의 선택을 수신하게 하기 위해 실행가능한, 메모리 (2032) 와 같은 비일시적 컴퓨터 판독가능 매체에 저장된 컴퓨터 실행가능 명령들을 실행하도록 구성될 수도 있다. 예를 들어, 프로세서 (2010) 는 제 1 이미지 (111) 의 선택을 수신할 수도 있다. 명령들 (2060) 은 프로세서 (2010) 가 제 1 미디어 아이템에 대한 제 2 미디어 아이템의 유사도에 기초하여 원격 디바이스로 전송할 제 2 미디어 아이템을 선택하게 하기 위해 실행 가능할 수도 있다. 예를 들어, 프로세서 (2010) 는 제 1 이미지 (111) 에 대한 제 2 비디오 (212) 의 유사도에 기초하여 제 2 비디오 (212) 를 선택할 수도 있다. 명령들 (2060) 은 또한 프로세서 (2010) 가 원격 디바이스로 전송할 패키지형 모멘트 데이터를 생성하게 하기 위해 실행 가능할 수도 있다. 패키지형 모멘트 데이터는 제 1 미디어 아이템 및 제 2 미디어 아이템을 포함하는 다수의 미디어 아이템들에 연관된 미디어 데이터를 포함할 수도 있다.
특정 실시형태에서, 명령 (2060) 은 또한 프로세서 (2010) 가 제 1 비디오 및 제 2 비디오를 연접하여 연접된 비디오를 생성하기 위해 실행 가능할 수도 있다. 연접된 비디오는 패키지형 모멘트 데이터의 미디어 데이터에 해당할 수도 있다. 예를 들어, 미디어 데이터는, 도 2를 참조하여 설명된 바와 같이, 제 1 비디오 (211) 및 제 2 비디오 (212) 를 연접함으로써 생성된 연접된 비디오 파일과 연관될 수도 있다.
다른 실시형태에서, 명령들 (2060) 은 또한 프로세서 (2010) 가 디스플레이에서 그래픽 사용자 인터페이스 (GUI) 를 생성하게 하기 위해, GUI의 제 1 윈도우를 통해 수신된 사용자 입력에 기초하여 제 1 미디어 유형의 미디어 아이템들을 선택하게 하기 위해, 그리고 GUI의 제 2 윈도우를 통해 수신된 사용자 입력에 기초하여 제 2 미디어 유형의 미디어 아이템들을 선택하게 하기 위해 실행 가능할 수도 있다. 패키지형 모멘트 데이터의 미디어 데이터는 제 1 미디어 유형 및 제 2 미디어 유형의 미디어 아이템들에 연관될 수도 있다. 예를 들어, 도 10a 및 도 10b에서, 제 1 미디어 유형의 미디어 아이템들은 제 1 탭 (1002) (예컨대, 화상들 탭) 에 연관된 제 1 윈도우를 통해 수신된 사용자 입력에 기초하여 선택될 수도 있고, 제 2 미디어 유형의 미디어 아이템들은 제 2 탭 (1004) (예컨대, 비디오 탭) 에 연관된 제 2 윈도우를 통해 수신된 사용자 입력에 기초하여 선택될 수도 있다. GUI의 제 1 윈도우는 제 1 미디어 아이템과 유사한 이미지들을 포함할 수도 있고, GUI의 제 2 윈도우는 제 1 미디어 아이템과 유사한 비디오들을 포함할 수도 있다. 예를 들어, 도 10a 및 도 10b에서, 제 1 윈도우는 제 1 이미지 (111) (제 1 이미지 아이콘 (1010) 에 대응하는) 와 유사한 제 2 이미지 및 제 3 이미지에 각각 대응하는 제 2 이미지 아이콘 (1018) 및 제 3 이미지 아이콘 (1022) 을 포함할 수도 있고, 제 2 윈도우는 제 1 이미지 (111) 와 유사한 제 1 비디오 및 제 2 비디오에 각각 대응하는 제 1 비디오 아이콘 (1058) 및 제 2 비디오 아이콘 (1068) 을 포함할 수도 있다.
다른 예시적인 예에서, 메모리 (2032) 는 카메라 (2070) 에 의해 캡처된 이미지들을 저장할 수도 있다. 카메라 (2070) 는 도 1에 관해 설명된 이미지 센서, 도 2에 관해 설명된 모션 이미지 센서, 또는 그것들의 조합에 대응할 수도 있다. 예를 들어, 카메라 (2070) 는 미디어 아이템들 (예컨대, 도 1의 이미지들 (121~117), 도 2의 비디오들 (211~217), 또는 그것들의 임의의 조합) 을 캡처할 수도 있고, 메모리 (2032) 는 미디어 아이템들 중 하나 이상을 저장할 수도 있다. 메모리 (2032) 는 도 1의 특징 벡터들 (121~127), 도 2의 특징 벡터들 (221~227), 또는 그것들의 임의의 조합을 또한 저장할 수도 있다.
도 20은 프로세서 (2010) 에 그리고 디스플레이 (2028) 에 커플링되는 디스플레이 제어기 (2026) 를 또한 도시한다. 디스플레이 (2028) 는 도 1의 사용자 인터페이스 디바이스 (108), 도 2의 사용자 인터페이스 디바이스 (208), 도 3의 사용자 인터페이스 디바이스 (300), 도 4의 사용자 인터페이스 디바이스 (400), 도 7의 사용자 인터페이스 디바이스 (700), 도 8의 사용자 인터페이스 디바이스 (800), 도 9의 사용자 인터페이스 디바이스 (900), 도 10a 및 도 10b의 사용자 인터페이스 디바이스 (1000), 또는 그것들의 임의의 조합에 대응할 수도 있다. 코더/디코더 (CODEC) (2034) 가 또한 프로세서 (2010) 에 커플링될 수 있다. 스피커 (2036) 와 마이크로폰 (2038) 이 CODEC (2034) 에 커플링될 수 있다. 특정 실시형태에서, 마이크로폰 (2038) 은 카메라 (2070) 가 이미지, 이를테면 도 1의 제 1 이미지 (111) 를 캡처하기 전, 및 그 이미지를 캡처한 후에 오디오를 캡처하도록 구성될 수도 있다. 마이크로폰 (2038) 은 카메라 (2070) 가 비디오, 이를테면 도 2의 제 1 비디오 (211) 를 캡처하는 동안 오디오를 캡처하도록 또한 구성될 수도 있다. 무선 제어기 (2040) 는 안테나 (2042) 및 무선 제어기 (2040) 를 통해 수신된 무선 데이터가 프로세서 (2010) 에 제공될 수 있도록 프로세서 (2010) 에 그리고 안테나 (2042) 에 커플링될 수 있다.
특정 실시형태에서, 프로세서 (2010), 디스플레이 제어기 (2026), 메모리 (2032), CODEC (2034), 및 무선 제어기 (2040) 는 시스템-인-패키지 (system-in-package) 또는 시스템-온-칩 디바이스 (2022) 에 구비된다. 특정 실시형태에서, 입력 디바이스 (2030) 와 전력 공급부 (2044) 가 시스템-온-칩 디바이스 (2022) 에 커플링된다. 디바이스 (2022) 가 터치스크린을 구비하는 예시적인 예에서, 디스플레이 (2028) 와 입력 디바이스 (2030) 는 적어도 부분적으로 통합될 수도 있다. 더구나, 특정 실시형태에서, 도 20에 예시된 바와 같이, 디스플레이 (2028), 입력 디바이스 (2030), 스피커 (2036), 마이크로폰 (2038), 안테나 (2042), 전력 공급부 (2044), 및 카메라 (2070) 는 시스템-온-칩 디바이스 (2022) 외부에 있다. 그러나, 디스플레이 (2028), 입력 디바이스 (2030), 스피커 (2036), 마이크로폰 (2038), 안테나 (2042), 무선 전력 공급부 (2044), 및 카메라 (2070) 의 각각은 시스템-온-칩 디바이스 (2022) 의 컴포넌트, 이를테면 인터페이스 또는 제어기에 커플링될 수도 있다.
설명된 실시형태들에 연계하여, 전송될 미디어 아이템의 사용자 선택을 수신하는 수단을 구비한 장치가 개시된다. 예를 들어, 미디어 아이템의 사용자 선택을 수신하는 수단은, 도 1의 프로세서 (104), 도 1의 사용자 인터페이스 디바이스 (108), 도 2의 프로세서 (204), 도 2의 사용자 인터페이스 디바이스 (208), 도 3의 사용자 인터페이스 디바이스 (300), 도 4의 사용자 인터페이스 디바이스 (400), 도 5의 사용자 인터페이스 디바이스 (500), 도 6의 프로세서 (604), 도 6의 사용자 인터페이스 디바이스 (608), 도 10a 및 도 10b의 사용자 인터페이스 디바이스 (1000), 도 20의 명령들 (2060) 을 실행하도록 프로그램된 프로세서 (2010), 하나 이상의 다른 디바이스들, 회로들, 모듈들, 또는 사용자 선택을 수신하기 위한 명령들, 또는 그것들의 임의의 조합을 포함할 수도 있으며, 여기서 그 수단에 포함된 각각의 프로세서 (104, 204, 604, 2010) 는 사용자 인터페이스에서 사용자 액션 (예컨대, 선택) 에 응답하여 생성된 사용자 선택을 나타내는 신호를 수신할 수도 있다.
그 장치는 선택된 미디어 아이템에 대한 다른 미디어 아이템의 유사도에 기초하여 다른 미디어 아이템을 선택하는 수단을 또한 포함할 수도 있다. 예를 들어, 다른 미디어 아이템을 선택하는 수단은, 도 1의 프로세서 (104), 도 1의 메모리 (106), 도 1의 사용자 인터페이스 디바이스 (108), 도 2의 프로세서 (204), 도 2의 메모리 (206), 도 2의 사용자 인터페이스 디바이스 (208), 도 3의 사용자 인터페이스 디바이스 (300), 도 4의 사용자 인터페이스 디바이스 (400), 도 5의 사용자 인터페이스 디바이스 (500), 도 6의 프로세서 (604), 도 6의 사용자 인터페이스 디바이스 (608), 도 10a 및 도 10b의 사용자 인터페이스 디바이스 (1000), 도 20의 명령들 (2060) 을 실행하도록 프로그램된 프로세서 (2010), 다른 미디어 아이템을 선택하기 위한 하나 이상의 다른 디바이스들, 회로들, 모듈들, 또는 명령들, 또는 그것들의 임의의 조합을 포함할 수도 있으며, 여기서 그 수단에 포하된 각각의 프로세서 (104, 204, 604, 2010) 는 미디어 아이템의 메트릭들의 값들과 다른 미디어 아이템의 메트릭들의 값들을 비교하고 유사도 임계값이 비교에 의해 충족되는지의 여부를 결정함으로써 유사도 (예컨대, F12) 를 계산할 수도 있다.
장치는 제 1 이미지의 제 1 특징 벡터를 생성하는 수단을 또한 포함할 수도 있다. 예를 들어, 제 1 특징 벡터를 생성하는 수단은 도 1의 프로세서 (104), 도 6의 프로세서 (604), 도 20의 명령들 (2060) 을 실행하도록 프로그램된 프로세서 (2010), 제 1 특징 벡터를 생성하기 위한 하나 이상의 다른 디바이스들, 회로들, 모듈들, 또는 명령들, 또는 그것들의 임의의 조합을 포함할 수도 있으며, 여기서 그 수단에 포함된 각각의 프로세서 (104, 604, 2010) 는 도 18의 방법 (1800) 에 관하여 설명된 바와 같이 제 1 이미지의 메트릭들의 값들을 결정할 수도 있다.
그 장치는 제 1 특징 벡터에 기초하여 제 1 이미지와 유사한 적어도 하나의 다른 이미지를 결정할 수도 있다. 예를 들어, 결정하는 수단은 도 1의 프로세서 (104), 도 1의 메모리 (106), 도 6의 프로세서 (604), 도 6의 메모리 (606), 도 20의 명령들 (2060) 을 실행하도록 프로그램된 프로세서 (2010), 제 1 특징 벡터를 생성하기 위한 하나 이상의 다른 디바이스들, 회로들, 모듈들, 또는 명령들, 또는 그것들의 임의의 조합을 포함할 수도 있으며, 여기서 그 수단에 포함된 각각의 프로세서 (104, 604, 2010) 는 제 1 이미지의 메트릭들의 값들과 다른 이미지의 메트릭들의 값들을 비교하고 유사도 임계값이 비교에 의해 충족되는지의 여부를 결정함으로써 유사도 (예컨대, F12) 를 계산할 수도 있다.
그 장치는 제 1 비디오의 제 1 특징 벡터를 생성하는 수단을 또한 포함할 수도 있다. 예를 들어, 제 2 특징 벡터를 생성하는 수단은 도 2의 프로세서 (204), 도 6의 프로세서 (604), 도 20의 명령들 (2060) 을 실행하도록 프로그램된 프로세서 (2010), 제 1 특징 벡터를 생성하기 위한 하나 이상의 다른 디바이스들, 회로들, 모듈들, 또는 명령들, 또는 그것들의 임의의 조합을 포함할 수도 있으며, 여기서 그 수단에 포함된 각각의 프로세서 (204, 604, 2010) 는 도 18의 방법 (1800) 에 관하여 설명된 바와 같이 제 1 비디오의 메트릭들의 값들을 결정할 수도 있다.
그 장치는 제 1 특징 벡터에 기초하여 제 1 비디오와 유사한 적어도 하나의 다른 비디오를 결정할 수도 있다. 예를 들어, 결정하는 수단은 도 2의 프로세서 (204), 도 2의 메모리 (206), 도 6의 프로세서 (604), 도 6의 메모리 (606), 도 20의 명령들 (2060) 을 실행하도록 프로그램된 프로세서 (2010), 제 1 특징 벡터를 생성하기 위한 하나 이상의 다른 디바이스들, 회로들, 모듈들, 또는 명령들, 또는 그것들의 임의의 조합을 포함할 수도 있으며, 여기서 그 수단에 포함된 각각의 프로세서 (204, 604, 2010) 는 제 1 비디오의 메트릭들의 값들과 다른 비디오의 메트릭들의 값들을 비교하고 유사도 임계값이 비교에 의해 충족되는지의 여부를 결정함으로써 유사도 (예컨대, F12) 를 계산할 수도 있다.
그 장치는 제 1 이미지의 메트릭들을 생성하는 수단을 또한 포함할 수도 있는데, 제 1 이미지의 각각의 메트릭은 제 1 이미지의 특정 특성에 대응할 수도 있다. 예를 들어, 생성하는 수단은 도 1의 프로세서 (104), 도 6의 프로세서 (604), 도 20의 명령들 (2060) 을 실행하도록 프로그램된 프로세서 (2010), 제 1 이미지의 메트릭들을 생성하기 위한 하나 이상의 다른 디바이스들, 회로들, 모듈들, 또는 명령들, 또는 그것들의 임의의 조합을 포함할 수도 있으며, 여기서 그 수단에 포함된 각각의 프로세서 (104, 604, 2010) 는 도 18의 방법 (1800) 에 관하여 설명된 바와 같이 제 1 이미지의 메트릭들의 값들을 결정할 수도 있다.
그 장치는 특정 메트릭의 가중치를 결정하는 수단을 또한 포함할 수도 있다. 예를 들어, 특정 메트릭의 가중치를 결정하는 수단은 도 1의 프로세서 (104), 도 6의 프로세서 (604), 도 20의 명령들 (2060) 을 실행하도록 프로그램된 프로세서 (2010), 특정 가중치를 결정하기 위한 하나 이상의 다른 디바이스들, 회로들, 모듈들, 또는 명령들, 또는 그것들의 임의의 조합을 포함할 수도 있으며, 여기서 그 수단에 포함된 각각의 프로세서 (104, 604, 2010) 는 특정 메트릭의 유사한 값들을 갖는 이미지들을 유사한 이미지들로서 분류하는 이력적 빈도에 기초하여 가중치를 결정할 수도 있다.
그 장치는 가중치가 임계값을 충족시킨다는 결정에 응답하여 특정 메트릭에 기초하여 제 1 이미지와 유사한 적어도 하나의 다른 이미지를 결정하는 수단을 또한 포함할 수도 있다. 예를 들어, 결정하는 수단은 도 1의 프로세서 (104), 도 6의 프로세서 (604), 도 20의 명령들 (2060) 을 실행하도록 프로그램된 프로세서 (2010), 적어도 하나의 다른 이미지를 결정하기 위한 하나 이상의 다른 디바이스들, 회로들, 모듈들, 또는 명령들, 또는 그것들의 임의의 조합을 포함할 수도 있으며, 여기서 그 수단에 포함된 각각의 프로세서 (104, 604, 2010) 는 제 1 이미지의 메트릭들의 값들과 다른 이미지의 메트릭들의 값들을 비교하고 유사도 임계값이 비교에 의해 충족되는지의 여부를 결정함으로써 유사도 (예컨대, F12) 를 계산할 수도 있다.
그 장치는 미디어 아이템의 제 1 사용자 선택을 수신하는 수단을 또한 포함할 수도 있다. 예를 들어, 수신하는 수단은 도 1의 프로세서 (104), 도 1의 사용자 인터페이스 디바이스 (108), 도 2의 프로세서 (204), 도 2의 사용자 인터페이스 디바이스 (208), 도 3의 사용자 인터페이스 디바이스 (300), 도 4의 사용자 인터페이스 디바이스 (400), 도 5의 사용자 인터페이스 디바이스 (500), 도 6의 프로세서 (604), 도 6의 사용자 인터페이스 디바이스 (608), 도 10a 및 도 10b의 사용자 인터페이스 디바이스 (1000), 도 20의 명령들 (2060) 을 실행하도록 프로그램된 프로세서 (2010), 제 1 사용자 선택을 수신하기 위한 하나 이상의 다른 디바이스들, 회로들, 모듈들, 또는 명령들, 또는 그것들의 임의의 조합을 포함할 수도 있으며, 그 수단에 포함된 각각의 프로세서 (104, 204, 604, 2010) 는 사용자 인터페이스에서의 사용자 액션 (예컨대, 선택) 에 응답하여 생성된 사용자 선택을 나타내는 신호를 수신할 수도 있다.
그 장치는 미디어 아이템의 메트릭들과 아이템들의 콜렉션에서의 다른 미디어 아이템들의 대응 메트릭들을 비교하는 수단을 또한 포함할 수도 있다. 예를 들어, 비교하는 수단은 도 1의 프로세서 (104), 도 1의 메모리 (106), 도 2의 프로세서 (204), 도 2의 메모리 (206), 도 6의 프로세서 (604), 도 20의 명령들 (2060) 을 실행하도록 프로그램된 프로세서 (2010), 메트릭들을 비교하기 위한 하나 이상의 다른 디바이스들, 회로들, 모듈들, 또는 명령들, 또는 그것들의 임의의 조합을 포함할 수도 있으며, 여기서 그 수단에 포함된 각각의 프로세서 (104, 204, 604, 2010) 는 미디어 아이템들의 메트릭들의 값들과 다른 미디어 아이템들의 메트릭들의 값들을 비교하고 유사도 임계값이 비교에 의해 충족되는지의 여부를 결정함으로써 유사도 (예컨대, F12) 를 계산할 수도 있다.
그 장치는 가중을 메트릭들 중 하나 이상에 적용하는 수단을 또한 포함할 수도 있다. 예를 들어, 가중을 적용하는 수단은 도 1의 프로세서 (104), 도 2의 프로세서 (204), 도 6의 프로세서 (604), 도 20의 명령들 (2060) 을 실행하도록 프로그램된 프로세서 (2010), 가중을 적용하기 위한 하나 이상의 다른 디바이스들, 회로들, 모듈들, 또는 명령들, 또는 그것들의 임의의 조합을 포함할 수도 있으며, 여기서 그 수단에 포함된 각각의 프로세서 (104, 204, 604, 2010) 는 가중된 비교 결과들을 생성하기 위해 저장된 가중치들의 세트에 기초하여 가중을 적용할 수도 있다.
그 장치는 가중된 비교 결과들에 기초하여 다른 미디어 아이템들 중 하나 이상을 선택하는 수단을 또한 포함할 수도 있다. 예를 들어, 선택하는 수단은 도 1의 프로세서 (104), 도 1의 메모리 (106), 도 1의 사용자 인터페이스 디바이스 (108), 도 2의 프로세서 (204), 도 2의 메모리 (206), 도 2의 사용자 인터페이스 디바이스 (208), 도 3의 사용자 인터페이스 디바이스 (300), 도 4의 사용자 인터페이스 디바이스 (400), 도 5의 사용자 인터페이스 디바이스 (500), 도 6의 프로세서 (604), 도 6의 사용자 인터페이스 디바이스 (608), 도 10a 및 도 10b의 사용자 인터페이스 디바이스 (1000), 도 20의 명령들 (2060) 을 실행하도록 프로그램된 프로세서 (2010), 하나 이상의 다른 미디어 아이템들을 선택하기 위한 하나 이상의 다른 디바이스들, 회로들, 모듈들, 또는 명령들, 또는 그것들의 임의의 조합을 포함할 수도 있으며, 여기서 각각의 프로세서 (104, 204, 604, 2010) 는 미디어 아이템들의 메트릭들의 값들과 다른 미디어 아이템들의 메트릭들의 값들을 비교하며, 유사도 임계값이 비교에 의해 충족되는지의 여부를 결정하고, 임계값을 충족시키는 다른 미디어 아이템들을 선택함으로써 유사도 (예컨대, F12) 를 계산할 수도 있다.
그 장치는 제 1 미디어 유형을 갖는 미디어 아이템의 제 1 사용자 선택을 수신하는 수단을 또한 포함할 수도 있다. 예를 들어, 제 1 사용자 선택을 수신하는 수단은 도 1의 프로세서 (104), 도 1의 사용자 인터페이스 디바이스 (108), 도 2의 프로세서 (204), 도 2의 사용자 인터페이스 디바이스 (208), 도 3의 사용자 인터페이스 디바이스 (300), 도 4의 사용자 인터페이스 디바이스 (400), 도 5의 사용자 인터페이스 디바이스 (500), 도 6의 프로세서 (604), 도 6의 사용자 인터페이스 디바이스 (608), 도 10a 및 도 10b의 사용자 인터페이스 디바이스 (1000), 도 20의 명령들 (2060) 을 실행하도록 프로그램된 프로세서 (2010), 제 1 사용자 선택을 수신하기 위한 하나 이상의 다른 디바이스들, 회로들, 모듈들, 또는 명령들, 또는 그것들의 임의의 조합을 포함할 수도 있으며, 여기서 그 수단에 포함된 각각의 프로세서 (104, 204, 604, 2010) 는 사용자 인터페이스에서의 사용자 액션 (예컨대, 선택) 에 응답하여 생성된 사용자 선택을 나타내는 신호를 수신할 수도 있다.
그 장치는 또한 다른 미디어 아이템을 선택하는 수단을 또한 포함할 수도 있다. 예를 들어, 선택하는 수단은 도 1의 프로세서 (104), 도 1의 메모리 (106), 도 1의 사용자 인터페이스 디바이스 (108), 도 2의 프로세서 (204), 도 2의 메모리 (206), 도 2의 사용자 인터페이스 디바이스 (208), 도 3의 사용자 인터페이스 디바이스 (300), 도 4의 사용자 인터페이스 디바이스 (400), 도 5의 사용자 인터페이스 디바이스 (500), 도 6의 프로세서 (604), 도 6의 사용자 인터페이스 디바이스 (608), 도 10a 및 도 10b의 사용자 인터페이스 디바이스 (1000), 도 20의 명령들 (2060) 을 실행하도록 프로그램된 프로세서 (2010), 다른 미디어 아이템을 선택하기 위한 하나 이상의 다른 디바이스들, 회로들, 모듈들, 또는 명령들, 또는 그것들의 임의의 조합을 포함할 수도 있고, 그 수단에 포함된 각각의 프로세서 (104, 204, 604, 2010) 는 그 미디어 아이템 및 다른 미디어 아이템의 값들 (예컨대, 타임 스탬프, 지리적 로케이션, 또는 텍스트 정보에 대응하는 값들) 을 비교하고, 유사도가 유사도 임계값을 충족시킨다면 다른 미디어 아이템을 선택함으로써 유사도 (예컨대, F12) 를 계산할 수도 있다.
그 장치는 사용자 인터페이스로부터 수신된 파일 전송 명령들이 논리 그룹에서의 모든 미디어 아이템들에 적용되는 것을 가능하게 하기 위해 미디어 아이템 및 다른 미디어 아이템을 포함하는 미디어 아이템들의 논리 그룹을 생성하는 수단을 또한 포함할 수도 있다 예를 들어, 논리 그룹을 생성하는 수단은 도 1의 프로세서 (104), 도 1의 메모리 (106), 도 1의 사용자 인터페이스 디바이스 (108), 도 2의 프로세서 (204), 도 2의 메모리 (206), 도 2의 사용자 인터페이스 디바이스 (208), 도 3의 사용자 인터페이스 디바이스 (300), 도 4의 사용자 인터페이스 디바이스 (400), 도 5의 사용자 인터페이스 디바이스 (500), 도 6의 프로세서 (604), 도 6의 사용자 인터페이스 디바이스 (608), 도 10a 및 도 10b의 사용자 인터페이스 디바이스 (1000), 도 20의 명령들 (2060) 을 실행하도록 프로그램된 프로세서 (2010), 논리 그룹을 생성하기 위한 하나 이상의 다른 디바이스들, 회로들, 모듈들, 또는 명령들, 또는 그것들의 임의의 조합을 포함할 수도 있으며, 여기서 그 수단에 포함된 각각의 프로세서 (104, 204, 604, 2010) 는 미디어 아이템 및 다른 미디어 아이템에 대응하는 파일들을 압축된 파일로 결합하고 파일 전송을 지시하는 사용자 인터페이스로부터 수신된 신호에 응답하여 압축된 파일의 전송을 개시한다.
그 장치는 통신 링크가 수신하는 수단을 모바일 디바이스에 접속시킴에 응답하여 모바일 디바이스로부터 데이터를 수신하는 수단을 또한 포함할 수도 있다. 예를 들어, 수신하는 수단은 도 21의 컴퓨터 (2102), 모바일 디바이스로부터 데이터를 수신하기 위한 하나 이상의 다른 디바이스들, 회로들, 모듈들, 또는 명령들, 또는 그것들의 임의의 조합을 또한 포함할 수도 있다.
그 장치는 선택된 미디어 아이템에 대한 다른 미디어 아이템의 유사도에 기초하여 다른 미디어 아이템을 수신하는 수단을 또한 포함할 수도 있다. 예를 들어, 다른 미디어 아이템을 수신하는 수단은 도 21의 컴퓨터 (2102), 다른 미디어 아이템을 수신하기 위한 하나 이상의 다른 디바이스들, 회로들, 모듈들, 또는 명령들, 또는 그것들의 임의의 조합을 포함할 수도 있다.
다른 실시형태에서, 그 장치는 모바일 디바이스로부터 원격 디바이스로 전송된 제 1 미디어 아이템의 선택을 수신하는 수단을 포함한다. 예를 들어, 제 1 미디어 아이템의 선택을 수신하는 수단은 도 1의 프로세서 (104), 도 1의 사용자 인터페이스 디바이스 (108), 도 2의 프로세서 (204), 도 2의 사용자 인터페이스 디바이스 (208), 도 3의 사용자 인터페이스 디바이스 (300), 도 4의 사용자 인터페이스 디바이스 (400), 도 5의 사용자 인터페이스 디바이스 (500), 도 6의 프로세서 (604), 도 6의 사용자 인터페이스 디바이스 (608), 도 10a 및 도 10b의 사용자 인터페이스 디바이스 (1000), 도 20의 명령들 (2060) 을 실행하도록 프로그램된 프로세서 (2010), 제 1 사용자 선택을 수신하기 위한 하나 이상의 다른 디바이스들, 회로들, 모듈들, 또는 명령들, 또는 그것들의 임의의 조합을 포함할 수도 있으며, 여기서 그 수단에 포함된 각각의 프로세서 (104, 204, 604, 2010) 는 사용자 인터페이스에서의 사용자 액션 (예컨대, 선택) 에 응답하여 생성된 제 1 미디어 아이템의 선택을 나타내는 신호를 수신할 수도 있다.
이 실시형태에서, 그 장치는 제 1 미디어 아이템에 대한 제 2 미디어 아이템의 유사도에 기초하여 원격 디바이스로 전송할 제 2 미디어 아이템을 선택하는 수단을 또한 포함한다. 예를 들어, 제 2 미디어 아이템을 선택하는 수단은 도 1의 프로세서 (104), 도 2의 프로세서 (204), 도 6의 프로세서 (604), 도 20의 명령들 (2060) 을 실행하도록 프로그램된 프로세서 (2010), 제 2 미디어 아이템을 선택하기 위한 하나 이상의 다른 디바이스들, 회로들, 모듈들, 또는 명령들, 또는 그것들의 임의의 조합을 포함할 수도 있으며, 여기서 그 수단에 포함된 각각의 프로세서 (104, 204, 604, 2010) 는 제 1 미디어 아이템에 대한 제 2 미디어 아이템의 유사도에 기초하여 제 2 미디어 시간을 선택할 수도 있다. 패키지형 모멘트 데이터는 제 1 미디어 아이템 및 제 2 미디어 아이템을 포함하는 다수의 미디어 아이템들에 연관된 미디어 데이터를 포함할 수도 있다.
특정 실시형태에서, 제 2 미디어 아이템은 특정 메트릭의 가중치가 임계값을 충족시킨다면 그 특정 메트릭에 기초하여 원격 디바이스로의 송신을 위해 선택될 수도 있다. 특정 메트릭은 제 1 미디어 아이템의 특정 특성에 대응할 수도 있고, 가중치는 특정 메트릭의 유사한 값들을 갖는 미디어 아이템들을 그룹으로서 분류하는 이력적 빈도에 기초할 수도 있다. 예를 들어, 특정 메트릭은 도 1 내지 도 2의 메트릭들 중 하나에 해당할 수도 있고, 가중치는 도 1 내지 도 2를 참조하여 설명된 바와 같이 결정될 수도 있다. 다른 특정 실시형태에서, 그 장치는 패키지형 모멘트 데이터를 원격 디바이스로 전송하기 위한 수단을 더 포함할 수도 있다. 예를 들어, 패키지형 모멘트 데이터를 전송하는 수단은 도 1의 프로세서 (104), 도 2의 프로세서 (204), 도 6의 프로세서 (604), 도 20의 명령들 (2060) 을 실행하도록 프로그램된 프로세서 (2010), 무선 제어기 (2040), 가중을 적용하기 위한 하나 이상의 다른 디바이스들, 회로들, 모듈들, 또는 명령들, 또는 그것들의 임의의 조합을 포함할 수도 있다.
도 21을 참조하면, 컴퓨터를 모바일 디바이스에 접속하도록 동작 가능한 시스템 (2100) 의 특정 실시형태가 도시되어 있다. 시스템 (2100) 은 컴퓨터 (2102) 와 모바일 디바이스 (2000) 를 구비한다. 컴퓨터 (2102) 는 통신 링크 (2104) 를 통해 모바일 디바이스 (2000) 에 접속될 수도 있다. 통신 링크 (2104) 는 무선 통신 링크 또는 유선 통신 링크일 수도 있다. 예를 들어, 통신 링크 (2104) 는 모바일 디바이스 (2000) 및 컴퓨터 (2102) 간의 Wifi 접속 (예컨대, 무선) 에 해당할 수도 있다. 대안으로, 통신 링크 (2104) 는 유니버셜 직렬 버스 (universal serial bus, USB), 고품위 멀티미디어 interface (high-definition multimedia interface, HDMI), 이더넷, 또는 모바일 디바이스 (2000) 및 컴퓨터 (2102) 간의 다른 유선 또는 무선 접속일 수도 있다.
통신 링크 (2104) 를 통한 모바일 디바이스 (2000) 와 컴퓨터 (2102) 의 접속에 응답하여, 데이터는 모바일 디바이스 (2000) 로부터 컴퓨터 (2102) 로 전송될 수도 있다. 그 데이터는 모바일 디바이스 (2000) 로부터 컴퓨터 (2102) 로 전송될 사용자 선택 미디어 아이템을 포함할 수도 있다. 예를 들어, 그 데이터는 제 1 이미지 (111) 를 포함할 수도 있고, 제 1 이미지 (111) 를 포함하는 데이터는 컴퓨터 (2102) 로 전송될 수도 있다.
그 컴퓨터 (2102) 는 선택된 미디어 아이템과 유사한 다른 미디어 아이템들을 (예컨대, 패키지형 모멘트 데이터로서) 또한 수신할 수도 있다. 예를 들어, 컴퓨터는 제 1 이미지 (111) 와 유사하게 될 모바일 디바이스 (2000) 에 의해 결정된 다른 이미지들을 수신할 수도 있다. 대안으로, 컴퓨터 (2102) 는 모바일 디바이스 (2000) 상의 저장된 미디어 콘텐츠를 프로세싱하며, 특징 벡터들을 생성하고, 모바일 디바이스 (2000) 로부터 컴퓨터 (2102) 로의 전송을 위한 제안들을 생성할 수도 있다. 컴퓨터 (2102) 는 전송될 다른 미디어 아이템들의 사용자 선택을 가능하게 하기 위해 컴퓨터 (2102) 의 사용자 인터페이스 디바이스 (2108) 를 통해 다른 미디어 아이템들의 표현을 제공할 수도 있다. 예를 들어, 사용자 인터페이스 디바이스 (2108) 는 제 2 이미지 (112), 제 5 이미지 (115), 및 제 6 이미지 (116) 를 디스플레이 (예컨대, 제 1 이미지 (111) 와 유사한 것으로 결정되는 이미지들을 디스플레이) 할 수도 있다. 특정 실시형태에서, 사용자 인터페이스 디바이스 (2108) 는 적어도 미디어 아이템들의 서브세트의 에뮬레이트된 3차원 표현을 디스플레이할 수도 있다. 예를 들어, 사용자 인터페이스 디바이스 (2108) 는 도 3의 사용자 인터페이스 디바이스 (300) 에 해당할 수도 있다. 다른 특정 실시형태에서, 사용자 인터페이스 디바이스 (2108) 는 적어도 미디어 아이템들의 서브세트의 2차원 표현을 디스플레이할 수도 있다. 예를 들어, 사용자 인터페이스 디바이스 (2108) 는 도 4의 사용자 인터페이스 디바이스 (400) 에 해당할 수도 있다. 다른 특정 실시형태에서, 사용자 인터페이스 디바이스 (2108) 는 도 5의 사용자 인터페이스 디바이스 (500) 에 해당할 수도 있다.
사용자가 사용자 인터페이스 디바이스 (2108) 를 통해 디스플레이된 선택된 이미지들을 클릭 (또는 다르게는 선택) 함으로써 컴퓨터 (2102) 로 전송될 이미지들을 선택할 수도 있다. 예를 들어, 사용자는 제 1 이미지 (111) 와 함께 컴퓨터 (2102) 로 전송될 제 2 이미지 (112), 제 5 이미지 (115), 및 제 6 이미지 (116) 를 선택할 수도 있다.
따라서, 다른 미디어 아이템들은 다른 미디어 아이템들이 선택된 미디어 아이템과 유사하다는 모바일 디바이스 (2000) 에 의한 결정에 기초하여 선택된 미디어 아이템과 함께 (예컨대, 패키지형 모멘트 데이터로서) 컴퓨터 (2102) 로 전송될 수도 있다. 시스템 (2100) 은 유사한 특성들을 갖는 다수의 미디어 아이템들을 모바일 디바이스 (2000) 로부터 컴퓨터 (2102) 로 사용자가 전송하기 위한 시간의 양을 감소시킬 수도 있다는 것이 이해될 것이다. 예를 들어, 전송될 다른 미디어 아이템들의 사용자 선택을 가능하게 하기 위해 컴퓨터 (2102) 의 사용자 인터페이스 디바이스 (2108) 를 통해 다른 미디어 아이템들의 표현을 제공하는 것은 사용자가 데이터베이스로부터 다른 미디어 아이템들의 각각의 찾는 것을 방지할 수도 있다.
당업자들은 본원에서 개시된 실시형태들에 관련하여 설명되는 다양한 예시적인 논리 블록들, 구성들, 모듈들, 회로들, 및 알고리즘 단계들이 전자 하드웨어, 컴퓨터 소프트웨어, 또는 양쪽 모두의 조합들로서 구현될 수도 있다는 것을 추가로 이해할 것이다. 다양한 예시적인 컴포넌트들, 블록들, 구성들, 모듈들, 회로들, 및 단계들은 일반적으로 그것들의 기능성의 측면에서 위에서 설명되었다. 이러한 기능성이 하드웨어 또는 소프트웨어 중 어느 것으로 구현되는지는 전체 시스템에 부과되는 특정 애플리케이션 및 설계 제약들에 달려있다. 당업자들은 설명된 기능성을 각 특정 애플리케이션에 대하여 다양한 방식들로 구현할 수도 있지만, 이러한 구현 결정들은 본 개시물의 범위를 벗어나도록 야기하는 것으로서 해석되지 않아야 한다.
본원에 개시된 실시형태들에 관련하여 설명된 방법 또는 알고리즘의 단계들은 하드웨어로, 프로세서에 의해 실행되는 소프트웨어 모듈로, 또는 이들 두 가지의 조합으로 직접 실시될 수도 있다. 소프트웨어 모듈은 RAM (random-access memory), 플래시 메모리, ROM (read-only memory), 프로그래밍가능 ROM (PROM), 소거가능 프로그래밍가능 ROM (EPROM), 전기적 소거가능 프로그래밍가능 ROM (EEPROM), 레지스터들, 하드 디스크, 착탈실 디스크, CD-ROM (compact disc read-only memory), 또는 이 기술분야에서 알려진 임의의 다른 형태의 저장 매체에 존재할 수도 있다. 예시적인 저장 매체가 프로세서에 커플링되어서 그 프로세서는 저장 매체로부터 정보를 읽을 수 있고 그 저장 매체에 정보를 쓸 수 있다. 대체예에서, 저장 매체는 프로세서에 통합될 수도 있다. 프로세서와 저장 매체는 주문형 집적회로 (ASIC) 내에 존재할 수도 있다. ASIC은 컴퓨팅 디바이스 또는 사용자 단말 내에 존재할 수도 있다. 대체예에서, 프로세서와 저장 매체는 컴퓨팅 디바이스 또는 사용자 단말에 개별 컴포넌트들로서 존재할 수도 있다.
개시된 실시형태들의 이전의 설명은 임의의 당업자가 개시된 실시형태들을 제작하고 사용하는 것을 가능하게 하기 위해 제공된다. 이들 실시형태들에 대한 다양한 변형예들은 당업자들에게 쉽사리 명확하게 될 것이고, 본원에서 정의된 원리들은 본 개시물의 범위로부터 벗어남 없이 다른 실시형태들에 적용될 수도 있다. 따라서, 본 개시물은 본원에서 보인 실시형태들로 한정될 의도는 없으며 다음의 청구항들에 의해 정의된 원리들 및 신규한 특징들과 일치하는 가능한 가장 넓은 범위에 일치하는 것이다.

Claims (30)

  1. 모바일 디바이스로부터 원격 디바이스로 전송할 제 1 미디어 유형을 갖는 제 1 미디어 아이템을 복수의 미디어 아이템들로부터 선택하는 입력을 수신하는 단계;
    상기 입력에 응답하여 상기 모바일 디바이스에 의해, 상기 원격 디바이스로 전송할 하나 이상의 제 2 미디어 아이템들을 선택하는 단계로서, 상기 하나 이상의 제 2 미디어 아이템들은 상기 제 1 미디어 아이템에 대한 상기 하나 이상의 제 2 미디어 아이템들의 특성들의 유사도에 기초하여 선택되며, 상기 특성들은 지리적 로케이션 및 시간 중 적어도 하나를 포함하고, 상기 하나 이상의 제 2 미디어 아이템들 중 적어도 하나는 상기 제 1 미디어 유형과 다른 제 2 미디어 유형을 갖는, 상기 원격 디바이스로 전송할 상기 하나 이상의 제 2 미디어 아이템들을 선택하는 단계; 및
    상기 모바일 디바이스에 의해, 상기 원격 디바이스로 전송할 미디어 아이템들의 그룹을 생성하는 단계를 포함하고,
    상기 미디어 아이템들의 그룹은 적어도 상기 제 1 미디어 아이템 및 상기 하나 이상의 제 2 미디어 아이템들과 연관된 미디어 데이터를 포함하는, 방법.
  2. 제 1 항에 있어서,
    상기 제 1 미디어 아이템은 상기 모바일 디바이스의 센서를 통해 캡처되고,
    상기 하나 이상의 제 2 미디어 아이템들은 상기 복수의 미디어 아이템들로부터 선택되며,
    상기 원격 디바이스는 제 2 모바일 디바이스, 컴퓨터, 또는 서버를 포함하는, 방법.
  3. 제 1 항에 있어서,
    상기 입력은 상기 모바일 디바이스의 사용자 인터페이스 디바이스를 통한 상기 제 1 미디어 아이템의 사용자 선택을 포함하고,
    상기 제 1 미디어 아이템에 대한 상기 하나 이상의 제 2 미디어 아이템들의 유사도는 선택된 특정 특성들을 위해 결정되는, 방법.
  4. 제 3 항에 있어서,
    상기 제 1 미디어 아이템에 대한 상기 하나 이상의 제 2 미디어 아이템들의 유사도는 상기 제 1 미디어 아이템의 상기 특정 특성들에 대한 상기 하나 이상의 제 2 미디어 아이템들의 상기 특정 특성들의 유사도에 적어도 부분적으로 기초하는, 방법.
  5. 제 1 항에 있어서,
    상기 모바일 디바이스에 의해, 상기 모바일 디바이스에 근접한 다른 모바일 디바이스로부터 상기 하나 이상의 제 2 미디어 아이템들을 자동으로 취출하는 단계를 더 포함하는, 방법.
  6. 제 5 항에 있어서,
    상기 하나 이상의 제 2 미디어 아이템들은 상기 다른 모바일 디바이스로 쿼리를 전송하는 것에 응답하여 취출되고, 상기 쿼리는 상기 특성들을 위한 기준들을 나타내고 상기 기준들을 충족시키는 미디어 아이템들을 요청하는, 방법.
  7. 제 1 항에 있어서,
    상기 미디어 데이터는 상기 모바일 디바이스에서의 음성 호의 오디오 녹음물, 전자 메일 메시지, 단문 메시지 서비스 (short message service, SMS) 메시지, 또는 소셜 미디어 포스트의 이미지 중 적어도 하나와 연관되는, 방법.
  8. 제 1 항에 있어서,
    상기 미디어 아이템들의 그룹을 생성한 후 상기 모바일 디바이스에서 수신자 디스플레이 윈도우를 제시하는 단계를 더 포함하고, 상기 수신자 디스플레이 윈도우는 특정 사용자들에게 전송되도록 지정된 상기 미디어 아이템들의 그룹의 미디어 데이터에 대응하는 미디어 아이템들을 나타내는, 방법.
  9. 제 8 항에 있어서,
    상기 수신자 디스플레이 윈도우에서의 미디어 아이템들의 지정들에 기초하여 상기 미디어 아이템들의 그룹의 미디어 데이터에 대응하는 미디어 아이템들의 서브세트를 특정 사용자에게 전송하는 단계를 더 포함하는, 방법.
  10. 제 8 항에 있어서,
    그래픽 사용자 인터페이스를 통해 상기 수신자 디스플레이 윈도우에서의 지정들을 조정하는 단계를 더 포함하는, 방법.
  11. 제 1 항에 있어서,
    상기 미디어 아이템들의 그룹을 생성한 후 상기 모바일 디바이스에서 요약 윈도우를 제시하는 단계를 더 포함하고, 상기 요약 윈도우는 상기 미디어 아이템들의 그룹의 미디어 데이터에 대응하는 미디어 아이템들의 유형들을 나타내는, 방법.
  12. 명령들을 포함하는 비일시적 컴퓨터 판독가능 매체로서,
    상기 명령들은, 모바일 디바이스 내의 프로세서에 의해 실행되는 경우, 상기 프로세서로 하여금,
    상기 모바일 디바이스로부터 원격 디바이스로 전송할 제 1 미디어 유형을 갖는 제 1 미디어 아이템을 복수의 미디어 아이템들로부터 선택하는 입력을 수신하게 하고;
    상기 입력에 응답하여, 상기 원격 디바이스로 전송할 하나 이상의 제 2 미디어 아이템들을 선택하는 것으로서, 상기 하나 이상의 제 2 미디어 아이템들은 상기 제 1 미디어 아이템에 대한 상기 하나 이상의 제 2 미디어 아이템들의 특성들의 유사도에 기초하여 선택되며, 상기 특성들은 지리적 로케이션 및 시간 중 적어도 하나를 포함하고, 상기 하나 이상의 제 2 미디어 아이템들 중 적어도 하나는 상기 제 1 미디어 유형과 다른 제 2 미디어 유형을 갖는, 상기 원격 디바이스로 전송할 상기 하나 이상의 제 2 미디어 아이템들을 선택하게 하고; 그리고
    상기 원격 디바이스로 전송할 미디어 아이템들의 그룹을 생성하게 하고,
    상기 미디어 아이템들의 그룹은 상기 제 1 미디어 아이템 및 상기 하나 이상의 제 2 미디어 아이템들과 연관된 미디어 데이터를 포함하는, 비일시적 컴퓨터 판독가능 매체.
  13. 모바일 디바이스로서,
    상기 모바일 디바이스로부터 원격 디바이스로 전송할 제 1 미디어 유형을 갖는 제 1 미디어 아이템을 복수의 미디어 아이템들로부터 선택하는 입력을 수신하는 수단;
    상기 입력에 응답하여, 상기 원격 디바이스로 전송할 하나 이상의 제 2 미디어 아이템들을 선택하는 수단으로서, 상기 하나 이상의 제 2 미디어 아이템들은 상기 제 1 미디어 아이템에 대한 상기 하나 이상의 제 2 미디어 아이템들의 메트릭들의 유사도에 기초하여 선택되며, 상기 메트릭들은 지리적 로케이션 및 시간 중 적어도 하나를 포함하고, 상기 하나 이상의 제 2 미디어 아이템들 중 적어도 하나는 상기 제 1 미디어 유형과 다른 제 2 미디어 유형을 갖는, 상기 원격 디바이스로 전송할 상기 하나 이상의 제 2 미디어 아이템들을 선택하는 수단; 및
    상기 원격 디바이스로 미디어 아이템들의 그룹을 전송하는 수단으로서, 상기 미디어 아이템들의 그룹은 적어도 상기 제 1 미디어 아이템과 상기 하나 이상의 제 2 미디어 아이템들과 연관된 미디어 데이터를 포함하는, 상기 원격 디바이스로 미디어 아이템들의 그룹을 전송하는 수단을 포함하는, 모바일 디바이스.
  14. 제 13 항에 있어서,
    상기 하나 이상의 제 2 미디어 아이템들은 특정 메트릭의 가중치가 임계값을 충족시키는 경우 상기 특정 메트릭에 기초하여 상기 원격 디바이스로의 송신을 위해 선택되고, 상기 특정 메트릭은 상기 제 1 미디어 아이템의 특정 특성에 대응하며, 상기 특정 메트릭의 상기 가중치는 상기 특정 메트릭의 유사한 값들을 갖는 미디어 아이템들이 빈번하게 그룹화되는 경우 높아지는, 모바일 디바이스.
  15. 제 13 항에 있어서,
    상기 수신하는 수단은 상기 선택하는 수단에 커플링된 사용자 인터페이스 디바이스를 포함하고, 상기 선택하는 수단은 상기 복수의 미디어 아이템들로부터 상기 하나 이상의 제 2 미디어 아이템들을 선택하도록 구성되며, 상기 미디어 아이템들의 그룹을 상기 원격 디바이스로 전송하는 수단을 더 포함하는, 모바일 디바이스.
  16. 삭제
  17. 삭제
  18. 삭제
  19. 삭제
  20. 삭제
  21. 삭제
  22. 삭제
  23. 삭제
  24. 삭제
  25. 삭제
  26. 삭제
  27. 삭제
  28. 삭제
  29. 삭제
  30. 삭제
KR1020157034759A 2013-05-28 2014-05-28 미디어 아이템들을 선택하기 위한 시스템들 및 방법들 KR102172128B1 (ko)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
US201361828104P 2013-05-28 2013-05-28
US61/828,104 2013-05-28
US14/288,250 2014-05-27
US14/288,250 US9843623B2 (en) 2013-05-28 2014-05-27 Systems and methods for selecting media items
PCT/US2014/039744 WO2014193927A1 (en) 2013-05-28 2014-05-28 Systems and methods for selecting media items

Publications (2)

Publication Number Publication Date
KR20160013062A KR20160013062A (ko) 2016-02-03
KR102172128B1 true KR102172128B1 (ko) 2020-10-30

Family

ID=51986638

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020157034759A KR102172128B1 (ko) 2013-05-28 2014-05-28 미디어 아이템들을 선택하기 위한 시스템들 및 방법들

Country Status (6)

Country Link
US (4) US9843623B2 (ko)
EP (1) EP3005670B1 (ko)
JP (2) JP6509824B2 (ko)
KR (1) KR102172128B1 (ko)
CN (1) CN105247845B (ko)
WO (1) WO2014193927A1 (ko)

Families Citing this family (37)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20140156704A1 (en) * 2012-12-05 2014-06-05 Google Inc. Predictively presenting search capabilities
US9843623B2 (en) 2013-05-28 2017-12-12 Qualcomm Incorporated Systems and methods for selecting media items
JP2015153103A (ja) * 2014-02-13 2015-08-24 株式会社リコー 情報処理装置および情報処理システム
US9628551B2 (en) * 2014-06-18 2017-04-18 International Business Machines Corporation Enabling digital asset reuse through dynamically curated shared personal collections with eminence propagation
US9641761B2 (en) * 2014-07-14 2017-05-02 Samsung Electronics Co., Ltd Electronic device for playing-playing contents and method thereof
US10397346B2 (en) * 2014-11-24 2019-08-27 Facebook, Inc. Prefetching places
US10863354B2 (en) 2014-11-24 2020-12-08 Facebook, Inc. Automated check-ins
US9799373B2 (en) 2015-11-05 2017-10-24 Yahoo Holdings, Inc. Computerized system and method for automatically extracting GIFs from videos
US9639535B1 (en) * 2015-12-16 2017-05-02 Waste Repurposing International, Inc. Waste identification systems and methods
CN107239473A (zh) * 2016-03-29 2017-10-10 阿里巴巴集团控股有限公司 一种展示图片选择方法及装置
US10535343B2 (en) 2016-05-10 2020-01-14 Google Llc Implementations for voice assistant on devices
JP6797938B2 (ja) * 2016-05-13 2020-12-09 グーグル エルエルシーGoogle LLC 媒体出力装置間での媒体転送
CN107426388B (zh) * 2016-05-24 2021-02-19 富泰华工业(深圳)有限公司 一种智能呼叫装置、系统及方法
KR101815176B1 (ko) 2016-06-03 2018-01-05 주식회사 하이퍼커넥트 중개 방법, 장치 및 시스템
CN106161628B (zh) * 2016-07-13 2020-12-01 腾讯科技(深圳)有限公司 拍摄文件上传方法及装置
US10534809B2 (en) * 2016-08-10 2020-01-14 Zeekit Online Shopping Ltd. Method, system, and device of virtual dressing utilizing image processing, machine learning, and computer vision
US10290136B2 (en) 2016-08-10 2019-05-14 Zeekit Online Shopping Ltd Processing user selectable product images and facilitating visualization-assisted coordinated product transactions
CN106777053A (zh) * 2016-12-09 2017-05-31 国网北京市电力公司 媒体内容的分类方法和装置
US11016719B2 (en) * 2016-12-30 2021-05-25 DISH Technologies L.L.C. Systems and methods for aggregating content
CA3058785C (en) * 2017-04-20 2022-02-01 Mylio, LLC Systems and methods to autonomously add geolocation information to media objects
KR20180133593A (ko) 2017-06-07 2018-12-17 주식회사 하이퍼커넥트 중개 방법 및 장치
KR101979650B1 (ko) 2018-03-07 2019-05-17 주식회사 하이퍼커넥트 서버 및 그것의 동작 방법
US10761818B2 (en) * 2018-10-31 2020-09-01 Salesforce.Com, Inc. Automatic identification of types of user interface components
WO2020102349A1 (en) 2018-11-13 2020-05-22 Illumy, Inc. Methods, systems, and apparatus for email to persistent messaging and/or text to persistent messaging
US10939236B1 (en) 2018-11-30 2021-03-02 Snap Inc. Position service to determine relative position to map features
CN109981881B (zh) * 2019-01-21 2021-02-26 华为技术有限公司 一种图像分类的方法和电子设备
CN110012309B (zh) * 2019-03-01 2021-12-24 陈作良 一种智能合拍视频的制作系统和方法
KR102308636B1 (ko) 2019-08-27 2021-10-06 주식회사 하이퍼커넥트 영상 통화 중개 장치, 방법 및 컴퓨터 판독 가능한 기록매체
KR102329481B1 (ko) 2019-09-09 2021-11-24 주식회사 하이퍼커넥트 복수의 단말기를 중개하는 서버, 및 그것의 중개 방법
US11194516B2 (en) * 2019-10-08 2021-12-07 Micron Technology, Inc. Media type selection
KR102455966B1 (ko) 2019-12-16 2022-10-18 주식회사 하이퍼커넥트 중개 장치, 방법 및 컴퓨터 판독 가능한 기록매체
KR102373764B1 (ko) 2020-02-21 2022-03-15 주식회사 하이퍼커넥트 단말기 및 그것의 동작 방법
CN111314759B (zh) * 2020-03-02 2021-08-10 腾讯科技(深圳)有限公司 视频处理方法、装置、电子设备及存储介质
CN112597321B (zh) * 2021-03-05 2022-02-22 腾讯科技(深圳)有限公司 基于区块链的多媒体处理方法及相关设备
CN113504869A (zh) * 2021-06-28 2021-10-15 惠州Tcl云创科技有限公司 一种数据迁移方法及系统
US11558209B1 (en) * 2021-07-30 2023-01-17 Zoom Video Communications, Inc. Automatic spotlight in video conferencing
TWI831235B (zh) * 2022-06-06 2024-02-01 仁寶電腦工業股份有限公司 動態影像之處理方法、電子裝置及其連接之終端裝置

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20100048242A1 (en) 2008-08-19 2010-02-25 Rhoads Geoffrey B Methods and systems for content processing

Family Cites Families (44)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000285242A (ja) 1999-01-29 2000-10-13 Sony Corp 信号処理方法及び映像音声処理装置
JP4497733B2 (ja) * 2000-02-22 2010-07-07 キヤノン株式会社 データ処理装置及びデータ処理方法
JP4597258B2 (ja) * 2000-02-22 2010-12-15 キヤノン株式会社 データ処理装置及びデータ処理方法
US7068723B2 (en) * 2002-02-28 2006-06-27 Fuji Xerox Co., Ltd. Method for automatically producing optimal summaries of linear media
JP3996495B2 (ja) * 2002-11-27 2007-10-24 富士フイルム株式会社 ディジタル・カメラおよびその制御方法
US8108342B2 (en) * 2007-09-10 2012-01-31 Robert Salinas Methods and systems of content mobilization, mobile search, and video editing through a web interface
JP3984175B2 (ja) 2003-01-31 2007-10-03 富士フイルム株式会社 写真画像選別装置およびプログラム
US7685134B2 (en) 2003-12-31 2010-03-23 Nokia Corporation Media file sharing, correlation of metadata related to shared media files and assembling shared media file collections
US8001192B1 (en) * 2004-06-28 2011-08-16 Sprint Spectrum L.P. Method and apparatus for automatically generating custom format messages based on message-destination
GB2421094A (en) 2004-12-09 2006-06-14 Sony Uk Ltd Generating reduced feature vectors for information retrieval
US8160400B2 (en) 2005-11-17 2012-04-17 Microsoft Corporation Navigating images using image based geometric alignment and object based controls
JP4641270B2 (ja) 2006-03-01 2011-03-02 富士通株式会社 選択装置、選択方法、および選択プログラム
JP4760578B2 (ja) 2006-07-10 2011-08-31 カシオ計算機株式会社 撮像装置、動画撮影方法、および動画撮影制御プログラム
JP4945236B2 (ja) 2006-12-27 2012-06-06 株式会社東芝 映像コンテンツ表示装置、映像コンテンツ表示方法及びそのプログラム
JP5013982B2 (ja) * 2007-06-12 2012-08-29 キヤノン株式会社 画像送信装置及びその制御方法、プログラム
JP4505760B2 (ja) 2007-10-24 2010-07-21 ソニー株式会社 情報処理装置および方法、プログラム、並びに、記録媒体
US8631079B2 (en) * 2008-06-20 2014-01-14 Microsoft Corporation Displaying a list of file attachments associated with a message thread
US20100125795A1 (en) * 2008-07-03 2010-05-20 Mspot, Inc. Method and apparatus for concatenating audio/video clips
KR101680044B1 (ko) 2008-08-19 2016-11-28 디지맥 코포레이션 콘텐트 처리를 위한 방법들 및 시스템들
US8929877B2 (en) 2008-09-12 2015-01-06 Digimarc Corporation Methods and systems for content processing
US8628453B2 (en) 2008-12-05 2014-01-14 Nike, Inc. Athletic performance monitoring systems and methods in a team sports environment
US8380005B1 (en) 2009-02-02 2013-02-19 Adobe Systems Incorporated System and method for image composition using non-destructive editing model and fast gradient solver
US9852761B2 (en) * 2009-03-16 2017-12-26 Apple Inc. Device, method, and graphical user interface for editing an audio or video attachment in an electronic message
US8363888B2 (en) 2009-03-18 2013-01-29 Shutterfly, Inc. Proactive creation of photobooks
GB0907870D0 (en) 2009-05-07 2009-06-24 Univ Catholique Louvain Systems and methods for the autonomous production of videos from multi-sensored data
US8755738B2 (en) * 2009-09-11 2014-06-17 Qualcomm Incorporated Systems and methods for generating a selective distribution of media content feeds
KR101411593B1 (ko) 2009-09-14 2014-06-25 삼성전자주식회사 Ui 제공방법 및 이를 적용한 디스플레이 장치
EP2524324B1 (fr) 2010-01-11 2019-04-24 InterDigital Madison Patent Holdings Procede de navigation parmi des identificateurs places dans des zones et recepteur mettant en oeuvre le procede
US9189137B2 (en) * 2010-03-08 2015-11-17 Magisto Ltd. Method and system for browsing, searching and sharing of personal video by a non-parametric approach
US8810684B2 (en) 2010-04-09 2014-08-19 Apple Inc. Tagging images in a mobile communications device using a contacts list
JP5523182B2 (ja) 2010-04-20 2014-06-18 キヤノン株式会社 映像編集装置および映像編集方法
US8605221B2 (en) 2010-05-25 2013-12-10 Intellectual Ventures Fund 83 Llc Determining key video snippets using selection criteria to form a video summary
US8225233B2 (en) 2010-07-08 2012-07-17 Alexey Kashik Analysis of complex data objects and multiple parameter systems
US8270684B2 (en) 2010-07-27 2012-09-18 Google Inc. Automatic media sharing via shutter click
US8874538B2 (en) * 2010-09-08 2014-10-28 Nokia Corporation Method and apparatus for video synthesis
US8977767B2 (en) 2010-10-20 2015-03-10 Qualcomm Incorporated Methods and apparatuses for affecting programming of content for transmission over a multicast network
CN102959951B (zh) * 2011-04-07 2016-07-20 松下电器(美国)知识产权公司 图像处理装置、图像处理方法及集成电路
US8977778B2 (en) * 2011-08-29 2015-03-10 Latakoo, Inc. Compressing, transcoding, sending, and retrieving video and audio files in a server-based system and related systems and methods
US8885960B2 (en) * 2011-10-05 2014-11-11 Microsoft Corporation Linking photographs via face, time, and location
US9143601B2 (en) * 2011-11-09 2015-09-22 Microsoft Technology Licensing, Llc Event-based media grouping, playback, and sharing
US8984273B2 (en) * 2011-12-16 2015-03-17 Protected Mobility, Llc Method to provide secure multimedia messaging between peer systems
RU2015100214A (ru) * 2012-08-20 2016-10-10 Рон ЛЕВИ Системы и способы основанного на коллекции комплектования и отображения мультимедийных данных
KR102070772B1 (ko) * 2012-12-07 2020-01-29 엘지전자 주식회사 이동 단말기 및 이의 제어 방법, 이를 위한 기록 매체
US9843623B2 (en) 2013-05-28 2017-12-12 Qualcomm Incorporated Systems and methods for selecting media items

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20100048242A1 (en) 2008-08-19 2010-02-25 Rhoads Geoffrey B Methods and systems for content processing

Also Published As

Publication number Publication date
US20140359483A1 (en) 2014-12-04
JP2019149182A (ja) 2019-09-05
CN105247845B (zh) 2018-04-03
US11706285B2 (en) 2023-07-18
WO2014193927A1 (en) 2014-12-04
JP6509824B2 (ja) 2019-05-08
US11146619B2 (en) 2021-10-12
US20180069918A1 (en) 2018-03-08
JP2016527599A (ja) 2016-09-08
EP3005670A1 (en) 2016-04-13
US9843623B2 (en) 2017-12-12
US20220046081A1 (en) 2022-02-10
CN105247845A (zh) 2016-01-13
JP6938556B2 (ja) 2021-09-22
US20230319130A1 (en) 2023-10-05
KR20160013062A (ko) 2016-02-03
EP3005670B1 (en) 2017-06-14

Similar Documents

Publication Publication Date Title
KR102172128B1 (ko) 미디어 아이템들을 선택하기 위한 시스템들 및 방법들
KR102449545B1 (ko) 지리공간적 활동 메트릭들을 표시하는 지도-기반 그래픽 사용자 인터페이스
US11275489B2 (en) Method and apparatus for uploading photographed file
US10685059B2 (en) Portable electronic device and method for generating a summary of video data
US9836464B2 (en) Curating media from social connections
US10739958B2 (en) Method and device for executing application using icon associated with application metadata
US8745139B2 (en) Configuring channels for sharing media
US20180275840A1 (en) Method for executing program and electronic device thereof
US10684754B2 (en) Method of providing visual sound image and electronic device implementing the same
KR20200040752A (ko) 모바일 컴퓨팅 디바이스에서 컨텍스트 액션들을 서피싱하기 위한 개선된 사용자 인터페이스
US20160034539A1 (en) System and method of managing metadata
KR20130072109A (ko) 이동 단말기, 서버, 이동 단말기 제어 방법 및 서버의 제어 방법
CN106231152B (zh) 传输图片的方法及装置
CN111480158B (zh) 文件管理方法及电子设备
WO2015183638A1 (en) Selectively adding content to user group host
CN117396849A (zh) 在消息系统内将功能组合成快捷方式
KR102264428B1 (ko) 전자 장치의 동작 방법 및 장치
KR102289293B1 (ko) 전자장치에서 콘텐츠 재생 방법 및 장치
KR102050594B1 (ko) 전자장치에서 콘텐츠 재생 방법 및 장치

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant