KR102669113B1 - Diy 효과 이미지 수정 - Google Patents

Diy 효과 이미지 수정 Download PDF

Info

Publication number
KR102669113B1
KR102669113B1 KR1020227031395A KR20227031395A KR102669113B1 KR 102669113 B1 KR102669113 B1 KR 102669113B1 KR 1020227031395 A KR1020227031395 A KR 1020227031395A KR 20227031395 A KR20227031395 A KR 20227031395A KR 102669113 B1 KR102669113 B1 KR 102669113B1
Authority
KR
South Korea
Prior art keywords
effect
option
image
user
options
Prior art date
Application number
KR1020227031395A
Other languages
English (en)
Other versions
KR20220140596A (ko
Inventor
카일 굿리치
사무엘 에드워드 하레
막심 막시모브 라자로브
토니 매튜
앤드류 제임스 맥피
다니엘 모레노
웬타오 샹
Original Assignee
스냅 인코포레이티드
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 스냅 인코포레이티드 filed Critical 스냅 인코포레이티드
Priority to KR1020247016852A priority Critical patent/KR20240090689A/ko
Publication of KR20220140596A publication Critical patent/KR20220140596A/ko
Application granted granted Critical
Publication of KR102669113B1 publication Critical patent/KR102669113B1/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/265Mixing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/2628Alteration of picture size, shape, position or orientation, e.g. zooming, rotation, rolling, perspective, translation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0412Digitisers structurally integrated in a display
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0482Interaction with lists of selectable items, e.g. menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04845Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range for image manipulation, e.g. dragging, rotation, expansion or change of colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/0485Scrolling or panning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/50Business processes related to the communications industry
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/60Editing figures and text; Combining figures or text
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L51/00User-to-user messaging in packet-switching networks, transmitted according to store-and-forward or real-time protocols, e.g. e-mail
    • H04L51/04Real-time or near real-time messaging, e.g. instant messaging [IM]
    • H04L51/046Interoperability with other network applications or services
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L51/00User-to-user messaging in packet-switching networks, transmitted according to store-and-forward or real-time protocols, e.g. e-mail
    • H04L51/07User-to-user messaging in packet-switching networks, transmitted according to store-and-forward or real-time protocols, e.g. e-mail characterised by the inclusion of specific contents
    • H04L51/10Multimedia information
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L51/00User-to-user messaging in packet-switching networks, transmitted according to store-and-forward or real-time protocols, e.g. e-mail
    • H04L51/07User-to-user messaging in packet-switching networks, transmitted according to store-and-forward or real-time protocols, e.g. e-mail characterised by the inclusion of specific contents
    • H04L51/18Commands or executable codes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/2621Cameras specially adapted for the electronic generation of special effects during image pickup, e.g. digital cameras, camcorders, video cameras having integrated special effects capability
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/272Means for inserting a foreground image in a background image, i.e. inlay, outlay
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L51/00User-to-user messaging in packet-switching networks, transmitted according to store-and-forward or real-time protocols, e.g. e-mail
    • H04L51/06Message adaptation to terminal or network requirements
    • H04L51/063Content adaptation, e.g. replacement of unsuitable content

Landscapes

  • Engineering & Computer Science (AREA)
  • Signal Processing (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Processing Or Creating Images (AREA)
  • User Interface Of Digital Computer (AREA)
  • Business, Economics & Management (AREA)
  • Tourism & Hospitality (AREA)
  • Health & Medical Sciences (AREA)
  • Economics (AREA)
  • General Health & Medical Sciences (AREA)
  • Human Resources & Organizations (AREA)
  • Marketing (AREA)
  • Primary Health Care (AREA)
  • Strategic Management (AREA)
  • General Business, Economics & Management (AREA)
  • Operations Research (AREA)

Abstract

본 개시내용의 양태들은 동작들을 수행하기 위한 적어도 하나의 프로그램 및 방법을 저장하는 컴퓨터 판독가능 저장 매체를 포함하는 시스템을 수반하며, 동작들은: 메시징 애플리케이션에 의해, 사용자 디바이스의 카메라로부터 이미지를 수신하는 동작; 사용자 맞춤화가능 효과 모드를 활성화하기 위한 사용자 맞춤화가능 효과 옵션을 선택하는 입력을 수신하는 동작; 입력을 수신한 것에 응답하여, 사용자 맞춤화가능 효과 옵션에 근접한 이미지와 함께 복수의 효과 옵션의 어레이를 디스플레이하는 동작; 및 복수의 효과 옵션 중 제1 효과 옵션과 연관된 제1 효과를 이미지에 적용하기 위한 동작들을 포함한다.

Description

DIY 효과 이미지 수정
[우선권 주장]
본 출원은 2020년 5월 5일자로 출원된 미국 특허 출원 일련번호 제15/929,484호 및 2020년 2월 14일자로 출원된 미국 가출원 제62/976,916호에 대한 우선권의 이익을 주장하며, 이들 각각은 그 전체가 본 명세서에 참고로 포함된다.
[기술 분야]
본 개시내용은 일반적으로 시각적 프레젠테이션에 관한 것으로, 특히 컴퓨팅 디바이스의 카메라 피드에서 캡처된 현실 세계 환경 내에서 가상 객체들을 렌더링하는 것에 관한 것이다.
증강 현실(augmented reality, AR)은 컴퓨터 생성 그래픽 콘텐츠(computer-generated graphics content)에 의해 현실 세계 객체들 및 환경들의 뷰(view)를 보완하는 것을 지칭한다. 가상 렌더링 시스템은 참여하고 즐기는 AR 경험을 생성하고, 이것을 시청하고, 이것과 상호작용하는데 이용될 수 있는데, 참여하고 즐기는 AR 경험에서는 3D 가상 객체 그래픽 콘텐츠가 현실 세계에 존재하는 것처럼 보인다. 가상 렌더링 시스템은 스마트폰 및 태블릿과 같은 모바일 디바이스 내에서 자주 구현된다.
반드시 실제 축척(scale)으로 그려진 것이 아닌 도면에서, 유사한 번호가 상이한 도면들 내의 유사한 컴포넌트를 기술할 수 있다. 임의의 특정 요소 또는 액트(act)의 논의를 용이하게 식별하기 위해, 참조 번호에서 최상위 숫자 또는 숫자들은 그 요소가 처음 도입되는 도면 번호를 가리킨다. 일부 실시예들은 첨부 도면들의 그림들에서 제한이 아닌 예로서 도시된다.
도 1은 예시적인 실시예들에 따른, 네트워크를 통해 데이터(예를 들어, 메시지들 및 연관된 콘텐츠)를 교환하기 위한 메시징 시스템을 도시하는 블록도이다.
도 2는 예시적인 실시예들에 따른, 메시징 시스템에 관한 추가 상세사항들을 도시하는 블록도이다.
도 3은 예시적인 실시예들에 따른, 메시징 시스템의 데이터베이스에 저장될 수 있는 데이터를 도시하는 개략도이다.
도 4는 예시적인 실시예들에 따른, 통신을 위해 메시징 클라이언트 애플리케이션에 의해 생성된 메시지의 구조를 도시하는 개략도이다.
도 5는 예시적인 실시예들에 따른, 메시징 시스템의 일부로서 제공될 수 있는, DIY 효과 이미지 수정 시스템의 다양한 컴포넌트들을 도시하는 블록도이다.
도 6 및 도 7은, 예시적 실시예에 따른, 3D 자막을 포함하는 메시지를 생성하기 위한 방법을 수행하는데 있어서 DIY 효과 이미지 수정 시스템의 예시적 동작을 도시하는 흐름도들이다.
도 8 내지 도 18은 일부 예시적인 실시예에 따른, 메시징 시스템에 의해 제공되는 다양한 인터페이스를 도시하는 인터페이스도들이다.
도 19는 예시적인 실시예들에 따른, 본 명세서에 설명된 다양한 하드웨어 아키텍처와 연계하여 사용될 수 있는, 대표적인 소프트웨어 아키텍처를 도시하는 블록도이다.
도 20은 예시적인 실시예들에 따른, 머신 판독가능 매체(예를 들어, 머신 판독가능 저장 매체)로부터 명령어들을 판독하고 본 명세서에서 논의된 방법론들 중 임의의 하나 이상을 수행할 수 있는 머신의 컴포넌트들을 도시하는 블록도이다.
이하의 설명은 본 개시내용의 예시적인 실시예들을 구체화하는 시스템, 방법, 기술, 명령어 시퀀스, 및 컴퓨팅 머신 프로그램 제품을 포함한다. 이하의 설명에서, 설명 목적을 위해, 수많은 구체적인 상세사항이 본 발명의 주제의 다양한 실시예에 대한 이해를 제공하기 위해 제시된다. 그러나, 본 기술 분야의 통상의 기술자들은 본 발명의 주제의 실시예들이 이들 특정 상세사항 없이 실시될 수 있음이 명백할 것이다. 일반적으로, 잘 알려진 명령어 인스턴스들(instances), 프로토콜들(protocols), 구조들, 및 기법들은 반드시 상세하게 도시되어 있는 것은 아니다.
전통적인 가상 렌더링 시스템은 환경 조건, 사용자 행위, 카메라와 렌더링 중인 객체 사이의 예상치 못한 시각적 중단, 및 그와 유사한 것으로 인한 프레젠테이션 문제를 겪을 수 있다. 이는 가상 객체가 사라지거나 다른 경우에는 괴상하게 거동하게 야기할 수 있으며, 이는 가상 객체들이 현실 세계에 존재한다는 환상을 깨뜨린다. 예를 들어, 가상 렌더링 시스템은 사용자가 현실 세계를 통해 여기저기 이동함에 따라 현실 세계 아이템들에 관하여 일관된 방식으로 가상 객체들을 제시하지 않을 수 있다.
덧붙여, 종래의 가상 렌더링 시스템은 AR 콘텐츠를 제작하는 것과 관련된 기능성이 종종 부족한데, 그 이유는 이러한 종래의 시스템은 모바일 컴퓨팅 디바이스의 제한된 디스플레이 크기에 대해 최적화되지 않기 때문이다. 예로서, 종래의 가상 렌더링 시스템은 종종 미리 정의된 3D 가상 객체들에 제한되고, 이들 가상 객체들을 생성하거나 편집하는 능력을 사용자에게 제공하지 못한다. 또 다른 예로서, 종래의 가상 렌더링 시스템의 사용자 인터페이스는 사용자가 특정 콘텐츠 제작 기능에 접근하기 위해 다양한 뷰 또는 윈도우 사이를 내비게이트할 것을 종종 요구한다. 이러한 시스템들은 보통은 뷰들과 윈도우들 사이의 내비게이션을 용이하게 하기 위해 버튼들 또는 다른 대화형 요소들을 제공하지만, 버튼들 및 다른 대화형 요소들은 종종 이용가능한 디스플레이 공간의 많은 부분을 활용하게 되는데, 이는 제작되는 AR 콘텐츠를 불명료하게 하거나 또는 사용자가 제작되고 있는 AR 콘텐츠를 검사하기 위해 또 다른 윈도우 또는 뷰로 내비게이트할 것을 요구할 수 있다. 그 결과, 종래의 가상 렌더링 시스템에 의해 제공되는 AR 콘텐츠 제작 프로세스는, 사용자들이 다양한 뷰들 및 윈도우들을 통해 반복적으로 질질 끌게 하여 궁극적으로 사용자의 기대를 충족시키지 못할 수 있는 콘텐츠를 산출하는 것을 요구하는 시간 소모적이고 지루한 프로세스일 수 있다.
본 개시내용의 양태들은, 현실 세계 환경에 존재하기나 한 것처럼, 3D 자막 및 3D 드로잉을 포함하는 가상 3차원(3D) 객체와 같은 이미지 수정 효과를 생성하고, 카메라 피드 내에서 가상 3D 객체를 포함하는 이미지 수정 효과를 렌더링하기 위한 시스템, 방법, 기법, 명령어 시퀀스, 및 컴퓨팅 머신 프로그램 제품을 포함한다. 예를 들어, 개시된 기법은 메시징 애플리케이션에 의해, 사용자 디바이스의 카메라로부터 비디오 피드의 프레임과 같은 이미지를 수신하는 동작; 사용자 맞춤화가능 효과 모드를 활성화하기 위한 사용자 맞춤화가능 효과 옵션을 선택하는 입력을 수신하는 동작; 상기 입력을 수신한 것에 응답하여, 상기 사용자 맞춤화가능 효과 옵션에 근접한 이미지와 함께 복수의 효과 옵션의 어레이를 디스플레이하는 동작; 및 복수의 효과 옵션 중 제1 효과 옵션과 연관된 제1 효과를 이미지에 적용하기 위한 동작을 포함한다. 본 명세서에서 언급된 바와 같이, 각각의 효과는 기저(underlying) 이미지 또는 비디오의 픽셀화 패턴 및/또는 컬러 스킴을 상이한 방식으로 수정한다.
이러한 방식들로, 이러한 사용자 인터페이스들은 이전 시스템의 인터페이스를 개선하고, 현실 세계 환경을 묘사하는 실시간 비디오 피드 상에 제시되는 사용자 맞춤가능 이미지 수정 효과를 제공하는 것과 같이 더 큰 기능성 및 향상된 상호작용 메커니즘을 제공함으로써 디바이스의 동작을 개선한다. 이러한 개선들이 주어지면, 시스템은 디스플레이 스크린 크기가 제한되는 모바일 디바이스 구현에 특히 적합할 수 있다.
도 1은 네트워크(106)를 통해 데이터(예를 들어, 메시지들 및 연관된 콘텐츠)를 교환하기 위한 예시적인 메시징 시스템(100)을 도시하는 블록도이다. 메시징 시스템(100)은 다중의 클라이언트 디바이스(102)를 포함하고, 이들 각각은 메시징 클라이언트 애플리케이션(104)을 포함하는 다수의 애플리케이션을 호스팅한다. 각각의 메시징 클라이언트 애플리케이션(104)은 네트워크(106)(예를 들어, 인터넷)를 통해 메시징 클라이언트 애플리케이션(104) 및 메시징 서버 시스템(108)의 다른 인스턴스들에 통신가능하게 결합된다.
따라서, 각각의 메시징 클라이언트 애플리케이션(104)은 네트워크(106)를 통해 또 다른 메시징 클라이언트 애플리케이션(104)과 그리고 메시징 서버 시스템(108)과 통신하고 데이터를 교환할 수 있다. 메시징 클라이언트 애플리케이션들(104) 사이에 그리고 메시징 클라이언트 애플리케이션(104)과 메시징 서버 시스템(108) 사이에 교환되는 데이터는, 기능들(예를 들어, 기능들을 기동시키는 명령들)뿐만 아니라, 페이로드 데이터(예를 들어, 텍스트, 오디오, 비디오 또는 다른 멀티미디어 데이터)를 포함한다.
메시징 서버 시스템(108)은 네트워크(106)를 통해 특정 메시징 클라이언트 애플리케이션(104)에 서버 측 기능성을 제공한다. 메시징 시스템(100)의 특정 기능들이 메시징 클라이언트 애플리케이션(104)에 의해 또는 메시징 서버 시스템(108)에 의해 수행되는 것으로 본 명세서에 설명되지만, 메시징 클라이언트 애플리케이션(104) 또는 메시징 서버 시스템(108) 내의 특정 기능성의 로케이션은 설계 선택사항이라는 것을 알 것이다. 예를 들어, 처음에 메시징 서버 시스템(108) 내에 특정 기술 및 기능성을 배치하지만, 나중에 클라이언트 디바이스(102)가 충분한 처리 용량을 갖는 메시징 클라이언트 애플리케이션(104)으로 이 기술 및 기능성을 이주시키는 것이 기술적으로 바람직할 수 있다.
메시징 서버 시스템(108)은 메시징 클라이언트 애플리케이션(104)에 제공되는 다양한 서비스들 및 동작들을 지원한다. 그러한 동작들은 메시징 클라이언트 애플리케이션(104)에 데이터를 송신하고, 그로부터 데이터를 수신하고, 그에 의해 생성된 데이터를 처리하는 것을 포함한다. 이 데이터에는, 예로서, 메시지 콘텐츠, 클라이언트 디바이스 정보, 지오로케이션 정보, 미디어 주석 및 오버레이, 메시지 콘텐츠 지속 조건, 소셜 네트워크 정보, 및 라이브 이벤트 정보를 포함할 수 있다. 메시징 시스템(100) 내에서의 데이터 교환은 메시징 클라이언트 애플리케이션(104)의 사용자 인터페이스(UI)들을 통해 이용 가능한 기능들을 통해 기동되고 제어된다.
이제 구체적으로 메시징 서버 시스템(108)을 참조하면, API(Application Program Interface) 서버(110)가 애플리케이션 서버(112)에 결합되어 프로그램 방식의 인터페이스(programmatic interface)를 제공한다. 애플리케이션 서버(112)는 데이터베이스 서버(118)에 통신가능하게 결합되고, 이는 애플리케이션 서버(112)에 의해 처리되는 메시지들과 연관된 데이터가 저장되는 데이터베이스(120)로의 액세스를 용이하게 한다.
API 서버(110)를 구체적으로 다루면, 이 서버는 클라이언트 디바이스(102)와 애플리케이션 서버(112) 사이에서 메시지 데이터(예를 들어, 명령들 및 메시지 페이로드들)를 수신하고 송신한다. 구체적으로, API 서버(110)는 애플리케이션 서버(112)의 기능성을 기동하기 위해 메시징 클라이언트 애플리케이션(104)에 의해 호출되거나 질의될 수 있는 인터페이스들(예를 들어, 루틴들 및 프로토콜들)의 세트를 제공한다. API 서버(110)는, 계정 등록, 로그인 기능성, 특정 메시징 클라이언트 애플리케이션(104)으로부터 또 다른 메시징 클라이언트 애플리케이션(104)으로의, 애플리케이션 서버(112)를 통한 메시지의 전송, 메시징 클라이언트 애플리케이션(104)으로부터 메시징 서버 애플리케이션(114)으로의 미디어 파일들(예를 들어, 이미지 또는 비디오)의 전송, 및 또 다른 메시징 클라이언트 애플리케이션(104)에 의한 가능한 액세스를 위해, 미디어 데이터의 컬렉션(예를 들어, 스토리)의 설정, 그러한 컬렉션들의 검색, 클라이언트 디바이스(102)의 사용자의 친구들의 리스트의 검색, 메시지 및 콘텐츠의 검색, 소셜 그래프로의 친구의 추가 및 삭제, 소셜 그래프 내에서의 친구들의 로케이션, 및 (예를 들어, 메시징 클라이언트 애플리케이션(104)에 관한) 애플리케이션 이벤트를 오픈하는 것을 포함한, 애플리케이션 서버(112)에 의해 지원되는 다양한 기능들을 노출시킨다.
애플리케이션 서버(112)는 메시징 서버 애플리케이션(114), 이미지 처리 시스템(116), 및 소셜 네트워크 시스템(122)을 포함하는 다수의 애플리케이션 및 서브시스템을 호스팅한다. 메시징 서버 애플리케이션(114)은, 특히 메시징 클라이언트 애플리케이션(104)의 다중의 인스턴스로부터 수신된 메시지들에 포함된 콘텐츠(예를 들어, 텍스트 및 멀티미디어 콘텐츠)의 모음(aggregation) 및 다른 처리에 관련된, 다수의 메시지 처리 기술 및 기능을 구현한다. 더 상세히 설명되는 바와 같이, 다중의 소스로부터의 텍스트 및 미디어 콘텐츠는 콘텐츠의 컬렉션들(예를 들어, 스토리 또는 갤러리라고 불림)이 되돌고 모아질 수 있다. 그 후, 이러한 컬렉션들은 메시징 서버 애플리케이션(114)에 의해, 메시징 클라이언트 애플리케이션(104)에 이용 가능하게 된다. 다른 프로세서 및 메모리 집약적인 데이터의 처리가 또한, 그러한 처리를 위한 하드웨어 요건을 고려하여, 메시징 서버 애플리케이션(114)에 의해 서버 측에서 수행될 수 있다.
애플리케이션 서버(112)는 전형적으로 메시징 서버 애플리케이션(114)에서 메시지의 페이로드 내에서 수신된 이미지 또는 비디오에 관하여, 다양한 이미지 처리 동작들을 수행하는 데 전용되는 이미지 처리 시스템(116)을 또한 포함한다.
소셜 네트워크 시스템(122)은 다양한 소셜 네트워킹 기능 및 서비스를 지원하고, 이들 기능 및 서비스를 메시징 서버 애플리케이션(114)에 이용 가능하게 만든다. 이를 위해, 소셜 네트워크 시스템(122)은 데이터베이스(120) 내에 엔티티 그래프를 유지하고 그에 액세스한다. 소셜 네트워크 시스템(122)에 의해 지원되는 기능 및 서비스의 예는 특정 사용자가 그와 관계를 가지거나 "팔로우하고 있는" 메시징 시스템(100)의 다른 사용자들의 식별, 및 또한 다른 엔티티들의 식별 및 특정 사용자의 관심사항을 포함한다.
애플리케이션 서버(112)는 데이터베이스 서버(118)에 통신가능하게 결합되고, 이는 메시징 서버 애플리케이션(114)에 의해 처리되는 메시지들과 연관된 데이터가 저장되는 데이터베이스(120)로의 액세스를 용이하게 한다.
도 2는 예시적인 실시예들에 따른, 메시징 시스템(100)에 관한 추가의 상세사항들을 예시하는 블록도이다. 구체적으로, 메시징 시스템(100)은 메시징 클라이언트 애플리케이션(104) 및 애플리케이션 서버(112)를 포함하는 것으로 도시되며, 이는 결국 다수의 일부 서브시스템, 즉, 단기적 타이머 시스템(ephemeral timer system)(202), 컬렉션 관리 시스템(204) 및 주석 시스템(206)을 구체화한다.
단기적 타이머 시스템(202)은 메시징 클라이언트 애플리케이션(104) 및 메시징 서버 애플리케이션(114)에 의해 허용되는 콘텐츠에 대한 일시적인 액세스를 시행하는 것을 담당한다. 이를 위해, 단기적 타이머 시스템(202)은 메시지, 또는 메시지들의 컬렉션(예를 들어, 스토리)과 연관된 지속기간 및 디스플레이 파라미터들에 기초하여, 메시징 클라이언트 애플리케이션(104)을 통해 메시지들 및 연관된 콘텐츠를 선택적으로 디스플레이하고 그에 대한 액세스를 가능하게 하는 다수의 타이머를 포함한다.
컬렉션 관리 시스템(204)은 미디어의 컬렉션들(예를 들어, 텍스트, 이미지, 비디오 및 오디오 데이터의 컬렉션들)을 관리하는 것을 담당한다. 일부 예들에서, 콘텐츠의 컬렉션(예를 들어, 이미지들, 비디오, 텍스트, 및 오디오를 포함하는 메시지들)은 "이벤트 갤러리(event gallery)" 또는 "이벤트 스토리(event story)"가 되도록 조직될 수 있다. 그러한 컬렉션은 콘텐츠가 관련되는 이벤트의 지속기간과 같은 지정된 시간 기간 동안 이용 가능하게 될 수 있다. 예를 들어, 음악 콘서트와 관련된 콘텐츠는 그 음악 콘서트의 지속기간 동안 "스토리"로서 이용 가능하게 될 수 있다. 컬렉션 관리 시스템(204)은 또한 메시징 클라이언트 애플리케이션(104)의 사용자 인터페이스에 특정 컬렉션의 존재의 통지를 제공하는 아이콘을 게시(publish)하는 것을 담당할 수 있다.
컬렉션 관리 시스템(204)은 더욱이 컬렉션 관리자가 콘텐츠의 특정 컬렉션을 관리 및 큐레이팅하는 것을 허용하는 큐레이션 인터페이스(208)를 포함한다. 예를 들어, 큐레이션 인터페이스(208)는 이벤트 조직자가 특정 이벤트에 관련된 콘텐츠의 컬렉션을 큐레이팅(예를 들어, 부적절한 콘텐츠 또는 중복 메시지들을 삭제)하는 것을 가능하게 한다. 추가적으로, 컬렉션 관리 시스템(204)은 머신 비전(또는 이미지 인식 기술) 및 콘텐츠 규칙들을 채택하여 콘텐츠 컬렉션을 자동으로 큐레이팅한다. 특정 실시예들에서, 사용자 생성 콘텐츠(user-generated content)를 컬렉션에 포함시키는 것에 대한 보상이 사용자에게 지불될 수 있다. 그러한 경우들에서, 큐레이션 인터페이스(208)는 그러한 사용자들에게 그들의 콘텐츠를 사용하는 것에 대해 자동으로 지불하도록 동작한다.
주석 시스템(206)은 사용자가 메시지와 연관된 미디어 콘텐츠를 주석하거나 다른 방식으로 수정하거나 편집하는 것을 가능하게 하는 다양한 기능들을 제공한다. 예를 들어, 주석 시스템(206)은 메시징 시스템(100)에 의해 처리된 메시지들에 대한 미디어 오버레이들의 생성 및 게시와 관련된 기능들을 제공한다. 주석 시스템(206)은 미디어 오버레이(예를 들어, 필터 또는 LENS)를 메시징 클라이언트 애플리케이션(104)에 동작적으로 공급한다. 또 다른 예에서, 주석 시스템(206)은 클라이언트 디바이스(102)의 사용자의 소셜 네트워크 정보와 같은 다른 정보에 기초하여 메시징 클라이언트 애플리케이션(104)에 미디어 오버레이를 동작적으로 공급한다. 미디어 오버레이는 오디오 및 시각적 콘텐츠 및 시각적 효과를 포함할 수 있다. 오디오 및 시각 콘텐츠의 예들은 사진들, 텍스트들, 로고들, 애니메이션들, 및 음향 효과들을 포함한다. 시각적 효과의 예는 컬러 오버레잉(color overlaying)을 포함한다. 개시된 실시예들에 따른 특정 시각적 효과들은 도 14 내지 도 18에 묘사되어 있으며, 햇볕 태움 효과 옵션, 오래된 패션 효과 옵션, 서리 효과 옵션, 네온 효과 옵션, 정사각형 효과 옵션, 엽서 효과 옵션, 안테나 효과 옵션, 무아레(moire) 효과 옵션, CCTV 효과 옵션, 원 효과 옵션, 하트 모양 효과 옵션, 직사각형 효과 옵션, 보케(bokeh) 효과 옵션, 플레어 효과 옵션, 및/또는 사랑 효과 옵션을 포함하는 다양한 옵션으로부터 선택함으로써 적용될 수 있다.
오디오 및 시각적 콘텐츠 또는 시각적 효과는 클라이언트 디바이스(102)에 있는 미디어 콘텐츠 아이템(예를 들어, 사진)에 적용될 수 있다. 예를 들어, 미디어 오버레이는 클라이언트 디바이스(102)에 의해 생성된 이미지 또는 비디오의 위에 오버레이될 수 있는 텍스트를 포함한다. 또 다른 예에서, 미디어 오버레이는, 로케이션 식별 오버레이(예를 들어, Venice Beach), 라이브 이벤트 이름, 판매자 이름 오버레이(예를 들어, Beach Coffee House)를 포함한다.
주석 시스템(206)은 클라이언트 디바이스(102)의 카메라 피드(또한 본 기술분야의 통상의 기술자들에 의해 "카메라 스트림", "비디오 스트림", 또는 "비디오 피드"로서 또한 지칭됨) 내에서 캡처된 3D 공간 내에서, 클라이언트 디바이스(102)에 대한 위치들에서 가상 객체들을 생성하고, 디스플레이하고, 추적하는 기능성을 제공하는 DIY 효과 이미지 수정 시스템(210)을 포함한다. DIY 효과 이미지 수정 시스템(210)에 의해 생성, 디스플레이, 및 추적되는 가상 객체는 3D 자막, 3D 컷아웃 및 3D 페인팅을 포함한다. 3D 자막은 하나 이상의 텍스트 캐릭터(예를 들어, 문자, 심벌, 및 이모지)의 3D 표현이다. DIY 효과 이미지 수정 시스템(210)은 또한, 주어진 비디오 피드(또는 비디오 스트림)가 사용자에게 제시되고 있는 동안 적용할 다양한 이미지 효과를 선택하고 이들 효과들의 속성들을 수정하기 위한 사용자 친화적이고 직관적인 디스플레이를 제공한다. 각각의 효과가 사용자에 의해 선택됨에 따라, DIY 효과 이미지 수정 시스템(210)은 현재 활성화된 것의 표시를 디스플레이하고, 효과에 따라 비디오 스트림을 수정한다. DIY 효과 이미지 수정 시스템(210)은 또한 사용자가 비디오 피드에 적용되고 있는 주어진 효과의 속성들을 변경하는 것을 허용한다.
DIY 효과 이미지 수정 시스템(210)은 사용자들이 3D 자막과 같은 3D 객체 및 이미지 수정 효과를 제작, 편집, 및 미리보기할 수 있게 하는 기능성을 제공한다. 이를 위해, DIY 효과 이미지 수정 시스템(210)은 편집 인터페이스(212) 및 미리보기 인터페이스(214)를 포함한다. 편집 인터페이스(212)는 사용자가 선택된 이미지 수정 효과에 따라 비디오 피드를 제작하고 편집하는 것을 허용한다. 미리보기 인터페이스(214)는 사용자가 선택된 효과를 갖는 편집된 비디오 피드를 포함하는 메시지를 생성하기 전에 편집된 비디오 피드를 미리보기하고 검토하도록 허용한다. 미리보기 인터페이스(214)는 또한 사용자가 (예를 들어, 3D 자막의 스케일, 오리엔테이션, 배치, 폰트, 스타일, 및/또는 컬러를 변경함으로써) 3D 객체의 프레젠테이션을 편집하는 것을 가능하게 할 수 있다.
일부 경우에, DIY 효과 이미지 수정 시스템(210)은 3D 공간에서 검출된 기준 표면(예를 들어, 지면)에 기초하여 카메라 피드 내에서 캡처된 3D 공간에서의 위치에서 (예를 들어, 클라이언트 디바이스(102)의 디스플레이 상에) 3D 자막이 디스플레이되게 야기할 수 있다. 이하에서 더 상세히 논의되는 바와 같이, DIY 효과 이미지 수정 시스템(210)은, 추적 표시 세트에 기초하여 3D 공간에서의 위치에서 3D 자막을 추적하고 추적 서브시스템들 사이에서 천이하도록 구성된 추적 서브시스템 세트를 포함하는 중복(redundant) 추적 시스템을 포함한다. DIY 효과 이미지 수정 시스템(210)은 추적 표시의 가용성에 기초하여 6 자유도(6DoF)로 추적하는 것과 3 자유도(3DoF)로 추적하는 것 사이에서 천이할 수 있다.
일부 실시예들에서, DIY 효과 이미지 수정 시스템(210)은 얼굴 검출 및/또는 추적 컴포넌트를 포함한다. DIY 효과 이미지 수정 시스템(210)은 수신 및 디스플레이되고 있는 카메라 피드에서 얼굴이 검출된다는 표시를 얼굴 검출 컴포넌트로부터 수신할 수 있다. 이러한 경우, DIY 효과 이미지 수정 시스템(210)은 3D 자막을 얼굴에 매우 근접하게 자동으로 위치시킨다. 예를 들어, DIY 효과 이미지 수정 시스템(210)은 얼굴의 상부(예를 들어, 정수리 형상), 얼굴의 하부 주위에서 또는 카메라 피드에 묘사된 사람의 이마 주변에서 3D 자막을 만곡시킬 수 있다. 사용자가 카메라를 움직임에 따라, 얼굴은 더 이상 얼굴 검출 컴포넌트에 의해 검출되지 않을 수 있다. 그 결과, DIY 효과 이미지 수정 시스템(210)은 3D 자막을 얼굴에 근접하게 배치되는 것으로부터 적절한 기준 표면(예를 들어, 지면) 상에 배치되는 것으로 이동시킬 수 있다. 카메라가 다시 얼굴을 드러내도록 뒤로 움직일 때(pan back), DIY 효과 이미지 수정 시스템(210)은 자동으로 이동하여 3D 자막의 디스플레이를 기준 표면으로부터 얼굴에 매우 근접하게 천이시킨다. 3D 자막이 카메라 피드에서의 얼굴 부근에 위치할 때, DIY 효과 이미지 수정 시스템(210)은 얼굴 추적 컴포넌트를 활성화하여 얼굴의 위치 변화에 관해 3D 자막의 위치를 지속적으로 조절한다. 예를 들어, 얼굴이 위아래로 이동함에 따라, 3D 자막도 역시 위아래로 이동하여 카메라 피드에서 얼굴의 위에 또는 그 아래에 그 배치를 유지한다.
일부 실시예들에서, DIY 효과 이미지 수정 시스템(210)은 카메라 피드에서 얼굴이 검출될 때 3D 자막을 하나 이상의 그래픽 요소(예를 들어, 이모지 또는 아바타)로 강화하고 증강한다. 예를 들어, 카메라에서 얼굴이 검출될 때, DIY 효과 이미지 수정 시스템은 (정황에 기초하여 자동으로 채워진 텍스트 또는 사용자로부터 수동으로 공급된 텍스트를 갖는) 3D 자막을 얼굴에 매우 근접하게 둔다. DIY 효과 이미지 수정 시스템(210)은 또한, 3D 자막에서의 텍스트의 정황에 기초하여 하나 이상의 그래픽 요소를 검색한다. 구체적으로는, DIY 효과 이미지 수정 시스템(210)은 데이터베이스에서 하나 이상의 그래픽 요소와 연관된 3D 자막 내의 하나 이상의 단어를 자동으로 식별할 수 있다. 예를 들어, DIY 효과 이미지 수정 시스템(210)은 3D 자막이 단어 "사랑"을 포함한다고 결정할 수 있고, 단어 "사랑" 과 연관된 하트 이모지를 검색할 수 있다. DIY 효과 이미지 수정 시스템(210)은 검색된 그래픽 요소들을 3D 자막의 좌측 및 우측에 배치하여 그래픽 요소들로 3D 자막을 에워쌀 수 있다. 예를 들어, DIY 효과 이미지 수정 시스템(210)은 사용자의 얼굴 위에 3D로 사랑이라는 단어를 크라운(crown)으로서 디스플레이하고 3D 자막 주위에 2개의 하트 이모지(하나는 좌측에, 하나는 우측에)를 배치할 수 있다. 일부 경우에, DIY 효과 이미지 수정 시스템(210)은 3D 자막에서의 단어 또는 구문들 중 어느 것도 그래픽 요소와 이전에 연관된 단어 또는 구문과 매칭되거나 대응하지 않는다고 결정할 수 있다. 이러한 경우에, DIY 효과 이미지 수정 시스템(210)은 3D 자막 내에 채우고 그에 추가할 디폴트 그래픽 요소를 선택한다.
도 3은 특정 예시적인 실시예들에 따른, 메시징 서버 시스템(108)의 데이터베이스(120)에 저장될 수 있는 데이터를 예시하는 개략도(300)이다. 데이터베이스(120)의 콘텐츠가 다수의 테이블을 포함하는 것으로 도시되어 있지만, 데이터는 다른 유형의 데이터 구조에(예를 들어, 객체 지향형 데이터베이스로서) 저장될 수 있다는 것을 알 것이다.
데이터베이스(120)는 메시지 테이블(314) 내에 저장된 메시지 데이터를 포함한다. 엔티티 테이블(302)은 엔티티 그래프(304)를 포함하는 엔티티 데이터를 저장한다. 그에 대해 레코드들이 엔티티 테이블(302) 내에 유지되는 엔티티들은 개인들, 회사 엔티티들, 조직들, 객체들, 장소들, 이벤트들, 및 등등을 포함할 수 있다. 유형에 관계없이, 그에 관해 메시징 서버 시스템(108)이 데이터를 저장하는 임의의 엔티티는 인식된 엔티티일 수 있다. 각각의 엔티티는 고유 식별자뿐만 아니라 엔티티 유형 식별자(도시되지 않음)를 구비한다.
엔티티 그래프(304)는 더욱이 엔티티들 사이의 관계 및 연관에 관한 정보를 저장한다. 그러한 관계들은, 단지 예를 들어, 사회적, 전문적(예를 들어, 일반 법인 또는 조직에서의 일), 관심 기반, 또는 활동 기반일 수 있다.
데이터베이스(120)는 또한 주석 데이터를 필터들 및 LENS들의 예시적인 형태로 주석 테이블(312)에 저장한다. 그에 대해 주석 테이블(312) 내에 데이터가 저장되는 필터들 및 LENS들은 비디오들(그에 대해 비디오 테이블(310)에 데이터가 저장됨) 및/또는 이미지들(그에 대해 이미지 테이블(308)에 데이터가 저장됨)과 연관되고 이들에 적용된다. 필터들은 수신측 사용자에 제시되는 동안 이미지 또는 비디오 상에 오버레이되어 디스플레이되는 오버레이들이다. LENS들은 (예를 들어, 사용자가 메시징 시스템(100)의 하나 이상의 인터페이스를 통해 카메라 피드를 보고 있는 동안, 메시지를 작성하고 있는 동안, 또는 수신측 사용자에게 제시하는 동안) 카메라 피드에 묘사된 현실 세계 환경들에 추가될 수 있는 실시간 시각적 효과들 및/또는 사운드들을 포함한다. 이에 비해, 필터들은 이미지 또는 비디오가 클라이언트 디바이스(102)에서 캡처된 후에 이미지 또는 비디오에 적용되는 한편, LENS는 클라이언트 디바이스(102)의 카메라 피드에 적용되어, LENS가 적용된 클라이언트 디바이스(102)에서 이미지 또는 비디오가 캡처될 때, 적용된 LENS가 생성되는 이미지 또는 비디오의 일부로서 포함되도록 한다. 필터들 및 LENS들은, 송신측 사용자가 메시지를 작성하고 있을 때 메시징 클라이언트 애플리케이션(104)에 의해 송신측 사용자에게 제시되는 필터들의 갤러리 또는 LENS들의 갤러리로부터의 사용자 선택된 필터들 및 LENS들을 포함하여, 다양한 유형의 것일 수 있다.
위에 언급된 바와 같이, 비디오 테이블(310)은, 일 실시예에서, 그에 대해 레코드들이 메시지 테이블(314) 내에 유지되는 메시지들과 연관되는 비디오 데이터를 저장한다. 유사하게, 이미지 테이블(308)은 그에 대해 메시지 데이터가 엔티티 테이블(302)에 저장되는 메시지들과 연관된 이미지 데이터를 저장한다. 엔티티 테이블(302)은 주석 테이블(312)로부터의 다양한 주석들을 이미지 테이블(308) 및 비디오 테이블(310)에 저장된 다양한 이미지 및 비디오와 연관시킬 수 있다.
스토리 테이블(306)은, 컬렉션(예를 들어, 스토리 또는 갤러리)이 되도록 컴파일되는, 메시지들 및 연관된 이미지, 비디오, 또는 오디오 데이터의 컬렉션들에 관한 데이터를 저장한다. 특정 컬렉션의 생성은 특정 사용자(예를 들어, 그에 대해 레코드가 엔티티 테이블(302)에서 유지되는 각각의 사용자)에 의해 개시될 수 있다. 사용자는 그 사용자에 의해 생성되고 송신/브로드캐스팅된 콘텐츠의 컬렉션의 형태로 "개인 스토리(personal story)"를 생성할 수 있다. 이를 위해, 메시징 클라이언트 애플리케이션(104)의 UI는 송신측 사용자가 자신의 개인 스토리에 특정 콘텐츠를 추가하는 것을 가능하게 하기 위해 사용자 선택가능한 아이콘을 포함할 수 있다.
컬렉션은 또한, 수동으로, 자동으로, 또는 수동 및 자동 기법의 조합을 이용하여 생성된 다중의 사용자로부터의 콘텐츠의 컬렉션인 "라이브 스토리"를 구성할 수 있다. 예를 들어, "라이브 스토리"는 다양한 로케이션 및 이벤트로부터의 사용자 제출 콘텐츠(user-submitted content)의 큐레이팅된 스트림(curated stream)을 구성할 수 있다. 그 클라이언트 디바이스들이 로케이션 서비스 가능하고 특정 시간에 공통 로케이션 이벤트에 있는 사용자들에게는, 예를 들어, 메시징 클라이언트 애플리케이션(104)의 사용자 인터페이스를 통해, 특정 라이브 스토리에 콘텐츠를 기여하는 옵션이 제시될 수 있다. 라이브 스토리는 자신의 로케이션에 기초하여 메시징 클라이언트 애플리케이션(104)에 의해 사용자에게 식별될 수 있다. 최종 결과는 커뮤니티 관점에서 말한 "라이브 스토리"이다.
특정 지리적 로케이션(예를 들어, 단과대학 또는 대학 캠퍼스) 내에 그의 클라이언트 디바이스(102)가 자리잡은 사용자가 특정 컬렉션에 기여하는 것을 가능하게 하는 추가적인 유형의 콘텐츠 컬렉션은 "로케이션 스토리(location story)"라고 알려져 있다. 일부 실시예들에서, 로케이션 스토리에 대한 기여는 최종 사용자가 특정 조직 또는 다른 엔티티에 속하는지(예를 들어, 대학 캠퍼스의 학생인지)를 검증하기 위해 제2 인증 정도(second degree of authentication)를 요구할 수 있다.
도 4는 추가 메시징 클라이언트 애플리케이션(104) 또는 메시징 서버 애플리케이션(114)에의 통신을 위해 메시징 클라이언트 애플리케이션(104)에 의해 생성된, 일부 실시예들에 따른, 메시지(400)의 구조를 예시하는 개략도이다. 특정 메시지(400)의 콘텐츠는 메시징 서버 애플리케이션(114)에 의해 액세스 가능한, 데이터베이스(120) 내에 저장된 메시지 테이블(314)을 채우기 위해 사용된다. 유사하게, 메시지(400)의 콘텐츠는 클라이언트 디바이스(102) 또는 애플리케이션 서버(112)의 "수송 중(in-transit)" 또는 "비행 중(in-flight) 데이터로서 메모리에 저장된다. 메시지(400)는 다음과 같은 컴포넌트들을 포함하는 것으로 도시되어 있다:
· 메시지 식별자(402): 메시지(400)를 식별하는 고유 식별자.
· 메시지 텍스트 페이로드(404): 클라이언트 디바이스(102)의 사용자 인터페이스를 통해 사용자에 의해 생성되고 메시지(400)에 포함되는 텍스트.
· 메시지 이미지 페이로드(406): 클라이언트 디바이스(102)의 카메라 컴포넌트에 의해 캡처되거나 클라이언트 디바이스(102)의 메모리로부터 검색되고, 메시지(400)에 포함되는 이미지 데이터.
· 메시지 비디오 페이로드(408): 카메라 컴포넌트에 의해 캡처되거나 클라이언트 디바이스(102)의 메모리 컴포넌트로부터 검색되고 메시지(400)에 포함되는 비디오 데이터.
· 메시지 오디오 페이로드(410): 마이크로폰에 의해 캡처되거나 클라이언트 디바이스(102)의 메모리 컴포넌트로부터 검색되고 메시지(400)에 포함되는 오디오 데이터.
· 메시지 주석(412): 메시지(400)의 메시지 이미지 페이로드(406), 메시지 비디오 페이로드(408), 또는 메시지 오디오 페이로드(410)에 적용될 주석을 나타내는 주석 데이터(예를 들어, 필터, 스티커 또는 다른 강화물).
· 메시지 지속기간 파라미터(414): 그에 대해 메시지의 콘텐츠(예를 들어, 메시지 이미지 페이로드(406), 메시지 비디오 페이로드(408), 메시지 오디오 페이로드(410))가 메시징 클라이언트 애플리케이션(104)을 통해 사용자에게 제시거나 액세스 가능하게 되는 시간의 양을 초 단위로 표시하는 파라미터 값.
· 메시지 지오로케이션 파라미터(416): 메시지의 콘텐츠 페이로드와 연관된 지오로케이션 데이터(예를 들어, 위도 및 경도 좌표). 다중의 메시지 지오로케이션 파라미터(416) 값이 페이로드에 포함될 수 있고, 이들 파라미터 값들 각각은 콘텐츠 (예를 들어, 메시지 이미지 페이로드(406) 내의 특정 이미지, 또는 메시지 비디오 페이로드(408) 내의 특정 비디오)에 포함된 콘텐츠 아이템들에 관하여 연관된다.
· 메시지 스토리 식별자(418): 메시지(400)의 메시지 이미지 페이로드(406) 내의 특정 콘텐츠 항목이 그와 연관되는 하나 이상의 콘텐츠 컬렉션(예를 들어, "스토리들")을 식별하는 식별자 값. 예를 들어, 메시지 이미지 페이로드(406) 내의 다중의 이미지 각각은 식별자 값들을 이용하여 다중의 콘텐츠 컬렉션과 연관될 수 있다.
· 메시지 태그(420): 각각의 메시지(400)는 복수의 태그로 태깅될 수 있고, 그 각각은 메시지 페이로드에 포함된 콘텐츠의 주제를 나타낸다. 예를 들어, 메시지 이미지 페이로드(406)에 포함된 특정한 이미지가 동물(예를 들어, 사자)을 묘사하는 경우, 관련 동물을 나타내는 태그 값이 메시지 태그(420) 내에 포함될 수 있다. 태그 값들은, 사용자 입력에 기초하여 수동으로 생성되거나, 또는 예를 들어, 이미지 인식을 이용하여 자동으로 생성될 수 있다.
· 메시지 송신자 식별자(422): 그 상에서 메시지(400)가 생성되었고 그로부터 메시지(400)가 송신된 클라이언트 디바이스(102)의 사용자를 나타내는 식별자(예를 들어, 메시징 시스템 식별자, 이메일 어드레스, 또는 디바이스 식별자).
· 메시지 수신자 식별자(424): 메시지(400)가 어드레싱되는 클라이언트 디바이스(102)의 사용자를 나타내는 식별자(예를 들어, 메시징 시스템 식별자, 이메일 주소 또는 디바이스 식별자).
메시지(400)의 다양한 컴포넌트들의 콘텐츠(예를 들어, 값들)는 그 안에 콘텐츠 데이터 값들이 저장되어 있는 테이블에서의 로케이션들에 대한 포인터들일 수 있다. 예를 들어, 메시지 이미지 페이로드(406) 내의 이미지 값은 이미지 테이블(308) 내의 로케이션에 대한 포인터(또는 그 주소)일 수 있다. 유사하게, 메시지 비디오 페이로드(408) 내의 값들은 비디오 테이블(310) 내에 저장된 데이터를 가리킬 수 있고, 메시지 주석(412) 내에 저장된 값들은 주석 테이블(312)에 저장된 데이터를 가리킬 수 있고, 메시지 스토리 식별자(418) 내에 저장된 값들은 스토리 테이블(306)에 저장된 데이터를 가리킬 수 있고, 메시지 송신자 식별자(422) 및 메시지 수신자 식별자(424) 내에 저장된 값들은 엔티티 테이블(302) 내에 저장된 사용자 레코드들을 가리킬 수 있다.
도 5는 비디오 피드에 적용되는 효과들을 수정하고 및/또는 라이브 카메라 피드에 묘사된 3D 공간(예를 들어, 현실 세계 환경)에서 3D 객체들을 렌더링하도록 DIY 효과 이미지 수정 시스템(210)을 구성하는 DIY 효과 이미지 수정 시스템(210)의 기능 컴포넌트들을 예시하는 블록도이다. DIY 효과 이미지 수정 시스템(210)은 렌더링 컴포넌트(502), 추적 시스템(504), 및 붕괴(disruption) 검출 컴포넌트(506)를 포함하는 것으로 도시되어 있다. DIY 효과 이미지 수정 시스템(210)의 다양한 컴포넌트들은 (예를 들어, 버스, 공유 메모리, 또는 스위치를 통해) 서로 통신하도록 구성될 수 있다. 도 5에 예시되지 않았지만, 일부 실시예들에서, DIY 효과 이미지 수정 시스템(210)은 이미지들의 시퀀스(예를 들어, 비디오)를 포함하는 이미지 데이터를 포함하는 카메라 피드를 생성하도록 구성된 전방 또는 후방 카메라를 포함할 수 있거나 또는 그와 통신 상태에 있을 수 있다.
기술된 컴포넌트들 중 임의의 하나 이상은 하드웨어 단독(예를 들어, 머신의 프로세서들(508) 중 하나 이상) 또는 하드웨어와 소프트웨어의 조합을 이용하여 구현될 수 있다. 예를 들어, DIY 효과 이미지 수정 시스템(210)의 기술된 임의의 컴포넌트는 그 컴포넌트에 대해 본 명세서에 설명된 동작들을 수행하도록 구성된 프로세서들(508) 중 하나 이상(예를 들어, 머신의 하나 이상의 프로세서 중의 또는 그들의 서브세트)의 배열을 물리적으로 포함할 수 있다. 또 다른 예로서, DIY 효과 이미지 수정 시스템(210)의 임의의 컴포넌트는 그 컴포넌트에 대해 본 명세서에 설명된 동작들을 수행하도록 하나 이상의 프로세서(508)의 (예를 들어, 머신의 하나 이상의 프로세서 중의) 배열을 구성하는 소프트웨어, 하드웨어, 또는 둘 다를 포함할 수 있다. 따라서, DIY 효과 이미지 수정 시스템(210)의 상이한 컴포넌트들은 상이한 시점들에서 이러한 프로세서들(508)의 상이한 배열들 또는 이러한 프로세서들(508)의 단일 배열을 포함하고 구성할 수 있다.
더욱이, DIY 효과 이미지 수정 시스템(210)의 임의의 2개 이상의 컴포넌트는 단일 컴포넌트가 되도록 조합될 수 있고, 단일 컴포넌트에 대해 본 명세서에 설명된 기능들은 다중의 컴포넌트 사이에서 세분될 수 있다. 더욱이, 다양한 예시적인 실시예들에 따르면, 단일 머신, 데이터베이스, 또는 디바이스 내에 구현되는 것으로 본 명세서에 설명된 컴포넌트들은 다중의 머신, 데이터베이스, 또는 디바이스에 걸쳐 분산될 수 있다.
추적 시스템(504)은 제1 추적 서브시스템(504A), 제2 추적 서브시스템(504B), 및 제3 추적 서브시스템(504C)을 포함할 수 있다. 각각의 추적 서브시스템은 한 세트의 추적 표시(tracking indicia)들에 기초하여 3D 공간 내의 3D 자막의 위치를 추적한다.
추적 시스템들은 환경 조건들, 사용자 액션들, 카메라와 추적되고 있는 객체/장면 사이의 예상치 못한 시각적 중단, 및 등등으로 인해 빈번한 추적 실패를 겪는다. 전통적으로, 그러한 추적 실패들은 3D 공간에서의 가상 객체들의 프레젠테이션에서 붕괴를 야기할 것이다. 예를 들어, 가상 객체가 사라지거나 다른 경우에는 괴상하게 거동하고, 그에 의해 3D 공간 내에 제시되고 있는 가상 객체의 환상을 중단시킬 수 있다. 이는 전체로서의 3D 경험의 인지된 품질을 손상시킨다.
전통적인 추적 시스템들은 부정확한 센서 데이터, 움직임, 시각적 마커의 손실 또는 폐색(occlusion), 또는 장면에 대한 동적 중단들로 인해 현실 세계 사용에서 한계점들을 각각 갖는 단일 접근법(NFT(Natural Feature Tracking), SLAM(Simultaneous Localization And Mapping), 자이로스코픽(Gyroscopic) 등)에 의존한다. 또한, 각각의 접근법은 능력에서 개개의 한계들을 가질 수 있다. 예를 들어, 자이로스코픽 추적 시스템은 3DoF로만 아이템들을 추적할 수 있다. 또한, 단일 추적 시스템의 활용은 각각의 개개의 시스템의 고유 한계로 인해 부정확하거나 불안정한 위치 추정을 제공한다. 예를 들어, NFT 시스템은 시각적 추적 단독의 부정확성들로 인해 충분한 피치, 요, 또는 롤 추정을 제공하지 않을 수 있는 한편, 자이로스코픽 추적 시스템들은 부정확한 병진(상, 하, 좌, 우)을 제공한다.
전통적인 추적 시스템들에서의 전술한 문제들을 해결하기 위해, DIY 효과 이미지 수정 시스템(210)은 추적 서브시스템들 사이의 끊김 없는 천이들을 가능하게 하는 다중의 중복 추적 서브시스템(504A-C)을 포함한다. 다중의 중복 추적 서브시스템(504A-C)은 다중의 추적 접근법을 단일 추적 시스템(504)이 되도록 병합함으로써 전통적인 추적 시스템들의 문제들을 해결한다. 추적 시스템(504)은 추적 시스템들에 의해 추적되는 추적 표시들의 이용 가능성에 기초하여 다중의 추적 시스템 간의 조합 및 천이를 통해 6DoF 및 3DoF 추적 기법들을 조합할 수 있다. 따라서, 임의의 하나의 추적 시스템에 의해 추적되는 표시가 이용가능하지 않게 됨에 따라, DIY 효과 이미지 수정 시스템(210)은 6DoF 및 3DoF에서의 추적 사이에서 끊김없이 스위칭하고, 그에 의해 사용자에게 중단없는 경험을 제공한다. 예를 들어, 시각적 추적 시스템들(예를 들어, NFT, SLAM)의 경우에, 전형적으로 오리엔테이션을 결정하기 위해 분석되는 추적 표시들은 자이로스코픽 추적 시스템으로부터의 자이로스코픽 추적 표시들로 대체될 수 있다. 그에 의해 이는 추적 표시들의 이용 가능성에 기초하여 6DoF 및 3DoF로 추적하는 것 간에 천이하는 것을 가능하게 할 것이다.
일부 예시적인 실시예들에서, 6DoF 및 3DoF에서의 추적 사이에서 천이하기 위해, DIY 효과 이미지 수정 시스템(210)은 병진 표시(예를 들어, 위, 아래, 좌측, 우측) 및 회전 표시(예를 들어, 피치, 요, 롤)를 포함하는 추적 행렬 내에 추적 표시를 수집하고 저장한다. NFT 시스템에 의해 수집된 병진 표시들은 그에 의해 추적 행렬로부터 추출될 수 있고, NFT 시스템에 의해 수집된 미래의 병진 표시들이 부정확하거나 이용가능하지 않게 될 때 활용될 수 있다. 한편, 회전 표시는 자이로스코프에 의해 계속 제공된다. 이러한 방식으로, 모바일 디바이스가 추적 표시들을 손실할 때, 3D 공간에서 제시되는 추적된 객체들은 추적 표시들이 손실될 때 프레임에서 갑자기 변경되지 않을 것이다. 후속적으로, 타겟 추적 객체가 스크린에서 다시 등장할 때, 새로운 병진 T1이 획득되고, 그 후 뷰 행렬의 병진 부분은 새로운 병진 T1을 이용하고, 뷰 행렬의 병진으로서 T1-T0을 이용할 것이다.
DIY 효과 이미지 수정 시스템(210)의 렌더링 컴포넌트(502)는 카메라에 의해 생성된 라이브 카메라 피드에 적용할 사용자 맞춤화가능한 효과들을 생성하도록 구성된다. 렌더링 컴포넌트(502)는 카메라 피드와 함께 어레이 내에 효과 선택 옵션들의 세트를 제공하고, 효과 속성 수정 슬라이더를 제공하여 사용자가 카메라 피드에 현재 적용되는 효과의 속성들을 수정하는 것을 가능하게 하도록 구성된다.
DIY 효과 이미지 수정 시스템(210)의 렌더링 컴포넌트(502)는 또한, 카메라에 의해 생성된 라이브 카메라 피드 내에서 캡처된 3D 공간에서 3D 자막을 생성하고 렌더링하도록 구성된다. 예를 들어, 렌더링 컴포넌트(502)는 사용자로부터 수신된 입력(예를 들어, 키보드 입력)에 기초하여 3D 자막을 생성하고 라이브 카메라 피드 내에 캡처된 3D 공간에서 3D 자막을 렌더링할 수 있다. 3D 자막을 렌더링하는데 있어서, DIY 효과 이미지 수정 시스템(210)은 3D 공간에서 검출된 현실 세계 기준 표면에 기초하여 3D 자막을 3D 공간에서의 위치에 할당한다. 일부 경우에, 렌더링 컴포넌트(502)는 카메라 피드에서 얼굴의 존재를 검출한 것에 응답하여 3D 자막을 3D 공간에서 사용자의 머리 위에 또는 사용자의 머리 아래에 자동으로 위치시킨다. 렌더링 컴포넌트(502)는, 얼굴이 카메라 피드에서 더 이상 제시되지 않을 때 (예를 들어, 사용자가 카메라를 우/좌/상/하로 얼굴이 더 이상 카메라에 의해 픽업되지 않는 지점까지 움직였기 때문에), 3D 자막을 사용자의 머리 위에 또는 아래에 제시되는 것으로부터 기준 표면(예를 들어, 지면)으로 자동으로 천이시킨다. 유사하게, 렌더링 컴포넌트(502)는, 얼굴이 카메라 피드에서 다시 (또는 처음으로) 제시될 때 (예를 들어, 사용자가 카메라를 우/좌/상/하로 얼굴이 카메라에 의해 픽업되고 있는 지점까지 움직였기 때문에), 3D 자막을 기준 표면(예를 들어, 지면) 상에 제시되는 것으로부터 사용자의 머리 위 또는 아래에 제시되도록 자동으로 천이시킨다.
그 후에, DIY 효과 이미지 수정 시스템(210)은 6DoF로 하나 이상의 추적 시스템에 의해 3D 공간에서 사용자 디바이스에 관한 3D 자막의 위치를 추적할 수 있다. 예를 들어, DIY 효과 이미지 수정 시스템(210)의 하나 이상의 추적 시스템은 6DoF로 3D 공간에서 사용자 디바이스에 관한 3D 자막의 위치를 추적하기 위하여 한 세트의 추적 표시(예를 들어, 롤, 피치, 요, 자연 특징 등)를 수집하고 분석할 수 있다. 이러한 실시예들에서, DIY 효과 이미지 수정 시스템(210)은 6DoF로 일관된 추적을 유지하기 위해 추적된 표시의 가용성에 기초하여 추적 시스템들 사이에서 천이할 수 있다.
붕괴 검출 컴포넌트(506)는 붕괴를 검출하기 위해 추적 표시를 모니터링한다. 6DoF에서의 추적이 신뢰할 수 없게 되거나 불가능하게 되도록 붕괴 검출 컴포넌트(506)가 하나 이상의 표시의 중단을 검출할 시에, DIY 효과 이미지 수정 시스템(210)은 디스플레이의 중단을 방지하기 위하여 3DoF로 3D 공간에서 3D 자막을 추적하는 것으로 천이한다. 예를 들어, DIY 효과 이미지 수정 시스템(210)은 제1 추적 시스템(또는 추적 시스템 세트 중의 제1 추적 시스템 세트)으로부터 추적 시스템 세트 중의 제2 추적 시스템(또는 제2 추적 시스템 세트)으로 천이할 수 있고, 여기서 제2 추적 시스템은, 이용가능한 추적 표시에 기초하여 3D 공간에서 3DoF로 3D 자막을 추적할 수 있다.
일부 예시적인 실시예들에서, DIY 효과 이미지 수정 시스템(210)의 추적 시스템 세트는 자이로스코픽 추적 시스템, NFT 시스템뿐만 아니라 SLAM 추적 시스템을 포함한다. 추적 시스템 세트 중의 각각의 추적 시스템은 3D 공간 내에서 가상 객체의 위치를 추적하기 위해 추적 표시들을 분석할 수 있다. 예를 들어, 6DoF로 가상 객체를 추적하기 위해, DIY 효과 이미지 수정 시스템(210)은 적어도 6개의 추적 표시가 이용가능할 것을 요구할 수 있다. 추적 표시들이 다양한 이유로 방해받거나 이용가능하지 않게 됨에 따라, DIY 효과 이미지 수정 시스템(210)은 6DoF를 유지하기 위해 추적 시스템 세트 중에서 이용가능한 추적 시스템들 사이에서 천이하거나, 또는 필요한 경우 3DoF로 천이할 수 있다.
DIY 효과 이미지 수정 시스템(210)이 광범위한 환경 및 상황에서 현실 세계 3D 공간에서 일관된 렌더링된 가상 객체들(예를 들어, 3D 자막들, 3D 컷아웃들, 및/또는 3D 그림 또는 페인팅)을 제공한다는 것을 쉽게 알 것이다. 많은 응용들에서, 하나 이상의 사용자, 카메라, 또는 다른 추적 아이템들이 환경에서 여기저기 이동함에 따라 이 가상 객체들의 로케이션들에 대한 확고한 일관성을 제공하는 것이 바람직할 수 있다. 이는 현실 세계 환경에서 특정 고정된 기준점(예를 들어, 고정된 표면)의 인식 및 사용을 수반할 수 있다. 고정된 기준점 또는 아이템을 사용하지 않는 것은 가상 객체들의 렌더링 및 프레젠테이션에 있어서 유동적인 또는 다른 바람직하지 않은 비일관성들을 야기할 수 있다.
도 6 및 도 7은, 예시적 실시예에 따른, 사용자 맞춤화가능한 효과 및/또는 3D 자막으로 강화된 비디오 피드를 포함하는 메시지를 생성하기 위한 방법(600 및 700)을 수행하는데 있어서 DIY 효과 이미지 수정 시스템의 예시적 동작을 나타내는 흐름도들이다. 방법들(600 및 700)은 방법들(600 및 700)의 동작들이 DIY 효과 이미지 수정 시스템(210)의 기능 컴포넌트들에 의해 부분적으로 또는 전체적으로 수행될 수 있도록 하나 이상의 프로세서에 의한 실행을 위한 컴퓨터 판독가능 명령어들로 구체화될 수 있다; 따라서, 방법들(600 및 700)은 이를 참조하여 예로서 아래에 설명된다. 그러나, 방법들(600 및 700)의 동작들 중 적어도 일부는 다양한 다른 하드웨어 구성들에 배치될 수 있고, 방법들(600 및 700)은 DIY 효과 이미지 수정 시스템(210)에 제한되도록 의도되지 않는다는 점을 알 것이다.
동작(602)에서, DIY 효과 이미지 수정 시스템(210)은 사용자 디바이스의 카메라로부터 비디오 피드를 수신한다. 예를 들어, DIY 효과 이미지 수정 시스템(210)은 클라이언트 디바이스(102)의 후방 카메라로부터 수신된 카메라 피드를 수신하고 디스플레이한다. 또 다른 예에서, DIY 효과 이미지 수정 시스템(210)은 실시간 비디오 피드의 프레임 및/또는 비디오 피드의 이전에 캡처된 픽처 또는 프레임과 같은 이미지를 수신한다. 구체적으로는, 도 14a에 도시된 바와 같이, 이미지(1410)(예를 들어, 비디오 피드의 프레임)가 수신되어 사용자에게 제시된다.
동작(604)에서, DIY 효과 이미지 수정 시스템(210)은 사용자 맞춤화가능 효과 모드를 활성화하기 위한 사용자 맞춤화가능 효과 옵션을 선택하는 입력을 수신한다. 예를 들어, DIY 효과 이미지 수정 시스템(210)은 생성 옵션(1401)의 사용자 선택을 수신한다. 생성 옵션(1401)의 사용자 선택을 수신한 것에 응답하여, 사용자가 그로부터 사용자 맞춤화가능 효과 옵션을 선택하는 이미지 수정 요소들의 리스트가 제시된다(도 14a).
동작(606)에서, DIY 효과 이미지 수정 시스템(210)은 사용자 맞춤화가능 효과 옵션에 근접한 비디오 피드와 함께 복수의 효과 옵션의 어레이를 디스플레이한다. 예를 들어, DIY 효과 이미지 수정 시스템(210)이 사용자 맞춤화가능 효과 옵션(1402)의 사용자 선택을 수신한 것에 응답하여, DIY 효과 이미지 수정 시스템(210)은 기저 이미지(1410) 위에 복수의 효과 옵션을 포함하는 어레이(1403)를 디스플레이한다.
동작(610)에서, DIY 효과 이미지 수정 시스템(210)은 복수의 효과 옵션 중 제1 효과 옵션과 연관된 제1 효과를 비디오 피드에 적용한다. 예를 들어, DIY 효과 이미지 수정 시스템(210)은 어레이(1403)에서 먼저 위치되는 제1 효과 옵션(1404)과 연관된 제1 효과(예를 들어, 햇볕 태움(Sunburn) 효과)를 자동으로 선택하고 적용한다. 기저 이미지(1410)는 제1 효과와 연관된 픽실레이션 패턴 및/또는 컬러 스킴에 따라 수정된다. 일부 경우들에서, 어레이(1403)로부터 제2 효과 옵션을 선택하기 위한 사용자 입력이 수신된다. 예를 들어, 사용자는 어레이(1403)가 디스플레이되는 영역을 가로질러 사용자의 손가락을 스와이프하거나 슬라이딩함으로써 좌/우로 내비게이트할 수 있다. 그 후, 사용자는 DIY 효과 이미지 수정 시스템(210)으로 하여금 현재 적용된 효과(예를 들어, 햇볕 태움 효과)를 새롭게 선택된 효과(예를 들어, 오래된 패션(Old Fashion) 효과)로 대체하게 야기하는 특정 효과 옵션(1405)(예를 들어, 오래된 패션 효과)를 탭핑하거나 누르고 유지할 수 있다. 결과적인 이미지(1420)가 DIY 효과 이미지 수정 시스템(210)(도 14a)에 의해 사용자에게 제시된다. 현재 활성인 효과 상에 시각적 표시자(예를 들어, 하이라이트 링(highlight ring))가 디스플레이된다. 구체적으로, DIY 효과 이미지 수정 시스템(210)은 이제 시각적 표시자를, 햇볕 태움 효과에 대응하는 제1 옵션을 하이라이트하는 것으로부터 선택된 오래된 패션 효과에 대응하는 제2 옵션을 하이라이트하는 것으로 이동시킨다.
일부 실시예들에서, 사용자는 스크린 상의 이미지를 가로질러 스와이프함으로써 어레이(1403)의 효과 옵션들 중 상이한 것들 사이에서 내비게이트할 수 있다. 구체적으로, DIY 효과 이미지 수정 시스템(210)이 사용자가 이미지(또는 수정된 이미지)가 좌측 방향으로 제시되는 스크린의 일부분을 가로질러 스와이프했다는 표시를 수신하는 경우, DIY 효과 이미지 수정 시스템(210)은 현재 적용된 효과의 우측 또는 좌측에 있는 다음 인접 효과를 검색하고, 다음 인접 효과를 자동으로 적용한다. 예를 들어, 도 14b에 도시된 바와 같이, 서리(Frost) 효과에 대응하는 제3 효과 옵션이 이미지(1430)에 현재 적용되고 있다. DIY 효과 이미지 수정 시스템(210)은 스크린을 가로질러 좌측 방향으로 스와이프하는 사용자로부터의 입력을 수신한다. 이에 응답하여, DIY 효과 이미지 수정 시스템(210)은 제3 효과 옵션의 우측에 바로 위치되는 다음 인접 효과 옵션을 식별한다. 이 경우, DIY 효과 이미지 수정 시스템(210)은 다음 인접 효과가 네온 정사각형 효과에 대응한다고 결정한다. 그 결과, DIY 효과 이미지 수정 시스템(210)은 네온 정사각형 효과 또는 다음 인접 효과에 대응하는 효과를, 이미지(1440)의 부분들이 스와이프 인(swipe in)되고 있음에 따라 그 부분들에 적용한다. 특히, DIY 효과 이미지 수정 시스템(210)은 추가적인 부분들이 검색되고 비디오 내로 스와이프됨에 따라 다음 인접 효과에 따라 디스플레이되는 이미지의 추가적인 부분들을 연속적으로 수정한다. 그 결과, 스크린의 제1 부분은 제3 효과가 적용되고 있는 이미지의 제1 부분을 제시하고, 스크린의 제2 부분은 다음 인접 효과가 적용되고 있는 이미지의 제2 부분을 제시한다. 다음 인접 효과를 갖는 완전한 이미지가 스와이프 인되고 그리고 디스플레이가 다음 인접 효과가 완전히 적용된 이미지를 제시할 때, DIY 효과 이미지 수정 시스템(210)은 다음 인접 효과가 현재 적용되고 있음을 표시하도록 어레이(1403)를 업데이트한다.
도 15는 일부 실시예들에 따른, 메시징 시스템(100)에 의해 제공되는 사용자 인터페이스를 도시하는 인터페이스도이다. 구체적으로, (좌측에서) 기저 이미지에 정사각형 효과가 적용되고, (우측에서) 기저 이미지에 엽서 효과가 적용되는 2개인 더 많은 유형의 효과가 도시된다.
도 16은 일부 실시예들에 따른, 메시징 시스템(100)에 의해 제공되는 사용자 인터페이스를 도시하는 인터페이스도이다. 구체적으로, (좌측에서) 기저 이미지에 무아레 효과가 적용되고 (우측에서) 기저 이미지에 안테나 효과가 적용되는 2개인 더 많은 유형의 효과가 도시된다.
일부 실시예들에서, DIY 효과 이미지 수정 시스템(210)은 스크린 상에 제시된 이미지 또는 비디오 위에 효과 옵션들의 어레이에 근접한 효과 수정 옵션을 제시한다. 예를 들어, 도 17에 도시된 바와 같이, DIY 효과 이미지 수정 시스템(210)은 네온 효과가 현재 적용되는 이미지(1710)를 제시한다. DIY 효과 이미지 수정 시스템(210)은 또한 효과 옵션들의 어레이의 우측에 효과 수정 옵션(1720)을 제시한다. 효과 수정 옵션(1720)의 시각적 속성은 효과 수정 옵션이 사용자로 하여금 적용된 효과에 대해 변경하는 것을 허용하는 속성들의 유형들에 의존한다. 예를 들어, 효과 수정 옵션(1720)은 사용자로 하여금 기저 효과의 강도를 변경하도록 허용하거나, 또는 사용자가 기저 효과의 컬러를 변경하도록 허용할 수 있다. 효과 수정 옵션(1720)이 사용자로 하여금 강도를 변경하는 것을 허용하는 경우, 효과 수정 옵션(1720)은 제1 시각적 속성을 포함하고, 효과 수정 옵션(1720)이 사용자로 하여금 효과의 컬러를 변경하는 것을 허용하는 경우, 효과 수정 옵션은 제1 시각적 속성과는 상이한 제2 시각적 속성을 포함한다.
적용되는 새로운 효과 옵션 또는 효과가 현재 적용되는 효과와 상이한 속성 수정과 연관되는 경우, 상이한 효과 옵션들이 선택 및/또는 적용됨에 따라 효과 수정 옵션(1720)의 시각적 속성만이 변경된다. 예로서, 이미지(1710)에 적용되는 네온 효과는 효과 수정 옵션(1720)에 대한 컬러 속성 수정 특징과 연관될 수 있다. 이와 같이, 효과 수정 옵션(1720)에는 제1 시각적 속성이 제시된다. 그 후, 사용자는 이미지에 적용할 새로운 효과를 선택할 수 있다. DIY 효과 이미지 수정 시스템(210)은 적용되는 새로운 효과가 컬러 속성 수정 특징 또는 강도 수정 특징과 연관되는지를 결정한다. 새로운 효과가 컬러 속성 수정 특징(이전에 적용된 효과의 속성 수정 특징과 동일함)과 연관된다고 결정한 것에 응답하여, DIY 효과 이미지 수정 시스템(210)은 효과 수정 옵션(1720)에 대한 제1 시각적 특성을 유지한다. 도 18에 도시된 바와 같은 새로운 효과(예를 들어, CCTV 효과)가 강도 수정 특징과 연관된다고 결정한 것에 응답하여, DIY 효과 이미지 수정 시스템(210)은 효과 수정 옵션(1720)의 시각적 속성을 제2 시각적 속성(1820)이 되도록 변경한다.
컬러 수정 특징에 대응하는 효과 수정 옵션(1720)의 사용자 선택을 수신하나 것에 응답하여, DIY 효과 이미지 수정 시스템(210)은 효과 옵션들의 어레이의 디스플레이를 적용된 효과의 컬러를 변경하기 위한 슬라이더(1730)로 대체한다. 사용자는 슬라이더(1730) 또는 슬라이더(1730) 내의 커서를 좌/우로 슬라이딩(또는 슬라이더(1730)를 누르고 드래그)하여 이미지(1710)에 적용되는 효과의 컬러를 변경할 수 있다. 예를 들어, 사용자가 슬라이더(1730)를 더 우측으로 슬라이딩시킬 때, 이미지(1710)에 적용되는 네온 효과의 컬러가 황색으로부터 청색으로 그리고 적색으로 변경될 수 있다. 사용자는 또한 적용되고 있는 효과의 컬러를 변경하기 위해 슬라이더(1730) 대신에 스크린을 가로질러 스와이프할 수 있다. 유사하게, 강도 수정 특징에 대응하는 효과 수정 옵션(1820)(도 18)의 사용자 선택을 수신한 것에 응답하여, DIY 효과 이미지 수정 시스템(210)은 효과 옵션들의 어레이의 디스플레이를 적용된 효과의 강도를 변경하기 위한 슬라이더(1830)로 대체한다. 사용자는 슬라이더(1830) 또는 슬라이더(1830) 내의 커서를 좌/우로 슬라이딩하여 이미지(1810)에 적용되는 효과의 강도를 변경할 수 있다. 사용자는 또한 슬라이더(1830) 대신에 스크린을 가로질러 스와이프하여 적용되고 있는 효과의 강도를 변경할 수 있다.
효과 수정 옵션(1720 또는 1820)의 사용자 선택을 수신한 것에 응답하여, DIY 효과 이미지 수정 시스템(210)은 효과 수정 옵션(1720)을 효과 옵션들의 어레이에 액세스하기 위한 새로운 옵션으로 대체한다. 새로운 옵션의 사용자 선택을 수신한 것에 응답하여, DIY 효과 이미지 수정 시스템(210)은 슬라이더(1730/1830)의 디스플레이를 이전에 제시된 효과 옵션들의 어레이로 대체한다.
다시 도 7을 참조하면, 옵션(702)에서, DIY 효과 이미지 수정 시스템(210)은 사용자 디바이스의 카메라로부터 비디오 피드를 수신한다. 예를 들어, DIY 효과 이미지 수정 시스템(210)은 클라이언트 디바이스(102)의 전방 카메라로부터 수신된 카메라 피드를 수신하고 디스플레이한다.
옵션(704)에서, DIY 효과 이미지 수정 시스템(210)은, 3D 자막을 추가하는 옵션, 3D 컷아웃을 생성하는 옵션, 및 3D로 페인팅하는 옵션을 포함한 복수의 옵션으로부터 비디오 피드에 3D 자막을 추가하라는 요청을 수신한다. 예를 들어, DIY 효과 이미지 수정 시스템(210)은 3D 자막을 추가하는 옵션의 사용자 선택을 수신한다. DIY 효과 이미지 수정 시스템(210)은 스크린을 어둡게 하고, 3D 자막이 생성되는 것에 기초하여 사용자로 하여금 단어 또는 구문 중 하나 이상의 문자를 2D로 입력하는 것을 허용하는 커서를 제시한다.
옵션(706)에서, DIY 효과 이미지 수정 시스템(210)은 3D 자막의 컨텍스트와 연관된 그래픽 요소를 식별한다. 예를 들어, DIY 효과 이미지 수정 시스템(210)은 그래픽 요소들의 데이터베이스를 검색하여 3D 자막 내의 단어들 또는 구문들과 연관된 그래픽 요소를 식별한다. 일부 경우들에서, DIY 효과 이미지 수정 시스템(210)은 단어들 또는 구문들과 연관된 컨텍스트들의 데이터베이스를 검색한다. 그 후, DIY 효과 이미지 수정 시스템(210)은 매칭되는 컨텍스트를 검색하고, 상이한 컨텍스트들을 상이한 그래픽 요소들과 연관시키는 또 다른 데이터베이스를 탐색하여 3D 자막과 연관된 그래픽 요소를 식별한다.
옵션(710)에서, DIY 효과 이미지 수정 시스템(210)은, 비디오 피드에서 묘사된 얼굴에 근접한 비디오 피드의 3D 공간에서의 위치에서 비디오 피드 내의 3D 자막 및 식별된 그래픽 요소를 디스플레이한다. 예를 들어, DIY 효과 이미지 수정 시스템(210)은 검색된 그래픽 요소(예를 들어, 이모지)를 복제하고 복제된 그래픽 요소의 각각의 인스턴스를 3D 자막의 주어진 측에 제시한다. 즉, 제1 그래픽 요소는 3D 자막의 좌측에 위치할 수 있고 (제1 그래픽 요소의 복제인) 제2 그래픽 요소는 3D 자막의 우측에 위치할 수 있다.
도 8은 일부 실시예들에 따른, 메시징 시스템(100)에 의해 제공되는 사용자 인터페이스(1000)를 도시하는 인터페이스도이다. 사용자 인터페이스(1000)는 사용자가 그로부터 아이콘(1002)의 선택을 통해 DIY 효과 이미지 수정 시스템(210)의 기능성을 개시시킬 수 있는 LENS 캐러셀을 포함한다. 도시된 바와 같이, LENS 캐러셀은 컴퓨팅 디바이스(예를 들어, 클라이언트 디바이스(102))의 카메라에 의해 생성된 카메라 피드 내에서 캡처된 3D 공간 상에 오버레이된다.
일부 실시예에 따르면, 아이콘(1002)의 사용자 선택을 수신할 시에, 사용자에게는 3D 자막을 생성하고 편집하도록 구성된 편집 인터페이스가 제시된다. 예를 들어, 아이콘(1102)의 사용자 선택을 수신할 시에, DIY 효과 이미지 수정 시스템(210)은 도 9에 도시된 사용자 인터페이스(1100)의 디스플레이를 야기할 수 있다. 도 9에 도시된 바와 같이, 사용자 인터페이스(1100)는 카메라 피드 내에서 캡처된 3D 공간 상에 오버레이된 키보드 및 깜박거리는 커서를 포함한다. 일부 경우들에서, 아이콘(1002)의 사용자 선택을 수신할 시에, 사용자 인터페이스(1100)의 키보드는 스크린의 하단으로부터 위로 애니메이션된다. 그 후 (둥근, 무시무시한(spooky), 거품, 8비트 등과 같은 다양한 스타일들을 열거하는 메뉴를 포함하는) 스타일 캐러셀이 키보드가 위로 애니메이션된 후에 애니메이션된다. 키보드와 함께, 다양한 컬러를 포함하는 컬러 픽커(color picker)도 역시 스크린 내에 애니메이션되어 사용자로 하여금 자신의 손가락을 이용하여 스크린 상에서 위/아래로 스와이프하여 3D 자막에 대한 텍스트 입력의 컬러를 점진적으로 또는 신속하게 변경하는 것을 허용한다. 스타일 캐러셀 및 컬러 픽커가 도 14a에 도시되고 설명된다. 사용자는 키보드를 이용하여 3D 공간 내에서 렌더링될 3D 자막에 대한 기초를 제공하는 하나 이상의 텍스트 문자를 입력할 수 있다. 사용자 인터페이스(1100)는 편집 인터페이스(212)의 예이다. 일부 경우들에서, 키보드의 언어는 스크린 상의 지정된 옵션을 이용하여 변경될 수 있다.
도 10에 도시된 바와 같이, 사용자로부터의 입력(예를 들어, 키보드를 통해 입력됨)을 수신할 시에, 사용자 인터페이스(1100)는 입력 텍스트의 표현("Typing on the screen")을 제시하도록 업데이트된다. 사용자 인터페이스(1100) 내에서, 사용자 입력의 2D 표현은 클라이언트 디바이스(102)의 카메라 피드의 전경에서 렌더링된다. 본질적으로, 사용자 입력의 2D 표현은 3D 자막의 2D 표현이다. 다시 말해서, 사용자 입력의 2D 표현은 3D 자막의 미리보기이다. 일부 경우들에서, 텍스트를 타이핑하기 위해 사용되는 2D 표현 스크린은 사용자가 아이콘(1002)을 선택하기 전에 디스플레이 상에 제시되는 카메라 피드보다 어두운 방식으로 (예를 들어, 더 작은 밝기로) 제시된다. 즉, 아이콘(1002)의 사용자 선택을 수신한 것에 응답하여, DIY 효과 이미지 수정 시스템(210)은 디스플레이를 어둡게 하고, 사용자가 2D 텍스트 스트링을 입력하는 것을 허용하는 커서를 제시한다.
일부 실시예들에 따르면, 클라이언트 디바이스(102)의 사용자는, 클라이언트 디바이스(102)의 오리엔테이션 변경하는 것(예를 들어, 카메라의 오리엔테이션을 위쪽을 가리키는 것으로부터 아래쪽을 가리키는 것으로 변경하는 것)과 같은 입력을 제공함으로써 또는 미리보기 인터페이스(214) 내에 제시된 인터페이스 요소(예를 들어, 버튼)를 선택함으로써 3D 자막의 미리보기를 포함하는 미리보기 인터페이스(예를 들어, 미리보기 인터페이스(214))에 액세스할 수 있다.
도 11은 사용자 입력(예를 들어, 인터페이스(1100)를 통해 제공된 사용자 입력)에 기초하여 생성된 3D 자막의 미리보기를 포함하는 인터페이스(1300)를 도시한다. 인터페이스(1300)는 미리보기 인터페이스(214)의 예이다. 앞서 주목한 바와 같이, 사용자는 오리엔테이션의 변화와 같은 입력을 제공함으로써 인터페이스(1300)에 액세스할 수 있다. 도 11에 도시된 바와 같이, (예를 들어, 컴퓨팅 디바이스의 오리엔테이션의 변경에 기초하여) 카메라 피드 내에서 캡처된 3D 공간에서 기준 표면(예를 들어, 지면)을 검출할 시에, 사용자의 제작된 텍스트에 기초한 3D 자막이 카메라 피드 내에서 캡처된 3D 공간 내에 렌더링된다. 도시된 바와 같이, 3D 텍스트 객체는 3D 공간에서 기준 표면에 대해 렌더링된다. 즉, 3D 텍스트 객체는, 렌더링될 때, 기준 표면(예를 들어, 지면)에 대한 위치에서 3D 공간 내에서 오리엔테이션된다. 이러한 방식으로 3D 객체를 렌더링하는 것은 그것을 카메라 피드 내에 캡처된 현실 세계 표면에 부착된 것처럼 보이게 한다. 예에서, 카메라 피드를 캡처 및 디스플레이하기 위해 후방 카메라가 이용되는 경우, 3D 자막은 카메라 피드에서 지면과 같은 표면 상에 위치된다. 카메라 피드를 캡처하고 디스플레이하기 위해 전방 카메라가 사용되는 경우, 카메라 피드에 묘사된 얼굴에 3D 자막이 추가된다.
도 12a 내지 도 12c는 미리보기 인터페이스(214)의 예인 인터페이스를 도시한다. 도 12a 내지 도 12c에 도시된 바와 같이, 사용자가 미리보기 인터페이스(214)에 액세스하면서 3D 자막을 편집하고 있음에 따라, 사용자는 컴퓨팅 디바이스를 자막으로부터 멀리 이동시킬 수 있고, DIY 효과 이미지 수정 시스템(210)은 그 이동을 추적하고 3D 자막이 컴퓨팅 디바이스의 카메라 피드 내에서 캡처된 3D 공간 내에서 추종하게 강제할 수 있다. 예를 들어, DIY 효과 이미지 수정 시스템(210)은 제2의 3D 공간이 카메라 피드에서 캡처되게 야기하는 클라이언트 디바이스의 움직임을 검출하고 클라이언트 디바이스의 움직임 동안에 제1의 3D 공간으로부터 제2의 3D 공간으로 이동하는 3D 자막을 애니메이션할 수 있다. 이러한 방식으로, DIY 효과 이미지 수정 시스템(210)은, 편집 동안에, 이들이 3D 자막의 최종 버전을 커밋(commit)할 때까지 3D 자막이 사용자에게 가시적으로 유지되도록 보장한다. 도시된 바와 같이, 3D 자막을 이동시키는 것은 정지된 채로 있는 것보다 낮은 불투명도로 렌더링될 수 있다.
도 13a 내지 도 13f는 미리보기 인터페이스(214)의 예인 인터페이스(1700)를 도시하는 인터페이스도들이다. 도 13a에 도시된 바와 같이, 3D 자막(1702)은 3D 공간 내에서 제1 위치에서 렌더링된다; 3D 자막(1702)은 기준 표면(1703)(예를 들어, 지면)에 부착된 것처럼 보이도록 렌더링된다. 도 13b에 도시된 바와 같이, 3D 자막(1702)과의 적절한 상호작용(예를 들어, 선택 및 드래그 제스처)을 통해, 사용자는 3D 자막(1702)이 3D 공간 내의 제2 위치에서 렌더링되도록 3D 자막(1702)을 이동시킬 수 있다.
도 13c 및 도 13d에 도시된 바와 같이, 사용자는 3D 자막(1702)과의 적절한 상호작용을 통해 3D 자막(1702)의 스케일 및 회전을 변경할 수 있다. 예를 들어, 사용자는, 3D 자막(1702)의 레이아웃에 영향을 미치지 않고서 기준 표면 상에서 3D 자막(1702)을 스케일링 및 회전시키기 위해 카메라 피드가 그 상에 디스플레이되는 입력 터치스크린 디스플레이 상에서 2개의 손가락으로 핀치(pinch) 및 회전 제스처를 수행할 수 있다. 도 13e 및 도 13f에 도시된 바와 같이, 사용자는 특정한 폰트(예를 들어, 거품 폰트)에 따라 텍스트(예를 들어, "PIZZA")를 입력할 수 있고, 3D 자막이 생성되어 카메라 피드에 묘사된 얼굴의 일부분 상에 디스플레이된다.
일단 사용자가 3D 자막의 배치와 외관에 만족한다면, 사용자는 카메라 피드로부터의 하나 이상의 이미지 및 3D 자막을 포함하는 메시지를 생성할 수 있다. 예를 들어, 사용자는 클라이언트 디바이스(102)를 사용하여 3D 자막이 비디오 내의 표면에 부착된 것처럼 보이도록 3D 자막이 렌더링되는 비디오를 기록할 수 있다.
도 19는 본 명세서에 설명된 다양한 하드웨어 아키텍처들과 연계하여 사용될 수 있는 예시적인 소프트웨어 아키텍처(1906)를 도시하는 블록도이다. 도 19는 소프트웨어 아키텍처의 비제한적인 예이고, 많은 다른 아키텍처들이 본 명세서에서 설명된 기능성을 용이하게 하기 위하여 구현될 수 있다는 것을 알 것이다. 소프트웨어 아키텍처(1906)는, 무엇보다도, 프로세서들(2004), 메모리(2014), 및 입력/출력(I/O) 컴포넌트들(2018)을 포함하는 도 20의 머신(2000)과 같은 하드웨어 상에서 실행될 수 있다. 대표적인 하드웨어 계층(1952)이 예시되어 있고, 예를 들어, 도 20의 머신(2000)을 나타낼 수 있다. 대표적인 하드웨어 계층(1952)은 연관된 실행가능 명령어들(1904)을 갖는 처리 유닛(1954)을 포함한다. 실행가능 명령어들(1904)은 본 명세서에 설명된 방법들, 컴포넌트들 등의 구현을 포함하는, 소프트웨어 아키텍처(1906)의 실행가능 명령어들을 나타낸다. 하드웨어 계층(1952)은 또한 메모리 및/또는 저장 모듈들인 메모리/저장소(1956)를 포함하며, 이들도 실행가능 명령어들(1904)을 갖는다. 하드웨어 계층(1952)은 또한 다른 하드웨어(1958)를 포함할 수 있다.
도 19의 예시적인 아키텍처에서, 소프트웨어 아키텍처(1906)는 각각의 계층이 특정 기능성을 제공하는 계층들의 스택으로서 개념화될 수 있다. 예를 들어, 소프트웨어 아키텍처(1906)는 운영 체제(1902), 라이브러리들(1920), 애플리케이션들(1916), 프레임워크들/미들웨어(1918), 및 프레젠테이션 계층(1914)과 같은 계층들을 포함할 수 있다. 동작적으로, 애플리케이션들(1916) 및/또는 계층들 내의 다른 컴포넌트들은 소프트웨어 스택을 통해 API 호출들(1908)을 기동시키고 API 호출들(1908)에 대한 메시지들(1912)에서와 같은 응답을 수신할 수 있다. 예시된 계층들은 본질적으로 대표적인 것이며 소프트웨어 아키텍처들 모두가 모든 계층들을 갖는 것은 아니다. 예를 들어, 일부 모바일 또는 특수 목적 운영 체제들은 프레임워크들/미들웨어(1918)를 제공하지 않을 수도 있지만, 다른 것들은 이러한 계층을 제공할 수 있다. 다른 소프트웨어 아키텍처는 추가의 또는 상이한 계층들을 포함할 수 있다.
운영 체제(1902)는 하드웨어 자원들을 관리하고 공통 서비스들을 제공할 수 있다. 운영 체제(1902)는, 예를 들어, 커널(1922), 서비스들(1924), 및 드라이버들(1926)을 포함할 수 있다. 커널(1922)은 하드웨어와 다른 소프트웨어 계층들 사이의 추상화 계층으로서 작용할 수 있다. 예를 들어, 커널(1922)은 메모리 관리, 프로세서 관리(예를 들어, 스케줄링), 컴포넌트 관리, 네트워킹, 보안 설정들, 및 등등을 담당할 수 있다. 서비스들(1924)은 다른 소프트웨어 계층들에 대한 다른 공통 서비스들을 제공할 수 있다. 드라이버들(1926)은 기저 하드웨어를 제어하거나 그와 인터페이싱하는 것을 담당한다. 예를 들어, 드라이버들(1926)은 하드웨어 구성에 좌우되어 디스플레이 드라이버, 카메라 드라이버, Bluetooth® 드라이버, 플래시 메모리 드라이버, 직렬 통신 드라이버(예를 들어, USB(Universal Serial Bus) 드라이버), Wi-Fi® 드라이버, 오디오 드라이버, 전력 관리 드라이버 등등을 포함한다.
라이브러리들(1920)은 애플리케이션들(1916) 및/또는 다른 컴포넌트들 및/또는 계층들에 의해 사용되는 공통 인프라스트럭처를 제공한다. 라이브러리들(1920)은 다른 소프트웨어 컴포넌트들이 기저 운영 체제(1902) 기능성(예를 들어, 커널(1922), 서비스들(1924) 및/또는 드라이버들(1926))과 직접 인터페이스하는 것보다 더 쉬운 방식으로 작업들을 수행하도록 허용하는 기능성을 제공한다. 라이브러리들(1920)은 메모리 할당 기능들, 스트링 조작 기능들, 수학 기능들 등과 같은 기능들을 제공할 수 있는 시스템 라이브러리들(1944)(예를 들어, C 표준 라이브러리)를 포함할 수 있다. 덧붙여, 라이브러리들(1920)은 미디어 라이브러리들(예컨대, MPREG4, H.264, MP3, AAC, AMR, JPG, PNG와 같은 다양한 미디어 포맷의 프레젠테이션 및 조작을 지원하는 라이브러리들), 그래픽 라이브러리들(예컨대, 디스플레이 상에 그래픽 콘텐츠로 2D 및 3D를 렌더링하기 위해 사용될 수 있는 OpenGL 프레임워크), 데이터베이스 라이브러리들(예컨대, 다양한 관계형 데이터베이스 기능들을 제공할 수 있는 SQLite), 웹 라이브러리들(예컨대, 웹 브라우징 기능성을 제공할 수 있는 WebKit) 등과 같은 API 라이브러리들(1946)을 포함할 수 있다. 라이브러리들(1920)은 또한, 많은 다른 API를 애플리케이션들(1916) 및 다른 소프트웨어 컴포넌트들/모듈들에 제공하는 광범위한 종류의 기타 라이브러리들(1948)을 포함할 수 있다.
프레임워크들/미들웨어(1918)(때때로 미들웨어라고도 지칭됨)는 애플리케이션들(1916) 및/또는 다른 소프트웨어 컴포넌트들/모듈들에 의해 사용될 수 있는 상위 레벨 공통 인프라스트럭처를 제공한다. 예를 들어, 프레임워크들/미들웨어(1918)는 다양한 GUI(graphic user interface) 기능들, 하이 레벨 리소스 관리, 하이 레벨 로케이션 서비스들, 등을 제공할 수 있다. 프레임워크들/미들웨어(1918)는 애플리케이션들(1916) 및/또는 다른 소프트웨어 컴포넌트들/모듈들에 의해 활용될 수 있는 광범위한 스펙트럼의 다른 API들을 제공할 수 있으며, 그 중 일부는 특정 운영 체제(1902) 또는 플랫폼에 특정적일 수 있다.
애플리케이션들(1916)은 빌트인 애플리케이션들(1938) 및/또는 제3자 애플리케이션들(1940)을 포함한다. 대표적인 빌트인 애플리케이션들(1938)의 예들은 연락처 애플리케이션, 브라우저 애플리케이션, 북 리더 애플리케이션(book reader application), 로케이션 애플리케이션, 미디어 애플리케이션, 메시징 애플리케이션, 및/또는 게임 애플리케이션을 포함할 수 있지만, 이들로 제한되지는 않는다. 제3자 애플리케이션들(1940)은 특정 플랫폼의 벤더 이외의 엔티티에 의해 ANDROID™ 또는 IOS™ SDK(software development kit)를 이용하여 개발된 애플리케이션을 포함할 수 있고, IOS™, ANDROID™, WINDOWS® Phone, 또는 다른 모바일 운영 체제들과 같은 모바일 운영 체제 상에서 실행되는 모바일 소프트웨어일 수 있다. 제3자 애플리케이션들(1940)은 본 명세서에 설명된 기능성을 용이하게 하기 위해 모바일 운영 체제(예컨대, 운영 체제(1902))에 의해 제공되는 API 호출들(1908)을 기동할 수 있다.
애플리케이션들(1916)은 시스템의 사용자들과 상호작용하기 위한 사용자 인터페이스들을 생성하기 위해 빌트인 운영 체제 기능들(예를 들어, 커널(1922), 서비스들(1924), 및/또는 드라이버들(1926)), 라이브러리들(1920), 및 프레임워크들/미들웨어(1918)를 사용할 수 있다. 대안적으로 또는 추가적으로, 일부 시스템들에서, 사용자와의 상호작용은 프레젠테이션 계층(1914)과 같은 프레젠테이션 계층을 통해 발생할 수 있다. 이러한 시스템들에서, 애플리케이션/컴포넌트 "로직"은 사용자와 상호작용하는 애플리케이션/컴포넌트의 양태들로부터 분리될 수 있다.
도 20은, 머신 판독가능 매체(예를 들어, 머신 판독가능 저장 매체)로부터의 명령어를 판독하고 본 명세서에서 논의된 방법론들 중 임의의 하나 이상을 수행할 수 있는, 일부 예시적인 실시예에 따른 머신(2000)의 컴포넌트들을 나타내는 블록도이다. 구체적으로는, 도 20은 예시적인 형태의 컴퓨터 시스템으로 된 머신(2000)의 개략도를 도시하며, 머신 내에서, 머신(2000)으로 하여금 본 명세서에서 논의된 방법론들 중 임의의 하나 이상을 수행하게 야기하기 위한 명령어들(2010)(예를 들어, 소프트웨어, 프로그램, 애플리케이션, 애플릿, 앱, 또는 기타의 실행가능 코드)이 실행될 수 있다. 이와 같이, 명령어들(2010)은 본 명세서에 설명된 모듈들 또는 컴포넌트들을 구현하기 위해 사용될 수 있다. 명령어들(2010)은, 일반적인 비 프로그래밍된 머신(2000)을, 설명되고 예시된 기능들을 설명된 방식으로 수행하도록 프로그래밍된 특정한 머신(2000)으로 변환한다. 대안적인 실시예들에서, 머신(2000)은 독립형 디바이스로서 동작하거나 다른 머신들에 결합(예를 들어, 네트워킹)될 수 있다. 네트워킹된 배포(networked deployment)에서, 머신(2000)은 서버-클라이언트 네트워크 환경에서 서버 머신 또는 클라이언트 머신으로서, 또는 피어-투-피어(또는 분산) 네트워크 환경에서 피어 머신으로서 동작할 수 있다. 머신(2000)은 서버 컴퓨터, 클라이언트 컴퓨터, 개인용 컴퓨터(personal computer, PC), 태블릿 컴퓨터, 랩톱 컴퓨터, 넷북, 셋톱 박스(set-top box, STB), 개인 정보 단말(personal digital assistant, PDA), 엔터테인먼트 미디어 시스템, 셀룰러 전화, 스마트폰, 이동 디바이스, 웨어러블 디바이스(예컨대, 스마트 시계), 스마트 홈 디바이스(예컨대, 스마트 기기), 다른 스마트 디바이스들, 웹 기기, 네트워크 라우터, 네트워크 스위치, 네트워크 브릿지, 또는 머신(2000)에 의해 취해져야 할 액션들을 특정하는 명령어들(2010)을 순차적으로 또는 이와 다르게 실행할 수 있는 임의의 머신을 포함할 수 있지만, 이것으로 제한되지는 않는다. 또한, 하나의 머신(2000)만이 도시되어 있지만, 용어 "머신"은 본 명세서에서 논의된 방법론들 중 어느 하나 이상을 실행하기 위해 개별적으로 또는 공동으로 명령어들(2010)을 실행하는 머신의 컬렉션을 포함하도록 취해질 수 있다.
머신(2000)은, 예컨대 버스(2002)를 통해 서로 통신하도록 구성될 수 있는, 프로세서들(2004), 메모리 메모리/저장소(2006), 및 I/O 컴포넌트들(2018)을 포함할 수 있다. 예시적인 실시예에서, 프로세서(2004)(예를 들어, CPU(central processing unit), RISC(reduced instruction set computing) 프로세서, CISC(complex instruction set computing) 프로세서, GPU(graphics processing unit), DSP(digital signal processor), ASIC(application-specific integrated circuit), RFIC(radio-frequency integrated circuit), 다른 프로세서, 또는 이들의 임의의 적합한 조합)는, 예를 들어, 명령어들(2010)을 실행할 수 있는 프로세서(2008) 및 프로세서(2012)를 포함할 수 있다. "프로세서"라는 용어는, 명령어들(2010)을 동시에 실행할 수 있는 2개 이상의 독립적 프로세서(때때로 "코어"로 지칭됨)를 포함할 수 있는 멀티 코어 프로세서(2004)를 포함하는 것을 의도한다. 도 20은 다중의 프로세서(2004)를 도시하지만, 머신(2000)은 단일 코어를 갖는 단일 프로세서, 다중 코어를 갖는 단일 프로세서(예를 들어, 멀티 코어 프로세서), 단일 코어를 갖는 다중 프로세서, 다중 코어를 갖는 다중 프로세서, 또는 이들의 임의의 조합을 포함할 수 있다.
메모리/저장소(2006)는 메인 메모리, 또는 다른 메모리 저장소와 같은 메모리(2014), 및 저장 유닛(2016)을 포함할 수 있으며, 둘 다 예컨대 버스(2002)를 통해 프로세서들(2004)에 액세스 가능하다. 저장 유닛(2016) 및 메모리(2014)는 본 명세서에 설명된 방법론들 또는 기능들 중 어느 하나 이상을 구체화하는 명령어들(2010)을 저장한다. 명령어들(2010)은 또한, 머신(2000)에 의한 그 실행 동안에, 완전히 또는 부분적으로, 메모리(2014) 내에, 저장 유닛(2016) 내에, 프로세서들(2004) 중 적어도 하나 내에(예를 들어, 프로세서의 캐시 메모리 내에), 또는 이들의 임의의 적절한 조합으로 존재할 수 있다. 따라서, 메모리(2014), 저장 유닛(2016), 및 프로세서들(2004)의 메모리는 머신 판독가능 매체의 예들이다.
I/O 컴포넌트들(2018)은 입력을 수신하고, 출력을 제공하고, 출력을 생성하고, 정보를 송신하고, 정보를 교환하고, 측정들을 캡처하는 것 등을 위해 광범위한 종류의 컴포넌트를 포함할 수 있다. 특정 머신(2000)에 포함되는 특정 I/O 컴포넌트들(2018)은 머신의 유형에 의존할 것이다. 예를 들어, 모바일 폰 등의 휴대용 머신은 터치 입력 디바이스 또는 기타의 이러한 입력 메커니즘을 포함할 가능성이 높은 한편, 헤드리스 서버 머신(headless server machine)은 이러한 터치 입력 디바이스를 포함하지 않을 가능성이 높을 것이다. I/O 컴포넌트들(2018)은 도 20에 도시되지 않은 많은 다른 컴포넌트들을 포함할 수 있다는 것을 알 것이다. I/O 컴포넌트들(2018)은 다음의 논의를 단순화하기 위해서만 기능성에 따라 그룹화되는데 그룹화는 결코 제한되지 않는다. 다양한 예시적인 실시예들에서, I/O 컴포넌트들(2018)은 출력 컴포넌트들(2026) 및 입력 컴포넌트들(2028)을 포함할 수 있다. 출력 컴포넌트들(2026)은 시각적 컴포넌트들(예를 들어, 디스플레이, 예컨대 PDP(plasma display panel), LED(light emitting diode) 디스플레이, LCD(liquid crystal display), 프로젝터, 또는 CRT(cathode ray tube)), 음향 컴포넌트들(예컨대, 스피커들), 햅틱 컴포넌트들(예컨대, 진동 모터, 저항 메커니즘들), 기타 신호 생성기들 등을 포함할 수 있다. 입력 컴포넌트들(2028)은 알파뉴메릭 입력 컴포넌트들(예컨대, 키보드, 알파뉴메릭 입력을 수신하도록 구성된 터치 스크린, 포토-광 키보드(photo-optical keyboard), 또는 다른 알파뉴메릭 입력 컴포넌트들), 포인트 기반 입력 컴포넌트들(예컨대, 마우스, 터치패드, 트랙볼, 조이스틱, 모션 센서, 또는 다른 포인팅 도구), 촉각 입력 컴포넌트들(예컨대, 물리적 버튼, 터치들 또는 터치 제스처들의 로케이션 및/또는 힘을 제공하는 터치 스크린, 또는 다른 촉각 입력 컴포넌트들), 오디오 입력 컴포넌트들(예컨대, 마이크로폰) 및 그와 유사한 것을 포함할 수 있다.
추가의 예시적인 실시예들에서, I/O 컴포넌트들(2018)은, 무엇보다도, 바이오메트릭 컴포넌트들(2030), 모션 컴포넌트들(2034), 환경 컴포넌트들(2036), 또는 위치 컴포넌트들(2038)을 포함할 수 있다. 예를 들어, 바이오메트릭 컴포넌트들(2030)은 표현들(예컨대, 손 표현(hand expression)들, 얼굴 표현(facial expression)들, 음성 표현(vocal expression)들, 보디 제스처(body gesture)들, 또는 눈 추적)을 검출하고, 생체신호(biosignal)들(예컨대, 혈압, 심박수, 체온, 발한(perspiration) 또는 뇌파)을 측정하고, 사람을 식별하고(예컨대, 음성 식별, 망막 식별, 얼굴 식별, 지문 식별, 또는 뇌파 기반 식별(electroencephalogram based identification)), 및 그와 유사한 것을 하는 컴포넌트들을 포함할 수 있다. 모션 컴포넌트들(2034)은 가속도 센서 컴포넌트들(예컨대, 가속도계), 중력 센서 컴포넌트들, 회전 센서 컴포넌트들(예컨대, 자이로스코프(gyroscope)), 및 등등을 포함할 수 있다. 환경 컴포넌트들(2036)은 예를 들어, 조명 센서 컴포넌트들(예컨대, 광도계(photometer)), 온도 센서 컴포넌트들(예컨대, 주위 온도를 검출하는 하나 이상의 온도계), 습도 센서 컴포넌트들, 압력 센서 컴포넌트들(예컨대, 기압계), 음향 센서 컴포넌트들(예컨대, 배경 잡음을 검출하는 하나 이상의 마이크로폰), 근접 센서 컴포넌트들(예컨대, 근처의 물체들을 검출하는 적외선 센서들), 가스 센서들(예컨대, 안전을 위하여 유해 가스들의 농도들을 검출하거나 대기에서의 오염원들을 측정하기 위한 가스 검출 센서들), 또는 주변의 물리적 환경에 대응하는 표시들, 측정들, 또는 신호들을 제공할 수 있는 다른 컴포넌트들을 포함할 수 있다. 위치컴포넌트들(2038)은 로케이션 센서 컴포넌트들(예컨대, GPS 수신기 컴포넌트), 고도 센서 컴포넌트들(예컨대, 고도가 그로부터 도출될 수 있는 기압을 검출하는 고도계들 또는 기압계들), 오리엔테이션 센서 컴포넌트들(예컨대, 자력계들), 및 그와 유사한 것을 포함할 수 있다.
통신은 매우 다양한 기술을 사용하여 구현될 수 있다. I/O 컴포넌트들(2018)은 머신(2000)을 결합(2024) 및 결합(2022)을 통해 제각기 네트워크(2032) 또는 디바이스들(2020)에 결합하도록 동작가능한 통신 컴포넌트들(2040)을 포함할 수 있다. 예를 들어, 통신 컴포넌트들(2040)은 네트워크 인터페이스 컴포넌트, 또는 네트워크(2032)와 인터페이스하기에 적합한 다른 디바이스를 포함할 수 있다. 추가의 예들에서, 통신 컴포넌트들(2040)은 유선 통신 컴포넌트들, 무선 통신 컴포넌트들, 셀룰러 통신 컴포넌트들, NFC(Near Field Communication) 컴포넌트들, Bluetooth® 컴포넌트들(예컨대, Bluetooth® Low Energy), Wi-Fi® 컴포넌트들, 및 다른 양상(modality)들을 통해 통신을 제공하기 위한 다른 통신 컴포넌트들을 포함할 수 있다. 디바이스들(2020)은, 또 다른 머신 또는 임의의 매우 다양한 주변 디바이스(예를 들어, USB를 통해 결합된 주변 디바이스)일 수 있다.
게다가, 통신 컴포넌트들(2040)은 식별자들을 검출하거나 식별자들을 검출하도록 동작가능한 컴포넌트를 포함할 수 있다. 예를 들어, 통신 컴포넌트들(2040)은 RFID(Radio Frequency Identification) 태그 판독기 컴포넌트들, NFC 스마트 태그 검출 컴포넌트들, 광학 판독기 컴포넌트들(예컨대, UPC(Universal Product Code) 바코드와 같은 1차원 바코드들, QR(Quick Response) 코드, Aztec 코드, Data Matrix, Dataglyph, MaxiCode, PDF417, Ultra Code, UCC RSS-2D 바코드와 같은 다차원 바코드, 및 다른 광학 코드들을 검출하는 광학 센서), 또는 음향 검출 컴포넌트들(예컨대, 태깅된 오디오 신호(tagged audio signal)들을 식별하는 마이크로폰들)을 포함할 수 있다. 덧붙여, IP(Internet Protocol) 지오 로케이션(geo-location)를 통한 로케이션, Wi-Fi® 신호 삼각측량을 통한 로케이션, 특정의 위치를 표시할 수 있는 NFC 비콘 신호를 검출하는 것을 통한 로케이션 등과 같은 다양한 정보가 통신 컴포넌트들(2040)을 통해 도출될 수 있다.
용어집:
이러한 맥락에서 "캐리어 신호(CARRIER SIGNAL)"는 머신에 의한 실행을 위한 명령어들을 저장, 인코딩, 또는 운반할 수 있는 임의의 무형 매체를 지칭하고, 그러한 명령어들의 통신을 용이하게 하기 위한 디지털 또는 아날로그 통신 신호들 또는 다른 무형 매체를 포함한다. 네트워크 인터페이스 디바이스를 통해 송신 매체를 사용하여 그리고 다수의 잘 알려진 전송 프로토콜들 중 어느 하나를 사용하여 네트워크를 통해 명령어들이 송신되거나 또는 수신될 수 있다.
이러한 맥락에서 "클라이언트 디바이스(CLIENT DEVICE)"는 하나 이상의 서버 시스템 또는 다른 클라이언트 디바이스들로부터 리소스들을 획득하기 위해 통신 네트워크에 인터페이스하는 임의의 머신을 지칭한다. 클라이언트 디바이스는, 모바일 폰, 데스크톱 컴퓨터, 랩톱, PDA, 스마트폰, 태블릿, 울트라 북, 넷북, 랩톱, 멀티 프로세서 시스템, 마이크로프로세서 기반 또는 프로그래머블 가전 제품, 게임 콘솔, 셋탑 박스 또는 사용자가 네트워크에 액세스하기 위해 이용할 수 있는 기타 임의의 통신 디바이스일 수 있지만, 이것으로 제한되지는 않는다.
이러한 맥락에서 "통신 네트워크(COMMUNICATIONS NETWORK)"는 애드 혹 네트워크, 인트라넷, 엑스트라넷, VPN(virtual private network), LAN(local area network), WLAN(wireless LAN), WAN(wide area network), WWAN(wireless WAN), MAN(metropolitan area network), 인터넷, 인터넷의 일부, PSTN(Public Switched Telephone Network)의 일부, POTS(plain old telephone service) 네트워크, 셀룰러 전화 네트워크, 무선 네트워크, WI-FI® 네트워크, 또 다른 유형의 네트워크, 또는 둘 이상의 이러한 네트워크들의 조합일 수 있는 네트워크의 하나 이상의 부분을 지칭한다. 예를 들어, 네트워크 또는 네트워크의 부분은 무선 또는 셀룰러 네트워크를 포함할 수 있고 결합은 CDMA(Code Division Multiple Access) 접속, GSM(Global System for Mobile communications) 접속, 또는 다른 타입의 셀룰러 또는 무선 결합을 포함할 수 있다. 이러한 예에서, 결합은, 1xRTT(Single Carrier Radio Transmission Technology), EVDO(Evolution-Data Optimized) 기술, GPRS(General Packet Radio Service) 기술, EDGE(Enhanced Data rates for GSM Evolution) 기술, 3G를 포함하는 3GPP(third Generation Partnership Project), 4G(fourth generation wireless) 네트워크들, UMTS(Universal Mobile Telecommunications System), HSPA(High Speed Packet Access), WiMAX(Worldwide Interoperability for Microwave Access), LTE(Long Term Evolution) 표준, 다양한 표준 설정 조직들에 의해 정의되는 다른 것들, 다른 장거리 프로토콜들, 또는 다른 데이터 전송 기술과 같은, 다양한 유형들의 데이터 전송 기술 중 임의의 것을 구현할 수 있다.
이러한 맥락에서 "단기적 메시지(EPHEMERAL MESSAGE)"는 시간 제한된 지속기간 동안 액세스 가능한 메시지를 지칭한다. 단기적 메시지는, 텍스트, 이미지, 비디오 등일 수 있다. 단기적 메시지에 대한 액세스 시간은 메시지 전송자에 의해 설정될 수 있다. 대안적으로, 액세스 시간은 디폴트 설정 또는 수신자에 의해 지정되는 설정일 수 있다. 설정 기법에 관계없이, 메시지는 일시적(transitory)이다.
이러한 맥락에서 "머신 판독가능 매체(MACHINE-READABLE MEDIUM)"는, 명령어 및 데이터를 일시적으로 또는 영구적으로 저장할 수 있는 컴포넌트, 디바이스 또는 다른 유형 매체(tangible media)를 지칭하고, RAM(random-access memory), ROM(read-only memory), 버퍼 메모리, 플래시 메모리, 광학 매체, 자기 매체, 캐시 메모리, 다른 유형의 저장소(예를 들어, EEPROM(Erasable Programmable Read-Only Memory)) 및/또는 이들의 임의의 적합한 조합을 포함할 수 있지만, 이들로 제한되지는 않는다. "머신 판독가능 매체(machine-readable medium)"라는 용어는, 명령어들을 저장할 수 있는 단일의 매체 또는 복수의 매체(예를 들어, 중앙집중형 또는 분산형 데이터베이스, 및/또는 연관된 캐시들 및 서버들)를 포함하는 것으로 취해져야 한다. "머신 판독가능 매체"라는 용어는 또한, 명령어들이, 머신의 하나 이상의 프로세서에 의해 실행될 때, 머신으로 하여금 본 명세서에 설명된 방법론들 중 임의의 하나 이상을 수행하게 하도록, 머신에 의한 실행을 위한 명령어들(예를 들어, 코드)을 저장할 수 있는 임의의 매체 또는 다중의 매체의 조합을 포함하는 것으로 취해져야 한다. 따라서, "머신 판독가능 매체"는 단일 저장 장치 또는 디바이스뿐만 아니라 다중의 저장 장치 또는 디바이스를 포함하는 "클라우드 기반" 저장 시스템 또는 저장 네트워크를 지칭한다. "머신 판독가능 매체(machine-readable medium)"라는 용어가 그 자체로 신호들을 배제한다.
이러한 맥락에서 "컴포넌트(COMPONENT)"는 기능 또는 서브루틴 호출, 분기 포인트, API, 또는 특정한 처리 또는 제어 기능들의 분할 또는 모듈화를 제공하는 다른 기술들에 의해 정의된 경계들을 갖는 디바이스, 물리적 엔티티, 또는 로직을 지칭한다. 컴포넌트들은 그들의 인터페이스들을 통해 다른 컴포넌트들과 조합되어 머신 프로세스를 완수할 수 있다. 컴포넌트는, 다른 컴포넌트들 및 보통은 관련된 기능들 중 특정 기능을 수행하는 프로그램의 일부와 함께 이용하도록 설계되는 패키징된 기능적 하드웨어 유닛일 수 있다. 컴포넌트들은 소프트웨어 컴포넌트들(예를 들어, 머신 판독가능 매체 상에 구체화되는 코드) 또는 하드웨어 컴포넌트들을 구성할 수 있다.
"하드웨어 컴포넌트"는 특정 동작들을 수행할 수 있는 유형의 유닛(tangible unit)이고, 특정 물리적 방식으로 구성되거나 배열될 수 있다. 다양한 예시적인 실시예들에서, 하나 이상의 컴퓨터 시스템(예를 들어, 독립형 컴퓨터 시스템, 클라이언트 컴퓨터 시스템, 또는 서버 컴퓨터 시스템) 또는 컴퓨터 시스템의 하나 이상의 하드웨어 컴포넌트(예를 들어, 프로세서 또는 프로세서들의 그룹)은 본 명세서에 설명되는 바와 같이 특정 동작들을 수행하기 위해 동작하는 하드웨어 컴포넌트로서 소프트웨어(예를 들어, 애플리케이션 또는 애플리케이션 부분)에 의해 구성될 수 있다. 하드웨어 컴포넌트는 또한, 기계적으로, 전자적으로, 또는 이들의 임의의 적합한 조합으로 구현될 수 있다. 예를 들어, 하드웨어 컴포넌트는 특정 동작들을 수행하도록 영구적으로 구성되는 전용 회로 또는 로직을 포함할 수 있다. 하드웨어 컴포넌트는, FPGA(Field-Programmable Gate Array) 또는 ASIC(Application Specific Integrated Circuit)와 같은 특수 목적 프로세서일 수 있다. 하드웨어 컴포넌트는 또한, 특정 동작들을 수행하도록 소프트웨어에 의해 일시적으로 구성된 프로그래머블 로직 또는 회로를 포함할 수 있다. 예를 들어, 하드웨어 컴포넌트는 범용 프로세서 또는 다른 프로그래머블 프로세서에 의해 실행되는 소프트웨어를 포함할 수 있다.
일단 이러한 소프트웨어에 의해 구성되면, 하드웨어 컴포넌트들은 구성된 기능들을 수행하도록 고유하게 맞춤화된 특정 머신들(또는 머신의 특정 컴포넌트들)이 되고 더 이상 범용 프로세서들이 아니다. 하드웨어 컴포넌트를 기계적으로, 전용의 영구적으로 구성되는 회로에, 또는 일시적으로 구성되는 회로(예를 들어, 소프트웨어에 의해 구성됨)에 구현하기로 하는 결정이 비용 및 시간 고려사항에 의해 주도될 수 있다는 것을 알 것이다. 따라서, "하드웨어 컴포넌트"(또는 "하드웨어 구현된 컴포넌트")라는 구문은, 유형의 엔티티, 즉, 특정 방식으로 동작하거나 본 명세서에 설명된 특정 동작들을 수행하도록 물리적으로 구성되거나, 영구적으로 구성되거나(예를 들어, 하드와이어드) 또는 일시적으로 구성되는(예를 들어, 프로그래밍되는) 엔티티를 포괄하는 것으로 이해해야 한다.
하드웨어 컴포넌트들이 일시적으로 구성되는(예를 들어, 프로그래밍되는) 실시예들을 고려할 때, 하드웨어 컴포넌트들 각각은 임의의 한 시간 인스턴스에서 구성되거나 인스턴스화될 필요는 없다. 예를 들어, 하드웨어 컴포넌트가 특수 목적 프로세서가 되도록 소프트웨어에 의해 구성된 범용 프로세서를 포함하는 경우에, 범용 프로세서는 상이한 때에 (예컨대, 상이한 하드웨어 컴포넌트들을 포함하는) 각자의 상이한 특수 목적 프로세서들로서 구성될 수 있다. 따라서 소프트웨어는 예를 들어, 하나의 시간 인스턴스에서는 특정 하드웨어 컴포넌트를 구성하고 상이한 시간 인스턴스에서는 상이한 하드웨어 컴포넌트를 구성하도록 특정 프로세서 또는 프로세서들을 구성한다.
하드웨어 컴포넌트는 다른 하드웨어 컴포넌트들에 정보를 제공하고 그로부터 정보를 수신할 수 있다. 따라서, 설명된 하드웨어 컴포넌트들은 통신가능하게 결합되는 것으로서 간주될 수 있다. 다중의 하드웨어 컴포넌트가 동시에 존재하는 경우에, 하드웨어 컴포넌트들 중 2개 이상 간의 또는 그들 사이의(예를 들어, 적절한 회로들 및 버스들을 통한) 신호 송신을 통해 통신이 달성될 수 있다. 복수의 하드웨어 컴포넌트가 상이한 시간들에서 구성되거나 인스턴스화되는 실시예에서, 이러한 하드웨어 컴포넌트들 사이의 통신은, 예를 들어, 복수의 하드웨어 컴포넌트가 액세스하는 메모리 구조체 내의 정보의 저장 및 검색을 통해 달성될 수 있다. 예를 들어, 하나의 하드웨어 컴포넌트는 동작을 수행하고, 이것이 통신가능하게 결합되는 메모리 디바이스에 그 동작의 출력을 저장할 수 있다. 그 후 추가의 하드웨어 컴포넌트가 추후에, 저장된 출력을 검색 및 처리하기 위해 메모리 디바이스에 액세스할 수 있다. 하드웨어 컴포넌트들은 또한 입력 또는 출력 디바이스들과 통신을 개시할 수 있고, 리소스(예를 들어, 정보의 컬렉션)에 대해 동작할 수 있다.
본 명세서에 설명된 예시적 방법들의 다양한 동작들은, 관련 동작들을 수행하도록 영구적으로 구성되거나 또는 (예를 들어, 소프트웨어에 의해) 일시적으로 구성되는 하나 이상의 프로세서에 의해 적어도 부분적으로 수행될 수 있다. 일시적으로 또는 영구적으로 구성되든 간에, 이러한 프로세서들은 본 명세서에 설명되는 하나 이상의 동작 또는 기능들을 수행하도록 동작하는 프로세서 구현 컴포넌트들을 구성할 수 있다. 본 명세서에서 사용되는 바와 같이, "프로세서 구현 컴포넌트(processor-implemented component)"는 하나 이상의 프로세서를 사용하여 구현되는 하드웨어 컴포넌트를 지칭한다. 유사하게, 본 명세서에 설명되는 방법들은, 특정 프로세서 또는 프로세서들이 하드웨어의 예가 되면서, 적어도 부분적으로 프로세서 구현될 수 있다. 예를 들어, 방법의 동작들 중 적어도 일부가 하나 이상의 프로세서 또는 프로세서 구현 컴포넌트들에 의해 수행될 수 있다. 더욱이, 하나 이상의 프로세서는 또한 "클라우드 컴퓨팅(cloud computing)" 환경에서 또는 "SaaS(software as a service)"로서 관련 동작들의 수행을 지원하기 위해 동작할 수 있다. 예를 들어, 동작들 중 적어도 일부는, (프로세서들을 포함하는 머신의 예로서의) 컴퓨터들의 그룹에 의해 수행될 수 있고, 이들 동작들은 네트워크(예를 들어, 인터넷)를 통해 및 하나 이상의 적절한 인터페이스(예를 들어, API)를 통해 액세스가능하다. 특정 동작들의 수행은 단일 머신 내에 상주할 뿐만 아니라, 다수의 머신에 걸쳐 배치된 프로세서들 사이에 분산될 수 있다. 일부 예시적인 실시예들에서, 프로세서들 또는 프로세서 구현 컴포넌트들은 단일의 지리적 로케이션에(예를 들어, 가정 환경, 사무실 환경, 또는 서버 팜(server farm) 내에) 자리잡을 수 있다. 다른 예시적인 실시예들에서, 프로세서들 또는 프로세서 구현 컴포넌트들은 다수의 지리적 로케이션에 걸쳐 분산될 수 있다.
이러한 맥락에서 "프로세서"는 제어 신호들(예를 들어, "명령들", "오피 코드들", "머신 코드" 등)에 따라 데이터 값들을 조작하고 및 머신을 동작시키기 위해 인가되는 대응하는 출력 신호들을 생성하는 임의의 회로 또는 가상 회로(실제 프로세서 상에서 실행되는 로직에 의해 에뮬레이트되는 물리적 회로)를 지칭한다. 프로세서는, 예를 들어, CPU(Central Processing Unit), RISC(Reduced Instruction Set Computing) 프로세서, CISC(Complex Instruction Set Computing) 프로세서, GPU(Graphics Processing Unit), DSP(Digital Signal Processor), ASIC, RFIC(Radio-Frequency Integrated Circuit), 또는 이들의 임의의 조합일 수 있다. 프로세서는 추가로, 명령어들을 동시에 실행할 수 있는 2개 이상의 독립적 프로세서(때때로 "코어들(cores)"이라고 지칭됨)을 갖는 멀티 코어 프로세서일 수 있다.
이러한 맥락에서 "타임스탬프(TIMESTAMP)"는 특정 이벤트가 언제 발생했는지를 식별하는, 예를 들어, 때때로 1초의 소수까지 정확한, 날짜 및 시각을 제공하는 문자들 또는 인코딩된 정보의 시퀀스를 지칭한다.

Claims (20)

  1. 시스템으로서:
    적어도 하나의 하드웨어 프로세서;
    상기 적어도 하나의 하드웨어 프로세서에 의해 실행될 때, 상기 적어도 하나의 하드웨어 프로세서로 하여금 동작들을 수행하게 야기하는 명령어들을 저장하는 메모리를 포함하고, 상기 동작들은:
    메시징 애플리케이션에 의해, 사용자 디바이스의 카메라로부터 이미지를 수신하는 동작;
    상기 이미지의 위에 복수의 이미지 수정 옵션들을 디스플레이하는 동작 - 상기 복수의 이미지 수정 옵션들은 사용자 맞춤화가능 효과 옵션을 포함함 -;
    상기 이미지의 위에 디스플레이되는 상기 복수의 이미지 수정 옵션들로부터, 사용자 맞춤화가능 효과 모드를 활성화하기 위한 상기 사용자 맞춤화가능 효과 옵션을 선택하는 입력을 수신하는 동작;
    상기 입력을 수신한 것에 응답하여, 상기 사용자 맞춤화가능 효과 옵션에 근접한 이미지와 함께 복수의 효과 옵션의 어레이를 디스플레이하는 동작; 및
    상기 복수의 효과 옵션 중 제1 효과 옵션과 연관된 제1 효과를 상기 이미지에 적용하는 동작을 포함하는 시스템.
  2. 제1항에 있어서, 상기 이미지는 실시간 또는 이전에 저장된 비디오 피드의 프레임이고, 상기 제1 효과는 상기 사용자 맞춤화가능 효과 옵션을 선택하는 상기 입력을 수신한 것에 응답하여 자동으로 적용되는 시스템.
  3. 제1항에 있어서, 상기 이미지와 함께 디스플레이되는 옵션들의 메뉴로부터 생성 옵션의 선택을 수신한 것에 응답하여 상기 복수의 이미지 수정 옵션들이 디스플레이되는 시스템.
  4. 제2항에 있어서,
    상기 비디오 피드와 함께, 생성 옵션을 포함하는 옵션들의 메뉴를 제시하고; 및
    상기 생성 옵션의 사용자 선택을 수신한 것에 응답하여 상기 사용자 맞춤화가능 효과 옵션을 포함하는 상기 복수의 이미지 수정 옵션들을 디스플레이하기 위한 동작들을 추가로 포함하는 시스템.
  5. 제4항에 있어서, 상기 복수의 이미지 수정 옵션들은 상기 비디오 피드에 오버레이되고, 상기 옵션들의 메뉴는 상기 비디오 피드에 인접하여 디스플레이되는 시스템.
  6. 제4항에 있어서, 상기 복수의 이미지 수정 옵션들은 사용자가 상기 비디오 피드에 대한 3D 자막을 생성할 수 있게 하는 3차원(3D) 자막 옵션, 사용자가 상기 비디오 피드에 묘사된 객체의 3D 컷아웃을 생성할 수 있게 하는 3D 컷아웃 옵션, 및 사용자가 상기 비디오 피드 위에 하나 이상의 페인트 스타일을 이용하여 3D로 그릴 수 있게 하는 3D 페인트 옵션을 포함하는 시스템.
  7. 제1항 내지 제3항 중 어느 한 항에 있어서,
    상기 복수의 효과 옵션 중 제2 효과 옵션과 연관된 제2 효과를 선택하고; 및
    상기 이미지에 상기 제1 효과 대신에 상기 제2 효과를 적용하기 위한 동작들을 추가로 포함하는 시스템.
  8. 제7항에 있어서, 상기 제2 효과를 선택하는 동작은:
    상기 어레이 내에서 상기 복수의 효과 옵션을 스크롤하는 사용자 입력을 수신하고; 및
    상기 어레이에 디스플레이된 상기 제2 효과 옵션을 탭핑함으로써 상기 제2 효과 옵션을 선택하는 사용자 입력을 수신하기 위한 동작들을 추가로 포함하는 시스템.
  9. 제7항에 있어서, 상기 제2 효과를 선택하는 동작은:
    상기 이미지가 제1 방향으로 디스플레이되는 스크린을 가로질러 스와이프하는 사용자 입력을 수신하고;
    상기 제2 효과가 상기 제1 방향으로 상기 이미지에 현재 적용되는 상기 제1 효과에 인접한 것을 결정하고; 및
    상기 제2 효과가 상기 제1 방향으로 상기 이미지에 현재 적용되는 상기 제1 효과에 인접한 것을 결정한 것에 응답하여 상기 제2 효과 옵션을 선택하기 위한 동작들을 추가로 포함하는 시스템.
  10. 제1항 내지 제3항 중 어느 한 항에 있어서,
    상기 이미지가 제1 방향으로 디스플레이되는 스크린을 가로질러 스와이프하는 사용자 입력을 수신하고;
    제2 효과가 상기 제1 방향으로 상기 이미지에 현재 적용되는 상기 제1 효과에 인접한 것을 결정하고; 및
    상기 제2 효과가 상기 제1 방향으로 상기 이미지에 현재 적용되는 상기 제1 효과에 인접한 것을 결정한 것에 응답하여 제2 효과 옵션을 선택하기 위한 동작들을 추가로 포함하는 시스템.
  11. 제1항에 있어서,
    상기 이미지에 현재 적용되는 상기 제1 효과의 속성을 수정하기 위한 옵션을 디스플레이하고;
    상기 수정하기 위한 옵션을 선택하는 입력을 수신한 것에 응답하여, 상기 어레이의 디스플레이를 상기 제1 효과의 상이한 속성들과 연관된 슬라이더로 대체하기 위한 동작들을 추가로 포함하는 시스템.
  12. 제1항 내지 제3항 중 어느 한 항에 있어서, 상기 어레이에 근접하게 효과 수정 옵션을 디스플레이하기 위한 동작들을 추가로 포함하고, 상기 효과 수정 옵션은 사용자가 상기 이미지에 현재 적용되는 효과의 속성을 조절하는 것을 가능하게 하는 시스템.
  13. 제12항에 있어서, 상기 효과 수정 옵션은 제1 디스플레이 속성을 포함하고,
    상기 제1 효과의 효과 수정 속성의 유형을 결정하고;
    상기 복수의 효과 옵션 중 제2 효과 옵션과 연관된 제2 효과를 선택하고;
    상기 제2 효과의 효과 수정 속성의 유형이 상기 제1 효과의 효과 수정 속성의 유형과 상이한 것을 결정하고; 및
    상기 제2 효과의 효과 수정 속성의 유형이 상기 제1 효과의 효과 수정 속성의 유형과 상이한 것을 결정한 것에 응답하여 제2 디스플레이 속성을 포함하도록 상기 효과 수정 옵션의 디스플레이 속성을 수정하기 위한 동작들을 추가로 포함하는 시스템.
  14. 제1항 내지 제3항 중 어느 한 항에 있어서,
    상기 효과 수정 옵션의 사용자 선택을 수신하고;
    상기 어레이의 디스플레이를 상기 제1 효과의 상이한 속성들과 연관된 슬라이더로 대체하고;
    상기 슬라이더를 상기 상이한 속성들 중 주어진 속성으로 드래그하는 사용자 입력을 수신하고; 및
    상기 주어진 속성에 기초하여 상기 이미지에 적용되는 상기 제1 효과의 속성을 수정하기 위한 동작들을 추가로 포함하는 시스템.
  15. 제14항에 있어서,
    상기 슬라이더에 근접하여, 상기 사용자 맞춤화가능 효과 옵션에 대응하는 아이콘을 디스플레이하고 - 상기 아이콘은 상기 효과 수정 옵션 대신에 디스플레이됨 -; 및
    상기 사용자 맞춤화가능 효과 옵션에 대응하는 상기 아이콘의 사용자 선택을 수신한 것에 응답하여 상기 슬라이더의 디스플레이를 상기 어레이의 디스플레이로 대체하기 위한 동작들을 추가로 포함하는 시스템.
  16. 제14항에 있어서, 수정되는 상기 속성은 상기 효과의 컬러 또는 강도 중 적어도 하나를 포함하는 시스템.
  17. 제1항 내지 제3항 중 어느 한 항에 있어서, 상기 복수의 효과 옵션은 햇볕 태움 효과 옵션, 오래된 패션 효과 옵션, 서리 효과 옵션, 네온 효과 옵션, 정사각형 효과 옵션, 엽서 효과 옵션, 안테나 효과 옵션, 무아레 효과 옵션, CCTV 효과 옵션, 원 효과 옵션, 하트 효과 옵션, 직사각형 효과 옵션, 보케 효과 옵션, 플레어 효과 옵션, 및 사랑 효과 옵션 중 적어도 하나를 포함하는 시스템.
  18. 방법으로서:
    메시징 애플리케이션에 의해, 사용자 디바이스의 카메라로부터 이미지를 수신하는 단계;
    상기 이미지의 위에 복수의 이미지 수정 옵션들을 디스플레이하는 단계 - 상기 복수의 이미지 수정 옵션들은 사용자 맞춤화가능 효과 옵션을 포함함 -;
    상기 이미지의 위에 디스플레이되는 상기 복수의 이미지 수정 옵션들로부터, 사용자 맞춤화가능 효과 모드를 활성화하기 위한 상기 사용자 맞춤화가능 효과 옵션을 선택하는 입력을 수신하는 단계;
    상기 입력을 수신한 것에 응답하여, 상기 사용자 맞춤화가능 효과 옵션에 근접한 이미지와 함께 복수의 효과 옵션의 어레이를 디스플레이하는 단계; 및
    상기 복수의 효과 옵션 중 제1 효과 옵션과 연관된 제1 효과를 상기 이미지에 적용하는 단계를 포함하는 방법.
  19. 제18항에 있어서, 상기 이미지와 함께 디스플레이되는 옵션들의 메뉴로부터 생성 옵션의 선택을 수신한 것에 응답하여 상기 복수의 이미지 수정 옵션들이 디스플레이되는 방법.
  20. 머신의 하나 이상의 프로세서에 의해 실행될 때, 상기 머신으로 하여금 동작들을 수행하게 야기하는 명령어들을 저장한 머신 판독가능 매체로서, 상기 동작들은:
    메시징 애플리케이션에 의해, 사용자 디바이스의 카메라로부터 이미지를 수신하는 동작;
    상기 이미지의 위에 복수의 이미지 수정 옵션들을 디스플레이하는 동작 - 상기 복수의 이미지 수정 옵션들은 사용자 맞춤화가능 효과 옵션을 포함함 -;
    상기 이미지의 위에 디스플레이되는 상기 복수의 이미지 수정 옵션들로부터, 사용자 맞춤화가능 효과 모드를 활성화하기 위한 상기 사용자 맞춤화가능 효과 옵션을 선택하는 입력을 수신하는 동작;
    상기 입력을 수신한 것에 응답하여, 상기 사용자 맞춤화가능 효과 옵션에 근접한 이미지와 함께 복수의 효과 옵션의 어레이를 디스플레이하는 동작; 및
    상기 복수의 효과 옵션 중 제1 효과 옵션과 연관된 제1 효과를 상기 이미지에 적용하는 동작을 포함하는 머신 판독가능 매체.
KR1020227031395A 2020-02-14 2021-02-11 Diy 효과 이미지 수정 KR102669113B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020247016852A KR20240090689A (ko) 2020-02-14 2021-02-11 Diy 효과 이미지 수정

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
US202062976916P 2020-02-14 2020-02-14
US62/976,916 2020-02-14
US15/929,484 2020-05-05
US15/929,484 US11381756B2 (en) 2020-02-14 2020-05-05 DIY effects image modification
PCT/US2021/070142 WO2021163725A1 (en) 2020-02-14 2021-02-11 Diy effects image modification

Related Child Applications (1)

Application Number Title Priority Date Filing Date
KR1020247016852A Division KR20240090689A (ko) 2020-02-14 2021-02-11 Diy 효과 이미지 수정

Publications (2)

Publication Number Publication Date
KR20220140596A KR20220140596A (ko) 2022-10-18
KR102669113B1 true KR102669113B1 (ko) 2024-05-28

Family

ID=77273298

Family Applications (2)

Application Number Title Priority Date Filing Date
KR1020227031395A KR102669113B1 (ko) 2020-02-14 2021-02-11 Diy 효과 이미지 수정
KR1020247016852A KR20240090689A (ko) 2020-02-14 2021-02-11 Diy 효과 이미지 수정

Family Applications After (1)

Application Number Title Priority Date Filing Date
KR1020247016852A KR20240090689A (ko) 2020-02-14 2021-02-11 Diy 효과 이미지 수정

Country Status (5)

Country Link
US (3) US11381756B2 (ko)
EP (1) EP4104135A4 (ko)
KR (2) KR102669113B1 (ko)
CN (1) CN115315726A (ko)
WO (1) WO2021163725A1 (ko)

Families Citing this family (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11381756B2 (en) 2020-02-14 2022-07-05 Snap Inc. DIY effects image modification
AU2021202282B2 (en) * 2020-04-21 2022-04-07 Canva Pty Ltd Systems and methods for applying effects to design elements
US11360733B2 (en) 2020-09-10 2022-06-14 Snap Inc. Colocated shared augmented reality without shared backend
USD942473S1 (en) 2020-09-14 2022-02-01 Apple Inc. Display or portion thereof with animated graphical user interface
CN112099712B (zh) * 2020-09-17 2022-06-07 北京字节跳动网络技术有限公司 人脸图像显示方法、装置、电子设备及存储介质
USD998637S1 (en) * 2021-03-16 2023-09-12 Snap Inc. Display screen or portion thereof with a graphical user interface
US11647064B1 (en) * 2021-10-20 2023-05-09 Remo Holdings Limited Computer systems for managing interactive enhanced communications
USD1042490S1 (en) * 2021-10-22 2024-09-17 Beijing Zitiao Network Technology Co., Ltd. Display screen or portion thereof with a graphical user interface
USD1031760S1 (en) * 2021-12-10 2024-06-18 Adidas Ag Display screen or portion thereof and/or display system or portion thereof with animated graphical user interface
US11949527B2 (en) 2022-04-25 2024-04-02 Snap Inc. Shared augmented reality experience in video chat
US20230410396A1 (en) * 2022-06-17 2023-12-21 Lemon Inc. Audio or visual input interacting with video creation
CN117150089B (zh) * 2023-10-26 2023-12-22 环球数科集团有限公司 一种基于aigc技术的人物艺术形象更改系统

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014093713A1 (en) 2012-12-12 2014-06-19 Smule, Inc. Audiovisual capture and sharing framework with coordinated, user-selectable audio and video effects filters
US20140237365A1 (en) * 2011-10-10 2014-08-21 Genarts, Inc. Network-based rendering and steering of visual effects

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8954851B2 (en) 2006-09-15 2015-02-10 Microsoft Corporation Adding video effects for video enabled applications
US8345956B2 (en) 2008-11-03 2013-01-01 Microsoft Corporation Converting 2D video into stereo video
US10037129B2 (en) * 2013-08-30 2018-07-31 Google Llc Modifying a segment of a media item on a mobile device
US20180210628A1 (en) * 2017-01-23 2018-07-26 Snap Inc. Three-dimensional interaction system
US11200402B2 (en) 2018-01-26 2021-12-14 GICSOFT, Inc. Application execution based on object recognition
US10375313B1 (en) * 2018-05-07 2019-08-06 Apple Inc. Creative camera
US11381756B2 (en) 2020-02-14 2022-07-05 Snap Inc. DIY effects image modification

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20140237365A1 (en) * 2011-10-10 2014-08-21 Genarts, Inc. Network-based rendering and steering of visual effects
WO2014093713A1 (en) 2012-12-12 2014-06-19 Smule, Inc. Audiovisual capture and sharing framework with coordinated, user-selectable audio and video effects filters

Also Published As

Publication number Publication date
US20220294997A1 (en) 2022-09-15
US20230362318A1 (en) 2023-11-09
US11381756B2 (en) 2022-07-05
EP4104135A1 (en) 2022-12-21
EP4104135A4 (en) 2024-03-13
KR20220140596A (ko) 2022-10-18
KR20240090689A (ko) 2024-06-21
CN115315726A (zh) 2022-11-08
US11758080B2 (en) 2023-09-12
US20210258511A1 (en) 2021-08-19
WO2021163725A1 (en) 2021-08-19

Similar Documents

Publication Publication Date Title
US11620791B2 (en) Rendering 3D captions within real-world environments
KR102669113B1 (ko) Diy 효과 이미지 수정
US11823341B2 (en) 3D object camera customization system
US11775165B2 (en) 3D cutout image modification
EP3566113B1 (en) Surface aware lens
US11810220B2 (en) 3D captions with face tracking
US11908093B2 (en) 3D captions with semantic graphical elements
US12106441B2 (en) Rendering 3D captions within real-world environments
US20230089838A1 (en) Rendering 3d captions within real-world environments

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant