KR20190022811A - 아바타 기반의 표의문자 생성 - Google Patents

아바타 기반의 표의문자 생성 Download PDF

Info

Publication number
KR20190022811A
KR20190022811A KR1020197002736A KR20197002736A KR20190022811A KR 20190022811 A KR20190022811 A KR 20190022811A KR 1020197002736 A KR1020197002736 A KR 1020197002736A KR 20197002736 A KR20197002736 A KR 20197002736A KR 20190022811 A KR20190022811 A KR 20190022811A
Authority
KR
South Korea
Prior art keywords
graphical
graphic
character
component
tabular
Prior art date
Application number
KR1020197002736A
Other languages
English (en)
Other versions
KR102241428B1 (ko
Inventor
아르템 본디치
볼로디미르 말체프
Original Assignee
스냅 인코포레이티드
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority to US15/199,472 priority Critical
Priority to US15/199,472 priority patent/US10360708B2/en
Application filed by 스냅 인코포레이티드 filed Critical 스냅 인코포레이티드
Priority to PCT/US2017/040447 priority patent/WO2018006053A1/en
Publication of KR20190022811A publication Critical patent/KR20190022811A/ko
Application granted granted Critical
Publication of KR102241428B1 publication Critical patent/KR102241428B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/60Editing figures and text; Combining figures or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING; COUNTING
    • G06KRECOGNITION OF DATA; PRESENTATION OF DATA; RECORD CARRIERS; HANDLING RECORD CARRIERS
    • G06K9/00Methods or arrangements for reading or recognising printed or written characters or for recognising patterns, e.g. fingerprints
    • GPHYSICS
    • G06COMPUTING; CALCULATING; COUNTING
    • G06KRECOGNITION OF DATA; PRESENTATION OF DATA; RECORD CARRIERS; HANDLING RECORD CARRIERS
    • G06K9/00Methods or arrangements for reading or recognising printed or written characters or for recognising patterns, e.g. fingerprints
    • G06K9/00221Acquiring or recognising human faces, facial parts, facial sketches, facial expressions
    • G06K9/00268Feature extraction; Face representation
    • G06K9/00281Local features and components; Facial parts ; Occluding parts, e.g. glasses; Geometrical relationships
    • GPHYSICS
    • G06COMPUTING; CALCULATING; COUNTING
    • G06KRECOGNITION OF DATA; PRESENTATION OF DATA; RECORD CARRIERS; HANDLING RECORD CARRIERS
    • G06K9/00Methods or arrangements for reading or recognising printed or written characters or for recognising patterns, e.g. fingerprints
    • G06K9/00221Acquiring or recognising human faces, facial parts, facial sketches, facial expressions
    • G06K9/00288Classification, e.g. identification
    • GPHYSICS
    • G06COMPUTING; CALCULATING; COUNTING
    • G06KRECOGNITION OF DATA; PRESENTATION OF DATA; RECORD CARRIERS; HANDLING RECORD CARRIERS
    • G06K9/00Methods or arrangements for reading or recognising printed or written characters or for recognising patterns, e.g. fingerprints
    • G06K9/00221Acquiring or recognising human faces, facial parts, facial sketches, facial expressions
    • G06K9/00302Facial expression recognition
    • G06K9/00315Dynamic expression
    • GPHYSICS
    • G06COMPUTING; CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2200/00Indexing scheme for image data processing or generation, in general
    • G06T2200/24Indexing scheme for image data processing or generation, in general involving graphical user interfaces [GUIs]

Abstract

이미지 스트림에서 수신된 한 세트의 이미지들로부터 표의문자를 생성하기 위한 시스템들, 디바이스들, 매체들, 및 방법들이 제시된다. 이 시스템들 및 방법들은 이미지 내의 얼굴의 적어도 부분을 검출하고 얼굴의 부분 내의 얼굴 특징물들의 세트를 식별한다. 이 시스템들 및 방법들은, 얼굴의 부분을 검출하는 것에 응답하여, 얼굴의 부분을 나타내는 하나 이상의 특성을 결정한다. 하나 이상의 특성 및 얼굴 특징물들의 세트에 기초하여, 이 시스템들 및 방법들은 얼굴의 표현을 생성한다. 이 시스템들 및 방법들은 얼굴의 그래픽 모델에 근접하게 하나 이상의 그래픽 요소를 배치하고, 그래픽 모델 및 하나 이상의 그래픽 요소로부터 표의문자를 생성한다.

Description

아바타 기반의 표의문자 생성
본 출원은, 그 전체 내용이 참조로 본 명세서에 포함되는 2016년 6월 30일 출원된 미국 특허 출원 제15/199,472호의 우선권을 주장한다.
본 개시내용의 실시예들은 대체로 이미지의 자동화된 처리에 관한 것이다. 제한으로서가 아니라, 더 구체적으로는, 본 개시내용은, 한 세트의 이미지 내에 묘사된 얼굴의 표의문자 표현(ideogram representation)을 생성하기 위한 시스템 및 방법을 다룬다.
통신 애플리케이션 및 디바이스는, 텍스트, 이미지, 사운드 녹음, 및/또는 비디오 녹화 등의 다양한 매체를 이용하여 복수의 사용자들 사이에서 통신을 제공할 수 있다. 예를 들어, 화상 회의는, 2명 이상의 개인이 소프트웨어 애플리케이션, 통신 디바이스, 및 통신 네트워크의 조합을 이용하여 서로 통신하는 것을 허용한다. 통신 디바이스는 또한, 비디오 스트림을 녹화하여 통신 네트워크를 통해 메시지로서 전송할 수 있다.
현재 통신 애플리케이션의 표의문자는 애플리케이션을 배포하는 엔티티 또는 라이센스가 부여된 콘텐츠를 배포하는 브랜드에 의해 중앙에서 생성된다. 표의문자는 세트 팩키지 또는 개개의 다운로드에서 통신 애플리케이션에서 제공된다.
첨부된 도면들 중 다양한 도면들은 본 개시내용의 예시적인 실시예를 나타낼 뿐이고 그 범위를 제한하는 것으로서 간주되어서는 안 된다.
도 1은 일부 예시적인 실시예에 따른 네트워킹된 시스템을 나타내는 블록도이다.
도 2는 일부 예시적인 실시예에 따른 표의문자 생성 시스템을 나타내는 도면이다.
도 3은 일부 예시적인 실시예에 따른 이미지 스트림의 한 세트의 이미지들로부터 표의문자를 생성하기 위한 예시적인 방법을 나타내는 흐름도이다.
도 4는 비디오 스트림 내의 얼굴 및 생성된 그래픽 모델을 묘사하는 사용자 인터페이스 도면이다.
도 5는 그래픽 모델로부터 생성된 표의문자를 묘사하는 사용자 인터페이스 도면이다.
도 6은 일부 예시적인 실시예에 따른 이미지 스트림의 한 세트의 이미지들로부터 표의문자를 생성하기 위한 예시적인 방법을 나타내는 흐름도이다.
도 7은 일부 예시적인 실시예에 따른 이미지 스트림의 한 세트의 이미지들로부터 표의문자를 생성하기 위한 예시적인 방법을 나타내는 흐름도이다.
도 8은 일부 예시적인 실시예에 따른 이미지 스트림의 한 세트의 이미지들로부터 표의문자를 생성하기 위한 예시적인 방법을 나타내는 흐름도이다.
도 9는 일부 예시적인 실시예에 따른 이미지 스트림의 한 세트의 이미지들로부터 표의문자를 생성하기 위한 예시적인 방법을 나타내는 흐름도이다.
도 10은 일부 예시적인 실시예에 따른 이미지 스트림의 한 세트의 이미지들로부터 표의문자를 생성하기 위한 예시적인 방법을 나타내는 흐름도이다.
도 11은 일부 예시적인 실시예에 따른 예시적인 모바일 디바이스 및 모바일 운영 체제 인터페이스를 도시하는 사용자 인터페이스 도면이다.
도 12는 일부 예시적인 실시예에 따른 머신 상에 설치될 수 있는 소프트웨어 아키텍처의 예를 나타내는 블록도이다.
도 13은 예시적인 실시예에 따른 머신으로 하여금 본 명세서에서 논의된 방법론들 중 임의의 것을 수행하게 하기 위해 한 세트의 명령어들이 실행될 수 있는 컴퓨터 시스템의 형태의 머신의 개략도를 도시하는 블록도이다.
여기서 제공된 서두는 단지 편의를 위한 것이며 사용된 용어들의 범위 또는 의미에 반드시 영향을 주는 것은 아니다.
이하의 설명은 본 개시내용의 실시예들을 나타내는 시스템, 방법, 기술, 명령어 시퀀스, 및 컴퓨팅 머신 프로그램 제품을 포함한다. 이하의 설명에서, 설명의 목적을 위해, 많은 구체적인 상세사항이 본 발명의 주제의 다양한 실시예에 대한 이해를 제공하기 위해 개시된다. 그러나, 본 기술분야의 통상의 기술자에게는, 본 발명의 주제의 실시예들은 이러한 구체적인 상세사항 없이도 실시될 수 있다는 것이 명백할 것이다. 일반적으로, 널리 공지된 명령어 인스턴스, 프로토콜, 구조 및 기술은 반드시 상세하게 도시되지는 않는다.
이미지 내에 아바타 또는 얼굴의 표현을 생성하는 방법들이 존재하지만, 이들 방법들의 대부분은 생성된 아바타 또는 얼굴의 표현을 위한 기초로서 얼굴 인식 또는 얼굴 특징물(facial landmark)을 이용하지 않는다. 통신 애플리케이션에서 이용하기 위한 표의문자를 생성하는 방법들이 존재하지만, 이들 방법들은 아바타 또는 이미지 스트림으로부터 생성되지 않는다. 또한, 이들 방법들은, 클라이언트 디바이스 상에서 실시간으로 캡처된 이미지 스트림으로부터 표의문자를 생성하지 않는다. 표의문자의 생성은 종종 통신 애플리케이션을 배포하는 엔티티에 의해 수행된다. 그 다음, 표의문자는 통신 애플리케이션을 통해 사용자들에게 배포된다. 이들 표의문자는 어떠한 맞춤화도 제공하지 않으며 사용자와 연관된 아바타 또는 이미지를 반영하지 않는다. 따라서, 사용자 상호작용없이 또는 최소한의 사용자 상호작용으로 아바타 및 표의문자의 생성을 향상시킬 필요성이 본 기술분야에 여전히 있다. 또한, 얼굴로부터 도출된 얼굴 특징물 및 얼굴 특징물에 기초하여 생성된 측정치를 이용하여 이미지 내에 묘사된 얼굴의 합당한 모사인 양식화된(예를 들어, 애니메이션 및 만화 이미지) 표의문자의 생성을 향상시킬 필요가 여전히 존재한다. 본 명세서에 설명된 바와 같이, 초기 선택의 사용자 상호작용을 이용해 이미지 내에 묘사된 얼굴의 얼굴 특징물에 기초하여 얼굴 아바타 또는 표의문자를 생성하기 위한 방법 및 시스템이 제시된다.
본 개시내용의 실시예들은 대체로 자동화된 이미지 세그먼트화 및 세그먼트화된 이미지에 기초한 표의문자 내의 얼굴 표현의 생성에 관한 것이다. 한 실시예에서, 클라이언트 디바이스의 사용자는 클라이언트 디바이스에서 동작하는 애플리케이션을 오픈할 수 있다. 사용자에 의한 사용자 인터페이스 요소의 선택은 클라이언트 디바이스의 카메라를 이용한 이미지의 캡처를 야기한다. 그 다음, 사용자는 애플리케이션 내에서 "스티커 생성" 버튼을 선택하여, 애플리케이션이, 캡처된 이미지를 이용하여 아바타를 구축하고 아바타에 기초한 표의문자의 생성을 가능케하도록 할 수 있다. 애플리케이션은, 얼굴 특징물, 얼굴 특징물들 사이의 측정치, 및 얼굴의 특성을 식별하여 얼굴의 이미지와 비율에 기초하여 유사한 아바타를 생성할 수 있다. 아바타를 생성한 후, 애플리케이션은 사용자가 아바타를 저장하고, 아바타를 조작하거나 맞춤화할 수 있게 하는 버튼 및 표의문자를 프리젠팅할 수 있다. 표의문자는, 클라이언트 디바이스들 사이의 메시지 또는 기타의 통신에 그래픽을 포함시킴으로써 다른 사용자들과 공유될 수 있는, 디지털 스티커, 이모지, 애니메이트된 비트맵 이미지, 및 기타의 그래픽을 포함할 수 있다.
상기의 내용은 하나의 구체적인 예이다. 본 개시내용의 다양한 실시예들은 비디오 스트림이 캡처되고 있는 동안 디바이스에 의해 또 다른 디바이스에 전송되는 이미지 또는 비디오 스트림을 수정(예를 들어, 실시간으로 비디오 스트림을 수정)하기 위한 디바이스들 및 한 디바이스의 하나 이상의 프로세서에 의한 명령어들에 관한 것이다. 이미지 내의 또는 비디오 스트림에 걸친 및 비디오 스트림을 포함하는 한 세트의 이미지들을 통해 관심 대상 및 영역을 식별하고 추적하는 표의문자 생성 시스템이 설명된다. 다양한 예시적인 실시예에서, 표의문자 생성 시스템은, 비디오 스트림 또는 이미지 내에 묘사된 하나 이상의 얼굴 부위(facial feature)를 식별하고 추적하며, 하나 이상의 얼굴 부위 및 2개 이상의 얼굴 부위들 사이의 상호관계에 관하여 이미지 인식, 얼굴 인식, 및 얼굴 처리 기능, 및 아바타와 추적된 얼굴 부위로부터의 표의문자의 생성을 수행한다.
도 1은, 한 실시예에 따른, 네트워크를 통해 데이터를 교환하도록 구성된 클라이언트-서버 아키텍처를 갖는 네트워크 시스템(100)을 도시하는 네트워크 도면이다. 예를 들어, 네트워크 시스템(100)은 클라이언트들이 네트워크 시스템(100) 내에서 통신하고 데이터를 교환하는 메시징 시스템일 수 있다. 데이터는 네트워크 시스템(100) 및 그 사용자들과 연관된 다양한 기능(예를 들어, 텍스트 및 미디어 통신신호의 전송 및 수신, 지리위치의 결정 등) 및 양태(예를 들어, 통신 데이터의 전송, 통신 세션의 표시의 수신 및 전송 등)에 관련될 수 있다. 여기서는 클라이언트-서버 아키텍처로 예시되었지만, 다른 실시예들은 피어-투-피어 또는 분산 네트워크 환경 등의 다른 네트워크 아키텍처를 포함할 수 있다.
도 1에 도시된 바와 같이, 네트워크 시스템(100)은 소셜 메시징 시스템(130)을 포함한다. 소셜 메시징 시스템(130)은 일반적으로, 인터페이스 계층(124), 애플리케이션 로직 계층(126), 및 데이터 계층(128)으로 구성된 3-계층 아키텍처에 기초한다. 관련된 컴퓨터 및 인터넷 관련 분야의 통상의 기술자에 의해 이해되는 바와 같이, 도 1에 도시된 각각의 컴포넌트 또는 엔진은, 명령어들을 실행하고, 하드웨어-구현된 컴포넌트 또는 엔진을 형성하며, 명령어들의 실행시, 특정한 세트의 기능들을 실행하도록 구성된 특별 목적 머신으로 작용하기 위한 한 세트의 실행가능한 소프트웨어 명령어들 및 대응하는 하드웨어(예를 들어, 메모리 및 프로세서)를 나타낸다. 불필요한 상세사항으로 본 발명의 주제를 모호하게 하는 것을 피하기 위해, 본 발명의 주제에 대한 이해를 전달하는 것과 밀접하지 않은 다양한 기능 컴포넌트들 및 엔진은 도 1에서 생략되었다. 물론, 본 명세서에서 구체적으로 설명되지 않은 추가적인 기능을 용이화하기 위해, 도 1에 나타낸 것 등의 추가적인 기능 컴포넌트 및 엔진이 소셜 메시징 시스템과 함께 이용될 수 있다. 또한, 도 1에 도시된 다양한 기능 컴포넌트들 및 엔진들은 단일의 서버 컴퓨터 또는 클라이언트 디바이스 상에 존재하거나, 다양한 배열로 수 개의 서버 컴퓨터들 또는 클라이언트 디바이스들에 걸쳐 분산될 수 있다. 또한, 소셜 메시징 시스템(130)이 도 1에서는 3-계층 아키텍처로서 도시되어 있지만, 본 발명의 주제는 결코 이러한 아키텍처로 제한되지 않는다.
도 1에 도시된 바와 같이, 인터페이스 계층(124)은, 클라이언트 애플리케이션(들)(112)을 실행하는 클라이언트 디바이스(110) 및 제3자 애플리케이션(들)(122)을 실행하는 제3자 서버(들)(120) 등의, 다양한 클라이언트 컴퓨팅 디바이스 및 서버로부터 요청을 수신하는 인터페이스 컴포넌트(들)(예를 들어, 웹 서버)(140)로 구성된다. 수신된 요청에 응답하여, 인터페이스 컴포넌트(들)(140)는 적절한 응답을 네트워크(104)를 통해 요청 디바이스들에 전달한다. 예를 들어, 인터페이스 컴포넌트(들)(140)는, HTTP(Hypertext Transfer Protocol) 요청, 또는 기타의 웹 기반 API(Application Programming Interface) 요청 등의 요청을 수신할 수 있다.
클라이언트 디바이스(110)는, 다양한 모바일 컴퓨팅 디바이스들 중 임의의 것 및 모바일-특유의 운영 체제(예를 들어, IOS™, ANDROID™, WINDOWS® PHONE)를 포함하는 특정한 플랫폼을 위해 개발된 종래의 웹 브라우저 애플리케이션 또는 애플리케이션들(또한 "앱"이라고도 함)을 실행할 수 있다. 또한, 일부 예시적인 실시예에서, 클라이언트 디바이스(110)는, 표의문자 생성 시스템(160)의 컴포넌트들이 표의문자 생성 시스템(160)의 동작들에 관한 특정한 세트의 기능들을 수행하게끔 클라이언트 디바이스(110)를 구성하도록 표의문자 생성 시스템(160)의 전부 또는 일부를 형성한다.
한 예에서, 클라이언트 디바이스(110)는 클라이언트 애플리케이션(들)(112)을 실행하고 있다. 클라이언트 애플리케이션(들)(112)은, 사용자(106)에게 정보를 프리젠팅하고 네트워크(104)를 통해 전달하여 소셜 메시징 시스템(130)과 정보를 교환하는 기능을 제공할 수 있다. 또한, 일부 예에서, 클라이언트 디바이스(110)는 표의문자 생성 시스템(160)의 기능을 실행하여 비디오 스트림의 캡처 동안에 비디오 스트림의 이미지들을 세그먼트화하고 (예를 들어, 비디오 스트림의 세그먼트화된 이미지들에 기초하여 수정된 이미지 데이터와 함께) 비디오 스트림을 전송하거나 비디오 스트림에 포함된 데이터로부터 이미지 표현(예를 들어, 표의문자)을 생성한다.
각각의 클라이언트 디바이스(110)는, 적어도 디스플레이, 및 소셜 메시징 시스템(130), 다른 클라이언트 디바이스들, 및 제3자 서버(들)(120)에 액세스하기 위한 네트워크(104)와의 통신 능력을 포함하는 컴퓨팅 디바이스를 포함할 수 있다. 클라이언트 디바이스(110)는, 원격 디바이스, 워크스테이션, 컴퓨터, 범용 컴퓨터, 인터넷 어플라이언스, 핸드헬드 디바이스, 무선 디바이스, 휴대형 디바이스, 착용형 컴퓨터, 셀룰러 또는 모바일 전화, 개인 휴대 정보 단말기(PDA), 스마트폰, 태블릿, 울트라북, 넷북, 랩탑, 데스크탑, 멀티-프로세서 시스템, 마이크로프로세서 기반의 또는 프로그래밍가능한 가전 제품, 게임 콘솔, 셋탑 박스, 네트워크 PC, 미니 컴퓨터 등을 포함하지만, 이것으로 제한되는 것은 아니다. 사용자(106)는, 사람, 머신, 또는 클라이언트 디바이스(110)와 상호작용하는 기타의 수단일 수 있다. 일부 실시예에서, 사용자(106)는 클라이언트 디바이스(110)를 통해 소셜 메시징 시스템(130)과 상호작용한다. 사용자(106)는 네트워킹된 시스템(100)의 일부가 아닐 수 있지만, 클라이언트 디바이스(110)와 연관될 수 있다.
도 1에 도시된 바와 같이, 데이터 계층(128)은 정보 저장소 또는 데이터베이스(들)(134)로의 액세스를 용이화하는 데이터베이스 서버(들)(132)를 갖는다. 데이터베이스(들)(134)는, 멤버 프로파일 데이터, 소셜 그래프 데이터(예를 들어, 소셜 메시징 시스템(130)의 멤버들 사이의 관계), 이미지 수정 선호도 데이터, 및 액세스가능성 데이터, 및 기타의 사용자 데이터 등의 데이터를 저장하는 저장 디바이스이다.
개인은 소셜 메시징 시스템(130)에 등록하여 소셜 메시징 시스템(130)의 멤버가 될 수 있다. 일단 등록되고 나면, 멤버는 소셜 메시징 시스템(130) 상에서 소셜 네트워크 관계(예를 들어, 친구, 팔로워, 또는 연락처)를 형성할 수 있고, 소셜 메시징 시스템(130)에 의해 제공되는 광범위한 애플리케이션과 상호작용할 수 있다.
애플리케이션 로직 계층(126)은 다양한 애플리케이션 로직 컴포넌트(150)를 포함하며, 애플리케이션 로직 컴포넌트(150)는, 인터페이스 컴포넌트(들)(140)와 연계하여, 데이터 계층(128) 내의 다양한 데이터 소스 또는 데이터 서비스로부터 회수된 데이터를 갖춘 다양한 사용자 인터페이스를 생성한다. 개개의 애플리케이션 로직 컴포넌트(150)는, 소셜 메시징 시스템(130)의 다양한 애플리케이션, 서비스 및 피처들과 연관된 기능을 구현하는데 이용될 수 있다. 예를 들어, 소셜 메시징 애플리케이션은 애플리케이션 로직 컴포넌트(150)들 중 적어도 부분으로 구현될 수 있다. 소셜 메시징 애플리케이션은, 클라이언트 디바이스(110)의 사용자가 텍스트와 사진 및 비디오 등의 미디어 콘텐츠를 포함하는 메시지를 송수신하기 위한 메시징 메커니즘을 제공한다. 클라이언트 디바이스(110)는 (예를 들어, 제한된 또는 무제한의) 명시된 기간 동안 소셜 메시징 애플리케이션으로부터의 메시지를 액세스하고 볼 수 있다. 한 예에서, 특정한 메시지는, 특정한 메시지가 처음 액세스될 때 시작하는 (예를 들어, 메시지 전송자에 의해 명시된) 미리정의된 지속기간 동안 메시지 수신자에게 액세스될 수 있다. 미리정의된 지속기간이 경과한 후에, 메시지는 삭제되고 더 이상 메시지 수신자에게 액세스될 수 없다. 물론, 다른 애플리케이션 및 서비스들은 그들 자신의 애플리케이션 로직 컴포넌트(150)에서 별개로 구현될 수 있다.
도 1에 나타낸 바와 같이, 소셜 메시징 시스템(130)은, 클라이언트 디바이스(110)에 의한 비디오 데이터의 캡처 동안 비디오 데이터를 식별, 추적 및 수정할 수 있는 표의문자 생성 시스템(160)의 적어도 부분을 포함할 수 있다. 유사하게, 클라이언트 디바이스(110)는, 전술된 바와 같이, 표의문자 생성 시스템(160)의 적어도 부분을 포함한다. 다른 예에서, 클라이언트 디바이스(110)는 전체 표의문자 생성 시스템(160)을 포함할 수 있다. 클라이언트 디바이스(110)가 표의문자 생성 시스템(160)의 일부(또는 전부)를 포함하는 경우, 클라이언트 디바이스(110)는 단독으로 또는 소셜 메시징 시스템(130)과 협력하여 본 명세서에 설명된 표의문자 생성 시스템(160)의 기능을 제공할 수 있다.
일부 실시예에서, 소셜 메시징 시스템(130)은, 콘텐츠(예를 들어, 비디오 클립 또는 이미지)가 시청 시간 또는 시청 완료 등의 삭제 트리거 이벤트 후에 삭제되는 단기 통신을 가능케하는 단기 메시지 시스템일 수 있다. 이러한 실시예에서, 디바이스는, 단기 메시지를 생성, 전송, 수신 또는 그 양태를 디스플레이하는 것 중의 임의의 상황 내에서 본 명세서에서 설명된 다양한 컴포넌트들을 이용한다. 예를 들어, 표의문자 생성 시스템(160)을 구현하는 디바이스는, 비디오 클립에 묘사된 얼굴의 피부를 나타내는 픽셀 등의 관심 대상을 식별하고, 추적하고, 수정할 수 있다. 디바이스는, 단기 메시지에 대한 콘텐츠의 생성의 일부로서 비디오 클립을 캡처한 후에 이미지 처리없이 비디오 클립의 캡처 동안 관심 대상을 수정할 수 있다.
도 2에서, 다양한 실시예에서, 표의문자 생성 시스템(160)은 독립형 시스템으로서 구현되거나 클라이언트 디바이스(110)와 연계하여 구현될 수 있고, 반드시 소셜 메시징 시스템(130)에 포함되는 것은 아니다. 표의문자 생성 시스템(160)은, 액세스 컴포넌트(210), 식별 컴포넌트(220), 얼굴 처리 컴포넌트(230), 특성 컴포넌트(240), 아바타 컴포넌트(250), 및 표의문자 컴포넌트(260)를 포함하는 것으로 도시되어 있다. 컴포넌트들(210 내지 260)의 전부 또는 일부는, 예를 들어, 네트워크 결합, 공유된 메모리 등을 통해 서로 통신한다. 컴포넌트들(210 내지 260)의 각각의 컴포넌트는 단일 컴포넌트로서 구현되거나, 다른 컴포넌트들 내에 결합되거나, 또는 복수의 컴포넌트들로 더 세분될 수 있다. 예시적인 실시예들과 관련이 없는 다른 컴포넌트들도 역시 포함될 수 있지만, 도시되지는 않는다.
액세스 컴포넌트(210)는, 이미지 캡처 디바이스에 의해 캡처되거나 그렇지 않으면 클라이언트 디바이스(110)에 의해 수신되거나 클라이언트 디바이스(110)에 저장된 이미지를 액세스하거나 기타의 방식으로 회수한다. 일부 예에서, 액세스 컴포넌트(210)는 클라이언트 디바이스(110)의 이미지 캡처 디바이스로 하여금 클라이언트 디바이스(110)의 디스플레이 디바이스 상에 프리젠팅된 사용자 인터페이스와의 사용자 상호작용에 기초하여 이미지를 캡처하게 하도록 구성된 이미지 캡처 컴포넌트의 부분 또는 전부를 포함할 수 있다. 액세스 컴포넌트(210)는 이미지 또는 이미지의 부분을 표의문자 생성 시스템(160)의 하나 이상의 다른 컴포넌트에 전달할 수 있다.
식별 컴포넌트(220)는 액세스 컴포넌트(210)로부터 수신된 이미지 또는 이미지 세트 내의 얼굴 또는 다른 관심 영역을 식별한다. 일부 실시예에서, 식별 컴포넌트(220)는 한 세트의 이미지들(예를 들어, 비디오 스트림) 중의 복수의 이미지에 걸쳐서 식별된 얼굴 또는 관심 영역을 추적한다. 식별 컴포넌트(220)는, 얼굴 또는 관심 영역을 나타내는 값들(예를 들어, 이미지 또는 이미지의 부분 내의 좌표들)을 표의문자 생성 시스템(160)의 하나 이상의 컴포넌트에 전달할 수 있다.
얼굴 처리 컴포넌트(230)는, 식별 컴포넌트(220)에 의해 식별된 관심 영역 내의 또는 얼굴에 묘사된 얼굴 특징물을 식별한다. 일부 실시예에서, 얼굴 처리 컴포넌트(230)는, 얼굴 또는 관심 영역 내에 묘사된 얼굴 특징물 외에도 예상되지만 누락된 얼굴 특징물을 식별한다. 얼굴 처리 컴포넌트(230)는 얼굴 특징물에 기초하여 얼굴의 배향을 결정할 수 있고 얼굴 특징물들 사이의 하나 이상의 관계를 식별할 수 있다. 얼굴 처리 컴포넌트(230)는 얼굴 특징물을 나타내는 값들을 표의문자 생성 시스템(160)의 하나 이상의 컴포넌트에 전달할 수 있다.
특성 컴포넌트(240)는, 얼굴 처리 컴포넌트(230)에 의해 식별된 얼굴 특징물들에 적어도 부분적으로 기초하여 이미지 또는 관심 영역 내의 얼굴의 하나 이상의 특성을 식별, 결정 또는 측정한다. 일부 실시예에서, 특성 컴포넌트(240)는 얼굴 특징물에 기초하여 얼굴 부위를 식별한다. 특성 컴포넌트(240)는, 식별된 얼굴 부위들의 측정치 및 2개 이상의 얼굴 부위들 사이에서 연장되는 거리를 결정할 수 있다. 일부 실시예에서, 특성 컴포넌트(240)는 관심 영역을 식별하고 얼굴 상에서 식별된 관심 영역으로부터 우세 색상(prevailing color)을 추출한다. 특성 컴포넌트(240)는 하나 이상의 특성을 나타내는 값을 아바타 컴포넌트(250)에 전달할 수 있다.
아바타 컴포넌트(250)는 특성 컴포넌트(240)로부터 수신된 하나 이상의 특성에 기초하여 아바타 또는 얼굴 표현을 생성한다. 일부 실시예에서, 아바타 컴포넌트(250)는, 이미지 내에 묘사된 얼굴의 만화 버전 등의 얼굴의 양식화된 표현을 생성한다. 양식화된 표현은, 얼굴 내에서 식별된 부위들의 비율, 위치 및 우세 색상이 양식화된 표현과 정합하도록 생성될 수 있다. 일부 실시예에서, 비율, 위치 및 우세 색상을 정합하기 위하여, 아바타 컴포넌트(250)는 독립적으로 얼굴 부위 표현을 생성하거나 기존의 템플릿 표현을 수정하여 특성 컴포넌트(240)에 의해 식별된 특성 및 얼굴 부위들과 정합시킨다. 아바타 컴포넌트(250)는 클라이언트 디바이스(110)의 디스플레이 디바이스에서 얼굴 표현의 완성된 아바타의 프리젠테이션을 야기할 수 있다. 일부 실시예에서, 아바타 컴포넌트(250)는, 후속 사용자와 연관된 후속 클라이언트 디바이스로의 메시지(예를 들어 텍스트, 단문 메시지 시스템 메시지, 인스턴트 메시지, 및 임시 메시지) 내에서의 전송을 위해 구성된 스티커, 이모지, .gif 및 다른 적절한 그래픽 등의 생성된 아바타 또는 얼굴 표현을 이용한 그래픽의 생성을 가능케 한다.
표의문자 컴포넌트(260)는 표의문자를 생성하도록 그래픽 요소 및 그래픽 모델을 배치한다. 일부 실시예에서, 표의문자 컴포넌트(260)는 하나 이상의 그래픽 요소 및 그래픽 모델을 서로에 관해 배치한다. 표의문자 컴포넌트(260)는 또한, 하나 이상의 그래픽 요소 및 그래픽 모델 중 하나 이상을 크기조정할 수 있다. 표의문자 컴포넌트(260)는 타겟 애플리케이션에 대한 표의문자의 치수 내에 맞도록 그래픽 요소 및 그래픽 모델을 크기조정할 수 있다.
도 3은 이미지 스트림에서 수신된 한 세트의 이미지들로부터 표의문자를 생성하기 위한 예시적인 방법(300)을 나타내는 흐름도를 도시한다. 방법(300)의 동작들은, 표의문자 생성 시스템(160)의 컴포넌트들에 의해 수행될 수 있고, 예시의 목적으로 이하에서 설명된다.
동작 310에서, 액세스 컴포넌트(210)는 얼굴의 적어도 부분을 묘사하는 하나 이상의 이미지를 수신하거나 기타의 방식으로 액세스한다. 일부 실시예에서, 액세스 컴포넌트(210)는, 클라이언트 디바이스(110)와 연관된 이미지 캡처 디바이스에 의해 캡처되고 아바타 생성 애플리케이션의 사용자 인터페이스 상에 프리젠팅되는 비디오 스트림으로서 하나 이상의 이미지를 수신한다. 액세스 컴포넌트(210)는, 액세스 컴포넌트(210)를 포함하는 하드웨어의 일부로서 이미지 캡처 디바이스를 포함할 수 있다. 이들 실시예에서, 액세스 컴포넌트(210)는 이미지 캡처 디바이스에 의해 캡처된 하나 이상의 이미지 또는 비디오 스트림을 직접 수신한다. 일부 예에서, 액세스 컴포넌트(210)는, 이하에서 더 상세히 설명되는 바와 같이, 하나 이상의 이미지 또는 비디오 스트림(예를 들어, 비디오 스트림을 포함하는 한 세트의 이미지들)의 전부 또는 일부를 표의문자 생성 시스템(160)의 하나 이상의 컴포넌트에 전달한다.
동작 320에서, 식별 컴포넌트(220)는 하나 이상의 이미지 내에 묘사된 얼굴의 부분을 검출한다. 일부 실시예에서, 식별 컴포넌트(220)는 하나 이상의 이미지 내의 얼굴 또는 얼굴의 부분을 식별하기 위한 한 세트의 얼굴 추적 동작들을 포함한다. 식별 컴포넌트(220)는, 하나 이상의 이미지 내의 얼굴 또는 얼굴의 부분을 식별하기 위해, 비올라-존스(Viola-Jones) 객체 검출 프레임워크, 고유-얼굴 기술(Eigen-face technique), 얼굴 검출을 위한 유전 알고리즘, 엣지 검출 방법, 또는 기타 임의의 적절한 객체-클래스 검출 방법 또는 동작 세트를 이용할 수 있다. 하나 이상의 이미지가 복수의 이미지(예를 들어, 비디오 스트림 내의 한 세트의 이미지들)인 경우, 식별 컴포넌트(220)의 얼굴 추적 동작은, 초기 이미지에서 얼굴 또는 얼굴의 부분을 식별한 후, 복수의 이미지 중의 여러 이미지들에 걸쳐 얼굴의 위치에서의 변화를 식별함으로써, 복수의 이미지 내의 얼굴의 움직임을 추적할 수 있다. 특정한 기술들이 설명되지만, 식별 컴포넌트(220)는 본 개시내용의 범위를 벗어나지 않고 하나 이상의 이미지 내의 얼굴 또는 얼굴의 부분을 식별하기 위해 임의의 적절한 기술 또는 동작 세트를 이용할 수 있다는 것을 이해해야 한다.
동작 330에서, 얼굴 처리 컴포넌트(230)는, 하나 이상의 이미지 내에 묘사된 얼굴의 부분 내의 얼굴 특징물들의 세트를 식별한다. 일부 실시예에서, 얼굴 처리 컴포넌트(230)는 하나 이상의 이미지의 서브세트에서 얼굴의 부분 내의 얼굴 특징물들의 세트를 식별한다. 예를 들어, 얼굴 처리 컴포넌트(230)는 복수의 이미지 중의 한 세트의 이미지들(예를 들어, 제1 세트의 이미지들)에서 얼굴 특징물들의 세트를 식별할 수 있고, 여기서, 얼굴의 부분 또는 얼굴 특징물은 이미지 세트에 나타나지만, 복수의 이미지 중의 나머지 이미지들(예를 들어, 제2 세트의 이미지들)에서는 나타나지 않는다. 일부 실시예에서, 얼굴 특징물의 식별은, 전술된 검출 동작을 포함하는 얼굴 추적 동작을 이용하여 얼굴 또는 얼굴의 부분의 식별의 서브동작 또는 일부로서 수행될 수 있다.
동작 340에서, 특성 컴포넌트(240)는 하나 이상의 이미지에 묘사된 얼굴의 부분을 나타내는 하나 이상의 특성을 결정한다. 일부 실시예에서, 동작 340은, 동작 320에서의 얼굴의 부분의 검출, 동작 330에서의 얼굴 특징물들의 세트의 검출에 응답하여 수행된다. 얼굴의 부분을 나타내는 특성은, 얼굴의 부분에 묘사된 하나 이상의 부위(예를 들어, 눈, 눈썹, 코, 입, 및 얼굴 둘레)의 존재 또는 부재, 하나 이상의 부위의 상대적 위치(예를 들어, 서로에 관한 또는 얼굴의 부분의 윤곽선에 관한 부위들의 위치들), 하나 이상의 부위의 부분들의 측정, 및 2개 이상의 부위들 사이의 거리 측정을 포함할 수 있다. 일부 예에서, 얼굴의 부분의 특성은, 얼굴에 묘사된 하나 이상의 부위의 색상, 얼굴의 부분의 영역과 얼굴의 부분 상에 묘사된 하나 이상의 부위 사이의 상대적인 색상, 장애물의 존재 또는 부재, 모발의 존재 또는 부재, 그림자의 존재 또는 부재, 또는 얼굴의 부분의 기타 임의의 적절한 특성을 포함한다.
동작 350에서, 아바타 컴포넌트(250)는 하나 이상의 이미지에 묘사된 얼굴의 적어도 하나의 부분에 대한 얼굴의 그래픽 모델을 생성한다. 일부 실시예에서, 동작 350은 동작 340에서 결정되는 하나 이상의 특성 및 동작 330에서 식별되는 얼굴 특징물들의 세트에 기초하여(예를 들어, 이에 응답하여) 수행된다. 특성이 얼굴의 부분에 묘사된 하나 이상의 부위에 대한 하나 이상의 측정치를 포함하는 경우, 아바타 컴포넌트(250)는 특성과 하나 이상의 측정치에 따라 베이스 얼굴 및 머리 형상을 렌더링함으로써 얼굴의 그래픽 모델을 생성할 수 있다. 도 4에 도시된 바와 같이, 아바타 컴포넌트(250)는 얼굴(410) 상에 묘사된 하나 이상의 부위를 생성하고, 하나 이상의 생성된 부위를 베이스 얼굴 및 머리 형상에 적용하여 그래픽 모델(420)을 생성할 수 있다. 하나 이상의 부위들 각각은 명시된 부위와 연관된 하나 이상의 측정치와 정합하도록 생성될 수 있다. 도 4에 도시된 바와 같이, 일단 생성되고 나면, 얼굴(410) 및 그래픽 모델(420) 중 하나 이상이 클라이언트 디바이스(110) 상에 프리젠팅되거나 기타의 방식으로 디스플레이될 수 있다.
동작 360에서, 표의문자 컴포넌트(260)는 얼굴의 그래픽 모델에 근접하게 하나 이상의 그래픽 요소를 배치한다. 하나 이상의 그래픽 요소는, 이미지, 필터, 애니메이션(예를 들어, 애니메이트된 그래픽 또는 이미지), 심볼, 단어, 또는 장면일 수 있다. 하나 이상의 그래픽 요소는 한 세트의 그래픽 요소들로부터 선택될 수 있다. 일부 예에서, 하나 이상의 그래픽 요소는 표의문자 컴포넌트(260)에 의해 선택된다. 일부 실시예에서, 표의문자 컴포넌트(260)는 하나 이상의 그래픽 요소를 나타내는 사용자 인터페이스 요소의 선택을 수신한다. 사용자 인터페이스 요소의 선택은, 표의문자 컴포넌트(260)가 그래픽 요소 세트를 포함하는 데이터베이스로부터 하나 이상의 그래픽 요소를 회수하게 할 수 있다.
하나 이상의 그래픽 요소가 표의문자 컴포넌트(260)에 의해 선택되는 경우, 표의문자 컴포넌트(260)는 클라이언트 디바이스(110)에서 수신된 상호작용에 기초하여 하나 이상의 그래픽 요소를 선택할 수 있다. 예를 들어, 액세스 컴포넌트(210)는 사용자 인터페이스 요소의 선택을 수신할 수 있다. 사용자 인터페이스 요소는, 아이콘, 목록 내의 엔트리, 또는 하나 이상의 그래픽 요소의 기타의 표현일 수 있다. 일부 실시예에서, 사용자 인터페이스 요소는 테마 또는 미리정의된 그룹의 그래픽 요소들을 나타낸다. 예를 들어, 사용자 인터페이스 요소는 "Happy Birthday" 표의문자를 나타낼 수 있다. "Happy Birthday"라는 표의문자는, 제1 그래픽 요소인 풍선과 제2 그래픽 요소인 "Happy Birthday"라는 철자로 된 문구를 포함할 수 있다. "Happy Birthday" 표의문자에 대한 사용자 인터페이스 요소의 선택을 수신하면, 표의문자 컴포넌트(260)는 데이터베이스에 저장된 그래픽 요소 세트로부터 제1 그래픽 요소 및 제2 그래픽 요소를 선택할 수 있다. 그 다음, 표의문자 컴포넌트(260)는 제1 그래픽 요소 및 제2 그래픽 요소를 그래픽 모델에 근접하게 배치할 수 있다.
표의문자 컴포넌트(260)가 하나 이상의 그래픽 요소의 사용자 인터페이스 요소의 선택을 수신하는 경우, 표의문자 컴포넌트(260)는 초기에 한 세트의 그래픽 요소들의 프리젠테이션을 야기할 수 있다. 표의문자 컴포넌트(260)는 그래픽 요소 세트에 포함된 하나 이상의 그래픽 요소의 선택을 수신할 수 있다. 예를 들어, 클라이언트 디바이스(110)의 사용자에게는, 클라이언트 디바이스(110)의 디스플레이 디바이스에서 그리드 또는 기타의 정렬된 프리젠테이션으로 그래픽 요소 세트가 프리젠팅될 수 있다. 사용자는, 하나 이상의 그래픽 요소를 탭하거나 터치하거나 클릭하거나 기타의 방식으로 선택하여, 클라이언트 디바이스(110)가 선택의 표시를 표의문자 컴포넌트(260)에 전달하게 할 수 있다. 일부 실시예에서, 표의문자 컴포넌트(260)는, 하나 이상의 그래픽 요소의 위치 데이터에 기초하여 그래픽 모델에 근접하게 하나 이상의 그래픽 요소를 배치할 수 있다.
일부 예에서, 표의문자 컴포넌트(260)는 그래픽 모델에 관한 하나 이상의 그래픽 요소의 배치를 나타내는 위치 선택을 수신할 수 있다. 예를 들어, 사용자는, 마우스, 키보드 명령 또는 터치 스크린을 이용하여 하나 이상의 그래픽 요소를 그래픽 모델에 근접한 위치로 드래그할 수 있다. 사용자에 의해 선택된 위치는 미리결정된 선택사항적 위치이거나 사용자에 의해 자유롭게 선택될 수 있다. 예로서, 하나 이상의 그래픽 요소의 선택시에, 표의문자 컴포넌트(260)는, 하나 이상의 그래픽 요소 각각에 대해, 미리결정된 선택사항적 위치들 중에서, 이용가능한 위치에 대한 지침을 생성할 수 있다. 이 지침은, 텍스트 지침, 그래픽 모델에 근접한 그래픽 요소의 하나 이상의 윤곽선, 또는 그래픽 요소가 배치될 수 있는 위치에 대한 기타 임의의 적절한 지침 또는 표시일 수 있다. 사용자는, 이 지침에 기초하여, 디스플레이 디바이스 및 사용자 입력 컴포넌트(예를 들어, 키보드, 마우스 또는 터치 스크린)를 이용해 하나 이상의 그래픽 요소를 배치할 수 있다. 하나 이상의 그래픽 요소의 배치는, 클라이언트 디바이스(110)가 위치 또는 위치를 나타내는 데이터를 표의문자 컴포넌트(260)에 전달하게 하고, 표의문자 컴포넌트(260)는 선택된 위치를 적용하거나 일시적으로 저장할 수 있다.
동작 370에서, 표의문자 컴포넌트(260)는 그래픽 모델 및 하나 이상의 그래픽 요소로부터 표의문자를 생성한다. 도 5에 도시된 바와 같이, 그래픽 모델(420) 및 하나 이상의 그래픽 요소(510 및 520)를 포함하는 표의문자(500)가 생성될 수 있다. 표의문자(500)는, 디지털 스티커, 이모지, 이미지, 또는 기타 임의의 적절한 표의문자로서 생성될 수 있다. 표의문자 컴포넌트(260)는, 그래픽 모델(420) 및 하나 이상의 그래픽 요소(510, 520)를 단일 계층형 또는 비계층형 표의문자(500)로 결합함으로써 표의문자(500)를 생성할 수 있다. 표의문자(500)는, 그래픽 모델(420)을 하나 이상의 그래픽 요소(510, 520)를 포함하는 템플릿 그래픽 내에 삽입함으로써 생성될 수 있다. 이들 경우에, 그래픽 모델(420)은 하나 이상의 그래픽 요소(510, 520)에 관해 미리결정된 위치에 삽입될 수 있다. 일부 예에서, 표의문자(500)는, 하나 이상의 그래픽 요소(510, 520) 및 그래픽 모델(500) 중 하나 이상이 또 다른 그래픽 요소(510, 520) 또는 그래픽 모델(420)에 관해 움직이도록 애니메이트될 수 있다. 예를 들어, 표의문자(500)는, 제1 그래픽 요소(예를 들어, 510) 및 그래픽 모델(420)이 제2 그래픽 요소(예를 들어, 520)에 관해 애니메이트되도록(예를 들어, 하나 이상의 미리결정된 위치들 사이에서 움직이도록) 생성될 수 있다. 일부 실시예에서, 애니메이트된 표의문자는 개개의 그래픽 모델 자세들 또는 위치들의 스트림에서 한 세트의 그래픽 모델들을 이용하여 생성될 수 있다.
일부 예에서, 표의문자 컴포넌트(260)는, 표의문자 생성 시스템(160) 외부의 임의의 특정한 프로그램, 애플리케이션, 또는 명령어 세트의 구성 정보 또는 치수와 무관하게 표의문자(예를 들어, 표의문자 표기(500))를 생성한다. 예를 들어, 표의문자 컴포넌트(260)는, 표의문자를 이용하거나 수신할 수 있는 또 다른 애플리케이션에 상관없이 표의문자 생성 시스템(160)에 적합한 치수(예를 들어, 높이 및 폭 치수, 픽셀 치수, 또는 총 픽셀 수)를 갖는 표의문자를 생성할 수 있다. 일부 경우에, 표의문자는 한 세트의 애플리케이션들(예를 들어, 웹 브라우저, 메시징 애플리케이션, 소셜 네트워킹 애플리케이션, 또는 단기 메시징 애플리케이션)에 걸쳐 이용하기에 적합한 범용 구성 정보를 이용하여 생성될 수 있다. 이하에서 더 상세히 설명되는 바와 같이, 표의문자 컴포넌트(260)는 명시된 목적지 애플리케이션의 구성 정보에 기초하여 표의문자를 생성할 수 있다. 예를 들어, 표의문자는, 사용자에 의해 선택되거나 표의문자 생성 시스템(160)의 시작시에 미리결정된 명시된 메시징 또는 소셜 네트워킹 애플리케이션과 호환되는 치수 및 포멧으로 생성될 수 있다.
일부 예시적인 실시예에서, 동작 370의 일부로서, 표의문자 컴포넌트(260)는 하나 이상의 그래픽 요소(예를 들어, 그래픽 요소(510, 520))의 하나 이상의 크기를 결정한다. 그 다음, 표의문자 컴포넌트(260)는 하나 이상의 그래픽 요소의 하나 이상의 크기에 기초하여 그래픽 모델(예를 들어, 그래픽 모델(420))을 스케일링하여 스케일링된 그래픽 모델을 생성한다. 일부 실시예에서, 표의문자 컴포넌트(260)는 표의문자의 최대 크기를 식별하고 그래픽 요소들 중 하나 이상과 그래픽 모델을 최대 크기 내에 맞도록 스케일링하되, 하나 이상의 그래픽 요소 및 그래픽 모델이 스케일링 전후에 동일하거나 유사한 상대적 비율을 유지하게 한다. 표의문자 컴포넌트(260)는, 스케일링되는 그래픽 모델 또는 하나 이상의 그래픽 요소를 서브샘플링 또는 다운샘플링함으로써 그래픽 모델 및 하나 이상의 그래픽 요소를 스케일링할 수 있다. 다운샘플링을 이용하는 것으로 설명되었지만, 표의문자 컴포넌트(260)는, 그래픽 모델 및 하나 이상의 그래픽 요소 중 하나 이상의 크기를 감소시키기에 적합한 임의의 적절한 디지털 이미지 스케일링 프로세스, 기술, 알고리즘, 또는 연산을 이용할 수 있다는 것을 이해해야 한다.
일부 실시예에서, 표의문자 컴포넌트(260)는, 한 세트의 표의문자 생성 동작들을 수행함으로써 표의문자를 생성하여 그래픽 모델 및 하나 이상의 그래픽 요소로부터 표의문자를 렌더링한다. 표의문자 컴포넌트(260)는 먼저 알파 마스크(alpha mask)를 생성할 수 있다. 알파 마스크를 생성하는데 있어서, 표의문자 컴포넌트(260)는 그래픽 모델에 대한 메시를 제2 컬러를 갖는 배경 상에서 제1 컬러로 렌더링한다. 제1 컬러 및 제2 컬러는 제1 컬러와 제2 컬러 사이의 콘트라스트 값에 기초하여 선택될 수 있다. 예를 들어, 제1 컬러는 백색일 수 있고 제2 컬러는 흑색일 수 있다. 알파 마스크는 그래픽 모델의 윤곽선 내에 한정된 그래픽 모델을 표현하되, 알파 마스크의 생성이 제1 컬러로 채색되고 제2 컬러의 배경 상에 위치한 그래픽 모델의 실루엣이 되도록 할 수 있다.
알파 마스크를 생성하는 것에 응답하여, 표의문자 컴포넌트(260)는 그래픽 모델 텍스처를 생성한다. 그래픽 모델 텍스처를 생성하는데 있어서, 표의문자 컴포넌트(260)는 하나 이상의 쉐이딩 연산을 이용하여 그래픽 모델 메시를 렌더링한다. 쉐이딩 연산은, 피부 쉐이딩, 눈 쉐이딩, 머리카락 쉐이딩, 및 기타 쉐이딩 연산을 포함할 수 있다. 일부 실시예에서, 하나 이상의 쉐이딩 연산은 OPENGL(Open Graphics Library) 쉐이딩 연산이거나 OPENGL 샘플 커버리지 피처의 이용과 호환가능하다.
그래픽 모델 텍스처를 생성한 후에, 표의문자 컴포넌트(260)는, 생성된 그래픽 모델 텍스처, 알파 마스크, 및 하나 이상의 그래픽 요소를 포함하는 표의문자를 그래픽 모델로부터 생성한다. 일부 실시예에서, 표의문자 컴포넌트(260)는 표의문자를 스티커 쉐이더 함수(sticker shader function)로 렌더링한다. 스티커 쉐이더 함수는 계층들에 대한 텍스처 입력을 수신할 수 있다. 일부 경우에, 스티커 쉐이더는, 그래픽 모델 텍스처, 알파 마스크, 및 하나 이상의 그래픽 요소를 포함한 텍스처 입력을 수신한다.
일부 실시예에서, 스티커 쉐이더는, 그래픽 모델 텍스처, 알파 마스크, 및 표의문자 계층들에 대한 하나 이상의 요소를 포함하는 텍스처 입력을 수신한다. 표의문자 계층들의 요소들은, 스티커 마스크 계층, 스티커 배경 계층, 및 스티커 전경 계층을 포함할 수 있다. 스티커 마스크 계층, 스티커 배경 계층, 및 스티커 전경 계층은, 생성된 표의문자에 포함되거나 포함되지 않을 수 있는 가변 계층일 수 있다. 가변 스티커 계층은, 그래픽 요소가, 포함될 스티커 계층에 대응하는, 생성된 표의문자에 포함될 수 있다.
일부 실시예에서, 표의문자 컴포넌트(260)는, 스티커 쉐이더 기능을 수행하는데 있어서, 그래픽 모델 텍스처로부터, 적색, 녹색 및 청색(RGB) 성분(예를 들어, 픽셀 값)을 결정한다. 표의문자 컴포넌트(260)는 또한, 알파 마스크의 적색 채널로부터 알파 값(예를 들어, 픽셀 값)을 결정할 수 있다. 표의문자 컴포넌트(260)가 스티커 마스크 계층이 표의문자에 포함될 것이라고 결정하는 경우, 표의문자 컴포넌트(260)는 스티커 마스크 계층에 의해 알파 마스크를 수정한다. 표의문자 컴포넌트(260)가 표의문자 배경 계층이 표의문자에 포함될 것이라고 결정하는 경우, 표의문자 컴포넌트(260)는 스티커 배경의 그래픽 요소의 알파 값들을 알파 마스크 계층 또는 그래픽 모델 텍스처의 알파 값과 혼합한다. 표의문자 컴포넌트(260)가 스티커 전경 계층이 표의문자에 포함될 것이라고 결정하는 경우, 표의문자 컴포넌트(260)는 스티커 전경의 그래픽 요소의 알파 값들을 알파 마스크 계층 또는 그래픽 모델 텍스처의 알파 값들과 혼합한다.
도 6은 이미지 스트림의 한 세트의 이미지들로부터 표의문자를 생성하기 위한 예시적인 방법(600)을 나타내는 흐름도를 도시한다. 방법(600)의 동작들은 표의문자 생성 시스템(160)의 컴포넌트들에 의해 수행될 수 있다. 일부 예에서, 방법(600)의 소정의 동작들은, 이하에서 더 상세히 설명되는 바와 같이, 방법(300)의 하나 이상의 동작을 이용하여 또는 방법(300)의 하나 이상의 동작의 서브동작으로서 수행될 수 있다.
일부 예시적인 실시예에서, 동작 370을 개시하는 것에 응답하여, 동작 610에서, 표의문자 컴포넌트(260)는 표의문자에 대한 타겟 애플리케이션을 결정한다. 표의문자 컴포넌트(260)는, 클라이언트 디바이스(110)와의 사용자 상호작용, 클라이언트 디바이스(110)의 적어도 하나의 프로세서에 저장되거나 현재 처리되고 있는 애플리케이션들 사이의 상호작용, 또는 기타 임의의 적절한 방식에 기초하여 타겟 애플리케이션을 결정할 수 있다. 일부 예에서, 표의문자 컴포넌트(260)는, 표의문자 생성 시스템(160) 또는 방법(300)을 개시하는 핸드오프에 기초하여 타겟 애플리케이션을 결정한다. 예를 들어, 사용자는 클라이언트 디바이스(110)에 프리젠팅된 제1 애플리케이션과 상호작용할 수 있다. 제1 애플리케이션과의 상호작용 동안, 사용자는, 새로운, 고유한, 또는 맞춤화된 표의문자를 생성하기 위해 사용자 인터페이스 요소를 선택할 수 있다. 제1 애플리케이션은, 표의문자 생성 시스템(160) 또는 표의문자 생성 시스템(160)의 하나 이상의 컴포넌트에 대한 핸드오프를 개시할 수 있다. 타겟 애플리케이션은, 표의문자의 생성을 위해 표의문자 생성 시스템(160)에 대한 핸드오프를 개시하는 애플리케이션으로서 결정될 수 있다.
일부 예시적인 실시예에서, 표의문자 컴포넌트(260)는 표의문자 라이브러리에 액세스하는 애플리케이션에 기초하여 표의문자에 대한 타겟 애플리케이션을 결정한다. 표의문자 라이브러리는, 표의문자의 생성시에 그래픽 모델에 추가하기 위한, 하나 이상의 이전에 생성된 표의문자, 이전에 생성된 그래픽 모델, 및 하나 이상의 그래픽 요소를 포함할 수 있다. 표의문자 라이브러리는 표의문자 컴포넌트(260)에 링크되어, 표의문자 라이브러리에 액세스하는 것이 동작 610)의 개시를 야기하게 할 수 있다. 예를 들어, 표의문자 라이브러리는, 애플리케이션에 의해 표의문자 컴포넌트(260)를 통해 액세스될 수 있다. 명시된 예들과 함께 설명되었지만, 표의문자 컴포넌트(260)는, 표의문자가 생성되거나 표의문자가 이용될 타겟 애플리케이션을 식별하기 위해 임의의 적절한 알고리즘, 방법 또는 동작 세트를 이용할 수 있다는 것을 이해해야 한다.
동작 620에서, 표의문자 컴포넌트(260)는 타겟 애플리케이션과 연관된 애플리케이션 표의문자들에 대한 하나 이상의 치수를 결정한다. 애플리케이션 표의문자의 하나 이상의 치수는, 길이 및 폭 치수, 대각선 측정 치수, 픽셀 측정치(예를 들어, 길이, 폭 또는 대각선 측정치), 픽셀 카운트, 또는 기타 임의의 적절한 치수일 수 있다. 애플리케이션 표의문자들에 대한 하나 이상의 치수는, 타겟 애플리케이션 내에 프리젠팅된 애플리케이션 표의문자의 최소 크기 및 최대 크기 중 하나 이상을 나타낼 수 있다.
일부 예시적인 실시예에서, 표의문자가 타겟 애플리케이션에서 이용하기 위해 생성되고 있는 경우, 애플리케이션 표의문자들에 대한 하나 이상의 치수는 위치 유형 치수를 포함한다. 위치 유형 치수는, 표의문자 내의 미리결정된 위치 유형에 이용된 그래픽 요소에 대한 최소 크기 및 최대 크기 중 하나 이상을 나타낼 수 있다. 위치 유형은, 배경 위치, 전경 위치, 배경 위치와 전경 위치 사이의 중간 위치일 수 있다. 일부 경우에, 하나 이상의 치수는 애플리케이션 표의문자 내의 위치를 포함할 수 있다. 예를 들어, 일부 전경 그래픽 요소는 애플리케이션 표의문자의 전경 내의 하나 이상의 명시된 위치로 제한될 수 있고, 배경 그래픽 요소는 애플리케이션 표의문자의 배경 내의 하나 이상의 명시된 위치로 제한될 수 있다.
동작 622에서, 표의문자 컴포넌트(260)는 제1 그래픽 요소의 위치 유형이 배경 유형이라고 결정한다. 일부 실시예에서, 하나 이상의 치수(예를 들어, 위치 유형 치수)를 결정하는 것에 기초하여, 표의문자 컴포넌트(260)는 생성된 표의문자에 포함될 그래픽 요소의 위치 유형을 결정한다. 표의문자 컴포넌트(260)는, 그래픽 요소(예를 들어, 제1 그래픽 요소)와 연관된 메타데이터 내의 위치 표시를 식별하는 것에 기초하여 그래픽 요소의 위치 유형을 결정할 수 있다. 메타데이터는, 그래픽 요소가, 배경, 전경, 또는 중간 위치에 배치되도록 구성되었는지를 나타낼 수 있다. 일부 실시예에서, 표의문자 컴포넌트(260)는, 그래픽 요소의 크기, 형상, 치수, 또는 내용을 명시된 위치 유형의 크기, 형상, 치수, 또는 내용 특성과 정합시킴으로써, 그래픽 요소에 대한 위치 유형을 결정할 수 있다. 예를 들어, 배경 유형은, 제1 미리정의된 크기, 형상, 및 치수 특성을 가질 수 있는 반면(예를 들어, 애플리케이션 표의문자의 최대 크기와 치수를 갖는 정방형), 전경 유형은, 제2 미리정의된 크기, 형상, 및 치수 특성을 가질 수 있다. 제1 미리정의된 크기, 형상, 및 치수 특성과 정합하는 특성을 갖는 그래픽 요소는 배경 유형인 것으로 결정될 수 있다.
일부 예에서, 표의문자 컴포넌트(260)가 그래픽 요소의 내용에 기초하여 위치 유형을 식별하는 경우, 표의문자 컴포넌트(260)는, 그래픽 요소에 대한 메타데이터, 그래픽 요소에 적용되는 이미지 인식 동작, 또는 그래픽 요소의 제목에 기초하여 내용을 식별할 수 있다. 표의문자 컴포넌트(260)는, 그래픽 요소의 식별된 내용을, 배경 유형, 전경 유형 또는 중간 위치 유형과 연관된 한 세트의 내용 유형들과 정합시킬 수 있다. 예를 들어, 그래픽 요소가 야자수 및 일몰이 있는 풍경을 묘사하는 경우, 표의문자 컴포넌트(260)는 그래픽 요소에 대한 내용을 풍경으로서 식별할 수 있다. 그 다음, 표의문자 컴포넌트(260)는, 배경 유형, 전경 유형, 및 중간 위치 유형과 연관된 메타데이터 또는 설명 데이터를 파싱하여 어떤 유형이 풍경과 연관되어 있는지를 결정할 수 있다. 이 예에서, 표의문자 컴포넌트(260)는, 키워드 "풍경"이 배경 유형과 연관되어 있다고 결정함으로써 풍경 그래픽 요소를 배경 유형으로서 식별할 수 있다.
동작 624에서, 표의문자 컴포넌트(260)는 제2 그래픽 요소의 위치 유형이 전경 유형이라고 결정한다. 표의문자 컴포넌트(260)는, 제2 그래픽 요소의 위치 유형을, 동작 622와 관련하여 설명된 것과 유사하거나 동일한 방식으로 결정할 수 있다. 제1 그래픽 요소 및 별개의 위치 유형을 갖는 제2 그래픽 요소에 대한 위치 유형을 결정하는 것으로 설명하지만, 표의문자 컴포넌트(260)는 임의의 수의 그래픽 요소들에 대한 위치 유형을 결정할 수 있고, 단일의 위치 유형으로 배치될 하나보다 많은 그래픽 요소를 결정할 수 있다는 것을 이해해야 한다.
동작 630에서, 표의문자 컴포넌트(260)는 하나 이상의 치수에 기초하여 수정된 표의문자를 생성한다. 표의문자가 미리 생성된 실시예에서, 표의문자 컴포넌트(260)는 동작 620에서 식별된 하나 이상의 치수에 기초하여 기존의 표의문자를 수정한다. 표의문자 컴포넌트(260)는, 동작 620에서 식별된 하나 이상의 치수(예를 들어, 최대 치수) 내에 있도록 표의문자의 치수를 감소시킴으로써 기존의 표의문자를 수정할 수 있다. 기존의 표의문자를 수정함에 있어서, 표의문자 컴포넌트(260)는 기존 표의문자의 종횡비 또는 비율을 유지하여 기존의 표의문자가 수정 동안에 비뚤어지는 것을 방지할 수 있다. 표의문자가 생성되는 실시예에서, 표의문자 컴포넌트(260)는, 동작 620에서 식별된 치수에 기초하여 표의문자에 포함된 그래픽 요소들 중 하나 이상과 그래픽 모델을 수정할 수 있다. 이들 경우에, 표의문자 컴포넌트(260)는 또한, 동작 620에서 식별된 치수에 적어도 부분적으로 기초하여 그래픽 모델 및 하나 이상의 그래픽 요소를 배치한다.
동작 632에서, 표의문자를 생성하는데 있어서, 표의문자 컴포넌트(260)는, 배경 유형으로서 식별된, 제1 그래픽 요소를 그래픽 모델의 적어도 부분 뒤에 배치한다. 일부 예에서, 표의문자 컴포넌트(260)는, 그래픽 모델의 부분이 그래픽 요소의 적어도 부분을 가로막도록 제1 그래픽 요소를 배치한다. 표의문자 컴포넌트(260)는 또한, 동작 620에서 식별된 하나 이상의 치수에 기초하여 제1 그래픽 요소의 크기(예를 들어, 하나 이상의 치수 또는 측정치)를 수정할 수 있다. 표의문자 컴포넌트(260)는, 계층화된 이미지 파일을 생성하고 제1 그래픽 요소를 제1 계층 또는 베이스 계층에 할당하거나 기타의 방식으로 배치함으로써 그래픽 모델의 부분 뒤에 제1 그래픽 요소를 배치할 수 있다. 그 다음, 표의문자 컴포넌트(260)는, 그래픽 요소의 일부가 제1 그래픽 요소의 일부를 가리도록 제1 계층 위의 제2 계층에 그래픽 모델을 배치할 수 있다.
동작 634에서, 표의문자 컴포넌트(260)는 그래픽 요소가 그래픽 모델 및 제1 그래픽 요소 중 하나 이상의 부분을 가리도록 제2 그래픽 요소 뒤에 그래픽 모델을 배치한다. 표의문자 컴포넌트(260)는 또한, 동작 620에서 식별된 하나 이상의 치수에 기초하여 제2 그래픽 요소의 크기(예를 들어, 하나 이상의 치수 또는 측정치)를 수정할 수 있다. 표의문자 컴포넌트(260)는, 제2 그래픽 요소를 계층화된 이미지 파일에 적용하거나, 그래픽 모델을 포함하는 제2 계층 위의 제3 계층에 제2 그래픽 요소를 할당하거나 기타의 방식으로 배치함으로써 그래픽 모델의 부분 앞에 제2 그래픽 요소를 배치할 수 있다. 일부 실시예에서, 표의문자 컴포넌트(260)는 계층화된 이미지 파일을 평탄화하거나 기타의 방식으로 표의문자 내에 렌더링할 수 있다.
도 7은 이미지 스트림의 한 세트의 이미지들로부터 표의문자를 생성하기 위한 예시적인 방법(700)을 나타내는 흐름도를 도시한다. 방법(700)의 동작들은 표의문자 생성 시스템(160)의 컴포넌트들에 의해 수행될 수 있다. 일부 예에서, 방법(700)의 소정의 동작들은, 이하에서 더 상세히 설명되는 바와 같이, 방법(300)의 하나 이상의 동작을 이용하여 또는 방법(300)의 하나 이상의 동작의 서브동작으로서 수행될 수 있다.
일부 예시적인 실시예에서, 동작 360의 일부로서, 동작 710에서, 표의문자 컴포넌트(260)는 하나 이상의 그래픽 요소 중의 한 그래픽 요소의 위치 유형을 결정한다. 위치 유형은 동작들(622 및 624)에서 설명된 방식과 유사하게 또는 동일하게 결정될 수 있다. 위치 유형은, 전경 위치, 배경 위치, 또는 전경과 배경 사이의 중간 위치일 수 있다. 일부 실시예에서, 동작 710은, 추가 그래픽 요소를 포함하도록 기존의 표의문자를 수정하는데 있어서 수행될 수 있다.
동작 720에서, 표의문자 컴포넌트(260)는 그래픽 요소의 위치 유형에 기초하여 그래픽 요소를 배치한다. 표의문자 컴포넌트(260)는 동작들(632 및 634)에서 전술된 방식과 유사하거나 동일한 방식으로 그래픽 요소를 배치할 수 있다. 동작들(710 및 720)이 기존의 표의문자에 대하여 수행되는 실시예에서, 표의문자 컴포넌트(260)는 그래픽 요소를 이미지 계층에 배치할 수 있다. 표의문자 컴포넌트(260)는 계층화된 이미지 파일로부터 생성된 표의문자의 기존의 이미지 계층에 그래픽 요소를 배치하거나 새로운 이미지 계층을 생성할 수 있다. 일부 예에서, 표의문자 컴포넌트(260)는 기존의 표의문자를 포함하는 제1 이미지 계층을 갖는 새로운 계층화된 이미지 파일을 생성할 수 있다. 표의문자 컴포넌트(260)는 그래픽 요소를 제1 이미지 계층 위 또는 아래의 제2 이미지 계층에 배치하고, 기존의 표의문자 및 그래픽 요소의 조합으로부터 새로운 표의문자를 생성한다. 새로운 표의문자는 평탄화되거나, 기존의 표의문자를 생성하는데 이용된 계층화된 이미지 또는 새로운 계층화된 이미지로부터의 새로운 표의문자 내로 렌더링될 수 있다.
도 8은 이미지 스트림의 한 세트의 이미지들로부터 표의문자를 생성하기 위한 예시적인 방법(800)을 나타내는 흐름도를 도시한다. 방법(800)의 동작들은 표의문자 생성 시스템(160)의 컴포넌트들에 의해 수행될 수 있다. 일부 경우에, 방법(800)의 소정의 동작들은, 이하에서 더 상세히 설명되는 바와 같이, 방법(300)의 하나 이상의 동작을 이용하여 또는 방법(300)의 하나 이상의 동작의 서브동작으로서 수행될 수 있다.
일부 예시적인 실시예에서, 동작 810에서, 표의문자 컴포넌트(260)는 그래픽 모델을 렌더링한다. 그래픽 모델은 3차원 그래픽 모델일 수 있고 하나 이상의 그래픽 요소는 2차원 그래픽 요소일 수 있다. 그래픽 모델이 3차원 그래픽 모델인 경우, 동작 810에서, 표의문자 컴포넌트(260)는, 하나 이상의 그래픽 요소의 배치에 응답하여 3차원 그래픽 모델을 2차원 그래픽 모델로서 렌더링한다. 표의문자 컴포넌트(260)는, 평탄화 프로세스, 3차원 그래픽 모델의 묘사된 뷰로부터의 이미지 파일의 생성, 또는 기타 임의의 적절한 방법을 이용하여, 3차원 그래픽 모델을 렌더링할 수 있다.
동작 820에서, 표의문자 컴포넌트(260)는 표의문자를 2차원 그래픽 모델과 하나 이상의 그래픽 요소를 결합한 2차원 표의문자로서 렌더링한다. 표의문자 컴포넌트(260)는, 계층화된 이미지를 생성하고 하나 이상의 그래픽 요소 및 2차원 그래픽 모델 각각을 계층화된 이미지 내의 계층들에 배치함으로써, 표의문자를 2차원 표의문자로서 렌더링할 수 있다. 예를 들어, 표의문자 컴포넌트(260)는 하나 이상의 그래픽 요소 및 2차원 그래픽 모델 각각을 계층화된 이미지 내의 별개의 계층들에 할당하거나 기타의 방식으로 배치할 수 있다.
도 9는 이미지 스트림의 한 세트의 이미지들로부터 표의문자를 생성하기 위한 예시적인 방법(900)을 나타내는 흐름도를 도시한다. 방법(900)의 동작들은 표의문자 생성 시스템(160)의 컴포넌트들에 의해 수행될 수 있다. 일부 경우에, 방법(900)의 소정의 동작들은, 이하에서 더 상세히 설명되는 바와 같이, 방법(300)의 하나 이상의 동작을 이용하여 또는 방법(300)의 하나 이상의 동작의 서브동작으로서 수행될 수 있다.
일부 예시적인 실시예에서, 동작 370의 일부로서, 동작 910에서, 표의문자 컴포넌트(260)는 제1 그래픽 요소에 대한 제1 크기 및 제2 그래픽 요소에 대한 제2 크기를 결정한다. 제1 크기 및 제2 크기는, 각각, 제1 그래픽 요소 및 제2 그래픽 요소의 하나 이상의 측정치(예를 들어, 길이 또는 높이)에 대응할 수 있다. 일부 예에서, 동작 910에서 결정된 크기는, 길이, 높이, 대각선, 원주, 또는 기타의 적절한 측정치 중 하나 이상 중 가장 큰 측정치이다.
동작 920에서, 표의문자 컴포넌트(260)는 제1 그래픽 요소 및 제2 그래픽 요소 중에서 우선화된 요소를 결정한다. 일부 예에서, 표의문자 컴포넌트(260)는 제2 그래픽 요소가 우선화된 요소인 것으로 결정한다. 우선화된 요소는, 제1 그래픽 요소 및 제2 그래픽 요소 각각과 연관된 우선순위 값들에 기초하여 선택될 수 있다. 예를 들어, 각각의 그래픽 요소는, 그래픽 요소가 이용될 수 있는 표의문자들 내의 그래픽 요소의 상대적 중요도를 나타내는 우선순위 값을 포함할 수 있다. 우선순위 값은 그래픽 요소의 위치 유형을 나타낼 수 있다. 예를 들어, 배경 유형 그래픽 요소는 전경 유형 그래픽 요소보다 비교적 더 높은 우선순위를 가질 수 있다. 우선순위 값이 그래픽 요소에 대한 위치 유형에 결속되는 경우, 배경 유형은 표의문자가 생성되는 기반, 기초, 또는 테마로서 더 높은 우선순위 값으로 프리젠팅될 수 있다. 일부 실시예에서, 표의문자 컴포넌트(260)는 각각 제1 그래픽 요소 및 제2 그래픽 요소에 대해 결정된 제1 크기 및 제2 크기에 기초하여 우선화된 요소를 결정한다. 표의문자 컴포넌트(260)는, 우선화된 요소를, 최대 크기를 초과하지 않고 표의문자 또는 위치 유형 중 하나 이상의 최대 크기에 가장 가까운 그래픽 요소로서 결정할 수 있다. 표의문자 컴포넌트(260)는, 이들 실시예에서, 제1 그래픽 요소, 제2 그래픽 요소, 및 대응하는 타겟 표의문자 크기(예를 들어, 위치 유형 크기 또는 최대 표의문자 크기) 각각의 크기를 결정하고, 제1 그래픽 요소와 제2 그래픽 요소 중 어느 것이 가장 큰지 및 그래픽 요소들 중 하나가 타겟 표의문자의 크기를 초과하는지를 결정한다.
동작 930에서, 표의문자 컴포넌트(260)는, 제1 그래픽 요소 및 제2 그래픽 요소에 대한 하나 이상의 수정된 크기를 생성하기 위해 제1 그래픽 요소와 제2 그래픽 요소 중 하나 이상을 스케일링한다. 제2 그래픽 요소가 우선화된 요소인 경우, 표의문자 컴포넌트(260)는 제2 그래픽 요소의 제2 크기에 기초하여 제1 그래픽 요소의 제1 크기를 스케일링하여 제1 그래픽 요소의 수정된 크기를 생성할 수 있다. 스케일링되는 그래픽 요소는, 스케일링된 그래픽 요소의 비뚤어짐을 방지하도록 그 원래의 비율을 유지하면서 다른 그래픽 요소에 관해 상대적으로 크기조정될 수 있다.
동작 940에서, 표의문자 컴포넌트(260)는 제2 그래픽 요소의 제2 크기 및 제1 그래픽 요소의 수정된 크기에 기초하여 그래픽 모델(예를 들어, 복합 모델)을 스케일링한다. 일부 실시예에서, 표의문자 컴포넌트(260)는 생성되는 표의문자 내에 맞도록(예를 들어, 생성된 표의문자의 최대 크기 내에 맞도록) 그래픽 모델을 스케일링한다. 그래픽 모델은, 제1 그래픽 요소 및 제2 그래픽 요소의 스케일 내에 맞도록 뿐만 아니라 그래픽 모델의 원래 비율을 유지하도록 스케일링될 수 있다. 예를 들어, 그래픽 모델이 크기조정되어, 전경에서 문자로된 "Hawaii" 배너로서의 제1 그래픽 요소 및 배경에서 열대 섬으로서의 제2 그래픽 요소를 갖는 표의문자에 배치되는 경우, 그래픽 모델은 크기조정되고 그래픽 모델의 앞쪽에 "Hawaii" 배너가 있는 열대 섬의 해변에 서 있는 것처럼 보이기에 적합한 스케일과 위치로 배치될 수 있다.
도 10은 이미지 스트림의 한 세트의 이미지들로부터 표의문자를 생성하기 위한 예시적인 방법(1000)을 나타내는 흐름도를 도시한다. 방법(1000)의 동작들은 표의문자 생성 시스템(160)의 컴포넌트들에 의해 수행될 수 있다. 일부 경우에, 방법(1000)의 소정의 동작들은, 이하에서 더 상세히 설명되는 바와 같이, 방법(300)의 하나 이상의 동작을 이용하여 또는 방법(300)의 하나 이상의 동작의 서브동작으로서 수행될 수 있다.
일부 예시적인 실시예에서, 동작 350의 일부로서, 동작 1010에서, 아바타 컴포넌트(250)는 신체 모델의 적어도 부분을 생성한다. 신체 모델의 부분은 얼굴의 그래픽 모델에 연결되어 복합 모델을 생성하거나 형성할 수 있다. 복합 모델은 신체의 그래픽 표현의 전부 또는 일부를 나타낸다. 신체 모델은 복합 모델의 적어도 부분을 배치하도록 움직일 수 있는 뼈대 모델을 이용하여 생성될 수 있다. 뼈대 모델의 움직임은 복합 모델을 신체의 자세에 대응하는 자세로 구성할 수 있다. 예를 들어, 뼈대 모델의 하나 이상의 부분의 움직임은, 복합 모델이, 착석 위치, 점핑 위치, 웨이빙, 또는 기타 임의의 적절한 신체 자세의 신체로서 나타나게 할 수 있다.
동작 1020에서, 아바타 컴포넌트(250)는 하나 이상의 그래픽 요소에 대응하는 자세를 결정한다. 일부 예시적인 실시예에서, 아바타 컴포넌트(250)는 하나 이상의 그래픽 요소와 연관된 자세 데이터에 기초하여 하나 이상의 그래픽 요소에 대한 자세를 결정한다. 자세 데이터는 하나 이상의 그래픽 요소에 대한 메타데이터에 포함될 수 있고, 그래픽 요소를 포함하는 표의문자가 생성될 때 복합 모델이 배치되는 자세 및 위치를 나타낼 수 있다. 예를 들어, 그래픽 요소가 안락 의자 또는 해먹(hammock)을 포함하는 해변 풍경인 경우, 메타데이터는 그래픽 요소 내의 안락 의자 또는 해먹의 위치를 식별하는 위치 정보, 및 착석된 자세 또는 기댄 자세가 안락 의자 또는 해먹에 대해 적절한지를 나타내는 정보를 포함할 수 있다. 자세 데이터는 뼈대 모델의 하나 이상의 요소(예를 들어, 팔, 다리, 손, 발 또는 신체)의 배향을 포함할 수 있다. 배향은, 교차한 팔, 교차한 다리, 손 제스처, 팔 제스처, 또는 신체 제스처 등의, 요소들 사이의 상호작용을 나타내기 위해 뼈대 모델의 2개 이상의 요소의 상대적 위치를 포함할 수 있다.
일부 예시적인 실시예에서, 아바타 컴포넌트(250)는 표의문자 내의 복합 모델에 대한 자세 데이터(예를 들어, 자세 및 위치)를 식별하기 위해 사용자 입력을 촉구하는 것에 기초하여 자세를 결정한다. 아바타 컴포넌트(250)는 한 세트의 자세들 및 한 세트의 위치들을 나타내는 하나 이상의 사용자 인터페이스 요소를 생성하고 그 프리젠테이션을 야기할 수 있다. 이들 실시예에서, 아바타 컴포넌트(250)는, 자세 세트 중의 하나 이상의 자세의 표시를 포함하는 선택가능한 그래픽 사용자 인터페이스 요소를 생성한다. 자세의 표시는, "앉아있는", "서있는", "웨이빙", "점핑" 또는 기타의 적절한 텍스트 설명 등의, 서술적 설명 형태일 수 있다. 자세의 표시는, 앉아있는 형상, 서있는 형상, 웨이빙 형상, 기대고 있는 형상, 점핑 형상, 또는 기타 임의의 적절한 이미지 또는 애니메이션의 그림 등의, 그림문자 설명의 형태일 수 있다.
아바타 컴포넌트(250)는, 복합 모델이 배치될 수 있는 위치 세트 중의 하나 이상의 위치를 나타내는 선택가능한 그래픽 사용자 인터페이스 요소를 생성할 수 있다. 위치의 표시는 텍스트 설명 또는 그림 설명의 형태일 수 있다. 텍스트 설명은, "좌상", "우상", "중앙", "의자에 앉음", "해먹에서 기대어 있기", "우하로부터 좌하로 점핑", 또는 기타 임의의 적절한 텍스트 설명 등의, 위치에 대한 서술된 설명을 각각 갖는, 복수의 사용자 인터페이스 요소를 이용하여 제공될 수 있다. 그림 설명은, 배경 그래픽 요소 상의 위치, 배경 그래픽 요소 상에 배치된 선택가능한 그리드, 미리결정된 식별된 위치들, 또는 기타 임의의 적절한 그림 표시를 나타내는 사용자 인터페이스 요소 내의 이미지들의 형태일 수 있다. 그림 설명이 미리결정된 식별된 위치를 나타내는 경우, 미리결정된 식별된 위치는, 복합 모델의 자세 및 위치를 나타내는 파선(예를 들어, 컷아웃), 배경 내의 하나 이상의 위치에 배치된 복합 모델의 선택가능한 버전, 또는 기타 임의의 적절한 그림 설명에 의해 보여질 수 있다.
그래픽 사용자 인터페이스 요소는, 전용 그래픽 사용자 인터페이스 프리젠테이션(예를 들어, 렌더링된 스크린) 상에; 표의문자, 또는 생성되거나 부분적으로 생성된 표의문자에서 이용하기 위한 그래픽 모델, 복합 모델, 하나 이상의 그래픽 요소 중 하나 이상의 프리젠테이션 위의 오버레이로서; 또는 자세 데이터를 식별하는 사용자 입력을 공급하도록 선택가능한 요소에 의해 사용자를 촉구할 수 있는 기타 임의의 적절한 방식으로 프리젠팅될 수 있다. 그래픽 사용자 인터페이스 요소는 위치 요소에 앞서 자세 요소를 보여주는 순서로 프리젠팅될 수 있고, 이 경우 자세는 가능한 위치들에 영향을 준다(예를 들어, 점핑 애니메이션 또는 기대는 자세). 일부 예에서, 그래픽 사용자 인터페이스 요소는, 자세의 선택에 앞서 또는 자세의 선택과 동시에 위치의 선택을 가능케하도록 프리젠팅될 수 있다.
아바타 컴포넌트(250)는 또한, 자세 세트를 나타내는 하나 이상의 사용자 인터페이스 요소를 생성하고 그 프리젠테이션을 야기할 수 있어서 표의문자 내의 복합 모델의 위치의 자유형 선택(free form selection)을 가능케할 수 있다. 이들 예시적인 실시예에서, 아바타 컴포넌트(250)는 전술된 바와 같이 자세 선택을 위한 사용자 인터페이스 요소를 생성하고 그 프리젠테이션을 야기할 수 있다. 위치의 자유형 선택은, 복합 모델의 드래그가능한 또는 위치지정가능한 버전을 생성하고 그 프리젠테이션을 야기함으로써 가능케될 수 있다. 위치지정가능한 복합 모델은 표의문자를 위한 배경으로서 이용될 배경 그래픽 요소 내에 또는 그 위에 프리젠팅될 수 있다. 일부 예시적인 실시예에서, 복합 모델은 선택된 자세로 프리젠팅될 수 있다. 위치지정가능한 복합 모델은 또한, 중립 자세(예를 들어, 이전에 선택되지 않은 자세)로 프리젠팅될 수 있고, 아바타 컴포넌트(250)는 복합 모델이 배경 그래픽 요소 내에 배치된 후에 자세의 선택을 가능케할 수 있다.
동작 1030에서, 아바타 컴포넌트(250)는 동작 1020의 자세를 나타내도록 복합 모델의 뼈대 모델의 하나 이상의 부분을 배치한다. 아바타 컴포넌트(250)는, 하나 이상의 그래픽 요소에 대한 자세 데이터와 자세 및 위치 중 적어도 하나를 나타내는 사용자 입력 중 하나 이상에 기초하여 복합 모델의 뼈대 모델을 배치할 수 있다. 아바타 컴포넌트(250)는 자세 데이터 또는 사용자 입력에 표시된 위치 또는 배향을 정합시키거나, 자세와 정합하는 미리생성된 신체 모델 상에 그래픽 모델(예를 들어, 얼굴 모델)을 배치하거나, 기타 임의의 적절한 방식에 의해 뼈대 모델의 하나 이상의 부분을 배치할 수 있다.
동작 1040에서, 표의문자 컴포넌트(260)는 하나 이상의 그래픽 요소와 상기 자세로 위치한 복합 모델을 갖는 표의문자를 생성한다. 표의문자 컴포넌트(260)는 동작(370 또는 820)에 관하여 전술된 것과 유사하게 또는 동일하게 표의문자를 생성할 수 있다.
예들
본 명세서에 개시된 장치 및 방법을 더욱 양호하게 예시하기 위해, 비제한적인 예들의 목록이 여기에 제공된다 :
1. 방법으로서, 하나 이상의 프로세서에 의해, 하나 이상의 이미지 내의 얼굴의 부분을 검출하는 단계; 상기 하나 이상의 이미지 내에 묘사된 얼굴의 부분 내의 얼굴 특징물들의 세트를 식별하는 단계; 상기 얼굴의 부분의 검출과 상기 얼굴 특징물들의 세트를 식별하는 것에 응답하여, 상기 하나 이상의 이미지에 묘사된 상기 얼굴의 부분을 나타내는 하나 이상의 특성을 결정하는 단계; 상기 하나 이상의 특성 및 상기 얼굴 특징물들의 세트에 기초하여, 상기 하나 이상의 이미지 내에 묘사된 상기 얼굴의 부분을 포함하는 얼굴의 그래픽 모델을 생성하는 단계; 얼굴의 그래픽 모델에 근접하게 하나 이상의 그래픽 요소를 배치하는 단계; 및 상기 그래픽 모델 및 상기 하나 이상의 그래픽 요소로부터 표의문자를 생성하는 단계를 포함하는 방법.
2. 예 1에 있어서, 상기 하나 이상의 그래픽 요소를 배치하는 단계는, 상기 하나 이상의 그래픽 요소에 포함된 그래픽 요소의 위치 유형이 배경 유형이라고 결정하는 단계; 및 상기 그래픽 모델의 부분이 상기 그래픽 요소의 적어도 부분을 가리도록 상기 그래픽 모델의 적어도 부분 뒤에 상기 그래픽 요소를 배치하는 단계를 더 포함하는, 방법.
3. 예1 또는 예 2에 있어서, 상기 하나 이상의 그래픽 요소를 배치하는 단계는, 상기 하나 이상의 그래픽 요소에 포함된 그래픽 요소의 위치 유형이 전경 유형이라고 결정하는 단계; 및 상기 그래픽 요소가 상기 그래픽 모델의 부분을 가리도록 상기 그래픽 모델의 적어도 부분을 상기 그래픽 요소 뒤에 배치하는 단계를 더 포함하는, 방법.
4. 예 1 내지 예 3 중 임의의 하나 이상에 있어서, 상기 그래픽 모델은 3차원 그래픽 모델이고, 상기 하나 이상의 그래픽 요소는 2차원 그래픽 요소이며, 상기 표의문자를 생성하는 단계는, 상기 하나 이상의 그래픽 요소를 배치하는 것에 응답하여, 상기 3차원 그래픽 모델을 2차원 그래픽 모델로서 렌더링하는 단계; 및 상기 표의문자를, 상기 2차원 그래픽 모델과 상기 하나 이상의 그래픽 요소를 결합한 2차원 표의문자로서 렌더링하는 단계를 더 포함하는, 방법.
5. 예 1 내지 예 4 중 임의의 하나 이상에 있어서, 상기 표의문자를 생성하는 단계는, 상기 하나 이상의 그래픽 요소의 하나 이상의 크기를 결정하는 단계; 및 상기 하나 이상의 그래픽 요소의 상기 하나 이상의 크기에 기초하여 상기 그래픽 모델을 스케일링하여 스케일링된 그래픽 모델을 생성하는 단계를 더 포함하는, 방법.
6. 예 1 내지 예 5 중 임의의 하나 이상에 있어서, 제1 그래픽 요소는 제1 크기를 갖고 제2 그래픽 요소는 제2 크기를 가지며, 상기 표의문자를 생성하는 단계는, 상기 제2 그래픽 요소가 우선화된 요소라고 결정하는 단계; 상기 제2 그래픽 요소의 상기 제2 크기에 기초하여 상기 제1 그래픽 요소의 상기 제1 크기를 스케일링하여 상기 제1 그래픽 요소의 수정된 크기를 생성하는 단계; 및 상기 제2 그래픽 요소의 상기 제2 크기 및 상기 제1 그래픽 요소의 상기 수정된 크기에 기초하여 상기 그래픽 모델을 스케일링하여 스케일링된 그래픽 모델을 생성하는 단계를 더 포함하는, 방법.
7. 예 1 내지 예 6 중 임의의 하나 이상에 있어서, 상기 표의문자에 대한 타겟 애플리케이션을 결정하는 단계; 상기 애플리케이션과 연관된 애플리케이션 표의문자들에 대한 하나 이상의 치수를 결정하는 단계; 및 상기 하나 이상의 치수에 기초하여 상기 표의문자로부터 수정된 표의문자를 생성하는 단계를 더 포함하는, 방법.
8. 예 1 내지 예 7 중 임의의 하나 이상에 있어서, 얼굴의 그래픽 모델에 연결된 신체 모델의 적어도 부분을 생성하여 복합 모델을 생성하는 단계를 더 포함하고, 상기 신체 모델은 복합 모델의 적어도 부분을 배치하도록 움직일 수 있는 뼈대 표현을 갖는, 방법.
9. 예 1 내지 예 8 중 임의의 하나 이상에 있어서, 상기 하나 이상의 그래픽 요소에 대응하는 자세를 결정하는 단계; 상기 자세를 표현하도록 상기 복합 모델의 뼈대 표현의 하나 이상의 부분을 배치하는 단계; 및 상기 하나 이상의 그래픽 요소 및 상기 자세로 배치된 상기 복합 모델을 갖는 상기 표의문자를 생성하는 단계를 더 포함하는 방법.
10. 하나 이상의 프로세서; 상기 하나 이상의 프로세서에 의해 실행될 때, 상기 하나 이상의 프로세서로 하여금 동작들을 수행하게 하는 프로세서 실행가능한 명령어들을 저장한 프로세서-판독가능한 저장 매체를 포함하는 시스템으로서, 상기 동작들은, 하나 이상의 프로세서에 의해, 하나 이상의 이미지 내의 얼굴의 부분을 검출하는 단계; 상기 하나 이상의 이미지 내에 묘사된 얼굴의 부분 내의 얼굴 특징물들의 세트를 식별하는 단계; 상기 얼굴의 부분의 검출과 상기 얼굴 특징물들의 세트를 식별하는 것에 응답하여, 상기 하나 이상의 이미지에 묘사된 상기 얼굴의 부분을 나타내는 하나 이상의 특성을 결정하는 단계; 상기 하나 이상의 특성 및 상기 얼굴 특징물들의 세트에 기초하여, 하나 이상의 이미지 내에 묘사된 상기 얼굴의 부분을 포함하는 얼굴의 그래픽 모델을 생성하는 단계; 얼굴의 그래픽 모델에 근접하게 하나 이상의 그래픽 요소를 배치하는 단계; 및 상기 그래픽 모델 및 상기 하나 이상의 그래픽 요소로부터 표의문자를 생성하는 단계를 포함하는, 시스템.
11. 예 10에 있어서, 상기 그래픽 모델은 3차원 그래픽 모델이고, 상기 하나 이상의 그래픽 요소는 2차원 그래픽 요소이며, 상기 표의문자를 생성하는 단계는, 상기 하나 이상의 그래픽 요소를 배치하는 것에 응답하여, 상기 3차원 그래픽 모델을 2차원 그래픽 모델로서 렌더링하는 단계; 및 상기 표의문자를, 상기 2차원 그래픽 모델과 상기 하나 이상의 그래픽 요소를 결합한 2차원 표의문자로서 렌더링하는 단계를 더 포함하는, 시스템.
12. 예 10 또는 예 11에 있어서, 상기 표의문자를 생성하는 단계는, 상기 하나 이상의 그래픽 요소의 하나 이상의 크기를 결정하는 단계; 및 상기 하나 이상의 그래픽 요소의 상기 하나 이상의 크기에 기초하여 상기 그래픽 모델을 스케일링하여 스케일링된 그래픽 모델을 생성하는 단계를 더 포함하는, 시스템.
13. 예 10 내지 예 12 중 임의의 하나 이상에 있어서, 제1 그래픽 요소는 제1 크기를 갖고 제2 그래픽 요소는 제2 크기를 가지며, 상기 표의문자를 생성하는 단계는, 상기 제2 그래픽 요소가 우선화된 요소라고 결정하는 단계; 상기 제2 그래픽 요소의 상기 제2 크기에 기초하여 상기 제1 그래픽 요소의 상기 제1 크기를 스케일링하여 상기 제1 그래픽 요소의 수정된 크기를 생성하는 단계; 및 상기 제2 그래픽 요소의 상기 제2 크기 및 상기 제1 그래픽 요소의 상기 수정된 크기에 기초하여 상기 그래픽 모델을 스케일링하여 스케일링된 그래픽 모델을 생성하는 단계를 더 포함하는, 시스템.
14. 예 10 내지 예 13 중 임의의 하나 이상에 있어서, 상기 동작들은, 상기 표의문자에 대한 타겟 애플리케이션을 결정하는 단계; 상기 애플리케이션과 연관된 애플리케이션 표의문자들에 대한 하나 이상의 치수를 결정하는 단계; 및 상기 하나 이상의 치수에 기초하여 상기 표의문자로부터 수정된 표의문자를 생성하는 단계를 더 포함하는, 시스템.
15. 예 10 내지 예 14 중 임의의 하나 이상에 있어서, 상기 동작들은, 상기 얼굴의 상기 그래픽 모델에 연결된 신체 모델의 적어도 부분을 생성하여 복합 모델을 생성 ―상기 신체 모델은 상기 복합 모델의 적어도 부분을 배치하도록 움직일 수 있는 뼈대 표현을 가짐― 하는 단계; 하나 이상의 그래픽 요소에 대응하는 자세를 결정하는 단계; 상기 자세를 표현하도록 상기 복합 모델의 뼈대 표현의 하나 이상의 부분을 배치하는 단계; 및 상기 하나 이상의 그래픽 요소 및 상기 자세로 배치된 상기 복합 모델을 갖는 상기 표의문자를 생성하는 단계를 더 포함하는, 시스템.
16. 머신의 프로세서에 의해 실행될 때, 상기 머신으로 하여금 동작들을 수행하게 하는 프로세서 실행가능한 명령어들을 저장한 프로세서-판독가능한 저장 매체로서, 상기 동작들은, 하나 이상의 프로세서에 의해, 하나 이상의 이미지 내의 얼굴의 부분을 검출하는 단계; 상기 하나 이상의 이미지 내에 묘사된 얼굴의 부분 내의 얼굴 특징물들의 세트를 식별하는 단계; 상기 얼굴의 부분의 검출과 상기 얼굴 특징물들의 세트를 식별하는 것에 응답하여, 상기 하나 이상의 이미지에 묘사된 상기 얼굴의 부분을 나타내는 하나 이상의 특성을 결정하는 단계; 상기 하나 이상의 특성 및 상기 얼굴 특징물들의 세트에 기초하여, 하나 이상의 이미지 내에 묘사된 상기 얼굴의 부분을 포함하는 얼굴의 그래픽 모델을 생성하는 단계; 얼굴의 그래픽 모델에 근접하게 하나 이상의 그래픽 요소를 배치하는 단계; 및 상기 그래픽 모델 및 상기 하나 이상의 그래픽 요소로부터 표의문자를 생성하는 단계를 포함하는, 프로세서-판독가능한 저장 매체.
17. 예 16에 있어서, 상기 그래픽 모델은 3차원 그래픽 모델이고, 상기 하나 이상의 그래픽 요소는 2차원 그래픽 요소이며, 상기 표의문자를 생성하는 단계는, 상기 하나 이상의 그래픽 요소를 배치하는 것에 응답하여, 상기 3차원 그래픽 모델을 2차원 그래픽 모델로서 렌더링하는 단계; 및 상기 표의문자를, 상기 2차원 그래픽 모델과 상기 하나 이상의 그래픽 요소를 결합한 2차원 표의문자로서 렌더링하는 단계를 더 포함하는, 프로세서-판독가능한 저장 매체.
18. 예 16 또는 예 17에 있어서, 상기 표의문자를 생성하는 단계는, 상기 하나 이상의 그래픽 요소의 하나 이상의 크기를 결정하는 단계; 및 상기 하나 이상의 그래픽 요소의 상기 하나 이상의 크기에 기초하여 상기 그래픽 모델을 스케일링하여 스케일링된 그래픽 모델을 생성하는 단계를 더 포함하는, 프로세서-판독가능한 저장 매체.
19. 예 16 내지 예 18 중 임의의 하나 이상에 있어서, 제1 그래픽 요소는 제1 크기를 갖고 제2 그래픽 요소는 제2 크기를 가지며, 상기 표의문자를 생성하는 단계는, 상기 제2 그래픽 요소가 우선화된 요소라고 결정하는 단계; 상기 제2 그래픽 요소의 상기 제2 크기에 기초하여 상기 제1 그래픽 요소의 상기 제1 크기를 스케일링하여 상기 제1 그래픽 요소의 수정된 크기를 생성하는 단계; 및 상기 제2 그래픽 요소의 상기 제2 크기 및 상기 제1 그래픽 요소의 상기 수정된 크기에 기초하여 상기 그래픽 모델을 스케일링하여 스케일링된 그래픽 모델을 생성하는 단계를 더 포함하는, 프로세서-판독가능한 저장 매체.
20. 예 16 내지 예 19 중 임의의 하나 이상에 있어서, 상기 동작들은, 상기 얼굴의 상기 그래픽 모델에 연결된 신체 모델의 적어도 부분을 생성하여 복합 모델을 생성 ―상기 신체 모델은 상기 복합 모델의 적어도 부분을 배치하도록 움직일 수 있는 뼈대 표현을 가짐― 하는 단계; 하나 이상의 그래픽 요소에 대응하는 자세를 결정하는 단계; 상기 자세를 표현하도록 상기 복합 모델의 뼈대 표현의 하나 이상의 부분을 배치하는 단계; 및 상기 하나 이상의 그래픽 요소 및 상기 자세로 배치된 상기 복합 모델을 갖는 상기 표의문자를 생성하는 단계를 더 포함하는, 프로세서-판독가능한 저장 매체.
21. 머신 판독가능한 매체로서, 머신의 하나 이상의 프로세서에 의해 실행될 때, 상기 머신으로 하여금 예 1 내지 예 9 중 어느 한 예의 방법을 실행하게 하는 프로세서 실행가능한 명령어들을 반송하는 머신 판독가능한 매체.
본 장치 및 방법들의 이들 및 다른 예들과 피처들은 상세한 설명에서 부분적으로 전술되었다. 요약 및 예들은 본 발명의 주제의 비제한적인 예를 제공하기 위한 것이다. 이것은 철저한 또는 빠짐없는 설명을 제공하기 위한 것이 아니다. 상세한 설명은 본 발명의 주제에 관한 추가 정보를 제공하기 위해 포함된다.
모듈, 컴포넌트, 및 로직
소정의 실시예들은, 여기서 로직 또는 다수의 컴포넌트, 모듈 또는 메커니즘을 포함하는 것으로서 설명된다. 컴포넌트들은 하드웨어 컴포넌트들을 구성할 수 있다. "하드웨어 컴포넌트"는, 소정의 동작을 수행할 수 있는 유형 유닛(tangible unit)이며, 소정의 물리적 방식으로 구성되거나 배열될 수 있다. 다양한 예시적인 실시예에서, 컴퓨터 시스템(예를 들어, 독립형 컴퓨터 시스템, 클라이언트 컴퓨터 시스템, 또는 서버 컴퓨터 시스템) 또는 컴퓨터 시스템의 하드웨어 컴포넌트(예를 들어, 적어도 하나의 하드웨어 프로세서, 프로세서, 또는 프로세서 그룹)은, 본 명세서에서 설명된 소정의 동작들을 수행하도록 동작하는 하드웨어 컴포넌트로서 소프트웨어(예를 들어, 애플리케이션 또는 애플리케이션 부분)에 의해 구성된다.
일부 실시예에서, 하드웨어 컴포넌트는, 기계적으로, 전자적으로, 또는 이들의 임의의 적절한 조합으로 구현된다. 예를 들어, 하드웨어 컴포넌트는 소정의 동작들을 수행하도록 영구적으로 구성된 전용 회로 또는 로직을 포함할 수 있다. 예를 들어, 하드웨어 컴포넌트는, FPGA(Field-Programmable Gate Array) 또는 ASIC(Application Specific Integrated Circuit) 등의 특별-목적 프로세서일 수 있다. 하드웨어 컴포넌트는 또한, 소정의 동작들을 수행하도록 소프트웨어에 의해 일시적으로 구성된 프로그램가능한 로직 또는 회로를 포함할 수 있다. 예를 들어, 하드웨어 컴포넌트는, 범용 프로세서 또는 다른 프로그램가능한 프로세서 내에 포함된 소프트웨어를 포함할 수 있다. 기계적으로, 전용 및 영구적으로 구성된 회로로, 또는 일시적으로 구성된 회로(예를 들어, 소프트웨어에 의해 구성됨)로 하드웨어 컴포넌트를 구현하려는 결정은, 비용 및 시간 고려사항에 의해 결정될 수 있다는 것을 이해할 것이다.
따라서, "하드웨어 컴포넌트"라는 구문은, 소정의 방식으로 동작하거나 본 명세서에서 설명된 소정의 동작들을 수행하도록 물리적으로 구성되거나, 영구적으로 구성되거나(예를 들어, 물리결선된(hardwired)), 또는 일시적으로 구성된(예를 들어, 프로그램된) 유형 엔티티(tangible entity)를 포괄하는 것으로 이해되어야 한다. 본 명세서에서 사용될 때, "하드웨어-구현된 컴포넌트"란 하드웨어 컴포넌트를 말한다. 하드웨어 컴포넌트들이 일시적으로 구성되는(예를 들어, 프로그램되는) 실시예들을 고려할 때, 하드웨어 컴포넌트들 각각은 임의의 한 시점에서 구성되거나 인스턴스화될 필요는 없다. 예를 들어, 하드웨어 컴포넌트가 소프트웨어에 의해 특별-목적 프로세서가 되도록 구성된 범용 프로세서를 포함하는 경우, 범용 프로세서는 상이한 시간들에서 (예를 들어, 상이한 하드웨어 컴포넌트들을 포함하는) 각각 상이한 특별-목적 프로세서들로서 구성될 수 있다. 소프트웨어는, 그에 따라 특정한 프로세서 또는 프로세서들을 구성하여, 예를 들어 한 시점에서는 특정한 하드웨어 컴포넌트를 구성하고 상이한 시점에서 상이한 하드웨어 컴포넌트를 구성할 수 있다.
하드웨어 컴포넌트는 다른 하드웨어 컴포넌트들에 정보를 제공하고 이로부터 정보를 수신할 수 있다. 따라서, 설명된 하드웨어 컴포넌트들은 통신가능하게 결합된 것으로 간주될 수 있다. 복수의 하드웨어 컴포넌트가 동시에 존재하는 경우, 통신은 2개 이상의 하드웨어 컴포넌트들 사이에서 (예를 들어, 적절한 회로 및 버스를 통한) 신호 전송을 통해 달성될 수 있다. 복수의 하드웨어 컴포넌트들이 상이한 시간들에서 구성되거나 인스턴스화되는 실시예에서, 이러한 하드웨어 컴포넌트들 사이의 통신은, 예를 들어, 복수의 하드웨어 컴포넌트들이 액세스하는 메모리 구조 내의 정보의 저장 및 회수를 통해 달성될 수 있다. 예를 들어, 하나의 하드웨어 컴포넌트는 소정의 동작을 수행하고 그 동작의 출력을 통신가능하게 결합된 메모리 디바이스에 저장한다. 그 다음, 또 다른 하드웨어 컴포넌트는, 나중에, 메모리 디바이스에 액세스하여 저장된 출력을 회수 및 처리할 수 있다. 하드웨어 컴포넌트는 또한, 입력 또는 출력 디바이스와의 통신을 개시할 수 있고, 자원(예를 들어, 정보 모음)에 관해 동작할 수 있다.
본 명세서에서 설명된 예시적인 방법들의 다양한 동작들은, 적어도 부분적으로, 관련 동작들을 수행하도록 (예를 들어, 소프트웨어에 의해) 일시적으로 구성되거나 영구적으로 구성된 프로세서들에 의해 수행될 수 있다. 일시적으로 또는 영구적으로 구성되어 있는지에 관계없이, 이러한 프로세서들은 본 명세서에서 설명된 동작 또는 기능을 수행하도록 동작하는 프로세서-구현된 컴포넌트들을 구성한다. 본 명세서에서 사용될 때, "프로세서-구현된 컴포넌트"란 프로세서를 이용하여 구현된 하드웨어 컴포넌트를 말한다.
유사하게, 본 명세서에서 설명된 방법들은 적어도 부분적으로 프로세서-구현될 수 있고, 여기서, 특정한 프로세서 또는 프로세서들은 하드웨어의 한 예이다. 예를 들어, 방법의 동작들 중 적어도 일부는 프로세서 또는 프로세서-구현된 컴포넌트에 의해 수행될 수 있다. 게다가, 프로세서는 또한, "클라우드 컴퓨팅" 환경에서 관련 동작의 수행을 지원하도록 또는 "서비스로서의 소프트웨어"(SaaS)로서 동작할 수 있다. 예를 들어, 동작들 중 적어도 일부는, (프로세서들을 포함하는 머신의 예로서의) 컴퓨터들의 그룹에 의해 수행될 수 있고, 이들 동작들은 네트워크(예를 들어, 인터넷) 및 적절한 인터페이스(예를 들어, 애플리케이션 프로그램 인터페이스(API))를 통해 액세스가능하다.
소정의 동작들의 수행은, 단일 머신 내에 존재할 뿐만 아니라 다수의 머신들에 걸쳐 배치된, 프로세서들 사이에서 분산될 수 있다. 일부 예시적인 실시예에서, 프로세서 또는 프로세서-구현된 컴포넌트들은 단일의 지리적 위치에(예를 들어, 가정 환경, 사무실 환경, 또는 서버 팜 내에) 위치한다. 다른 예시적인 실시예에서, 프로세서 또는 프로세서-구현된 컴포넌트들은 다수의 지리적 위치에 걸쳐 분산된다.
애플리케이션들
도 11은, 일부 실시예에 따른, 모바일 운영 체제(예를 들어, IOS™, ANDROID™, WINDOWS® Phone 또는 기타의 모바일 운영 체제)를 실행하는 예시적인 모바일 디바이스(1100)를 나타낸다. 한 실시예에서, 모바일 디바이스(1100)는 사용자(1102)로부터 촉각 데이터를 수신하도록 동작가능한 터치 스크린을 포함한다. 예를 들어, 사용자(1102)는 모바일 디바이스(1100)를 물리적으로 터치(1104)할 수 있고, 터치(1104)에 응답하여, 모바일 디바이스(1100)는, 터치 위치, 터치 힘, 또는 제스쳐 동작 등의 촉각 데이터를 결정할 수 있다. 다양한 예시적인 실시예에서, 모바일 디바이스(1100)는 애플리케이션을 론칭하거나 모바일 디바이스(1100)의 다양한 양태를 관리하도록 동작가능한 홈 스크린(1106)(예를 들어 IOS™ 상의 Springboard)을 디스플레이한다. 일부 예시적인 실시예에서, 홈 스크린(1106)은, 배터리 수명, 접속성, 또는 기타의 하드웨어 상태 등의, 상태 정보를 제공한다. 사용자(1102)는 각각의 사용자 인터페이스 요소에 의해 점유된 영역을 터치함으로써 사용자 인터페이스 요소를 활성화할 수 있다. 이러한 방식으로, 사용자(1102)는 모바일 디바이스(1100)의 애플리케이션과 상호작용한다. 예를 들어, 홈 스크린(1106)에 포함된 특정한 아이콘에 의해 점유된 영역을 터치하는 것은 그 특정한 아이콘에 대응하는 애플리케이션의 론칭을 야기한다.
모바일 디바이스(1100)는, 도 11에 도시된 바와 같이, 촬영 디바이스(1108)를 포함한다. 촬영 디바이스(1108)는, 비디오 스트림 또는 하나 이상의 연속적인 이미지를 캡처할 수 있는 모바일 디바이스(1100)에 결합된 카메라 또는 기타 임의의 디바이스일 수 있다. 촬영 디바이스(1108)는 표의문자 생성 시스템(160) 또는 선택가능한 사용자 인터페이스 요소에 의해 트리거되어 비디오 스트림 또는 일련의 이미지들의 캡처를 개시하고 비디오 스트림 또는 일련의 이미지들을 본 개시내용에서 설명된 하나 이상의 방법에 따라 처리하기위해 표의문자 생성 시스템(160)에 전달할 수 있다.
네이티브 애플리케이션(예를 들어, Objective-C, Swift, 또는 IOS™ 상에서 실행중인 다른 적절한 언어로 프로그램된 애플리케이션, 또는 ANDROID™에서 실행되는 Java로 프로그램된 애플리케이션), 모바일 웹 애플리케이션(예를 들어, HTML5(Hypertext Markup Language-5)로 작성된 애플리케이션) 또는 하이브리드 애플리케이션(예를 들어, HTML5 세션을 론칭하는 네이티브 쉘 애플리케이션) 등의, ("앱"이라고도 하는) 많은 다양한 애플리케이션들이 모바일 디바이스(1100) 상에서 실행될 수 있다. 예를 들어, 모바일 디바이스(1100)는, 메시징 앱, 오디오 녹음 앱, 카메라 앱, 북 리더 앱, 미디어 앱, 피트니스 앱, 파일 관리 앱, 위치확인 앱, 브라우저 앱, 설정 앱, 연락처 앱, 전화 통화 앱, 또는 기타의 앱(예를 들어, 게임 앱, 소셜 네트워킹 앱, 바이오메트릭 모니터링 앱)을 포함한다. 또 다른 예에서, 모바일 디바이스(1100)는, 일부 실시예에 따라, 사용자가 미디어 콘텐츠를 포함하는 단기 메시지(ephemeral message)를 교환하는 것을 허용하는 SNAPCHAT® 등의 소셜 메시징 앱(1110)을 포함한다. 이 예에서, 소셜 메시징 앱(1110)은 본 명세서에서 설명된 실시예들의 양태들을 포함할 수 있다. 예를 들어, 일부 실시예에서, 소셜 메시징 애플리케이션은 사용자 및 소셜 메시징 애플리케이션에 의해 생성된 단기 미디어 갤러리를 포함한다. 이러한 갤러리는, 사용자에 의해 게시되고 사용자의 연락처(예를 들어, "친구")가 볼 수 있는 비디오 또는 사진으로 구성될 수 있다. 대안으로서, 공개 갤러리는, 애플리케이션의 임의의 사용자로부터의 (및 모든 사용자에 의해 액세스가능한) 미디어로 구성된 소셜 메시징 애플리케이션 관리자에 의해 생성될 수 있다. 역시 또 다른 실시예에서, 소셜 메시징 애플리케이션은, 소셜 메시징 애플리케이션의 플랫폼 상의 발행자에 의해 생성되고 임의의 사용자에 의해 액세스될 수 있는 기사 및 기타의 콘텐츠로 구성된 "잡지" 피처를 포함할 수 있다. 이들 환경들 또는 플랫폼들 중 임의의 것이 본 발명의 주제의 개념을 구현하는데 이용될 수 있다.
일부 실시예에서, 단기 메시지 시스템은, 시청 시간 또는 시청 완료 등의 삭제 트리거 이벤트에 후속하여 삭제되는 단기 비디오 클립 또는 이미지를 갖는 메시지를 포함할 수 있다. 이러한 실시예에서, 표의문자 생성 시스템(160)을 구현하는 디바이스는, 단기 비디오 클립이 디바이스에 의해 캡처되고 있고 단기 비디오 클립을 단기 메시지 시스템을 이용하여 또 다른 디바이스에 전송할 때, 단기 비디오 클립 내의 관심 영역 및 그 내부에 묘사된 컬러를 식별, 추적, 추출, 및 수정할 수 있다.
소프트웨어 아키텍처
도 12는 전술된 디바이스들 상에 설치될 수 있는 소프트웨어의 아키텍처(1202)를 나타내는 블록도(1200)이다. 도 12는 소프트웨어 아키텍처의 비제한적 예일 뿐이고, 본 명세서에서 설명된 기능을 용이화하기 위해 많은 다른 아키텍처가 구현될 수 있다는 것을 이해할 것이다. 다양한 실시예에서, 소프트웨어(1202)는, 프로세서(1310), 메모리(1330), 및 I/O 컴포넌트(1350)를 포함하는 도 13의 머신(1300) 등의 하드웨어에 의해 구현된다. 이러한 예시적인 아키텍처에서, 소프트웨어(1202)는 각각의 계층이 특정한 기능을 제공할 수 있는 계층들의 스택으로서 개념화될 수 있다. 예를 들어, 소프트웨어(1202)는, 운영 체제(1204), 라이브러리(1206), 프레임워크(1208), 및 애플리케이션(1210) 등의 계층들을 포함한다. 동작상, 애플리케이션(1210)은, 일부 실시예에 따라, 소프트웨어 스택을 통해 애플리케이션 프로그래밍 인터페이스(API) 호출(1212)을 기동하고, API 호출(1212)에 응답하여 메시지(1214)를 수신한다.
다양한 구현에서, 운영 체제(1204)는 하드웨어 자원을 관리하고 공통 서비스를 제공한다. 운영 체제(1204)는, 예를 들어, 커널(1220), 서비스(1222) 및 드라이버(1224)를 포함한다. 커널(1220)은 일부 실시예에 따라 하드웨어와 기타의 소프트웨어 계층들 사이의 추상화 계층(abstraction layer)으로서 기능한다. 예를 들어, 커널(1220)은, 다른 기능 중에서도, 메모리 관리, 프로세서 관리(예를 들어, 스케쥴링), 컴포넌트 관리, 네트워킹, 및 보안 설정을 제공한다. 서비스(1222)는 다른 소프트웨어 계층들에 대한 다른 공통 서비스를 제공할 수 있다. 일부 실시예에 따라, 드라이버(1224)는 기저 하드웨어를 제어하거나 이와 인터페이싱하는 것을 담당한다. 예를 들어, 드라이버(1224)는, 디스플레이 드라이버, 카메라 드라이버, BLUETOOTH® 드라이버, 플래시 메모리 드라이버, 직렬 통신 드라이버(예를 들어, USB 드라이버), WI-FI® 드라이버, 오디오 드라이버, 전력 관리 드라이버 등을 포함할 수 있다.
일부 실시예들에서, 라이브러리(1206)는 애플리케이션(1210)에 의해 이용되는 로우-레벨 공통 인프라스트럭처를 제공한다. 라이브러리(1206)는, 메모리 할당 함수, 문자열 조작 함수, 수학 함수 등의 함수를 제공할 수 있는 시스템 라이브러리(1230)(예를 들어, C 표준 라이브러리)를 포함할 수 있다. 또한, 라이브러리(1206)는, 미디어 라이브러리(예를 들어, MPEG4(Moving Picture Experts Group-4), H.264 또는 AVC(Advanced Video Coding), MP3(Moving Picture Experts Group Layer-3), AAC(Advanced Audio Coding), AMR(Adaptive Multi-Rate) 오디오 코덱, JPEG 또는 JPG(Joint Photographic Experts Group), PNG(Portable Network Graphics) 등의 다양의 미디어 포멧의 프리젠테이션과 조작을 지원하는 라이브러리들) 그래픽 라이브러리(예를 들어, 그래픽 콘텐츠를 디스플레이 상에서 2차원(2D) 및 3차원(3D)으로 렌더링하는데 이용되는 OpenGL 프레임워크), 데이터베이스 라이브러리(예를 들어, 다양한 관계형 데이터베이스 기능을 제공하는 SQLite), 웹 라이브러리(예를 들어, 웹 브라우징 기능을 제공하는 WebKit) 등의 API 라이브러리(1232)를 포함할 수 있다. 라이브러리(1206)는 또한, 많은 다른 API를 애플리케이션(1210)에 제공하는 광범위한 다른 라이브러리(1234)를 포함할 수 있다.
프레임워크(1208)는 일부 실시예들에 따라 애플리케이션(1210)에 의해 이용될 수 있는 하이-레벨 공통 인프라스트럭처를 제공한다. 예를 들어, 프레임워크(1208)는, 다양한 그래픽 사용자 인터페이스(GUI) 기능, 하이-레벨 자원 관리, 하이-레벨 위치확인 서비스 등을 제공한다. 프레임워크(1208)는 애플리케이션(1210)에 의해 이용될 수 있는 광범위한 스펙트럼의 다른 API들을 제공할 있으며, 그 중 일부는 특정한 운영 체제 또는 플랫폼 특유일 수 있다.
한 예시적인 실시예에서, 애플리케이션(1210)은, 홈 애플리케이션(1250), 연락처 애플리케이션(1252), 브라우저 애플리케이션(1254), 북 리더 애플리케이션(1256), 위치확인 애플리케이션(1258), 미디어 애플리케이션(1260), 메시징 애플리케이션(1262), 게임 애플리케이션(1264), 및 제3자 애플리케이션(1266) 등의 광범위한 다른 애플리케이션들을 포함한다. 일부 실시예에 따르면, 애플리케이션(1210)은 프로그램에서 정의된 기능들을 실행하는 프로그램이다. 객체 지향형 프로그래밍 언어(예를 들어, Objective-C, Java 또는 C++) 또는 절차형 프로그래밍 언어(예를 들어, C 또는 어셈블리 언어) 등의 다양한 방식으로 구조화된 애플리케이션(1210)을 생성하기 위해 다양한 프로그래밍 언어가 이용될 수 있다. 특정한 예에서, 제3자 애플리케이션(1266)(예를 들어, 특정한 플랫폼의 벤더 이외의 엔티티에 의해 ANDROID™ 또는 IOS™ 소프트웨어 개발 킷(SDK)을 이용하여 개발된 애플리케이션)은, IOS™, ANDROID™, WINDOWS® PHONE 또는 다른 모바일 운영 체제 등의 모바일 운영 체제 상에서 실행되는 모바일 소프트웨어일 수 있다. 이 예에서, 제3자 애플리케이션(1266)은 본 명세서에서 설명된 기능을 용이화하기 위해 운영 체제(1204)에 의해 제공되는 API 호출(1212)을 기동할 수 있다.
예시적인 머신 아키텍처 및 머신-판독가능한 매체
도 13은, 머신-판독가능한 매체(예를 들어, 비일시적인 머신-판독가능한 저장 매체)로부터 명령어들(예를 들어, 프로세서 실행가능한 명령어들)을 판독하여 본 명세서에서 논의된 방법론들 중 임의의 것을 수행할 수 있는, 일부 실시예에 따른 머신(1300)의 컴포넌트들을 나타내는 블록도이다. 구체적으로, 도 13은 예시적인 형태의 컴퓨터 시스템으로 된 머신(1300)의 개략적 표현을 도시하며, 머신 내부에서, 머신(1300)으로 하여금 본 명세서에서 논의된 방법론들 중 임의의 것을 수행하게 하기 위한 명령어들(1316)(예를 들어, 소프트웨어, 프로그램, 애플리케이션, 애플릿, 앱 또는 기타의 실행가능한 코드)이 실행될 수 있다. 대안적인 실시예에서, 머신(1300)은 독립형 디바이스로서 동작하거나 다른 머신에 결합(예를 들어, 네트워킹)될 수 있다. 네트워킹된 배치에서, 머신(1300)은 서버-클라이언트 네트워크 환경에서 서버 머신 또는 클라이언트 머신의 용량에서 동작하거나, 피어-투-피어(또는 분산형) 네트워크 환경에서 피어 머신으로서 동작할 수 있다. 머신(1300)은, 서버 컴퓨터, 클라이언트 컴퓨터, 개인용 컴퓨터(PC), 태블릿 컴퓨터, 랩탑 컴퓨터, 넷북, 셋탑 박스(STB), PDA(personal digital assistant), 엔터테인먼트 미디어 시스템, 셀룰러 전화, 스마트 폰, 모바일 디바이스, 착용형 디바이스(예를 들어, 스마트 시계), 스마트 홈 디바이스(예를 들어, 스마트 어플라이언스), 기타의 스마트 디바이스, 웹 어플라이언스, 네트워크 라우터, 네트워크 스위치, 네트워크 브릿지, 또는 머신(1300)에 의해 취해질 동작들을 명시하는 명령어(1316)들을 순차적으로 또는 기타의 방식으로 실행할 수 있는 임의의 머신을 포함할 수 있지만, 이것으로 제한되는 것은 아니다. 또한, 단 하나의 머신(1300)이 예시되어 있지만, "머신"이라는 용어는 또한, 본 명세서에서 논의된 방법론들 중 임의의 것을 수행하기 위해 명령어(1316)들을 개별적으로 또는 공동으로 실행하는 머신들의 집합체(1300)를 포함하는 것으로 간주되어야 한다.
다양한 실시예에서, 머신(1300)은, 버스(1302)를 통해 서로 통신하도록 구성될 수 있는 프로세서(1310), 메모리(1330), 및 I/O 컴포넌트(1350)를 포함한다. 한 예시적인 실시예에서, 프로세서(1310)(예를 들어, 중앙 처리 유닛(CPU), RISC(Reduced Instruction Set Computing) 프로세서, CISC(Complex Instruction Set Computing) 프로세서, GPU(Graphics Processing Unit), 디지털 신호 프로세서(DSP; Digital Signal Processor), 주문형 집적 회로(ASIC; Application Specific Integrated Circuit), 무선 주파수 집적 회로(RFIC), 또 다른 프로세서, 또는 이들의 임의의 적절한 조합)는, 예를 들어, 명령어(1316)를 실행할 수 있는 프로세서(1312) 및 프로세서(1314)를 포함한다. "프로세서"라는 용어는, 명령어(1316)들을 동시에 실행할 수 있는 2개 이상의 독립된 프로세서("코어"라고도 함)를 포함할 수 있는 멀티-코어 프로세서를 포함하는 것을 의도한다. 도 13은 복수의 프로세서(1310)를 도시하지만, 머신(1300)은 단일 코어를 갖는 단일 프로세서, 다중 코어를 갖는 단일 프로세서(예를 들어, 멀티-코어 프로세서), 단일 코어를 갖는 다중 프로세서, 다중 코어를 갖는 다중 프로세서, 또는 이들의 임의의 조합을 포함할 수 있다.
일부 실시예에 따르면, 메모리(1330)는, 버스(1302)를 통해 프로세서(1310)가 액세스할 수 있는, 메인 메모리(1332), 정적 메모리(1334), 및 저장 유닛(1336)을 포함한다. 저장 유닛(1336)은, 본 명세서에서 설명된 방법론들 또는 기능들 중 임의의 것을 구현하는 명령어(1316)들이 저장되는 머신-판독가능한 매체(1338)를 포함할 수 있다. 명령어(1316)들은 또한, 머신(1300)에 의한 그 실행 동안에, 완전히 또는 적어도 부분적으로, 메인 메모리(1332) 내에, 정적 메모리(1334) 내에, 프로세서(1310)들 중 적어도 하나 내에(예를 들어, 프로세서의 캐시 메모리 내에), 또는 이들의 임의의 적절한 조합 내에 존재할 수 있다. 따라서, 다양한 실시예에서, 메인 메모리(1332), 정적 메모리(1334), 및 프로세서(1310)들은 머신-판독가능한 매체(1338)로서 간주된다.
본 명세서에서 사용될 때, "메모리"라는 용어는, 데이터를 일시적으로 또는 영구적으로 저장할 수 있는 머신-판독가능한 매체(1338)를 말하며, 랜덤 액세스 메모리(RAM), 판독 전용 메모리(ROM), 버퍼 메모리, 플래시 메모리, 및 캐시 메모리를 포함하지만 이것으로 제한되지 않는 것으로 간주된다. 머신-판독가능한 매체(1338)가 예시적인 실시예에서 단일 매체인 것으로 도시되어 있지만, "머신-판독가능한 매체"라는 용어는 명령어(1316)를 저장할 수 있는 단일 매체 또는 복수의 매체(예를 들어, 중앙집중형 또는 분산형 데이터베이스, 또는 연관된 캐시 및 서버)를 포함하는 것으로 간주되어야 한다. "머신-판독가능한 매체"라는 용어는 또한, 명령어들이, 머신(1300)의 프로세서들(예를 들어, 프로세서들(1310))에 의해 실행될 때, 머신(1300)으로 하여금 본 명세서에서 설명된 방법론들 중 임의의 것을 수행하게 하도록, 머신(예를 들어, 머신(1300))에 의한 실행을 위한 명령어(예를 들어, 명령어(1316))를 저장할 수 있는 임의의 매체 또는 복수의 매체들의 조합을 포함하는 것으로 간주되어야 한다. 따라서, "머신-판독가능한 매체"란, 단일의 저장 장치 또는 디바이스 뿐만 아니라, 복수의 저장 장치 또는 디바이스를 포함하는 "클라우드-기반" 저장 시스템 또는 저장 네트워크를 말한다. "머신-판독가능한 매체"라는 용어는, 그에 따라, 솔리드-스테이트 메모리(예를 들어, 플래시 메모리), 광학 매체, 자기 매체, 기타의 비휘발성 메모리(예를 들어, 소거가능하고 프로그램가능한 판독 전용 메모리(EPROM)), 또는 이들의 임의의 적절한 조합의 형태로 된 데이터 저장소를 포함하지만 이것으로 제한되지 않는 것으로 간주되어야 한다. "머신-판독가능한 매체"라는 용어는 구체적으로 비법령 신호(non-statutory signal) 그 자체를 제외한다.
I/O 컴포넌트(1350)들은, 입력을 수신하고, 출력을 제공하며, 출력을 생성하고, 정보를 전송하며, 정보를 교환하고, 측정치를 캡처하는 등을 수행하는 다양한 컴포넌트를 포함한다. 일반적으로, I/O 컴포넌트(1350)들은 도 13에 도시되지 않은 많은 다른 컴포넌트를 포함할 수 있다는 것을 이해할 것이다. I/O 컴포넌트(1350)들은 단지 이하의 논의를 간소화하기 위해 기능성에 따라 그룹화되어 있고, 이러한 그룹화는 어떠한 방식으로든 제한하는 것이 아니다. 다양한 예시적인 실시예에서, I/O 컴포넌트(1350)들은 출력 컴포넌트(1352)들 및 입력 컴포넌트(1354)들을 포함한다. 출력 컴포넌트(1352)들은, 시각적 컴포넌트(예를 들어, 플라즈마 디스플레이 패널(PDP), 발광 다이오드(LED) 디스플레이, 액정 디스플레이(LCD), 프로젝터, 또는 CRT(cathode ray tube) 등의 디스플레이), 음향 컴포넌트(예를 들어, 스피커), 햅틱 컴포넌트(예를 들어, 진동 모터), 기타의 신호 생성기 등을 포함한다. 입력 컴포넌트(1354)들은, 영숫자 입력 컴포넌트(예를 들어, 키보드, 영숫자 입력을 수신하도록 구성된 터치 스크린, 사진-광학 키보드, 또는 기타의 영숫자 입력 컴포넌트), 포인트 기반 입력 컴포넌트(예를 들어, 마우스, 터치패드, 트랙볼, 조이스틱, 모션 센서 또는 기타의 포인팅 도구), 촉각 입력 컴포넌트(예를 들어, 물리적 버튼, 터치 또는 터치 제스쳐의 위치 및 힘을 제공하는 터치 스크린, 또는 기타의 촉각 입력 컴포넌트), 오디오 입력 컴포넌트(예를 들어, 마이크로폰) 등을 포함한다.
일부 추가의 예시적인 실시예에서, I/O 컴포넌트(1350)들은, 특히, 바이오메트릭 컴포넌트(1356), 모션 컴포넌트(1358), 환경 컴포넌트(1360), 또는 위치 컴포넌트(1362)를 포함한다. 예를 들어, 바이오메트릭 컴포넌트(1356)는, 표현(예를 들어, 손 표현, 얼굴 표정, 음성 표현, 몸짓, 또는 입 제스쳐)을 검출하고, 생체신호(예를 들어, 혈압, 심박수, 체온, 땀 또는 뇌파)를 측정하고, 사람을 식별(예를 들어, 음성 식별, 망막 식별, 얼굴 식별, 지문 식별, 또는 뇌파계 기반 식별)하는 컴포넌트들을 포함한다. 모션 컴포넌트(1358)는, 가속도 센서 컴포넌트(예를 들어, 가속도계), 중력 센서 컴포넌트, 회전 센서 컴포넌트(예를 들어, 자이로스코프) 등을 포함한다. 환경 컴포넌트(1360)는, 예를 들어, 조명 센서 컴포넌트(예를 들어, 광도계), 온도 센서 컴포넌트(예를 들어, 주변 온도를 검출하는 온도계), 습도 센서 컴포넌트, 압력 센서 컴포넌트(예를 들어, 기압계), 음향 센서 컴포넌트(예를 들어, 배경 노이즈를 검출하는 마이크로폰), 근접 센서 컴포넌트(예를 들어, 근처의 물체를 검출하는 적외선 센서), 개스 센서 컴포넌트(예를 들어, 머신 후각 검출 센서, 안전을 위해 위험한 개스의 농도를 검출하거나 대기 중의 오염 물질을 측정하는 개스 검출 센서), 또는 주변의 물리적 환경에 대응하는 표시, 측정치, 또는 신호를 제공할 수 있는 기타의 컴포넌트들을 포함한다. 위치 컴포넌트(1362)는, 위치 센서 컴포넌트(예를 들어, GPS(Global Positioning System) 수신기 컴포넌트), 고도 센서 컴포넌트(예를 들어, 고도가 도출될 수 있는 기압을 검출하는 고도계 또는 기압계), 배향 센서 컴포넌트(예를 들어, 자력계) 등을 포함한다.
통신은 다양한 기술을 이용하여 구현될 수 있다. I/O 컴포넌트(1350)들은, 머신(1300)을 각각 결합(1382) 및 결합(1372)을 통해 네트워크(1380) 또는 디바이스(1370)에 결합하도록 동작가능한 통신 컴포넌트(1364)를 포함할 수 있다. 예를 들어, 통신 컴포넌트(1364)는 네트워크 인터페이스 컴포넌트 또는 네트워크(1380)와 인터페이스하기에 적합한 또 다른 디바이스를 포함한다. 추가 예들에서, 통신 컴포넌트(1364)는, 유선 통신 컴포넌트, 무선 통신 컴포넌트, 셀룰러 통신 컴포넌트, 근접장 통신(NFC) 컴포넌트, Bluetooth® 컴포넌트(예를 들어, Bluetooth® Low Energy), WI-FI® 컴포넌트, 및 다른 양태를 통해 통신을 제공하는 기타의 통신 컴포넌트를 포함한다. 디바이스(1370)는, 또 다른 머신 또는 임의의 다양한 주변 디바이스(예를 들어, USB(Universal Serial Bus)를 통해 결합된 주변 디바이스)일 수 있다.
게다가, 일부 실시예에서, 통신 컴포넌트(1364)는 식별자를 검출하거나 식별자를 검출하도록 동작가능한 컴포넌트를 포함한다. 예를 들어, 통신 컴포넌트(1364)는, 무선 주파수 식별(RFID) 태그 판독기 컴포넌트, NFC 스마트 태그 검출 컴포넌트, 광학 판독기 컴포넌트(예를 들어, 범용 제품 코드(UPC) 바코드 등의 일차원 바코드, Quick Response (QR) 코드, Aztec 코드, Data Matrix, Dataglyph, MaxiCode, PDF417, Ultra 코드, UCC RSS(Uniform Commercial Code Reduced Space Symbology)-2D 바 코드, 및 기타의 광학 코드 등의 다차원 바코드를 검출하는 광학 센서), 음향 검출 컴포넌트(예를 들어, 태깅된 오디오 신호를 식별하는 마이크로폰), 또는 이들의 임의의 적절한 조합을 포함한다. 또한, 인터넷 프로토콜(IP) 지오-로케이션(geo-location)을 통한 위치, WI-FI® 신호 삼각측량을 통한 위치, 특정한 위치를 나타낼 수 있는 Bluetooth® 또는 NFC 비컨 신호 검출을 통한 위치 등의 다양한 정보가 통신 컴포넌트(1364)를 통해 도출될 수 있다.
전송 매체
다양한 예시적인 실시예에서, 네트워크(1380)의 일부는, 애드혹 네트워크, 인트라넷, 엑스트라넷, 가상 사설망(VPN), 근거리 통신망(LAN), 무선 LAN(WLAN), 광역 네트워크(WAN), 무선 WAN(WWAN), 도시권 통신망(MAN; Metropolitan Area Network), 인터넷, 인터넷의 일부, PSTN(Public Switched Telephone Network)의 일부, POTS(plain old telephone service) 네트워크, 셀룰러 전화 네트워크, 무선 네트워크, WI-FI® 네트워크, 또 다른 유형의 네트워크, 또는 이러한 네트워크들의 2개 이상의 조합일 수 있다. 예를 들어, 네트워크(1380) 또는 네트워크(1380)의 일부는 무선 또는 셀룰러 네트워크를 포함할 수 있고, 결합(1382)은 CDMA(Code Division Multiple Access) 접속, GSM(Global System for Mobile communications) 접속, 또는 다른 유형의 셀룰러 또는 무선 결합을 포함할 수 있다. 이 예에서, 결합(1382)은, 1xRTT(Single Carrier Radio Transmission Technology), EVDO(Evolution-Data Optimized) 기술, GPRS(General Packet Radio Service) 기술, EDGE(Enhanced Data rates for GSM Evolution) 기술, 3G, 4G(fourth generation wireless) 네트워크, UMTS(Universal Mobile Telecommunications System), HSPA(High Speed Packet Access), WiMAX(Worldwide Interoperability for Microwave Access), LTE(Long Term Evolution) 표준, 다양한 표준-설정 기구에 의해 정의된 기타의 것들을 포함한 3GPP(third Generation Partnership Project), 기타의 장거리 프로토콜, 또는 기타의 데이터 전송 기술 등의 다양한 유형의 데이터 전송 기술들 중 임의의 것을 구현할 수 있다.
예시적인 실시예에서, 명령어(1316)들은, 네트워크 인터페이스 디바이스(예를 들어, 통신 컴포넌트(1364)에 포함된 네트워크 인터페이스 컴포넌트)를 통해 전송 매체를 이용하여 및 다수의 널리 공지된 프로토콜들 중 임의의 하나(예를 들어, 하이퍼텍스트 전송 프로토콜(HTTP))를 이용하여 네트워크(1380)를 통해 전송되거나 수신된다. 유사하게, 다른 예시적인 실시예에서, 명령어(1316)들은 디바이스(1370)에 대한 결합(1372)(예를 들어, 피어-투-피어 결합)을 통해 전송 매체를 이용하여 전송되거나 수신된다. "전송 매체"라는 용어는, 머신(1300)에 의한 실행을 위한 명령어(1316)를 저장, 인코딩 또는 운반할 수 있고, 이러한 소프트웨어의 전달을 용이화하는 디지털 또는 아날로그 통신 신호 또는 기타의 무형 매체를 포함하는 임의의 무형의 매체를 포함하는 것으로 간주되어야 한다.
또한, 머신-판독가능한 매체(1338)는 전파 신호를 구현하지 않는다는 점에서 비일시적(즉, 어떠한 일시적인 신호도 갖지 않음)이다. 그러나, 머신-판독가능한 매체(1338)를 "비일시적"으로 라벨링하는 것은 매체가 이동 불가능하다는 것을 의미하는 것으로 해석되어서는 안 된다; 매체는 한 물리적 위치로부터 또 다른 위치로 이동될 수 있는 것으로 간주되어야 한다. 추가로, 머신-판독가능한 매체(1338)는 유형이므로, 매체는 머신-판독가능한 디바이스로 간주될 수 있다.
용어
본 명세서 전체를 통해, 복수의 인스턴스는, 단일 인스턴스로서 설명된 컴포넌트들, 동작들 또는 구조들을 구현할 수 있다. 방법의 개개의 동작들이 별개의 동작들로서 예시되고 설명되지만, 개개의 동작들은 동시에 수행될 수 있고, 동작들이 예시된 순서로 수행될 필요는 없다. 예시적인 구성에서 별개의 컴포넌트들로서 제시된 구조 및 기능은 결합된 구조 또는 컴포넌트로서 구현될 수 있다. 유사하게, 단일 컴포넌트로서 제시된 구조 및 기능은 별개의 컴포넌트들로서 구현될 수 있다. 이들 및 다른 변형, 수정, 추가 및 개선은 본 명세서의 주제의 범위 내에 있다.
본 발명의 주제에 대한 개요가 특정한 예시적인 실시예들을 참조하여 설명되었지만, 본 개시내용의 실시예들의 더 넓은 범위를 벗어나지 않으면서 이들 실시예들에 대한 다양한 수정 및 변경이 이루어질 수 있다. 본 발명의 주제의 이러한 실시예들은, 본 명세서에서, 사실상 하나보다 많은 발명 또는 발명적 개념이 개시되고 있지만, 본 출원의 범위를 임의의 단일의 개시내용이나 발명적 개념으로 자발적으로 제한하려는 의도없이 단지 편의상 "발명"이라는 용어에 의해, 개별적으로 또는 집합적으로 언급될 수 있다.
본 명세서에서 예시된 실시예들은 본 기술분야의 통상의 기술자가 본 명세서에서 개시된 교시를 실시할 수 있게 하도록 충분히 상세하게 설명되었다. 본 개시내용의 범위로부터 벗어나지 않고 구조적 및 논리적 치환과 변경이 이루어질 수 있도록 하는 다른 실시예들이 이용될 수 있고 본 개시내용으로부터 유도될 수 있다. 따라서, 본 상세한 설명은 제한적인 의미로 간주되어서는 안되며, 다양한 실시예들의 범위는 첨부된 청구항들과 이러한 청구항들의 균등물의 전체 범위에 의해서만 정의된다.
본 명세서에서 사용될 때, "또는"이라는 용어는 포함적 또는 배타적 의미로 해석될 수 있다. 게다가, 본 명세서에서 단일 인스턴스로서 설명된 자원, 동작, 또는 구조에 대해 복수의 인스턴스가 제공될 수 있다. 추가로, 다양한 자원, 동작, 컴포넌트, 엔진 및 데이터 저장소들 사이의 경계는 다소 임의적이며, 특정한 동작은 특정한 예시적인 구성의 정황에서 예시된 것이다. 기능의 다른 할당들을 구상해 볼 수 있고 본 개시내용의 다양한 실시예의 범위 내에 있을 수 있다. 일반적으로, 예시적인 구성에서 별개의 자원들로서 제시된 구조 및 기능은 결합된 구조 또는 자원으로서 구현될 수 있다. 유사하게, 단일 자원으로서 제시된 구조 및 기능은 별개의 자원들로서 구현될 수 있다. 이들 및 다른 변형, 수정, 추가 및 개선은 첨부된 청구항들로 표현되는 본 개시내용의 실시예들의 범위 내에 있다. 따라서, 본 명세서 및 도면은 제한적 의미라기보다는 예시적인 의미로 간주되어야 한다.

Claims (21)

  1. 방법으로서,
    하나 이상의 프로세서에 의해, 하나 이상의 이미지 내의 얼굴의 부분을 검출하는 단계;
    상기 하나 이상의 이미지 내에 묘사된 상기 얼굴의 부분 내의 얼굴 특징물들의 세트를 식별하는 단계;
    상기 얼굴의 부분의 검출과 상기 얼굴 특징물들의 세트를 식별하는 것에 응답하여, 상기 하나 이상의 이미지에 묘사된 상기 얼굴의 부분을 나타내는 하나 이상의 특성을 결정하는 단계;
    상기 하나 이상의 특성 및 상기 얼굴 특징물들의 세트에 기초하여, 상기 하나 이상의 이미지 내에 묘사된 상기 얼굴의 부분을 포함하는 얼굴의 그래픽 모델을 생성하는 단계;
    상기 얼굴의 그래픽 모델에 근접하게 하나 이상의 그래픽 요소를 배치하는 단계; 및
    상기 그래픽 모델 및 상기 하나 이상의 그래픽 요소로부터 표의문자를 생성하는 단계
    를 포함하는 방법.
  2. 제1항에 있어서, 상기 하나 이상의 그래픽 요소를 배치하는 단계는 :
    상기 하나 이상의 그래픽 요소에 포함된 그래픽 요소의 위치 유형이 배경 유형이라고 결정하는 단계; 및
    상기 그래픽 모델의 부분이 상기 그래픽 요소의 적어도 부분을 가리도록 상기 그래픽 모델의 적어도 부분 뒤에 상기 그래픽 요소를 배치하는 단계
    를 더 포함하는 방법.
  3. 제1항에 있어서, 상기 하나 이상의 그래픽 요소를 배치하는 단계는 :
    상기 하나 이상의 그래픽 요소에 포함된 그래픽 요소의 위치 유형이 전경 유형이라고 결정하는 단계; 및
    상기 그래픽 요소가 상기 그래픽 모델의 부분을 가리도록 상기 그래픽 모델의 적어도 부분을 상기 그래픽 요소 뒤에 배치하는 단계
    를 더 포함하는, 방법.
  4. 제1항에 있어서, 상기 그래픽 모델은 3차원 그래픽 모델이고, 상기 하나 이상의 그래픽 요소는 2차원 그래픽 요소이며, 상기 표의문자를 생성하는 단계는 :
    상기 하나 이상의 그래픽 요소를 배치하는 것에 응답하여, 상기 3차원 그래픽 모델을 2차원 그래픽 모델로서 렌더링하는 단계; 및
    상기 표의문자를, 상기 2차원 그래픽 모델과 상기 하나 이상의 그래픽 요소를 결합한 2차원 표의문자로서 렌더링하는 단계
    를 더 포함하는, 방법.
  5. 제1항에 있어서, 상기 표의문자를 생성하는 단계는 :
    상기 하나 이상의 그래픽 요소의 하나 이상의 크기를 결정하는 단계; 및
    상기 하나 이상의 그래픽 요소의 상기 하나 이상의 크기에 기초하여 상기 그래픽 모델을 스케일링하여 스케일링된 그래픽 모델을 생성하는 단계
    를 더 포함하는, 방법.
  6. 제5항에 있어서, 제1 그래픽 요소는 제1 크기를 갖고 제2 그래픽 요소는 제2 크기를 가지며, 상기 표의문자를 생성하는 단계는 :
    상기 제2 그래픽 요소가 우선화된 요소라고 결정하는 단계;
    상기 제2 그래픽 요소의 상기 제2 크기에 기초하여 상기 제1 그래픽 요소의 상기 제1 크기를 스케일링하여 상기 제1 그래픽 요소의 수정된 크기를 생성하는 단계; 및
    상기 제2 그래픽 요소의 상기 제2 크기 및 상기 제1 그래픽 요소의 상기 수정된 크기에 기초하여 상기 그래픽 모델을 스케일링하여 스케일링된 그래픽 모델을 생성하는 단계
    를 더 포함하는, 방법.
  7. 제1항에 있어서,
    상기 표의문자에 대한 타겟 애플리케이션을 결정하는 단계;
    상기 애플리케이션과 연관된 애플리케이션 표의문자들에 대한 하나 이상의 치수를 결정하는 단계; 및
    상기 하나 이상의 치수에 기초하여 상기 표의문자로부터 수정된 표의문자를 생성하는 단계
    를 더 포함하는, 방법.
  8. 제1항에 있어서, 상기 얼굴의 상기 그래픽 모델에 연결된 신체 모델의 적어도 부분을 생성하여 복합 모델을 생성하는 단계를 더 포함하고, 상기 신체 모델은 상기 복합 모델의 적어도 부분을 배치하도록 움직일 수 있는 뼈대 표현을 갖는, 방법.
  9. 제8항에 있어서,
    상기 하나 이상의 그래픽 요소에 대응하는 자세를 결정하는 단계;
    상기 자세를 표현하도록 상기 복합 모델의 상기 뼈대 표현의 하나 이상의 부분을 배치하는 단계; 및
    상기 하나 이상의 그래픽 요소 및 상기 자세로 배치된 상기 복합 모델을 갖는 상기 표의문자를 생성하는 단계
    를 더 포함하는, 방법.
  10. 시스템으로서,
    하나 이상의 프로세서; 및
    상기 하나 이상의 프로세서에 의해 실행될 때, 상기 하나 이상의 프로세서로 하여금 동작들을 수행하게 하는 프로세서 실행가능한 명령어들을 저장한 비일시적인 프로세서-판독가능한 저장 매체
    를 포함하고, 상기 동작들은 :
    상기 하나 이상의 프로세서에 의해, 하나 이상의 이미지 내의 얼굴의 부분을 검출하는 단계;
    상기 하나 이상의 이미지 내에 묘사된 상기 얼굴의 부분 내의 얼굴 특징물들의 세트를 식별하는 단계;
    상기 얼굴의 부분의 검출과 상기 얼굴 특징물들의 세트를 식별하는 것에 응답하여, 상기 하나 이상의 이미지에 묘사된 상기 얼굴의 부분을 나타내는 하나 이상의 특성을 결정하는 단계;
    상기 하나 이상의 특성 및 상기 얼굴 특징물들의 세트에 기초하여, 상기 하나 이상의 이미지 내에 묘사된 상기 얼굴의 부분을 포함하는 얼굴의 그래픽 모델을 생성하는 단계;
    상기 얼굴의 그래픽 모델에 근접하게 하나 이상의 그래픽 요소를 배치하는 단계; 및
    상기 그래픽 모델 및 상기 하나 이상의 그래픽 요소로부터 표의문자를 생성하는 단계
    를 포함하는, 시스템.
  11. 제10항에 있어서, 상기 그래픽 모델은 3차원 그래픽 모델이고, 상기 하나 이상의 그래픽 요소는 2차원 그래픽 요소이며, 상기 표의문자를 생성하는 단계는 :
    상기 하나 이상의 그래픽 요소를 배치하는 것에 응답하여, 상기 3차원 그래픽 모델을 2차원 그래픽 모델로서 렌더링하는 단계; 및
    상기 표의문자를, 상기 2차원 그래픽 모델과 상기 하나 이상의 그래픽 요소를 결합한 2차원 표의문자로서 렌더링하는 단계
    를 더 포함하는, 시스템.
  12. 제10항에 있어서, 상기 표의문자를 생성하는 단계는 :
    상기 하나 이상의 그래픽 요소의 하나 이상의 크기를 결정하는 단계; 및
    상기 하나 이상의 그래픽 요소의 상기 하나 이상의 크기에 기초하여 상기 그래픽 모델을 스케일링하여 스케일링된 그래픽 모델을 생성하는 단계
    를 더 포함하는, 시스템.
  13. 제10항에 있어서, 제1 그래픽 요소는 제1 크기를 갖고 제2 그래픽 요소는 제2 크기를 가지며, 상기 표의문자를 생성하는 단계는 :
    상기 제2 그래픽 요소가 우선화된 요소라고 결정하는 단계;
    상기 제2 그래픽 요소의 상기 제2 크기에 기초하여 상기 제1 그래픽 요소의 상기 제1 크기를 스케일링하여 상기 제1 그래픽 요소의 수정된 크기를 생성하는 단계; 및
    상기 제2 그래픽 요소의 상기 제2 크기 및 상기 제1 그래픽 요소의 상기 수정된 크기에 기초하여 상기 그래픽 모델을 스케일링하여 스케일링된 그래픽 모델을 생성하는 단계
    를 더 포함하는, 시스템.
  14. 제10항에 있어서, 상기 동작들은 :
    상기 표의문자에 대한 타겟 애플리케이션을 결정하는 단계;
    상기 애플리케이션과 연관된 애플리케이션 표의문자들에 대한 하나 이상의 치수를 결정하는 단계; 및
    상기 하나 이상의 치수에 기초하여 상기 표의문자로부터 수정된 표의문자를 생성하는 단계
    를 더 포함하는, 시스템.
  15. 제10항에 있어서, 상기 동작들은 :
    상기 얼굴의 상기 그래픽 모델에 연결된 신체 모델의 적어도 부분을 생성하여 복합 모델을 생성 ―상기 신체 모델은 상기 복합 모델의 적어도 부분을 배치하도록 움직일 수 있는 뼈대 표현을 가짐― 하는 단계;
    상기 하나 이상의 그래픽 요소에 대응하는 자세를 결정하는 단계;
    상기 자세를 표현하도록 상기 복합 모델의 상기 뼈대 표현의 하나 이상의 부분을 배치하는 단계; 및
    상기 하나 이상의 그래픽 요소 및 상기 자세로 배치된 상기 복합 모델을 갖는 상기 표의문자를 생성하는 단계
    를 더 포함하는, 시스템.
  16. 머신의 프로세서에 의해 실행될 때, 상기 머신으로 하여금 동작들을 수행하게 하는 프로세서 실행가능한 명령어들을 저장한 비일시적인 프로세서-판독가능한 저장 매체로서, 상기 동작들은 :
    하나 이상의 프로세서에 의해, 하나 이상의 이미지 내의 얼굴의 부분을 검출하는 단계;
    상기 하나 이상의 이미지 내에 묘사된 상기 얼굴의 부분 내의 얼굴 특징물들의 세트를 식별하는 단계;
    상기 얼굴의 부분의 검출과 상기 얼굴 특징물들의 세트를 식별하는 것에 응답하여, 상기 하나 이상의 이미지에 묘사된 상기 얼굴의 부분을 나타내는 하나 이상의 특성을 결정하는 단계;
    상기 하나 이상의 특성 및 상기 얼굴 특징물들의 세트에 기초하여, 상기 하나 이상의 이미지 내에 묘사된 상기 얼굴의 부분을 포함하는 얼굴의 그래픽 모델을 생성하는 단계;
    상기 얼굴의 그래픽 모델에 근접하게 하나 이상의 그래픽 요소를 배치하는 단계; 및
    상기 그래픽 모델 및 상기 하나 이상의 그래픽 요소로부터 표의문자를 생성하는 단계
    를 포함하는, 비일시적인 프로세서-판독가능한 저장 매체.
  17. 제16항에 있어서, 상기 그래픽 모델은 3차원 그래픽 모델이고, 상기 하나 이상의 그래픽 요소는 2차원 그래픽 요소이며, 상기 표의문자를 생성하는 단계는 :
    상기 하나 이상의 그래픽 요소를 배치하는 것에 응답하여, 상기 3차원 그래픽 모델을 2차원 그래픽 모델로서 렌더링하는 단계; 및
    상기 표의문자를, 상기 2차원 그래픽 모델과 상기 하나 이상의 그래픽 요소를 결합한 2차원 표의문자로서 렌더링하는 단계
    를 더 포함하는, 비일시적인 프로세서-판독가능한 저장 매체.
  18. 제16항에 있어서, 상기 표의문자를 생성하는 단계는 :
    상기 하나 이상의 그래픽 요소의 하나 이상의 크기를 결정하는 단계; 및
    상기 하나 이상의 그래픽 요소의 상기 하나 이상의 크기에 기초하여 상기 그래픽 모델을 스케일링하여 스케일링된 그래픽 모델을 생성하는 단계
    를 더 포함하는, 비일시적인 프로세서-판독가능한 저장 매체.
  19. 제16항에 있어서, 제1 그래픽 요소는 제1 크기를 갖고 제2 그래픽 요소는 제2 크기를 가지며, 상기 표의문자를 생성하는 단계는 :
    상기 제2 그래픽 요소가 우선화된 요소라고 결정하는 단계;
    상기 제2 그래픽 요소의 상기 제2 크기에 기초하여 상기 제1 그래픽 요소의 상기 제1 크기를 스케일링하여 상기 제1 그래픽 요소의 수정된 크기를 생성하는 단계; 및
    상기 제2 그래픽 요소의 상기 제2 크기 및 상기 제1 그래픽 요소의 상기 수정된 크기에 기초하여 상기 그래픽 모델을 스케일링하여 스케일링된 그래픽 모델을 생성하는 단계
    를 더 포함하는, 비일시적인 프로세서-판독가능한 저장 매체.
  20. 제16항에 있어서, 상기 동작들은 :
    상기 얼굴의 상기 그래픽 모델에 연결된 신체 모델의 적어도 부분을 생성하여 복합 모델을 생성 ―상기 신체 모델은 상기 복합 모델의 적어도 부분을 배치하도록 움직일 수 있는 뼈대 표현을 가짐― 하는 단계;
    상기 하나 이상의 그래픽 요소에 대응하는 자세를 결정하는 단계;
    상기 자세를 표현하도록 상기 복합 모델의 상기 뼈대 표현의 하나 이상의 부분을 배치하는 단계; 및
    상기 하나 이상의 그래픽 요소 및 상기 자세로 배치된 상기 복합 모델을 갖는 상기 표의문자를 생성하는 단계
    를 더 포함하는, 비일시적인 프로세서-판독가능한 저장 매체.
  21. 머신 판독가능한 매체로서, 머신의 하나 이상의 프로세서에 의해 실행될 때, 상기 머신으로 하여금 제1항 내지 제9항 중 어느 한 항의 방법을 실행하게 하는 프로세서 실행가능한 명령어들을 반송하는 머신 판독가능한 매체.
KR1020197002736A 2016-06-30 2017-06-30 아바타 기반의 표의문자 생성 KR102241428B1 (ko)

Priority Applications (3)

Application Number Priority Date Filing Date Title
US15/199,472 2016-06-30
US15/199,472 US10360708B2 (en) 2016-06-30 2016-06-30 Avatar based ideogram generation
PCT/US2017/040447 WO2018006053A1 (en) 2016-06-30 2017-06-30 Avatar based ideogram generation

Related Child Applications (1)

Application Number Title Priority Date Filing Date
KR1020217010821A Division KR20210043021A (ko) 2016-06-30 2017-06-30 아바타 기반의 표의문자 생성

Publications (2)

Publication Number Publication Date
KR20190022811A true KR20190022811A (ko) 2019-03-06
KR102241428B1 KR102241428B1 (ko) 2021-04-16

Family

ID=

Also Published As

Publication number Publication date
US10984569B2 (en) 2021-04-20
WO2018006053A1 (en) 2018-01-04
EP3479292A1 (en) 2019-05-08
US20180005420A1 (en) 2018-01-04
CN109643370A (zh) 2019-04-16
US10360708B2 (en) 2019-07-23
US20190287287A1 (en) 2019-09-19

Similar Documents

Publication Publication Date Title
US10872276B2 (en) Neural network for object detection in images
US10262250B1 (en) Facial patterns for optical barcodes
KR20180129905A (ko) 이변형 지오-펜싱 시스템
KR102111446B1 (ko) 정황 관련 미디어 증강의 생성
US20190069147A1 (en) Device location based on machine learning classifications
KR102052018B1 (ko) 증강 현실 시스템에서의 이미지 기반 추적
KR102018143B1 (ko) 광학 바코드에 대한 맞춤형 기능 패턴들
KR20200140405A (ko) 전자 메시지들 내의 커스터마이즈된 아바타들의 생성 및 디스플레이
KR102003813B1 (ko) 자동화된 3차원 모델 생성
US20200410773A1 (en) Local augmented reality persistent sticker objects
KR20200126434A (ko) 단기 그룹 채팅을 위한 시스템 및 방법
KR102196486B1 (ko) 콘텐츠 모음 네비게이션 및 오토포워딩
US10242503B2 (en) Surface aware lens
US20210073249A1 (en) Geolocation-based pictographs
KR20200078705A (ko) 맞춤화된 전자 메시징 그래픽의 디스플레이
CN107592839B (zh) 细粒度分类
US10678340B2 (en) System and method for providing user interface tools
KR102143826B1 (ko) 자동화된 아바타 생성
US10515454B2 (en) Image segmentation and modification of a video stream
KR20190141777A (ko) 혼합 현실 환경에서의 콘텍스트관련 애플리케이션들
US10657695B2 (en) Animated chat presence
US10198626B2 (en) Neural networks for facial modeling
US10559107B1 (en) Coded vision system
US20180210628A1 (en) Three-dimensional interaction system
KR20200092426A (ko) 비디오 스트림에서 객체 모델링 및 대체

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
AMND Amendment
E601 Decision to refuse application
X091 Application refused [patent]
AMND Amendment
X701 Decision to grant (after re-examination)