KR102009426B1 - 사용자의 인터랙션에 따라 제어 또는 합성된 콘텐츠를 제공하는 방법 및 장치 - Google Patents

사용자의 인터랙션에 따라 제어 또는 합성된 콘텐츠를 제공하는 방법 및 장치 Download PDF

Info

Publication number
KR102009426B1
KR102009426B1 KR1020170168638A KR20170168638A KR102009426B1 KR 102009426 B1 KR102009426 B1 KR 102009426B1 KR 1020170168638 A KR1020170168638 A KR 1020170168638A KR 20170168638 A KR20170168638 A KR 20170168638A KR 102009426 B1 KR102009426 B1 KR 102009426B1
Authority
KR
South Korea
Prior art keywords
content
user
character
user terminal
interaction
Prior art date
Application number
KR1020170168638A
Other languages
English (en)
Other versions
KR20190068341A (ko
Inventor
정진
이승훈
김여정
송창근
임승택
김상현
박경렬
김형규
박상민
안희재
최가인
임영채
한지웅
Original Assignee
네이버웹툰 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 네이버웹툰 주식회사 filed Critical 네이버웹툰 주식회사
Priority to KR1020170168638A priority Critical patent/KR102009426B1/ko
Priority to CN201810886244.2A priority patent/CN109905592B/zh
Priority to US16/213,620 priority patent/US11019410B2/en
Publication of KR20190068341A publication Critical patent/KR20190068341A/ko
Application granted granted Critical
Publication of KR102009426B1 publication Critical patent/KR102009426B1/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/85Assembly of content; Generation of multimedia applications
    • H04N21/854Content authoring
    • H04N21/8545Content authoring for generating interactive applications
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/265Mixing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04842Selection of displayed objects or displayed text elements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/0485Scrolling or panning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/167Audio in a user interface, e.g. using voice commands for navigating, audio feedback
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/60Editing figures and text; Combining figures or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/20Scenes; Scene-specific elements in augmented reality scenes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • G06V40/165Detection; Localisation; Normalisation using facial parts and geometric relationships
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2200/00Indexing scheme for image data processing or generation, in general
    • G06T2200/24Indexing scheme for image data processing or generation, in general involving graphical user interfaces [GUIs]

Abstract

콘텐츠 제공 서버에 의해 제공되는 콘텐츠의 소정의 부분 콘텐츠가 사용자 단말에 제공될 때, 사용자의 인터랙션에 기반하여 상기 부분 콘텐츠를 제어하거나 부분 콘텐츠에 새로운 콘텐츠를 합성하고, 제어/합성된 콘텐츠를 노출하여 사용자 단말에 제공하는 방법 및 장치가 제공된다.

Description

사용자의 인터랙션에 따라 제어 또는 합성된 콘텐츠를 제공하는 방법 및 장치{METHOD AND APPARATUS FOR PROVIDING CONTENTS CONTROLLED OR SYNTHESIZED IN ACCORDANCE WITH AN INTERACTION OF USER}
본 개시는 사용자의 인터랙션에 따라 제어 또는 합성된 콘텐츠를 제공하는 방법 및 장치에 관한 것으로, 보다 자세하게는, 순차적으로 노출될 때 의미적 연관성을 갖는 복수의 컷들을 포함하는 콘텐츠를 제공함에 있어서, 사용자의 인터랙션에 따라 제어 또는 합성된 콘텐츠를 제공하는 방법 및 장치와 관련된다.
최근 만화 및 카툰과 같은 콘텐츠를 온라인으로 제공하는 소위 웹툰 콘텐츠 제공 서비스에 대한 관심이 높아지고 있다. 이러한, 웹툰 콘텐츠는 인물, 동물, 사물 등의 모습을 캐릭터로서 표현하여 나타내고, 지문이나 대사를 통해 유머나 풍자 또는 일정한 줄거리를 담음으로써 독자들에게 읽을거리를 제공한다.
이러한 웹툰 콘텐츠는 독자가 해당 웹툰 콘텐츠를 스크롤링하는 것에 의해 독자에게 읽힐 수 있다. 웹툰 콘텐츠는 복수의 컷들을 포함하며, 독자는 스크롤링을 통해 복수의 컷들을 순차적으로 확인함으로써 웹툰 콘텐츠를 열람할 수 있다.
그러나, 이러한 웹툰 콘텐츠는 콘텐츠 제공자로부터 독자에게 일방적으로 제공되는 것으로, 독자는 제공된 웹툰 콘텐츠를 단순히 스크롤링하는 것을 통해 열람할 수밖에 없고, 해당 웹툰 콘텐츠에 대해 새로운 콘텐츠를 합성하거나 웹툰 콘텐츠에 포함된 캐릭터와 인터랙션(상호작용)할 수 없다.
따라서, 사용자가 웹툰 콘텐츠를 비롯한 콘텐츠를 열람함에 있어서, 사용자의 인터랙션에 따라 제어 또는 합성된 콘텐츠를 제공할 수 있도록 하는 방법 및 장치가 요구된다.
한편, 한국공개특허 제10-2011-0123393호(공개일 2011년 11월 15일)에는 온라인 상의 직거래를 통해 모바일 디지털 콘텐츠 형태의 만화를 제공하는 기술이 개시되어 있다.
상기에서 설명된 정보는 단지 이해를 돕기 위한 것이며, 종래 기술의 일부를 형성하지 않는 내용을 포함할 수 있으며, 종래 기술이 통상의 기술자에게 제시할 수 있는 것을 포함하지 않을 수 있다.
일 실시예는, 콘텐츠 제공 서버에 의해 제공되는 콘텐츠에 대해, 해당 콘텐츠의 소정의 부분 콘텐츠가 사용자 단말에 제공될 때, 사용자의 인터랙션에 기반하여 해당 부분 콘텐츠를 제어하거나, 해당 부분 콘텐츠에 새로운 콘텐츠를 합성하여 제공하는 방법을 제공할 수 있다.
일 실시예는, 복수의 컷들을 포함하는 콘텐츠의 소정의 컷이 사용자 단말에 제공될 때, 상기 소정의 컷과 연관된 미션에 따라, 사용자의 인터랙션을 감지하고 상기 소정의 컷에 새로운 콘텐츠를 합성하거나 소정의 컷이 포함하는 콘텐츠를 제어하는 방법을 제공할 수 있다.
일 측면에 있어서, 사용자 단말을 통한 콘텐츠 제공 방법에 있어서, 콘텐츠 제공 서버에 의해 제공되는 제1 콘텐츠에 대해, 상기 제1 콘텐츠 중 소정의 부분 콘텐츠가 상기 사용자 단말에 제공될 때, 상기 사용자 단말을 통한 사용자의 인터랙션에 기반하여 상기 부분 콘텐츠를 제어하거나, 상기 사용자의 인터랙션에 기반하여 생성된 제2 콘텐츠를 상기 부분 콘텐츠에 합성하는 단계 및 상기 제어된 부분 콘텐츠 또는 상기 제2 콘텐츠가 합성된 합성 콘텐츠를 노출하는 단계를 포함하는, 콘텐츠 제공 방법이 제공된다.
상기 제1 콘텐츠는 순차적으로 노출될 때 의미적 연관성을 갖는 복수의 컷들을 포함하는 콘텐츠이고, 상기 복수의 컷들의 각각은 적어도 하나의 레이어를 포함할 수 있다.
상기 부분 콘텐츠는 상기 복수의 컷들 중 상기 사용자의 인터랙션에 기반한 제어 또는 상기 제2 콘텐츠의 합성이 허용되는 소정의 컷일 수 있다.
상기 복수의 컷들은 상기 사용자 단말에 대한 스크롤링을 통해 순차적으로 노출될 수 있다.
상기 소정의 부분 콘텐츠가 상기 사용자 단말에 제공될 때는 상기 소정의 컷이 상기 사용자 단말의 화면의 하단부에서 노출되기 시작할 때일 수 있다.
상기 소정의 컷에 해당하는 상기 제어된 부분 콘텐츠 또는 상기 제2 콘텐츠가 합성된 합성 콘텐츠가 노출된 후, 상기 제1 콘텐츠의 다음 컷은 상기 화면의 상단부에서부터 노출될 수 있다.
상기 제어된 부분 콘텐츠 또는 상기 제2 콘텐츠가 합성된 합성 콘텐츠는 상기 사용자 단말의 화면에 풀 스크린으로 노출될 수 있다.
상기 제어된 부분 콘텐츠 또는 상기 합성 콘텐츠의 적어도 일부는 상기 사용자 단말 또는 상기 콘텐츠 제공 서버에 저장될 수 있다.
상기 부분 콘텐츠는 파노라마 영상(image) 또는 360도 영상을 포함할 수 있다.
상기 부분 콘텐츠를 제어하거나, 상기 제2 콘텐츠를 상기 부분 콘텐츠에 합성하는 단계는, 상기 사용자의 인터랙션에 기반하여, 상기 사용자 단말의 화면에 노출되는 상기 파노라마 영상 또는 360도 영상의 시점을 제어하는 단계를 포함할 수 있다.
상기 사용자의 인터랙션은 상기 부분 콘텐츠와 연관된 텍스트의 입력, 터치 또는 제스처의 입력, 음성 입력, 영상(image)의 촬영 또는 영상의 입력, 및 상기 사용자 단말에 대한 물리적 조작 중 적어도 하나일 수 있다.
상기 사용자의 인터랙션은 상기 부분 콘텐츠와 연관된 텍스트의 입력일 수 있다.
상기 부분 콘텐츠를 제어하거나, 상기 제2 콘텐츠를 상기 부분 콘텐츠에 합성하는 단계는, 상기 입력된 텍스트를 상기 소정의 컷 내의 텍스트의 적어도 일부로서 합성하는 단계를 더 포함할 수 있다.
상기 사용자의 인터랙션은 터치 또는 제스처의 입력일 수 있다.
상기 부분 콘텐츠를 제어하거나, 상기 제2 콘텐츠를 상기 부분 콘텐츠에 합성하는 단계는, 상기 소정의 컷과 연관된 미션에 따라, 상기 부분 콘텐츠에 대응하여 노출된 영상의 일부분에 대한 상기 터치 또는 제스처의 입력을 감지하는 단계 및 상기 터치 또는 제스처의 입력이 감지된 상기 영상의 일부분을 시각적으로 변경하는 단계를 포함할 수 있다.
상기 부분 콘텐츠를 제어하거나, 상기 제2 콘텐츠를 상기 부분 콘텐츠에 합성하는 단계는, 상기 미션 또는 입력되어야 하는 사용자의 인터랙션에 대한 가이드 정보를 제공하는 단계를 더 포함할 수 있다.
상기 사용자의 인터랙션은 영상의 촬영 또는 영상의 입력일 수 있다.
상기 부분 콘텐츠를 제어하거나, 상기 제2 콘텐츠를 상기 부분 콘텐츠에 합성하는 단계는, 상기 사용자 단말의 카메라를 사용하여 상기 사용자를 촬영하거나 사용자의 단말로부터 사용자의 영상을 입력 받는 단계; 상기 촬영 또는 입력된 사용자의 영상에서 얼굴을 검출하고, 상기 얼굴에 대응하는 캐릭터를 생성하는 단계; 및 상기 생성된 캐릭터를 상기 부분 콘텐츠 또는 제1 콘텐츠의 적어도 일부에 합성하는 단계를 포함할 수 있다.
상기 캐릭터는, 얼굴을 구성하는 각 부위에 대한 복수의 후보들 중 상기 사용자의 얼굴의 부위와 유사한 것으로 선택된 후보를 사용하여 생성되고, 상기 제1 콘텐츠에 포함된 다른 캐릭터와 유사한 스타일을 가질 수 있다.
상기 생성된 캐릭터는 하나의 레이어를 구성하고, 상기 소정의 컷에 포함된 레이어에 중첩 또는 합성될 수 있다.
상기 부분 콘텐츠는 캐릭터를 포함할 수 있다.
상기 부분 콘텐츠를 제어하거나, 상기 제2 콘텐츠를 상기 부분 콘텐츠에 합성하는 단계는, 상기 사용자 단말의 카메라에 의해 촬영되는 영상을 상기 캐릭터에 대한 배경으로서 합성하는 단계를 포함할 수 있다.
상기 부분 콘텐츠를 제어하거나, 상기 제2 콘텐츠를 상기 부분 콘텐츠에 합성하는 단계는, 상기 사용자의 인터랙션에 기반하여, 상기 사용자 단말의 화면에 노출되는 상기 배경 및 상기 캐릭터에 대한 시점을 제어하는 단계를 더 포함할 수 있다.
상기 사용자 단말의 화면에는 상기 배경 및 상기 캐릭터 중 적어도 하나의 일부가 노출되고, 상기 사용자의 인터랙션에 따라, 노출되는 상기 배경 또는 상기 캐릭터의 부분이 변경될 수 있다.
상기 사용자의 인터랙션에 따라, 상기 캐릭터와 연관된 텍스트의 노출 위치가 변경되고, 상기 사용자에 대응하는 캐릭터와 연관된 텍스트의 노출 위치는 유지될 수 있다.
상기 부분 콘텐츠를 제어하거나, 상기 제2 콘텐츠를 상기 부분 콘텐츠에 합성하는 단계는, 상기 사용자 단말의 카메라를 사용하여, 상기 사용자와 상기 배경 및 상기 캐릭터의 적어도 일부를 촬영하는 단계; 및 상기 촬영된 영상의 배경을 상기 제1 콘텐츠와 연관된 배경으로 변경하고, 상기 사용자를 상기 사용자에 대응하는 캐릭터로 변경함으로써 합성 영상을 생성하는 단계를 포함할 수 있다.
상기 콘텐츠 제공 방법은 상기 사용자의 인터랙션이 상기 부분 콘텐츠의 제어나, 상기 제2 콘텐츠의 생성에 있어서 충분하지 않을 경우, 해당 불충분을 통지할 수 있다.
다른 일 측면에 있어서, 콘텐츠 제공 장치에 있어서, 콘텐츠 제공 서버에 의해 제공되는 제1 콘텐츠를 수신하는 통신부, 상기 제1 콘텐츠 중 소정의 부분 콘텐츠가 상기 사용자 단말에 제공될 때, 상기 사용자 단말을 통한 사용자의 인터랙션에 기반하여 상기 부분 콘텐츠를 제어하거나, 상기 사용자의 인터랙션에 기반하여 생성된 제2 콘텐츠를 상기 부분 콘텐츠에 합성하는 콘텐츠 생성/제어부 및 상기 제어된 부분 콘텐츠 또는 상기 제2 콘텐츠가 합성된 합성 콘텐츠를 노출하는 표시부를 포함하는, 콘텐츠 제공 장치가 제공된다.
또 다른 일 측면에 있어서, 사용자 단말을 통한 콘텐츠 제공 방법에 있어서, 콘텐츠 제공 서버에 의해 제공되는 제1 콘텐츠에 대해, 스크롤링을 통해 상기 제1 콘텐츠 중 소정의 부분 콘텐츠가 상기 사용자 단말에 제공될 때, 상기 부분 콘텐츠에 포함된 파노라마 영상(image) 또는 360도 영상의 적어도 일부를 상기 사용자 단말의 화면에 풀 스크린으로 노출하는 단계, 상기 사용자 단말을 통한 사용자의 인터랙션에 기반하여 상기 파노라마 영상(image) 또는 360도 영상의 시점을 제어하는 단계 및 상기 시점이 제어된 파노라마 영상 또는 360도 영상을 상기 사용자 단말의 화면에 풀 스크린으로 노출하는 단계를 포함하는, 콘텐츠 제공 방법이 제공된다.
웹툰 콘텐츠와 같이, 복수의 컷들을 포함하는 콘텐츠를 제공함에 있어서, 소정의 컷이 사용자 단말에 제공될 때, 사용자의 인터랙션에 따라 상기 소정의 컷에 새로운 콘텐츠를 합성하거나 소정의 컷이 포함하는 콘텐츠를 제어하고, 합성/제어된 콘텐츠를 제공함으로써, 웹툰 콘텐츠에 대한 사용자의 흥미를 높일 수 있다.
사용자의 인터랙션에 따라 콘텐츠의 일부인 부분 콘텐츠에 새로운 콘텐츠를 합성하거나 상기 부분 콘텐츠를 제어되고, 합성/제어된 콘텐츠가 제공됨으로써, 사용자의 인터랙션에 기반한 개인화된 콘텐츠가 제공될 수 있다.
웹툰 콘텐츠와 같이, 복수의 컷들을 포함하는 콘텐츠를 제공함에 있어서, 소정의 컷에 사용자의 인터랙션에 기반한 새로운 콘텐츠가 합성됨으로써 사용자가 상기 웹툰 콘텐츠의 스토리에 개입할 수 있다.
도 1은 일 실시예에 따른, 웹툰 콘텐츠와 같은 콘텐츠를 제공함에 있어서, 사용자의 인터랙션에 기반하여 콘텐츠를 제어하거나 합성 콘텐츠를 생성하여 제공하는 방법을 나타낸다.
도 2는 일 실시예에 따른, 사용자에게 콘텐츠를 제공하기 위해 사용되는 서버와 사용자 단말을 나타낸다.
도 3은 일 실시예에 따른, 사용자의 인터랙션에 따라 제어 또는 합성된 콘텐츠를 제공하는 방법을 나타내는 흐름도이다.
도 4는 일 예에 따른, 사용자의 인터랙션에 기반하여, 제1 콘텐츠의 소정의 부분 콘텐츠를 제어하거나 부분 콘텐츠에 제2 콘텐츠를 합성하는 방법을 나타내는 흐름도이다.
도 5는 일 예에 따른, 사용자의 인터랙션에 기반하여, 제1 콘텐츠의 소정의 부분 콘텐츠에 제2 콘텐츠로서 사용자에 대응하는 캐릭터 생성하여 제1 콘텐츠에 합성하는 방법을 나타내는 흐름도이다.
도 6는 일 예에 따른, 제1 콘텐츠의 소정의 부분 콘텐츠에 대해, 촬영되는 영상을 합성하고, 사용자의 인터랙션에 기반하여, 촬영된 영상이 합성된 부분 콘텐츠를 제어하거나 촬영된 영상이 합성된 부분 콘텐츠에 새로운 콘텐츠(제2 콘텐츠)를 합성하는 방법을 나타내는 흐름도이다.
도 7은 일 예에 따른, 제1 콘텐츠의 소정의 부분 콘텐츠를 제어하거나 부분 콘텐츠에 제2 콘텐츠를 합성하기 위한 사용자의 인터랙션이 충분하지 않은 경우, 이를 통지하는 방법을 나타내는 흐름도이다.
도 8은 일 예에 따른, 사용자의 인터랙션에 기반하여, 제1 콘텐츠의 소정의 부분 콘텐츠로서 파노라마 영상 또는 360도 영상의 시점을 제어하고, 시점이 제어된 콘텐츠를 제공하는 방법을 나타내는 흐름도이다.
도 9 내지 16은 사용자의 인터랙션에 기반하여, 제1 콘텐츠의 소정의 부분 콘텐츠를 제어하거나 상기 부분 콘텐츠에 새로운 콘텐츠를 합성함으로써 제어/합성된 콘텐츠를 제공하는 구체적인 예시들을 나타낸다.
이하, 본 발명의 실시예를 첨부된 도면을 참조하여 상세하게 설명한다.
도 1은 일 실시예에 따른, 웹툰 콘텐츠와 같은 콘텐츠를 제공함에 있어서, 사용자의 인터랙션에 기반하여 콘텐츠를 제어하거나 합성 콘텐츠를 생성하여 제공하는 방법을 나타낸다.
도 1에서는 콘텐츠 제공 서버로부터 사용자 단말(100)에 제공된 제1 콘텐츠(102)를 사용자 단말(100)을 통해 열람함에 있어서, 제1 콘텐츠(102)의 소정의 부분 콘텐츠(105)가 사용자 단말(100)에 제공될 때, 사용자 단말(100)을 통한 사용자의 인터랙션에 기반하여, 부분 콘텐츠(105)를 제어하거나, 사용자의 인터랙션에 기반하여 생성되는 제2 콘텐츠를 부분 콘텐츠(105)에 합성하는 방법이 설명된다.
사용자 단말(100)에 제1 콘텐츠(102)가 제공될 때 부분 콘텐츠(105)가 제공되는 시점에, 제어된 부분 콘텐츠(105) 또는 제2 콘텐츠가 합성된 부분 콘텐츠(105)가 사용자 단말(100)에 노출될 수 있다.
제1 콘텐츠는 순차적으로 노출될 때 의미적 연관성을 갖는 복수의 컷들(C1, C2, ...)을 포함하는 콘텐츠일 수 있다. 예컨대, 제1 콘텐츠는 복수의 컷들(C1, C2, ...)은 순차적으로 배열되어 노출될 때 컷들(C1, C2, ...)이 유기적으로 연결되는 스토리를 형성할 수 있다. 컷들(C1, C2, ...)을 순차적으로 열람하는 사용자는 제1 콘텐츠의 스토리를 이해할 수 있다. 예컨대, 제1 콘텐츠는 웹툰 콘텐츠에 대응할 수 있다. 웹툰 콘텐츠는 유/무선 네트워크를 기반으로 인터넷을 통해 제공되는 디지털 콘텐츠 형태의 만화일 수 있다.
제1 콘텐츠(102)의 컷들(C1, C2, ...)이 사용자 단말(100)에 제공될 때, 사용자는 사용자 단말(100)의 화면을 스크롤링함으로써 컷들(C1, C2, ...)을 순차적으로 열람할 수 있다.
스크롤링을 통해 제1 콘텐츠(102)를 열람할 때, 부분 콘텐츠(105)에 대응하는 컷(C3)이 사용자 단말(100)의 화면에 노출되는 시점에 제어된 부분 콘텐츠(105) 또는 제2 콘텐츠가 합성된 부분 콘텐츠(105)가 사용자 단말(100)에 노출될 수 있다. 컷(C3)은 복수의 컷들(C1, C2, ...) 중 사용자의 인터랙션에 기반한 제어 또는 상기 제2 콘텐츠의 합성이 허용되는 소정의 컷일 수 있다.
예컨대, 부분 콘텐츠(105)에 대응하는 컷(C3)을 스크롤링하는 시점에, 사용자 단말(100)은 부분 콘텐츠(105)와 연관된 소정의 미션을 수행할 것을 요청하는 통지를 수신할 수 있다. 사용자 단말(100)의 사용자는 상기 통지에 응답하여 소정의 인터랙션을 사용자 단말(100)에 입력할 수 있다. 입력된 인터랙션에 따라 제어된 부분 콘텐츠(105) 또는 제2 콘텐츠가 합성된 부분 콘텐츠(105)는 부분 콘텐츠(105)가 사용자 단말에 노출되는 시점(즉, 컷(C3)이 사용자 단말(100)에 노출되는 위치)에서 사용자 단말(100)의 화면에 노출될 수 있다.
따라서, 웹툰 콘텐츠에 대응하는 제1 콘텐츠(102)를 열람하는 사용자는, 웹툰 콘텐츠의 특정 컷(C3)을 열람할 때, 자신의 인터랙션에 따라 제어되거나 추가적인 콘텐츠가 합성된 콘텐츠를 열람할 수 있게 된다.
실시예를 통해서는 소정의 컷이 포함하는 콘텐츠를 제어하고, 합성/제어된 콘텐츠를 제공함으로써, 웹툰 콘텐츠에 대한 사용자의 흥미를 높일 수 있다. 이를 통해, 사용자의 인터랙션에 기반하여 개인화된 웹툰 콘텐츠가 사용자에게 제공될 수 있고, 사용자는 웹툰 콘텐츠의 스토리에 개입할 수 있게 된다.
제1 콘텐츠는, 사용자의 인터랙션에 따라 완성된 웹툰 콘텐츠로서 사용자에게 제공될 수 있다는 점에서, 미완성의 웹툰 콘텐츠에 대응할 수 있다.
사용자의 인터랙션에 기반하여 콘텐츠를 제어하거나 합성 콘텐츠를 생성하여 제공하는 보다 구체적인 방법에 대해서는 후술될 도 2 내지 도 16을 참조하여 더 자세하게 설명된다.
도 2는 일 실시예에 따른, 사용자에게 콘텐츠를 제공하기 위해 사용되는 서버와 사용자 단말을 나타낸다.
도 1을 참조하여 전술된 제1 콘텐츠(102)를 사용자 단말(100)에 제공하는 콘텐츠 제공 서버(콘텐츠 제공 시스템)(200)와, 제1 콘텐츠(102) 및 합성/제어된 콘텐츠를 노출하여 사용자에게 제공하는 사용자 단말(100)에 대해 더 자세하게 설명한다.
콘텐츠 제공 서버(200)는 클라이언트(client)인 사용자 단말(100)에 대해 제1 콘텐츠(102)에 해당하는 웹툰 콘텐츠를 제공하는 서비스 플랫폼일 수 있다. 콘텐츠 제공 서버(200)는 사용자 단말(100) 상에 설치된 어플리케이션과 통신하는 것을 통해 사용자 단말(100)에 제1 콘텐츠(102)를 제공하는 형태로 구현될 수도 있고, 클라이언트-서버 환경에서 웹툰 서비스를 제공하는 서비스 플랫폼에 포함되는 형태로 구현될 수도 있다.
통신부(210)는 콘텐츠 제공 서버(200)가 다른 서버나 사용자 단말(100)과 통신하기 위한 장치일 수 있다. 말하자면, 통신부(210)는 다른 서버나 사용자 단말(100)에 대해 데이터 및/또는 정보를 전송/수신하는, 콘텐츠 제공 서버(200)의 네트워크 인터페이스 카드, 네트워크 인터페이스 칩 및 네트워킹 인터페이스 포트 등과 같은 하드웨어 모듈 또는 네트워크 디바이스 드라이버(driver) 또는 네트워킹 프로그램과 같은 소프트웨어 모듈일 수 있다.
제어부(220)는 콘텐츠 제공 서버(200)의 구성 요소들을 관리할 수 있고, 사용자 단말(100)에 대해 제1 콘텐츠(102)를 제공함에 있어서 사용하는 프로그램 또는 어플리케이션을 실행할 수 있고, 상기 프로그램 또는 어플리케이션의 실행 및 데이터의 처리 등에 필요한 연산을 처리할 수 있다. 또한, 제어부(220)는 다른 서버 및 사용자 단말(100)로부터 수신된 데이터를 처리하도록 구성될 수 있다. 제어부(220)는 콘텐츠 제공 서버(200)의 적어도 하나의 프로세서 또는 프로세서 내의 적어도 하나의 코어(core)일 수 있다.
사용자 단말(100)은 PC(personal computer), 노트북 컴퓨터(laptop computer), 스마트폰(smart phone), 태블릿(tablet), 웨어러블 컴퓨터(wearable computer) 등을 포함하여, 콘텐츠 제공 서버(200)과 관련된 웹/모바일 사이트의 접속 또는 제1 콘텐츠(102)의 수신 및 열람을 위한 어플리케이션/프로그램의 설치 및 실행이 가능한 모든 단말 장치를 의미할 수 있다. 사용자 단말(100)은 웹/모바일 사이트 또는 전용 어플리케이션/프로그램의 제어 하에 서비스 화면 구성, 데이터 입력, 데이터 송수신, 데이터 저장 등 서비스 전반의 동작을 수행할 수 있다.
사용자 단말(100)은 사용자에게 콘텐츠를 제공하는 장치에 해당한다는 점에서 콘텐츠 제공 장치에 대응할 수 있다.
사용자 단말(100)은 통신부(110), 제어부(120), 표시부(130) 및 카메라(140)를 포함할 수 있다.
통신부(110)은 사용자 단말(100)이 다른 서버나 사용자 단말과 통신하기 위한 장치일 수 있다. 말하자면, 통신부(110)는 다른 서버나 사용자 단말에 대해 데이터 및/또는 정보를 전송/수신하는, 사용자 단말(100)의 네트워크 인터페이스 카드, 네트워크 인터페이스 칩 및 네트워킹 인터페이스 포트 등과 같은 하드웨어 모듈 또는 네트워크 디바이스 드라이버(driver) 또는 네트워킹 프로그램과 같은 소프트웨어 모듈일 수 있다. 통신부(110)는 콘텐츠 제공 서버(200)에 의해 제공되는 제1 콘텐츠(102)를 수신할 수 있다.
제어부(120)는 사용자 단말(100)의 구성 요소들을 관리할 수 있고, 사용자 단말(100)이 사용하는 프로그램 또는 어플리케이션을 실행할 수 있다. 예컨대, 제어부(120)는, 콘텐츠 제공 서버(200)에 의해 제공되는 제1 콘텐츠(102)의 수신 및 열람을 위한 어플리케이션/프로그램을 설치 및 실행할 수 있고, 상기 프로그램 또는 어플리케이션의 실행 및 데이터의 처리 등에 필요한 연산을 처리할 수 있다. 제어부(120)는 사용자 단말(100)의 적어도 하나의 프로세서 또는 프로세서 내의 적어도 하나의 코어(core)일 수 있다.
제어부(120)는 콘텐츠 제공 서버(200)로부터의 제1 콘텐츠(102) 중 소정의 부분 콘텐츠(105)가 사용자 단말(100)에 제공될 때, 사용자 단말(100)을 통한 사용자의 인터랙션에 기반하여 부분 콘텐츠(105)를 제어하거나, 사용자의 인터랙션에 기반하여 생성된 제2 콘텐츠를 부분 콘텐츠(105)에 합성하는 콘텐츠 생성/제어부(125)를 포함할 수 있다.
콘텐츠 생성/제어부(125)의 구체적인 기능 및 동작에 대해서는, 후술될 도 3 내지 도 16을 참조하여 더 자세하게 설명한다. 콘텐츠 생성/제어부(125)는 적어도 하나의 프로세서 내에서 구현될 수 있는 바, 콘텐츠 생성/제어부(125)의 기능 및 동작은 적어도 하나의 프로세서에 의해 실행될 수 있다.
표시부(130)는 콘텐츠 제공 서버(200)로부터 수신된 제1 콘텐츠(102) 및 합성/제어된 콘텐츠를 출력할 수 있다. 또한, 표시부(130)는 사용자가 입력한 데이터를 출력할 수 있다. 표시부(130)는 터치 스크린을 포함할 수 있으며, 이 경우, 표시부(130)는 터치 입력 제스처 입력을 포함하는 사용자의 인터랙션을 입력 받기 위한 입력부(미도시)의 기능을 포함하도록 구성될 수 있다.
예컨대, 사용자는 표시부(130)에서 스크롤이 노출된 부분을 터치하거나 스와이프(스크롤링)하는 것을 통해 웹툰 콘텐츠에 대응하는 제1 콘텐츠(102)를 열람할 수 있다. 표시부(130)에 제1 콘텐츠(102) 중 소정의 부분 콘텐츠(105)가 노출될 때(즉, 노출되는 시점/위치에서), 사용자는 표시부(130)의 소정의 부분에 사용자의 인터랙션을 입력할 수 있고, 이에 따라, 표시부(130)는 제어된 부분 콘텐츠(105) 또는 제2 콘텐츠가 합성된 부분 콘텐츠(105)를 노출할 수 있다.
또한, 표시부(130)는 부분 콘텐츠(105)와 연관된 소정의 미션에 관한 가이드 정보 및/또는 입력되어야 하는 사용자의 인터랙션에 대한 가이드 정보를 노출할 수 있다.
카메라(140)는 사용자 또는 기타 오브젝트를 촬영하기 위한 장치일 수 있다. 카메라(140)는 이미지 센서를 포함할 수 있다. 콘텐츠 생성/제어부(125)는 카메라(140)를 통해 사용자 또는 기타 오브젝트를 촬영하여 영상(화상 및/또는 동영상)을 생성할 수 있고, 생성된 영상을 가공하여 제2 콘텐츠로서 부분 콘텐츠(105)에 합성할 수 있다.
또한, 도시되지는 않았으나, 사용자 단말(100)는 데이터 또는 정보를 저장하기 위한 장치로서 저장부를 포함할 수 있다. 저장부는 여하한 메모리 또는 스토리지 장치를 포함할 수 있다. 저장부에는 제어부(120)가 실행하는 프로그램 또는 어플리케이션 및 이와 관련된 정보가 저장될 수 있다. 예컨대, 저장부는 사용자의 인터랙션에 기반하여 제어된 부분 콘텐츠 또는 부분 콘텐츠(105)에 제2 콘텐츠가 합성된 합성 콘텐츠의 적어도 일부를 저장할 수 있다. 한편, 상기 제어된 부분 콘텐츠 또는 상기 합성 콘텐츠의 적어도 일부는 콘텐츠 제공 서버(200) 또는 기타 외부 서버에 저장될 수도 있다.
또한, 도시되지는 않았으나, 사용자 단말(100)은 사용자의 인터랙션으로서 사용자 단말(100)에 대한 물리적인 조작(예컨대, 기울임, 흔듦, 회전 등)을 감지하기 위한 센서부를 포함할 수 있다. 센서부는 예컨대, 가속도 센서, 자이로센서, GPS, 근접 센서 등 사용자의 인터랙션을 감지하기 위한 여하한 종류의 센서를 포함할 수 있다.
부분 콘텐츠(105)에 대한 제어 및 제2 콘텐츠의 부분 콘텐츠(105)에 대한 합성을 위한 데이터 처리 및 동작은 콘텐츠 생성/제어부(125)에 의해 수행되는 것으로 설명되지만, 해당 처리 및 동작의 적어도 일부는 콘텐츠 제공 서버(200)에 의해서 수행될 수도 있다. 콘텐츠 제공 서버(200)에 의해 이러한 처리 및 동작의 적어도 일부가 수행되는 경우에 있어서의 중복되는 설명은 생략한다.
또한, 제2 콘텐츠의 부분 콘텐츠(105)에 대한 합성을 위한 데이터 처리 및 동작은 사용자 단말(100)에 설치된 콘텐츠 제공을 위한 어플리케이션/프로그램에 의해 수행되는 것일 수 있다.
이상, 도 1을 참조하여 전술된 기술적 특징에 대한 설명은, 도 2에 대해서도 그대로 적용될 수 있으므로 중복되는 설명은 생략한다.
도 3은 일 실시예에 따른, 사용자의 인터랙션에 따라 제어 또는 합성된 콘텐츠를 제공하는 방법을 나타내는 흐름도이다.
단계(310)에서, 콘텐츠 생성/제어부(125)는 통신부(110)를 통해, 콘텐츠 제공 서버(200)로부터 제1 콘텐츠(102)를 수신할 수 있다. 제1 콘텐츠(102)는 순차적으로 노출될 때 의미적 연관성을 갖는 복수의 컷들(C1, C2 ...)을 포함하는 콘텐츠이고, 예컨대, 웹툰 콘텐츠일 수 있다. 복수의 컷들(C1, C2 ...)은 사용자 단말(100)의 표시부(130)에 대한 스크롤링을 통해 순차적으로 노출될 수 있다. 복수의 컷들(C1, C2 ...)의 각각은 적어도 하나의 레이어를 포함할 수 있다. 컷에 포함된 레이어는 각각 해당 컷의 배경, 해당 컷에 포함된 캐릭터, 해당 컷에 포함된 텍스트(예컨대, 말풍선 또는 지문 등)의 레이어에 대응할 수 있다. 캐릭터는 가상의 캐릭터로서 웹툰 콘텐츠에 포함된 인물 또는 사물에 대응할 수 있다.
단계(320)에서, 콘텐츠 생성/제어부(125)는, 사용작 제1 콘텐츠(102)를 열람할 때, 제1 콘텐츠(102) 중 소정의 부분 콘텐츠(105)가 사용자 단말(100)에 제공될 때, 사용자 단말(100)을 통한 사용자의 인터랙션에 기반하여 부분 콘텐츠(105)를 제어하거나, 사용자의 인터랙션에 기반하여 생성된 제2 콘텐츠를 부분 콘텐츠(105)에 합성할 수 있다.
단계(320)을 더 구체적으로 설명하면, 단계(320)는 후술될 단계들(322 내지 326)을 포함할 수 있다.
단계(322)에서, 콘텐츠 생성/제어부(125)는 소정의 부분 콘텐츠(105)의 제공 시점을 감지할 수 있다. 소정의 부분 콘텐츠(105)의 제공 시점은 부분 콘텐츠(105)가 표시부(130)에 노출되기 시작하는 시점일 수 있다. 예컨대, 소정의 부분 콘텐츠(105)가 사용자 단말(100)에 제공되는 시점은, 제1 콘텐츠(102)에 포함된 복수의 컷들(C1, C2 ...)이 사용자 단말(100)에 대한 스크롤링을 통해 순차적으로 노출됨에 있어서 부분 콘텐츠(105)에 대응하는 소정의 컷(C3)이 사용자 단말의 표시부(화면)(130)의 하단부에서 노출되기 시작할 때를 의미할 수 있다.
소정의 부분 콘텐츠(105)의 제공 시점을 감지되면, 일례로, 콘텐츠 생성/제어부(125)는 소정의 부분 콘텐츠(105)를 표시부(130)에 노출할 수 있다. 예컨대, 소정의 부분 콘텐츠(105)는 웹툰 콘텐츠의 소정의 컷(C3)에 대응하는 영상일 수 있다. 또는, 소정의 부분 콘텐츠(105)는 파노라마 영상(image) 또는 360도 영상을 포함할 수 있다. 이러한 부분 콘텐츠(105)는 표시부(130)에 풀 스크린으로 노출될 수 있다.
단계(324)에서, 콘텐츠 생성/제어부(125)는 노출된 소정의 부분 콘텐츠(105)와 연관된 사용자의 인터랙션을 감지할 수 있다. 이 때, 표시부(130)에는 입력되어야 하는 사용자의 인터랙션의 종류나 입력 위치와 관련된 가이드 정보가 제공될 수 있다.
단계(326)에서, 콘텐츠 생성/제어부(125)는 입력된 사용자의 인터랙션에 기반하여, 노출된 부분 콘텐츠(105)를 제어할 수 있다. 예컨대, 노출된 부분 콘텐츠(105)의 시점이 제어되거나, 노출된 부분 콘텐츠(105)(또는 소정의 컷(C3))에 대해 객체/레이어가 추가, 삭제 또는 변경되는 것에 의해 노출되는 부분 콘텐츠(105)가 시각적으로 변경될 수 있다. 노출된 소정의 부분 콘텐츠(105)를 제어하는 방법에 대해서는 도 4 내지 16을 참조하여 더 자세하게 설명된다.
또는, 소정의 부분 콘텐츠(105)의 제공 시점을 감지되면, 다른 일례로, 콘텐츠 생성/제어부(125)는 소정의 부분 콘텐츠(105)에 합성될 제2 콘텐츠의 생성을 요청할 수 있다. 예컨대, 콘텐츠 생성/제어부(125)는 웹툰 콘텐츠의 소정의 컷(C3)에 대응하는 소정의 부분 콘텐츠(105)에 대해 합성될 텍스트 또는 캐릭터의 생성/입력이나, 기타 영상의 생성/입력을 요청할 수 있다.
단계(324)에서, 콘텐츠 생성/제어부(125)는 소정의 부분 콘텐츠(105)에 합성될 제2 콘텐츠의 생성과 연관된 사용자의 인터랙션을 감지할 수 있다.
단계(326)에서, 콘텐츠 생성/제어부(125)는 사용자의 인터랙션의 입력에 기반하여 소정의 부분 콘텐츠(105)에 합성될 제2 콘텐츠를 생성할 수 있고, 생성된 제2 콘텐츠를 소정의 부분 콘텐츠(105)에 합성할 수 있다. 이 때, 합성 전의 부분 콘텐츠(105)는 비어 있는(블랭크) 레이어만을 포함할 수도 있고, 의도된 컷(C1)의 일부에 해당하는 콘텐츠 만을 포함할 수 있다. 말하자면, 제2 콘텐츠를 소정의 부분 콘텐츠(105)에 합성함으로써 컷(C2)은 완성될 수 있다. 제2 콘텐츠를 생성하고, 부분 콘텐츠(105)에 이를 합성하는 방법에 대해서는 도 4 내지 16을 참조하여 더 자세하게 설명된다.
단계(330)에서, 콘텐츠 생성/제어부(125)는 단계(320)에 의해 제어된 부분 콘텐츠(105) 또는 부분 콘텐츠(105)에 제2 콘텐츠가 합성된 합성 콘텐츠를 표시부(130)를 통해 노출할 수 있다. 제어된 부분 콘텐츠(105) 또는 제2 콘텐츠가 합성된 합성 콘텐츠는 표시부(130)에 풀 스크린으로 노출될 수 있다.
전술된, 사용자의 인터랙션은 예컨대, 부분 콘텐츠(105)와 연관된 텍스트의 입력, 부분 콘텐츠(105)와 연관된 터치 또는 제스처의 입력, 부분 콘텐츠(105)와 연관된 음성 입력, 영상(image)의 촬영 또는 영상의 입력, 및 사용자 단말(100)에 대한 물리적 조작(예컨대, 기울임, 흔듦, 회전 등) 중 적어도 하나일 수 있다. 또한, 사용자의 인터랙션은 부분 콘텐츠(105)의 제어 및 부분 콘텐츠(105)를 위한 제2 콘텐츠의 생성/합성을 위한 사용자 단말(100)에 대한 여하한 입력을 의미할 수 있다.
단계(330)에 따라 표시부(130)에 소정의 컷(C3)이 노출된 후에는, 그 다음 컷이 표시부(130)에 노출될 수 있다. 예컨대, 소정의 컷(C3)에 해당하는 제어된 부분 콘텐츠(105) 또는 제2 콘텐츠가 합성된 합성 콘텐츠가 노출된 후, 제1 콘텐츠(102)의 다음 컷은 표시부(130) 의 상단부에서부터 노출될 수 있다. 말하자면, 상기 다음 컷은 이전의 컷(C3)을 화면에 노출하지 않고 화면의 상단부에서부터 노출될 수 있다. 이로 인해, 다음 컷의 열람에 있어서 소정의 컷(C3)의 열람은 방해가 되지 않을 수 있고, 사용자는 다음 컷을 최적의 조건에서 열람할 수 있게 된다.
상기 다음 컷은 이전의 컷(C3)에서의 미션 수행(부분 콘텐츠(105)의 제어 또는 제2 콘텐츠의 합성)과 의미적으로 연관된 콘텐츠를 포함할 수 있다.
전술된 단계들(310 내지 330)과 같이, 웹툰 콘텐츠와 같은 콘텐츠가 사용자에게 제공됨으로써 콘텐츠에 대한 사용자의 흥미를 높일 수 있고, 사용자에의 일방적인 콘텐츠 제공이 아닌, 개인화되고 사용자가 참여 가능한 형태의 콘텐츠의 제공이 이루어질 수 있다.
이상, 도 1 및 2를 참조하여 전술된 기술적 특징에 대한 설명은, 도 3에 대해서도 그대로 적용될 수 있으므로 중복되는 설명은 생략한다.
도 4는 일 예에 따른, 사용자의 인터랙션에 기반하여, 제1 콘텐츠의 소정의 부분 콘텐츠를 제어하거나 부분 콘텐츠에 제2 콘텐츠를 합성하는 방법을 나타내는 흐름도이다.
도 4를 참조하여, 전술된 단계(320)가 더 자세하게 설명된다.
일례로, 부분 콘텐츠(105)는 파노라마 영상(image) 또는 360도 영상을 포함할 수 있다. 파노라마 영상 또는 360도 영상은 웹툰 콘텐츠의 소정의 컷(C3)에 대응하는 영상일 수 있다. 단계(410-1)에서, 콘텐츠 생성/제어부(125)는 사용자의 인터랙션에 기반하여, 사용자 단말(100)의 표시부(130) 에 노출되는 파노라마 영상 또는 360도 영상의 시점을 제어할 수 있다. 예컨대, 사용자는 사용자 단말(100)을 기울이거나 회전시키는 것을 통해, 표시부(130)에 파노라마 영상 또는 360도 영상의 다른 시점에서의 뷰를 노출시킬 수 있다. 이로 인해, 사용자는 실제 웹툰 콘텐츠의 컷(C3) 내에 들어가 있는 듯한 공간감을 느낄 수 있다.
다른 일례로, 사용자의 인터랙션은 부분 콘텐츠와 연관된 텍스트의 입력일 수 있고, 단계(410-2)에서, 콘텐츠 생성/제어부(125)는 사용자의 인터랙션에 기반하여 소정의 부분 콘텐츠(105)에 텍스트를 제2 콘텐츠로서 합성할 수 있다. 콘텐츠 생성/제어부(125)는 입력된 텍스트를 부분 콘텐츠(105)에 대응하는 소정의 컷(C3) 내의 텍스트의 적어도 일부로서 합성할 수 있다. 예컨대, 사용자가 입력한 텍스트가 특정 캐릭터의 "이름"인 경우, 소정의 컷(C1)을 비롯한, 제1 콘텐츠(102)의 복수의 컷들(C1, C2, ...)의 컷들에 있어서, 해당 특정 캐릭터의 이름이 들어가는 대사/지문의 부분에 사용자가 입력한 텍스트가 합성될 수 있다. 이로 인해, 사용자는 실제 웹툰 콘텐츠의 스토리에 참여하거나 웹툰의 등장인물이 된 것과 같은 느낌을 가질 수 있다.
다른 일례로, 사용자의 인터랙션은 터치 또는 제스처의 입력일 수 있고, 단계(410-3)에서, 콘텐츠 생성/제어부(125)는 부분 콘텐츠(105)에 대응하여 노출된 영상의 일부분에 대한 터치 또는 제스처의 입력을 감지할 수 있고, 상기 터치 또는 제스처의 입력이 감지된 상기 영상의 일부분을 시각적으로 변경할 수 있다. 예컨대, 노출된 부분 콘텐츠(105)(또는 소정의 컷(C3))에 대해 객체/레이어가 추가, 삭제 또는 변경되는 것에 의해 노출되는 부분 콘텐츠(105)가 시각적으로 변경될 수 있다. 이로 인해, 사용자는 실제 웹툰 콘텐츠의 스토리에 참여할 수 있다.
전술된 단계들(410-1 내지 410-3)에 따른 부분 콘텐츠의 제어 및 제2 콘텐츠의 합성은 부분 콘텐츠(105)(또는, 소정의 컷(C3))과 연관된 미션에 따라 이루어지는 것일 수 있다. 전술된 단계들(410-1 내지 410-3)에 앞서, 콘텐츠 생성/제어부(125)는 수행되어야 하는 미션 또는 입력되어야 하는 사용자의 인터랙션에 대한 가이드 정보를 제공할 수 있다(단계(420)). 가이드 정보는 텍스트, 화상 및 기호 중 어느 하나의 형태로 제공될 수 있고, 표시부(130)에 별도의 팝업창이나, 노출된 부분 콘텐츠(105)에 중첩된 형태로 제공될 수 있다. 가이드 정보가 부분 콘텐츠(105)에 중첩될 경우 가이드 정보는 소정의 투명도를 가질 수 있다.
전술된 단계들(410-1 내지 410-3)의 구체적인 예시에 대해서는 후술될 도 9 내지 16을 참조하여 더 자세하게 설명된다.
이상, 도 1 내지 3을 참조하여 전술된 기술적 특징에 대한 설명은, 도 4에 대해서도 그대로 적용될 수 있으므로 중복되는 설명은 생략한다.
도 5는 일 예에 따른, 사용자의 인터랙션에 기반하여, 제1 콘텐츠의 소정의 부분 콘텐츠에 제2 콘텐츠로서 사용자에 대응하는 캐릭터 생성하여 제1 콘텐츠에 합성하는 방법을 나타내는 흐름도이다.
도 5를 참조하여, 전술된 단계(320)가 더 자세하게 설명된다. 단계(320)는 후술될 단계들(510 내지 530)을 포함할 수 있다.
전술된 사용자의 인터랙션은 영상의 촬영 또는 영상의 입력일 수 있고, 단계(510)에서, 콘텐츠 생성/제어부(125)는 사용자의 단말(100)의 카메라(140)를 사용하여 사용자를 촬영하거나 사용자의 단말로부터 사용자의 영상을 입력 받을 수 있다.
단계(520)에서, 콘텐츠 생성/제어부(125)는 촬영 또는 입력된 사용자의 영상에서 얼굴을 검출하고, 상기 얼굴에 대응하는 캐릭터를 생성할 수 있다. 캐릭터는, 예컨대, 검출된 얼굴을 구성하는 각 부위에 대한 복수의 후보들 중 상기 사용자의 얼굴의 부위와 유사한 것으로 선택된 후보를 사용하여 생성될 수 있다. 또한, 생성된 캐릭터는 제1 콘텐츠에 포함된 다른 캐릭터와 유사한 스타일을 가질 수 있다. 말하자면, 생성된 사용자의 얼굴에 대응하는 캐릭터는 웹툰 콘텐츠인 제1 콘텐츠에 포함된 다른 캐릭터들과 동일 또는 유사한 화풍으로 묘사될 수 있다.
사용자의 영상에 기반하여 사용자에 대응하는 캐릭터를 생성함에 있어서는 기계학습 또는 딥러닝과 같은 인공지능 기술이 사용될 수 있다. 예컨대, 사용자의 영상에 대해, 웹툰 콘텐츠인 제1 콘텐츠의 작가의 이미지들을 기계학습 또는 딥러닝한 결과를 적용하여, 해당 작가의 화풍과 동일 또는 유사한 것으로 인식 가능한 캐릭터를 생성할 수 있다.
사용자의 얼굴 검출 및 캐릭터의 생성을 위한 데이터 처리 및 동작의 적어도 일부는 사용자 단말(100)이 아닌 콘텐츠 제공 서버(200)나 기타 외부 서버에 의해 수행될 수도 있다.
단계(530)에서, 콘텐츠 생성/제어부(125)는 생성된 캐릭터를 부분 콘텐츠(105) 또는 제1 콘텐츠(102)의 적어도 일부에 합성할 수 있다. 예컨대, 생성된 캐릭터는 하나의 레이어를 구성할 수 있고, 생성된 캐릭터를 포함하는 레이어는 부분 콘텐츠(105)에 대응하는 소정의 컷(C3) 또는 제1 콘텐츠(102)에 포함된 컷들(C1, C2, ...) 중 적어도 일부에 포함된 레이어에 중첩 또는 합성될 수 있다. 생성된 캐릭터가 레이어로 구성됨으로써 사용자의 영상에서 검출된 얼굴의 크기와 생성된 캐릭터의 크기에 관계 없이, 이질감이 없고 자연스럽게 캐릭터가 소정의 컷(C3) 또는 제1 콘텐츠(102)에 포함된 컷들(C1, C2, ...)에 합성될 수 있다.
이와 같은 캐릭터의 합성을 통해, 사용자는 실제 웹툰 콘텐츠의 스토리에 참여하거나 웹툰의 등장인물이 된 것과 같은 느낌을 가질 수 있고, 사용자의 캐릭터와 다른 캐릭터의 화풍이 동일(또는 적어도 유사)하게 되므로 사용자는 이질감을 느끼지 않을 수 있다.
전술된 단계들(510 내지 530)에 따른 캐릭터의 생성 및 합성은 부분 콘텐츠(105)(또는, 소정의 컷(C3))과 연관된 미션에 따라 이루어지는 것일 수 있다. 도시되지는 않았으나, 전술된 단계들(510 내지 530)에 앞서, 콘텐츠 생성/제어부(125)는 수행되어야 하는 미션 또는 입력되어야 하는 사용자의 인터랙션에 대한 가이드 정보를 제공할 수 있다.
이상, 도 1 내지 4를 참조하여 전술된 기술적 특징에 대한 설명은, 도 5에 대해서도 그대로 적용될 수 있으므로 중복되는 설명은 생략한다.
도 6는 일 예에 따른, 제1 콘텐츠의 소정의 부분 콘텐츠에 대해, 촬영되는 영상을 합성하고, 사용자의 인터랙션에 기반하여, 촬영된 영상이 합성된 부분 콘텐츠를 제어하거나 촬영된 영상이 합성된 부분 콘텐츠에 새로운 콘텐츠(제2 콘텐츠)를 합성하는 방법을 나타내는 흐름도이다.
도 6을 참조하여, 전술된 단계(320)가 더 자세하게 설명된다. 단계(320)는 후술될 단계들(610 내지 640)을 포함할 수 있다. 단계들(610 내지 640)을 참조하여 증강현실/가상현실 환경에서 부분 콘텐츠(105)를 제공하는 방법을 구체적으로 설명한다.
부분 콘텐츠(105)는 캐릭터를 포함할 수 있다. 여기서 캐릭터는 웹툰 콘텐츠의 등장 인물에 해당할 수 있고, 특정 사물을 포함하는 것으로 넓게 해석될 수도 있다.
단계(610)에서, 콘텐츠 생성/제어부(125)는 사용자 단말(100)의 카메라(140)에 의해 촬영되는 영상을 부분 콘텐츠(105)에 포함된 캐릭터에 대한 배경으로서 합성할 수 있다. 이로 인해, 캐릭터가 사용자가 있는 실제 환경에 위치된 것과 같은 증강현실/가상현실의 환경이 사용자 단말(100) 내에 구현될 수 있다. 또는, 콘텐츠 생성/제어부(125)는 실시간으로 촬영되는 영상뿐만 아니라 사용자 단말(100)에 기 저장된 영상을 부분 콘텐츠(105)에 포함된 캐릭터에 대한 배경으로서 합성할 수도 있다.
단계(620)에서, 콘텐츠 생성/제어부(125)는 사용자의 인터랙션에 기반하여, 사용자 단말(100)의 표시부(130)에 노출되는 합성된 배경 및 캐릭터에 대한 시점을 제어할 수 있다. 예컨대, 사용자 단말(100)의 표시부(130)에는 상기 배경 및/또는 상기 캐릭터의 일부 만이 노출될 수 있고, 사용자의 인터랙션에 따라, 노출되는 상기 배경 또는 상기 캐릭터의 부분이 변경될 수 있다.
일례로, 콘텐츠 생성/제어부(125)는 사용자가 사용자 단말(100)을 기울이거나 회전시키는 방향을 감지할 수 있고, 감지된 방향에 따라 표시부(130)를 통해 노출되는 합성된 배경 및 캐릭터의 부분을 변경할 수 있다. 예컨대, 사용자는 카메라(140)의 시점을 변경하는 것을 통해 표시부(130)를 통해 노출되는 배경을 변경시킬 수 있고, 이에 따라 캐릭터를 다양한 위치에서 관찰할 수 있다.
단계(630)에서, 콘텐츠 생성/제어부(125)는 카메라(140)를 사용하여, 사용자와 단계(610)에서 합성된 배경 및 캐릭터의 적어도 일부를 촬영할 수 있다.
단계(640)에서, 콘텐츠 생성/제어부(125)는 촬영된 영상의 배경을 상기 제1 콘텐츠와 연관된 배경으로 변경하고, 사용자를 상기 사용자에 대응하는 캐릭터로 변경함으로써 합성 영상을 생성할 수 있다. 상기 사용자에 대응하는 캐릭터는 도 5를 참조하여 전술된 단계(520)에서 생성된 캐릭터일 수 있다. 상기 제1 콘텐츠와 연관된 배경은 부분 콘텐츠(105)에 대응하는 컷(C3)의 배경일 수 있다. 또는, 상기 제1 콘텐츠와 연관된 배경은 상기 촬영된 영상의 배경을 웹툰 콘텐츠인 제1 콘텐츠의 배경의 화풍과 동일 또는 유사한 화풍으로 변경하여 생성한 것일 수 있다. 이 때에는, 단계(520)을 참조하여 전술된 캐릭터 생성에 관한 기술적 특징이 유사하게 적용될 수 있으므로 중복되는 설명은 생략한다.
단계(630 및 640)을 통해, 사용자는 제1 콘텐츠에 포함된 캐릭터와 함께 셀카를 찍는 것과 같은 느낌을 가질 수 있다. 또한, 사용자를 제1 콘텐츠에 대응하는 자신의 캐릭터로 변경하고, 실제의 배경을 제1 콘텐츠와 연관된 배경으로 변경함으로써 웹툰 콘텐츠의 스토리에 참여하는 것과 같은 느낌을 가질 수 있다.
단계(630 및 640)은 단계(620)에 따라 특정한 조건이 만족될 경우에 수행될 수 있다. 예컨대, 단계(620)에서의 시점 제어에 따라 캐릭터의 특정 부분이 표시부(130)에 노출되거나, 특정 부분이 소정의 시간 이상 표시부(130)에 노출될 경우 수행될 수 있다.
전술된 단계들(610 내지 640)에 따른 배경의 합성과 사용자에 대응하는 캐릭터와의 합성 영상 생성은 부분 콘텐츠(105)(또는, 소정의 컷(C3))과 연관된 미션에 따라 이루어지는 것일 수 있다. 도시되지는 않았으나, 전술된 단계들(610 내지 640)의 각각에 앞서, 콘텐츠 생성/제어부(125)는 수행되어야 하는 미션 또는 입력되어야 하는 사용자의 인터랙션에 대한 가이드 정보를 제공할 수 있다.
이상, 도 1 내지 5를 참조하여 전술된 기술적 특징에 대한 설명은, 도 6에 대해서도 그대로 적용될 수 있으므로 중복되는 설명은 생략한다.
도 7은 일 예에 따른, 제1 콘텐츠의 소정의 부분 콘텐츠를 제어하거나 부분 콘텐츠에 제2 콘텐츠를 합성하기 위한 사용자의 인터랙션이 충분하지 않은 경우, 이를 통지하는 방법을 나타내는 흐름도이다.
단계(320)는 후술될 단계들(710 내지 730)을 포함할 수 있다.
콘텐츠 생성/제어부(125)는 제1 콘텐츠(102)의 소정의 부분 콘텐츠(105)를 제어하거나 부분 콘텐츠(105)에 제2 콘텐츠를 합성하기 위한 사용자의 인터랙션을 감지할 수 있고(단계(710)), 해당 사용자의 인터랙션이 상기 부분 콘텐츠(105)의 제어나, 상기 제2 콘텐츠의 생성에 있어서 충분한지 여부를 감지할 수 있다(단계(720)). 콘텐츠 생성/제어부(125)는 해당 사용자의 인터랙션이 상기 부분 콘텐츠(105)의 제어나, 상기 제2 콘텐츠의 생성에 있어서 충분하지 않은 경우 해당 불충분을 사용자에게 통지할 수 있다(단계(730)). 상기 통지는 해당 불충분 표시부(130)에 노출하는 것으로서 이루어질 수 있다. 통지는 표시부(130)에 노출되는 팝업창의 형태로 사용자에게 제공될 수 있고, 제1 콘텐츠(102)에 포함된 캐릭터를 포함할 수 있다.
이상, 도 1 내지 6을 참조하여 전술된 기술적 특징에 대한 설명은, 도 7에 대해서도 그대로 적용될 수 있으므로 중복되는 설명은 생략한다.
도 8은 일 예에 따른, 사용자의 인터랙션에 기반하여, 제1 콘텐츠의 소정의 부분 콘텐츠로서 파노라마 영상 또는 360도 영상의 시점을 제어하고, 시점이 제어된 콘텐츠를 제공하는 방법을 나타내는 흐름도이다.
도 8의 후술될 단계들(810 내지 830)을 통해, 도 3 내지 도 7을 참조하여 전술된 실시예의 보다 구체적인 실시예를 설명한다.
단계(810)에서, 콘텐츠 생성/제어부(125)는 콘텐츠 제공 서버(200)에 의해 제공되는 제1 콘텐츠(102)에 대해, 스크롤링을 통해 제1 콘텐츠(102) 중 소정의 부분 콘텐츠(105)가 사용자 단말(100)에 제공될 때, 부분 콘텐츠(105)에 포함된 파노라마 영상(image) 또는 360도 영상의 적어도 일부를 사용자 단말(100)의 표시부(화면)(130)에 풀 스크린으로 노출할 수 있다.
단계(820)에서, 콘텐츠 생성/제어부(125)는 사용자 단말(100)을 통한 사용자의 인터랙션에 기반하여 사용자 단말(100)의 표시부(130)에 노출된 파노라마 영상(image) 또는 360도 영상의 시점을 제어할 수 있다.
단계(830)에서, 콘텐츠 생성/제어부(125)는 상기 시점이 제어된 파노라마 영상 또는 360도 영상을 사용자 단말(100)의 표시부(130)에 풀 스크린으로 노출할 수 있다. 예컨대, 사용자는 사용자 단말(100)을 기울이거나 회전시키는 것과 같은 인터랙션을 통해, 표시부(130)에 파노라마 영상 또는 360도 영상의 다른 시점에서의 뷰를 노출시킬 수 있다. 이로 인해, 사용자는 실제 웹툰 콘텐츠의 컷(C3) 내에 들어가 있는 듯한 공간감을 느낄 수 있다.
이상, 도 1 내지 7을 참조하여 전술된 기술적 특징에 대한 설명은, 도 8에 대해서도 그대로 적용될 수 있으므로 중복되는 설명은 생략한다.
도 9 내지 16은 사용자의 인터랙션에 기반하여, 제1 콘텐츠의 소정의 부분 콘텐츠를 제어하거나 상기 부분 콘텐츠에 새로운 콘텐츠를 합성함으로써 제어/합성된 콘텐츠를 제공하는 구체적인 예시들을 나타낸다.
도 9 내지 16을 통해, 전술된 도 4 내지 도 8을 참조하여 설명한 예시들을 더 자세하게 설명한다.
도 9는 도 4 및 도 8을 참조하여 전술된 예시와 같은, 소정의 부분 콘텐츠(105)가 파노라마 영상 또는 360도 영상을 포함하는 예시를 나타낸다.
도시된 것처럼, 소정의 부분 콘텐츠(105)는 파노라마 영상(900)을 포함할 수 있다. 파노라마 영상(900)은 부분 콘텐츠(105)와 연관된 컷에 포함된 영상일 수 있다. 도시된 것처럼, 사용자가 스크롤링을 통해 제1 콘텐츠(웹툰 콘텐츠)(102)를 열람함에 있어서, 소정의 미션 시작 지점에 도달한 경우(즉, 표시부(화면)(130)의 하단부에 부분 콘텐츠(105)의 시작 지점이 위치된 경우) 표시부(130)에는 파노라마 영상(900)의 일부가 풀 스크린으로 노출될 수 있다. 이 때, 터치 입력 또는 스와이프나, 사용자 단말(100)을 기울이거나 회전시키는 것과 같은 인터랙션이 입력되는 것에 의해, 콘텐츠 생성/제어부(125)는 파노라마 영상(900)의 현재 노출되고 있는 것과는 다른 부분을 표시부(130)에 노출시킬 수 있다.
X 표시를 눌러 파노라마 영상(900)의 열람을 종료하거나, 소정의 미션이 달성된 경우 부분 콘텐츠(105)에 대한 열람은 종료될 수 있다. 소정의 미션은 파노라마 영상(900)의 열람이 시작된 후 소정의 시간이 경과하거나, 특정 파노라마 영상(900)의 특정 부분이 표시부(130)에 노출되도록 하는 것일 수 있다.
부분 콘텐츠(105)에 대한 열람이 종료되면, 부분 콘텐츠(105)에 대응하는 컷의 다음 컷이 표시부(130)에 노출될 수 있다. 이 때에는 상기 다음 컷의 상단부가 표시부(화면)(130)의 상단부에 위치될 수 있다. 이로 인해, 다음 컷의 열람에 있어서 부분 콘텐츠(105)의 열람은 방해가 되지 않을 수 있고, 사용자는 다음 컷을 최적의 조건에서 열람할 수 있게 된다.
이상, 도 1 내지 도 8을 참조하여 전술된 기술적 특징에 대한 설명은, 도 9에 대해서도 그대로 적용될 수 있으므로 중복되는 설명은 생략한다.
도 10은 도 4를 참조하여 전술된 예시와 같은, 소정의 부분 콘텐츠(105)에 제2 콘텐츠로서 텍스트를 합성하는 예시를 나타낸다.
도시된 것처럼, 사용자가 스크롤링을 통해 제1 콘텐츠(웹툰 콘텐츠)(102)를 열람함에 있어서, 소정의 미션 시작 지점에 도달한 경우(즉, 표시부(화면)(130)의 하단부에 부분 콘텐츠(105)의 시작 지점이 위치된 경우), 사용자에게 "이름"에 대응하는 텍스트의 입력이 요구될 수 있다. 사용자가 "홍길동"이라는 텍스트를 이름으로서 입력한 경우, 사용자의 이름이 "홍길동"이 맞는지를 확인하는 메시지가 표시부(130)에 노출될 수 있다. "홍길동"이 사용자의 이름인 것으로 확인되면, 부분 콘텐츠(105)에는 사용자의 이름에 해당하는 "홍길동"을 포함하는 제2 콘텐츠(1000)가 합성되어 표시부(130)에 출력될 수 있다. 이 때, 사용자가 입력한 이름은 제1 콘텐츠(102)에 포함된 특정 캐릭터의 "이름"에 대응할 수 있다. 따라서, 부분 콘텐츠(105)에 대응하는 컷뿐만 아니라 제1 콘텐츠(102)의 다른 컷들에 있어서도, 해당 특정 캐릭터의 이름이 들어가는 대사/지문의 부분에는 "홍길동(또는 (대사에 따라서는) 길동)"이 합성될 수 있다. 이로 인해, 사용자는 실제 웹툰 콘텐츠의 스토리에 참여하거나 웹툰의 등장인물이 된 것과 같은 느낌을 가질 수 있다.
도 11 및 12는 도 4를 참조하여 전술된 예시와 같은, 사용자의 인터랙션으로서의 터치 또는 제스처의 입력에 따라 소정의 부분 콘텐츠(105)를 제어하는 방법을 나타낸다.
사용자가 스크롤링을 통해 제1 콘텐츠(웹툰 콘텐츠)(102)를 열람함에 있어서, 소정의 미션 시작 지점에 도달한 경우(즉, 표시부(화면)(130)의 하단부에 부분 콘텐츠(105)의 시작 지점이 위치된 경우), 도 12에서 도시된 것과 같은 가이드 정보가 표시부(130)에 노출될 수 있다. 가이드 정보는 부분 콘텐츠(105)와 관련하여 진행되어야 하는 미션과, 입력되어야 하는 사용자의 인터랙션에 관한 정보를 포함할 수 있다. 도 11에서 도시된 예시에서, 미션은 (a)의 캐릭터의 머리에 존재하는 먼지를 털어내는 것이다. (b)와 같이 해당 먼지를 터치하고, 스와이프하여 밀어내는 것을 통해 캐릭터로부터 먼지가 제거될 수 있다. (c)와 같이 먼지가 모두 제거되면, 부분 콘텐츠(105)의 열람이 종료되고 다음 컷이 표시부(130)에 노출될 수 있다. 도시된 예시의 먼지의 제거는 부분 콘텐츠(105)에 대응하는 컷에 대해 먼지에 대응하는 객체를 삭제하거나 먼지에 대응하는 객체를 포함하는 레이어를 삭제하는 것일 수 있다.
(a) 내지 (c)에서 도시된 부분 콘텐츠(105)는 소정의 애니메이션 효과를 포함할 수 있고, 사용자의 인터랙션에 따라 애니메이션 효과가 발생될 수 있다.
드래그 입력, 멀티 터치 입력, 또는 소정의 제스처를 사용자의 인터랙션으로서 입력하는 것을 통해, 부분 콘텐츠(105)에 포함된 캐릭터의 표현을 시각적으로 변경하는 다양한 예시들이 또한 유사한 방식으로 구현될 수 있다.
한편, 도시된 예시와는 달리 사용자 단말(100)의 마이크를 통해 음성 입력을 사용자의 인터랙션으로서 입력하는 것을 통해서도 부분 콘텐츠(105)에 포함된 캐릭터의 표현을 시각적으로 변경시킬 수 있다. 이러한 예시에 대해서도 전술된 것과 유사한 기술적 특징이 적용될 수 있는 바 중복되는 설명은 생략한다.
도 12에서 도시된 것과 같은 가이드 정보는 도 11의 예시뿐만 아니라 다른 예시의 미션 수행 및 사용자의 인터랙션의 입력과 관련해서도 유사한 방식으로 표시부(130)를 통해 제공될 수 있다.
도 13은 도 5를 참조하여 전술된 예시와 같은, 사용자의 얼굴과 유사한 캐릭터를 생성하고, 생성된 캐릭터를 제1 콘텐츠(102) 또는 그 부분 콘텐츠(105)에 합성하는 예시를 나타낸다.
사용자가 스크롤링을 통해 제1 콘텐츠(웹툰 콘텐츠)(102)를 열람함에 있어서, 소정의 미션 시작 지점에 도달한 경우(즉, 표시부(화면)(130)의 하단부에 부분 콘텐츠(105)의 시작 지점이 위치된 경우), 사용자는 자신의 얼굴을 촬영할 것을 요구 받을 수 있다. (a)에서와 같이 사용자의 얼굴을 촬영하면, 해당 촬영된 영상에서 얼굴이 인식될 수 있다. 이후, (b)에서와 같이 사용자의 인식된 얼굴에 대응하는 캐릭터(1300)가 생성될 수 있다. 생성된 캐릭터는 제1 콘텐츠(102)에 포함된 다른 캐릭터와 동일 또는 유사한 화풍으로 묘사될 수 있다. 생성된 사용자의 얼굴에 대응하는 캐릭터는 (c)에서와 같이 부분 콘텐츠(105)에 합성될 수 있다. 또한, 생성된 캐릭터가 출현하는 제1 콘텐츠(102)의 다른 컷들에도 해당 생성된 캐릭터는 합성될 수 있다. (b)에서 도시된 것처럼, 사용자는 생성된 캐릭터가 마음에 들지 않을 경우, 캐릭터를 재생성하기 위해 다시 자신의 얼굴을 촬영할 수 있다.
생성된 캐릭터는, 사용자의 요청에 따라, 사용자 단말(100) 또는 외부 서버(또는 콘텐츠 제공 서버(200))에 저장될 수 있다.
이와 같은 캐릭터의 합성을 통해, 사용자는 실제 웹툰 콘텐츠의 스토리에 참여하거나 웹툰의 등장인물이 된 것과 같은 느낌을 가질 수 있고, 사용자의 캐릭터와 다른 캐릭터의 화풍이 동일하게 되므로 사용자는 이질감을 느끼지 않을 수 있다.
도 14 내지 16은 도 6을 참조하여 전술된 예시와 같은, 증강현실/가상현실 환경에서 부분 콘텐츠(105)를 제공하는 예시를 나타낸다.
사용자가 스크롤링을 통해 제1 콘텐츠(웹툰 콘텐츠)(102)를 열람함에 있어서, 소정의 미션 시작 지점에 도달한 경우(즉, 표시부(화면)(130)의 하단부에 부분 콘텐츠(105)의 시작 지점이 위치된 경우), 사용자는 카메라(140)로 촬영을 시작할 것을 요구 받을 수 있다. 카메라(140) 촬영이 개시될 경우 카메라에 의해 촬영되는 (실시간) 영상은 (a)에서처럼 부분 콘텐츠(105)에 포함된 캐릭터에 대한 배경으로서 합성될 수 있다. 배경이 합성되면, (b)에서와 같이 부분 콘텐츠(105)에 포함된 캐릭터의 일부와 배경의 일부가 노출될 수 있다. 콘텐츠 생성/제어부(125)는 사용자가 사용자 단말(100)을 기울이거나 회전시키는 방향을 감지할 수 있고, 감지된 방향에 따라 표시부(130)를 통해 노출되는 합성된 배경 및 캐릭터의 부분을 변경할 수 있다. 예컨대, 사용자는 카메라(140)의 시점을 변경하는 것을 통해 표시부(130)를 통해 노출되는 배경을 변경시킬 수 있고, 이에 따라 캐릭터를 다양한 위치에서 관찰할 수 있다. 즉, 사용자는 도시된 캐릭터 및 배경의 범위(1400) 내에서 자유롭게 캐릭터를 관찰할 수 있다. (c)와 같이, 소정의 조건 A가 만족될 경우 캐릭터와 연관된 애니메이션 효과가 재생될 수 있다. 조건 A는 표시부(130)(화면) 내에 캐릭터가 소정의 %이상 노출되거나, 캐릭터의 특정 부위가 노출되거나, 특정 시간 이상 캐릭터의 특정 부위가 노출되는 경우일 수 있다. 한편, (d)와 같이, 소정의 조건 B가 만족될 경우, 사용자는 캐릭터와 셀카를 촬영하도록(즉, 셀카 미션의 수행을) 요구 받을 수 있다. 조건 B는 조건 A와 상이한 조건일 수 있으나, 동일한 조건일수도 있다. 또는, 조건 B의 충족을 위해서는 조건 A의 충족이 선행되어야 할 수도 있다.
도 15를 참조하여, 도 14의 (b)의 카메라 시점 변경에 따른 캐릭터와 연관된 텍스트의 노출 방법에 대해 설명한다. 사용자의 인터랙션에 따라, 캐릭터와 연관된 텍스트(예컨대, 말풍선)의 노출 위치는 변경될 수 있다. 다만, 사용자에 대응하는 캐릭터와 연관된 텍스트의 노출 위치는 변경되지 않고 유지될 수 있다. (a) 내지 (c)에서 도시된 것처럼, 사용자에 대응하는 캐릭터와 연관된 텍스트들(1500-1 내지 1500-3)은 표시부(130)의 하단부에서 그 표시 위치가 유지될 수 있다. 한편, 사용자에 대응하지 않는 캐릭터의 텍스트는 해당 캐릭터의 머리 위치로 말풍선의 꼬리가 향하도록 표시부(130) 상에서 노출될 수 있다. 예컨대, 캐릭터가 표시부(130) 바깥의 우측 상단에 위치되어 있는 경우, 캐릭터와 연관된 텍스트는 표시부(130)의 우측 상단에 표시되되, 그 말꼬리는 표시부(130)의 우측 상단쪽을 향하게 표시될 수 있다.
도 14의 (d)의 셀카 미션에 대해서는 도 16을 참조하여 설명한다. 사용자는 카메라(140)를 사용하여 사용자는 자신과 (카메라(140)를 통해 촬영되는) 배경, 및 캐릭터를 포함하는 영상을 촬영할 수 있다. 콘텐츠 생성/제어부(125)는 (b)에서와 같이 촬영된 영상의 배경을 웹툰 콘텐츠에 해당하는 배경으로 변경할 수 있고, (c)에서와 같이 촬영된 영상의 사용자의 얼굴을 웹툰 콘텐츠와 연관된 캐릭터로 변경할 수 있다. 배경 및 캐릭터의 변경에 대해서는 도 6을 참조하여 자세하게 설명하였는 바 자세한 설명은 생략한다. (c)와 같은 완성된 셀카는, 사용자의 요청에 따라, 사용자 단말(100) 또는 외부 서버(또는 콘텐츠 제공 서버(200))에 저장될 수 있다.
한편, 전술된 예시에 있어서 영상의 입력이나, 촬영에 있어서는 사진첩에의 접근이나 카메라 사용을 위한 권한이 획득되어야 할 수 있다. 이러한 권한이 획득되지 않은 경우 콘텐츠 생성/제어부(125)는 팝업창 등을 표시부(130)에 노출하여 사용자에게 권한 획득을 요청할 수 있다.
이상, 도 1 내지 도 8을 참조하여 전술된 기술적 특징에 대한 설명은, 도 9 내지 16에 대해서도 그대로 적용될 수 있으므로 중복되는 설명은 생략한다.
이상에서 설명된 장치는 하드웨어 구성요소, 소프트웨어 구성요소, 및/또는 하드웨어 구성요소 및 소프트웨어 구성요소의 조합으로 구현될 수 있다. 예를 들어, 실시예들에서 설명된 장치 및 구성요소는, 프로세서, 콘트롤러, ALU(arithmetic logic unit), 디지털 신호 프로세서(digital signal processor), 마이크로컴퓨터, FPGA(field programmable gate array), PLU(programmable logic unit), 마이크로프로세서, 또는 명령(instruction)을 실행하고 응답할 수 있는 다른 어떠한 장치와 같이, 하나 이상의 범용 컴퓨터 또는 특수 목적 컴퓨터를 이용하여 구현될 수 있다. 처리 장치는 운영 체제(OS) 및 상기 운영 체제 상에서 수행되는 하나 이상의 소프트웨어 어플리케이션을 수행할 수 있다. 또한, 처리 장치는 소프트웨어의 실행에 응답하여, 데이터를 접근, 저장, 조작, 처리 및 생성할 수도 있다. 이해의 편의를 위하여, 처리 장치는 하나가 사용되는 것으로 설명된 경우도 있지만, 해당 기술분야에서 통상의 지식을 가진 자는, 처리 장치가 복수 개의 처리 요소(processing element) 및/또는 복수 유형의 처리 요소를 포함할 수 있음을 알 수 있다. 예를 들어, 처리 장치는 복수 개의 프로세서 또는 하나의 프로세서 및 하나의 콘트롤러를 포함할 수 있다. 또한, 병렬 프로세서(parallel processor)와 같은, 다른 처리 구성(processing configuration)도 가능하다.
소프트웨어는 컴퓨터 프로그램(computer program), 코드(code), 명령(instruction), 또는 이들 중 하나 이상의 조합을 포함할 수 있으며, 원하는 대로 동작하도록 처리 장치를 구성하거나 독립적으로 또는 결합적으로(collectively) 처리 장치를 명령할 수 있다. 소프트웨어 및/또는 데이터는, 처리 장치에 의하여 해석되거나 처리 장치에 명령 또는 데이터를 제공하기 위하여, 어떤 유형의 기계, 구성요소(component), 물리적 장치, 가상 장치(virtual equipment), 컴퓨터 저장 매체 또는 장치에서 구체화(embody)될 수 있다. 소프트웨어는 네트워크로 연결된 컴퓨터 시스템 상에 분산되어서, 분산된 방법으로 저장되거나 실행될 수도 있다. 소프트웨어 및 데이터는 하나 이상의 컴퓨터 판독 가능 기록 매체에 저장될 수 있다.
실시예에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 이때, 매체는 컴퓨터로 실행 가능한 프로그램을 계속 저장하거나, 실행 또는 다운로드를 위해 임시 저장하는 것일 수도 있다. 또한, 매체는 단일 또는 수개 하드웨어가 결합된 형태의 다양한 기록수단 또는 저장수단일 수 있는데, 어떤 컴퓨터 시스템에 직접 접속되는 매체에 한정되지 않고, 네트워크 상에 분산 존재하는 것일 수도 있다. 매체의 예시로는, 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체, CD-ROM 및 DVD와 같은 광기록 매체, 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical medium), 및 ROM, RAM, 플래시 메모리 등을 포함하여 프로그램 명령어가 저장되도록 구성된 것이 있을 수 있다. 또한, 다른 매체의 예시로, 애플리케이션을 유통하는 앱 스토어나 기타 다양한 소프트웨어를 공급 내지 유통하는 사이트, 서버 등에서 관리하는 기록매체 내지 저장매체도 들 수 있다.
이상과 같이 실시예들이 비록 한정된 실시예와 도면에 의해 설명되었으나, 해당 기술분야에서 통상의 지식을 가진 자라면 상기의 기재로부터 다양한 수정 및 변형이 가능하다. 예를 들어, 설명된 기술들이 설명된 방법과 다른 순서로 수행되거나, 및/또는 설명된 시스템, 구조, 장치, 회로 등의 구성요소들이 설명된 방법과 다른 형태로 결합 또는 조합되거나, 다른 구성요소 또는 균등물에 의하여 대치되거나 치환되더라도 적절한 결과가 달성될 수 있다.
그러므로, 다른 구현들, 다른 실시예들 및 특허청구범위와 균등한 것들도 후술하는 특허청구범위의 범위에 속한다.

Claims (19)

  1. 사용자 단말을 통한 콘텐츠 제공 방법에 있어서,
    콘텐츠 제공 서버에 의해 제공되는 제1 콘텐츠에 대해, 상기 제1 콘텐츠 중 소정의 부분 콘텐츠가 상기 사용자 단말에 제공될 때, 상기 사용자 단말을 통한 사용자의 인터랙션에 기반하여 생성된 제2 콘텐츠를 상기 부분 콘텐츠에 합성하는 단계; 및
    상기 제2 콘텐츠가 합성된 합성 콘텐츠를 노출하는 단계
    를 포함하고,
    상기 제1 콘텐츠는 순차적으로 노출될 때 의미적 연관성을 갖는 복수의 컷들을 포함하는 콘텐츠이고, 상기 복수의 컷들의 각각은 적어도 하나의 레이어를 포함하고,
    상기 부분 콘텐츠는 상기 복수의 컷들 중 소정의 컷이고,
    상기 사용자의 인터랙션은 영상의 촬영 또는 영상의 입력이고,
    상기 제2 콘텐츠를 상기 부분 콘텐츠에 합성하는 단계는,
    상기 사용자 단말의 카메라를 사용하여 상기 사용자를 촬영하거나 사용자의 단말로부터 사용자의 영상을 입력 받는 단계;
    상기 촬영 또는 입력된 사용자의 영상에서 얼굴을 검출하고, 상기 검출된 얼굴을 사용하여, 상기 제1 콘텐츠에 등장인물로서 포함된 캐릭터와 유사한 스타일을 갖도록 상기 얼굴에 대응하는 캐릭터를 생성하는 단계; 및
    상기 생성된 캐릭터를 상기 부분 콘텐츠 또는 제1 콘텐츠의 적어도 일부에 합성하는 단계
    를 포함하고,
    상기 소정의 컷에는 상기 생성된 캐릭터가 상기 제2 콘텐츠로서 합성되어 노출되고,
    상기 생성된 캐릭터는 상기 제1 콘텐츠에 등장인물로서 포함되는, 콘텐츠 제공 방법.
  2. 제1항에 있어서,
    상기 부분 콘텐츠는 상기 복수의 컷들 중 상기 사용자의 인터랙션에 기반한 제어가 허용되는 소정의 컷인, 콘텐츠 제공 방법.
  3. 제2항에 있어서,
    상기 복수의 컷들은 상기 사용자 단말에 대한 스크롤링을 통해 순차적으로 노출되고,
    상기 소정의 부분 콘텐츠가 상기 사용자 단말에 제공될 때는 상기 소정의 컷이 상기 사용자 단말의 화면의 하단부에서 노출되기 시작할 때이고,
    상기 소정의 컷에 해당하는 상기 제2 콘텐츠가 합성된 합성 콘텐츠가 노출된 후, 상기 제1 콘텐츠의 다음 컷은 상기 화면의 상단부에서부터 노출되는, 콘텐츠 제공 방법.
  4. 제1항에 있어서,
    상기 제2 콘텐츠가 합성된 합성 콘텐츠는 상기 사용자 단말의 화면에 풀 스크린으로 노출되는, 콘텐츠 제공 방법.
  5. 제1항에 있어서,
    상기 합성 콘텐츠의 적어도 일부는 상기 사용자 단말 또는 상기 콘텐츠 제공 서버에 저장되는, 콘텐츠 제공 방법.
  6. 제1항에 있어서,
    상기 부분 콘텐츠는 파노라마 영상(image) 또는 360도 영상을 포함하고,
    사용자의 인터랙션에 기반하여, 상기 사용자 단말의 화면에 노출되는 상기 파노라마 영상 또는 360도 영상의 시점을 제어하는 단계
    를 더 포함하는, 콘텐츠 제공 방법.
  7. 삭제
  8. 제1항에 있어서,
    상기 사용자의 인터랙션은 상기 부분 콘텐츠와 연관된 텍스트의 입력을 포함하고,
    상기 제2 콘텐츠를 상기 부분 콘텐츠에 합성하는 단계는,
    상기 입력된 텍스트를 상기 소정의 컷 내의 텍스트의 적어도 일부로서 합성하는 단계
    를 더 포함하는, 콘텐츠 제공 방법.
  9. 제2항에 있어서,
    상기 소정의 컷과 연관된 미션에 따라, 상기 부분 콘텐츠에 대응하여 노출된 영상의 일부분에 대한 터치 또는 제스처의 입력을 감지하는 단계; 및
    상기 터치 또는 제스처의 입력이 감지된 상기 영상의 일부분을 시각적으로 변경하는 단계
    를 더 포함하는, 콘텐츠 제공 방법.
  10. 제9항에 있어서,
    상기 미션 또는 입력되어야 하는 사용자의 인터랙션에 대한 가이드 정보를 제공하는 단계
    를 더 포함하는, 콘텐츠 제공 방법.
  11. 삭제
  12. 제1항에 있어서,
    상기 생성된 캐릭터는, 상기 검출된 얼굴을 구성하는 각 부위에 대한 복수의 후보들 중 상기 사용자의 얼굴의 부위와 유사한 것으로 선택된 후보를 사용하여 생성되는, 콘텐츠 제공 방법.
  13. 제1항에 있어서,
    상기 생성된 캐릭터는 하나의 레이어를 구성하고, 상기 소정의 컷에 포함된 레이어에 중첩 또는 합성되는, 콘텐츠 제공 방법.
  14. 제1항에 있어서,
    상기 부분 콘텐츠는 상기 생성된 캐릭터와는 다른 캐릭터를 포함하고,
    상기 제2 콘텐츠를 상기 부분 콘텐츠에 합성하는 단계는,
    상기 사용자 단말의 카메라에 의해 촬영되는 영상을 상기 다른 캐릭터에 대한 배경으로서 합성하는 단계
    를 포함하는, 콘텐츠 제공 방법.
  15. 제14항에 있어서,
    상기 사용자의 인터랙션에 기반하여, 상기 사용자 단말의 화면에 노출되는 상기 배경 및 상기 다른 캐릭터에 대한 시점을 제어하는 단계
    를 더 포함하고,
    상기 사용자 단말의 화면에는 상기 배경 및 상기 다른 캐릭터 중 적어도 하나의 일부가 노출되고,
    상기 사용자의 인터랙션에 따라, 노출되는 상기 배경 또는 상기 다른 캐릭터의 부분이 변경되고,
    상기 사용자의 인터랙션에 따라, 상기 다른 캐릭터와 연관된 텍스트의 노출 위치가 변경되고, 상기 사용자에 대응하는 캐릭터와 연관된 텍스트의 노출 위치는 유지되는, 콘텐츠 제공 방법.
  16. 제14항에 있어서,
    상기 사용자 단말의 카메라를 사용하여, 상기 사용자와 상기 배경 및 상기 다른 캐릭터의 적어도 일부를 촬영하는 단계; 및
    상기 촬영된 영상의 배경을 상기 제1 콘텐츠와 연관된 배경으로 변경하고, 상기 사용자를 상기 사용자에 대응하는 캐릭터로 변경함으로써 합성 영상을 생성하는 단계
    를 포함하는, 콘텐츠 제공 방법.
  17. 제1항에 있어서,
    상기 사용자의 인터랙션이 상기 부분 콘텐츠의 제어나, 상기 제2 콘텐츠의 생성에 있어서 충분하지 않을 경우, 해당 불충분을 통지하는 단계
    를 포함하는, 콘텐츠 제공 방법.
  18. 콘텐츠 제공 장치에 있어서,
    콘텐츠 제공 서버에 의해 제공되는 제1 콘텐츠를 수신하는 통신부;
    상기 제1 콘텐츠 중 소정의 부분 콘텐츠가 사용자 단말에 제공될 때, 상기 사용자 단말을 통한 사용자의 인터랙션에 기반하여 생성된 제2 콘텐츠를 상기 부분 콘텐츠에 합성하는 콘텐츠 생성/제어부; 및
    상기 제2 콘텐츠가 합성된 합성 콘텐츠를 노출하는 표시부
    를 포함하고,
    상기 제1 콘텐츠는 순차적으로 노출될 때 의미적 연관성을 갖는 복수의 컷들을 포함하는 콘텐츠이고, 상기 복수의 컷들의 각각은 적어도 하나의 레이어를 포함하고,
    상기 부분 콘텐츠는 상기 복수의 컷들 중 소정의 컷이고,
    상기 사용자의 인터랙션은 영상의 촬영 또는 영상의 입력이고,
    상기 콘텐츠 생성/제어부는, 상기 사용자 단말의 카메라를 사용하여 상기 사용자를 촬영하거나 사용자의 단말로부터 사용자의 영상을 입력 받고, 상기 촬영 또는 입력된 사용자의 영상에서 얼굴을 검출하고, 상기 검출된 얼굴을 사용하여, 상기 제1 콘텐츠에 등장인물로서 포함된 캐릭터와 유사한 스타일을 갖도록 상기 얼굴에 대응하는 캐릭터를 생성하고, 상기 생성된 캐릭터를 상기 부분 콘텐츠 또는 제1 콘텐츠의 적어도 일부에 합성하고,
    상기 소정의 컷에는 상기 생성된 캐릭터가 상기 제2 콘텐츠로서 합성되어 노출되고,
    상기 생성된 캐릭터는 상기 제1 콘텐츠에 등장인물로서 포함되는, 콘텐츠 제공 장치.
  19. 삭제
KR1020170168638A 2017-12-08 2017-12-08 사용자의 인터랙션에 따라 제어 또는 합성된 콘텐츠를 제공하는 방법 및 장치 KR102009426B1 (ko)

Priority Applications (3)

Application Number Priority Date Filing Date Title
KR1020170168638A KR102009426B1 (ko) 2017-12-08 2017-12-08 사용자의 인터랙션에 따라 제어 또는 합성된 콘텐츠를 제공하는 방법 및 장치
CN201810886244.2A CN109905592B (zh) 2017-12-08 2018-08-06 根据用户的交互控制或者合成的内容的提供方法及装置
US16/213,620 US11019410B2 (en) 2017-12-08 2018-12-07 Method and apparatus for providing contents controlled or synthesized based on interaction of user

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020170168638A KR102009426B1 (ko) 2017-12-08 2017-12-08 사용자의 인터랙션에 따라 제어 또는 합성된 콘텐츠를 제공하는 방법 및 장치

Publications (2)

Publication Number Publication Date
KR20190068341A KR20190068341A (ko) 2019-06-18
KR102009426B1 true KR102009426B1 (ko) 2019-10-21

Family

ID=66697548

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020170168638A KR102009426B1 (ko) 2017-12-08 2017-12-08 사용자의 인터랙션에 따라 제어 또는 합성된 콘텐츠를 제공하는 방법 및 장치

Country Status (3)

Country Link
US (1) US11019410B2 (ko)
KR (1) KR102009426B1 (ko)
CN (1) CN109905592B (ko)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102276816B1 (ko) * 2019-06-24 2021-07-13 네이버웹툰 유한회사 공간 단위로 구성된 컨텐츠를 제공하는 방법 및 시스템
KR102101889B1 (ko) * 2019-07-29 2020-04-17 주식회사 자이언트스텝 Ai 기반의 얼굴 애니메이션 구현 시스템 및 방법, 및 컴퓨터 판독 가능한 저장매체
KR102227523B1 (ko) * 2019-08-07 2021-03-15 네이버웹툰 유한회사 만화 컨텐츠의 재배치 방법
US11704851B2 (en) * 2020-05-27 2023-07-18 Snap Inc. Personalized videos using selfies and stock videos
KR20210146741A (ko) * 2020-05-27 2021-12-06 삼성전자주식회사 3차원 객체에 2차원 객체를 합성하기 위한 전자 장치, 전자 장치의 동작 방법 및 비일시적 저장 매체
KR102524015B1 (ko) * 2021-07-13 2023-04-20 주식회사 제네시스랩 동영상 인터랙션 플랫폼의 제공방법 및 이를 수행하는 서버시스템
KR102494057B1 (ko) * 2022-07-15 2023-02-06 신헌주 인공지능 기반의 작품 관리 시스템

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017138912A (ja) * 2016-02-05 2017-08-10 株式会社バンダイナムコエンターテインメント 画像生成システム及びプログラム

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20110123393A (ko) 2010-05-07 2011-11-15 주식회사 제노웰 모바일 디지털 만화 콘텐츠 제공 시스템 및 그 제공 방법
US20140055607A1 (en) * 2012-08-22 2014-02-27 Jiunn-Kuang Chen Game character plugin module and method thereof
KR101968977B1 (ko) * 2012-09-26 2019-04-15 네이버웹툰 주식회사 카툰 제공 시스템, 카툰 제공 장치 및 카툰 제공 방법
US10754511B2 (en) * 2013-11-20 2020-08-25 Google Llc Multi-view audio and video interactive playback
US9177225B1 (en) * 2014-07-03 2015-11-03 Oim Squared Inc. Interactive content generation
WO2016032303A1 (ko) * 2014-08-29 2016-03-03 주식회사 퓨처플레이 문맥 정보에 기초하여 스크롤을 제어하기 위한 방법, 시스템 및 비일시성의 컴퓨터 판독 가능한 기록 매체
RU2580437C2 (ru) * 2014-09-02 2016-04-10 Общество С Ограниченной Ответственностью "Яндекс" Способ обработки входящего электронного сообщения и сервер
KR101650153B1 (ko) * 2015-03-19 2016-08-23 네이버 주식회사 만화 데이터 편집 방법 및 만화 데이터 편집 장치
US20170076362A1 (en) * 2015-09-11 2017-03-16 Zachary Joyner Future Kicks

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017138912A (ja) * 2016-02-05 2017-08-10 株式会社バンダイナムコエンターテインメント 画像生成システム及びプログラム

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
유튜브, https://www.youtube.com/watch?v=r-QELLCHOhE,2017.08.22.*

Also Published As

Publication number Publication date
US20190182563A1 (en) 2019-06-13
KR20190068341A (ko) 2019-06-18
CN109905592B (zh) 2021-07-20
US11019410B2 (en) 2021-05-25
CN109905592A (zh) 2019-06-18

Similar Documents

Publication Publication Date Title
KR102009426B1 (ko) 사용자의 인터랙션에 따라 제어 또는 합성된 콘텐츠를 제공하는 방법 및 장치
KR101933558B1 (ko) 동영상 내 하이라이트 댓글을 처리하기 위한 방법 및 시스템
US20180365270A1 (en) Context aware digital media browsing
US11609675B2 (en) Placement of objects in an augmented reality environment
CN112230909B (zh) 小程序的数据绑定方法、装置、设备及存储介质
KR101143606B1 (ko) 모바일 기기를 이용한 전시 정보를 제공하는 시스템, 사용자 단말 및 전시 정보 제공 방법
US20180367626A1 (en) Automatic digital media interaction feedback
CN111966275A (zh) 程序试用方法、系统、装置、设备及介质
JP7393487B2 (ja) プロフィール写真を推薦する方法とシステム、および非一時的なコンピュータ読み取り可能な記録媒体
US20220291808A1 (en) Integrating Artificial Reality and Other Computing Devices
KR20210083578A (ko) 영상과 댓글을 동시에 소비하는 경험을 제공하는 방법, 시스템, 및 컴퓨터 프로그램
US10248306B1 (en) Systems and methods for end-users to link objects from images with digital content
KR102316822B1 (ko) 영상과 관련된 사용자 반응에 기반하여 컨텐츠를 제공하는 방법, 장치, 및 컴퓨터 프로그램
US10915778B2 (en) User interface framework for multi-selection and operation of non-consecutive segmented information
KR20210157742A (ko) 가상현실 환경에서 웹 콘텐츠를 제공하기 위한 방법 및 시스템
CN113559503B (zh) 视频生成方法、设备及计算机可读介质
WO2018236601A1 (en) EXPLORING DIGITAL MEDIA BASED ON AUTOMATIC DIGITAL MEDIA INTERACTION CONTEXT AND FEEDBACK INTERACTION
TW201325674A (zh) 產生遊戲事件效果之方法、工具,與電腦可讀記錄媒體
KR101934799B1 (ko) 파노라마 영상을 이용하여 새로운 컨텐츠를 생성하는 방법 및 시스템
CN111652986A (zh) 舞台效果呈现方法、装置、电子设备及存储介质
CN110853643A (zh) 快应用中进行语音识别的方法、装置、设备及存储介质
KR102533209B1 (ko) 다이나믹 확장현실(xr) 콘텐츠 생성 방법 및 시스템
KR102276789B1 (ko) 동영상 편집 방법 및 장치
Rocha et al. Inpresso AR: a generic augmented book
KR20170139202A (ko) 파노라마 영상을 이용하여 새로운 컨텐츠를 생성하는 방법 및 시스템

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
AMND Amendment
E601 Decision to refuse application
AMND Amendment
X701 Decision to grant (after re-examination)
GRNT Written decision to grant