KR20230044069A - 컨텐츠 활용 플랫폼 시스템, 증강현실 기반의 이미지 출력물 제작방법 - Google Patents

컨텐츠 활용 플랫폼 시스템, 증강현실 기반의 이미지 출력물 제작방법 Download PDF

Info

Publication number
KR20230044069A
KR20230044069A KR1020210126475A KR20210126475A KR20230044069A KR 20230044069 A KR20230044069 A KR 20230044069A KR 1020210126475 A KR1020210126475 A KR 1020210126475A KR 20210126475 A KR20210126475 A KR 20210126475A KR 20230044069 A KR20230044069 A KR 20230044069A
Authority
KR
South Korea
Prior art keywords
augmented reality
subject
content
image
user
Prior art date
Application number
KR1020210126475A
Other languages
English (en)
Other versions
KR102561198B1 (ko
Inventor
이민구
Original Assignee
주식회사 더에스
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 더에스 filed Critical 주식회사 더에스
Priority to KR1020210126475A priority Critical patent/KR102561198B1/ko
Priority to US17/489,076 priority patent/US20230103116A1/en
Publication of KR20230044069A publication Critical patent/KR20230044069A/ko
Application granted granted Critical
Publication of KR102561198B1 publication Critical patent/KR102561198B1/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/25Management operations performed by the server for facilitating the content distribution or administrating data related to end-users or client devices, e.g. end-user or client device authentication, learning user preferences for recommending movies
    • H04N21/258Client or end-user data management, e.g. managing client capabilities, user preferences or demographics, processing of multiple end-users preferences to derive collaborative data
    • H04N21/25866Management of end-user data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/40Information retrieval; Database structures therefor; File system structures therefor of multimedia data, e.g. slideshows comprising image and additional audio data
    • G06F16/41Indexing; Data structures therefor; Storage structures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/40Information retrieval; Database structures therefor; File system structures therefor of multimedia data, e.g. slideshows comprising image and additional audio data
    • G06F16/43Querying
    • G06F16/435Filtering based on additional data, e.g. user or group profiles
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F21/00Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F21/30Authentication, i.e. establishing the identity or authorisation of security principals
    • G06F21/31User authentication
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/12Digital output to print unit, e.g. line printer, chain printer
    • G06F3/1201Dedicated interfaces to print systems
    • G06F3/1278Dedicated interfaces to print systems specifically adapted to adopt a particular infrastructure
    • G06F3/1285Remote printer device, e.g. being remote from client or server
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q20/00Payment architectures, schemes or protocols
    • G06Q20/08Payment architectures
    • G06Q20/12Payment architectures specially adapted for electronic shopping systems
    • G06Q20/123Shopping for digital content
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/02Marketing; Price estimation or determination; Fundraising
    • G06Q30/0207Discounts or incentives, e.g. coupons or rebates
    • G06Q30/0217Discounts or incentives, e.g. coupons or rebates involving input on products or services in exchange for incentives or rewards
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/20Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/20Scenes; Scene-specific elements in augmented reality scenes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • G06V40/28Recognition of hand or arm movements, e.g. recognition of deaf sign language
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/24Monitoring of processes or resources, e.g. monitoring of server load, available bandwidth, upstream requests
    • H04N21/2407Monitoring of transmitted content, e.g. distribution time, number of downloads
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/27Server based end-user applications
    • H04N21/274Storing end-user multimedia data in response to end-user request, e.g. network recorder
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/422Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
    • H04N21/4223Cameras
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/431Generation of visual interfaces for content selection or interaction; Content or additional data rendering
    • H04N21/4312Generation of visual interfaces for content selection or interaction; Content or additional data rendering involving specific graphical features, e.g. screen layout, special fonts or colors, blinking icons, highlights or animations
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/44Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs
    • H04N21/44008Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs involving operations for analysing video streams, e.g. detecting features or characteristics in the video stream
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/442Monitoring of processes or resources, e.g. detecting the failure of a recording device, monitoring the downstream bandwidth, the number of times a movie has been viewed, the storage space available from the internal hard disk
    • H04N21/44213Monitoring of end-user related data
    • H04N21/44218Detecting physical presence or behaviour of the user, e.g. using sensors to detect if the user is leaving the room or changes his face expression during a TV program
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/475End-user interface for inputting end-user data, e.g. personal identification number [PIN], preference data
    • H04N21/4758End-user interface for inputting end-user data, e.g. personal identification number [PIN], preference data for providing answers, e.g. voting
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/478Supplemental services, e.g. displaying phone caller identification, shopping application
    • H04N21/4781Games
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/478Supplemental services, e.g. displaying phone caller identification, shopping application
    • H04N21/4784Supplemental services, e.g. displaying phone caller identification, shopping application receiving rewards
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/81Monomedia components thereof
    • H04N21/812Monomedia components thereof involving advertisement data
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/81Monomedia components thereof
    • H04N21/8146Monomedia components thereof involving graphical data, e.g. 3D object, 2D graphics
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/81Monomedia components thereof
    • H04N21/8166Monomedia components thereof involving executable data, e.g. software
    • H04N21/8173End-user applications, e.g. Web browser, game
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/80Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game specially adapted for executing a specific type of game
    • A63F2300/8064Quiz
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • G06T2207/30201Face

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Business, Economics & Management (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Signal Processing (AREA)
  • Accounting & Taxation (AREA)
  • General Engineering & Computer Science (AREA)
  • Finance (AREA)
  • Strategic Management (AREA)
  • Software Systems (AREA)
  • Databases & Information Systems (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • General Business, Economics & Management (AREA)
  • Computer Graphics (AREA)
  • Development Economics (AREA)
  • Marketing (AREA)
  • Computer Hardware Design (AREA)
  • Social Psychology (AREA)
  • Human Computer Interaction (AREA)
  • Economics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Tourism & Hospitality (AREA)
  • Data Mining & Analysis (AREA)
  • Computer Security & Cryptography (AREA)
  • Entrepreneurship & Innovation (AREA)
  • Game Theory and Decision Science (AREA)
  • Psychiatry (AREA)
  • Primary Health Care (AREA)
  • Architecture (AREA)
  • Human Resources & Organizations (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Processing Or Creating Images (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

본 발명의 컨텐츠 활용 플랫폼 시스템은 촬영된 피사체에 증강현실 컨텐츠를 적용하여 이미지출력물을 제작하고 출력하는 이미지 제작장치; 사용자의 인원, 티켓 정보, 관람 정보, 예매 정보 및 피사체 이미지 중 적어도 하나의 정보에 기초하여 상기 이미지 제작장치에 증강현실 컨텐츠를 추출 및 제공하고, 상기 제작된 이미지를 제공받으며, 상기 제작된 이미지를 활용한 가상공간을 제공하는 서버; 및 상기 서버가 제공하는 상기 가상공간에 접속되는 사용자단말;을 포함한다.

Description

컨텐츠 활용 플랫폼 시스템, 증강현실 기반의 이미지 출력물 제작방법{PLATFORM SYSTEM USIING CONTENTS, METHOD FOR MANUFACTURING IMAGE OUTPUT BASED ON AUGMENTED REALITY}
본 발명은 컨텐츠 활용 플랫폼 시스템, 증강현실 기반의 이미지 출력물 제작방법에 관한 것이다.
최근 각종 컨텐츠를 활용하여 사업성을 높이는 분야에 대한 관심이 높다. 예를 들어, 영화, 애니메이션, 공연, 콘서트, 캐릭터를 단순히 영상 제공이나 공연 개최에서 그치는 것이 아니라, 해당 영화, 애니메이션, 공연에 등장하는 캐릭터나, 콘서트의 아티스트를 활용하여 굿즈 상품을 판매하거나, SNS 또는 영상 채널을 통해 지속적인 수익을 창출하는 분야에 진출하는 경우가 많다.
그 중 하나로 포토티켓이 있는데, 포토티켓(Photo Ticket)은 특정 사진 등의 이미지를 삽입하여 출력한 형태의 티켓을 의미한다. 종래의 티켓에는 해당 티켓의 목적이 되는 영화 또는 공연 등에 대한 정보만이 기재되어 있었으나, 다양한 서비스 제공 및 홍보를 위해 티켓의 형태가 다양해졌으며, 티켓이 포함하고 있는 컨텐츠도 풍부해졌다. 문화 산업에서 홍보가 차지하는 역할이 매우 중요하고, 기존보다 더욱 다양한 서비스가 요구되는 산업분야의 특성을 고려할 때, 포토티켓은 다양한 분야에서 독창적인 홍보 수단 중 하나로서 역할을 하고 있다.
포토티켓은 사용자가 예약 단계에서 원하는 이미지를 삽입하여 제작하거나, 영화 또는 공연 관람 후 포토티켓 제작 프로그램 등을 이용하여 제작하는 것이 가능하다. 최근에는 현장에서 포토티켓 제작 장치를 통해 이미지를 직접 촬영하고 삽입하여 제작하는 것도 가능하다.
증강현실(Augmented Reality, AR)은 현실(Reality)에 기반하여 정보를 증강(Augmented)하여 제공하는 기술로서, 현실의 이미지에 가상의 이미지를 추가하여 보여주는 기술이다. 이는, 가상현실(Virtual Reality)이 제공하는 이미지 모두를 가상의 이미지로 구성하여 보여주는 것과 비교되는 기술이다. 현재 증강현실 관련 기술은 네비게이션 시스템 또는 촬영 화면 등에 다양하게 활용되고 있다.
페이스 얼라인먼트(Face Alignment) 기술은 얼굴 이미지를 인식하고 트래킹하는 기술이다. 인공지능(Artificial Intelligence, AI) 시스템이 다수의 얼굴 데이터베이스를 학습하고, 이를 기반으로 얼굴에서 특징점의 위치를 예측하고 추출하여 추적하는 기술이다.
이처럼 영화, 애니메이션, 공연, 콘서트, 캐릭터를 활용하는 기술이 늘어나고 있는데, 여전히 한정된 기술분야로 제한적으로 활용되고 있을 뿐이다.
이에, 각종 컨텐츠를 활용하여 사용자에게 새로운 방식의 즐거움을 줄 수 있을 뿐만 아니라, 제작자 입장에서도 비용, 시간, 노력의 창조물인 컨텐츠를 지속적으로 활용할 수 있는 컨텐츠 활용 플랫폼 시스템이 필요한 실정이다.
본 발명의 목적은 각종 컨텐츠를 활용하여 사용자에게 새로운 방식의 즐거움을 줄 수 있을 뿐만 아니라, 제작자 입장에서도 비용, 시간, 노력의 창조물인 컨텐츠를 지속적으로 활용할 수 있는 컨텐츠 활용 플랫폼 시스템, 증강현실 기반의 이미지 출력물 제작방법을 제공하기 위한 것이다.
본 발명의 상기 및 기타의 목적들은 하기 설명되는 본 발명에 의하여 모두 달성될 수 있다.
본 발명의 하나의 관점은 컨텐츠 활용 플랫폼 시스템에 관한 것이다.
일 구체예에 따르면, 상기 컨텐츠 활용 플랫폼 시스템은 사용자의 인원, 티켓 정보, 관람 정보, 예매 정보 및 피사체 이미지 중 적어도 하나의 정보에 기초하여 이미지 제작장치에 증강현실 컨텐츠를 추출 및 제공하고, 상기 이미지 제작장치로부터 제작된 이미지를 제공받으며, 사용자단말에 상기 제작된 이미지를 활용한 가상공간을 제공하는 서버; 촬영된 피사체에 증강현실 컨텐츠를 적용하여 이미지출력물을 제작하고 출력하는 이미지 제작장치; 및 상기 서버가 제공하는 상기 가상공간에 접속되는 사용자단말;을 포함한다.
상기 서버는, 상기 이미지 제작장치에 증강현실 컨텐츠를 제공하는 AR컨텐츠 제공부; 상기 사용자가 접속할 수 있는 가상공간을 상기 사용자단말에 제공하는 가상공간제공부; 상기 사용자 정보 및 인증코드 중 하나 이상을 저장하고 관리하는 사용자 데이터베이스; 상기 사용자로부터 비용 결제를 수행하는 결제부; 상기 이미지 제작장치 및 사용자단말 중 하나 이상에 설문을 요청하는 설문관리부; 상기 이미지 제작장치 및 사용자단말 중 하나 이상에 쿠폰 및 상품을 제공하는 이벤트관리부; 및 상기 이미지 제작장치 및 사용자단말과 유선통신 및 무선통신 중 하나 이상이 가능한 통신부; 중 하나 이상을 포함할 수 있다.
상기 AR컨텐츠 제공부는, 콘텐츠 제작사 및 상기 사용자 중 하나 이상으로부터 제공받은 증강현실 컨텐츠를 저장 및 관리하는 AR데이터베이스; 및 사용자의 인원, 티켓 정보, 관람 정보, 예매 정보 및 피사체 이미지 중 적어도 하나의 정보에 기초하여 증강현실 컨텐츠를 추출하고 상기 이미지 제작장치에 제공하는 AR컨텐츠 추천부; 중 하나 이상을 포함할 수 있다.
상기 AR컨텐츠 추천부는 상기 모션인식센서가 인식한 상기 피사체의 모션 및 제스처에 따라 추가적인 증강현실 이미지를 함께 제공할 수 있다.
상기 가상공간제공부는, 상기 가상공간에 접속된 하나 이상의 사용자가 퀴즈를 풀고 대응되는 보상을 받을 수 있는 퀴즈필드; 상기 가상공간에 접속된 사용자가 컨텐츠 관련 아이템 및 상품 중 하나 이상을 구매할 수 있는 아이템필드; 및 상기 가상공간에 접속된 사용자가 상기 컨텐츠 관련 인물과 상호 통신하거나, 상기 컨텐츠 관련 인물이 제공하는 이미지 또는 영상을 볼 수 있는 액터필드; 중 하나 이상을 포함할 수 있다.
상기 이미지 제작장치는, 상기 서버와 유선통신 및 무선통신 중 하나 이상이 가능한 통신부; 피사체를 인식하기 위한 센서부; 상기 사용자의 정보 및 요청을 입력받는 입력부; 피사체를 촬영하는 촬영부; 상기 피사체 및 증강현실 컨텐츠가 나타나는 촬영화면 및 출력화면을 표시하는 표시부; 및 상기 증강현실 컨텐츠가 적용되어 촬영된 이미지를 삽입하여 제작 및 출력하는 출력부; 중 하나 이상을 포함할 수 있다.
상기 센서부는, 상기 피사체의 접근을 인식하는 인체센서; 및 상기 피사체의 모션 및 제스처를 인식하는 모션인식센서; 중 하나 이상을 포함할 수 있다.
상기 이미지 제작장치는, 상기 센서부를 통해 감지된 피사체 중에서 촬영 대상에 해당되는 피사체를 설정하고, 상기 사용자의 인원, 티켓 정보, 관람 정보 및 예매 정보 중 적어도 하나의 정보에 기초하여 데이터베이스에서 증강현실 컨텐츠를 추출하고, 상기 촬영 대상에 해당되는 피사체의 제스쳐 및 촬영 방향을 분석하고, 분석 결과를 기초로 하여 상기 촬영 대상에 해당되는 피사체의 제스쳐에 매칭되는 증강현실 컨텐츠를 해당 피사체의 촬영 방향을 고려하여 적용하고 촬영 화면으로 제공하고, 사용자로부터 선택된 증강현실 컨텐츠가 적용되어 촬영된 이미지를 삽입하여 이미지출력물을 제작 및 출력하고, 상기 촬영 대상에 해당되는 피사체의 얼굴 및 손을 포함하는 신체부위에 대한 랜드마크 특징점을 추출하고, 상기 랜드마크 특징점을 기반으로 상기 피사체를 실시간 인식 및 트래킹하며, 상기 증강현실 컨텐츠의 크기를 상기 피사체의 크기에 따라 자동으로 조정하고, 상기 사용자가 특정 영화를 관람하고 티켓 정보를 입력한 경우 상기 특정 영화와 관련된 증강현실 컨텐츠를 추출하고, 상기 촬영 대상에 해당되는 피사체의 위치, 표정, 제스쳐 중 적어도 하나를 포함하는 피사체 분석정보를 기초로 하여 증강현실 컨텐츠를 자동으로 매칭 및 추천해주고, 상기 특정 영화에 대한 증강현실 컨텐츠를 상기 촬영 대상에 해당되는 피사체에게 적용하는 경우, 상기 센서부를 통해 감지된 피사체 중에서 촬영 대상에 해당되지 않는 피사체에게 상기 특정 영화의 캐릭터 또는 배경화면에 해당하는 증강현실 컨텐츠를 적용하고, 화면을 차지하는 면적을 기준으로 상기 촬영 대상에 해당되는 피사체와 상기 촬영 대상에 해당되지 않는 피사체를 구별할 수 있다.
상기 사용자단말은, 상기 서버와 유선통신 및 무선통신 중 하나 이상이 가능한 통신부; 상기 사용자의 정보 및 요청을 입력받는 입력부; 사용자가 제작한 증강현실 컨텐츠를 상기 서버에 제공하는 사용자 컨텐츠 제공부; 및 상기 가상공간 및 상기 서버와의 통신에 필요한 내용을 표시하는 표시부; 중 하나 이상을 포함할 수 있다.
본 발명의 다른 관점은 증강현실 기반의 이미지출력물 제작 방법에 관한 것이다.
일 구체예에서, 상기 증강현실 기반의 이미지출력물 제작 방법은 상기 컨텐츠 활용 플랫폼 시스템으로 이미지출력물을 제작하는 이미지 제작장치에 있어서, 촬영을 개시하는 단계; 상기 센서부를 통해 감지된 피사체 중에서 촬영 대상에 해당되는 피사체를 설정하는 단계; 사용자의 인원, 티켓 정보, 관람 정보 및 예매 정보 중 적어도 하나의 정보에 기초하여 데이터베이스에서 증강현실 컨텐츠를 추출하는 단계; 상기 촬영 대상에 해당되는 피사체의 제스쳐 및 촬영 방향을 분석하고, 분석 결과를 기초로 하여 상기 촬영 대상에 해당되는 피사체의 제스쳐에 매칭되는 증강현실 컨텐츠를 해당 피사체의 촬영 방향을 고려하여 적용하고 촬영 화면으로 제공하는 단계; 및 상기 사용자로부터 선택된 증강현실 컨텐츠가 적용되어 촬영된 이미지를 삽입하여 이미지출력물을 제작 및 출력하는 단계를 포함하고, 상기 촬영 화면으로 제공하는 단계는, 상기 촬영 대상에 해당되는 피사체의 얼굴 및 손을 포함하는 신체부위에 대한 랜드마크 특징점을 추출하고, 상기 랜드마크 특징점을 기반으로 상기 피사체를 실시간 인식 및 트래킹하며, 상기 증강현실 컨텐츠의 크기를 상기 피사체의 크기에 따라 자동으로 조정하고, 상기 사용자가 특정 영화를 관람하고 티켓 정보를 입력한 경우 상기 특정 영화와 관련된 증강현실 컨텐츠를 추출하고, 상기 촬영 대상에 해당되는 피사체의 위치, 표정, 제스쳐 중 적어도 하나를 포함하는 피사체 분석정보를 기초로 하여 증강현실 컨텐츠를 자동으로 매칭 및 추천해주고, 상기 특정 영화에 대한 증강현실 컨텐츠를 상기 촬영 대상에 해당되는 피사체에게 적용하는 경우, 상기 센서부를 통해 감지된 피사체 중에서 촬영 대상에 해당되지 않는 피사체에게 상기 특정 영화의 캐릭터 또는 배경화면에 해당하는 증강현실 컨텐츠를 적용하고, 화면을 차지하는 면적을 기준으로 상기 촬영 대상에 해당되는 피사체와 상기 촬영 대상에 해당되지 않는 피사체를 구별할 수 있다.
상기 촬영을 개시하는 단계는, 촬영 영역에 임의의 피사체가 특정 사이즈 이상으로 인지되는 경우 상기 임의의 피사체에 증강현실 컨텐츠가 적용된 화면을 표시하고 소리를 출력하는 단계를 포함할 수 있다.
상기 증강현실 컨텐츠 추출 단계는, 사전에 학습된 데이터베이스를 기초로 인공지능 기술을 적용하여 피사체에 대한 나이, 성별, 표정 및 제스쳐를 인식하여 분석하고, 이를 기초로 하여 증강현실 컨텐츠를 자동으로 매칭하여 추천해 줄 수 있다.
상기 이미지출력물을 제작 및 출력하는 단계는, 복수의 이미지를 생성하는 단계; 상기 복수의 이미지를 출력영역에 분배하는 단계; 및 상기 이미지출력물의 종류를 설정하는 단계를 포함할 수 있다.
본 발명은 각종 컨텐츠를 활용하여 사용자에게 새로운 방식의 즐거움을 줄 수 있을 뿐만 아니라, 제작자 입장에서도 비용, 시간, 노력의 창조물인 컨텐츠를 지속적으로 활용할 수 있는 컨텐츠 활용 플랫폼 시스템, 증강현실 기반의 이미지 출력물 제작방법을 제공하는 효과를 갖는다.
도 1은 본 발명의 일 구체예에 따른 컨텐츠 활용 플랫폼 시스템을 간단히 도시한 것이다.
도 2는 본 발명의 일 구체예에 따른 이미지 제작장치를 블록도로 간단히 도시한 것이다.
도 3은 본 발명의 일 구체예에 따른 서버를 블록도로 간단히 도시한 것이다.
도 4는 본 발명의 일 구체예에 따른 (a)퀴즈필드, (b)아이템필드 및 (c)액터필드를 간단히 도시한 것이다.
도 5는 본 발명의 일 구체예에 따른 사용자단말을 블록도로 간단히 도시한 것이다.
도 6은 본 발명의 일 구체예에 따른 사용자의 모션 및 제스처의 예시에 관한 사진이다.
도 7은 본 발명의 일 구체예에 따른 게이미피케이션 컨텐츠를 간단히 설명하는 것이다.
도 8은 본 발명의 일 구체예에 따른 증강현실 기반의 이미지출력물 제작 방법을 개략적으로 나타내는 흐름도이다.
도 9는 본 발명의 일 구체예에 따른 증강현실 기반의 이미지출력물 제작 방법에서 증강현실 컨텐츠를 적용하여 촬영하는 단계를 세부적으로 나타낸 흐름도이다.
도 10은 본 발명의 일 실시예에 따른 증강현실 컨텐츠가 적용되기 전과 후의 이미지를 예시한 도면이다.
도 11은 본 발명의 다른 실시예에 따른 피사체가 복수인 경우 증강현실 컨텐츠가 적용된 이미지를 예시한 도면이다.
도 12는 본 발명의 또 다른 실시예에 따른 피사체의 촬영방향이 옆모습에 해당할 때 증강현실 컨텐츠가 적용되기 전과 후의 이미지를 예시한 도면이다.
도 13은 본 발명의 일 실시예에 따른 복수의 이미지를 구분된 영역에 삽입 및 조합하여 출력된 모습을 예시한 도면이다.
도 14는 본 발명의 다른 실시예에 따른 제작된 이미지출력물의 전면 및 후면에 각각 이미지가 삽입된 모습을 예시한 도면이다.
이하, 첨부한 도면들을 참조하여, 본 출원의 구체예들을 보다 상세하게 설명하고자 한다. 그러나 본 출원에 개시된 기술은 여기서 설명되는 구체예들에 한정되지 않고 다른 형태로 구체화될 수도 있다.
단지, 여기서 소개되는 구체예들은 개시된 내용이 철저하고 완전해 질 줄 수 있도록 그리고 당업자에게 본 출원의 사상이 충분히 전달될 수 있도록 하기 위해 제공되는 것이다. 도면에서 각 장치의 구성요소를 명확하게 표현하기 위하여 상기 구성요소의 폭이나 두께 등의 크기를 다소 확대하여 나타내었다. 또한 설명의 편의를 위하여 구성요소의 일부만을 도시하기도 하였으나, 당업자라면 구성요소의 나머지 부분에 대하여도 용이하게 파악할 수 있을 것이다.
전체적으로 도면 설명 시 관찰자 시점에서 설명하였고, 일 요소가 다른 요소 상부에 또는 하부에 위치하는 것으로 언급되는 경우, 이는 상기 일 요소가 다른 요소 상부에 또는 하부에 바로 위치하거나 또는 그들 요소들 사이에 추가적인 요소가 개재될 수 있다는 의미를 모두 포함한다. 또한 해당 분야에서 통상의 지식을 가진 자라면 본 출원의 기술적 사상을 벗어나지 않는 범위 내에서 본 출원의 사상을 다양한 다른 형태로 구현할 수 있을 것이다. 그리고, 복수의 도면들 상에서 동일 부호는 실질적으로 서로 동일한 요소를 지칭한다.
한편, 본 출원에서 서술되는 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함하는 것으로 이해되어야 하고, '포함하다' 또는 '가지다'등의 용어는 기술되는 특징, 숫자, 단계, 동작, 구성요소, 부분품 또는 이들의 조합한 것에 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부분품 또는 이들의 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.
또한, 본 명세서에 있어서, 범위를 나타내는 'X 내지 Y'는 'X 이상 Y 이하'를 의미한다.
본 명세서에 있어서 '부(部)'란, 하드웨어에 의해 실현되는 유닛 (unit), 소프트웨어에 의해 실현되는 유닛, 양방을 이용하여 실현되는 유닛을 포함한다. 또한, 1개의 유닛이 2개 이상의 하드웨어를 이용하여 실현되어도 되고, 2개 이상의 유닛이 1개의 하드웨어에 의해 실현되어도 된다. 한편, '~부'는 소프트웨어 또는 하드웨어에 한정되는 의미는 아니며, '~부'는 어드레싱 할 수 있는 저장 매체에 있도록 구성될 수도 있고 하나 또는 그 이상의 프로세서들을 재생시키도록 구성될 수도 있다. 따라서, 일 예로서 '~부'는 소프트웨어 구성요소들, 객체지향 소프트웨어 구성요소들, 클래스 구성요소들 및 태스크 구성요소들과 같은 구성요소들과, 프로세스들, 함수들, 속성들, 프로시저들, 서브루틴들, 프로그램 코드의 세그먼트들, 드라이버들, 펌웨어, 마이크로코드, 회로, 데이터, 데이터베이스, 데이터 구조들, 테이블들, 어레이들 및 변수들을 포함한다. 구성요소들과 '~부'들 안에서 제공되는 기능은 더 작은 수의 구성요소들 및 '~부'들로 결합되거나 추가적인 구성요소들과 '~부'들로 더 분리 될 수 있다. 뿐만 아니라 구성 요소들 및 '~부'들은 디 바이 스 또는 보안 멀티미디어카드 내의 하나 또는 그 이상의 CPU 들을 재생시키도록 구현될 수도 있다.
또한, '네트워크'는 근거리 통신망(Local Area Network; LAN), 광역 통신망(Wide Area Network; WAN) 또는 부가가치 통신 망(Value Added Network; VAN) 등과 같은 유선 네트워크나 이동 통신망(mobile radio communication network) 또는 위성 통신망 등과 같은 모든 종류의 무선 네트워크로 구현될 수 있다.
본 명세서에서 '이미지출력물'은 티켓의 목적이 되는 영화 또는 공연 등에 대한 정보와 함께 사용자가 원하는 이미지가 삽입된 형태의 출력물을 의미한다. 구체적인 예로, 포토티켓(Photo ticket)이 있으며 이에 한정되는 것은 아니고 이미지가 삽입되어 출력된 임의의 출력물을 포함한다.
본 명세서에서 '피사체'는 이미지출력물에 삽입될 이미지를 촬영할 때, 대상이 되는 사용자 등의 촬영 주체 또는 촬영화면에 포함되는 제3의 주체 등을 의미한다. 본 명세서에서 '증강현실 컨텐츠'는 증강현실 기술 기반으로 이미지에 삽입되는 컨텐츠를 의미한다. 증강현실 컨텐츠는 티켓의 목적이 되는 영화 또는 공연 등과 관련된 컨텐츠일 수 있으나, 이에 한정되는 것은 아니고 무관한 컨텐츠도 포함한다. 본 명세서에서 '메인컨텐츠(41)'는 사용자로 특정된 피사체에 적용되는 증강현실 컨텐츠를 의미한다. 본 명세서에서 '서브컨텐츠(43)'는 사용자로 특정되지 않은 피사체에 적용되는 증강현실 컨텐츠를 의미한다. 본 명세서에서 '촬영영역'은 이미지 촬영에 이용되는 전자기기를 통해 촬영할 수 있는 공간을 의미한다. 예를 들어, 상기 전자기기가 증강현실 기능을 갖춘 카메라인 경우, 해당 카메라 렌즈로부터 수 미터 이내의 공간을 의미할 수 있다. 본 명세서에서 '촬영방향'은 사용자가 촬영을 위해 전자기기 앞에 서있는 방향을 의미한다. 예를 들어, 사용자는 정면으로 전자기기를 바라보고 있을 수 있고, 사용자의 측면으로서, 왼쪽 또는 오른쪽 면이 전자기기를 향하도록 할 수 있다. 본 명세서에서 '렌티큘러(Lenticular)'는 평면의 이미지를 3D 그래픽 기술을 통해 입체적인 이미지 또는 보는 각도에 따라 다른 이미지로 보이도록 하는 기술을 의미한다. 본 명세서에서 '랜드마크 특징점'은 피사체의 신체 일부(예를 들어, 얼굴, 손 등) 또는 전부를 식별하기 위한 특징이 되는 요소를 의미한다.
컨텐츠 활용 플랫폼 시스템
도 1 내지 도 5를 참고하여 본 발명의 일 구체예에 따른 컨텐츠 활용 플랫폼 시스템을 설명한다. 도 1은 본 발명의 일 구체예에 따른 컨텐츠 활용 플랫폼 시스템을 간단히 도시한 것이고, 도 2는 본 발명의 일 구체예에 따른 이미지 제작장치를 블록도로 간단히 도시한 것이고, 도 3은 본 발명의 일 구체예에 따른 서버를 블록도로 간단히 도시한 것이고, 도 4는 본 발명의 일 구체예에 따른 (a)퀴즈필드, (b)아이템필드 및 (c)액터필드를 간단히 도시한 것이이고, 도 5는 본 발명의 일 구체예에 따른 사용자단말을 블록도로 간단히 도시한 것이다.
일 구체예에 따르면 상기 컨텐츠 활용 플랫폼 시스템은 사용자의 인원, 티켓 정보, 관람 정보, 예매 정보 및 피사체 이미지 중 적어도 하나의 정보에 기초하여 이미지 제작장치(100)에 증강현실 컨텐츠를 추출 및 제공하고, 상기 이미지 제작장치(100)로부터 제작된 이미지를 제공받으며, 사용자단말(300)에 상기 제작된 이미지를 활용한 가상공간을 제공하는 서버(200); 촬영된 피사체에 증강현실 컨텐츠를 적용하여 이미지출력물을 제작하고 출력하는 이미지 제작장치(100); 및 상기 서버가 제공하는 상기 가상공간에 접속되는 사용자단말(300);을 포함한다.
상기 서버(200)는, 상기 이미지 제작장치(100)에 증강현실 컨텐츠를 제공하는 AR컨텐츠 제공부(210); 상기 사용자가 접속할 수 있는 가상공간을 상기 사용자단말에 제공하는 가상공간제공부(220); 상기 사용자 정보 및 인증코드 중 하나 이상을 저장하고 관리하는 사용자 데이터베이스(230); 상기 사용자로부터 비용 결제를 수행하는 결제부(240); 상기 이미지 제작장치(100) 및 사용자단말(300) 중 하나 이상에 설문을 요청하는 설문관리부(250); 상기 이미지 제작장치(100) 및 사용자단말(300) 중 하나 이상에 쿠폰 및 상품을 제공하는 이벤트관리부(260); 및 상기 이미지 제작장치(100) 및 사용자단말(300)과 유선통신 및 무선통신 중 하나 이상이 가능한 통신부(270); 중 하나 이상을 포함할 수 있다.
상기 AR컨텐츠 제공부(210)는 사용자의 인원, 티켓 정보, 관람 정보, 예매 정보 및 피사체 이미지 중 적어도 하나의 정보에 기초하여 이미지 제작장치(100)에 증강현실 컨텐츠를 추출 및 제공하는 역할을 한다. 구체적으로 사용자가 특정 영화를 관람하고 티켓 정보를 입력한 경우 상기 특정 영화와 관련된 증강현실 컨텐츠를 추출하고, 상기 촬영 대상에 해당되는 피사체의 위치, 표정, 제스쳐 중 적어도 하나를 포함하는 피사체 분석정보를 기초로 하여 증강현실 컨텐츠를 자동으로 매칭 및 추천할 수 있다.
상기 AR컨텐츠 제공부(210)는, 콘텐츠 제작사 및 상기 사용자 중 하나 이상으로부터 제공받은 증강현실 컨텐츠를 저장 및 관리하는 AR데이터베이스(211); 및 사용자의 인원, 티켓 정보, 관람 정보, 예매 정보 및 피사체 이미지 중 적어도 하나의 정보에 기초하여 증강현실 컨텐츠를 추출하고 상기 이미지 제작장치에 제공하는 AR컨텐츠 추천부(213); 중 하나 이상을 포함할 수 있다.
상기 AR컨텐츠 추천부(213)는 상기 이미지 제작장치(100)에 구비된 모션인식센서가 인식한 상기 피사체의 모션 및 제스처에 따라 추가적인 증강현실 이미지를 함께 제공할 수 있다. 구체적으로, 상기 피사체 이미지는 피사체의 크기 정보, 방향 정보, 각도 정보 등을 포함할 수 있고, 도 6을 참조하면, 상기 피사체의 모션 및 제스처는 손하트, 미니하트, 1, 가위바위보, 빅토리, OK, 썸업, 피스 등 미리 설정되고 입력된 제스쳐일 수 있다. 예를 들어, 상기 모션 및 제스처에 따라 제공되는 추가적인 증강현실 이미지는 작은 하트, 안경, 커다란 썸업, 모자, 머리카락, 화장 등일 수 있으며 이에 제한되지 않는다.
다른 구체예에서, 상기 AR데이터베이스(211)는 게이미피케이션 관련 컨텐츠를 저장할 수 있고, 상기 AR컨텐츠 추천부(213)는 게이미피케이션 관련 컨텐츠를 추출 및 제공할 수 있다. 구체적으로, 이미지 제작장치(100)에서 사용자가 선택한 카테고리에 대한 답변, 문구 등을 컨텐츠로 제공할 수 있다. 도 7을 참조하면, 상기 게이미피케이션 관련 컨텐츠는 고민 카테고리를 포함할 수 있고, 이에 대한 답변, 힐링문구 등을 증강현실 컨텐츠로 상기 이미지 제작장치(100)에 제공할 수 있다.
상기 AR컨텐츠 제공부(210)로부터 상기 이미지 제작장치(100)에 제공된 증강현실 컨텐츠는 이미지 제작장치(100)에서 촬영된 피사체에 적용될 수 있고, 이렇게 제작된 이미지는 사용자 정보 및 인증코드와 함께 다시 상기 서버(200)로 제공될 수 있다.
상기 가상공간제공부(220)는 상기 이미지 제작장치(100)에서 제작된 이미지를 활용한 가상공간을 상기 사용자단말(300)에 제공하여 사용자가 접속하도록 할 수 있다. 상기 제작된 이미지는 상기 가상공간 상에서 사용자의 캐릭터에 표현될 수 있고, 또는 가상공간 상의 보관함이나 지갑 등에 저장되어 사용자가 확인하거나, 다른 사용자에게 보여줄 수 있고, 또는 상기 제작된 이미지를 캐릭터 상에 표시되도록 할 수 있다.
구체적으로, 상기 사용자단말(300)이 상기 가상공간에 접속하는 경우, 사용자 정보를 기초로 사용자의 캐릭터로 접속할 수 있으며, 상기 인증코드를 기초로 상기 가상공간에서 이동 또는 출입 가능한 필드(또는 영역 또는 카테고리)가 정해질 수 있다.
예를 들어 상기 가상공간제공부(220)는 도 4를 참고하면, 상기 가상공간에 접속된 하나 이상의 사용자가 퀴즈를 풀고 대응되는 보상을 받을 수 있는 퀴즈필드(도 4 (a)); 상기 가상공간에 접속된 사용자가 컨텐츠 관련 아이템 및 상품 중 하나 이상을 구매할 수 있는 아이템필드(도 4 (b)); 및 상기 가상공간에 접속된 사용자가 상기 컨텐츠 관련 인물과 상호 통신하거나, 상기 컨텐츠 관련 인물이 제공하는 이미지 또는 영상을 볼 수 있는 액터필드(도 4(c)); 중 하나 이상을 포함할 수 있다.
상기 인증코드를 기초로 출입이 가능한 상기 퀴즈필드, 아이템필드, 액터필드가 정해질 수 있다. 예를 들어, 사용자가 A영화를 본 후 상기 이미지 제작장치(100)에서 A영화 정보, 사용자 정보를 입력하여 이미지를 제작하고 출력하며, 상기 제작된 이미지는 상기 서버(200)에 사용자 정보 및 인증코드와 함께 제공될 수 있고, 이때 상기 인증코드는 상기 A영화 관람을 인증하는 인증코드일 수 있다. 상기 사용자는 사용자단말(300)을 사용하여 상기 인증코드를 기초로 상기 A영화와 관련된 퀴즈필드, 아이템필드, 액터필드 가상공간에 접속할 수 있다. 이는 영화뿐만 아니라, 콘서트, 스포츠 경기장, 박물관, 팬미팅, 기업브랜드 행사, 테마파크, 관광지에도 적용될 수 있고, 이런 경우 액터필드 가상공간은 가수, 스포츠 스타, 전시품, 연예인 등으로 다양하게 구성될 수 있다.
구체적으로, 상기 퀴즈필드는 1 이상의 사용자에게 해당 인증코드와 관련된 영화, 콘서트, 스포츠 경기장, 박물관, 팬미팅, 기업브랜드 행사, 테마파크, 관광지를 경험한 사용자가 알 수 있는 퀴즈(매니아 인증 퀴즈)들로 구성될 수 있으며 상기 사용자가 2 이상인 경우 경쟁할 수 있고, 상기 이벤트 관리부(260)는 이에 대한 보상으로 상기 사용자에게 쿠폰 등을 보상할 수 있다.
구체적으로, 상기 아이템필드는 인증코드와 관련된 영화, 콘서트, 스포츠 경기장, 박물관, 팬미팅, 기업브랜드 행사, 테마파크, 관광지와 관련된 실제 상품 및 가상 공간에서 적용할 수 있는 아이템 등을 구매할 수 있으며, 상기 아이템은 상기 가상공간 상에서 사용자의 캐릭터에 표현될 수 있고, 또는 가상공간 상의 보관함이나 지갑 등에 저장되어 사용자가 확인하거나, 다른 사용자에게 보여줄 수 있고, 또는 상기 제작된 이미지를 캐릭터 상에 표시되도록 할 수 있다. 이때 비용에 대해서는 서버(200)의 결제부(240)가 상기 사용자단말(300)을 통해 수행할 수 있다.
구체적으로, 상기 액터필드는 인증코드와 관련된 영화, 콘서트, 스포츠 경기장, 박물관, 팬미팅, 기업브랜드 행사, 테마파크, 관광지와 관련된 인물, 작품, 또는 건축물 등과 관련된 이미지 또는 영상을 볼 수 있다. 액터필드의 대상이 인물인 경우에는 미리 정해진 날짜 및 시간에 해당 인물과 상호 통신 교류 할 수도 있어 사용자에게 동기를 부여하는 효과가 있다.
상기 사용자 데이터베이스(230)는 사용자 정보, 인증코드 및 이미지 제작장치(100)로부터 제공받은 제작된 이미지 중 하나 이상을 사용자 별로 저장하고 관리할 수 있다. 상기 사용자 정보는 성별, 나이, 핸드폰 번호, 관심 분야 중 하나 이상을 포함할 수 있다. 상기 인증코드는 상기 사용자가 이미지 제작장치(100)에서 입력한 영화정보, 경기정보, 콘서트 정보, 관광지 정보, 박물관 정보, 팬미팅 정보, 기업브랜드 정보, 테마파크 정보에 관한 것으로 해당 장소에서 관람, 방문한 것을 인증하는 것일 수 있다.
상기 결제부(240)는 상기 이미지 제작장치(100)를 사용하는 비용을 결제하는 것으로써, 상기 이미지 제작장치(100)와 연계, 통신하여 사용자로부터 비용을 결제받을 수 있다. 상기 결제 수단에 대해서는 당업자가 용이하게 적용 가능한 수단을 제한 없이 적용할 수 있다.
상기 설문관리부(250)는 상기 영화, 콘서트, 스포츠 경기장, 박물관, 팬미팅, 기업브랜드 행사, 테마파크, 관광지에 관한 설문을 상기 이미지 제작장치(100) 또는 사용자단말(300)에 제공하여 사용자로부터 정보를 수집할 수 있다. 또한, 상기 서버(200)가 제공한 증강현실 컨텐츠에 관한 설문을 상기 이미지 제작장치(100) 또는 사용자단말(300)에 제공하여 사용자로부터 정보를 수집할 수 있다.
상기 이벤트 관리부(260)는 상기 영화, 콘서트, 스포츠 경기장, 박물관, 팬미팅, 기업브랜드 행사, 테마파크, 관광지에서 제공하는 이벤트 또는 쿠폰을 이미지 제작장치(100) 또는 사용자단말(300)로 전송하여 사용자에게 공지 또는 제공할 수 있다. 또한, 상기 서버(200)가 제공한 증강현실 컨텐츠에 관한 이벤트 또는 쿠폰을 이미지 제작장치(100) 또는 사용자단말(300)로 전송하여 사용자에게 공지 또는 제공할 수 있다.
상기 통신부(270)는 상기 이미지 제작장치(100) 또는 사용자단말(300)과 유무선 통신을 수행할 수 있다.
상기 이미지 제작장치(100)는, 상기 서버와 유선통신 및 무선통신 중 하나 이상이 가능한 통신부(110); 피사체를 인식하기 위한 센서부(120); 상기 사용자의 정보 및 요청을 입력받는 입력부(130); 피사체를 촬영하는 촬영부(140); 상기 피사체 및 증강현실 컨텐츠가 나타나는 촬영화면 및 출력화면을 표시하는 표시부(150); 및 상기 증강현실 컨텐츠가 적용되어 촬영된 이미지를 삽입하여 제작 및 출력하는 출력부(160); 중 하나 이상을 포함할 수 있다.
상기 통신부(110)는 상기 서버(200)와 유무선 통신을 수행할 수 있다.
상기 센서부(120)는, 상기 피사체의 접근을 인식하는 인체센서(121); 및 상기 피사체의 모션 및 제스처를 인식하는 모션인식센서(123); 중 하나 이상을 포함할 수 있다.
상기 인체센서(121)는 상기 피사체 또는 사용자가 이미지 제작장치(100)로 접근 여부를 판단할 수 있고, 상기 모션인식센서(123)는 상기 피사체 또는 사용자의 모션 및 제스처와 촬영 방향 등을 인식하고 분석하여 이에 관한 정보를 데이터화하여 통신부(110)를 통해 서버(200)로 전송할 수 있다.
다른 구체예에서 상기 센서부(120)는 피사체의 홍채 검출 및 분석을 위한 홍채 인식 센서를 포함할 수 있다.
상기 입력부(130)는 사용자로부터 피사체의 인원, 티켓 정보, 관람 정보, 예매 정보, 사용자 정보 및 이미지 제작장치(100) 사용을 위한 정보를 입력받을 수 있다. 사용자로부터 정보를 입력받는 방법은 물리적인 버튼을 통한 입력, 터치스크린을 통한 입력 및 QR 코드(Quick Response Code) 또는 바코드(Barcode) 스캔을 통한 입력 등이 가능하며, 이에 한정되는 것은 아니다.
상기 촬영부(140)는 상기 피사체 또는 사용자를 촬영하는 증강현실 기능을 갖춘 카메라 또는 렌티큘러 카메라(Lenticular Camera)가 있으며, 이에 한정되는 것은 아니다.
상기 증강현실 기능을 갖춘 카메라는 피사체의 얼굴 등의 신체부위를 인식하여 트래킹하는 페이스 얼라인먼트(Face Alignment) 기술이 적용되고, 촬영 화면에 증강현실 콘텐츠를 적용할 수 있는 카메라를 의미한다.
상기 렌티큘러 카메라는 렌티큘러 사진 촬영을 목적으로 하는 다수의 렌즈를 갖춘 카메라를 의미한다.
일 실시예로, 촬영부(140)는 증강현실 영상처리 모듈(미도시)을 포함할 수 있다. 증강현실 영상처리 모듈은 하나 이상의 피사체에 사전 저장된 증강현실 컨텐츠를 적용하여 촬영하되, 상기 피사체의 얼굴 및 손을 포함하는 신체부위에 대한 랜드마크 특징점을 추출하고, 상기 랜드마크 특징점을 기반으로 상기 피사체를 실시간 인식 및 트래킹하며, 상기 증강현실 컨텐츠의 크기를 상기 피사체의 크기에 따라 자동으로 조정하는 역할을 수행한다. 촬영부(140)는 피사체의 특징을 추출하여 증강현실 영상처리 모듈에 설정 및 저장할 수 있다. 한편, 증강현실 영상처리 모듈은 촬영부(140)와 독립적으로 구성되는 것도 가능하다.
다른 실시예로, 증강현실 영상처리 모듈은 인공지능 기술, 머신 러닝(Machine learning) 기술 및 딥 러닝(Deep learing) 기술이 적용될 수 있다. 구체적인 예로, 증강현실 영상처리 모듈은 사전 저장된 데이터베이스 및 학습한 데이터베이스를 기초로 하여 피사체에 대한 정보(예를 들어, 나이, 성별, 인종, 모션 등)을 피사체로부터 입력받지 않고서 자동으로 인식 및 분석할 수 있다. 다른 구체적인 예로, 증강현실 영상처리 모듈은 피사체의 위치, 표정, 제스쳐 등의 피사체에 대한 분석정보를 기초로 증강현실 컨텐츠를 자동으로 매칭 및 추천할 수 있다. 표시부(150)는 피사체 및 증강현실 컨텐츠가 나타나는 촬영화면 및 출력화면을 표시하는 역할을 한다. 사용자는 표시부(150)를 통해 촬영화면을 확인하며 이미지 촬영이 가능하고, 출력될 이미지를 미리 확인하고 출력 단계를 진행할 수 있다.
상기 표시부(150)는 디스플레이일 수 있다.
상기 출력부(160)는 이미지 제작장치(100)에서 제작된 이미지를 실물로 출력하는 프린터 등일 수 있으나 이에 제한되지 않는다. 구체적으로 출력부(160)는 출력하는 이미지출력물의 종류에 따라 다양한 기술이 적용될 수 있다. 예를 들어, 렌티큘러 카드(Lenticular Card) 형태의 이미지출력물을 출력하는 경우는, 렌티큘러 필름을 구비하고, 이를 출력할 수 있는 장비가 포함된다.
이미지출력물의 종류는 플라스틱 카드(Plastic Card), 종이(Paper), 열상인화지 및 렌티큘러 카드일 수 있으나 이에 한정되는 것은 아니고, 이미지를 삽입하여 출력할 수 있는 재질의 임의의 형태를 포함한다. 또한, 이미지출력물은 물리적인 출력물 형태뿐만 아니라 모바일 컨텐츠 형태로 제공되는 것도 가능하다.
구체예에서 상기 이미지 제작장치(100)는 제어부를 구비할 수 있고, 상기 제어부는 모션인식센서(123)의 데이터 분석 및 판단과 함께 촬영 대상에 해당되는 피사체의 얼굴 및 손을 포함하는 신체부위에 대한 랜드마크 특징점을 추출하고, 상기 랜드마크 특징점을 기반으로 상기 피사체를 실시간 인식 및 트래킹하며, 상기 증강현실 컨텐츠의 크기를 상기 피사체의 크기에 따라 자동으로 조정할 수 있다. 또한, 상기 제어부는 서버(200)의 AR컨텐츠추천모듈이 컨텐츠를 추천하기 위해 필요한 정보를 피사체의 위치, 표정, 제스쳐, 방향, 크기, 영화정보, 경기정보, 콘서트 정보, 관광지 정보, 박물관 정보, 팬미팅 정보, 기업브랜드 정보, 테마파크 정보를 추출하여 서버(200)로 전송할 수 있다. 또한, 상기 제어부는 상기 센서부를 통해 감지된 피사체 중에서 촬영 대상에 해당되지 않는 피사체에게 상기 특정 영화의 캐릭터 또는 배경화면 또는 다른 이미지에 해당하는 증강현실 컨텐츠를 적용하고, 화면을 차지하는 면적을 기준으로 상기 촬영 대상에 해당되는 피사체와 상기 촬영 대상에 해당되지 않는 피사체를 구별하여 서버(200)로부터 제공되는 증강현실 컨텐츠를 촬영된 이미지에 적용할 수 있다.
예를 들어, 상기 이미지 제작장치(100)는 상기 센서부(120, 121)를 통해 감지된 피사체 중에서 촬영 대상에 해당되는 피사체를 설정하고, 상기 사용자의 인원, 티켓 정보, 관람 정보 및 예매 정보 중 적어도 하나의 정보에 기초하여 데이터베이스에서 증강현실 컨텐츠를 추출하고, 상기 촬영 대상에 해당되는 피사체의 제스쳐 및 촬영 방향을 분석하고, 분석 결과를 기초로 하여 상기 촬영 대상에 해당되는 피사체의 제스쳐에 매칭되는 증강현실 컨텐츠를 해당 피사체의 촬영 방향을 고려하여 적용하고 촬영 화면으로 제공하고, 사용자로부터 선택된 증강현실 컨텐츠가 적용되어 촬영된 이미지를 삽입하여 이미지출력물을 제작 및 출력하고, 상기 촬영 대상에 해당되는 피사체의 얼굴 및 손을 포함하는 신체부위에 대한 랜드마크 특징점을 추출하고, 상기 랜드마크 특징점을 기반으로 상기 피사체를 실시간 인식 및 트래킹하며, 상기 증강현실 컨텐츠의 크기를 상기 피사체의 크기에 따라 자동으로 조정하고, 상기 사용자가 특정 영화를 관람하고 티켓 정보를 입력한 경우 상기 특정 영화와 관련된 증강현실 컨텐츠를 추출하고, 상기 촬영 대상에 해당되는 피사체의 위치, 표정, 제스쳐 중 적어도 하나를 포함하는 피사체 분석정보를 기초로 하여 증강현실 컨텐츠를 자동으로 매칭 및 추천해주고, 상기 특정 영화에 대한 증강현실 컨텐츠를 상기 촬영 대상에 해당되는 피사체에게 적용하는 경우, 상기 센서부를 통해 감지된 피사체 중에서 촬영 대상에 해당되지 않는 피사체에게 상기 특정 영화의 캐릭터 또는 배경화면에 해당하는 증강현실 컨텐츠를 적용하고, 화면을 차지하는 면적을 기준으로 상기 촬영 대상에 해당되는 피사체와 상기 촬영 대상에 해당되지 않는 피사체를 구별할 수 있다.
상기 사용자단말(300)은, 상기 서버(200)와 유선통신 및 무선통신 중 하나 이상이 가능한 통신부(310); 상기 사용자의 정보 및 요청을 입력받는 입력부(130); 사용자가 제작한 증강현실 컨텐츠를 상기 서버에 제공하는 사용자 컨텐츠 제공부(330); 및 상기 가상공간 및 상기 서버와의 통신에 필요한 내용을 표시하는 표시부(340); 중 하나 이상을 포함할 수 있다.
사용자는 사용자단말(300)을 통해 서버(200)가 제공하는 가상공간에 접속할 수 있으며, 상기 인증코드를 기초로 상기 가상공간 내에 존재하는 다양한 필드에 접근할 수 있다.
상기 컨텐츠 제공부(300)는 상기 사용자가 직접 제작한 커스터마이징 증강현실 컨텐츠를 서버(200)에 제공할 수 있고, 이는 상기 사용자 데이터베이스(230)에 저장되거나, AR데이터베이스(211)에 저장되어 다른 사용자에게 증강현실 컨텐츠로 제공될 수 있다. 상기 설문관리부(250)에서 평이 좋은 상기 커스터마이징 증강현실 컨텐츠는 보다 많은 사용자에게 제공될 수 있으며, 상기 이벤트 관리부(260)는 이에 대한 보상(예를 들어, 쿠폰 등)을 상기 사용자에게 지급할 수 있다.
증강현실 기반의 이미지출력물 제작 방법
이하, 도 8 내지 도 14를 참고하여 증강현실 기반의 이미지출력물 제작 방법을 설명한다.
도 8을 참조하면, 증강현실 기반의 이미지출력물 제작 방법은, 촬영을 개시하는 단계(S110), 상기 촬영의 대상이 되는 하나 이상의 피사체를 설정하는 단계(S120), 상기 하나 이상의 피사체에 증강현실 컨텐츠를 적용하여 촬영하는 단계(S130) 및 상기 증강현실 컨텐츠가 적용되어 촬영된 이미지를 삽입하여 이미지출력물을 제작 및 출력하는 단계(S140)를 포함한다.
상기 촬영을 개시하는 단계(S110)는, 이미지 제작장치(100)가 이미지출력물 제작을 위해 작동하는 단계이다.
일 실시예로, 이미지 제작장치(100)가 사용자로부터 직접 이미지출력물 제작요청을 입력받는 경우가 있다.
또한, 다른 실시예로, 사용자가 직접 이미지 제작장치(100)에 이미지출력물 제작을 요청하지 않더라도 이미지출력물에서 근접하게 위치한 피사체를 센서를 통해 인식하고, 해당 피사체의 이미지에 증강현실 컨텐츠를 적용한 것을 화면에 표시함으로서 이미지출력물 제작을 개시할 수 있다. 이때, 사용자의 주목을 끌기 위해 소리를 동반할 수 있다. 구체적인 예로, 이미지 제작장치(100)는 촬영영역에 임의의 피사체가 특정 사이즈 이상으로 인지되는 경우, 상기 임의의 피사체에 증강현실 컨텐츠가 적용된 화면을 표시하고, 주목을 끌기 위한 소리를 출력할 수 있다. 이를 통해, 이미지 제작장치(100)는 비록 이미 티켓을 구매한 고객이 아니더라도, 특정 서비스를 홍보하기 위한 수단으로서 역할을 할 수 있다.
상기 촬영의 대상이 되는 하나 이상의 피사체를 설정하는 단계(S120)는, 센서부(120)를 통해 감지된 다수의 피사체들 중에서 촬영 대상이 되는 피사체를 설정하는 단계이다.
일반적으로, 카메라 등의 전자기기를 통해 특정 피사체를 촬영하고자 할 때, 해당 피사체 외의 다수의 피사체가 배경 등에 포함되게 된다. 이로 인해 사용자는 원치 않는 대상이 촬영화면에 포함되어 만족도가 떨어지고, 주변의 행인 등이 의지와 상관없이 촬영화면에 포함되게 되어 초상관 침해 등의 문제가 발생할 수 있다. 이뿐만 아니라, 본 발명에서 증강현실 컨텐츠를 적용함에 있어서도 불필요한 대상에까지 증강현실 컨텐츠가 적용되어 원하는 이미지를 생성하는데 불편이 발생하게 된다. 따라서, 촬영대상이 되는 피사체를 정확하게 설정하는 것이 매우 중요하다.
상기 촬영의 대상이 되는 피사체를 설정하는 단계(S120)에서는, 피사체를 설정하기 위해 필요한 정보를 사용자로부터 입력받을 수 있다.
상기 정보에는 피사체의 인원, 나이, 성별, 인종, 티켓 정보, 관람 정보, 예약 정보, 사용자의 신체부위, 모션 등이 포함될 수 있으며 이에 한정되는 것은 아니다. 상기 입력된 정보들은 증강현실 컨텐츠를 적용하는 단계에서 적용할 증강현실 컨텐츠를 추출(S133)하는데 기초자료로 이용된다.
서버(200)는 이미지 제작장치(100)를 통해 상기 정보를 입력받고 이를 기초로 피사체를 특정하여 설정 및 저장한다. 이 과정에서, 촬영부(140)는 페이스 얼라인먼트(Face Alignment) 기술을 이용하여 다른 주체와 구별될 수 있을 정도로 신체의 특징(예를 들어, 랜드마크 특징점)을 인식하여 저장한다. 상기 서버(200)는 도 1과 같이 별도로 구비되는 서버일 수 있고, 또는 이미지 제작장치(100)에 추가적으로 구비되는 서버(미도시)일 수 있다.
예를 들어, 촬영부(140)는 사용자의 얼굴을 인식하고 눈썹, 눈, 코, 입술 및 귀 등의 모양과 피부색, 머리카락길이, 머리카락색깔 및 얼굴비율 등의 특징을 캐치하고 특징이 될만한 항목을 저장할 수 있다.
상기 피사체에 증강현실 컨텐츠를 적용하여 촬영하는 단계(S130)는, 촬영화면에 나타난 피사체에 증강현실 컨텐츠를 적용하여, 촬영부(140)를 통해 촬영하는 단계이다. 세부적인 내용은 후술한다.
상기 증강현실 컨텐츠가 적용되어 촬영된 이미지를 삽입하여 이미지출력물을 제작 및 출력하는 단계(S140)는, 전 단계를 통해 촬영 및 생성한 이미지를 이미지출력물에 삽입하고, 사용자가 획득할 수 있는 형태로 출력하여 제공하는 단계이다.
S140 단계에서 사용자는 표시부(150)를 통해 출력화면을 미리 확인할 수 있다. 또한, 생성된 이미지들 중에서 삽입할 이미지를 선택할 수 있고, 삽입되는 이미지는 복수일 수 있다.
사용자가 복수의 이미지를 삽입하는 것으로 결정한 경우, 삽입 형태를 선택할 수 있다.
삽입 형태의 실시예로는, 이미지가 삽입되는 영역을 이미지의 개수에 맞춰 분할하여 각각의 영역에 삽입하는 형태가 있다.
또한, 다른 실시예로, 일부 이미지는 이미지출력물의 전면에, 나머지 이미지는 이미지출력물의 후면에 삽입하는 것도 가능하다. 한편, 직접 촬영한 이미지가 아니더라도, 관람한 영화 포스터나 관련 정보 등을 특정한 면의 특정한 영역에 삽입하여 출력하는 것도 가능하다.
사용자가 삽입 형태 및 삽입할 이미지를 선택한 후에는 출력 형태를 결정해야 한다. 즉, 이미지출력물의 종류를 선택해야 한다.
이미지출력물의 실시예로는, 플라스틱 카드(Plastic Card), 종이(Paper), 열상인화지 및 렌티큘러 카드(Lenticular Card) 형태가 있으며 이에 한정되는 것은 아니고, 이미지를 삽입하여 출력할 수 있는 재질의 임의의 형태를 포함한다. 또한, 이미지출력물은 물리적인 출력물 형태뿐만 아니라 모바일 컨텐츠 형태로 제공되는 것도 가능하다.렌티큘러 카드 형태를 선택한 경우, 복수의 이미지가 보는 각도에 따라 보여지게 할 수 있다.
예를 들어, 이미지출력물의 면과 시선이 이루는 각도가 수직인 지점을 기준으로 하였을 때, 좌측 각도에서 봤을 때는 증강현실 컨텐츠를 적용하기 전의 이미지가 보이고, 우측 각도에서 봤을 때는 증강현실 컨텐츠가 적용된 이미지가 보일 수 있다.
또 다른 예로, 좌측 각도에서 봤을 때는 사용자가 촬영한 이미지가 보이고, 우측 각도에서 봤을 때는 영화 포스터 또는 영화 관련 정보가 보일 수 있다. 이러한 실시예가 적용되는 경우, 사용자에게 티켓이 단순이 입장권 등의 역할만 하는 것이 아니고, 소장하고자 하는 동기를 부여하여 광고 효과를 극대화할 수 있다.
도 9는 본 발명의 또 다른 실시예에 따른 증강현실 기반의 이미지출력물 제작 방법에서 증강현실 컨텐츠를 적용하여 촬영하는 단계를 세부적으로 나타낸 흐름도이다.
도 9를 참조하면, 상기 피사체에 증강현실 컨텐츠를 적용하여 촬영하는 단계(S130)는, 이미지 제작장치(100)가 피사체를 감지하는 단계(S131), 이미지 제작장치(100)가 증강현실 컨텐츠 데이터를 수신하는 단계(S132), 이미지 제작장치(100)가 촬영 이미지에 적용할 증강현실 컨텐츠를 추출하는 단계(S133), 이미지 제작장치(100)가 증강현실 컨텐츠를 적용할 위치 및 크기를 설정하는 단계(S134), 이미지 제작장치(100)가 촬영 이미지에 증강현실 컨텐츠를 적용하는 단계(S135) 및 이미지 제작장치(100)가 촬영 화면에 표시된 이미지를 촬영하는 단계(S136)를 포함한다.
상기 이미지 제작장치(100)가 피사체를 감지하는 단계(S131)는, 이미지 제작장치(100)가 센서부(120)를 통해 S120 단계에서 특정된 피사체를 페이스 얼라인먼트(Face Alignment) 기술을 통해 감지하는 단계이다.
상기 이미지 제작장치(100)가 증강현실 컨텐츠 데이터를 수신하는 단계(S132)는, 서버(200)로부터 서버(200)에 저장되어있는 AR컨텐츠 데이터베이스를 수신하는 단계이다.
서버(200)는 AR컨텐츠 데이터베이스를 저장 및 관리하고 있다. 한편, 다른 실시예로, 이미지 제작장치(100) 자체에 AR컨텐츠 데이터베이스가 미리 저장되어 있을 수 있다.
상기 이미지 제작장치(100)가 촬영 이미지에 적용할 증강현실 컨텐츠를 추출하는 단계(S133)는, 사용자의 인원, 티켓 정보, 관람 정보 및 예매 정보 등의 사용자가 입력한 정보에 기초하여, 상기 서버(200)로부터 수신한 AR컨텐츠 데이터베이스에서 적합한 컨텐츠를 추출하는 단계이다.
상기 데이터베이스의 일 실시예로, 영화별로 그룹핑되어 저장되어 있을 수 있다. 특정 영화를 관람하고 티켓 정보를 입력한 사용자가 이미지출력물 제작요청을 하였을 때, 해당 영화와 관련된 AR컨텐츠 데이터베이스를 추출한다.
AR컨텐츠 데이터베이스(211)에는 사용자의 얼굴에 적용되는 컨텐츠가 영화 캐릭터별로 저장되어 있다. 얼굴에 적용되는 컨텐츠는 전면, 측면 등 촬영방향에 따라 각각 저장되어 있다. 이뿐만 아니라, 사용자의 얼굴 외의 신체부위에 적용되는 컨텐츠도 사용자가 취하는 제스쳐별로 적용될 수 있도록 다양하게 저장되어 있다. 예를 들어, 사용자가 손바닥을 펼친 동작을 취할 때, 손가락으로 브이 모양 및 하트 모양을 만들었을 때 등 각각에 매칭되는 증강현실 컨텐츠가 저장되어 있을 수 있다.
이미지 제작장치(100)는 피사체의 제스쳐 및 촬영방향을 분석하고, 분석정보를 기초로 AR컨텐츠추천모듈(213)이 최적의 증강현실 컨텐츠를 자동으로 매칭 및 추천하되, 상기 피사체의 제스쳐에 매칭되는 증강현실 컨텐츠를 제안 및 적용하고, 상기 피사체의 촬영방향을 정면 및 후면으로 구별하여 증강현실 컨텐츠를 적용할 수 있다.
이를 통해, 사용자는 촬영 이미지에 본인이 관람한 영화와 관련된 증강현실 컨텐츠가 자동으로 적용되고 특정 제스쳐를 취할 때마다 다른 컨텐츠가 적용되는 것을 확인할 수 있으므로 더욱 재미있게 이미지출력물을 제작할 수 있게 된다.
이미지 제작장치(100)가 증강현실 컨텐츠를 적용할 위치 및 크기를 설정하는 단계(S134)는, S131에서 감지된 피사체의 신체부위 중 증강현실 컨텐츠가 적용될 수 있는 위치 및 크기를 설정하는 단계이다.
증강현실 컨텐츠는 피사체의 얼굴을 포함한 신체부위에 적용될 수 있다. 이미지 제작장치(100)의 센서부(120)는 서버(200)에 저장된 피사체의 특징 정보를 기초로 피사체의 신체부위를 인식 및 추적하며, 증강현실 컨텐츠를 적용할 위치를 설정한다.
증강현실 컨텐츠가 적용될 위치로 설정된 피사체의 신체부위는 촬영부(140)와의 거리 등에 따라 크기가 다양할 것이다. 따라서, 증강현실 컨텐츠는 촬영화면에 나타난 해당 피사체의 신체부위의 면적에 비례하여 크기가 자동으로 조절된다. 이에 따라, 지나치게 크거나 작은 증강현실 컨텐츠가 적용되는 촬영 이미지가 부자연스러워지는 것을 방지할 수 있다.
이미지 제작장치(100)가 촬영 이미지에 증강현실 컨텐츠를 적용하는 단계(S135)는, 촬영 이미지에 S133에서 추출된 증강현실 컨텐츠를 S134에서 결정된 적용 위치에 설정된 크기로 적용하는 단계이다.
증강현실 컨텐츠는 촬영화면에 나타나는 피사체의 모습과 오버랩(Over Lap)되어 적용될 수 있고, 피사체의 신체부위의 주변에 적용될 수도 있다.
상기 이미지 제작장치(100)가 촬영 화면에 표시된 이미지를 촬영하는 단계(S136)는, 촬영부(140)를 통해 촬영 이미지를 캡쳐하여 저장하는 단계이다.
일 실시예로, S136 단계에서 촬영하는 이미지는 다음과 같은 복수의 이미지를 포함할 수 있다. 첫째로, 촬영 화면에 표시되고 있는 이미지로서, 피사체의 모습에 증강현실 컨텐츠가 적용된 이미지를 촬영할 수 있다. 둘째로, 증강현실 컨텐츠가 적용되지 않은 상태로 피사체의 원래 모습 그대로가 나타난 이미지를 촬영할 수 있다.
이를 통해, 포면적으로는 한 번의 촬영이 이루어지는 것처럼 보여지지만 실질적으로는 증강현실 컨텐츠 적용 전, 후 각각을 촬영할 수 있다. 이러한 복수의 이미지는 본 발명의 후반부에 이미지출력물을 출력하는 단계(S140)에서 활용될 수 있으므로, 사용자가 다양한 조합으로 이미지출력물을 제작할 수 있도록 하는 효과가 있다.
도 10은 본 발명의 일 실시예에 따른 증강현실 컨텐츠가 적용되기 전과 후의 이미지를 예시한 도면이다.
도 10을 참조하면, 본 발명의 일 실시예로서, 증강현실 컨텐츠가 적용되기 전의 이미지(30)와 증강현실 컨텐츠가 적용된 이미지(40)를 확인할 수 있다.
증강현실 컨텐츠가 적용되기 전의 이미지(30)를 참조하면, 사용자의 신체부위는 다양한 부위로 구분되어 센서부(120)를 통해 감지될 수 있다. 예를 들어, 도 10에 도시된 바와 같이 촬영 주체(31)인 피사체의 얼굴(31-1)과 피사체의 손(31-2) 부분이 각각 감지된다.
도 10에는 편의를 위해 피사체의 얼굴 및 손 부위만 도시하였으나, 감지되는 피사체의 신체부위는 얼굴 및 손에 한정되지 않으며, 촬영 화면에 나타나는 모든 신체부위를 대상으로 할 수 있다.
감지된 신체부위는 위치뿐만 아니라, 크기도 감지된다.
이뿐만 아니라, 피사체의 손(31-2)을 예를 들면, 피사체가 취하는 손의 동작 및 모양에 대해서도 감지한다. 따라서, 사용자가 어떤 동작 및 모양을 취하느냐에 따라 적용되는 증강현실 컨텐츠를 달리할 수 있다.
증강현실 컨텐츠가 적용된 이미지(40)를 참조하면, 피사체의 얼굴(31-1)과 피사체의 손(31-2) 부분에 각각 다른 종류의 증강현실 컨텐츠로서, 얼굴 부분에는 얼굴에 관련된 증강현실 컨텐츠(41-1)가, 손 부분에는 손에 관련된 증강현실 컨텐츠(41-2)가 적용된다. 즉, 이미지출력물 제작장치(20)는 피사체의 신체부위에 따라 증강현실 컨텐츠 데이터베이스로부터 각각 다른 컨텐츠를 추출하여 적용하여 증강현실 컨텐츠가 적용된 피사체(41)를 생성한다.
도 11은 본 발명의 다른 실시예에 따른 피사체가 복수인 경우 증강현실 컨텐츠가 적용된 이미지를 예시한 도면이다.
도 11을 참조하면, 촬영 화면에 나타나는 피사체에는 촬영 주체인 실제 사용자(31)뿐만 아니라, 촬영과 무관한 제3의 주체(33)도 포함된다.
이와 같이, 촬영 주체(31)와 무관한 제3의 주체(33)가 촬영 이미지에 포함되어 촬영되는 경우, 초상권 침해 등의 문제가 발생할 수 있으며, 촬영 주체 측면에서도 원치 않은 대상이 이미지에 포함되어 촬영 이미지에 대한 만족도가 떨어지게 된다.
본 발명에서는 상술한 문제점을 해결하기 위해 차별적으로 증강현실 컨텐츠를 적용하는 바, 이에 대해 설명한다.
본 발명은 촬영에 앞서 촬영 주체(31)를 미리 특정하여 설정 및 저장하는 단계(S120)를 포함한다. 한편, 본 발명에서 적용되는 증강현실 컨텐츠는 메인컨텐츠(41)와 서브컨텐츠(43)를 포함한다.
메인컨텐츠(41)는 증강현실 영상처리 모듈에 촬영 주체(31)로 특정된 피사체에 적용되는 증강현실 컨텐츠를 의미한다. 상술한 과정에서 적용되는 증강현실 컨텐츠는 메인컨텐츠(41)에 해당한다.
서브컨텐츠(43)는 촬영 주체와 무관한 제3의 주체(33), 즉, 증강현실 영상처리 모듈에 특정되지 않은 피사체에 적용되는 증강현실 컨텐츠를 의미한다.
서브컨텐츠(43)의 실시예로는, 이미지 초점을 탈초점 상태로 만드는 표현기법인 블러(Blur) 처리를 하거나, 제3의 주체(33)가 특정되지 않도록 모자이크(Mosaic) 처리를 하는 것이 포함된다. 또한, 메인컨텐츠(41)와 구별되는 보조적인 증강현실 컨텐츠를 적용할 수도 있다.
예를 들어, 다수의 히어로(Hero)가 등장하는 영화를 관람한 사용자라면, 촬영 주체(31)에게는 메인컨텐츠(41)로서, 해당 히어로와 관련된 증강현실 컨텐츠를 적용하고, 제3의 주체(33)에는 해당 영화에서 비중없는 캐릭터 또는 배경화면에 해당하는 증강현실 컨텐츠를 적용할 수 있다.
이와 같이, 본 발명의 일 실시예에 따르면, 촬영 주체(31)와 제3의 주체(33)를 구별하여 인식하고, 증강현실 컨텐츠를 메인컨텐츠(41) 및 서브컨텐츠(43)로 나누어 차별적으로 적용한다. 따라서, 제3의 주체가 원래 모습 그대로 촬영 이미지에 노출되는 것을 방지할 수 있다.
한편, 일 실시예로, 이미지 제작장치(100)는 화면을 차지하는 면적을 기준으로 촬영 주체(31)와 제3 주체를 구별할 수 있다. 즉, 특정 크기 이상의 면적을 차지하는 피사체를 촬영 주체(31)로 인식하고, 배경에 특정 크기 이하의 면적을 차지하는 피사체를 제3 주체로 판단할 수 있다. 이를 통해 이미지 제작장치(100)는 면적을 기준으로 인식된 피사체의 인원을 판단하고, 인식된 하나 이상의 피사체 각각을 구별하여 특정할 수 있다.
도 12는 본 발명의 또 다른 실시예에 따른 피사체의 촬영방향이 옆모습에 해당할 때 증강현실 컨텐츠가 적용되기 전과 후의 이미지를 예시한 도면이다.
도 12를 참조하면, 촬영 주체(31)가 촬영부(24)에 대해 정면으로 있는 경우(31)와 달리 측면으로 있는 경우(32)를 구별하여 인식하는 것을 이해할 수 있다.
이미지 제작장치(100)의 센서부(120)는 촬영 주체(31)의 모습이 정면인지 측면인지를 구별하여 인식한다. 인식된 촬영 방향에 매칭되는 증강현실 컨텐츠가 적용된다.
도 12를 참조하면, 촬영 주체의 얼굴의 측면 모습(32)이 인지된다. 촬영 주체의 정면 모습(31)의 얼굴(41-1)에 적용되었던 증강현실 컨텐츠의 측면 모습에 대응되는 증간현실 컨텐츠(42)가 적용된다.
이에 따라, 사용자는 촬영 방향에 따라 다른 종류의 증강 현실이 적용된 이미지를 촬영할 수 있게 되어 더욱 다양한 이미지출력물 제작이 가능해진다.
지금부터는 촬영한 이미지를 삽입하여 이미지출력물을 출력하는 단계(S140)에 대해서 세부적으로 설명한다.
본 발명에 의하면, 증강현실이 적용되기 전의 이미지(30), 증강현실이 적용된 후의 이미지(40), 촬영방향을 측면으로 하여 촬영한 이미지(32, 42) 포함하는 복수의 촬영 이미지를 생성할 수 있다. 이뿐만 아니라, 이미지출력물에는 촬영한 이미지 외에, 영화 포스터 또는 영화 정보 등의 티켓의 목적이 되는 영화 또는 공연 등에 관한 정보를 삽입할 수도 있다.
상기 복수의 이미지를 이미지출력물에 조합하여 삽입하는 방법에 대한 실시예로는, 한 면을 영역별로 분할하여 각각의 이미지를 삽입하는 방법, 이미지출력물의 전면/후면에 삽입되는 이미지를 달리하는 방법, 렌티큘러 필름을 활용하는 방법 등을 포함하며 이에 한정되는 것은 아니다.
도 13은 본 발명의 일 실시예에 따른 복수의 이미지를 구분된 영역에 삽입 및 조합하여 출력된 모습을 예시한 도면이다.
이미지 제작장치(100)는 이미지출력물 제작을 위해, 복수의 이미지를 생성하고, 상기 복수의 이미지를 출력영역에 분배하여 배치할 수 있다.
생성된 복수의 이미지는 분할된 영역인 71, 72, 73 및 74 영역에 각각 삽입될 수 있다. 삽입되는 이미지의 종류 및 순서 등은 사용자가 자유롭게 선택할 수 있으므로 더욱 다양한 경우의 수의 이미지출력물 제작이 가능하다.
예를 들어, 도 13에 도시된 예시에서는, 71 영역에 촬영 주체의 전면(31)에 증강현실 컨텐츠를 적용하기 전 모습을 삽입하고, 72 영역에는 촬영 주체의 전면(31)에 증강현실 컨텐츠를 적용한 후 모습을 삽입하고, 73 영역에는 촬영 주체의 측면(32)에 증강현실 컨텐츠를 적용하기 전 모습을 삽입하고, 74 영역에는 촬영 주체의 측면(32)에 증강현실 컨텐츠를 적용한 후 모습을 삽입하였다.
도 14는 본 발명의 다른 실시예에 따른 제작된 이미지출력물의 전면 및 후면에 각각 이미지가 삽입된 모습을 예시한 도면이다.
도 14를 참조하면, 이미지출력물의 전면, 후면에 각기 다른 이미지를 삽입하여 이미지출력물을 제작할 수 있다.
예를 들어, 도 14에 도시된 바와 같이, 이미지출력물의 전면에는 증강현실 컨텐츠가 적용되기 전의 이미지(30)를 삽입하고, 이미지출력물의 후면에는 증강현실 컨텐츠가 적용된 후의 이미지(40)를 삽입할 수 있다.
이뿐만 아니라, 전면에는 촬영 이미지 중 하나를 삽입하고, 후면에는 영화 포스터 또는 영화 정보를 삽입하는 방법도 가능하며, 사용자의 취향에 따라 자유롭고 다양하게 선택할 수 있다.
본 발명의 실시예와 관련하여 설명된 방법 또는 알고리즘의 단계들은 하드웨어로 직접 구현되거나, 하드웨어에 의해 실행되는 소프트웨어 모듈로 구현되거나, 또는 이들의 결합에 의해 구현될 수 있다. 소프트웨어 모듈은 RAM(Random Access Memory), ROM(Read Only Memory), EPROM(Erasable Programmable ROM), EEPROM(Electrically Erasable Programmable ROM), 플래시 메모리(Flash Memory), 하드 디스크, 착탈형 디스크, CD-ROM, 또는 본 발명이 속하는 기술 분야에서 잘 알려진 임의의 형태의 컴퓨터 판독가능 기록매체에 상주할 수도 있다.
이상 본 발명의 실시예들을 설명하였으나, 본 발명은 상기 실시예들에 한정되는 것이 아니라 서로 다른 다양한 형태로 제조될 수 있으며, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자는 본 발명의 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 실시될 수 있다는 것을 이해할 수 있을 것이다. 그러므로 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적이 아닌 것으로 이해해야 한다.
31: 촬영 주체의 정면 모습(증강현실 컨텐츠 적용 전) 32: 촬영 주체의 측면 모습(증강현실 컨텐츠 적용 전) 33: 제3의 주체(증강현실 컨텐츠 적용 전) 41: 촬영 주체에 적용되는 메인컨텐츠 42: 촬영 주체의 측면 모습(증강현실 컨텐츠 적용 후) 43: 제3의 주체에게 적용되는 서브컨텐츠 100: 이미지 제작장치 110: 통신부 120: 센서부 121: 인체센서 123: 모션인식센서 130: 입력부 140: 촬영부 150: 표시부 160: 출력부 200: 서버 210: AR컨텐츠제공부 211: AR데이터베이스 221: AR컨텐츠추천모듈 220: 가상공간제공부 230: 사용자 데이터베이스 240: 결제부 250: 설문관리부 260: 이벤트 관리부 270: 통신부 300: 사용자단말 310: 통신부 320: 입력부 330: 증강현실 컨텐츠 공유부 340: 표시부

Claims (6)

  1. 사용자의 인원, 티켓 정보, 관람 정보, 예매 정보 및 피사체 이미지 중 적어도 하나의 정보에 기초하여 이미지 제작장치에 증강현실 컨텐츠를 추출 및 제공하고, 상기 이미지 제작장치로부터 제작된 이미지를 제공받으며, 사용자단말에 상기 제작된 이미지를 활용한 가상공간을 제공하는 서버;
    촬영된 피사체에 증강현실 컨텐츠를 적용하여 이미지출력물을 제작하고 출력하는 이미지 제작장치; 및
    상기 서버가 제공하는 상기 가상공간에 접속되는 사용자단말;
    을 포함하는 컨텐츠 활용 플랫폼 시스템.
  2. 제1항에 있어서,
    상기 서버는,
    상기 이미지 제작장치에 증강현실 컨텐츠를 제공하는 AR컨텐츠 제공부;
    상기 사용자가 접속할 수 있는 가상공간을 상기 사용자단말에 제공하는 가상공간제공부;
    상기 사용자 정보 및 인증코드 중 하나 이상을 저장하고 관리하는 사용자 데이터베이스;
    상기 사용자로부터 비용 결제를 수행하는 결제부;
    상기 이미지 제작장치 및 사용자단말 중 하나 이상에 설문을 요청하는 설문관리부;
    상기 이미지 제작장치 및 사용자단말 중 하나 이상에 쿠폰 및 상품을 제공하는 이벤트관리부; 및
    상기 이미지 제작장치 및 사용자단말과 유선통신 및 무선통신 중 하나 이상이 가능한 통신부;
    중 하나 이상을 포함하는 컨텐츠 활용 플랫폼 시스템.
  3. 제2항에 있어서,
    상기 AR컨텐츠 제공부는,
    콘텐츠 제작사 및 상기 사용자 중 하나 이상으로부터 제공받은 증강현실 컨텐츠를 저장 및 관리하는 AR데이터베이스; 및
    사용자의 인원, 티켓 정보, 관람 정보, 예매 정보 및 피사체 이미지 중 적어도 하나의 정보에 기초하여 증강현실 컨텐츠를 추출하고 상기 이미지 제작장치에 제공하는 AR컨텐츠 추천부;
    중 하나 이상을 포함하는 컨텐츠 활용 플랫폼 시스템.
  4. 제3항에 있어서,
    상기 AR컨텐츠 추천부는 상기 모션인식센서가 인식한 상기 피사체의 모션 및 제스처에 따라 추가적인 증강현실 이미지를 함께 제공하는 컨텐츠 활용 플랫폼 시스템.
  5. 제2항에 있어서,
    상기 가상공간제공부는,
    상기 가상공간에 접속된 하나 이상의 사용자가 퀴즈를 풀고 대응되는 보상을 받을 수 있는 퀴즈필드;
    상기 가상공간에 접속된 사용자가 컨텐츠 관련 아이템 및 상품 중 하나 이상을 구매할 수 있는 아이템필드; 및
    상기 가상공간에 접속된 사용자가 상기 컨텐츠 관련 인물과 상호 통신하거나, 상기 컨텐츠 관련 인물이 제공하는 이미지 또는 영상을 볼 수 있는 액터필드;
    중 하나 이상을 포함하는 컨텐츠 활용 플랫폼 시스템.
  6. 제1항의 컨텐츠 활용 플랫폼 시스템으로 이미지출력물을 제작하는 이미지 제작장치에 있어서,
    촬영을 개시하는 단계;
    상기 센서부를 통해 감지된 피사체 중에서 촬영 대상에 해당되는 피사체를 설정하는 단계;
    사용자의 인원, 티켓 정보, 관람 정보 및 예매 정보 중 적어도 하나의 정보에 기초하여 데이터베이스에서 증강현실 컨텐츠를 추출하는 단계;
    상기 촬영 대상에 해당되는 피사체의 제스쳐 및 촬영 방향을 분석하고, 분석 결과를 기초로 하여 상기 촬영 대상에 해당되는 피사체의 제스쳐에 매칭되는 증강현실 컨텐츠를 해당 피사체의 촬영 방향을 고려하여 적용하고 촬영 화면으로 제공하는 단계; 및
    상기 사용자로부터 선택된 증강현실 컨텐츠가 적용되어 촬영된 이미지를 삽입하여 이미지출력물을 제작 및 출력하는 단계를 포함하고,
    상기 촬영 화면으로 제공하는 단계는,
    상기 촬영 대상에 해당되는 피사체의 얼굴 및 손을 포함하는 신체부위에 대한 랜드마크 특징점을 추출하고, 상기 랜드마크 특징점을 기반으로 상기 피사체를 실시간 인식 및 트래킹하며, 상기 증강현실 컨텐츠의 크기를 상기 피사체의 크기에 따라 자동으로 조정하고,
    상기 사용자가 특정 영화를 관람하고 티켓 정보를 입력한 경우 상기 특정 영화와 관련된 증강현실 컨텐츠를 추출하고,
    상기 촬영 대상에 해당되는 피사체의 위치, 표정, 제스쳐 중 적어도 하나를 포함하는 피사체 분석정보를 기초로 하여 증강현실 컨텐츠를 자동으로 매칭 및 추천해주고,
    상기 특정 영화에 대한 증강현실 컨텐츠를 상기 촬영 대상에 해당되는 피사체에게 적용하는 경우, 상기 센서부를 통해 감지된 피사체 중에서 촬영 대상에 해당되지 않는 피사체에게 상기 특정 영화의 캐릭터 또는 배경화면에 해당하는 증강현실 컨텐츠를 적용하고,
    화면을 차지하는 면적을 기준으로 상기 촬영 대상에 해당되는 피사체와 상기 촬영 대상에 해당되지 않는 피사체를 구별하는 증강현실 기반의 이미지출력물 제작 방법.

KR1020210126475A 2021-09-24 2021-09-24 컨텐츠 활용 플랫폼 시스템, 증강현실 기반의 이미지 출력물 제작방법 KR102561198B1 (ko)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020210126475A KR102561198B1 (ko) 2021-09-24 2021-09-24 컨텐츠 활용 플랫폼 시스템, 증강현실 기반의 이미지 출력물 제작방법
US17/489,076 US20230103116A1 (en) 2021-09-24 2021-09-29 Content utilization platform system and method of producing augmented reality (ar)-based image output

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020210126475A KR102561198B1 (ko) 2021-09-24 2021-09-24 컨텐츠 활용 플랫폼 시스템, 증강현실 기반의 이미지 출력물 제작방법

Publications (2)

Publication Number Publication Date
KR20230044069A true KR20230044069A (ko) 2023-04-03
KR102561198B1 KR102561198B1 (ko) 2023-07-31

Family

ID=85721969

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020210126475A KR102561198B1 (ko) 2021-09-24 2021-09-24 컨텐츠 활용 플랫폼 시스템, 증강현실 기반의 이미지 출력물 제작방법

Country Status (2)

Country Link
US (1) US20230103116A1 (ko)
KR (1) KR102561198B1 (ko)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20200097224A (ko) * 2020-02-11 2020-08-18 류경희 가상 현실 공간에서 서비스 제공을 위한 캐릭터 판매 및 구매 장치
KR102178396B1 (ko) * 2019-11-28 2020-11-13 이민구 증강현실 기반의 이미지출력물 제작 방법 및 장치

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4353739B2 (ja) * 2003-07-29 2009-10-28 株式会社レクサー・リサーチ オブジェクト表象端末装置、サーバ装置、オブジェクト表象プログラム
US8805110B2 (en) * 2008-08-19 2014-08-12 Digimarc Corporation Methods and systems for content processing
US9858925B2 (en) * 2009-06-05 2018-01-02 Apple Inc. Using context information to facilitate processing of commands in a virtual assistant
KR102270699B1 (ko) * 2013-03-11 2021-06-28 매직 립, 인코포레이티드 증강 및 가상 현실을 위한 시스템 및 방법
US10567477B2 (en) * 2015-03-08 2020-02-18 Apple Inc. Virtual assistant continuity
US9886953B2 (en) * 2015-03-08 2018-02-06 Apple Inc. Virtual assistant activation
US10692299B2 (en) * 2018-07-31 2020-06-23 Splunk Inc. Precise manipulation of virtual object position in an extended reality environment
US10909772B2 (en) * 2018-07-31 2021-02-02 Splunk Inc. Precise scaling of virtual objects in an extended reality environment
US10665036B1 (en) * 2019-08-03 2020-05-26 VIRNECT inc. Augmented reality system and method with dynamic representation technique of augmented images

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102178396B1 (ko) * 2019-11-28 2020-11-13 이민구 증강현실 기반의 이미지출력물 제작 방법 및 장치
KR20200097224A (ko) * 2020-02-11 2020-08-18 류경희 가상 현실 공간에서 서비스 제공을 위한 캐릭터 판매 및 구매 장치

Also Published As

Publication number Publication date
KR102561198B1 (ko) 2023-07-31
US20230103116A1 (en) 2023-03-30

Similar Documents

Publication Publication Date Title
US11416918B2 (en) Systems/methods for identifying products within audio-visual content and enabling seamless purchasing of such identified products by viewers/users of the audio-visual content
US11875563B2 (en) Systems and methods for personalized augmented reality view
US10147399B1 (en) Adaptive fiducials for image match recognition and tracking
US20060038833A1 (en) Portable augmented reality device and method
US20200257121A1 (en) Information processing method, information processing terminal, and computer-readable non-transitory storage medium storing program
US11568615B2 (en) Collaborative on-demand experiences
US10095929B1 (en) Systems and methods for augmented reality view
CN109074679A (zh) 具有增强现实强化的基于场景的实时广告
KR102178396B1 (ko) 증강현실 기반의 이미지출력물 제작 방법 및 장치
KR102407493B1 (ko) 가상현실을 사용한 아트 갤러리 구현 솔루션
CN110889006A (zh) 推荐方法及装置
JP6609078B1 (ja) コンテンツ配信システム、コンテンツ配信方法、およびコンテンツ配信プログラム
KR102561198B1 (ko) 컨텐츠 활용 플랫폼 시스템, 증강현실 기반의 이미지 출력물 제작방법
US20180232781A1 (en) Advertisement system and advertisement method using 3d model
KR102346137B1 (ko) Gps 기반 ar 콘텐츠를 이용한 지역문화자원 안내 서비스 제공 시스템
KR20240059224A (ko) 증강현실 기반 컨텐츠 활용 시스템
US20210074065A1 (en) Interactive augmented reality image capturing system
CN106951882B (zh) 一种脸型的识别追踪方法及装置
JP7210340B2 (ja) 注目度利活用装置、注目度利活用方法、および注目度利活用プログラム
JP3239472U (ja) 多機能ar双方向装置
KR102671004B1 (ko) Ar 관광 영상 기반의 관광 서비스 제공 방법, 시스템 및 이를 위한 장치
JP7344084B2 (ja) コンテンツ配信システム、コンテンツ配信方法、およびコンテンツ配信プログラム
US20220198796A1 (en) Augmented, virtual and mixed-reality content selection & display for city light
US20220189164A1 (en) Augmented, virtual and mixed-reality content selection & display for membership cards
US20220262114A1 (en) Augmented, virtual and mixed-reality content selection & display for political campaigns

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant