KR102659456B1 - Method and system for providing live broadcasting - Google Patents

Method and system for providing live broadcasting Download PDF

Info

Publication number
KR102659456B1
KR102659456B1 KR1020220078545A KR20220078545A KR102659456B1 KR 102659456 B1 KR102659456 B1 KR 102659456B1 KR 1020220078545 A KR1020220078545 A KR 1020220078545A KR 20220078545 A KR20220078545 A KR 20220078545A KR 102659456 B1 KR102659456 B1 KR 102659456B1
Authority
KR
South Korea
Prior art keywords
display area
augmented reality
broadcast
user terminal
image
Prior art date
Application number
KR1020220078545A
Other languages
Korean (ko)
Other versions
KR20240001632A (en
Inventor
송재훈
이철균
가이슬
이누리
박은수
박은지
김지혜
김영송
유병재
이선
현순미
김효진
Original Assignee
네이버 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 네이버 주식회사 filed Critical 네이버 주식회사
Priority to KR1020220078545A priority Critical patent/KR102659456B1/en
Publication of KR20240001632A publication Critical patent/KR20240001632A/en
Application granted granted Critical
Publication of KR102659456B1 publication Critical patent/KR102659456B1/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/21Server components or server architectures
    • H04N21/218Source of audio or video content, e.g. local disk arrays
    • H04N21/2187Live feed
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/418External card to be used in combination with the client device, e.g. for conditional access
    • H04N21/4185External card to be used in combination with the client device, e.g. for conditional access for payment
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/431Generation of visual interfaces for content selection or interaction; Content or additional data rendering
    • H04N21/4312Generation of visual interfaces for content selection or interaction; Content or additional data rendering involving specific graphical features, e.g. screen layout, special fonts or colors, blinking icons, highlights or animations
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/478Supplemental services, e.g. displaying phone caller identification, shopping application
    • H04N21/47815Electronic shopping
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/81Monomedia components thereof
    • H04N21/816Monomedia components thereof involving special video data, e.g 3D video
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/265Mixing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/272Means for inserting a foreground image in a background image, i.e. inlay, outlay
    • H04N2005/2726Means for inserting a foreground image in a background image, i.e. inlay, outlay for simulating a person's appearance, e.g. hair style, glasses, clothes

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Databases & Information Systems (AREA)
  • Circuits Of Receivers In General (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Abstract

본 발명은 라이브 커머스에서, 상품에 대한 정보를 보다 효과적으로 제공하기 위한 라이브 방송 제공 방법 및 시스템에 관한 것이다. 본 발명에 따른 라이브 방송 제공 방법은, 라이브 방송 서버로부터, 라이브 방송의 방송 영상을 수신하는 단계, 상기 수신에 근거하여, 사용자 단말기의 디스플레이부의 메인 디스플레이 영역 상에 상기 방송 영상을 제공하는 단계, 상기 메인 디스플레이 영역 상에 상기 방송 영상이 제공되고 있는 상태에서, 상기 사용자 단말기로부터 상기 라이브 방송과 관련된 증강 현실 기능에 대한 활성화 요청을 수신하는 단계, 상기 활성화 요청에 따라 상기 증강 현실 기능이 활성화되는 것에 응답하여, 상기 사용자 단말기에 구비된 카메라로부터 수신되는 카메라 영상에 대해, 상기 라이브 방송에 연계된 아이템과 관련된 증강 현실 그래픽 처리를 수행하는 단계 및 상기 메인 디스플레이 영역 상에, 상기 증강 현실 그래픽 처리된 카메라 영상을 제공하는 단계를 포함할 수 있다. The present invention relates to a method and system for providing live broadcasting to more effectively provide information about products in live commerce. A method of providing a live broadcast according to the present invention includes the steps of receiving a broadcast image of a live broadcast from a live broadcast server, providing the broadcast image on the main display area of a display unit of a user terminal based on the reception, In a state where the broadcast image is being provided on the main display area, receiving an activation request for an augmented reality function related to the live broadcast from the user terminal, responding to activation of the augmented reality function according to the activation request Thus, performing augmented reality graphic processing related to an item linked to the live broadcast on a camera image received from a camera provided in the user terminal, and the augmented reality graphic processed camera image on the main display area. It may include the step of providing.

Figure R1020220078545
Figure R1020220078545

Description

라이브 방송 제공 방법 및 시스템{METHOD AND SYSTEM FOR PROVIDING LIVE BROADCASTING}Method and system for providing live broadcasting {METHOD AND SYSTEM FOR PROVIDING LIVE BROADCASTING}

본 발명은 라이브 커머스에서, 상품에 대한 정보를 보다 효과적으로 제공하기 위한 라이브 방송 제공 방법 및 시스템에 관한 것이다.The present invention relates to a method and system for providing live broadcasting to more effectively provide information about products in live commerce.

기술이 발전함에 따라, 전자기기(예를 들어, 스마트폰, 태블릿 PC, 자동화 기기 등)의 보급이 대중화되었으며, 이에 따라 일상생활의 많은 부분에서 전자기기에 대한 의존도가 점차적으로 높아지고 있다. As technology develops, the spread of electronic devices (e.g., smartphones, tablet PCs, automated devices, etc.) has become popular, and as a result, dependence on electronic devices is gradually increasing in many aspects of daily life.

나아가, 전자기기의 대중화는 인터넷을 기반으로 한 서비스의 발전을 촉진시켰으며, 이를 통해, 종래 오프라인에 대한 의존도가 높았던 소비패턴은, 점차적으로 온라인(on-line)으로 옮겨가고 있는 실정이다.Furthermore, the popularization of electronic devices has promoted the development of Internet-based services, and through this, consumption patterns that were previously highly dependent on offline are gradually moving to online.

이러한 트렌드의 변화에 맞추어, 상품 판매와 같은 서비스의 특성상 오프라인(off-line)에 기반을 둔 산업 분야 역시, 온라인을 통한 다양한 마케팅을 통하여 고객을 유치하는 것이 보편화되고 있다. In line with this change in trend, it is becoming common for industrial fields, which are based off-line due to the nature of services such as product sales, to attract customers through various online marketing.

이에, 최근에는, 온라인을 통한 다양한 상품 판매 서비스가 제공되고 있으며, 그 활용도 또한 매우 높아지고 있다. 그러나, 이러한 온라인을 통한 상품 판매 서비스는, 미리 업로드 된 상품 정보만을 제공하는 것으로서, 소비자는 여전히 상품에 대한 다양한 정보를 제공받고 싶어 한다. Accordingly, in recent years, various product sales services have been provided online, and their utilization is also greatly increasing. However, these online product sales services only provide pre-uploaded product information, and consumers still want to be provided with various information about products.

이러한 니즈를 해결하고자, 라이브(Live) 방송을 이용한 상품을 판매하는 방법이 도입되고 있다. 실시간 쌍방향 영상을 이용한 온라인 상품 판매 방법(참조특허, 대한민국 공개특허 10-2009-0001838호)은, 온라인 라이브 방송을 이용하여 실시간으로 소비자와 소통함으로써, 소비자가 얻고 싶은 상품 정보를 즉각적으로 제공할 수 있게 되었다. To address these needs, a method of selling products using live broadcasts is being introduced. The online product selling method using real-time interactive video (reference patent, Korean Patent Publication No. 10-2009-0001838) can immediately provide product information that consumers want by communicating with consumers in real time using online live broadcasting. It came to be.

그러나, 이러한 라이브 방송을 이용한 상품 판매 방법 역시, 소비자가 상품을 직접 사용해볼 수 없다는 아쉬움이 존재한다. 이에, 고객이 소지한 전자기기만으로도, 상품을 테스트할 수 있는 서비스에 대한 니즈가 여전히 존재한다.However, this method of selling products using live broadcasts also has the disadvantage of not allowing consumers to try the products themselves. Accordingly, there is still a need for a service that allows customers to test products using only the electronic devices they own.

본 발명에 따른 라이브 방송 제공 방법 및 시스템은, 라이브 방송을 시청하는 사용자에게 상품에 대한 정보를 보다 효과적으로 제공할 수 있는 사용자 경험을 제공하기 위한 것이다.The method and system for providing live broadcasting according to the present invention are intended to provide a user experience that can more effectively provide information about products to users watching live broadcasting.

더 나아가, 본 발명에 따른 라이브 방송 제공 방법 및 시스템은, 라이브 방송을 시청하는 사용자가, 라이브 방송을 통해 판매되는 상품을 체험 또는 테스트할 수 있는 서비스를 제공하기 위한 것이다. Furthermore, the method and system for providing live broadcasting according to the present invention are intended to provide a service that allows users watching live broadcasting to experience or test products sold through live broadcasting.

특히, 본 발명에 따른 라이브 방송 제공 방법 및 시스템은, 시청 중이던 라이브 방송을 중단하지 않고도, 라이브 방송을 통해 판매되는 상품을 체험 또는 테스트할 수 있는 서비스를 제공하기 위한 것이다. In particular, the method and system for providing live broadcasting according to the present invention are intended to provide a service that allows users to experience or test products sold through live broadcasting without stopping the live broadcast being watched.

나아가, 본 발명에 따른 라이브 방송 제공 방법 및 시스템은, 라이브 방송을 시청하는 사용자에게, 라이브 방송을 통해 판매되는 상품의 다양한 정보를 다각적으로 제공할 수 있는 서비스를 제공하기 위한 것이다. Furthermore, the method and system for providing live broadcasting according to the present invention are intended to provide a service that can provide various information about products sold through live broadcasting to users who watch live broadcasting.

나아가, 본 발명에 따른 라이브 방송 제공 방법 및 시스템은, 라이브 방송을 시청하는 사용자 또는 상품을 체험하는 사용자가 상품을 간편하게 구매할 수 있는 서비스를 제공하기 위한 것이다. Furthermore, the method and system for providing live broadcasting according to the present invention are intended to provide a service where users watching live broadcasting or users experiencing products can easily purchase products.

본 발명에 따른 라이브 방송 제공 방법은, 라이브 방송 서버로부터, 라이브 방송의 방송 영상을 수신하는 단계, 상기 수신에 근거하여, 사용자 단말기의 디스플레이부의 메인 디스플레이 영역 상에 상기 방송 영상을 제공하는 단계, 상기 메인 디스플레이 영역 상에 상기 방송 영상이 제공되고 있는 상태에서, 상기 사용자 단말기로부터 상기 라이브 방송과 관련된 증강 현실 기능에 대한 활성화 요청을 수신하는 단계, 상기 활성화 요청에 따라 상기 증강 현실 기능이 활성화되는 것에 응답하여, 상기 사용자 단말기에 구비된 카메라로부터 수신되는 카메라 영상에 대해, 상기 라이브 방송에 연계된 아이템과 관련된 증강 현실 그래픽 처리를 수행하는 단계 및 상기 메인 디스플레이 영역 상에, 상기 증강 현실 그래픽 처리된 카메라 영상을 제공하는 단계를 포함하고, 상기 방송 영상은, 상기 메인 디스플레이 영역 상에, 상기 증강 현실 그래픽 처리된 카메라 영상이 제공되는 동안 상기 디스플레이부 상에 위치하는 서브 디스플레이 영역을 통해 상기 사용자 단말기에 제공될 수 있다. A method of providing a live broadcast according to the present invention includes the steps of receiving a broadcast image of a live broadcast from a live broadcast server, providing the broadcast image on the main display area of a display unit of a user terminal based on the reception, In a state where the broadcast image is being provided on the main display area, receiving an activation request for an augmented reality function related to the live broadcast from the user terminal, responding to activation of the augmented reality function according to the activation request Thus, performing augmented reality graphic processing related to an item linked to the live broadcast on a camera image received from a camera provided in the user terminal, and the augmented reality graphic processed camera image on the main display area. Comprising the step of providing, wherein the broadcast image is provided to the user terminal through a sub-display area located on the display unit while the augmented reality graphic-processed camera image is provided on the main display area. You can.

나아가, 본 발명에 따른 라이브 방송 제공 시스템은, 라이브 방송 서버로부터, 라이브 방송의 방송 영상을 수신하는 통신부 및 상기 수신에 근거하여, 사용자 단말기의 디스플레이부의 메인 디스플레이 영역 상에 상기 방송 영상을 제공하는 제어부를 포함하고. 상기 제어부는, 상기 메인 디스플레이 영역 상에 상기 방송 영상이 제공되고 있는 상태에서, 상기 사용자 단말기로부터 상기 라이브 방송과 관련된 증강 현실 기능에 대한 활성화 요청을 수신하고, 상기 활성화 요청에 따라 상기 증강 현실 기능이 활성화되는 것에 응답하여, 상기 사용자 단말기에 구비된 카메라로부터 수신되는 카메라 영상에 대해, 상기 라이브 방송에 연계된 아이템과 관련된 증강 현실 그래픽 처리를 수행하며, 상기 메인 디스플레이 영역 상에, 상기 증강 현실 그래픽 처리된 카메라 영상을 제공하고, 상기 방송 영상은, 상기 메인 디스플레이 영역 상에, 상기 증강 현실 그래픽 처리된 카메라 영상이 제공되는 동안 상기 디스플레이부 상에 위치하는 서브 디스플레이 영역을 통해 상기 사용자 단말기에 제공되는 것을 특징으로 하는 라이브 방송 제공 시스템.Furthermore, the live broadcast providing system according to the present invention includes a communication unit that receives the broadcast image of the live broadcast from a live broadcast server, and a control unit that provides the broadcast image on the main display area of the display unit of the user terminal based on the reception. Includes. The control unit receives an activation request for an augmented reality function related to the live broadcast from the user terminal while the broadcast image is being provided on the main display area, and activates the augmented reality function according to the activation request. In response to activation, augmented reality graphics processing related to an item associated with the live broadcast is performed on a camera image received from a camera provided in the user terminal, and the augmented reality graphics processing is performed on the main display area. The broadcast image is provided to the user terminal through a sub-display area located on the display unit while the augmented reality graphic-processed camera image is provided on the main display area. Features a live broadcasting provision system.

나아가, 본 발명에 따른, 전자기기에서 하나 이상의 프로세스에 의하여 실행되며, 컴퓨터로 판독될 수 있는 기록매체에 저장된 프로그램은, 라이브 방송 서버로부터, 라이브 방송의 방송 영상을 수신하는 단계, 상기 수신에 근거하여, 사용자 단말기의 디스플레이부의 메인 디스플레이 영역 상에 상기 방송 영상을 제공하는 단계, 상기 메인 디스플레이 영역 상에 상기 방송 영상이 제공되고 있는 상태에서, 상기 사용자 단말기로부터 상기 라이브 방송과 관련된 증강 현실 기능에 대한 활성화 요청을 수신하는 단계, 상기 활성화 요청에 따라 상기 증강 현실 기능이 활성화되는 것에 응답하여, 상기 사용자 단말기에 구비된 카메라로부터 수신되는 카메라 영상에 대해, 상기 라이브 방송에 연계된 아이템과 관련된 증강 현실 그래픽 처리를 수행하는 단계 및 상기 메인 디스플레이 영역 상에, 상기 증강 현실 그래픽 처리된 카메라 영상을 제공하는 단계를 수행하는 명령어들을 포함하고, 상기 방송 영상은, 상기 메인 디스플레이 영역 상에, 상기 증강 현실 그래픽 처리된 카메라 영상이 제공되는 동안 상기 디스플레이부 상에 위치하는 서브 디스플레이 영역을 통해 상기 사용자 단말기에 제공될 수 있다.Furthermore, according to the present invention, a program executed by one or more processes in an electronic device and stored in a computer-readable recording medium includes the steps of receiving a broadcast image of a live broadcast from a live broadcast server, based on the reception. Thus, providing the broadcast image on the main display area of the display unit of the user terminal, and in a state where the broadcast image is provided on the main display area, providing information on the augmented reality function related to the live broadcast from the user terminal. Receiving an activation request, in response to the augmented reality function being activated according to the activation request, augmented reality graphics related to an item associated with the live broadcast on a camera image received from a camera provided in the user terminal. Instructions for performing processing and providing a camera image processed with augmented reality graphics on the main display area, wherein the broadcast image is processed with augmented reality graphics on the main display area. While the camera image is being provided, it may be provided to the user terminal through the sub-display area located on the display unit.

본 발명에 따른 라이브 방송 제공 방법 및 시스템은, 증강현실 기능을 활용하여, 사용자가 라이브 방송을 시청하면서, 라이브 방송에서 소개되는 상품을 체험할 수 있는 사용자 경험을 제공할 수 있다. The method and system for providing live broadcasting according to the present invention can utilize an augmented reality function to provide a user experience that allows users to experience products introduced in the live broadcast while watching the live broadcast.

이와 같은, 본 발명에 따른 라이브 방송 제공 방법 및 시스템에 의하면, 소비자는, 직접 매장을 방문하지 않더라도, 상품에 대한 체험을 할 수 있어, 매장을 방문하는 시간을 절약함은 물론, 상품의 구매를 보다 신중하게 할 수 있다.According to the method and system for providing live broadcasting according to the present invention, consumers can experience products even without directly visiting the store, saving time on visiting the store and purchasing products. You can do it more carefully.

나아가, 본 발명에 따른 라이브 방송 제공 방법 및 시스템에 의하면, 판매자는, 소비자들에게 상품을 다양하게 체험할 수 있는 기회를 제공함으로써, 소비자들의 보다 적극적인 상품 구매를 유도할 수 있다. 나아가, 판매자는 직접 매장을 운영하지 않더라도 라이브 방송을 통하여 다양한 소비자를 만나고, 상품을 체험시킴으로써, 매장을 운영하는 운영비를 절약함은 물론, 상품 판매의 기회를 다양하게 가질 수 있다.Furthermore, according to the method and system for providing live broadcasting according to the present invention, sellers can induce consumers to more actively purchase products by providing consumers with opportunities to experience products in a variety of ways. Furthermore, even if sellers do not directly operate a store, they can meet various consumers and experience products through live broadcasts, thereby saving on the operating costs of running a store and having various opportunities to sell products.

한편, 본 발명에 따른 라이브 방송 제공 방법 및 시스템은, 라이브 방송의 제공, 상품에 대한 체험, 상품에 대한 구매 프로세스 제공을, 라이브 방송이 진행중인 상황에서 일원화하여 제공할 수 있다. 이를 통해, 소비자는 본 발명에 따른 라이브 방송을 시청하는 것 만으로도, 상품에 대한 체험과 구매를 보다 편리하게 수행할 수 있다.Meanwhile, the method and system for providing live broadcasting according to the present invention can provide the provision of live broadcasting, product experience, and product purchase process in a unified manner while live broadcasting is in progress. Through this, consumers can experience and purchase products more conveniently just by watching the live broadcast according to the present invention.

도 1은 본 발명에 따른 라이브 방송을 설명하기 위한 개념도이다.
도 2는 본 발명에 따른 라이브 방송 제공 시스템을 설명하기 위한 개념도이다.
도 3은 본 발명에 따른 라이브 방송 제공 방법을 설명하기 위한 흐름도이다.
도 4a 및 도 4b는 본 발명에 따른 라이브 방송 제공 방법에서, 증강 현실 기능의 활성화를 설명하기 위한 개념도이다.
도 5는 본 발명에 따른 라이브 방송을 통해 제공되는 방송 영상을 설명하기 위한 개념도이다.
도 6은 본 발명에서 증강 현실 기능을 통해 제공되는 카메라 영상을 설명하기 위한 개념도이다.
도 7은 본 발명에 따른 DB를 설명하기 위한 개념도이다.
도 8, 도 9 및 도 10은 본 발명에서 판매자 단말기에 제공되는 사용자 환경을 설명하기 위한 개념도들이다.
도 11 및 도 12는 본 발명에서 추가 아이템 정보를 제공하는 방법을 설명하기 위한 개념도들이다.
도 13 내지 도 15는 본 발명과 관련된 증강 현실 서비스를 설명하기 위한 개념도들이다.
도 16은, 본 발명에서, PIP(Picture In Picture) 방식의 라이브 방송 제공 방법을 설명하기 위한 흐름도이다.
도 17, 도 18, 도 19, 도 20, 도 21, 도 22 및 도 23은, 본 발명에 따른 증강 현실 기능이 활성화된 상태에서 제공하는 사용자 환경을 설명하기 위한 개념도들이다.
1 is a conceptual diagram for explaining live broadcasting according to the present invention.
Figure 2 is a conceptual diagram for explaining a live broadcasting provision system according to the present invention.
Figure 3 is a flowchart illustrating a method for providing live broadcasting according to the present invention.
FIGS. 4A and 4B are conceptual diagrams illustrating activation of an augmented reality function in a method for providing live broadcasting according to the present invention.
Figure 5 is a conceptual diagram for explaining a broadcast video provided through live broadcasting according to the present invention.
Figure 6 is a conceptual diagram for explaining the camera image provided through the augmented reality function in the present invention.
Figure 7 is a conceptual diagram for explaining the DB according to the present invention.
Figures 8, 9, and 10 are conceptual diagrams for explaining the user environment provided to the seller's terminal in the present invention.
11 and 12 are conceptual diagrams for explaining a method of providing additional item information in the present invention.
13 to 15 are conceptual diagrams for explaining an augmented reality service related to the present invention.
Figure 16 is a flowchart for explaining a method of providing live broadcasting in the PIP (Picture In Picture) method in the present invention.
FIGS. 17, 18, 19, 20, 21, 22, and 23 are conceptual diagrams for explaining the user environment provided when the augmented reality function according to the present invention is activated.

이하, 첨부된 도면을 참조하여 본 명세서에 개시된 실시 예를 상세히 설명하되, 도면 부호에 관계없이 동일하거나 유사한 구성요소에는 동일한 참조 번호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다. 이하의 설명에서 사용되는 구성요소에 대한 접미사 "모듈" 및 "부"는 명세서 작성의 용이함만이 고려되어 부여되거나 혼용되는 것으로서, 그 자체로 서로 구별되는 의미 또는 역할을 갖는 것은 아니다. 또한, 본 명세서에 개시된 실시 예를 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 본 명세서에 개시된 실시 예의 요지를 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다. 또한, 첨부된 도면은 본 명세서에 개시된 실시 예를 쉽게 이해할 수 있도록 하기 위한 것일 뿐, 첨부된 도면에 의해 본 명세서에 개시된 기술적 사상이 제한되지 않으며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다. Hereinafter, embodiments disclosed in the present specification will be described in detail with reference to the accompanying drawings. However, identical or similar components will be assigned the same reference numbers regardless of drawing symbols, and duplicate descriptions thereof will be omitted. The suffixes “module” and “part” for components used in the following description are given or used interchangeably only for the ease of preparing the specification, and do not have distinct meanings or roles in themselves. Additionally, in describing the embodiments disclosed in this specification, if it is determined that detailed descriptions of related known technologies may obscure the gist of the embodiments disclosed in this specification, the detailed descriptions will be omitted. In addition, the attached drawings are only for easy understanding of the embodiments disclosed in this specification, and the technical idea disclosed in this specification is not limited by the attached drawings, and all changes included in the spirit and technical scope of the present invention are not limited. , should be understood to include equivalents or substitutes.

제1, 제2 등과 같이 서수를 포함하는 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되지는 않는다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다.Terms containing ordinal numbers, such as first, second, etc., may be used to describe various components, but the components are not limited by the terms. The above terms are used only for the purpose of distinguishing one component from another.

어떤 구성요소가 다른 구성요소에 "연결되어" 있다거나 "접속되어" 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소가 다른 구성요소에 "직접 연결되어" 있다거나 "직접 접속되어" 있다고 언급된 때에는, 중간에 다른 구성요소가 존재하지 않는 것으로 이해되어야 할 것이다.When a component is said to be "connected" or "connected" to another component, it is understood that it may be directly connected to or connected to the other component, but that other components may exist in between. It should be. On the other hand, when it is mentioned that a component is “directly connected” or “directly connected” to another component, it should be understood that there are no other components in between.

단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. Singular expressions include plural expressions unless the context clearly dictates otherwise.

본 출원에서, "포함한다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.In this application, terms such as “comprise” or “have” are intended to designate the presence of features, numbers, steps, operations, components, parts, or combinations thereof described in the specification, but are not intended to indicate the presence of one or more other features. It should be understood that this does not exclude in advance the possibility of the existence or addition of elements, numbers, steps, operations, components, parts, or combinations thereof.

본 발명은, 라이브 방송을 제공하는 방법에 관한 것으로, 특히, 라이브(Live) 방송의 제공과 함께 증강 현실 서비스를 제공함으로써, 사용자가 라이브 방송을 시청함과 동시에 라이브 방송에서 판매하는 상품(商品)을 체험(경험) 또는 테스트(Test) 할 수 있는 서비스를 제공하는 것이다. The present invention relates to a method of providing a live broadcast, and in particular, by providing an augmented reality service along with the provision of a live broadcast, so that a user can watch the live broadcast and at the same time sell products on the live broadcast. It provides a service that allows you to experience or test.

여기에서, 라이브 방송은, 온라인(On-line) 상에서 소비자와 실시간으로 소통하면서 상품을 소개하는 스트리밍(streaming) 방송으로, 스트리밍 방송, 라이브 커머스(Live Commerce), 쇼핑 라이브(Shopping Live) 로도 명명될 수 있다. Here, live broadcasting is a streaming broadcast that introduces products while communicating with consumers in real time online, and can also be called streaming broadcasting, live commerce, or shopping live. You can.

여기에서 증강 현실(Augmented Reality)이란, 현실의 이미지나 배경에 가상 이미지를 겹쳐서 하나의 영상으로 보여주는 기술로, 현실의 이미지에 가상의 이미지를 겹치는 방식으로 영상을 합성하거나, 현실의 이미지의 적어도 일부를 변형하는 것을 의미할 수 있다. 여기에서, 현실의 이미지는 사용자 단말기에 구비된 카메라를 통해 수신되는 카메라 영상을 의미할 수 있다.Here, Augmented Reality is a technology that displays a single image by overlapping a virtual image on a real image or background. It synthesizes images by overlapping a virtual image on a real image, or at least part of a real image. It may mean transforming . Here, the real image may mean a camera image received through a camera provided in the user terminal.

본 발명에서는, 카메라 영상(20)에 아이템(특정 아이템) 또는 상품과 관련된 정보를 합성하거나, 아이템(특정 아이템) 또는 상품과 관련된 정보를 반영하기 위하여 카메라 영상(20)의 적어도 일부를 변경하는 것을 통해, 증강 현실 그래픽 처리를 수행할 수 있다.In the present invention, combining information related to an item (specific item) or product to the camera image 20, or changing at least part of the camera image 20 to reflect information related to the item (specific item) or product. Through this, augmented reality graphics processing can be performed.

본 발명에서는, 사용자 단말기에서 라이브 방송의 방송 영상이 제공되고 있는 상태에서, 카메라로부터 수신된 카메라 영상에, 라이브 방송에서 판매하는 상품과 관련된 증강 현실 그래픽 처리를 수행하여, 증강 현실 그래픽 처리된 카메라 영상을 제공함으로써, 라이브 방송 시청과 상품 체험(테스트)이 동시에 가능한 라이브 방송 제공 방법을 제공할 수 있다. In the present invention, while a broadcast image of a live broadcast is being provided to a user terminal, augmented reality graphics processing related to products sold in the live broadcast is performed on the camera image received from the camera, and the camera image is processed with augmented reality graphics. By providing, it is possible to provide a method of providing live broadcasting that allows viewing live broadcasting and product experience (testing) at the same time.

여기에서, “카메라 영상(20)”은, 카메라를 통해 촬영된 사진(또는 이미지), 동영상 및 프리뷰(preview) 화면 중 적어도 하나를 포함할 수 있다. 즉, 본 발명에서는 카메라를 통해 수신된 사진(또는 이미지), 동영상 및 프리뷰 화면 중 적어도 하나에 증강 현실 그래픽 처리를 수행할 수 있다. 다만, 이하에서는 이들을 구분하지 않고 모두 카메라 영상(20)으로 표현하여 설명하도록 한다. 도 1은 본 발명에 따른 라이브 방송을 설명하기 위한 개념도이다. Here, the “camera image 20” may include at least one of a photo (or image), a video, and a preview screen captured through a camera. That is, in the present invention, augmented reality graphic processing can be performed on at least one of a photo (or image), video, and preview screen received through a camera. However, in the following, they will not be distinguished and all will be explained by expressing them as camera images 20. 1 is a conceptual diagram for explaining live broadcasting according to the present invention.

도 1에 도시된 것과 같이, 본 발명에 따른 라이브 방송 제공 시스템(100)은, 사용자 단말기(200)의 디스플레이부 상에 라이브 방송의 방송 영상(10)을 제공할 수 있다. As shown in FIG. 1, the live broadcast providing system 100 according to the present invention can provide a broadcast image 10 of a live broadcast on the display unit of the user terminal 200.

이러한 라이브 방송의 방송 영상(10)은, 상품 판매와 관련된 판매자(또는 판매자에 해당하는 사용자) 측의 사용자 단말기를 통해 촬영되어, 상품 구매와 관련된 소비자(또는 소비자에 해당하는 사용자) 측의 사용자 단말기에 제공(또는 출력)될 수 있다. The broadcast video 10 of this live broadcast is filmed through the user terminal of the seller (or user corresponding to the seller) involved in selling the product, and is transmitted through the user terminal of the consumer (or user corresponding to the consumer) involved in purchasing the product. It can be provided (or output) to .

본 발명에서는 용어의 혼동을 피하기 위하여, 상품 판매와 관련된 사용자를 “판매자” 또는 “(라이브 방송)진행자”로 명명하고, 판매자 측에서 사용되는 사용자 단말기를, “판매자 단말기(또는 판매자 측 단말기)”, “진행자 단말기”, “라이브 방송 진행 단말기”, “라이브 커머스 진행 단말기”, “판매 관련 단말기” 등으로 명명할 수 있다. In the present invention, in order to avoid confusion in terminology, the user involved in product sales is named “seller” or “(live broadcast) host”, and the user terminal used by the seller is called “seller terminal (or seller’s terminal).” , “Host terminal”, “Live broadcasting progress terminal”, “Live commerce progress terminal”, “Sales related terminal”, etc.

또한, 상품 구매와 관련된 사용자를 “소비자”, “구매자” 또는 “시청자”로 명명하고, 소비자 측에서 사용되는 사용자 단말기를, “소비자 단말기(또는 소비자 측 단말기)”, “구매자 단말기”, “시청자 단말기” 등으로 명명할 수 있다.In addition, users involved in purchasing products are named “consumers,” “buyers,” or “viewers,” and user terminals used on the consumer side are called “consumer terminals (or consumer terminals),” “buyer terminals,” and “viewers.” It can be named “Terminal”, etc.

계속해서 도 1에 도시된 것과 같이, 방송 영상(10)은, 상기 방송 영상(10) 과 연계된 다양한 연관 정보 및 연관 그래픽 객체(11a 내지 11f)와 함께 사용자 단말기(200)의 디스플레이부 상에 제공(또는 출력)될 수 있다. As shown in FIG. 1, the broadcast image 10 is displayed on the display unit of the user terminal 200 along with various related information and related graphic objects 11a to 11f associated with the broadcast image 10. It may be provided (or printed).

본 발명에서, 방송 영상(10)과 연관 정보 및 연관 그래픽 객체(11a 내지 11f)가 함께 제공(또는 출력)된다는 것은, 방송 영상(10)의 적어도 일 영역에 연관 정보 및 연관 그래픽 객체(11a 내지 11f)가 오버랩(overlap) 또는 중첩되어 제공(또는 출력)되는 것으로 이해될 수 있다. In the present invention, providing (or outputting) the broadcast video 10 and the related information and the related graphic objects 11a to 11f together means that the related information and the related graphic objects 11a to 11f are provided in at least one area of the broadcast video 10. 11f) may be understood as being overlapped or provided (or output) in an overlapping manner.

방송 영상(10)에 오버랩되는 연관 정보 및 연관 그래픽 객체(11a 내지 11f)는, i) 판매자에 의해 미리 입력된 정보(ex: 라이브 방송 타이틀(title) 정보(11a), 상품 정보(11b), 증강 현실 서비스를 위한 증강 현실 기능 아이콘(또는 그래픽 객체, 11c), ii) 라이브 방송과 관련된 다양한 아이콘(11d, 11e), ii) 판매자 및 소비자(또는 복수의 소비자) 중 적어도 하나에 의해 입력된 채팅(Chatting) 정보(11f) 중 적어도 하나를 포함할 수 있다. The related information and related graphic objects 11a to 11f overlapping with the broadcast video 10 include i) information pre-entered by the seller (ex: live broadcast title information 11a, product information 11b, Augmented reality function icon (or graphic object, 11c) for augmented reality service, ii) various icons (11d, 11e) related to live broadcast, ii) chat input by at least one of the seller and the consumer (or a plurality of consumers) (Chatting) may include at least one of the information (11f).

한편, 본 발명에 따른, 라이브 방송 제공 방법은, 애플리케이션(application) 또는 소프트웨어(software)의 형태로 구현되는 시스템에 의하여 일련의 과정이 수행될 수 있다(이하에서는, 애플리케이션과 소프트웨어의 용어를 구분하지 않고, 통일하여 애플리케이션이라고 명명한다). 즉, 본 발명에 따른, 라이브 방송 제공 시스템(100)은, “라이브 방송 제공 애플리케이션”, “라이브 커머스 애플리케이션”, “쇼핑 라이브(Shopping Live) 애플리케이션” 이라고도 명명될 수 있다. Meanwhile, in the method of providing live broadcasting according to the present invention, a series of processes may be performed by a system implemented in the form of an application or software (hereinafter, the terms application and software will not be distinguished). (unified and named application). That is, the live broadcast providing system 100 according to the present invention may also be called a “live broadcast providing application,” “live commerce application,” or “shopping live application.”

이하에서는, 첨부된 도면과 함께, 본발명에 따른 라이브 방송 제공 시스템에 대하여, 보다 구체적으로 살펴본다. 도 2는 본 발명에 따른 라이브 방송 제공 시스템을 설명하기 위한 개념도이다. Below, we will look at the live broadcasting provision system according to the present invention in more detail along with the attached drawings. Figure 2 is a conceptual diagram for explaining a live broadcasting provision system according to the present invention.

도 2에 도시된 것과 같이, 본 발명에 따른 라이브 방송 제공 시스템(100)은, 라이브 방송 서버(300)로부터 방송 영상을 수신하고, 이를 사용자 단말기(200) 상에 제공할 수 있다. 나아가, 라이브 방송 영상은, 판매자 단말기에서 다이렉트로 사용자 단말기(200)로 제공되는 것 또한 가능하다.As shown in FIG. 2, the live broadcasting providing system 100 according to the present invention can receive broadcasting video from the live broadcasting server 300 and provide it on the user terminal 200. Furthermore, it is also possible for the live broadcast video to be provided directly from the seller terminal to the user terminal 200.

라이브 방송 서버(300)는, 라이브 방송 스트리밍(streaming) 서비스를 제공하는 서버로, 특정 사용자 단말기로부터 방송 영상을 수신하고, 수신한 방송 영상을 본 발명에 따른 라이브 방송 시스템(100)에 제공할 수 있다. The live broadcast server 300 is a server that provides a live broadcast streaming service, and can receive broadcast video from a specific user terminal and provide the received broadcast video to the live broadcast system 100 according to the present invention. there is.

특히, 본 발명에 따른 라이브 방송 서버(300)는, 쇼핑 서비스와 연계되어 라이브 방송 스트리밍 서비스를 제공할 수 있다. 이 경우, 특정 사용자 단말기는 판매자 단말기에 해당하고, 라이브 방송 제공 시스템(100)은, 소비자 단말기에서 구현되는 라이브 방송 제공 애플리케이션일 수 있다. In particular, the live broadcast server 300 according to the present invention can provide a live broadcast streaming service in conjunction with a shopping service. In this case, the specific user terminal corresponds to the seller terminal, and the live broadcast providing system 100 may be a live broadcast providing application implemented in the consumer terminal.

이에, 본 발명에 따른 라이브 방송 서버(300)는, “서버”, “방송 서버”, “라이브 서버”, “라이브 커머스 서버”, “커머스 서버” 등으로 혼용되어 명명될 수 있다. Accordingly, the live broadcast server 300 according to the present invention may be interchangeably named as “server”, “broadcast server”, “live server”, “live commerce server”, “commerce server”, etc.

나아가, 라이브 방송 서버(300)는, 방송 영상과 관련된 i) 방송 정보, ii) 아이템 정보, iii) 채팅 정보 및 vi) 기능 아이콘(또는 그래픽 객체) 중 적어도 하나를 본 발명에 라이브 방송 제공 시스템(100)에 제공할 수 있다. Furthermore, the live broadcast server 300 provides at least one of i) broadcast information, ii) item information, iii) chat information, and vi) function icons (or graphic objects) related to the broadcast video. The live broadcast providing system according to the present invention ( 100).

여기에서, 아이템 정보는 아이템에 대한 정보로서, 아이템은, 라이브 방송을 통해 판매 또는 광고(홍보)의 대상이 되는 상품을 의미할 수 있다. Here, item information is information about an item, and an item may mean a product that is subject to sale or advertisement (promotion) through live broadcasting.

방송 정보는, 특정 방송 영상과 관련된 다양한 정보일 수 있다. 예를 들어, 방송 정보는, 특정 방송 영상의 타이틀(title) 정보(ex: “월간선물샵 8회: 블랙프라이데이 특집”), 진행자 정보(“바비 코스메틱”), 시청자 정보(ex: “331,425 시청중”), 방송 타입 정보(ex: 라이브) 등을 포함할 수 있다. Broadcast information may be various information related to a specific broadcast video. For example, broadcast information includes title information of a specific broadcast video (ex: “Monthly Gift Shop Episode 8: Black Friday Special”), host information (“Barbie Cosmetics”), viewer information (ex: “331,425 views”) may include broadcast type information (ex: live), etc.

아이템 정보는, 특정 방송과 연계된 적어도 하나의 아이템과 관련된 다양한 정보일 수 있다. 예를 들어, 아이템 정보는, 특정 방송 영상의 라이브 방송에서 판매 또는 소개하는 아이템의 썸네일 이미지, 아이템 명칭 정보, 아이템의 상세 정보, 아이템 가격 정보 등을 포함할 수 있다. Item information may be various information related to at least one item associated with a specific broadcast. For example, item information may include a thumbnail image of an item sold or introduced in a live broadcast of a specific broadcast video, item name information, detailed item information, item price information, etc.

채팅 정보는, 판매자 단말기 및 다수의 소비자 단말기에 의해, 특정 방송 영상의 라이브 방송과 실시간으로 교환되는 메시지로 이해될 수 있다. Chat information can be understood as messages exchanged in real time with the live broadcast of a specific broadcast video by a seller terminal and a plurality of consumer terminals.

기능 아이콘(또는 그래픽 객체)는, 특정 방송 영상 및 쇼핑 서비스와 관련된 다양한 기능과 연계된 아이콘(그래픽 객체)일 수 있다. A function icon (or graphic object) may be an icon (graphic object) associated with various functions related to a specific broadcast video or shopping service.

상기 방송 정보, 아이템 정보, 채팅 정보 및 기능 아이콘(또는 그래픽 객체)는, 특정 방송 영상과 관련된 판매자 단말기로부터 수신된 정보 및 라이브 방송 서버(300)의 저장된 정보 중 적어도 하나에 근거하여, 본 발명에 따른 라이브 제공 시스템(100)에 제공될 수 있다. The broadcast information, item information, chat information, and function icons (or graphic objects) are based on the present invention based on at least one of information received from a seller terminal related to a specific broadcast video and information stored in the live broadcast server 300. It may be provided to the live provision system 100 according to the following.

라이브 방송 서버(300)에 저장된 정보는, 라이브 방송 서버(300)의 관리자에 의해 입력된 정보일 수 있다.Information stored in the live broadcasting server 300 may be information input by an administrator of the live broadcasting server 300.

이처럼, 본 발명에 따른 라이브 방송 서버(300)는, 쇼핑 서비스와 연계된 라이브 방송 스트리밍 서비스를 제공하기 위하여, 라이브 방송의 방송 영상과 관련된 다양한 정보를 함께 제공할 수 있다. In this way, the live broadcast server 300 according to the present invention can provide various information related to the broadcast video of the live broadcast in order to provide a live broadcast streaming service linked to a shopping service.

한편, 본 발명에 라이브 방송 제공 시스템(100)은, 도 2에 도시된 것과 같이, 애플리케이션의 형태로 사용자 단말기(200)에 설치되어, 라이브 방송의 방송 영상과 함께 증강 현실 서비스를 제공하는 과정을 수행할 수 있다. 이러한, 애플리케이션은, 사용자 단말기(200)상에서의 사용자의 요청에 의하여 사용자 단말기(200) 상에 설치될 수 있으며, 또는 사용자 단말기(200) 출고 당시, 사용자 단말기(200)에 설치되어 존재할 수 있다. 이와 같은, 라이브 방송 제공 시스템을 구현하는 애플리케이션은, 데이터 통신을 통하여, 외부 데이터(data) 저장소(또는 외부 서버(server))로부터 다운로드(download)되어, 사용자 단말기(200) 상에 설치될 수 있다. 그리고, 사용자 단말기(200) 상에서, 본 발명에 따른 라이브 방송 제공 시스템이 구현된 애플리케이션이 실행되는 경우, 라이브 방송의 방송 영상과 함께 증강 현실 서비스를 제공하기 위한 일련의 과정이 진행될 수 있다. Meanwhile, in the present invention, the live broadcast providing system 100 is installed in the user terminal 200 in the form of an application, as shown in FIG. 2, and performs a process of providing an augmented reality service along with broadcast images of a live broadcast. It can be done. This application may be installed on the user terminal 200 at the request of the user on the user terminal 200, or may exist installed on the user terminal 200 at the time the user terminal 200 is shipped. An application implementing such a live broadcasting provision system may be downloaded from an external data storage (or external server) through data communication and installed on the user terminal 200. . And, when an application implementing the live broadcast providing system according to the present invention is executed on the user terminal 200, a series of processes for providing an augmented reality service along with broadcast images of the live broadcast may proceed.

본 발명에서 언급되는 사용자 단말기(200)는, 본 발명에 따른 라이브 방송 제공 시스템(100)이 동작가능한 전자기기이면 되며, 그 종류에 특별한 제한을 두지 않는다. 예를 들어, 사용자 단말기(200)는, 휴대폰, 스마트 폰(smart phone), 노트북 컴퓨터(notebook computer), 휴대용 컴퓨터(laptop computer), 슬레이트 PC(slate PC), 태블릿 PC(tablet PC), 울트라북(ultrabook), 데스크톱 컴퓨터(desktop computer), 디지털방송용 단말기, PDA(personal digital assistants), PMP(portable multimedia player), 네비게이션, 웨어러블 디바이스(wearable device, 예를 들어, 워치형 단말기 (smartwatch), 글래스형 단말기 (smart glass), HMD(head mounted display)) 등이 포함될 수 있다. The user terminal 200 referred to in the present invention may be any electronic device capable of operating the live broadcasting provision system 100 according to the present invention, and there is no particular limitation on its type. For example, the user terminal 200 is a mobile phone, a smart phone, a laptop computer, a laptop computer, a slate PC, a tablet PC, and an ultrabook. (ultrabook), desktop computer, digital broadcasting terminal, PDA (personal digital assistants), PMP (portable multimedia player), navigation, wearable device (e.g., smartwatch), glass type Terminals (smart glass), HMD (head mounted display), etc. may be included.

한편, 이와 같이, 애플리케이션의 형태로 구현될 수 있는 본 발명에 따른 라이브 방송 제공 시스템(100)은, 통신부(110), 저장부(120) 및 제어부(130) 중 적어도 하나를 포함할 수 있다. 위의 구성요소들은, 소프트웨어적인 구성요소로서, 사용자 단말기(200)의 하드웨어적인 구성요소와 연동하여 기능을 수행할 수 있다.Meanwhile, the live broadcast providing system 100 according to the present invention, which can be implemented in the form of an application, may include at least one of a communication unit 110, a storage unit 120, and a control unit 130. The above components are software components and can perform functions in conjunction with hardware components of the user terminal 200.

예를 들어, 통신부(110)는, 사용자 단말기(200)에 구비된 통신 모듈(예를 들어, 이동통신 모듈, 근거리 통신 모듈, 무선 인터넷 모듈, 위치정보 모듈, 방송 수신 모듈 등)의 구성을 이용하여, 본 발명과 관련된 정보(또는 데이터)를 적어도 하나의 외부기기(또는 라이브 방송 서버, 100 a)와 송수신 하는 역할을 수행할 수 있다.For example, the communication unit 110 uses the configuration of communication modules (e.g., mobile communication module, short-range communication module, wireless Internet module, location information module, broadcast reception module, etc.) provided in the user terminal 200. Thus, it can perform the role of transmitting and receiving information (or data) related to the present invention with at least one external device (or live broadcast server, 100a).

또한, 저장부(120)는 사용자 단말기(200)에 구비된 메모리 및 외부 저장소(또는 외부 서버,100a) 중 적어도 하나를 이용하여, 라이브 방송 제공 및 증강 현실 서비스 제공과 관련된 정보를 저장하거나, 시스템과 관련된 정보, 또는 명령들을 저장할 수 있다. In addition, the storage unit 120 uses at least one of the memory provided in the user terminal 200 and an external storage (or external server 100a) to store information related to providing live broadcasting and augmented reality services, or to store information related to providing live broadcasting and augmented reality services. Information or commands related to can be stored.

본 발명에서 저장부(120)에 “저장된다”고 함은, 물리적으로는, 사용자 단말기(200)의 메모리 또는 외부 저장소(또는 외부 서버, 100a)에 정보가 저장됨을 의미할 수 있다. In the present invention, “stored” in the storage unit 120 may mean that information is physically stored in the memory of the user terminal 200 or in an external storage (or external server, 100a).

한편, 본 발명에 대응되는 애플리케이션이 사용자 단말기(200)에서 삭제되는 경우, 저장부(120)에 저장된 정보 또한, 사용자 단말기(200)에서 삭제될 수 있다. 또한, 외부 저장소(100a)는, 클라우드(cloud) 방식의 저장소일 수 있다.Meanwhile, when the application corresponding to the present invention is deleted from the user terminal 200, information stored in the storage unit 120 may also be deleted from the user terminal 200. Additionally, the external storage 100a may be a cloud-type storage.

본 발명에서는 사용자 단말기(200)의 메모리와 외부 저장소(또는 외부 서버, 100a)를 구분하지 않고, 모두 저장부(120)를 표현하여 설명하도록 한다. In the present invention, the memory of the user terminal 200 and the external storage (or external server, 100a) are not distinguished, and both are described by referring to the storage unit 120.

한편, 제어부(130)는 사용자 단말기(200)에 구비된 CPU(Central Processing Unit)를 이용하여, 본 발명을 수행하기 위한 전반적인 제어를 수행할 수 있다. 위에서 살펴본 구성요소들은 제어부(130)의 제어 하에 동작할 수 있으며, 제어부(130)는 사용자 단말기(200)의 물리적인 구성요소들에 대한 제어를 수행할 수 있음은 물론이다.Meanwhile, the control unit 130 can perform overall control for carrying out the present invention using a CPU (Central Processing Unit) provided in the user terminal 200. The components examined above can operate under the control of the control unit 130, and of course, the control unit 130 can control the physical components of the user terminal 200.

예를 들어, 제어부(130)는, 사용자 단말기(200)에 구비된 디스플레이부(210)를 통해 라이브 방송의 방송 영상이 출력되도록 제어를 수행할 수 있다. 또한, 제어부(130)는, 사용자 단말기(200)에 구비된 카메라(220)를 통해, 영상 또는 사진(또는 이미지, image)의 촬영을 제어를 수행할 수 있다. 또한, 제어부(130)는, 사용자 단말기(200)의 입력부(미도시)를 통해 사용자로부터 정보를 입력 받을 수 있다. For example, the control unit 130 may control the broadcast image of a live broadcast to be output through the display unit 210 provided in the user terminal 200. Additionally, the control unit 130 may control the taking of a video or photo (or image) through the camera 220 provided in the user terminal 200. Additionally, the control unit 130 may receive information from the user through an input unit (not shown) of the user terminal 200.

사용자 단말기(200)에 구비된 디스플레이부(210), 카메라(220) 및 입력부(미도시)의 그 종류에는 특별한 제한이 없다. 예를 들어, 입력부(미도시)는 기계식 (mechanical) 입력수단(또는, 메커니컬 키, 예를 들어, 마우스(mouse), 조이스틱(joy stic), 물리적인 버튼, 돔 스위치 (dome switch), 조그 휠, 조그 스위치 등) 및 터치식 입력수단 중 적어도 하나를 포함할 수 있다. 일 예로서, 터치식 입력수단은, 소프트웨어적인 처리를 통해 터치스크린에 표시되는 가상 키(virtual key), 소프트 키(soft key) 또는 비주얼 키(visual key)로 이루어지거나, 터치스크린 이외의 부분에 배치되는 터치 키(touch key)로 이루어질 수 있다.There is no particular limitation on the types of display unit 210, camera 220, and input unit (not shown) provided in the user terminal 200. For example, the input unit (not shown) may be a mechanical input means (or mechanical key, for example, mouse, joystick, physical button, dome switch, jog wheel). , jog switch, etc.) and a touch input means. As an example, the touch input means consists of a virtual key, soft key, or visual key displayed on the touch screen through software processing, or on a part other than the touch screen. It can be done with a touch key placed.

한편, 상기 가상키 또는 비주얼 키는, 다양한 형태를 가지면서 터치스크린 상에 표시되는 것이 가능하며, 예를 들어, 그래픽(graphic), 텍스트(text), 아이콘(icon), 비디오(video) 또는 이들의 조합으로 이루어질 수 있다. 이때, 입력부(미도시)가 터치 스크린을 포함하는 경우, 사용자 단말기(200)의 디스플레이부(110)는 터치 스크린으로 이루어 질 수 있으며, 정보를 출력하는 역할과, 정보를 입력받는 역할을 모두 수행할 수 있다.Meanwhile, the virtual key or visual key can be displayed on the touch screen in various forms, for example, graphic, text, icon, video or these. It can be made up of a combination of . At this time, when the input unit (not shown) includes a touch screen, the display unit 110 of the user terminal 200 may be made of a touch screen and performs both the role of outputting information and the role of receiving information. can do.

나아가, 제어부(130)는, 사용자 단말기의 디스플레이부(210)를 통해 라이브 방송의 방송 영상을 제공하고 있는 상태에서, 사용자로부터 라이브 방송과 관련된 증강 현실 기능에 대한 활성화 요청을 수신할 수 있다. 사용자의 증강 현실 기능에 대한 활성화 요청에 응답하여, 제어부(130)는 사용자 단말기에 구비된 카메라(220)로부터 수신되는 카메라 영상(20)에 대해, 라이브 방송에 연계된 아이템과 관련된 그래픽 처리를 수행할 수 있다. 그리고, 제어부(130)는, 방송 영상과 함께 증강 현실 그래픽 처리가 수행된 카메라 영상(20)을 사용자 단말기의 디스플레이부(210)에 표시할 수 있다. 이를 통해, 사용자는 라이브 방송의 방송 영상을 시청하면서, 동시에 라이브 방송에서 판매하는 아이템을 체험(또는 경험, 테스트)할 수 있다. 이하에서는, 사용자가 라이브 방송의 방송 영상을 시청하면서, 라이브 방송에 연계된 아이템을 체험 또는 테스트할 수 있도록, 본 발명에 따른 라이브 방송 제공 시스템(100a)에서, 라이브 방송 서비스 및 증강 현실 서비스를 동시에 제공하는 방법에 대해 보다 구체적으로 설명하도록 한다. Furthermore, the control unit 130 may receive a request for activation of an augmented reality function related to the live broadcast from the user while the broadcast image of the live broadcast is being provided through the display unit 210 of the user terminal. In response to the user's request to activate the augmented reality function, the control unit 130 performs graphics processing related to items related to the live broadcast on the camera image 20 received from the camera 220 provided in the user terminal. can do. Additionally, the control unit 130 may display the camera image 20 on which augmented reality graphic processing has been performed along with the broadcast image on the display unit 210 of the user terminal. Through this, users can watch the broadcast video of the live broadcast and at the same time experience (or experience, test) the items sold in the live broadcast. Hereinafter, the live broadcast service and the augmented reality service are simultaneously provided in the live broadcast providing system 100a according to the present invention so that the user can experience or test items related to the live broadcast while watching the broadcast video of the live broadcast. Let us explain in more detail how to provide it.

도 3은 본 발명에 따른 라이브 방송 제공 방법을 설명하기 위한 흐름도이고, 도 4a및 도 4b는 본 발명에 따른 라이브 방송 제공 방법에서, 증강 현실 기능의 활성화를 설명하기 위한 개념도이다. 나아가, 도 5는 본 발명에 따른 라이브 방송을 통해 제공되는 방송 영상을 설명하기 위한 개념도이며, 도 6은 본 발명에서 증강 현실 기능을 통해 제공되는 카메라 영상을 설명하기 위한 개념도이다. FIG. 3 is a flowchart for explaining a method for providing live broadcasting according to the present invention, and FIGS. 4A and 4B are conceptual diagrams for explaining activation of an augmented reality function in the method for providing live broadcasting according to the present invention. Furthermore, FIG. 5 is a conceptual diagram for explaining a broadcast image provided through a live broadcast according to the present invention, and FIG. 6 is a conceptual diagram for explaining a camera image provided through an augmented reality function in the present invention.

나아가, 도 7은 본 발명에 따른 상품 DB를 설명하기 위한 개념도이고, 도 8, 도 9 및 도 10은 본 발명에서 판매자 단말기에 제공되는 사용자 환경을 설명하기 위한 개념도들이다. 도 11 및 도 12는 본 발명에서 추가 아이템 정보를 제공하는 방법을 설명하기 위한 개념도들이고, 도 13 내지 도 15는 본 발명과 관련된 증강 현실 서비스를 설명하기 위한 개념도들이다.Furthermore, Figure 7 is a conceptual diagram for explaining the product DB according to the present invention, and Figures 8, 9, and 10 are conceptual diagrams for explaining the user environment provided to the seller terminal in the present invention. FIGS. 11 and 12 are conceptual diagrams for explaining a method of providing additional item information in the present invention, and FIGS. 13 to 15 are conceptual diagrams for explaining an augmented reality service related to the present invention.

본 발명에 따른 라이브 방송 제공 방법에서는, 라이브 방송 서버(300)로부터, 라이브 방송의 방송 영상을 수신하는 과정이 진행될 수 있다(S310, 도 3 참조).In the method for providing live broadcasting according to the present invention, a process of receiving broadcast video of a live broadcast may be performed from the live broadcast server 300 (S310, see FIG. 3).

라이브 방송의 방송 영상의 수신은, 사용자 단말기(200)에서 이루어질 수 있다.Reception of broadcast video of a live broadcast may be performed in the user terminal 200.

앞서 설명한 것과 같이, 라이브 방송 서버(300)는, 판매자 단말기로부터 라이브 방송의 방송 영상을 수신하고, 이를 본 발명에 따른 라이브 방송 제공 시스템(100)에 제공할 수 있다. As described above, the live broadcast server 300 can receive broadcast video of a live broadcast from a seller terminal and provide it to the live broadcast providing system 100 according to the present invention.

통신부(110)는, 라이브 방송 제공 서버(300)에서 실시간으로 진행하는 라이브 방송의 방송 영상을, 라이브 방송 제공 서버(300)로부터 스트리밍(Streaming) 기법으로 수신할 수 있다. The communication unit 110 may receive broadcast video of a live broadcast conducted in real time from the live broadcast providing server 300 using a streaming technique.

즉, 제어부(130)는, 통신부(110)가 라이브 방송이 진행되는 동안에, 방송 영상을 계속해서 수신하도록 통신부(110)를 제어할 수 있다. That is, the control unit 130 can control the communication unit 110 so that the communication unit 110 continues to receive broadcast images while a live broadcast is in progress.

다음으로, 본 발명에 따른 라이브 방송 제공 방법에서는, 라이브 방송 서버(300)로부터 방송 영상을 수신한 것에 근거하여, 사용자 단말기(200)의 디스플레이부(210) 상에 수신한 방송 영상(10)을 제공할 수 있다(S320, 도 3 참조).Next, in the method for providing live broadcasting according to the present invention, based on receiving the broadcast image from the live broadcast server 300, the received broadcast image 10 is displayed on the display unit 210 of the user terminal 200. It can be provided (S320, see FIG. 3).

도 4a의 (a)에 도시된 것과 같이, 제어부(130)는, 수신한 방송 영상(10)이 사용자 단말기(200)의 디스플레이부를 통해 제공(재생 또는 출력 또는 표시)되도록, 디스플레이부(210)를 제어할 수 있다. As shown in (a) of FIG. 4A, the control unit 130 operates the display unit 210 so that the received broadcast video 10 is provided (played, output, or displayed) through the display unit of the user terminal 200. can be controlled.

이와 같이, 제어부(130)는 방송 영상(10)이 사용자 단말기(200)의 디스플레이부를 통해 제공(재생 또는 출력 또는 표시)되도록, 사용자 단말기(200)의 디스플레이부를 제어하는 제1 데이터 처리를 수행할 수 있다. 이러한 제1 데이터 처리는, 후술하는 증강 현실 서비스와 관련된 제2 데이터 처리와 동시에 수행될 수 있다. In this way, the control unit 130 performs first data processing to control the display unit of the user terminal 200 so that the broadcast image 10 is provided (played, output, or displayed) through the display unit of the user terminal 200. You can. This first data processing may be performed simultaneously with second data processing related to the augmented reality service described later.

한편, 디스플레이부에서 제공되는 방송 영상(10)는 사용자가 선택한 방송 채널에 해당하는 방송 영상(10)일 수 있다. Meanwhile, the broadcast image 10 provided from the display unit may be a broadcast image 10 corresponding to a broadcast channel selected by the user.

다음으로, 본 발명에 따른 라이브 방송 제공 방법에서는, 사용자 단말기(200)의 디스플레이부 상에 방송 영상(10)이 제공되고 있는 상태에서, 사용자 단말기(200)로부터 라이브 방송과 관련된 증강 현실 기능에 대한 활성화 요청을 수신하는 과정이 진행될 수 있다(S330, 도 3 참조).Next, in the method for providing live broadcasting according to the present invention, while the broadcast image 10 is being provided on the display unit of the user terminal 200, the augmented reality function related to the live broadcast is received from the user terminal 200. The process of receiving an activation request may proceed (S330, see FIG. 3).

증강 현실 기능에 대한 활성화 요청은, 앞서 살펴본 것과 같이, 사용자 단말기(200)로부터 아이콘(410)이 선택되는 것에 근거하여 수신될 수 있다. As discussed above, a request to activate the augmented reality function may be received based on the icon 410 being selected from the user terminal 200.

상기 아이콘(410)이 선택되면, 제어부(130)는, 방송 영상의 라이브 방송에서 판매하는 아이템과 연계된 증강 현실 기능에 대한 활성화 기능 요청이 있는 것으로 판단할 수 있다. When the icon 410 is selected, the control unit 130 may determine that there is a request for an activation function for an augmented reality function associated with an item sold in a live broadcast of a broadcast video.

도 4a의 (a)에 도시된 것과 같이, 제어부(130)는, 사용자 단말기(200)의 디스플레이부 상에 방송 영상(10)이 제공되고 있는 상태에서, 디스플레이부의 일 영역에, 증강 현실 기능에 링크된 아이콘(410)이 표시되도록 제어할 수 있다. As shown in (a) of FIG. 4A, the control unit 130 activates the augmented reality function in one area of the display unit while the broadcast image 10 is being provided on the display unit of the user terminal 200. The linked icon 410 can be controlled to be displayed.

제어부(130)는, 실시간으로 재생되는 방송 영상(10) 상에, 증강 현실 기능에 링크된 아이콘(410)이 오버랩(overlab)되어 표시되도록, 사용자 단말기(200)의 디스플레이부를 제어할 수 있다. The control unit 130 may control the display unit of the user terminal 200 so that the icon 410 linked to the augmented reality function is displayed in an overlapping manner on the broadcast video 10 played in real time.

상기 아이콘(410)은, 상기 아이콘(410)과 함께 제공되는 방송 영상의 라이브 방송에서 판매(또는 소개)하는 아이템에 연계된 증강 현실 기능에 링크되어 있을 수 있다. The icon 410 may be linked to an augmented reality function linked to an item sold (or introduced) in a live broadcast of a broadcast video provided with the icon 410.

상기 아이콘(410)이 선택되면, 사용자 단말기에는, 현재 방송 영상에서 소개되고 있는 아이템에 대한 증강 현실 기능이 제공될 수 있다. When the icon 410 is selected, an augmented reality function for the item currently being introduced in the broadcast video may be provided to the user terminal.

본 발명에서, 증강 현실 기능은, 방송 영상에서 소개되고 있는 아이템에 따라, 해당 아이템에 연계되는 증강 현실 기능을 제공할 수 있다.In the present invention, the augmented reality function can provide an augmented reality function linked to the item, depending on the item being introduced in the broadcast video.

일 예로, 라이브 방송에서 제1 아이템(ex: “립스틱”)을 판매하는 경우, 방송 영상에는 제1 아이템의 아이템 정보(또는 상품 정보)가 제공될 수 있고, 이 경우, 제1 아이템을 판매하는 라이브 방송의 방송 영상과 함께 표시되는 아이콘(410)에는, 제1 아이템에 연계된 증강 현실 기능이 링크되어 있을 수 있다. As an example, when selling the first item (ex: “lipstick”) in a live broadcast, item information (or product information) of the first item may be provided in the broadcast video, and in this case, the person selling the first item The icon 410 displayed together with the broadcast image of the live broadcast may be linked to an augmented reality function linked to the first item.

방송 영상에서 소개되고 있는 아이템의 특정은, 도 4a에 도시된 것과 같이, 방송 영상(10)과 함께 표시되고 있는 아이템 정보(430)에 근거하여 이루어질 수 있다.Specification of the item being introduced in the broadcast video can be made based on item information 430 displayed together with the broadcast video 10, as shown in FIG. 4A.

즉, 제어부(130)는 방송 영상(10)에서 제공되는 아이템 정보(430)에 따라, 아이템 정보(430)에 대응되는 증강 현실 기능을 제공할 수 있다. 예를 들어, 라이브 방송에서 제2 아이템(ex: “파운데이션”)을 판매하는 경우, 제1 아이템의 아이템 정보(또는 상품 정보)가 제공될 수 있고, 이 경우 제2 아이템을 판매하는 라이브 방송의 방송 영상(10)과 함께 표시되는 아이콘(410)에는, 제2 아이템에 연계된 증강 현실 기능이 링크되어 있을 수 있다. That is, the control unit 130 may provide an augmented reality function corresponding to the item information 430 according to the item information 430 provided in the broadcast video 10. For example, when selling a second item (ex: “foundation”) in a live broadcast, item information (or product information) of the first item may be provided, and in this case, the live broadcast selling the second item may be provided. The icon 410 displayed together with the broadcast image 10 may be linked to an augmented reality function linked to the second item.

한편, 방송 영상(10)에는 상기 아이템 정보(430)가 제공되는 영역이 특정되어 존재하며, 상기 아이템 정보(430)가 제공되기로 특정된 특정 영역에, 어느 아이템에 대한 아이템 정보가 제공되었는지에 따라, 서로 다른 증강 현실 그래픽 처리를 수행할 수 있다. 이와 같이, 제어부(130)는, 사용자 단말기(200)의 디스플레이부 상에 제공되는 방송 영상(10)이, 제1 아이템을 판매하는 방송 영상에서 제2 아이템을 판매하는 방송 영상을 변경되는 것에 근거하여, 사용자 단말기(200)의 디스플레이부 상의 아이콘(410)이 선택되었을 때, 제2 아이템에 연계된 증강 현실 그래픽 처리를 수행할 수 있다.Meanwhile, in the broadcast video 10, there is a specified area where the item information 430 is provided, and the item information for which item is provided in the specific area where the item information 430 is specified to be provided. Accordingly, different augmented reality graphics processing can be performed. In this way, the control unit 130 is based on the fact that the broadcast image 10 provided on the display unit of the user terminal 200 changes from a broadcast image selling the first item to a broadcast image selling the second item. Thus, when the icon 410 on the display unit of the user terminal 200 is selected, augmented reality graphic processing linked to the second item can be performed.

즉, 제어부(130)는 제1 아이템을 판매하는 방송 영상이 출력되고 있는 동안에 상기 아이콘(410)이 선택된 경우, 카메라 영상(20)에 대해 제1 아이템에 연계된 증강 현실 그래픽 처리를 수행하고, 제어부(130)는 제2 아이템을 판매하는 방송 영상이 출력되고 있는 동안에 상기 아이콘(410)이 선택된 경우, 카메라 영상(20)에 대해 제2 아이템에 연계된 증강 현실 그래픽 처리를 수행할 수 있다.That is, when the icon 410 is selected while a broadcast image selling the first item is being output, the control unit 130 performs augmented reality graphic processing linked to the first item on the camera image 20, If the icon 410 is selected while a broadcast image selling the second item is being output, the control unit 130 may perform augmented reality graphic processing linked to the second item on the camera image 20.

한편, 방송 영상에서 어느 아이템에 대한 방송 영상을 출력하고 있는지에 대한 특정은, 방송 영상에 함께 제공되는 아이템 정보가, 어느 아이템에 대한 것인지에 근거하여 결정될 수 있다.Meanwhile, the specification of which item in the broadcast video is being output can be determined based on which item the item information provided with the broadcast video is for.

즉, 앞서 설명한 것과 같이, 아이템 정보가 출력되는 특정 영역에, 어느 아이템에 대한 아이템 정보가 출력되었는지에 따라, 제어부(130)는 카메라 영상에 대해, 상기 특정 영역에서 출력되고 있는 아이템 정보에 대응되는 증강 현실 그래픽 처리를 수행할 수 있다.That is, as described above, depending on which item the item information is output to in the specific area where the item information is output, the control unit 130 determines the camera image corresponding to the item information being output in the specific area. Augmented reality graphics processing can be performed.

한편, 특정 영역에서 출력되고 있는 아이템 정보(430)에 따른 아이템에, 증강 현실 기능이 연계되어 있지 않은 경우, 증강 현실 기능을 활성화하기 위한 상기 아이콘(410)은 출력되지 않을 수 있다.Meanwhile, if the augmented reality function is not linked to the item according to the item information 430 being output in a specific area, the icon 410 for activating the augmented reality function may not be output.

즉, 본 발명에서는, 아이템 마다 증강 현실 기능의 적용 여부가 다를 수 있으며, 제어부(130)는 증강 현실 기능이 연계된 아이템이 방송 영상에서 소개되고 있는 경우에 한하여, 증강 현실 기능 아이콘을 방송 영상에 제공할 수 있다.That is, in the present invention, whether or not the augmented reality function is applied may differ for each item, and the control unit 130 displays an augmented reality function icon in the broadcast video only when an item linked to the augmented reality function is introduced in the broadcast video. can be provided.

이하에서 설명되는 “증강 현실 기능에 대한 활성화 요청”은, 사용자 단말기(200)의 디스플레이부를 통해 제공되는 방송 영상의 라이브 방송에서 판매하는 상품과 관련된 증강 현실 기능에 대한 활성화 요청으로 이해될 수 있다. The “request to activate an augmented reality function” described below can be understood as a request to activate an augmented reality function related to a product sold in a live broadcast of a broadcast video provided through the display unit of the user terminal 200.

또한, 이하에서 설명되는 “증강 현실 기능”은, 사용자 단말기(200)의 디스플레이부를 통해 제공되는 방송 영상의 라이브 방송에서 판매하는 상품과 관련된 증강 현실 기능으로 이해될 수 있다. Additionally, the “augmented reality function” described below can be understood as an augmented reality function related to products sold in a live broadcast of a broadcast video provided through the display unit of the user terminal 200.

한편, 본 발명에 따른 라이브 방송 제공 시스템(100)은, 웹 정보를 화면에 표시하는 소프트웨어(ex: 웹 브라우저(wep-browser), 모바일 브라우저(mobile browser))를 통해, 라이브 방송 서버(300)에서 수신한 방송 영상(10)을 사용자 단말기(200)의 디스플레이부에 제공할 수 있다. Meanwhile, the live broadcasting providing system 100 according to the present invention is a live broadcasting server 300 through software (ex: web browser (wep-browser), mobile browser) that displays web information on the screen. The broadcast video 10 received from can be provided to the display unit of the user terminal 200.

제어부(130)는, 웹 정보를 화면에 표시하는 소프트웨어를 통해 사용자 단말기 (200)의 디스플레이부 상에 방송 영상(10)이 표시되고 있는 상태에서, 사용자 단말기 (200)로부터 라이브 방송과 관련된 증강 현실 기능에 대한 활성화 요청을 수신할 수 있다. The control unit 130 controls the augmented reality related to the live broadcast from the user terminal 200 while the broadcast image 10 is displayed on the display unit of the user terminal 200 through software that displays web information on the screen. You may receive activation requests for features.

이 경우, 도 4b의 (a)에 도시된 것과 같이, 제어부(130)는, 증강 현실 기능에 대한 활성화 요청을 수신한 것에 근거하여, 증강 현실 기능을 제공하는 애플리케이션 또는 소프트웨어(이하, 증강 현실 애플리케이션)의 실행을 안내하는 안내 문구(ex: “AR 메이크업 미리보기를 위해 쇼핑 라이브 앱으로 이동하시겠습니까?”)를 포함하는 팝업 윈도(Pop up Window)를 사용자 단말기(200)의 디스플레이부 상에 표시할 수 있다. In this case, as shown in (a) of FIG. 4B, the control unit 130 is an application or software that provides an augmented reality function (hereinafter referred to as an augmented reality application) based on receiving an activation request for the augmented reality function. ) to display on the display unit of the user terminal 200 a pop-up window containing a guidance phrase (ex: “Do you want to go to the shopping live app to preview AR makeup?”). You can.

제어부(130)는, 상기 안내 문구(440)가 사용자 단말기(200)에 표시되고 있는 상태에서, 사용자 단말기(200)로부터 증강 현실 기능 애플리케이션 실행 요청을 수신하는 것에 근거하여, 증강 현실 기능 애플리케이션을 실행할 수 있다. The control unit 130 executes the augmented reality function application based on receiving an augmented reality function application execution request from the user terminal 200 while the guide text 440 is displayed on the user terminal 200. You can.

또한, 제어부(130)는, 사용자 단말기(200)에 상기 증강 현실 기능 애플리케이션이 설치되어 있지 않는 경우, 상기 증강 현실 기능 애플리케이션의 설치를 유도하기 위하여, 상기 증강 현실 애플리케이션을 설치와 관련된 페이지를 사용자 단말기(200) 상에 제공할 수 있다.In addition, if the augmented reality function application is not installed in the user terminal 200, the control unit 130 displays a page related to installing the augmented reality application to the user terminal to induce installation of the augmented reality function application. (200) can be provided.

다음으로, 본 발명에 따른 라이브 방송 제공 방법에서는, 증강 현실 기능에 대한 활성화 요청에 응답하여, 사용자 단말기(200)에 구비된 카메라로부터 수신되는 카메라 영상(20)에 대해, 라이브 방송에 연계된 아이템과 관련된 증강 현실 그래픽 처리를 수행하는 과정이 진행될 수 있다(S340, 도 3 참조).Next, in the method for providing live broadcasting according to the present invention, in response to a request for activation of the augmented reality function, an item linked to the live broadcast is selected for the camera image 20 received from the camera provided in the user terminal 200. A process of performing augmented reality graphic processing related to may proceed (S340, see FIG. 3).

제어부(130)는, 증강 현실 기능에 대한 활성화 요청이 있는 경우에도, 방송 영상을 제공과 관련된 제1 데이터 처리를 계속적으로 수행하면서, 증강 현실 서비스 제공과 관련된 제2 데이터 처리를 수행할 수 있다. Even when there is a request to activate the augmented reality function, the control unit 130 may continue to perform first data processing related to providing broadcast images and perform second data processing related to providing augmented reality services.

여기에서, 증강 현실 서비스 제공과 관련된 제2 데이터 처리는, 사용자 단말기(200)에 카메라를 활성화하고, 활성화된 카메라로부터 수신한 카메라 영상(20)에 대해 증강 현실 그래픽 처리를 수행하는 것으로 이해될 수 있다. Here, the second data processing related to providing augmented reality service can be understood as activating a camera in the user terminal 200 and performing augmented reality graphic processing on the camera image 20 received from the activated camera. there is.

이때, 제어부(130)는 사용자 단말기(200)에 구비된 카메라에 대한 접근 권한에 근거하여, 사용자 단말기(200)에 구비된 카메라에 대한 접근을 수행할 수 있다.At this time, the control unit 130 may access the camera provided in the user terminal 200 based on the access authority to the camera provided in the user terminal 200.

제어부(130)는, 사용자 단말기(200)에 구비된 카메라의 활성화와 관련된 제어를 수행할 수 있다. 제어부(130)는 카메라 활성화와 관련된 제어를 수행하기 위하여, 본 발명에 따른 라이브 제공 시스템(100)에서 사용자 단말기(200)에 구비된 카메라에 대한 접근 권한을 확인할 수 있다. The control unit 130 may perform control related to activation of a camera provided in the user terminal 200. The control unit 130 may check access rights to the camera provided in the user terminal 200 in the live provision system 100 according to the present invention in order to perform control related to camera activation.

확인 결과, 사용자 단말기(200)에 구비된 카메라에 대한 접근 권한이 존재하지 않는 경우, 제어부(130)는 사용자 단말기(200)에 구비된 카메라에 대한 접근 권한을 획득하기 위하여, 도 4b의 (b)에 도시된 것과 같이, 사용자 단말기(200)의 디스플레이부의 일 영역 상에 접근 권한 획득과 관련된 정보를 출력할 수 있다. 예를 들어, 제어부(130)는 접근 권한 획득과 관련된 팝업(pop up) 또는 모달 윈도(또는 모들 윈도, Modal Window)를 출력할 수 있다.As a result of confirmation, if there is no access right to the camera provided in the user terminal 200, the control unit 130 uses (b) in FIG. 4B to obtain access right to the camera provided in the user terminal 200. ), information related to obtaining access rights may be output on one area of the display unit of the user terminal 200. For example, the control unit 130 may output a pop-up or modal window (or modal window) related to obtaining access rights.

상기 팝업(pop up) 또는 모달 윈도(Modal Window)에는, 접근 권한 획득과 관련된 안내 문구(ex: ”실시간 가상 메이크업 미리보기 촬영 기능을 이용하시려면 카메라 접근 허용이 필요합니다”)를 포함할 수 있다. The pop-up or modal window may include information related to obtaining access rights (ex: “Camera access is required to use the real-time virtual makeup preview shooting function”).

제어부(130)는 상기 팝업(pop up) 또는 모달 윈도(Modal Window)의 일 영역에 대한 사용자 입력에 근거하여, 사용자 단말기(200)에 구비된 카메라에 대한 접근 권한을 획득할 수 있다. The control unit 130 may obtain access rights to the camera provided in the user terminal 200 based on user input to one area of the pop-up or modal window.

이러한, 팝업(pop up) 또는 모달 윈도(Modal Window)는, 증강 현실 기능에 대한 최초의 활성화 요청이 있는 경우에 한하여 최초 1회만 노출될 수 있다. Such a pop up or modal window may be exposed only once when there is a first activation request for the augmented reality function.

제어부(130)는 사용자 단말기(200)에 구비된 카메라에 대한 접근 권한을 1회 획득한 이후에는, 증강 현실 기능에 대한 활성화 요청이 있더라도, 상기 팝업(pop up) 또는 모들 윈도(Modal Window)가 사용자 단말기(200)의 디스플레이부 상에 출력되지 않도록 제어할 수 있다. After gaining access to the camera provided in the user terminal 200 once, the control unit 130 displays the pop-up or modal window even if there is a request to activate the augmented reality function. It can be controlled not to be output on the display unit of the user terminal 200.

한편, 확인 결과, 사용자 단말기(200)에 구비된 카메라에 대한 접근 권한이 존재하는 경우, 제어부(130)는 사용자 단말기(200)에 구비된 카메라가 활성화되도록 제어할 수 있다. 즉, 제어부(130)는 사용자 단말기(200)에 구비된 카메라를 실행시킬 수 있다. Meanwhile, as a result of confirmation, if access rights to the camera provided in the user terminal 200 exist, the control unit 130 may control the camera provided in the user terminal 200 to be activated. That is, the control unit 130 can run the camera provided in the user terminal 200.

이 경우, 제어부(130)는, 사용자 단말기(200)의 전면에 구비된 제1 타입의 카메라 및 후면에 구비된 제2 타입의 카메라 중 어느 하나의 타입의 카메라가 활성화되도록 제어할 수 있다. 예를 들어, 제어부(130)는 제1 타입의 카메라가 제2 타입의 카메라보다 우선하여 활성화되도록 사용자 단말기(200)를 제어할 수 있다. In this case, the control unit 130 may control activation of either a first type camera provided on the front of the user terminal 200 or a second type camera provided on the back. For example, the control unit 130 may control the user terminal 200 so that the first type of camera is activated in priority over the second type of camera.

제어부(130)는 증강 현실 기능에 대한 활성화 요청에 근거하여, 사용자 단말기(200)의 전면에 구비된 제1 타입의 카메라가 활성화되는 것을 기본 값(또는 디폴트(Default value)으로 설정할 수 있다. The control unit 130 may set the default value (or default value) to activate the first type of camera provided on the front of the user terminal 200 based on an activation request for the augmented reality function.

이와 같이, 제어부(130)는 증강 현실 기능에 대한 활성화 요청에 근거하여, 사용자 단말기(200)의 카메라로부터 카메라 영상이 수신되도록, 상기 증강 현실 기능의 활성화에 연동하여 상기 사용자 단말기의 카메라가 활성화할 수 있다. In this way, based on a request for activation of the augmented reality function, the control unit 130 activates the camera of the user terminal in conjunction with the activation of the augmented reality function so that a camera image is received from the camera of the user terminal 200. You can.

나아가, 제어부(130)는, 활성화된 사용자 단말기(200)의 카메라로부터 카메라 영상(20)을 수신할 수 있다. Furthermore, the control unit 130 may receive the camera image 20 from the camera of the activated user terminal 200.

여기에서, “카메라 영상(20)”은, 카메라를 통해 촬영된 사진(또는 이미지), 동영상 및 프리뷰(preview) 화면 중 적어도 하나를 포함할 수 있다. 즉, 본 발명에서는 카메라를 통해 수신된 사진(또는 이미지), 동영상 및 프리뷰 화면 중 적어도 하나에 증강 현실 그래픽 처리를 수행할 수 있다. 다만, 이하에서는 이들을 구분하지 않고 모두 카메라 영상(20)으로 표현하여 설명하도록 한다. Here, the “camera image 20” may include at least one of a photo (or image), a video, and a preview screen captured through a camera. That is, in the present invention, augmented reality graphic processing can be performed on at least one of a photo (or image), video, and preview screen received through a camera. However, in the following, they will not be distinguished and all will be explained by expressing them as camera images 20.

제어부(130)는, 사용자 단말기(200)에 구비된 카메라로부터 카메라 영상(20)이 수신되는 것에 근거하여, 카메라 영상(20)에 증강 현실 그래픽 처리를 수행할 수 있다. The control unit 130 may perform augmented reality graphics processing on the camera image 20 based on the camera image 20 being received from the camera provided in the user terminal 200.

본 발명에서, 그래픽 처리를 수행한다고 함은, 라이브 방송에서 판매하는 아이템에 매칭되어 존재하는 상품 정보에 근거하여, 카메라 영상(20)의 적어도 일부분에 대한 시각적인 변형 또는 카메라 영상(20)에 시각적인 정보를 합성하는 것을 의미할 수 있다. In the present invention, performing graphic processing means visual modification of at least a portion of the camera image 20 or visual modification of the camera image 20 based on product information that exists in matching with the item sold in the live broadcast. It may mean synthesizing information.

도 7에 도시된 것과 같이, 기 특정된 DB(database)에는, 특정 라이브 방송(700)과 연계된 아이템 각각 마다의 상품 정보(또는 아이템 정보, 621, 622)를 포함하는 맵핑 정보(720)가 존재할 수 있다. 이러한 맵핑 정보(720)에 포함된 특정 아이템(ex: 제1 아이템)의 상품 정보(621)에는, 상기 특정 아이템과 관련된 증강 현실 기능에서 수행되는 그래픽 처리에 대한 그래픽 정보(721c)가 포함되어 있을 수 있다. 특정 아이템(ex: 제1 아이템)의 그래픽 정보(621c)에는, 카메라 영상(20)에서 시각적 변형이 이루어져야 하는 피사체의 일 부분을 특정하는 “피사체 정보”가 포함될 수 있다. 이러한 피사체 정보는, 아이템의 종류에 근거하여 설정되어질 수 있다.As shown in FIG. 7, in a pre-specified DB (database), mapping information 720 including product information (or item information, 621, 622) for each item associated with a specific live broadcast 700 is provided. It can exist. Product information 621 of a specific item (ex: first item) included in this mapping information 720 may include graphic information 721c about graphics processing performed in the augmented reality function related to the specific item. You can. The graphic information 621c of a specific item (ex: first item) may include “subject information” that specifies a part of the subject that needs to be visually transformed in the camera image 20. This subject information can be set based on the type of item.

일 예로, 아이템이 입술(lip) 메이크업(makeup)에 대한 상품인 경우, 피사체 정보에는, 사용자 얼굴 중 입술 부분을 특정하는 정보를 포함하고, 아이템이 눈(eye) 메이크업에 대한 상품인 경우, 피사체 정보는, 사용자 얼굴 중 눈 부분을 특정하는 정보를 포함할 수 있다.For example, if the item is a product for lip makeup, the subject information includes information specifying the lip portion of the user's face, and if the item is a product for eye makeup, the subject information includes information specifying the lip portion of the user's face. The information may include information specifying the eye portion of the user's face.

다른 예로, 아이템이 귀(ear) 액세서리(accessory)에 대한 상품인 경우, 피사체 정보에는 사용자 얼굴 중 귀 부분을 특정하는 정보를 포함하고, 아이템이 손(hand) 액세서리에 대한 상품인 경우, 피사체 정보에는 사용자 신체 중 손 부분을 특정하는 정보를 포함할 수 있다. As another example, if the item is a product for an ear accessory, the subject information includes information specifying the ear part of the user's face, and if the item is a product for a hand accessory, the subject information may include information specifying the hand portion of the user's body.

또 다른 예로, 아이템이 상의(上衣, 신체의 상반부에 착용하는 의복)에 대한 상품인 경우, 피사체 정보에는, 사용자 신체 중 상반부(또는 상체) 부분을 특정하는 정보를 포함하고, 아이템이 하의(下衣, 신체의 하반부에 착용하는 의복)에 대한 상품인 경우, 피사체 정보에는, 사용자 신체 중 하반부(또는 하체) 부분을 특정하는 정보를 포함할 수 있다. As another example, if the item is a product for tops (clothing worn on the upper half of the body), the subject information includes information specifying the upper half (or upper body) of the user's body, and the item is for bottoms (lower body). In the case of a product for clothing (clothing worn on the lower half of the body), the subject information may include information specifying the lower half (or lower body) of the user's body.

제어부(130)는 피사체 정보를 이용하여, 카메라 영상에서, 피사체 정보에 대응되는 부분을 특정하고, 특정된 부분을 중심으로 증강 현실 그래픽 처리를 수행할 수 있다.The control unit 130 may use the subject information to specify a part corresponding to the subject information in the camera image and perform augmented reality graphic processing focusing on the specified part.

한편, 관련된 증강 현실 기능에서 수행되는 그래픽 처리에 대한 그래픽 정보에는 피사체 정보가 포함되지 않는 것 또한 가능하다. 이 경우, 제어부(130)는 이미지 인식 기술을 이용하여, 카메라 영상에서 피사체를 인식하고, 인식된 피사체에서 아이템의 종류에 근거하여, 증강 현실 그래픽 처리의 대상이 되는 부분을 특정할 수 있다. 이 경우, 제어부(130)는 인공지능 기술을 기반으로, 아이템의 종류에 대응되는 부분을 카메라 영상에서 특정할 수 있다.Meanwhile, it is also possible that graphic information for graphics processing performed in a related augmented reality function does not include subject information. In this case, the control unit 130 can use image recognition technology to recognize a subject in a camera image and specify a part that is the target of augmented reality graphic processing based on the type of item in the recognized subject. In this case, the control unit 130 can specify a part in the camera image that corresponds to the type of item based on artificial intelligence technology.

나아가, 특정 아이템(ex: 제1 아이템)의 그래픽 정보(621c)에는, 카메라 영상(20)의 시각적 변형을 위한 그래픽 처리 타입에 대한 “타입 정보”가 포함될 수 있다. 이러한 그래픽 타입 정보는, 판매자 단말로부터 수신된 정보에 근거하여 설정될 수 있다. Furthermore, the graphic information 621c of a specific item (ex: first item) may include “type information” about the type of graphic processing for visual transformation of the camera image 20. This graphic type information can be set based on information received from the seller terminal.

여기에서, 시각적 변형을 위한 그래픽 처리 타입의 예는 매우 다양하며, 예를 들어, i) 카메라 영상(20)에 대한 색상 변환(또는 색 보정(calibration))을 수행하는 그래픽 처리 타입, ii) 카메라 영상(20)의 밝기, 대비, 선명도, 색 변환값 중 적어도 하나를 조절하는 그래픽 처리 타입, iii) 카메라 영상(20)에 대해 텍스트, 정적인 이미지, 또는 동적인 영상과 같은 그래픽 객체를 삽입(또는 합성)하는 그래픽 처리 타입 등이 존재할 수 있다. 제어부(130)는 위에서 살펴본 다양한 그래픽 처리 타입 중 어느 하나의 타입 또는 복수의 타입에 따른 그래픽 처리를 카메라 영상에 대해 수행할 수 있다.Here, examples of graphic processing types for visual transformation are very diverse, for example, i) a graphic processing type that performs color conversion (or color calibration) on the camera image 20, ii) camera A graphic processing type that adjusts at least one of the brightness, contrast, sharpness, and color conversion values of the image 20, iii) inserting a graphic object such as text, a static image, or a dynamic image into the camera image 20 ( or compositing) graphics processing types may exist. The control unit 130 may perform graphics processing on the camera image according to one type or a plurality of types among the various graphics processing types discussed above.

나아가, 특정 아이템(ex: 제1 아이템)의 그래픽 정보(621c)에는, 카메라 영상(20)의 시각적 변형에 의해 피사체의 일 부분에 대응되는 영역에서 표현되어야 하는 색상에 대한 “색상 정보”가 포함될 수 있다. 예를 들어, 아이템이 입술(lip) 메이크업(makeup)에 대한 상품인 경우, 색상 정보에는, 입술 부분에 대응되는 영역에서 표현되어야 하는 색상(ex: “컬러 코드 B46143” 또는 “AR 세팅 코드 AR123”) 정보를 포함할 수 있다. Furthermore, the graphic information 621c of a specific item (ex: first item) includes “color information” about the color that should be expressed in the area corresponding to a part of the subject by visual transformation of the camera image 20. You can. For example, if the item is a lip makeup product, the color information includes the color that should be expressed in the area corresponding to the lip area (ex: “Color code B46143” or “AR setting code AR123”) ) information may be included.

나아가, 특정 아이템(ex: 제1 아이템)의 그래픽 정보(621c)에, 카메라 영상(20)의 시각적 변형에 의해 피사체의 일 부분에 대응되는 영역에 합성(또는 삽입) 되어야 하는 그래픽 객체에 대한 모양 정보가 포함될 수 있다. 예를 들어, 아이템이 귀(ear) 액세서리(accessory)에 대한 상품인 경우, 모양 정보에는, 귀(ear) 액세서리 모양의 그래픽 객체에 대한 정보를 포함할 수 있다. Furthermore, the shape of a graphic object that must be synthesized (or inserted) into the graphic information 621c of a specific item (ex: first item) in an area corresponding to a part of the subject by visual transformation of the camera image 20. Information may be included. For example, if the item is a product for an ear accessory, the shape information may include information about a graphic object in the shape of an ear accessory.

한편, 제어부(130)는, 위에서 살펴본 그래픽 정보에 근거하여, 카메라 영상(20)에서, 시각적 변형이 이루어져야 하는 피사체의 일 부분을 포함되어 있는지를 확인할 수 있다. Meanwhile, the control unit 130 can check whether the camera image 20 includes a part of the subject that needs to be visually transformed, based on the graphic information discussed above.

확인 결과, 카메라 영상(20)에, 시각적 변형이 이루어져야 하는 피사체의 일 부분이 포함되어 있으면, 제어부(130)는 상기 피사체의 일부분에 대응되는 카메라 영상(20)의 특정 부분(또는 특정 영역)을 특정할 수 있다. As a result of confirmation, if the camera image 20 includes a part of the subject that needs to be visually transformed, the control unit 130 selects a specific part (or specific area) of the camera image 20 corresponding to the part of the subject. It can be specified.

일 예로, 특정 아이템(ex: 제1 아이템)의 그래픽 정보(621c)에, 사용자 얼굴 중 “입술 부분”을 시각적 변형이 이루어져야 하는 부분으로 특정하는 정보가 포함되어 있는 경우, 제어부(130)는 카메라 영상(20)에서 사용자 얼굴을 인식할 수 있다. 그리고 도 4a의 (b)에 도시된 것과 같이, 제어부(130)는 카메라 영상(20)에서, 사용자 얼굴 중 입술 부분에 대응되는 특정 부분(또는 특정 영역, 420)을 특정할 수 있다. For example, if the graphic information 621c of a specific item (ex: first item) includes information specifying the “lip part” of the user's face as the part that needs to be visually transformed, the control unit 130 uses the camera The user's face can be recognized in the video 20. And as shown in (b) of FIG. 4A, the control unit 130 can specify a specific part (or specific area, 420) corresponding to the lips of the user's face in the camera image 20.

다른 예로, 특정 아이템(ex: 제1 아이템)의 그래픽 정보(621c)에, 사용자 얼굴 중 눈 부분을 시각적 변형이 이루어져야 하는 부분으로 특정하는 정보가 포함되어 있는 경우, 제어부(130)는 카메라 영상(20)에서, 사용자 얼굴 중 눈 부분에 대응되는 특정 부분(또는 특정 영역)을 특정할 수 있다. As another example, if the graphic information 621c of a specific item (ex: first item) includes information specifying the eye part of the user's face as a part that needs to be visually transformed, the control unit 130 may control the camera image ( In 20), a specific part (or specific area) corresponding to the eyes of the user's face can be specified.

나아가, 제어부(130)는 카메라 영상(20)의 특정 부분(또는 특정 영역, 420)에 대해 매칭된 매칭 정보에 따른 그래픽 처리 타입으로 그래픽 처리를 수행할 수 있다. Furthermore, the control unit 130 may perform graphics processing using a graphics processing type according to matching information matched to a specific portion (or specific area, 420) of the camera image 20.

상기 특정 부분에 대해 매칭된 그래픽 처리 타입이, 카메라 영상(20)에 대한 색상 변환(또는 색 보정(calibration))을 수행하는 타입인 경우, 제어부(130)는 특정 부분(또는 특정 영역)의 색상을 색상 정보에 대응되도록 변경할 수 있다. If the graphics processing type matched to the specific part is a type that performs color conversion (or color calibration) on the camera image 20, the control unit 130 controls the color of the specific part (or specific area). can be changed to correspond to color information.

예를 들어, 도 4a의 (b)에 도시된 것과 같이, 사용자 얼굴 중 입술 부분에 대응되는 카메라 영상(20)의 특정 부분(또는 특정 영역, 420)은, 색상 정보에 대응되는 색상이 보이도록 색상이 변경될 수 있다. For example, as shown in (b) of FIG. 4A, a specific part (or specific area, 420) of the camera image 20 corresponding to the lip portion of the user's face is displayed so that the color corresponding to the color information is visible. Colors may change.

이러한 색상 변경 또는 색 보정을 통해, 사용자는 카메라 영상에 포함된 자신의 얼굴 이미지에 화장을 한 것과 같은 효과를 경험할 수 있다.Through this color change or color correction, users can experience the same effect as applying makeup to their face image included in the camera video.

다른 예로서, 그래픽 처리 타입이, 카메라 영상(20)에 대해 그래픽 객체를 삽입(또는 합성)하는 타입인 경우, 제어부(130)는 특정 부분(또는 특정 영역)에 모양 정보에 대응되는 그래픽 객체를 삽입(또는 합성)할 수 있다. As another example, when the graphics processing type is a type that inserts (or combines) a graphic object into the camera image 20, the control unit 130 inserts a graphic object corresponding to shape information in a specific part (or specific area). Can be inserted (or synthesized).

예를 들어, 제어부(130)는, 사용자 얼굴 중 귀 부분에 대응되는 카메라 영상(20)의 특정 부분(또는 특정 영역)에, 모양 정보에 대응되는 귀 액세서리(ex: 귀걸이)의 그래픽 객체를 삽입(또는 합성)할 수 있다. For example, the control unit 130 inserts a graphic object of an ear accessory (ex: earring) corresponding to shape information into a specific part (or specific area) of the camera image 20 corresponding to the ear part of the user's face. (or can be synthesized).

이러한 그래픽 객체 삽입을 통해, 사용자는 카메라 영상에 포함된 자신의 모습에 액세서리를 착용해보는 것과 같은 효과를 경험할 수 있다.By inserting these graphic objects, users can experience the same effect as wearing an accessory on their own image included in the camera image.

이처럼, 제어부(130)는 사용자 단말기(200)로부터 증강 현실 기능에 대한 활성화 요청에 응답하여, 카메라 영상(20)에 대한 그래픽 처리를 수행할 수 있다. In this way, the control unit 130 may perform graphics processing on the camera image 20 in response to a request to activate the augmented reality function from the user terminal 200.

한편, 증강 현실 기능이 연계되지 않은 아이템의 상품정보에는 그래픽 정보가 포함되지 않을 수 있다. Meanwhile, product information for items that are not linked to the augmented reality function may not include graphic information.

나아가, 위에서 살펴본 기 특정된 DB는 라이브 방송 서버 또는 라이브 방송 서버에 연계된 외부 서버에 저장되어 존재할 수 있다.Furthermore, the specified DB discussed above may exist and be stored on a live broadcast server or an external server linked to the live broadcast server.

한편, 위에서 살펴본 제1 및 제2 아이템의 상품 정보와 같은 아이템의 상품 정보들은, 라이브 방송 서버의 아이템 DB에 저장되어 존재할 수 있다. 나아가, 이러한 아이템 DB는 특정 판매자 계정에 연계되어 분류되는 것이 가능하다. 즉, 특정 판매자 계정에서 판매되는 아이템의 아이템 정보가, 각각 특정 판매자 계정을 기준으로 구분되어 아이템 DB를 형성할 수 있다.Meanwhile, product information of items such as the product information of the first and second items discussed above may exist and be stored in the item DB of the live broadcast server. Furthermore, this item DB can be classified in connection with a specific seller account. That is, item information on items sold by a specific seller account can be divided based on each specific seller account to form an item DB.

한편, 기 특정된 DB에 포함된 상품 정보는 이러한 아이템 DB로부터 판매자 또는 라이브 방송 서버로부터 선택되어, 기 특정된 DB에 포함되는 것이 가능하다.Meanwhile, product information included in the pre-specified DB can be selected from the seller or live broadcast server from this item DB and included in the pre-specified DB.

다음으로, 본 발명에 따른 라이브 방송 제공 방법에서는, 사용자 단말기(200)에서 방송 영상(10)을 수신하고 있는 상태에서, 증강 현실 그래픽 처리가 수행된 카메라 영상(20)을, 사용자 단말기(200)의 디스플레이부 상에 표시하는 과정이 진행될 수 있다(S350, 도 3 참조).Next, in the method for providing live broadcasting according to the present invention, while the broadcast image 10 is being received at the user terminal 200, the camera image 20 on which augmented reality graphic processing has been performed is sent to the user terminal 200. The process of displaying on the display unit may proceed (S350, see FIG. 3).

앞서 설명한 것과 같이, 제어부(130)는, 증강 현실 기능에 대한 활성화 요청이 있더라도, 방송 영상(10) 제공과 관련된 제1 데이터 처리 및 증강 현실 서비스 제공과 관련된 제2 데이터 처리를 동시에 수행할 수 있다. 즉, 제어부(130)는 제1 데이터 처리를 중단하지 않고, 제1 데이터 처리 및 제2 데이터 처리가 병렬적으로 수행되도록 사용자 단말기(200)를 제어할 수 있다. As described above, the control unit 130 may simultaneously perform first data processing related to providing the broadcast image 10 and second data processing related to providing the augmented reality service even if there is a request to activate the augmented reality function. . That is, the control unit 130 can control the user terminal 200 so that the first data processing and the second data processing are performed in parallel without stopping the first data processing.

도 4a의 (b)에 도시된 것과 같이, 제어부(130)는, 사용자 단말기(200)의 디스플레이부 상에, 방송 영상(10)과 함께 증강 현실 그래픽 처리가 수행된 카메라 영상(20)이 표시되도록 제어할 수 있으며, 이를 본 발명에서는, “PIP(Picture In Picture) 모드”로 명명할 수 있다. As shown in (b) of FIG. 4A, the control unit 130 displays the camera image 20 on which augmented reality graphic processing has been performed along with the broadcast image 10 on the display unit of the user terminal 200. This can be controlled as much as possible, and in the present invention, this can be called “PIP (Picture In Picture) mode”.

제어부(130)는, 증강 현실 기능에 대한 활성화 요청에 응답하여, 사용자 단말기(200)의 디스플레이부를 PIP 모드로 제어함으로써, 방송 영상(10) 및 증강 현실 그래픽 처리가 수행된 카메라 영상(20)을 함께 제공할 수 있다. In response to a request to activate the augmented reality function, the control unit 130 controls the display unit of the user terminal 200 in PIP mode to display the broadcast image 10 and the camera image 20 on which augmented reality graphic processing has been performed. Can be provided together.

이와 같이, 본 발명에서는, 제1 데이터 처리 및 제2 데이터 처리를 병렬적으로 수행하여 PIP 모드를 통해, 방송 영상(10) 및 증강 현실 그래픽 처리가 수행된 카메라 영상(20)을 동시에 제공할 수 있다. 이를 통해, 사용자는 라이브 방송의 시청을 중단하지 않고도, 증강 현실을 통해 라이브 방송에서 판매하는 상품을 체험 또는 테스트할 수 있다. As such, in the present invention, the broadcast image 10 and the camera image 20 on which augmented reality graphic processing has been performed can be simultaneously provided through the PIP mode by performing the first data processing and the second data processing in parallel. there is. Through this, users can experience or test products sold in the live broadcast through augmented reality without stopping watching the live broadcast.

한편, 본 발명에 따른 라이브 제공 시스템(100)에서는, 라이브 방송에 대한 사용자의 관심(또는 흥미)을 향상시키고, 사용자에게 라이브 방송을 통해 판매하는 상품에 대한 정보를 직관적으로 제공하고, 사용자가 보다 편리하게 증강 현실 서비스를 이용할 수 있도록 하는 다양한 사용자 환경을 제공할 수 있다. 이하에서는 본 발명에 따른 라이브 방송 제공 시스템(100)에서 제공하는 다양한 사용자 환경에 대해 구체적으로 설명하도록 한다. Meanwhile, the live provision system 100 according to the present invention improves the user's interest (or interest) in the live broadcast, intuitively provides the user with information about products sold through the live broadcast, and allows the user to It can provide a variety of user environments that allow users to conveniently use augmented reality services. Hereinafter, various user environments provided by the live broadcasting provision system 100 according to the present invention will be described in detail.

도 4a의 (b)에 도시된 것과 같이, 사용자 단말기(200)의 디스플레이부는, 메인 디스플레이 영역(A) 및 서브 디스플레이 영역(B) 중 적어도 하나를 포함할 수 있다. As shown in (b) of FIG. 4A, the display unit of the user terminal 200 may include at least one of a main display area (A) and a sub-display area (B).

서브 디스플레이 영역(B)은 상기 메인 디스플레이 영역(A) 중 적어도 일부에 오버랩되어 표시될 수 있다.The sub-display area (B) may be displayed overlapping at least a portion of the main display area (A).

서브 디스플레이 영역(B)이 메인 디스플레이 영역(A)에서 오버랩되는 위치는, 시스템 관리자에 의하여 설정되거나 사용자 입력에 근거하여 변경될 수 있다. 나아가, 메인 디스플레이 영역(A) 및 서브 디스플레이 영역(B) 중 적어도 하나의 출력 크기 또한 시스템 관리자 및 사용자 입력에 근거하여 설정 및 변경될 수 있음은 물론이다. The position where the sub-display area (B) overlaps with the main display area (A) can be set by the system administrator or changed based on user input. Furthermore, of course, the output size of at least one of the main display area (A) and the sub-display area (B) can also be set and changed based on system administrator and user input.

위의 예에서는, 서브 디스플레이 영역(B)이 메인 디스플레이 영역(A)상에 오버랩 되는 경우에 대하여 살펴보았으나, 본 발명은 위의 예에 한정되지 않는다. 예를 들어, 사용자 단말기(200)의 디스플레이부는 복수의 디스플레이 영역으로 분할될 수 있으며, 이 중 어느 하나는 메인 디스플레이 영역(A)으로, 다른 하나는 서브 디스플레이 영역(B)이 될 수 있다. 이때, 메인 디스플레이 영역(A) 및 서브 디스플레이 영역(B)은 서로 중첩되지 않거나, 적어도 일부만 중첩될 수 있다. In the above example, the case where the sub-display area (B) overlaps the main display area (A) was examined, but the present invention is not limited to the above example. For example, the display unit of the user terminal 200 may be divided into a plurality of display areas, one of which may be the main display area (A) and the other may be the sub-display area (B). At this time, the main display area (A) and the sub-display area (B) may not overlap each other, or may only partially overlap.

한편, 제어부(130)는 증강 현실 기능의 활성화 여부에 근거하여, 메인 디스플레이 영역(A) 및 서브 디스플레이부 영역(B) 중 적어도 하나에 방송 영상(10)이 표시되도록 제어할 수 있다. Meanwhile, the control unit 130 may control the broadcast image 10 to be displayed in at least one of the main display area (A) and the sub-display area (B) based on whether the augmented reality function is activated.

도 4a의 (a)에 도시된 것과 같이, 증강 현실 기능의 비활성화 상태에서는, 제어부(130)는, 방송 영상(10)이 메인 디스플레이 영역(A) 상에 표시되도록 제어할 수 있다. As shown in (a) of FIG. 4A, when the augmented reality function is deactivated, the control unit 130 can control the broadcast image 10 to be displayed on the main display area (A).

반면에, 도 4a의 (b)에 도시된 것과 같이, 증강 현실 기능의 활성화 상태에서는, 제어부(130)는, 방송 영상(10)은, 서브 디스플레이 영역(B)에 표시되고, 카메라 영상(또는 그래픽 처리가 수행된 카메라 영상, 20)은, 메인 디스플레이 영역(A)에 표시될 수 있다. 이하에서는 설명의 편의를 위하여, 카메라 영상(20)과 그래픽 처리가 수행된 카메라 영상(20)을 혼용하여 사용하도록 한다. On the other hand, as shown in (b) of FIG. 4A, in the activated state of the augmented reality function, the control unit 130 displays the broadcast image 10 in the sub-display area (B) and displays the camera image (or The camera image 20) on which graphic processing has been performed may be displayed in the main display area (A). Hereinafter, for convenience of explanation, the camera image 20 and the camera image 20 on which graphic processing has been performed will be used interchangeably.

제어부(130)는, 증강 현실 기능이 비활성화 상태에서 활성화 상태로 전환되는 것에 근거하여, 메인 디스플레이 영역(A)에서는 방송 영상(10)이 사라지고 카메라 영상(20)이 표시되도록 디스플레이부(210)를 제어할 수 있다. 그리고, 제어부(130)는 서브 디스플레이 영역(B)에서는 방송 영상(10)이 표시되도록 디스플레이부(210)를 제어할 수 있다. 즉, 제어부(130)는, 증강 현실 기능이 비활성화 상태에서 활성화 상태로 전환되더라도, 메인 디스플레이 영역(A)에서 표시되던 방송 영상(10)이 서브 디스플레이 영역(B)을 통해 계속해서 표시되도록 디스플레이부(210)를 제어할 수 있다. 이를 통해, 사용자는 증강 현실 서비스를 제공받으면서 시청 중이던 방송 영상(10)을 끊기지 않고 계속해서 시청할 수 있다. Based on the augmented reality function being switched from the deactivated state to the activated state, the control unit 130 operates the display unit 210 so that the broadcast image 10 disappears from the main display area (A) and the camera image 20 is displayed. You can control it. Additionally, the control unit 130 may control the display unit 210 to display the broadcast image 10 in the sub-display area (B). That is, the control unit 130 operates the display unit so that the broadcast image 10 displayed in the main display area (A) continues to be displayed through the sub-display area (B) even if the augmented reality function is switched from the deactivated state to the activated state. (210) can be controlled. Through this, the user can continue to watch the broadcast video 10 being watched without interruption while receiving the augmented reality service.

한편, 도 5의 (a)에 도시된 것과 같이, 제어부(130)는, 사용자 단말기(200)의 디스플레이부 상(또는 메인 디스플레이 영역(A))에 방송 영상(10)이 제공되는 있는 상태에서, 사용자 단말기(200)의 디스플레이부의 적어도 일 영역에, 방송 영상(10)과 관련된 다양한 정보가 표시되도록 제어할 수 있다.Meanwhile, as shown in (a) of FIG. 5, the control unit 130 operates in a state where the broadcast image 10 is provided on the display unit (or main display area A) of the user terminal 200. , it can be controlled so that various information related to the broadcast image 10 is displayed in at least one area of the display unit of the user terminal 200.

제어부(130)는, 기 특정된 DB에 특정 라이브 방송과 매칭되어 존재하는 다양한 정보에 근거하여, 특정 라이브 방송의 방송 영상(10)과 함께 다양한 정보가 표시되도록 제어할 수 있다. The control unit 130 may control various information to be displayed together with the broadcast video 10 of a specific live broadcast, based on various information that matches the specific live broadcast in a pre-specified DB.

본 발명에서, 도 5의 (a)에 도시된 것과 같이, 방송 영상(10)과 함께 다양한 정보가 사용자 단말기(200)의 디스플레이부를 통해 표시되는 것을, “방송 영상(10)의 적어도 일 영역에 정보를 표시(또는 출력 또는 제공)한다”, “다양한 정보가 포함된 방송 영상(10)을 표시(또는 출력 또는 제공) 한다”고 표현할 수 있다. In the present invention, as shown in (a) of FIG. 5, various information along with the broadcast image 10 are displayed through the display unit of the user terminal 200 by “at least one area of the broadcast image 10.” It can be expressed as “displaying (or outputting or providing) information” or “displaying (or outputting or providing) a broadcast video (10) containing various information.”

앞서 살펴본 것과 같이, 기 특정된 DB에는, 특정 라이브 방송(700)과 관련된 채널 정보(710) 및 맵핑 정보(720)가 매칭되어 존재할 수 있다. As seen above, in a pre-specified DB, channel information 710 and mapping information 720 related to a specific live broadcast 700 may be matched and exist.

특정 라이브 방송(700)과 관련된 채널 정보(710)에는, 특정 라이브 방송(700)을 진행 및 시청하는데 활용되는 정보가 포함될 수 있다. 예를 들어, 채널 정보(710)에는, i) 특정 라이브 방송(700)의 타이틀(title) 정보(711), ii) 특정 라이브 방송을 시청하는 시청자 정보(ex: 시청자 수, 712), iii) 특정 라이브 방송을 진행하는 진행자 정보(713) 등에 포함될 수 있다.Channel information 710 related to a specific live broadcast 700 may include information used to proceed and watch the specific live broadcast 700. For example, the channel information 710 includes i) title information 711 of a specific live broadcast 700, ii) viewer information watching a specific live broadcast (ex: number of viewers, 712), iii) It may be included in the host information 713 conducting a specific live broadcast.

상기 채널 정보(710)에서, i) 타이틀 정보(711) 및 iii) 진행자 정보(713)는 판매자 단말기로부터 수신된 정보에 근거하여 설정될 수 있다. 반면에, 상기 채널 정보(710)에서, ii) 시청자 정보(712)는, 라이브 방송 서버(300)에 의해, 특정 라이브 방송(700)을 시청하는 시청자 수를 집계하여 생성(또는 설정)될 수 있다. In the channel information 710, i) title information 711 and iii) host information 713 may be set based on information received from the seller terminal. On the other hand, in the channel information 710, ii) viewer information 712 may be generated (or set) by counting the number of viewers watching a specific live broadcast 700 by the live broadcast server 300. there is.

제어부(130)는, 특정 라이브 방송(700)과 관련된 채널 정보(710)에 근거하여, 5a의 (a)에 도시된 것과 같이, 특정 라이브 방송(700)의 방송 영상(10)이 표시되는 사용자 단말기(200)의 디스플레이부의 적어도 일 영역에, 상기 채널 정보(710)를 표시할 수 있다. 이 때, 제어부(130)는 상기 채널 정보(710)를 텍스트(text), 그래픽 객체 또는 아이콘 등으로 디스플레이부에 표시할 수 있다. The control unit 130 controls the user for which the broadcast video 10 of the specific live broadcast 700 is displayed, as shown in (a) of 5a, based on the channel information 710 related to the specific live broadcast 700. The channel information 710 may be displayed in at least one area of the display unit of the terminal 200. At this time, the control unit 130 may display the channel information 710 on the display unit as text, a graphic object, or an icon.

예를 들어, 5a의 (a)에 도시된 것과 같이, 방송 영상(10)이 표시되는 사용자 단말기(200)의 디스플레이부의 제1 영역(510)에는, 특정 라이브 방송(700)의 타이틀 정보(ex: “월간선물샵 8회: 블랙프라이데이 특집”), 특정 라이브 방송(700)을 시청하는 시청자 정보(ex: “시청자 수 331, 425명”)가 표시될 수 있다. 특정 라이브 방송을 시청하는 사용자는 디스플레이부를 보는 것 만으로, 시청중인 라이브 방송에 대한 정보를 직관적으로 인식할 수 있다. For example, as shown in (a) of 5a, the first area 510 of the display unit 510 of the user terminal 200 where the broadcast video 10 is displayed includes title information (ex. : “Monthly Gift Shop Episode 8: Black Friday Special”), viewer information (ex: “Number of viewers: 331, 425”) watching a specific live broadcast (700) may be displayed. A user watching a specific live broadcast can intuitively recognize information about the live broadcast being watched just by looking at the display unit.

나아가, 도 7에 도시된 것과 같이, 특정 라이브 방송(700)과 관련된 맵핑 정보(720)에는, 특정 라이브 방송과 연계된 적어도 하나의 아이템 각각과 관련된 상품 정보(721, 722)를 포함할 수 있다. 특정 아이템(ex: 제1 아이템)을 예로 들어, 특정 아이템과 관련된 상품 정보(721)를 설명하면, 상품 정보(721)에는, i) 특정 아이템이 증강 현실 기능에 연계되었음을 나타내는 연계 정보(721a), ii) 특정 아이템의 쇼핑 서비스에 활용 가능한 아이템 정보(ex: 특정 아이템의 상품명, 특정 아이템의 가격 정보, 특정 아이템을 설명하는 용도로 활용되는 특정 아이템의 상세 정보, 721b), iii) 특정 아이템과 관련된 그래픽 처리를 수행하는데 활용되는 그래픽 정보(ex: 색상 정보, 721c), vi) 특정 아이템의 체험 또는 구매를 유도하는 타겟 정보(721d) 중 적어도 하나를 포함할 수 있다. 상기 상품 정보(721)는, 판매자 단말기로부터 수신된 정보에 근거하여 설정될 수 있다.Furthermore, as shown in FIG. 7, the mapping information 720 related to a specific live broadcast 700 may include product information 721 and 722 related to each of at least one item associated with the specific live broadcast. . Taking a specific item (ex: first item) as an example and describing the product information 721 related to the specific item, the product information 721 includes i) linkage information 721a indicating that the specific item is linked to the augmented reality function; , ii) Item information that can be used for the shopping service of a specific item (ex: product name of a specific item, price information of a specific item, detailed information of a specific item used to describe a specific item, 721b), iii) Specific item and It may include at least one of graphic information (ex: color information, 721c) used to perform related graphic processing, and vi) target information (721d) that induces the experience or purchase of a specific item. The product information 721 may be set based on information received from the seller terminal.

제어부(130)는, 특정 라이브 방송(700)과 관련된 맵핑 정보(720)에 근거하여, 5의 (a)에 도시된 것과 같이, 특정 라이브 방송(700)의 방송 영상(10)이 표시되는 사용자 단말기(200)의 디스플레이부의 적어도 일 영역에, 상기 맵핑 정보(720)를 표시할 수 있다. 이 때, 제어부(130)는 상기 맵핑 정보(710)를 텍스트(text), 그래픽 객체 또는 아이콘 등으로 디스플레이부에 표시할 수 있다. The control unit 130 controls the user for whom the broadcast video 10 of the specific live broadcast 700 is displayed, as shown in (a) of 5, based on the mapping information 720 related to the specific live broadcast 700. The mapping information 720 may be displayed in at least one area of the display unit of the terminal 200. At this time, the control unit 130 may display the mapping information 710 on the display unit as text, a graphic object, or an icon.

도 5의 (a)에 도시된 것과 같이, 방송 영상(10)이 표시되는 사용자 단말기(200)의 디스플레이부의 제2 영역(510)에는, 특정 라이브 방송(700)과 연계된 아이템과 관련된 증강 현실 기능을 제공하기 위한 기능 아이콘(410)이 표시될 수 있다. 상기 기능 아이콘(410)에는, 특정 라이브 방송(700)과 연계된 적어도 하나의 아이템에 대한 증강 현실 기능이 링크되어 있을 수 있다. As shown in (a) of FIG. 5, in the second area 510 of the display unit 510 of the user terminal 200 where the broadcast image 10 is displayed, an augmented reality display related to an item associated with a specific live broadcast 700 is displayed. A function icon 410 may be displayed to provide a function. The function icon 410 may be linked to an augmented reality function for at least one item associated with a specific live broadcast 700.

이러한, 증강 현실 기능에 링크된 아이콘(410)은, 라이브 방송에 연계된 아이템이 증강 현실 기능에 매칭되어 있는지 여부에 근거하여, 사용자 단말기(200)의 디스플레이부 상에, 방송 영상(10)과 함께 표시될 수 있다. The icon 410 linked to the augmented reality function displays the broadcast image 10 and the broadcast image 10 on the display unit of the user terminal 200, based on whether the item linked to the live broadcast is matched to the augmented reality function. can be displayed together.

제어부(130)는, 라이브 방송에 연계된 아이템이 증강 현실 기능에 매칭되어 있는 경우, 방송 영상(10)이 표시되는 사용자 단말기(200)의 디스플레이부의 제1 영역(520)에, 상기 증강 현실 기능에 링크된 아이콘(410)을 표시할 수 있다. When an item linked to a live broadcast is matched to the augmented reality function, the control unit 130 displays the augmented reality function in the first area 520 of the display unit 520 of the user terminal 200 where the broadcast image 10 is displayed. An icon 410 linked to can be displayed.

보다 구체적으로, 제어부(130)는, 특정 라이브 방송(700)의 맵핑 정보(720)에, 특정 라이브 방송(700)과 관련된 적어도 하나의 아이템이 증강 현실 기능에 연계되었음을 나타내는 증강 현실 기능 연계 정보(721a)가 포함되어 있는 것에 근거하여, 상기 제2 영역(520)에 증강 현실 기능에 링크된 아이콘(410)을 표시할 수 있다. More specifically, the control unit 130 includes augmented reality function linkage information indicating that at least one item related to the specific live broadcast 700 is linked to the augmented reality function in the mapping information 720 of the specific live broadcast 700. Based on the inclusion of 721a), an icon 410 linked to the augmented reality function can be displayed in the second area 520.

이와 달리, 제어부(130)는, 라이브 방송에 연계된 아이템이 증강 현실 기능에 매칭되어 있지 않은 경우, 도 5의 (b)에 도시된 것과 같이, 방송 영상(10)이 표시되는 사용자 단말기(200)의 디스플레이부의 제1 영역(520)에, 상기 증강 현실 기능에 링크된 아이콘이 표시되는 것을 제한할 수 있다. On the other hand, if the item linked to the live broadcast is not matched to the augmented reality function, the control unit 130 controls the user terminal 200 on which the broadcast image 10 is displayed, as shown in (b) of FIG. 5. ), it is possible to limit the display of icons linked to the augmented reality function in the first area 520 of the display unit.

보다 구체적으로, 제어부(130)는, 특정 라이브 방송(700)의 맵핑 정보(720)에, 증강 현실 기능에 연계되었음을 나타내는 증강 현실 기능 연계 정보가 포함되어 있지 않는 것에 근거하여, 상기 제2 영역(520)에 증강 현실 기능에 링크된 아이콘(410)이 표시되는 것을 제한할 수 있다.More specifically, the control unit 130 operates the second area ( Display of the icon 410 linked to the augmented reality function in 520 may be restricted.

나아가, 도 5의 (a)에 도시된 것과 같이, 사용자 단말기(200)의 디스플레이부 상에서, 상기 증강 현실 기능에 링크된 아이콘(410) 주변에는, 상기 증강 현실 기능의 활성화를 유도하는 안내 메시지(ex: “AR 메이크업 미리보기로 컬러를 체험해 보세요”530)가 표시될 수 있다. Furthermore, as shown in (a) of FIG. 5, on the display unit of the user terminal 200, around the icon 410 linked to the augmented reality function, a guidance message to induce activation of the augmented reality function ( ex: “Experience the color with AR makeup preview”530) may be displayed.

이러한 안내 메시지(530)는, 증강 현실 기능이 연계된 아이템의 상품 정보가 방송 영상에 출력된 후, 기 설정된 시간 동안에만, 디스플레이부(210)상에 출력될 수 있다.This guidance message 530 may be output on the display unit 210 only for a preset time after the product information of the item linked to the augmented reality function is output on the broadcast video.

나아가, 이러한 안내 메시지(530)는, 증강 현실 기능이 연계된 아이템의 상품 정보가 방송 영상에 출력되는 동안, 기 설정된 시간을 주기로 디스플레이부(210)상에 출력되었다가 사라질 수 있다.Furthermore, this guidance message 530 may be output on the display unit 210 at preset time intervals and then disappear while product information of an item linked to the augmented reality function is output on a broadcast video.

나아가, 이러한 안내 메시지(530)는 사용자 단말기에서 증강 현실 기능이 한번도 활성화되지 않은 경우, 또는 현재 라이브 방송을 시청하는 중에 증강 현실 기능이 한번도 사용자 단말기에서 활성화되지 않은 경우에 한하여, 디스플레이부(210)상에 출력될 수 있다. 한편, 사용자는, 안내 메시지(530)를 통해, 증강 현실 기능에 링크된 아이콘(410)을 통해, 현재 시청 중인 특정 라이브 방송(700)에서 판매하는 상품(또는 아이템)을 체험 또는 테스트하는 서비스를 이용할 수 있음을 직관적으로 인식할 수 있다. Furthermore, this information message 530 is displayed on the display unit 210 only when the augmented reality function has never been activated on the user terminal, or when the augmented reality function has never been activated on the user terminal while watching a live broadcast. It can be printed on the screen. Meanwhile, the user can use a service to experience or test a product (or item) sold in a specific live broadcast 700 that is currently being watched through an information message 530 or an icon 410 linked to the augmented reality function. You can intuitively recognize that it can be used.

계속해서, 도 5의 (a)에 도시된 것과 같이, 방송 영상(10)이 표시되는 사용자 단말기(200)의 디스플레이부의 제3 영역(530)에는, 특정 라이브 방송(700)과 연계된 적어도 하나의 상품(또는 아이템)에 대한 다양한 아이템 정보가 표시될 수 있다. 앞서 살펴본 것과 같이, 증강 현실 기능에 연계된 아이콘(520)은, 상기 제3 영역(530)에 출력된 아이템 정보에 따른 아이템이 증강 현실 기능이 연계된 경우에 한하여, 제2 영역(520)에 출력될 수 있다.Subsequently, as shown in (a) of FIG. 5, in the third area 530 of the display unit 530 of the user terminal 200 where the broadcast image 10 is displayed, there is at least one image associated with a specific live broadcast 700. Various item information about the product (or item) may be displayed. As seen above, the icon 520 linked to the augmented reality function is displayed in the second area 520 only when the item according to the item information output in the third area 530 is linked to the augmented reality function. can be printed.

한편, 제3 영역(530)에 출력되는 상품 정보는 라이브 방송에서 소개되는, 아이템의 상품명(ex: “리라 파우더 매트립”), 아이템의 가격 정보(ex: “40,000원”) 및 아이템의 설명 정보 중 적어도 하나를 포함할 수 있다. Meanwhile, the product information displayed in the third area 530 includes the product name of the item introduced in the live broadcast (ex: “Lira Powder Matte Lip”), the price information of the item (ex: “40,000 won”), and the description of the item. It may contain at least one piece of information.

계속해서, 도 5의 (a)에 도시된 것과 같이, 방송 영상(10)이 표시되는 사용자 단말기(200)의 디스플레이부의 제4 영역(540)에는, 특정 라이브 방송(700)과 관련된 채팅(chatting) 정보가 표시될 수 있다. 채팅 정보는, 특정 라이브 방송(700) 진행 중에, 판매자 단말기 또는 복수의 소비자 단말기로부터 수신된 메시지를 포함될 수 있다. 제어부(130)는 판매자 단말기 또는 복수의 소비자 단말기로부터 실시간으로 수신되는 메시지를, 디스플레이부의 제4 영역(540)을 통해 표시할 수 있다. Continuing, as shown in (a) of FIG. 5, in the fourth area 540 of the display unit of the user terminal 200 where the broadcast video 10 is displayed, chatting related to a specific live broadcast 700 is displayed. ) information can be displayed. Chat information may include messages received from a seller terminal or a plurality of consumer terminals while a specific live broadcast 700 is in progress. The control unit 130 may display messages received in real time from a seller terminal or a plurality of consumer terminals through the fourth area 540 of the display unit.

이와 같이, 제어부(130)는 사용자 단말기(200)의 디스플레이부 상에 특정 라이브 방송의 방송 영상(10)이 표시되고 있는 상태에서, 상기 디스플레이부 상에 특정 라이브 방송과 관련된 다양한 정보를 함께 제공함으로써, 사용자가 하나의 디스플레이부를 통해 특정 라이브 방송과 관련된 다양한 정보를 한번에 인식하도록 할 수 있다. In this way, while the broadcast image 10 of a specific live broadcast is displayed on the display unit of the user terminal 200, the control unit 130 provides various information related to the specific live broadcast on the display unit. , users can recognize various information related to a specific live broadcast at once through one display unit.

한편, 본 발명에서는 카메라 영상(20)과 함께, 증강 현실 기능과 연계된 다양한 정보를 사용자 단말기(200)의 디스플레이부(또는 메인 디스플레이 영역(A))에 제공함으로써, 사용자가 증강 현실을 통한 아이템 체험 서비스를 보다 편리하고 직관적으로 이용하도록 할 수 있다. Meanwhile, in the present invention, various information related to the augmented reality function is provided along with the camera image 20 to the display unit (or main display area (A)) of the user terminal 200, so that the user can view items through augmented reality. Experience services can be used more conveniently and intuitively.

도 6에 도시된 것과 같이, 제어부(130)는, 사용자 단말기(200)의 디스플레이부 상에 카메라 영상(20)이 제공되는 있는 상태에서, 사용자 단말기(200)의 디스플레이부의 적어도 일 영역에, 증강 현실 기능과 관련된 다양한 정보가 표시되도록 제어할 수 있다. As shown in FIG. 6, the control unit 130 performs augmentation on at least one area of the display unit of the user terminal 200 while the camera image 20 is provided on the display unit of the user terminal 200. You can control the display of various information related to reality functions.

도 6에 도시된 것과 같이, 카메라 영상(20)과 함께 증강 현실 기능과 연계된 다양한 정보가, 사용자 단말기(200)의 디스플레이부를 통해 표시되는 것을, “카메라 영상(20)의 적어도 일 영역에 정보를 표시(또는 출력 또는 제공)한다”, “다양한 정보가 포함된 카메라 영상(10)을 표시(또는 출력 또는 제공) 한다”고 표현할 수 있다. 이 때, 카메라 영상(20)의 증강 현실 그래픽 처리가 수행된 카메라 영상(20)일 수 있다. 증강 현실 기능과 연계된 다양한 정보 역시, 기 특정된 DB에 특정 라이브 방송과 매칭되어 존재하는 다양한 정보에 근거하여, 디스플레이부에 표시될 수 있다. As shown in FIG. 6, various information associated with the augmented reality function along with the camera image 20 are displayed through the display unit of the user terminal 200, which means “information in at least one area of the camera image 20.” It can be expressed as “display (or output or provide)” or “display (or output or provide) a camera image 10 containing various information.” At this time, the camera image 20 may be a camera image 20 on which augmented reality graphic processing has been performed. Various information associated with the augmented reality function may also be displayed on the display unit based on various information that exists in a pre-specified DB in matching with a specific live broadcast.

도 7에 도시된 것과 같이, 기 특정된 DB에는, 특정 라이브 방송(700)과 연계된 아이템 각각 마다의 상품 정보(721, 722)를 포함하는 맵핑 정보(720)가 존재할 수 있다. 복수의 아이템(ex: 제1 아이템 및 제2 아이템)의 각각의 상품 정보(721, 722)에는, 상기 복수의 아이템 각각과 관련된 증강 현실 기능에서 수행되는 그래픽 처리에 대한 그래픽 정보(721c, 722c)가 포함되어 있을 수 있다. As shown in FIG. 7, mapping information 720 including product information 721 and 722 for each item associated with a specific live broadcast 700 may exist in the pre-specified DB. Each product information 721, 722 of a plurality of items (ex: first item and second item) includes graphic information 721c, 722c about graphics processing performed in an augmented reality function related to each of the plurality of items. may be included.

앞서 설명한 것과 같이, 특정 아이템의 그래픽 정보(721c, 722c)는, i) 특정 아이템과 관련하여, 카메라 영상(20)의 시각적 변형이 이루어져야 하는 피사체의 일 부분을 특정하는 “피사체 정보”, ii) 특정 아이템과 관련하여, 카메라 영상(20)의 시각적 변형을 위한 그래픽 처리 타입에 대한 “타입 정보”, iii) 특정 아이템과 관련하여, 카메라 영상(20)의 시각적 변형에 의해 피사체의 일 부분에 대응되는 영역에서 표현되어야 하는 색상에 대한 “색상 정보” 및 vi) 특정 아이템과 관련하여, 카메라 영상(20)의 시각적 변형에 의해 피사체의 일 부분에 대응되는 영역에 합성(또는 삽입) 되어야 하는 그래픽 객체에 대한 “모양 정보” 중 적어도 하나가 포함될 수 있다. As described above, the graphic information 721c and 722c of a specific item includes i) “subject information” that specifies a portion of the subject for which visual transformation of the camera image 20 is to be performed in relation to the specific item, ii) In relation to a specific item, “type information” about the type of graphics processing for visual transformation of the camera image 20, iii) in relation to a specific item, corresponding to a part of the subject by visual transformation of the camera image 20 “Color information” about the color that must be expressed in the area, and vi) in relation to a specific item, a graphic object that must be synthesized (or inserted) in the area corresponding to a part of the subject by visual transformation of the camera image 20 At least one of the “shape information” may be included.

제어부(130)는, 특정 라이브 방송(700) 연계된 복수의 아이템 각각의 그래픽 정보(721c, 721c)에 근거하여, 도 5의 (b)에 도시된 것과 같이, 카메라 영상(20)이 표시되는 사용자 단말기(200)의 디스플레이부의 적어도 일 영역에, 상기 그래픽 정보(721c, 722c)를 표시할 수 있다. 이 때, 제어부(130)는 상기 그래픽 정보(721c, 722c)를 텍스트(text), 그래픽 객체 또는 아이콘 등으로 디스플레이부에 표시할 수 있다. The control unit 130 displays the camera image 20, as shown in (b) of FIG. 5, based on the graphic information 721c and 721c of each of the plurality of items associated with the specific live broadcast 700. The graphic information 721c and 722c may be displayed in at least one area of the display unit of the user terminal 200. At this time, the control unit 130 may display the graphic information 721c and 722c as text, a graphic object, or an icon on the display unit.

이러한 그래픽 정보(721c, 722c)는, 아이템에 설정된 복수의 옵션에 각각 대응될 수 있다. 여기에서, 옵션은, 아이템을 구매시, 구매하고자 하는 아이템을 특정하기 위한 선택 정보로서, 아이템이 입술(lip) 메이크업(makeup)에 해당하는 상품(ex: 립스틱)인 경우, 옵션은 립스팁의 색상 정보일 수 있다.These graphic information 721c and 722c may each correspond to a plurality of options set for the item. Here, the option is selection information for specifying the item you want to purchase when purchasing an item. If the item is a product corresponding to lip makeup (ex: lipstick), the option is the color of the lip tip. It could be information.

이하에서는 설명의 편의를 위하여, 특정 라이브 방송(700)과 연계된 아이템이 입술(lip) 메이크업(makeup)에 대한 상품인 경우를 예를 들어 설명하도록 한다. Hereinafter, for convenience of explanation, an example will be given where the item associated with a specific live broadcast 700 is a lip makeup product.

도 6에 도시된 것과 같이, 카메라 영상(20)이 표시되는 사용자 단말기(200)의 디스플레이부의 제1 영역(610)에는, 특정 라이브 방송(700)과 연계된 아이템(또는 증강 현실 기능에 연계된 아이템)에 설정된 옵션에 대응되는 그래픽 객체(예를 들어, 도면부호 611, 612)가 출력될 수 있다. 이러한 옵션에 대응되는 그래픽 객체는, 옵션 각각에 대응되는 색상 정보에 대응되는 그래픽 객체일 수 있다.As shown in FIG. 6, in the first area 610 of the display unit of the user terminal 200 where the camera image 20 is displayed, an item associated with a specific live broadcast 700 (or an item associated with an augmented reality function) is displayed. A graphic object (for example, reference numerals 611 and 612) corresponding to an option set in an item may be output. The graphic object corresponding to these options may be a graphic object corresponding to color information corresponding to each option.

이 경우, 상기 카메라 영상(20)은, 상기 아이템에 대응되는 복수의 옵션에 각각 해당하는 색상 정보 중 어느 하나(611)에 의한 그래픽 처리가 수행된 카메라 영상(20)일 수 있다. 예를 들어, 카메라 영상(20)은, 상기 제1 영역(610) 중 특정 일부 영역(610a)에 포함된 그래픽 객체(611)에 대응되는 색상 정보에 대응되도록 색상 변환이 이루어진 카메라 영상(20)에 해당될 수 있다. 예를 들어, 카메라 영상(20)은, 사용자 얼굴 중 입술 부분에 대응되는 영역(420)이, 상기 특정 일부 영역(610a)에 포함된 그래픽 객체(611)에 대응되는 색상 정보로 색 변환이 이루어져 있을 수 있다. In this case, the camera image 20 may be a camera image 20 on which graphic processing has been performed using any one 611 of color information corresponding to a plurality of options corresponding to the item. For example, the camera image 20 is a camera image 20 that has been color converted to correspond to color information corresponding to the graphic object 611 included in a specific partial area 610a of the first area 610. may apply. For example, in the camera image 20, the area 420 corresponding to the lip portion of the user's face is color converted into color information corresponding to the graphic object 611 included in the specific partial area 610a. There may be.

나아가, 제어부(130)는, 사용자 단말기(200)의 디스플레이부 상에, 카메라 영상(20)이 표시되고 있는 상태에서, 제1 영역(610)에 가해진 기 설정된 사용자 입력을 수신하는 것에 근거하여, 상기 카메라 영상(20)에 대한 증강 현실 그래픽 처리를 변경할 수 있다. Furthermore, the control unit 130, based on receiving a preset user input applied to the first area 610 while the camera image 20 is displayed on the display unit of the user terminal 200, Augmented reality graphic processing for the camera image 20 can be changed.

보다 구체적으로, 제어부(130)는, 사용자 단말기(200)의 디스플레이부 상에, 특정 아이템의 제1 옵션에 해당하는 색상 정보에 대응되는 그래픽 처리가 수행된 카메라 영상(20)이 표시되고 있는 상태에서, 제1 영역(610)에 가해진 기 설정된 사용자 입력에 의해 상기 제1 옵션과는 다른 제2 옵션의 색상 정보에 대응되는 그래픽 객체(612)가 선택되는 것에 근거하여, 상기 카메라 영상(20)에 대해 상기 제2 옵션의 색상 정보에 따른 그래픽 처리를 수행할 수 있다. More specifically, the control unit 130 is displaying a camera image 20 on which graphic processing has been performed corresponding to color information corresponding to the first option of a specific item on the display unit of the user terminal 200. In, based on the graphic object 612 corresponding to the color information of the second option different from the first option being selected by a preset user input applied to the first area 610, the camera image 20 Graphics processing according to the color information of the second option may be performed.

일 예로, 상기 특정 일부 영역(610a)에 제1 옵션의 색상 정보에 대응되는 그래픽 객체(611)가 표시되고 있는 상태에서, 제1 영역(610)에 대한 스와이프(swipe) 입력에 연동하여 상기 특정 일부 영역(610a)에 제2 옵션의 색상 정보에 대응되는 그래픽 객체(612)가 표시되는 것으로, 제2 옵션의 색상 정보에 대응되는 그래픽 객체(612)가 선택될 수 있다. For example, in a state where a graphic object 611 corresponding to the color information of the first option is displayed in the specific partial area 610a, the Since the graphic object 612 corresponding to the color information of the second option is displayed in the specific partial area 610a, the graphic object 612 corresponding to the color information of the second option may be selected.

즉, 제어부(130)는 기 설정된 사용자 입력(예를 들어, 드래그, 스와이프 입력)에 근거하여, 상기 제2 옵션의 색상 정보에 대응되는 그래픽 객체(612)가 상기 특정 일부 영역(610a)으로 이동하는 경우, 상기 제2 옵션의 색상 정보에 대응되는 그래픽 객체(612)가 선택된 것으로 처리할 수 있다. 이 경우, 제어부(130)는 카메라 영상에 대해 상기 제2 옵션의 색상 정보를 이용하여 증강 현실 그래픽 처리를 수행할 수 있다.That is, the control unit 130 moves the graphic object 612 corresponding to the color information of the second option to the specific partial area 610a based on a preset user input (e.g., drag or swipe input). When moving, the graphic object 612 corresponding to the color information of the second option may be processed as selected. In this case, the control unit 130 may perform augmented reality graphic processing on the camera image using the color information of the second option.

다른 예로, 상기 특정 일부 영역(610a)에 제1 옵션의 색상 정보에 대응되는 그래픽 객체(611)가 표시되고 있는 상태에서, 사용자 단말기(200)로부터 제2 옵션의 색상 정보에 대응되는 그래픽 객체(612)가 선택된 경우, 제어부(130)는 상기 제2 의 색상 정보에 대응되는 그래픽 객체(612)가 선택된 것으로 처리할 수 있다.As another example, while the graphic object 611 corresponding to the color information of the first option is displayed in the specific partial area 610a, a graphic object corresponding to the color information of the second option is sent from the user terminal 200 ( When 612) is selected, the control unit 130 may process the graphic object 612 corresponding to the second color information as being selected.

이 경우, 제어부(130)는 카메라 영상에 대해 상기 제2 옵션의 색상 정보를 이용하여 증강 현실 그래픽 처리를 수행할 수 있다.In this case, the control unit 130 may perform augmented reality graphic processing on the camera image using the color information of the second option.

한편, 상기 특정 일부 영역(610a)에는, 상기 제1 옵션의 색상 정보에 대응되는 그래픽 객체(611) 대신 상기 제2 옵션의 색상 정보에 대응되는 그래픽 객체(612)가 위치할 수 있다. 이와 같이, 사용자는, 제1 영역(610)에 표시된 복수의 그래픽 객체(611, 612) 중 어느 하나를 선택하여, 다양한 아이템을 체험해볼 수 있다. Meanwhile, in the specific partial area 610a, a graphic object 612 corresponding to the color information of the second option may be located instead of the graphic object 611 corresponding to the color information of the first option. In this way, the user can select one of the plurality of graphic objects 611 and 612 displayed in the first area 610 and experience various items.

한편, 제어부(130)는 상기 특정 일부 영역(610a)에 위치한 그래픽 객체가 사용자 단말기(200)로부터 선택되는 경우, 증강 현실 그래픽 처리된 카메라 영상에 대한 촬영을 수행할 수 있다. 이 경우, 증강 현실 그래픽 처리된 카메라 영상은 사용자 단말기의 저장부 또는 외부 서버(라이브 방송 서버 또는 클라우드 서버 등)에 저장될 수 있다.Meanwhile, when a graphic object located in the specific partial area 610a is selected from the user terminal 200, the control unit 130 may capture a camera image processed with augmented reality graphics. In this case, the camera image processed with augmented reality graphics may be stored in the storage of the user terminal or an external server (live broadcast server or cloud server, etc.).

한편, 도 6에 도시된 것과 같이, 카메라 영상(20)이 표시되는 사용자 단말기(200)의 디스플레이부에서, 상기 특정 일부 영역(610a)의 주변의 제2 영역(620)에는, 상기 특정 일부 영역(610a)에 포함된 그래픽 객체(611)에 대응되는 옵션을 설명하는 설명 문구(ex: “301 스프링데이트”) 및 상기 옵션에 해당하는 아이템을 추천하는 추천 문구(ex: “인기 컬러”) 중 적어도 하나가 표시될 수 있다. Meanwhile, as shown in FIG. 6, in the display unit of the user terminal 200 on which the camera image 20 is displayed, in the second area 620 around the specific partial area 610a, the specific partial area 610a is displayed. Among the descriptive text (ex: “301 Spring Date”) that describes the option corresponding to the graphic object 611 included in (610a) and the recommendation text that recommends the item corresponding to the option (ex: “Popular Color”) At least one may be displayed.

이러한 설명 문구 및 안내 문구 역시, 위에서 살펴본 기 특정된 상품 DB 상에, 상기 아이템과 매칭되어 존재할 수 있다. 예를 들어, 상기 설명 문구 및 안내 문구는, 상기 아이템의 체험 또는 구매를 유도하는 타겟 정보(621d)에 포함될 수 있다. These explanatory phrases and guidance phrases may also exist in matching with the item in the previously specified product DB discussed above. For example, the explanatory text and guidance text may be included in target information 621d that induces experience or purchase of the item.

계속해서, 도 6에 도시된 것과 같이, 카메라 영상(20)이 표시되는 사용자 단말기(200)의 디스플레이부의 제3 영역(630)에는, 특정 라이브 방송(700)과 연계된 적어도 하나의 상품(또는 아이템)에 대한 다양한 아이템 정보가 표시되어, 아이템의 상품명(ex: “리라 파우더 매트립”)으로서 활용되거나, 아이템의 가격 정보(ex: “40,000원”)로서 활용되거나, 아이템을 설명하는 용도로 다양하게 활용될 수 있다. Continuing, as shown in FIG. 6, in the third area 630 of the display unit of the user terminal 200 where the camera image 20 is displayed, at least one product (or Various item information about the item is displayed, and can be used as the product name of the item (ex: “Lira Powder Matte Lip”), used as price information of the item (ex: “40,000 won”), or used to describe the item. It can be used in various ways.

이 때, 상기 제3 영역(630)에는, 카메라 영상(20)에 그래픽 처리가 수행된 특정 아이템에 대응되는 옵션 정보가 포함될 수 있다. 제어부(130)는, 사용자 단말기(200)의 디스플레이부에, 제1 옵션의 색상 정보에 따라 그래픽 처리가 수행된 카메라 영상(20)이 표시되고 있는 상태에서는, 상기 제3 영역(630)에는 상기 아이템에 대응되는 제1 옵션 정보가 표시되도록 제어할 수 있다. 그리고, 제어부(130)는 상기 제1 영역(610)에 대한 기 설정된 사용자 입력에 근거하여, 상기 카메라 영상(20)에 제2 옵션의 색상 정보에 따른 그래픽 처리를 수행하는 것과 연동하여, 상기 제3 영역(630) 상에 상기 제2 옵션에 대응되는 정보가 표시되도록 제어할 수 있다. At this time, the third area 630 may include option information corresponding to a specific item on which graphic processing has been performed on the camera image 20. The control unit 130 is configured to display the camera image 20 on which graphic processing has been performed according to the color information of the first option on the display unit of the user terminal 200, in the third area 630. It is possible to control the display of the first option information corresponding to the item. In addition, the control unit 130 performs graphic processing according to the color information of the second option on the camera image 20 based on a preset user input for the first area 610, and performs graphic processing according to the color information of the second option. 3 It can be controlled to display information corresponding to the second option on area 630.

한편, 앞서 설명한 것과 같이, 증강 현실 기능이 비활성화 된 상태에서는, 사용자 단말기(200)의 메인 디스플레이 영역(A)에 방송 영상(10)이 표시되고(도 4a의 (a) 참조), 증강 현실 기능이 활성화된 상태에서는, 사용자 단말기(200)의 메인 디스플레이 영역(A)에 카메라 영상(20)이 표시될 수 있다(도 4a의 (b) 참조).Meanwhile, as described above, when the augmented reality function is deactivated, the broadcast image 10 is displayed in the main display area (A) of the user terminal 200 (see (a) in FIG. 4A), and the augmented reality function is activated. In this activated state, the camera image 20 may be displayed on the main display area (A) of the user terminal 200 (see (b) in FIG. 4A).

제어부(130)는, 도 4a에 도시된 것과 같이, 사용자 단말기(200)의 메인 디스플레이 영역(A) 상의 적어도 일 영역에는, 증강 현실 기능의 활성화 여부와 독립적으로, 라이브 방송에 연계된 아이템과 관련된 아이템 정보가 계속해서 표시되도록 제어할 수 있다. As shown in FIG. 4A, the control unit 130 displays, independently of whether the augmented reality function is activated, an item related to the live broadcast in at least one area on the main display area (A) of the user terminal 200. You can control item information to be displayed continuously.

보다 구체적으로, 제어부(130)는, 증강 현실 활성화 기능을 비활성화 상태에서 활성화 상태로 전환하는 것에 근거하여 사용자 단말기(200)의 메인 디스플레이 영역(A) 상에, 방송 영상(10)에서 카메라 영상(20)이 표시되더라도, 방송 영상(10)과 함께 표시되던 아이템 정보(430)가 카메라 영상(20)과 함께 계속해서 표시되도록 제어할 수 있다. More specifically, the control unit 130 displays a camera image ( Even if 20) is displayed, the item information 430 displayed together with the broadcast image 10 can be controlled to continue to be displayed together with the camera image 20.

이를 통해, 사용자는, 증강 현실 기능이 활성화된 상태에서도, 증강 현실을 통해 체험하고 있는 아이템이 무엇인지를 계속해서 확인할 수 있다. Through this, the user can continue to check what item is being experienced through augmented reality even when the augmented reality function is activated.

한편, 앞서 설명한 것과 같이, 본 발명에 따른 라이브 방송 제공 시스템(100)은, 기 특정된 DB에 근거하여, 사용자 단말기(200)의 디스플레이부에 다양한 정보를 표시할 수 있을 뿐만 아니라, 라이브 방송에서 진행하는 상품에 대한 증강 현실 기능을 제공할지 여부를 결정할 수 있다. Meanwhile, as described above, the live broadcast providing system 100 according to the present invention not only can display various information on the display unit of the user terminal 200, based on a pre-specified DB, but also can display various information in the live broadcast. You can decide whether to provide augmented reality features for your product.

본 발명에 따른 기 특정된 상품 DB는, 판매자 단말기로부터 수신한 정보에 근거하여 구축될 수 있으며, 본 발명에 따른 라이브 방송 제공 시스템(100)에서 다양한 정보 및 증강 현실 기능을 제공하는 근거가 될 수 있다. 즉, 본 발명에서는, 판매자 단말기로부터 수신한 정보에 근거하여 기 특정된 상품 DB를 구축하고, 구축된 기 특정된 상품 DB에 근거하여 라이브 방송 제공 서비스 및 증강 현실 기능 제공 서비스를 수행할 수 있다. The pre-specified product DB according to the present invention can be constructed based on information received from the seller terminal, and can be the basis for providing various information and augmented reality functions in the live broadcast providing system 100 according to the present invention. there is. That is, in the present invention, a pre-specified product DB can be constructed based on information received from the seller terminal, and a live broadcast provision service and an augmented reality function provision service can be performed based on the constructed pre-specified product DB.

이러한 기 특정된 상품 DB는, 라이브 방송 서버(300)에 의해 구축되거나, 본 발명에 따른 라이브 방송 제공 시스템(100)과 연계된 별도의 외부 서버(100a)에 의해 구축될 수 있다. 이하에서는 라이브 방송 서버(300) 및 본 발명에 따른 라이브 방송 제공 시스템(100)과 연계된 별도의 외부 서버(100a)를 구분하지 않고, 라이브 방송 서버(300)에 의해, 기 특정된 상품 DB를 구축하는 것으로 설명하도록 한다. This pre-specified product DB can be built by the live broadcast server 300 or by a separate external server 100a linked to the live broadcast providing system 100 according to the present invention. Hereinafter, the live broadcast server 300 and the separate external server 100a linked to the live broadcast providing system 100 according to the present invention are not distinguished, and the pre-specified product DB is stored by the live broadcast server 300. Let's explain it by building it.

라이브 방송 서버(300)에서는, 판매자 단말기로부터, 수신한 정보를 활용하여 기 특정된 상품 DB를 구축하고, 본 발명에 따른 라이브 제공 시스템(100)의 요청에 응답하여, 기 특정된 상품 DB에 포함된 다양한 정보(또는 데이터)를 본 발명에 따른 라이브 제공 시스템(100)에 제공할 수 있다. The live broadcast server 300 builds a pre-specified product DB using the information received from the seller terminal, and includes it in the pre-specified product DB in response to a request from the live provision system 100 according to the present invention. Various information (or data) can be provided to the live provision system 100 according to the present invention.

라이브 방송 서버(300)는, 판매자 단말기로부터 라이브 방송과 관련된 정보, 라이브 방송에서 판매하는 상품에 대한 정보 및 상품의 증강 현실 기능과 관련된 정보 중 적어도 하나를 제공받기 위하여, 도 8, 도 9 및 도 10에 도시된 것과 같이, 판매자 페이지(800, 900, 1000)를 판매자 단말기에 제공할 수 있다.The live broadcast server 300, in order to receive at least one of information related to the live broadcast, information about the product sold in the live broadcast, and information related to the augmented reality function of the product, from the seller terminal, as shown in FIGS. 8, 9, and As shown in Figure 10, seller pages 800, 900, and 1000 can be provided to the seller terminal.

여기에서, 판매자 페이지(800, 900, 1000)는, 라이브 방송을 통해 상품을 판매하려는 판매자가, i) 라이브 방송과 관련된 정보(ex: 방송 타이틀 정보, 방송 진행자 정보 등), ii) 판매 상품과 관련된 정보(ex: 아이템 종류 정보, 아이템 명칭 정보, 아이템 가격 정보, 아이템 제조원 정보, 아이템을 추천하기 위한 추천 정보, 아이템의 판매 통계 정보 등) 및 ii) 증강 현실 기능과 관련된 다양한 정보를 입력 및 설정할 수 있도록 하는 기능을 제공하는 페이지(또는 화면)로 이해될 수 있다.Here, the seller pages (800, 900, 1000) allow sellers who want to sell products through live broadcasting to provide i) information related to the live broadcast (ex: broadcast title information, broadcast host information, etc.), ii) products for sale, and Enter and set related information (ex: item type information, item name information, item price information, item manufacturer information, recommendation information for recommending an item, item sales statistics information, etc.) and ii) various information related to the augmented reality function. It can be understood as a page (or screen) that provides functions that allow

특히, 라이브 방송 서버(300)는, 판매자 페이지(800, 900, 1000)를 통해, 아이템에 대한 증강 현실 기능을 매칭하기 위한 다양한 정보를 입력받는 기능을 제공할 수 있다. In particular, the live broadcast server 300 can provide a function to receive various information for matching augmented reality functions to items through the seller pages 800, 900, and 1000.

도 8에 도시된 것과 같이, 판매자 페이지(800)에는, 특정 아이템에 대한 증강 현실 기능 매칭 여부를 설정할 수 있는 기능 아이콘(810)을 포함할 수 있다. As shown in FIG. 8, the seller page 800 may include a function icon 810 that can set whether or not the augmented reality function matches for a specific item.

클라우드 서버는, 상기 기능 아이콘(810)에 대한 사용자 입력을 수신하는 것에 근거하여, 판매자 페이지(800)의 일 영역에 증강 현실 기능 매칭을 위한 페이지로 연동되는 화면(ex: 팝업(pop-up), 820)을 표시할 수 있다. Based on receiving a user input for the function icon 810, the cloud server displays a screen (ex: pop-up) linked to a page for matching augmented reality functions in one area of the seller page 800. , 820) can be displayed.

라이브 방송 서버(300)는, 상기 화면(820)을 통해, 증강 현실 기능 매칭을 위한 페이지에 대한 요청(ex: “설정” 선택, 821)을 수신하는 것에 응답하여, 도 9에 도시된 것과 같이, 특정 아이템에 대한 증강 현실 기능 매칭을 위한 판매자 페이지(800)를 제공할 수 있다. The live broadcast server 300 responds to receiving a request for a page for augmented reality function matching (ex: “Settings” selection, 821) through the screen 820, as shown in FIG. 9. , A seller page 800 can be provided for matching augmented reality functions for a specific item.

특정 아이템에 대한 증강 현실 기능 매칭을 위한 판매자 페이지(900)는, i) 증강 현실 기능에 매칭되는 특정 아이템 정보(ex: “상품번호”)를 등록하는 영역(910), ii) 상기 특정 아이템의 이미지를 등록하는 영역(920), iii) 특정 아이템과 관련된 옵션명(ex: 아이템 명칭 또는 아이템 넘버)을 등록하는 영역(930), vi) 상기 특정 아이템과 관련된 그래픽 정보(ex: 색상 정보)를 입력하는 영역(940, 950) 및 v) 상기 특정 아이템을 추천 또는 설명하는데 활용되는 정보를 입력하는 영역(960) 중 적어도 하나를 포함할 수 있다. The seller page 900 for matching augmented reality functions for a specific item includes i) an area 910 for registering specific item information (ex: “product number”) matching the augmented reality function, ii) the specific item’s Area 920 for registering an image, iii) Area 930 for registering an option name (ex: item name or item number) related to a specific item, vi) inputting graphic information (ex: color information) related to the specific item It may include at least one of areas 940 and 950 and v) an area 960 where information used to recommend or explain the specific item is input.

라이브 방송 서버(300)는 상기 판매자 페이지(900)를 통해 입력(또는 수신)된 정보에 근거하여, 특정 아이템에 대해 증강 현실 기능을 매칭하고, 특정 아이템과 증강 현실 기능과 관련된 다양한 정보를 연계하여 기 특정된 상품 DB를 구축할 수 있다. The live broadcast server 300 matches the augmented reality function to a specific item based on the information input (or received) through the seller page 900, and links various information related to the specific item and the augmented reality function. A DB for already specified products can be built.

나아가, 도 10에 도시된 것과 같이, 판매자 페이지(1000)에는, 증강 현실 기능에 기 매칭된 특정 아이템에 대한 수정 기능을 제공하는 아이콘(1010), 삭제 기능을 제공하는 아이콘(1020) 및 히스토리 정보 제공에 매칭된 아이콘(1030) 중 적어도 하나를 포함할 수 있다. Furthermore, as shown in FIG. 10, on the seller page 1000, an icon 1010 that provides a modification function for a specific item previously matched to the augmented reality function, an icon 1020 that provides a delete function, and history information It may include at least one of the icons 1030 matched to the provision.

사용자는, 도 10에 도시된 판매자 페이지(1000)에서, 수정 기능을 제공하는 아이콘(1010)함으로써, 증강 현실 기능에 기 매칭된 특정 아이템에 대한 정보(ex: 색상 정보)를 수정하거나 추가할 수 있다. 또한, 사용자는 삭제 기능을 제공하는 아이콘(1020)을 선택하여 특정 아이템이 더 이상 증강 현실 기능에 매칭되지 않도록 할 수 있다. The user can edit or add information (ex: color information) about a specific item already matched to the augmented reality function by using the icon 1010 that provides the editing function on the seller page 1000 shown in FIG. 10. there is. Additionally, the user can select the icon 1020 that provides a delete function so that a specific item is no longer matched to the augmented reality function.

나아가, 라이브 방송 서버(300)는, 히스토리 정보 제공에 매칭된 아이콘(1030)에 대한 사용자 입력에 응답하여, 판매자 페이지(1000)의 일 영역 상에, 특정 아이템에 대한 증간 현실 기능의 설정 히스토리 정보(1040)를 제공할 수 있다. Furthermore, the live broadcast server 300, in response to a user input for the icon 1030 matched to provide history information, provides setting history information of the augmented reality function for a specific item on one area of the seller page 1000. (1040) can be provided.

이처럼, 본 발명에서는 판매자(또는 진행자)가 증강 현실 기능 제공 여부 및 증강 현실 기능을 통해 제공하는 상품 체험에 대한 설정을 직접 수행할 수 있는 서비스를 제공할 수 있으며, 판매자(또는 진행자)의 설정에 근거하여 특정 아이템에 대한 증강 현실 기능을 제공할 수 있다. As such, in the present invention, a service can be provided that allows the seller (or host) to directly set the settings for whether or not to provide the augmented reality function and the product experience provided through the augmented reality function, and the seller (or host)'s settings can be adjusted. Based on this, augmented reality functions can be provided for specific items.

이에, 판매자는 판매자 페이지를 통해, 정보를 입력하는 과정만으로 소비자들에게 손쉽게 자신의 판매 상품을 체험할 수 있는 기회를 제공할 수 있다. Accordingly, sellers can provide consumers with the opportunity to easily experience their products through the seller page by simply entering information.

한편, 앞서 설명한 것과 같이, 사용자 단말기(200)의 디스플레이부에는, 증강 현실 기능의 활성화 여부와 독립적으로 라이브 방송과 연계된 아이템과 관련된 아이템 정보가 계속해서 표시될 수 있다. Meanwhile, as described above, item information related to items associated with a live broadcast may be continuously displayed on the display unit of the user terminal 200, regardless of whether the augmented reality function is activated.

상기 아이템 정보에는, 라이브 방송과 연계된 복수의 아이템 중 어느 하나와 관련된 아이템 정보(ex: 특정 아이템 명, 가격 등)을 포함할 수 있다. 사용자는, 상기 아이템 정보를 통해 특정 아이템에 대한 정보를 제공받을 수 있다. 나아가 사용자는 특정 아이템의 아이템 정보 외에 보다 더 다양한 아이템에 대한 아이템 정보를 추가로 제공받고 싶어할 수 있다. The item information may include item information (ex: specific item name, price, etc.) related to one of a plurality of items associated with the live broadcast. The user can receive information about a specific item through the item information. Furthermore, the user may wish to receive additional item information about a wider variety of items in addition to item information about a specific item.

이에, 본 발명에서는, 증강 현실 기능의 활성화 여부와는 독립적으로, 사용자 단말기(200)의 디스플레이부 상에 라이브 방송에 연계된 추가 아이템의 아이템 정보를 제공할 수 있다.Accordingly, in the present invention, item information of additional items linked to the live broadcast can be provided on the display unit of the user terminal 200, independently of whether the augmented reality function is activated.

여기에서, “추가 아이템”은, 다양하게 설정될 수 있다. 라이브 방송에 연계된 복수의 아이템 중 방송 영상(10)과 함께 표시된 아이템 정보의 아이템 외에 다른 아이템으로 이해될 수 있다. 예를 들어, 라이브 방송과 연계된 제1 입술 메이크업 대한 아이템 및 제2 입술 메이크업 대한 아이템 중 제1 입술 메이크업에 대한 아이템의 아이템 정보가 방송 영상(10)과 함께 표시되었다고 가정하자. 이 경우, 추가 아이템은 제2 입술 메이크업에 대한 아이템으로 이해될 수 있다. Here, “additional items” can be set in various ways. Among the plurality of items linked to the live broadcast, it may be understood as an item other than the item of item information displayed together with the broadcast video 10. For example, assume that item information of the first lip makeup item among the first lip makeup items and second lip makeup items associated with the live broadcast is displayed together with the broadcast video 10. In this case, the additional item can be understood as an item for the second lip makeup.

나아가, “추가 아이템”은, 라이브 방송에 연계된 아이템과 관련된 아이템으로 이해될 수 있다. 예를 들어, 라이브 방송에 연계된 아이템이 입술 메이크업에 대한 아이템이라고 가정하자. 이 경우, 추가 아이템은 아이 메이크업에 대한 아이템에 해당될 수 있다. Furthermore, “additional items” can be understood as items related to items linked to the live broadcast. For example, let's assume that the item linked to the live broadcast is an item about lip makeup. In this case, the additional item may correspond to an item for eye makeup.

본 발명에서는, 사용자 단말기(200)의 디스플레이부 상에 특정 아이템의 아이템 정보를 표시하고 있는 상태에서, 추가 아이템의 아이템 정보에 대한 사용자 요청에 응답하여, 추가 아이템의 아이템 정보를 제공할 수 있다. In the present invention, while item information of a specific item is being displayed on the display unit of the user terminal 200, item information of an additional item may be provided in response to a user request for item information of an additional item.

도 11의(a)에 도시된 것과 같이, 제어부(130)는 사용자 단말기(200)의 메인 디스플레이 영역(A)에 방송 영상(10)이 표시되고 있는 상태에서, 추가 아이템 목록에 링크된 그래픽 객체(ex: “더보기”, 1140)에 대한 사용자 선택을 수신할 수 있다. As shown in (a) of FIG. 11, the control unit 130 displays a graphic object linked to the additional item list while the broadcast image 10 is displayed on the main display area A of the user terminal 200. User selection for (ex: “See more”, 1140) can be received.

그리고, 도 11의(b)에 도시된 것과 같이, 상기 사용자 선택에 응답하여, 제어부(130)는 메인 디스플레이 영역(A)의 적어도 일 영역에, 복수의 추가 아이템 정보 항목(1110, 1120, 1130)을 포함하는 추가 아이템 정보 목록(1100)을 표시할 수 있다. And, as shown in FIG. 11(b), in response to the user selection, the control unit 130 displays a plurality of additional item information items 1110, 1120, and 1130 in at least one area of the main display area A. ) can display an additional item information list 1100 including.

추가 아이템 정보 목록(1100)에 포함된 복수의 아이템 각각의 아이템 정보 항목(1110, 1120, 1130)에는, 각 항목에 대응되는 아이템의 썸네일 이미지, 아이템 명(ex: “리라 스파이시 볼륨 매트”), 가격 정보(ex: “39,000원”), 이벤트 정보 중 적어도 하나를 포함할 수 있다. Each item information item (1110, 1120, 1130) of a plurality of items included in the additional item information list (1100) includes a thumbnail image of the item corresponding to each item, an item name (ex: “Lira Spicy Volume Mat”), It may include at least one of price information (ex: “39,000 won”) and event information.

나아가, 추가 아이템 정보 목록(1100)에 포함된 복수의 아이템 중 특정 아이템에 증강 현실 기능이 매칭되어 있는 것에 근거하여, 특정 아이템의 아이템 항목의 일 영역(1120a)에는, 상기 특정 아이템과 관련된 증강 현실 기능에 링크된 아이콘(1120b)이 포함되어 있을 수 있다. Furthermore, based on the fact that the augmented reality function is matched to a specific item among the plurality of items included in the additional item information list 1100, an augmented reality function related to the specific item is displayed in one area 1120a of the item item of the specific item. An icon 1120b linked to the function may be included.

한편, 제어부(130)는, 증강 현실 기능이 활성화된 상태에서도, 추가 아이템의 아이템 정보에 대한 사용자 요청에 응답하여, 추가 아이템의 아이템 정보를 제공할 수 있다. Meanwhile, even when the augmented reality function is activated, the control unit 130 may provide item information about additional items in response to a user request for item information about additional items.

도 12의 (a)에 도시된 것과 같이, 제어부(130)는 사용자 단말기(200)의 메인 디스플레이 영역(A)에 카메라 영상(20)이 표시되고 있는 상태에서, 추가 아이템 목록에 링크된 그래픽 객체(1240)에 대한 사용자 선택을 수신할 수 있다. As shown in (a) of FIG. 12, the control unit 130 displays a graphic object linked to the additional item list while the camera image 20 is displayed on the main display area A of the user terminal 200. User selection for 1240 may be received.

그리고, 도 12(b)에 도시된 것과 같이, 상기 사용자 선택에 응답하여, 제어부(130)는 메인 디스플레이 영역(A)의 적어도 일 영역에, 복수의 추가 아이템 정보 항목(1210, 1220, 1230)을 포함하는 추가 아이템 정보 목록(1200)을 표시할 수 있다. And, as shown in FIG. 12(b), in response to the user selection, the control unit 130 displays a plurality of additional item information items 1210, 1220, and 1230 in at least one area of the main display area A. An additional item information list 1200 including can be displayed.

추가 아이템 정보 목록(1200)에 포함된 복수의 아이템 각각의 아이템 정보 항목(1210, 1220, 1230)에는, 각 항목에 대응되는 아이템의 썸네일 이미지, 아이템 명(ex: “리라 스파이시 볼륨 매트”), 가격 정보(ex: “39,000원”), 이벤트 정보 중 적어도 하나를 포함할 수 있다. The item information items 1210, 1220, and 1230 of each of the plurality of items included in the additional item information list 1200 include a thumbnail image of the item corresponding to each item, an item name (ex: “Lira Spicy Volume Mat”), It may include at least one of price information (ex: “39,000 won”) and event information.

나아가, 추가 아이템 정보 목록(1200)에 포함된 복수의 아이템 중 특정 아이템에 증강 현실 기능이 매칭되어 있는 것에 근거하여, 특정 아이템의 아이템 항목의 일 영역(1220a)에는, 상기 특정 아이템과 관련된 증강 현실 기능에 링크된 아이콘(1240)이 포함되어 있을 수 있다. Furthermore, based on the fact that the augmented reality function is matched to a specific item among the plurality of items included in the additional item information list 1200, an augmented reality function related to the specific item is displayed in one area 1220a of the item item of the specific item. An icon 1240 linked to the function may be included.

이와 같이, 사용자는, 방송 영상(10)이 표시되는 사용자 단말기(200)의 디스플레이부에 함께 표시된 증강 현실 기능에 링크된 아이콘(410)을 통해 특정 아이템에 대한 증강 현실 기능을 제공받을 수 있다. 그리고, 사용자는, 추가 아이템 목록(1100, 1200)에 포함된 증강 현실 기능에 링크된 아이콘(1120b, 1220b)을 통해서도 추가 아이템에 대한 증강 현실 기능을 제공받을 수 있다. In this way, the user can be provided with the augmented reality function for a specific item through the icon 410 linked to the augmented reality function displayed on the display unit of the user terminal 200 where the broadcast video 10 is displayed. Additionally, the user can be provided with the augmented reality function for the additional item through the icons 1120b and 1220b linked to the augmented reality function included in the additional item list 1100 and 1200.

제어부(130)는 다양한 상황에서 노출되는 증강 현실 기능에 링크된 아이콘이, 사용자 단말기(200)로부터 선택되기만 하면, 사용자 단말기의 카메라를 활성화시킬 수 있다. 그리고, 제어부(130)는 활성화된 카메라를 통해 수신되는 카메라 영상에, 증강 현실 그래픽 처리를 수행하여, 사용자에게, 아이템에 대한 체험을 제공할 수 있다.The control unit 130 can activate the camera of the user terminal as long as the icon linked to the augmented reality function exposed in various situations is selected from the user terminal 200. Additionally, the control unit 130 may perform augmented reality graphic processing on the camera image received through the activated camera to provide the user with an experience of the item.

한편, 본 발명에서는, 증강 현실 기능이 활성화 상태에서 비활성화 상태로 전환하는 것에 근거하여, PIP(Picture In Picture) 모드 종료와 관련된 데이터 처리를 수행할 수 있다.Meanwhile, in the present invention, data processing related to ending Picture In Picture (PIP) mode can be performed based on the augmented reality function switching from an activated state to a deactivated state.

제어부(130)는, 사용자 단말기(200)로부터 증강 현실 기능에 대한 비활성화 요청을 수신하는 것에 응답하여, 증강 현실 기능을 활성화 상태에서 비활성화 상태로 전환할 수 있다. The control unit 130 may switch the augmented reality function from the activated state to the deactivated state in response to receiving a deactivation request for the augmented reality function from the user terminal 200.

도 13의 (a)에 도시된 것과 같이, 상기 증강 현실 기능에 대한 비활성화 요청은, 사용자 단말기(200)로부터 증강 현실 기능 비활성화 기능에 매칭된 그래픽 객체(또는 아이콘, 1300)가 선택되는 것에 근거하여 수신될 수 있다. As shown in (a) of FIG. 13, the request to deactivate the augmented reality function is based on selecting a graphic object (or icon, 1300) matched to the augmented reality function deactivation function from the user terminal 200. can be received.

보다 구체적으로, 메인 디스플레이 영역(A)에는 카메라 영상(20)을 표시하고, 서브 디스플레이 영역(B)에는 방송 영상(10)이 표시되어 있는 상태에서, 메인 디스플레이 영역(A)의 일 영역에 위치하는 상기 그래픽 객체(1300)가 선택되는 것에 근거하여, 제어부(130)는 증강 현실 기능에 대한 비활성화 요청을 수신할 수 있다. More specifically, with the camera image 20 displayed in the main display area (A) and the broadcast image 10 displayed in the sub-display area (B), it is located in one area of the main display area (A). Based on the graphic object 1300 being selected, the control unit 130 may receive a deactivation request for the augmented reality function.

이러한 증강 현실 기능 비활성화 기능에 매칭된 그래픽 객체(1300)는, “증강 현실 기능 종료 버튼”, “PIP 모드 종료 버튼”, “방송 영상으로 되돌아 가기 버튼” 등으로 다양하게 명명될 수 있다.The graphic object 1300 matched to this augmented reality function deactivation function may be variously named “augmented reality function end button”, “PIP mode end button”, “return to broadcast video button”, etc.

도 13의 (b)에 도시된 것과 같이, 제어부(130)는, 증강 현실 기능에 대한 비활성화 요청을 수신한 것에 응답하여, 사용자 단말기(200)의 디스플레이부 상에서 서브 디스플레이 영역(B)이 사라지도록 제어할 수 있다. 그리고, 제어부(130)는, 사용자 단말기(200)의 디스플레이부에 메인 디스플레이 영역(A)만이 포함되도록 제어할 수 있다. As shown in (b) of FIG. 13, in response to receiving a deactivation request for the augmented reality function, the control unit 130 causes the sub-display area B to disappear on the display unit of the user terminal 200. You can control it. Also, the control unit 130 can control the display part of the user terminal 200 to include only the main display area (A).

나아가, 제어부(130)는, 카메라 영상(20)이 표시되던 메인 디스플레이 영역(A)에, 방송 영상(10)이 표시되도록 제어할 수 있다. 그리고, 제어부(130)는 사용자 단말기(200)의 디스플레이부에 카메라 영상(20)의 표시는 제한할 수 있다.Furthermore, the control unit 130 can control the broadcast image 10 to be displayed in the main display area A where the camera image 20 was displayed. Additionally, the control unit 130 may restrict the display of the camera image 20 on the display of the user terminal 200.

이 경우, 메인 디스플레이 영역(A)에 표시되는 방송 영상(10)은, 서브 디스플레이 영역(B)에서 표시되던 방송 영상(10)일 수 있다. In this case, the broadcast image 10 displayed in the main display area (A) may be the broadcast image 10 displayed in the sub-display area (B).

즉, 증강 현실 기능이 활성화 상태에서 비활성화 상태로 전환되면, 제어부(130)는 서브 디스플레이 영역(B)에서 표시되던 방송 영상(10)이 계속해서 메인 디스플레이 영역(A)에 표시되도록 제어할 수 있다. That is, when the augmented reality function is switched from the activated state to the deactivated state, the control unit 130 can control the broadcast image 10 displayed in the sub-display area (B) to continue to be displayed in the main display area (A). .

사용자는, 증강 현실 기능이 활성화된 상태에서는, 시청 중이던 라이브 방송을 계속해서 시청하면서, 동시에 증강 현실 그래픽 처리가 수행된 카메라 영상(20)을 통해 특정 라이브 방송에서 판매하는 상품을 체험할 수 있다. 나아가, 증강 현실 기능이 비활성화된 상태에서는, 시청 중이던 라이브 방송만을 계속해서 시청할 수 있다. When the augmented reality function is activated, the user can continue to watch the live broadcast he was watching and at the same time experience products sold in a specific live broadcast through the camera image 20 on which augmented reality graphic processing has been performed. Furthermore, when the augmented reality function is disabled, you can continue to watch only the live broadcast you were watching.

한편, 본 발명에서는, 라이브 방송을 시청하는 사용자가, 라이브 방송을 통해 판매하는 상품을 구매할 수 있도록, 상품을 구매하기 위한 상품 구매 페이지를 사용자 단말기(200)에 제공할 수 있다. Meanwhile, in the present invention, a product purchase page for purchasing products can be provided to the user terminal 200 so that users watching a live broadcast can purchase products sold through the live broadcast.

제어부(130)는, 사용자 단말기(200)의 디스플레이부에 방송 영상(10) 및 카메라 영상(20) 중 적어도 하나가 표시되고 있는 상태에서, 사용자 단말기(200)로부터 특정 아이템 정보에 대한 기 설정된 입력을 수신할 수 있다.The control unit 130 receives a preset input for specific item information from the user terminal 200 while at least one of the broadcast image 10 and the camera image 20 is displayed on the display unit of the user terminal 200. can receive.

도 14의 (a)에 도시된 것과 같이, 상기 특정 아이템 정보에 대한 기 설정된 입력을 수신하는 것은, 사용자 단말기(200)로부터 특정 아이템의 아이템 정보(ex: 특정 아이템의 대표 이미지 또는 썸네일, 1410)가 표시되는 영역에 대한 기 설정된 입력이 가해지는 것에 근거하여 수신될 수 있다. 상기 특정 아이템의 아이템 정보에는, 도 14의 (b)에 도시된 것과 같이, 특정 아이템을 판매하는 상품 구매 페이지(1400)가 링크되어 있을 수 있다. As shown in (a) of FIG. 14, receiving a preset input for the specific item information includes item information (ex: representative image or thumbnail of the specific item, 1410) of the specific item from the user terminal 200. may be received based on a preset input being applied to the displayed area. The item information of the specific item may be linked to a product purchase page 1400 selling the specific item, as shown in (b) of FIG. 14 .

도 14의 (b)에 도시된 것과 같이, 제어부(130)는, 사용자 단말기(200)로부터 특정 아이템의 아이템 정보(1410)에 대한 기 설정된 입력을 수신한 것에 근거하여, 상기 특정 아이템에 대응되는 상품을 구매하기 위한 상품 구매 페이지(1400)를, 사용자 단말기(200) 상에 제공할 수 있다. 이 때, 상품 구매 페이지(1400)는, 사용자 단말기(200)의 디스플레이부의 일 영역에 모달 윈도(Modal Window) 방식으로 제공될 수 있다.As shown in (b) of FIG. 14, the control unit 130, based on receiving a preset input for item information 1410 of a specific item from the user terminal 200, A product purchase page 1400 for purchasing a product may be provided on the user terminal 200. At this time, the product purchase page 1400 may be provided in a modal window in one area of the display unit of the user terminal 200.

한편, 상품 구매 페이지(1400)는, 증강 현실 기능이 비활성화 된 상태에서는 방송 영상(10)에 오버랩되어 표시되어 있는 아이템 정보에 링크되어 있을 수 있다.Meanwhile, the product purchase page 1400 may be linked to item information displayed overlapping the broadcast image 10 when the augmented reality function is deactivated.

나아가, 상품 구매 페이지(1400)는 증강 현실 기능이 활성화된 상태에서는 카메라 영상(20)에 오버랩 되어 표시되어 있는 아이템 정보에 링크되어 있을 수 있다. 즉, 본 발명에서 사용자 단말기 (200)의 디스플레이부 상에 표시되는 특정 아이템 정보에는, 상기 특정 아이템 정보에 대응되는 상품을 구매할 수 있는 상품 구매 페이지(1400)가 링크되어 있을 수 있다. Furthermore, the product purchase page 1400 may be linked to item information displayed overlapping the camera image 20 when the augmented reality function is activated. That is, in the present invention, specific item information displayed on the display unit of the user terminal 200 may be linked to a product purchase page 1400 where a product corresponding to the specific item information can be purchased.

한편, 도 14의 (b)에 도시된 것과 같이, 상기 상품 구매 페이지(1400)는, 사용자 단말기(200)에서 라이브 방송의 방송 영상(10)을 수신하고 있는 상태에서 사용자 단말기 (200)의 디스플레이부 상에 제공될 수 있다. Meanwhile, as shown in (b) of FIG. 14, the product purchase page 1400 is displayed on the user terminal 200 while the user terminal 200 is receiving the broadcast video 10 of a live broadcast. It may be provided on the side.

상기 상품 구매 페이지(1400)를 포함한 모달 윈도(Modal Window)의 백그라운드(Background) 영역(또는 화면)에서는 상기 라이브 방송의 방송 영상(10)이 계속해서 표시될 수 있다. The broadcast image 10 of the live broadcast may be continuously displayed in the background area (or screen) of the modal window including the product purchase page 1400.

상기 모달 윈도(Modal Window)에 의해 상기 방송 영상(10)이 가려지는 경우에는, 제어부(130)는 방송 영상(10)에서 제공하는 방송 사운드가, 사용자 단말기(200)을 통해 계속해서 출력되도록 제어할 수 있다. When the broadcast image 10 is obscured by the modal window, the control unit 130 controls the broadcast sound provided by the broadcast image 10 to be continuously output through the user terminal 200. can do.

나아가, 제어부(130)는 상품 구매 페이지(1400)를 통한 사용자 단말기(200)로부터 결제 요청이 수신되는 것에 근거하여, 상품 판매 페이지에서 판매하는 특정 아이템에 대응되는 상품 결제 프로세스가 진행되도록 제어할 수 있다. Furthermore, the control unit 130 can control the product payment process corresponding to a specific item sold on the product sales page to proceed based on a payment request being received from the user terminal 200 through the product purchase page 1400. there is.

이러한 결제 프로세스의 수행은 본 발명에 따른 전자 결제 시스템에 의해서 이루어질 수 있다. 제어부(130)는 통신부(110)가 금융 기관(은행 또는 신용카드)서버와 통신을 수행하도록 통신부(110)를 제어할 수 있다. 제어부(130)는 통신부(110)를 통하여 금융 기관에 사용자 계정과 연계된 계좌로부터 특정 아이템에 대응되는 결제 대상 금액을 요청할 수 있다. 다만, 상술한 절차는 실시예에 불과하며, 전자 결제 프로세스를 위해 처음 수행되는 절차는 이에 제한되지 않는다. This payment process can be performed by the electronic payment system according to the present invention. The control unit 130 may control the communication unit 110 so that the communication unit 110 communicates with a financial institution (bank or credit card) server. The control unit 130 may request a payment amount corresponding to a specific item from an account associated with the user account to the financial institution through the communication unit 110. However, the above-described procedure is only an example, and the procedure initially performed for the electronic payment process is not limited thereto.

한편, 사용자는 사용자 단말기(200)의 카메라를 활성화할 수 없거나, 자신의 사용자 단말기(200)에 구비된 카메라로부터 수신한 카메라 영상(20)이 아닌, 방송 영상(10)을 이용하여, 특정 아이템에 대한 체험을 제공받고자 하는 니즈가 존재할 수 있다. 예를 들어, 사용자는 자신의 얼굴이 아닌 판매자의 얼굴에 입술 메이크업에 대한 아이템을 적용하여 아이템을 체험하고 싶을 수 있다. 또한, 라이브 방송을 진행하는 진행자 역시, 자신의 얼굴에 입술 메이크업에 대한 아이템을 적용하여 소비자들에게 아이템을 소개할 수 있다. Meanwhile, the user cannot activate the camera of the user terminal 200 or uses the broadcast video 10 rather than the camera video 20 received from the camera provided in the user terminal 200 to select a specific item. There may be a need to receive experience about . For example, a user may want to experience an item by applying lip makeup to the seller's face rather than to the user's own face. Additionally, the host of the live broadcast can also apply lip makeup items to his or her face and introduce the items to consumers.

이에, 본 발명에서는 방송 영상(10)에 증강 현실 그래픽 처리를 수행하는 증간 현실 기능을 제공할 수 있다. Accordingly, the present invention can provide an augmented reality function that performs augmented reality graphic processing on the broadcast video 10.

도 15의 (a)에 도시된 것과 같이, 제어부(130)는, 사용자 단말기(200)의 디스플레이부 상에 방송 영상(10)이 제공되고 있는 상태에서, 사용자 단말기(200)로부터 방송 영상(10)을 이용한 증강 현실 기능에 대한 활성화 요청을 수신할 수 있다. As shown in (a) of FIG. 15, the control unit 130 controls the broadcast image 10 from the user terminal 200 while the broadcast image 10 is being provided on the display unit of the user terminal 200. ) can receive a request for activation of the augmented reality function.

방송 영상(10)을 이용한 증강 현실 기능에 대한 활성화 요청은, 사용자 단말기(200)로부터 방송 영상(10)을 이용한 증강 현실 기능에 링크된 아이콘(1500)이 선택되는 것에 근거하여 수신될 수 있다. A request to activate the augmented reality function using the broadcast image 10 may be received from the user terminal 200 based on selection of the icon 1500 linked to the augmented reality function using the broadcast image 10.

도 15의 (b)에 도시된 것과 같이, 제어부(130)는 방송 영상(10)을 이용한 증강 현실 기능에 대한 활성화 요청에 근거하여, 라이브 방송 서버(300)로부터 수신하는 방송 영상(20)에 대한 증강 현실 그래픽 처리를 수행할 수 있다. As shown in (b) of FIG. 15, the control unit 130 activates the broadcast image 20 received from the live broadcast server 300 based on a request for activation of the augmented reality function using the broadcast image 10. Augmented reality graphics processing can be performed.

그래픽 처리가 수행된 방송 영상(10)은, 증강 현실 기능에 대한 활성화 요청에 있더라도, 계속해서 메인 디스플레이 영역(A)을 통해 제공될 수 있다. 또한, 이 경우, 사용자 단말기(200) 상에 서브 디스플레이 영역(B)은 표시되지 않을 수 있다. The broadcast image 10 on which graphic processing has been performed may continue to be provided through the main display area A even if there is a request for activation of the augmented reality function. Additionally, in this case, the sub-display area B may not be displayed on the user terminal 200.

한편, 비록 도시되지는 않았지만, 사용자 단말기(200)의 디스플레이부 상에는, 증강 현실 기능에 링크된 제1 아이콘 및 제2 아이콘이 표시될 수 있다. 제1 아이콘은, 사용자 단말기(200)의 카메라로부터 수신되는 카메라 영상(20)을 이용한 증강 현실 기능에 링크되어 있는 아이콘(410, 도 4a의 (a) 참조)이고, 제2 아이콘은, 방송 영상(20)을 이용한 증강 현실 기능에 링크되어 있는 아이콘(1610, 도 16의 (a) 참조)일 수 있다. Meanwhile, although not shown, a first icon and a second icon linked to the augmented reality function may be displayed on the display unit of the user terminal 200. The first icon is an icon (410, see (a) in FIG. 4A) linked to the augmented reality function using the camera image 20 received from the camera of the user terminal 200, and the second icon is a broadcast image. It may be an icon 1610 (see (a) of FIG. 16) linked to an augmented reality function using (20).

제어부(130)는 제1 아이콘(410) 및 제2 아이콘(1610) 중 상기 제2 아이콘(1610)이 선택되어, 증강 현실 기능에 대한 활성화 요청을 수신한 근거하여, 카메라 영상(20)에 대해 증강 현실 그래픽 처리를 수행할 수 있다. The control unit 130 selects the second icon 1610 among the first icon 410 and the second icon 1610 and sends the camera image 20 based on receiving a request for activation of the augmented reality function. Augmented reality graphics processing can be performed.

또한, 비록 도시되지는 않았지만, 제어부(130)는, 사용자 단말기(200)로부터 방송 영상(10)을 이용한 증강 현실 기능에 링크된 아이콘이 선택되는 것에 근거하여 증강 현실 기능에 대한 활성화 요청을 수신하면, 방송 영상(10) 및 카메라 영상(20) 중 어느 하나의 영상을 선택할 수 있는 화면(예를 들어, 방송 영상에 대응되는 제1 그래픽 객체 및 카메라 영상에 대응되는 제2 그래픽 객체를 포함하는 화면)을 제공할 수 있다. In addition, although not shown, when the control unit 130 receives a request to activate the augmented reality function based on the icon linked to the augmented reality function using the broadcast image 10 from the user terminal 200 is selected. , a screen for selecting any one of the broadcast image 10 and the camera image 20 (e.g., a screen including a first graphic object corresponding to the broadcast image and a second graphic object corresponding to the camera image) ) can be provided.

제어부(130)는 사용자 단말기(200)로부터 방송 영상(10) 및 카메라 영상(20) 중 어느 하나가 선택되는 것에 근거하여, 선택된 영상에 대해 증간 현실 그래픽 처리를 수행할 수 있다. Based on whether one of the broadcast image 10 and the camera image 20 is selected from the user terminal 200, the control unit 130 may perform augmented reality graphics processing on the selected image.

또한, 비록 도시되지는 않았지만, 제어부(130)는, 판매자의 사용자 단말기(또는 판매자 단말기)에서 방송 영상(10)에 대해 증강 현실 그래픽 처리가 수행된 경우, 소비자의 사용자 단말기(200)에, 증강 현실 그래픽 처리가 수행된 방송 영상(10)을 제공할 수 있다. In addition, although not shown, the control unit 130 provides augmented reality graphics processing to the consumer's user terminal 200 when augmented reality graphics processing is performed on the broadcast image 10 in the seller's user terminal (or seller's terminal). A broadcast image 10 on which realistic graphics processing has been performed can be provided.

또한, 비록 도시되지는 않았지만. 라이브 방송의 방송 영상(10)이 제1 사용자 단말기 및 제2 사용자 단말기 상에 각각 표시되고 있는 상태에서, 제1 사용자 단말기로부터 방송 영상(10)을 이용한 증강 현실 기능에 대한 활성화 요청을 수신하였다고 가정하자. 제어부(130)는 상기 증강 현실 기능에 대한 활성화 요청에 근거하여, 상기 제1 사용자 단말기 상에는 그래픽 처리가 수행된 방송 영상(10)을 표시할 수 있다. 이와 달리, 제2 사용자 단말기 상에는 그래픽 처리가 수행된 카메라 영상이 표시되는 것을 제한할 수 있다. Also, although not shown. Assume that a request to activate an augmented reality function using the broadcast video 10 is received from the first user terminal while the broadcast video 10 of a live broadcast is displayed on the first user terminal and the second user terminal, respectively. let's do it. The control unit 130 may display the broadcast image 10 on which graphic processing has been performed on the first user terminal based on a request to activate the augmented reality function. In contrast, the display of camera images on which graphic processing has been performed may be restricted from being displayed on the second user terminal.

즉, 본 발명에서는 판매자 단말기로부터 방송 영상(10)을 이용한 증강 현실 기능에 대한 활성화 요청을 수신한 경우, 라이브 방송을 시청하는 제1 사용자 단말기 및 제2 사용자 단말기에 각각 그래픽 처리가 수행된 방송 영상(10)을 표시할 수 있다. That is, in the present invention, when a request for activation of the augmented reality function using the broadcast image 10 is received from the seller terminal, the broadcast image on which graphics processing is performed on each of the first user terminal and the second user terminal watching the live broadcast (10) can be displayed.

반면에, 라이브 방송을 시청하는 제1 사용자 단말기로부터 방송 영상(10)을 이용한 증강 현실 기능에 대한 활성화 요청을 수신한 경우, 제1 사용자 단말기에는 그래픽 처리가 수행된 방송 영상(10)을 표시하고, 제2 사용자 단말기에는 그래픽 처리가 수행된 방송 영상(20)의 표시를 제한할 수 있다. On the other hand, when a request for activation of the augmented reality function using the broadcast image 10 is received from the first user terminal watching the live broadcast, the first user terminal displays the broadcast image 10 on which graphic processing has been performed, and , display of the broadcast image 20 on which graphic processing has been performed may be restricted in the second user terminal.

또한, 비록 도시되지는 않았지만, 사용자 단말기(200)의 메인 디스플레이 영역(A)에, 그래픽 처리가 수행된 방송 영상(10)이 표시되고 있는 상태에서, 사용자 단말기(200)로부터 증강 현실 기능에 대한 활성화 요청을 수신할 수 있다. 이 경우, 상기 증강 현실 기능에 대한 활성화 요청은, 사용자 단말기(200)의 카메라 영상을 이용한 증강 현실 기능에 대한 활성화 요청일 수 있다. In addition, although not shown, while the broadcast image 10 on which graphic processing has been performed is displayed on the main display area A of the user terminal 200, the augmented reality function is received from the user terminal 200. An activation request may be received. In this case, the request to activate the augmented reality function may be a request to activate the augmented reality function using the camera image of the user terminal 200.

제어부(130)는, 상기 증강 현실 기능에 대한 활성화 요청에 근거하여, 사용자 단말기(200)의 메인 디스플레이 영역(A)에는, 증강 현실 그래픽 처리가 수행된 카메라 영상(20)을 표시하고, 서브 디스플레이 영역(B)에는 증강 현실 그래픽 처리가 수행된 방송 영상(10)을 표시할 수 있다. Based on the request to activate the augmented reality function, the control unit 130 displays the camera image 20 on which augmented reality graphic processing has been performed in the main display area (A) of the user terminal 200, and displays the camera image 20 on which augmented reality graphic processing has been performed. In area B, a broadcast image 10 on which augmented reality graphic processing has been performed can be displayed.

예를 들어, 메인 디스플레이 영역(A)에는, 사용자의 얼굴에 메이크업이 된 카메라 영상이 표시되고, 서브 디스플레이 영역(B)에는, 라이브 방송 진행자의 얼굴에 메이크업이 된 카메라 영상이 표시될 수 있다. For example, in the main display area (A), a camera image with makeup applied to the user's face may be displayed, and in the sub-display area (B), a camera image with makeup applied to the live broadcast host's face may be displayed.

한편, 위에서 설명되는 라이브 방송의 방송 영상은, 실시간 스트리밍되는 영상일 수 있고, 라이브 방송이 종료되어 라이브 방송 서버(200)에 저장된 방송 영상일 수 있다. 이러한 방송 영상은 녹화 방송 영상이라고도 표현될 수 있다. 본 발명에서는 녹화 방송 영상이 사용자 단말기(200) 상에서 제공되고 있는 상태에서도, 증강 현실 기능에 링크된 아이콘을 녹화 방송 영상과 함께 제공할 수 있다. 이 경우, 제어부(130)는 상기 아이콘이 선택되는 것에 근거하여, 위에서 살펴본 방법과 마찬가지로, 사용자 단말기에 구비된 카메라의 카메라 영상을 이용하여 증강 현실 그래픽 처리된 카메라 영상을 제공할 수 있다. 이에, 녹화 방송 영상에 대하여 증강 현실 관련 기능을 제공하는 방법은, 위에서 살펴본 설명으로 대체하도록 한다.Meanwhile, the broadcast image of the live broadcast described above may be a real-time streaming image or may be a broadcast image stored in the live broadcast server 200 after the live broadcast has ended. Such broadcast video may also be expressed as recorded broadcast video. In the present invention, even when a recorded broadcast video is provided on the user terminal 200, an icon linked to the augmented reality function can be provided along with the recorded broadcast video. In this case, based on the icon being selected, the control unit 130 may provide a camera image processed with augmented reality graphics using a camera image from a camera provided in the user terminal, similar to the method discussed above. Accordingly, the method of providing augmented reality-related functions to recorded broadcasting images will be replaced with the explanation discussed above.

한편, 앞서 설명한 것과 같이, 본 발명에서는, 증강 현실 기능의 활성화 여부에 근거하여, 디스플레이부의 PIP(Picture In Picture) 모드를 활성화 및 비활성화 상태 중 어느 하나로 제어할 수 있다. 본 발명에서, “디스플레이부의 PIP 모드에 대한 활성화”는 “PIP 모드 실행(On)”, “PIP 모드로 동작”등과 혼용되어 사용될 수 있다.Meanwhile, as described above, in the present invention, the PIP (Picture In Picture) mode of the display unit can be controlled to either an activated or deactivated state based on whether or not the augmented reality function is activated. In the present invention, “activation of the PIP mode of the display unit” can be used interchangeably with “executing the PIP mode (On)”, “operating in the PIP mode”, etc.

이하에서는 첨부된 도면과 함께, 증강 현실의 활성화 여부에 따라 디스플레이부의 PIP 모드를 활성화 및 비활성화 상태 중 어느 하나로 동작시키는 데이터 처리에 대해서 설명하도록 한다. 도 16은, 본 발명에서, PIP(Picture In Picture) 방식의 라이브 방송 제공 방법을 설명하기 위한 흐름도이고, 도 17, 도 18, 도 19, 도 20, 도 21, 도 22 및 도 23은, 본 발명에 따른 증강 현실 기능이 활성화된 상태에서 제공하는 사용자 환경을 설명하기 위한 개념도들이다. Below, together with the attached drawings, data processing for operating the PIP mode of the display unit in either an activated or deactivated state depending on whether augmented reality is activated will be described. Figure 16 is a flowchart for explaining a method of providing live broadcasting in the PIP (Picture In Picture) method in the present invention, and Figures 17, 18, 19, 20, 21, 22, and 23 are the present invention. These are conceptual diagrams to explain the user environment provided when the augmented reality function according to the invention is activated.

본 발명에 따른 라이브 방송 제공 방법에서는, 라이브 방송 서버(100)로부터, 라이브 방송의 방송 영상(10)을 수신하는 과정이 진행될 수 있다(S1610, 도 16 참조). 상기 방송 영상(10)은, 라이브 방송 제공 서버(300)로부터 스트리밍(Streaming) 기법으로 수신될 수 있다.In the method for providing live broadcasting according to the present invention, a process of receiving broadcast video 10 of a live broadcast may be performed from the live broadcasting server 100 (S1610, see FIG. 16). The broadcast video 10 may be received from the live broadcast providing server 300 using a streaming technique.

본 발명에 따른 라이브 방송 제공 방법에서는, 상기 방송 영상(10)의 수신에 근거하여, 사용자 단말기(200)의 디스플레이부의 메인 디스플레이 영역(A) 상에 방송 영상(10)을 제공하는 과정이 진행될 수 있다(S1620, 도 16 참조). In the method of providing live broadcasting according to the present invention, based on the reception of the broadcast image 10, a process of providing the broadcast image 10 on the main display area (A) of the display unit of the user terminal 200 may be performed. There is (S1620, see FIG. 16).

앞서 설명한 것과 같이, 본 발명에서 사용자 단말기(200)의 디스플레이부는, 메인 디스플레이 영역(A) 및 서브 디스플레이 영역(B) 중 어느 하나를 포함할 수 있다. As described above, in the present invention, the display unit of the user terminal 200 may include either a main display area (A) or a sub-display area (B).

도 4a의 (b)에 도시된 것과 같이, 서브 디스플레이 영역(B)은, 메인 디스플레이 영역(A) 중 적어도 일부에 오버랩(또는 중첩)되어 표시될 수 있다. As shown in (b) of FIG. 4A, the sub-display area (B) may be displayed overlapping (or overlapping) at least a portion of the main display area (A).

본 발명에서, 디스플레이부가 하나의 디스플레이 영역을 포함하는 상태에서는, 상기 하나의 디스플레이 영역을 메인 디스플레이 영역(A)으로 이해할 수 있다. 이를 본 발명에서는, “사용자 단말기(200)의 디스플레이부의 PIP 모드가 비활성화 상태” 인 것으로 설명할 수 있다. In the present invention, when the display unit includes one display area, the one display area can be understood as the main display area (A). In the present invention, this can be explained as “the PIP mode of the display unit of the user terminal 200 is in a deactivated state.”

또한, 본 발명에서 디스플레이부가 중첩되는 두개의 디스플레이 영역을 포함하는 상태에서는, 하위 레이어(layer)에 대응되는 영역을 메인 디스플레이 영역(B)으로 이해하고, 상위 레이어(layer)에 대응되는 영역을 서브 디스플레이 영역(B)으로 이해할 수 있다. 이를 본 발명에서는, “사용자 단말기(200)의 디스플레이부의 PIP 모드가 비활성화 상태” 인 것으로 설명할 수 있다. 즉, 제어부(130)는 디스플레이부의 PIP 모드가 비활성화인 상태에서, 메인 디스플레이 영역(A)에 방송 영상(10)을 제공할 수 있다. In addition, in the present invention, when the display unit includes two overlapping display areas, the area corresponding to the lower layer is understood as the main display area (B), and the area corresponding to the upper layer is understood as the sub display area. It can be understood as the display area (B). In the present invention, this can be explained as “the PIP mode of the display unit of the user terminal 200 is in a deactivated state.” That is, the control unit 130 can provide the broadcast image 10 to the main display area (A) while the PIP mode of the display unit is deactivated.

한편, 본 발명에서는 메인 디스플레이 영역(A)은, “메인 영역”, “제1 디스플레이 영역”등으로 명명 가능하며, 서브 디스플레이 영역(B)은, “서브 영역”, “제2 디스플레이 영역”등으로 명명 가능하다. Meanwhile, in the present invention, the main display area (A) can be named “main area”, “first display area”, etc., and the sub display area (B) can be named “sub area”, “second display area”, etc. It can be named as

다음으로, 본 발명에 따른 라이브 방송 제공 방법에서는, 메인 디스플레이 영역(A) 상에 방송 영상(10)이 제공되고 있는 상태에서, 사용자 단말기(200)로부터 라이브 방송과 관련된 증강 현실 기능에 대한 활성화 요청을 수신하는 과정이 진행될 수 있다(S1630, 도 16 참조).Next, in the method for providing live broadcasting according to the present invention, while the broadcast image 10 is being provided on the main display area (A), a request is made to activate an augmented reality function related to the live broadcast from the user terminal 200. The process of receiving may proceed (S1630, see FIG. 16).

앞서 설명한 것과 같이, 제어부(130)는, 사용자 단말기(200)로부터 증강 현실 기능에 링크된 아이콘(410)이 선택되는 것에 근거하여, 증강 현실 기능에 대한 활성화 요청을 수신할 수 있다(도 4a의 (a) 참조). As described above, the control unit 130 may receive an activation request for the augmented reality function based on the icon 410 linked to the augmented reality function being selected from the user terminal 200 (see Figure 4a). (see (a)).

제어부(130)는, 상기 증강 현실 기능에 대한 활성화 요청을 수신한 것에 근거하여, 증강 현실 기능의 상태를 비활성화 상태에서 활성화 상태로 전환(또는 변경)할 수 있다. The control unit 130 may switch (or change) the state of the augmented reality function from a deactivated state to an activated state based on receiving a request to activate the augmented reality function.

제어부(130)는 증강 현실 기능이 활성화되는 것에 연동하여, 사용자 단말기(200)의 카메라가 활성화되도록 제어할 수 있다. The control unit 130 may control the camera of the user terminal 200 to be activated in conjunction with the augmented reality function being activated.

여기에서, “카메라 활성화”는, 카메라로부터 카메라 영상(20)을 수신할 수 있도록, 카메라가 실행시키는 것으로 이해할 수 있다. Here, “camera activation” can be understood as enabling the camera to receive the camera image 20 from the camera.

그리고, 제어부(130)는, 사용자 단말기(200)의 카메라를 활성화시켜, 카메라로부터 카메라 영상(20)을 수신할 수 있다. Additionally, the control unit 130 may activate the camera of the user terminal 200 and receive the camera image 20 from the camera.

여기에서, 카메라 영상(20)은, 카메라에 의해 인식되는 영역에 대한 프리뷰(prewiew) 화면(또는 영상) 및 카메라의 의해 촬영된 촬영 영상(이미지 또는 동영상)을 중 적어도 하나로 이해될 수 있다. Here, the camera image 20 can be understood as at least one of a preview screen (or video) of an area recognized by the camera and a captured video (image or video) captured by the camera.

다음으로, 본 발명에 따른 라이브 방송 제공 방법에서는, 상기 활성화 요청에 따라 증강 현실 기능이 활성화되는 것에 응답하여, 사용자 단말기(200)에 구비된 카메라로부터 수신되는 카메라 영상에 대해, 라이브 방송에 연계된 아이템과 관련된 증강 현실 그래픽 처리를 수행하는 과정이 진행될 수 있다(S1630, 도 16 참조). Next, in the method for providing live broadcasting according to the present invention, in response to the augmented reality function being activated according to the activation request, the camera image received from the camera provided in the user terminal 200 is linked to the live broadcast. A process of performing augmented reality graphic processing related to the item may proceed (S1630, see FIG. 16).

예를 들어, 제어부(130)는, 라이브 방송에 연계된 아이템에 매칭된 색상 정보에 근거하여, 사용자 얼굴 중 입술에 대응되는 카메라 영상(20)의 영역(420)의 색상을 변경할 수 있다(도 4a의 (b)참조). 즉, 제어부(130)는, 카메라 영상(20)에 대한 색 변경 또는 색 보정을 통해, 카메라 영상(20)에 포함된 사용자의 얼굴 이미지에 화장을 한 것과 같은 효과를 제공할 수 있다. 나아가, 본 발명에서는, 증강 현실 그래픽 처리를 수행하는 방법은 카메라 영상에 대해 그래픽 객체를 합성할 수 있으며, 이 외에도 앞서 살펴본 것과 같이, 매우 다양한 방식으로 카메라 영상의 일부를 변형하거나 합성하는 것을 통하여 증강 현실 그래픽 처리를 수행할 수 있다. For example, the control unit 130 may change the color of the area 420 of the camera image 20 corresponding to the lips of the user's face based on color information matched to an item associated with a live broadcast (Figure (see (b) of 4a). That is, the control unit 130 can provide an effect as if makeup was applied to the user's face image included in the camera image 20 by changing the color or correcting the color of the camera image 20. Furthermore, in the present invention, the method of performing augmented reality graphics processing can synthesize graphic objects for camera images, and in addition, as discussed above, augmentation can be achieved by modifying or synthesizing parts of the camera images in a variety of ways. Real-world graphics processing can be performed.

다음으로, 본 발명에 따른 라이브 방송 제공 방법에서는, 메인 디스플레이 영역(A) 상에, 상기 그래픽 처리가 수행된 카메라 영상(20)을 제공할 수 있다. Next, in the method for providing live broadcasting according to the present invention, the camera image 20 on which the graphic processing has been performed can be provided on the main display area (A).

제어부(130)는, 증강 현실 기능이 활성화되는 것에 응답하여, 방송 영상(10)이 출력되던 메인 디스플레이 영역(A) 상에, 그래픽 처리가 수행된 카메라 영상(20)을 출력할 수 있다. In response to the augmented reality function being activated, the control unit 130 may output the graphically processed camera image 20 on the main display area A where the broadcast image 10 was output.

나아가, 제어부(130)는, 메인 디스플레이 영역(A) 상에 출력되고 있었던 방송 영상(10)을 사용자 단말기(200)의 디스플레이부를 통해 계속해서 제공하기 위하여, 사용자 단말기(200)의 디스플레이부의 PIP (Picture In Picture) 모드를 비활성화 상태에서 활성화 상태로 전환할 수 있다.Furthermore, the control unit 130 operates the PIP (PIP) of the display unit of the user terminal 200 in order to continuously provide the broadcast image 10 that was being output on the main display area (A) through the display unit of the user terminal 200. Picture In Picture) mode can be switched from disabled to enabled.

제어부(130)는 디스플레이부의 PIP 모드가 활성화된 것에 근거하여, 사용자 단말기(200)의 디스플레이부 상에, 메인 디스플레이 영역(A) 및 서브 디스플레이 영역(B) 두개의 영역을 제공할 수 있다. The control unit 130 may provide two areas, a main display area (A) and a sub-display area (B), on the display unit of the user terminal 200 based on the PIP mode of the display unit being activated.

앞서 설명한 것과 같이, 서브 디스플레이 영역(B)은, 중첩되는 두개의 레이어(상위 레이어 및 하위 레이어) 중 상위 레이어 영역에 대응되는 영역으로 이해될 수 있다. As described above, the sub-display area B can be understood as an area corresponding to the upper layer area among two overlapping layers (upper layer and lower layer).

즉, 제어부(130)는, 사용자 단말기(200)에 상에 방송 영상(10)과 증강 현실 그래픽 처리된 카메라 영상(20)이 함께 제공되도록, 메인 디스플레이 영역(A)의 적어도 일 영역에 서브 디스플레이 영역(B)이 중첩되는 위치에, 상기 서브 디스플레이 영역(B)를 제공할 수 있다. That is, the control unit 130 sets up a sub-display in at least one area of the main display area (A) so that the broadcast image 10 and the augmented reality graphic-processed camera image 20 are provided together on the user terminal 200. The sub-display area B may be provided at a location where the area B overlaps.

그리고, 제어부(130)는, 사용자 단말기(200)의 디스플레이부 상에 서브 디스플레이 영역(B)을 제공하는 것에 응답하여, 디스플레이 영역(A)에서 제공되고 있었던 방송 영상(10)의 제공 영역을 변경할 수 있다. 보다 구체적으로, 제어부(130)는 방송 영상(10)의 제공 영역을, 상기 메인 디스플레이 영역(A)에서, 상기 서브 디스플레이 영역(B)으로 변경할 수 있다. And, in response to providing the sub-display area (B) on the display unit of the user terminal 200, the control unit 130 changes the provision area of the broadcast image 10 that was being provided in the display area (A). You can. More specifically, the control unit 130 can change the provision area of the broadcast image 10 from the main display area (A) to the sub-display area (B).

제어부(130)는, 방송 영상(10)의 제공 영역이 변경되는 것에 근거하여, 증강 현실 기능이 활성화되더라도, 방송 영상(10)을 서브 디스플레이 영역(B)을 통해 계속해서 제공할 수 있다. 즉, 상기 방송 영상(10)은, 메인 디스플레이 영역(A)에 그래픽 처리가 수행된 카메라 영상(20)이 제공되는 동안, 서브 디스플레이 영역(B)을 통해 계속해서 제공될 수 있다. The control unit 130 may continue to provide the broadcast image 10 through the sub-display area B even if the augmented reality function is activated based on a change in the provision area of the broadcast image 10. That is, the broadcast image 10 can be continuously provided through the sub-display area (B) while the camera image 20 on which graphic processing has been performed is provided to the main display area (A).

이와 같이, 본 발명에서는, 증강 현실 기능에 대한 활성화 요청을 수신하는 것에 근거하여, 증강 현실 기능의 상태를 활성화 상태로 전환할 수 있다. 그리고, 증강 현실 기능의 상태가 활성화 상태로 전환되는 것에 근거하여, 카메라를 활성화시켜 카메라 영상(20)에 대한 증강 현실 그래픽 처리를 수행할 수 있다. 그리고, 본 발명에서는 디스플레이부의 PIP 모드 역시 활성화시켜, 메인 디스플레이 영역(A)에는 증강 현실 그래픽 처리가 수행된 카메라 영상(20)을, 서브 디스플레이 영역(B)에는 방송 영상(20)을 동시에 출력할 수 있다. 이에, 사용자는, 본 발명을 통해, 증강 현실 기능에서 제공하는 라이브 방송과 연계된 아이템을 체험하고, 동시에 라이브 방송을 계속해서 시청할 수 있다. As such, in the present invention, the state of the augmented reality function can be switched to the activated state based on receiving an activation request for the augmented reality function. Then, based on the state of the augmented reality function being switched to the activated state, the camera can be activated to perform augmented reality graphic processing on the camera image 20. In addition, in the present invention, the PIP mode of the display unit is also activated to simultaneously output the camera image 20 on which augmented reality graphic processing has been performed to the main display area (A) and the broadcast image 20 to the sub-display area (B). You can. Accordingly, through the present invention, a user can experience items associated with a live broadcast provided by the augmented reality function and continue to watch the live broadcast at the same time.

한편, 본 발명에서는, 메인 디스플레이 영역(A)의 적어도 일부에 서브 디스플레이 영역(B)을 중첩하여 PIP 모드를 제공할 수 있다. 이에, 도 17의 (a)에 도시된 것과 같이, 메인 디스플레이 영역(A)은 상대적으로 크기(또는 넓이)가 크고, 서브 디스플레이 영역(B)은 상대적으로 크기(또는 넓이)가 작을 수 있다. Meanwhile, in the present invention, the PIP mode can be provided by overlapping the sub-display area (B) on at least part of the main display area (A). Accordingly, as shown in (a) of FIG. 17, the main display area (A) may be relatively large in size (or area), and the sub-display area (B) may be relatively small in size (or area).

본 발명에서는, 증강 현실 기능이 활성화 된 상태에서는, 사용자가 그래픽 처리가 수행된 카메라 영상(20)을 더 크게 볼 수 있도록, 메인 디스플레이 영역(A)에는 그래픽 처리가 수행된 카메라 영상(20)을 제공하고, 서브 디스플레이 영역(B) 상에는 방송 영상(10)을 제공할 수 있다. In the present invention, when the augmented reality function is activated, the graphically processed camera image 20 is displayed in the main display area (A) so that the user can view the graphically processed camera image 20 in a larger size. and a broadcast image 10 can be provided on the sub-display area (B).

그러나, 사용자는, 상품에 대한 증강 현실 기능을 체험하면서, 방송 영상(10)을 더 크게 보길 원하는 경우가 발생할 수 있다. 또한, 사용자는 다시 그래픽 처리가 수행된 영상(20)을 크게 보길 원하는 경우도 발생할 수 있다. 이에, 본 발명에서는 사용자의 니즈를 위하여, 도 17의 (a) 및 (b)에 도시된 것과 같이, 메인 디스플레이 영영(A)과 서브 디스플레이 영역(B)을 통해 제공(표시 또는 출력)되는 영상(또는 정보)를 상호 전환할 수 있다. 이 경우에도, 앞서 설명한 방송 영상 제공을 위한 제1 데이터 처리 및 증강 현실 기능 제공을 위한 제2 데이터 처리를 계속해서 동시에 수행될 수 있다. However, there may be cases where the user wants to view the broadcast video 10 larger while experiencing the augmented reality function for the product. Additionally, there may be cases where the user wants to view the image 20 on which graphic processing has been performed again in a larger size. Accordingly, in the present invention, for the user's needs, as shown in (a) and (b) of Figure 17, the image provided (displayed or output) through the main display area (A) and the sub-display area (B) (or information) can be mutually converted. In this case, the first data processing for providing the broadcast video described above and the second data processing for providing the augmented reality function may continue to be performed simultaneously.

제어부(130)는 도 17의 (a)에 도시된 것과 같이, 서브 디스플레이 영역(B) 상에, 메인 디스플레이 영역(A) 및 서브 디스플레이 영상(B)에서 제공되고 있는 영상(또는 정보)의 제공 위치를 변경하는 기능에 매칭된 기능 아이콘(1700)을 표시할 수 있다. 본 발명에서는, 상기 기능 아이콘(1700)을, “전환 버튼”, “화면 전환 버튼” 등으로 명명할 수 있다. As shown in (a) of FIG. 17, the control unit 130 provides images (or information) provided in the main display area (A) and the sub-display image (B) on the sub-display area (B). A function icon 1700 matching the function for changing the location can be displayed. In the present invention, the function icon 1700 may be named “switch button”, “screen switch button”, etc.

제어부(130)는, 사용자 단말기(200)를 통해 영상(또는 정보) 제공 위치 변경 기능에 매칭된 기능 아이콘(1700)이 선택되는 것에 근거하여, 메인 디스플레이 영역(A)에서 제공되는 영상(또는 정보)와 서브 디스플레이 영역(B)에서 제공되는 영상(또는 정보)의 제공 위치(또는 제공 영역)을 서로 변경할 수 있다. The control unit 130 selects the image (or information) provided in the main display area (A) based on the function icon 1700 matching the image (or information) provision location change function through the user terminal 200. ) and the sub-display area (B) can change the location (or provision area) of the image (or information) provided.

예를 들어, 도 17의 (a)에 도시된 것과 같이, 메인 디스플레이 영역(A) 상에 증강 현실 그래픽 처리가 수행된 카메라 영상(20)이 제공되고, 서브 디스플레이 영역(B)에는 방송 영상(10)이 각각 제공되고 있는 상태에서, 사용자 단말기(200)를 상기 영상(또는 정보) 제공 위치 변경 기능에 매칭된 아이콘(1700)이 선택될 수 있다. For example, as shown in (a) of FIG. 17, a camera image 20 on which augmented reality graphic processing has been performed is provided on the main display area (A), and a broadcast image (20) on which augmented reality graphics processing has been performed is provided on the sub-display area (B). 10), while each is being provided, the icon 1700 matching the image (or information) provision location change function of the user terminal 200 may be selected.

이 경우, 제어부(130)는, 증강 현실 그래픽 처리된 카메라 영상의 제공 위치(또는 제공 영역)을, 메인 디스플레이 영역(A)에서 서브 디스플레이 영역(B)으로 변경하고, 방소 영상(10)의 제공 위치(또는 제공 영역)을, 서브 디스플레이 영역(B)에서 메인 디스플레이 영역(A)으로 변경할 수 있다. In this case, the control unit 130 changes the provision location (or provision area) of the augmented reality graphic-processed camera image from the main display area (A) to the sub-display area (B) and provides the room image 10. The location (or provision area) can be changed from the sub-display area (B) to the main display area (A).

그리고, 제어부(130)는 도 17의 (b)에 도시된 것과 같이, 메인 디스플레이 영역(A)에는 방송 영상(10)을 제공(표시 또는 출력)하고, 서브 디스플레이 영역(B)에는 그래픽 처리가 수행된 카메라 영상(20)을 제공(표시 또는 출력)할 수 있다. And, as shown in (b) of FIG. 17, the control unit 130 provides (displays or outputs) the broadcast image 10 in the main display area (A) and performs graphic processing in the sub-display area (B). The performed camera image 20 can be provided (displayed or output).

나아가, 제어부(130)는 도 17의 (b)에 도시된 것과 같은 상태에서, 사용자 단말기(200)를 통해 영상(또는 정보) 제공 위치 변경 기능에 매칭된 기능 아이콘(1700)이 선택되는 것에 근거하여, 메인 디스플레이 영역(A)에는 그래픽 처리가 수행된 카메라 영상(20)을 제공하고, 서브 디스플레이 영역(B)에는 방송 영상(10)을 제공(표시 또는 출력)할 수 있다.Furthermore, the control unit 130 bases the selection on the function icon 1700 matching the image (or information) provision location change function through the user terminal 200 in the state shown in (b) of FIG. 17. Thus, the camera image 20 on which graphic processing has been performed can be provided in the main display area (A), and the broadcast image 10 can be provided (displayed or output) in the sub-display area (B).

한편, 본 발명에서는, 사용자 단말기(200)의 메인 디스플레이 영역(A) 상에는 그래픽 처리가 수행된 카메라 영상(20)을 제공하고, 서브 디스플레이 영역(B)상에는 방송 영상(10)을 제공하는 상태에서, 사용자 단말기(200)로부터 증강 현실 기능에 대한 비활성화 요청을 수신할 수 있다. Meanwhile, in the present invention, a graphically processed camera image 20 is provided on the main display area (A) of the user terminal 200, and a broadcast image 10 is provided on the sub-display area (B). , a deactivation request for the augmented reality function may be received from the user terminal 200.

앞서 설명한 것과 같이, 제어부(130)는, 사용자 단말기(200)로부터 증강 현실 기능에 비활성화 요청에 링크된 아이콘(1300 또는 1710)이 선택되는 것에 근거하여, 증강 현실 기능에 대한 비활성화 요청을 수신할 수 있다(도 13의 (a) 참조, 도 17의 (a) 참조). As described above, the control unit 130 may receive a deactivation request for the augmented reality function from the user terminal 200 based on the icon 1300 or 1710 linked to the deactivation request for the augmented reality function being selected. There is (see (a) in Figure 13, (a) in Figure 17).

제어부(130)는, 상기 증강 현실 기능에 대한 비활성화 요청을 수신한 것에 근거하여, 증강 현실 기능의 상태를 활성화 상태에서 비활성화 상태로 전환(또는 변경)할 수 있다. The control unit 130 may switch (or change) the state of the augmented reality function from the activated state to the deactivated state based on receiving a deactivation request for the augmented reality function.

제어부(130)는 증강 현실 기능이 비활성화되는 것에 연동하여, 사용자 단말기(200)의 카메라가 비활성화되도록 제어할 수 있다. The control unit 130 may control the camera of the user terminal 200 to be deactivated in conjunction with the augmented reality function being deactivated.

여기에서, “카메라 비활성화”는, 카메라로부터 카메라 영상(20)이 수신되는 것을 제한하는 것으로 이해될 수 있다. Here, “camera deactivation” can be understood as restricting the reception of the camera image 20 from the camera.

제어부(130)는, 증강 현실 기능이 비활성화(또는 카메라가 비활성화)되는 것에 근거하여, 증강 현실 그래픽 처리가 수행된 카메라 영상(20)의 제공을 종료할 수 있다. The control unit 130 may end providing the camera image 20 on which augmented reality graphic processing has been performed based on the augmented reality function being deactivated (or the camera being deactivated).

즉, 메인 디스플레이 영역(A) 상에 제공되고 있었던 증강 현실 그래픽 처리가 수행된 카메라 영상(20)은, 증강 현실 기능이 비활성화되는 것에 근거하여, 메인 디스플레이 영역(A)에서의 제공이 종료될 수 있다. In other words, the camera image 20 on which augmented reality graphic processing was performed that was being provided on the main display area (A) may end being provided in the main display area (A) based on the augmented reality function being deactivated. there is.

나아가, 제어부(130)는, 상기 카메라 영상(20)을 사용자 단말기(200)의 디스플레이부를 통해 더 이상 제공하지 않기 위하여, 사용자 단말기(200)의 디스플레이부의 PIP (Picture In Picture) 모드를 활성화 상태에서 비활성화 상태로 전환할 수 있다.Furthermore, in order to no longer provide the camera image 20 through the display unit of the user terminal 200, the control unit 130 activates the PIP (Picture In Picture) mode of the display unit of the user terminal 200. It can be switched to a disabled state.

제어부(130)는 디스플레이부의 PIP 모드가 비활성화된 것에 근거하여, 사용자 단말기(200)의 디스플레이부 상에, 하나의 메인 디스플레이 영역(A)만을 제공할 수 있다. The control unit 130 may provide only one main display area (A) on the display unit of the user terminal 200 based on the PIP mode of the display unit being deactivated.

앞서 설명한 것과 같이, 디스플레이부가 하나의 디스플레이 영역을 포함하는 상태에서는, 상기 하나의 디스플레이 영역을 메인 디스플레이 영역(A)으로 이해할 수 있다. As described above, when the display unit includes one display area, the one display area can be understood as the main display area (A).

그리고, 제어부(130)는, 사용자 단말기(200)의 디스플레이부 상에서 서브 디스플레이 영역(B)의 제공이 종료되는 것에 응답하여, 서브 디스플레이 영역(B)에서 제공되고 있었던 방송 영상(10)의 제공 영역을 변경할 수 있다. 보다 구체적으로, 제어부(130)는 방송 영상(10)의 제공 영역을, 상기 서브 디스플레이 영역(B)에서, 상기 메인 디스플레이 영역(A)으로 변경할 수 있다. And, in response to the end of provision of the sub-display area (B) on the display unit of the user terminal 200, the control unit 130 selects the provision area of the broadcast image 10 that was being provided in the sub-display area (B). can be changed. More specifically, the control unit 130 can change the provision area of the broadcast image 10 from the sub-display area (B) to the main display area (A).

제어부(130)는, 방송 영상(10)의 제공 영역이 변경되는 것에 근거하여, 증강 현실 기능이 비활성화 되더라도, 방송 영상(10)을 메인 디스플레이 영역(B)을 통해 계속해서 제공할 수 있다. The control unit 130 may continue to provide the broadcast image 10 through the main display area (B) even if the augmented reality function is deactivated based on a change in the provision area of the broadcast image 10.

나아가, 본 발명에서는 증강 현실 기능에 대한 비활성화 요청을 다양한 방법으로 수신하는 것이 가능하며, 도 17의 (a)에 도시된 것과 같이, 메인 디스플레이 영역(A)에 제공되는 기능 아이콘(1720)이 사용자 단말기(200)로부터 선택되는 것에 근거하여, 증강 현실 기능을 비활성화 시킬 수 있다.Furthermore, in the present invention, it is possible to receive a deactivation request for the augmented reality function in various ways, and as shown in (a) of FIG. 17, the function icon 1720 provided in the main display area (A) is used by the user. Based on what is selected from the terminal 200, the augmented reality function can be deactivated.

이 경우, 앞서 살펴본 것과 같이, 메인 디스플레이 영역(A)에는 방송 영상이 제공될 수 있다.In this case, as discussed above, a broadcast image may be provided in the main display area (A).

이와 같이, 본 발명에서는, 증강 현실 기능에 대한 비활성화 요청을 수신하는 것에 근거하여, 증강 현실 기능의 상태를 비활성화 상태로 전환할 수 있다. 그리고, 증강 현실 기능의 상태가 비활성화 상태로 전환되는 것에 근거하여, 사용자 단말기(200)의 카메라 및 디스플레이부의 PIP 모드를 비활성화시켜, 메인 디스플레이 영역(A)을 통해 방송 영상(10)을 계속해서 제공할 수 있다. 이에, 사용자는, 본 발명에 따른 증강 현실 기능을 통해 라이브 방송과 연계된 아이템을 체험을 한 후, 다시 라이브 방송을 큰 화면으로 계속해서 시청할 수 있다. As such, in the present invention, the state of the augmented reality function can be switched to the deactivated state based on receiving a deactivation request for the augmented reality function. Then, based on the state of the augmented reality function being switched to the disabled state, the PIP mode of the camera and display unit of the user terminal 200 is deactivated, and the broadcast image 10 is continuously provided through the main display area (A). can do. Accordingly, after experiencing items linked to the live broadcast through the augmented reality function according to the present invention, the user can continue to watch the live broadcast again on a large screen.

한편, 도 18의 (a)에 도시된 것과 같이, 서브 디스플레이 영역(B)에는, 서브 디스플레이 영상(B)에서 제공되고 있는 방송 영상(10)의 제공을 종료하는 종료 기능에 매칭된 기능 아이콘(1800)이 포함될 수 있다. 본 발명에서는, 상기 기능 아이콘(1700)을, “종료 버튼”, “방송 종료 버튼”, “방송 시청 종료 버튼”등으로 명명할 수 있다. Meanwhile, as shown in (a) of FIG. 18, in the sub-display area (B), there is a function icon ( 1800) may be included. In the present invention, the function icon 1700 can be named “end button”, “end broadcast button”, “end broadcast viewing button”, etc.

제어부(130)는, 사용자 단말기(200)를 통해 방송 영상(10) 제공 종료 기능에 매칭된 기능 아이콘(1800)이 선택되는 것에 근거하여, 사용자 단말기(200)로부터 방송 제공 종료 요청을 수신할 수 있다. The control unit 130 may receive a broadcast provision termination request from the user terminal 200 based on the function icon 1800 matching the broadcast video 10 provision termination function being selected through the user terminal 200. there is.

제어부(130)는, 방송 제공 종료 요청을 수신한 것에 응답하여, 사용자 단말기(200) 상에 방송 영상(10)이 더 이상 제공되지 않도록, 서브 디스플레이 영역(B)의 제공을 상기 디스플레이부로부터 종료시킬 수 있다. In response to receiving a broadcast provision termination request, the control unit 130 terminates provision of the sub-display area B from the display unit so that the broadcast image 10 is no longer provided on the user terminal 200. You can do it.

보다 구체적으로, 제어부(130)는, 상기 방송 영상(10)을 사용자 단말기(200)의 디스플레이부를 통해 더 이상 제공하지 않기 위하여, 사용자 단말기(200)의 디스플레이부의 PIP (Picture In Picture) 모드를 활성화 상태에서 비활성화 상태로 전환할 수 있다.More specifically, the control unit 130 activates the PIP (Picture In Picture) mode of the display unit of the user terminal 200 in order to no longer provide the broadcast image 10 through the display unit of the user terminal 200. You can switch from state to disabled state.

이 때, 제어부(130)는, 증강 현실 기능에 대한 활성화 상태는 계속되도록 유지할 수 있다. At this time, the control unit 130 may maintain the activation state for the augmented reality function.

즉, 제어부(130)는, 사용자 단말기(200)로부터 증강 현실 기능에 대한 비활성화 요청을 수신한 경우, 증강 현실 기능 및 디스플레이부의 PIP 모드를 모두 비활성화 상태로 전환하지만, 사용자 단말기(200)로부터 방송 영상(10)의 종료 요청을 수신한 경우에는, 증강 현실 기능에 대한 활성화 상태는 유지하면서, 증강 현실 기능과는 독립적으로 사용자 단말기(200)의 디스플레이부의 PIP 모드만을 비활성화 상태 전환할 수 있다. That is, when the control unit 130 receives a deactivation request for the augmented reality function from the user terminal 200, it switches both the augmented reality function and the PIP mode of the display unit to the deactivated state, but transmits the broadcast image from the user terminal 200. When the termination request of (10) is received, only the PIP mode of the display unit of the user terminal 200 can be switched to the deactivated state independently of the augmented reality function, while maintaining the activated state for the augmented reality function.

그리고, 제어부(130)는 디스플레이부의 PIP 모드가 비활성화된 것에 근거하여, 사용자 단말기(200)의 디스플레이부 상에, 하나의 메인 디스플레이 영역(A)만을 제공할 수 있다. Additionally, the control unit 130 may provide only one main display area (A) on the display unit of the user terminal 200 based on the fact that the PIP mode of the display unit is deactivated.

나아가, 제어부(130)는 방송 제공 종료 요청을 수신한 것에 응답하여, 통신부(110)가 라이브 방송 서버(300)로부터, 라이브 방송의 방송 영상(10)을 더 이상 수신하지 않도록 제어할 수 있다. Furthermore, in response to receiving a request to terminate broadcast provision, the control unit 130 may control the communication unit 110 to no longer receive the broadcast video 10 of the live broadcast from the live broadcast server 300.

한편, 제어부(130)는, 방송 제공 종료 요청을 수신한 경우, 방송 영상(10)의 제공은 종료하고, 그래픽 처리가 수행된 카메라 영상(20)은 계속해서 제공할 수 있다. Meanwhile, when receiving a request to end broadcast provision, the control unit 130 may end provision of the broadcast image 10 and continue to provide the camera image 20 on which graphic processing has been performed.

보다 구체적으로, 제어부(130)는, 서브 디스플레이 영역(B)의 제공이 종료되더라도, 메인 디스플레이 영역(A)에는 증강 현실 그래픽 처리된 카메라 영상(20)을 계속하여 제공할 수 있다. More specifically, the control unit 130 may continue to provide the augmented reality graphic-processed camera image 20 to the main display area (A) even if provision of the sub-display area (B) is terminated.

즉, 제어부(130)는, 방송 영상 제공과 관련된 제1 데이터 처리는 종료하더라도, 증강 현실 기능 제공과 관련된 제2 데이터 처리는 계속해서 수행할 수 있다. 이 경우, 제어부(130)는 증강 현실 기능 제공과 관련된 제2 데이터 처리만을 계속해서 수행할 수 있다. That is, even if the first data processing related to providing the broadcast image ends, the control unit 130 may continue to perform the second data processing related to providing the augmented reality function. In this case, the control unit 130 may continue to perform only the second data processing related to providing the augmented reality function.

한편, 비록 도시되지는 않았지만, 사용자 단말기(200)의 디스플레이부 상에 증강 현실 그래픽 처리가 된 카메라 영상(20)만 제공되고 있는 상태에서, 제어부(130)는 사용자 단말기(200)로부터 방송 영상(10) 재개 요청을 수신할 수 있다. 예를 들어, 사용자 단말기(200)의 디스플레이부 상에는 방송 영상(10) 제공 요청에 링크된 기능 아이콘이 포함되어 있을 수 있다. 제어부(130)는 상기 기능 아이콘에 대한 사용자 선택에 근거하여, 사용자 단말기(200)로부터 방송 영상(10) 재개 요청을 수신할 수 있다. Meanwhile, although not shown, in a state where only the camera image 20 with augmented reality graphic processing is provided on the display unit of the user terminal 200, the control unit 130 receives the broadcast image from the user terminal 200 ( 10) A resume request can be received. For example, a function icon linked to a request to provide a broadcast video 10 may be included on the display unit of the user terminal 200. The control unit 130 may receive a request to resume the broadcast video 10 from the user terminal 200 based on the user's selection of the function icon.

제어부(130)는, 방송 영상(10) 재개 요청을 수신한 것에 근거하여, 증강 현실 기능과 관련된 제2 데이터 처리 및 방송 영상 제공과 관련된 제1 데이터 처리를 다시 동시에 수행할 수 있다. Based on receiving a request to resume the broadcast image 10, the control unit 130 may again simultaneously perform second data processing related to the augmented reality function and first data processing related to providing the broadcast image.

보다 구체적으로, 제어부(130)는 방송 영상(10) 재개 요청을 수신한 것에 근거하여, 통신부(110)가 라이브 방송 서버(300)로부터 라이브 방송의 방송 영상(10)을 다시 수신하도록, 상기 통신부(110)를 제어할 수 있다. More specifically, based on receiving a request to resume the broadcast video 10, the control unit 130 causes the communication unit 110 to re-receive the broadcast video 10 of the live broadcast from the live broadcast server 300. (110) can be controlled.

나아가, 제어부(130)는, 방송 영상(10) 재개 요청을 수신한 것에 근거하여, 사용자 단말기(200)의 디스플레이부의 PIP모드를, 비활성 상태에서 활성화 상태로 다시 전환하고, 사용자 단말기(200)의 디스플레이부 상에 서브 디스플레이부(B)를 제공할 수 있다. 그리고, 제어부(130)는 서브 디스플레이부(B) 상에 상기 방송 영상(10)을 제공할 수 있다.Furthermore, based on receiving a request to resume the broadcast video 10, the control unit 130 switches the PIP mode of the display unit of the user terminal 200 from the inactive state to the active state again, and A sub-display unit (B) may be provided on the display unit. Also, the control unit 130 can provide the broadcast image 10 on the sub-display unit (B).

이와 같이, 제어부(130)는, 방송 영상(10) 재개 요청을 수신하는 경우에도, 증강 현실 기능에 대한 활성화 요청을 수신한 것과 같이, 방송 영상 제공과 관련된 제1 데이터 처리 및 증강 현실 기능과 관련된 제2 데이터 처리를 동시에 수행할 수 있다. In this way, even when receiving a request to resume the broadcast image 10, the control unit 130 processes the first data related to providing the broadcast image and relates to the augmented reality function, as if receiving a request to activate the augmented reality function. The second data processing can be performed simultaneously.

다만, 제어부(130)는, 증강 현실 기능에 대한 활성화 요청을 수신한 경우와는 달리, 방송 영상(10) 재개 요청을 수신하는 경우에는, 방송 영상(10)의 제공 영역 및 그래픽 처리가 수행된 카메라 영상(20)의 제공 영역을 변경하는 데이터 처리를 수행하지 않을 수 있다. However, unlike when receiving a request to activate the augmented reality function, when receiving a request to resume the broadcast image 10, the control unit 130 determines the provision area of the broadcast image 10 and the location where graphics processing is performed. Data processing to change the provision area of the camera image 20 may not be performed.

한편, 상술한 것과 같이, 제어부(130)는, 사용자 단말기(200)를 통해 방송 영상(10) 제공 종료 기능에 매칭된 기능 아이콘(1800)이 선택되는 것에 근거하여, 곧바로 서브 디스플레이 영역(B)의 제공을 상기 디스플레이부로부터 종료시킬 수 있지만, 도 18의 (b)에 도시된 것과 같이, 다른 서비스(ex: 방송 종료, PIP 모드 복귀, 증강 현실 체험 종료)를 선택할 수 있는 기회를 제공할 수 있다. Meanwhile, as described above, the control unit 130 immediately displays the sub-display area (B) based on the function icon 1800 matching the broadcast video 10 provision end function being selected through the user terminal 200. The provision of can be terminated from the display unit, but as shown in (b) of FIG. 18, an opportunity to select another service (ex: ending broadcast, returning to PIP mode, ending augmented reality experience) can be provided. there is.

이 경우, 제어부(130)는, 도 18의 (a)에서 서브 디스플레이 영역(B)에 포함된 기능 아이콘(1700)이 선택되는 것에 응답하여, 도 18의 (b)에 도시된 것과 같이, 선택 가능한 옵션에 각각 대응된 복수의 기능 아이콘(1810, 1820, 1830)을 제공할 수 있다. 이하에서는 용어의 혼동을 피하기 위하여, 도 18의 (a)에서 서브 디스플레이 영역(B)에 포함된 기능 아이콘(1800)을, 메인 기능 아이콘(1800)으로 명명하고, 상기 메인 아이콘(1800)이 선택된 것에 응답하여 제공(출력 또는 표시)되는 아이콘을 서브 기능 아이콘(1810, 1820, 1830)으로 명명하도록 한다. In this case, the control unit 130 selects the function icon 1700 included in the sub-display area (B) in (a) of FIG. 18, as shown in (b) of FIG. 18. A plurality of function icons (1810, 1820, 1830) corresponding to each possible option may be provided. Hereinafter, in order to avoid confusion in terminology, the function icon 1800 included in the sub-display area (B) in Figure 18 (a) is called the main function icon 1800, and the main icon 1800 is selected. The icons provided (output or displayed) in response to this are named sub-function icons (1810, 1820, 1830).

서브 기능 아이콘은, 방송 영상(10) 종료 기능에 매칭된(또는 링크된) 제1 서브 기능 아이콘(ex: “방송 종료”, 1810), 서브 디스플레이 영역(B)을 통한 방송 영상(10)을 다시 제공하는 기능에 매칭된(또는 링크된) 제2 서브 기능 아이콘(ex: “PIP 복귀”, 1820), 증강 현실 기능에 대한 비활성화 기능에 매칭된(또는 링크된) 제3 서브 기능 아이콘(ex: “체험 나가기”, 1830) 중 적어도 하나를 포함할 수 있다. The sub-function icon is a first sub-function icon (ex: “Broadcast End”, 1810) that matches (or is linked to) the broadcast image 10 end function, and displays the broadcast image 10 through the sub display area (B). A second sub-function icon (ex: “PIP return”, 1820) matched (or linked) to the function being provided again, a third sub-function icon (ex: “PIP return”, 1820) matched (or linked) to the deactivating function for the augmented reality function : “Going out for an experience”, 1830).

제어부(130)는 상기 복수의 서브 기능 아이콘(1810, 1820, 1830) 중 어느 하나가 선택되는 것에 응답하여, 선택된 기능 아이콘에 링크된 기능을 수행할 수 있다. 예를 들어, 제어부(130)는, 상기 제2 서브 기능 아이콘(ex: “PIP 복귀”, 1820)이 선택되면, 증강 현실 활성화 상태 및 디스플레이부의 PIP 모드가 활성화 상태를 유지하면서, 계속해서 증강 현실 그래픽 처리가 수행된 카메라 영상(20) 및 방송 영상(10)을 디스플레이부를 통해 제공할 수 있다. The control unit 130 may perform a function linked to the selected function icon in response to selecting one of the plurality of sub-function icons 1810, 1820, and 1830. For example, when the second sub-function icon (ex: “PIP return”, 1820) is selected, the control unit 130 continues to display augmented reality while maintaining the augmented reality activation state and the PIP mode of the display unit being activated. The camera image 20 and the broadcast image 10 on which graphic processing has been performed can be provided through the display unit.

이처럼, 본 발명에서는 메인 디스플레이 영역(A) 및 서브 디스플레이 영역(B)에서 제공(출력 또는 표시)되는 영상(또는 정보)가 상호 전환될 수 있다. 이에, 본 발명에서, 메인 디스플레이 영역(A)에는 그래픽 처리가 수행된 카메라 영상(20)이 출력되고, 서브 디스플레이 영역(B)에는 방송 영상(10)이 출력된 상태에서 제공하는 서비스는, 모두 메인 디스플레이 영역(A)에는 방송 영상(10) 출력되고, 서브 디스플레이 영역(B)에는 그래픽 처리가 수행된 카메라 영상(20)이 출력된 상태에서도 제공될 수 있다. In this way, in the present invention, images (or information) provided (output or displayed) in the main display area (A) and the sub-display area (B) can be switched between each other. Accordingly, in the present invention, the services provided while the graphically processed camera image 20 is output in the main display area (A) and the broadcast image 10 is output in the sub-display area (B) are all: The broadcast image 10 may be output in the main display area (A), and the camera image 20 on which graphic processing has been performed may be output in the sub-display area (B).

한편, 사용자는, 서브 디스플레이 영역(B)의 위치를 변경하기 원하는 경우가 발생할 수 있다. 예를 들어, 사용자는 서브 디스플레이 영역(B)이 가리고 있는 카메라 영상(20)을 보고 싶어할 수 있다. 이에, 본 발명에서는 도 19에 도시된 것과 같이, 사용자가 원하는 위치로 서브 디스플레이 영역(B)의 출력 위치를 변경할 수 있다. Meanwhile, there may be cases where the user wishes to change the location of the sub-display area (B). For example, the user may want to view the camera image 20 that is covered by the sub-display area B. Accordingly, in the present invention, as shown in FIG. 19, the output position of the sub-display area (B) can be changed to a position desired by the user.

서브 디스플레이 영역(B)의 출력 위치(ex: 디스플레이부 상의 특정 출력 좌표)는 시스템 관리자에 의해 미리 설정되어 있을 수 있다. 제어부(130)는 서브 디스플레이 영역(B)의 위치 변경을 위한 사용자 입력을 수신하기 전에는, 미리 설정되어 있는 위치(기본 위치)에 서브 디스플레이 영역(B)을 제공(출력 또는 표시)할 수 있다. The output location (ex: specific output coordinates on the display unit) of the sub-display area (B) may be preset by the system administrator. Before receiving a user input for changing the position of the sub-display area B, the control unit 130 may provide (output or display) the sub-display area B at a preset position (default position).

나아가, 제어부(130)는, 사용자 단말기(200)를 통해 서브 디스플레이 영역(B)의 위치 변경을 위한 사용자 입력을 수신하면, 서브 디스플레이 영역(B)의 위치를 변경할 수 있다. Furthermore, when the control unit 130 receives a user input for changing the position of the sub-display area B through the user terminal 200, it can change the position of the sub-display area B.

상기 서브 디스플레이 영역(B)의 위치 변경을 위한 사용자 입력은, 상기 서브 디스플레이 영역(B)에 대한 기 설정된 방식의 사용자 입력(ex: 드래그(drag))으로 이루어질 수 있다. The user input for changing the position of the sub-display area (B) may be a user input (ex: drag) using a preset method for the sub-display area (B).

제어부(130)는 도 19의 (a)에 도시된 것과 같이, 서브 디스플레이 영역(B)에 대한 기 설정된 방식의 사용자 입력에 연동하여, 메인 디스플레이 영역(A) 상에서 서브 디스플레이 영역(B)의 위치를 변경할 수 있다. 나아가, 제어부(130)는, 도 19(b)에 도시된 것과 같이, 기 설정된 방식의 사용자 입력에 근거하여 변경된 위치 상에 서브 디스플레이 영역(B)을 제공(표시 또는 출력)할 수 있다. As shown in (a) of FIG. 19, the control unit 130 controls the position of the sub-display area (B) on the main display area (A) in conjunction with a preset user input for the sub-display area (B). can be changed. Furthermore, as shown in FIG. 19(b), the control unit 130 may provide (display or output) the sub-display area B at the changed location based on a preset user input.

이와 같이, 서브 디스플레이 영역(B)은 사용자 입력에 근거하여, 제1 위치(1910a)에서 제2 위치(1910b)로 출력 위치가 변경될 수 있다.In this way, the output position of the sub-display area B may be changed from the first position 1910a to the second position 1910b based on the user input.

제어부(130)는 서브 디스플레이 영역(B)의 위치가 변경되면, 변경된 위치(ex: 변경된 위치에 대응되는 디스플레이부 상의 출력 좌표)를 저장부(120)에 저장할 수 있다. 그리고, 제어부(130)는, 이후에 사용자 단말기(200)의 디스플레이부가 PIP 모드로 활성화되는 경우, 변경된 위치에 서브 디스플레이 영역(B)을 제공(표시 또는 출력) 할 수 있다.When the position of the sub-display area B is changed, the control unit 130 may store the changed position (ex: output coordinates on the display unit corresponding to the changed position) in the storage unit 120. Also, when the display unit of the user terminal 200 is later activated in PIP mode, the control unit 130 may provide (display or output) the sub-display area B at the changed location.

이와 달리, 제어부(130)는, 서브 디스플레이 영역(B)의 위치가 변경되었더라도, 이후에 사용자 단말기(200)의 디스플레이부가 PIP 모드로 활성화되는 경우, 미리 설정되어 있는 위치(기본 위치)에 서브 디스플레이 영역(B)을 제공(표시 또는 출력) 할 수 있다. In contrast, even if the position of the sub-display area (B) is changed, the control unit 130 sets the sub-display to a preset position (default position) when the display unit of the user terminal 200 is later activated in PIP mode. Area (B) can be provided (displayed or output).

이러한 서브 디스플레이 영역(B)의 위치 변경 후 서브 디스플레이 영역(B)이 제공(출력 또는 표시)되는 위치는, 사용자 및 시스템 관리자 중 어느 하나에 의해 설정될 수 있다. After changing the position of the sub-display area B, the location where the sub-display area B is provided (output or displayed) can be set by either the user or the system administrator.

한편, 제어부(130)는, 메인 디스플레이 영역(A)과 서브 디스플레이 영역(B) 중 적어도 하나에 대한 사용자 입력에 수신되고, 이에 따른 제어가 수행되고 있는 동안에도, 방송 영상을 제공과 관련된 제1 데이터 처리를 계속적으로 수행하면서, 증강 현실 서비스 제공과 관련된 제2 데이터 처리를 수행할 수 있다. Meanwhile, the control unit 130 receives a user input for at least one of the main display area (A) and the sub-display area (B), and even while the corresponding control is being performed, the control unit 130 provides a first display related to providing a broadcast image. While data processing is continuously performed, secondary data processing related to provision of augmented reality service may be performed.

한편, 사용자는, 서브 디스플레이 영역(B)의 출력 크기(또는 넓이)를 변경하길 원하는 경우 발생할 수 있다. 예를 들어, 사용자는 서브 디스플레이 영역(B)을 지금보다 조금 더 크게 보길 원하거나, 지금 보다 조금 더 작게 보길 원할 수 있다. 이에, 본 발명에서는 도 20에 도시된 것과 같이, 사용자가 서브 디스플레이 영역(B)의 출력 크기(또는 넓이)를 확대 또는 축소할 수 있다. 본 발명에서 설명되는 “디스플레이 영역의 (출력)크기”는 “디스플레이 (출력)넓이”, “디스플레이 (출력)모양”으로도 명명될 수 있음은 당연하다. Meanwhile, this may occur when the user wishes to change the output size (or width) of the sub-display area (B). For example, the user may want to view the sub-display area (B) a little larger than it is now, or may want it to be a little smaller than it is now. Accordingly, in the present invention, as shown in FIG. 20, the user can enlarge or reduce the output size (or area) of the sub-display area (B). It goes without saying that the “(output) size of the display area” described in the present invention can also be referred to as “display (output) width” and “display (output) shape.”

서브 디스플레이 영역(B)의 크기는 시스템 관리자에 의해 미리 설정되어 있을 수 있다. 제어부(130)는 서브 디스플레이 영역(B)의 크기 변경을 위한 사용자 입력을 수신하기 전에는, 미리 설정되어 있는 크기(기본 크기)에 따라 서브 디스플레이 영역(B)을 제공(출력 또는 표시)할 수 있다. The size of the sub-display area (B) may be preset by the system administrator. Before receiving a user input to change the size of the sub-display area B, the control unit 130 may provide (output or display) the sub-display area B according to a preset size (default size). .

나아가, 제어부(130)는, 사용자 단말기(200)를 통해 서브 디스플레이 영역(B)의 크기 변경을 위한 사용자 입력을 수신하면, 서브 디스플레이 영역(B)의 크기를 변경할 수 있다. Furthermore, when the control unit 130 receives a user input for changing the size of the sub-display area (B) through the user terminal 200, it can change the size of the sub-display area (B).

상기 서브 디스플레이 영역(B)의 크기 변경을 위한 사용자 입력은, 상기 서브 디스플레이 영역(B)에 대한 기 설정된 방식의 사용자 입력으로 이루어질 수 있다. A user input for changing the size of the sub-display area (B) may be a user input in a preset manner for the sub-display area (B).

제어부(130)는 서브 디스플레이 영역(B)에 대한 기 설정된 방식의 사용자 입력에 연동하여, 기 설정된 방식의 사용자 입력에 대응되는 크기로 메인 디스플레이 영역(A) 상에서 서브 디스플레이 영역(B)의 크기를 변경할 수 있다. The control unit 130 adjusts the size of the sub-display area (B) on the main display area (A) to a size corresponding to the user input in a pre-set manner in conjunction with a pre-set user input to the sub-display area (B). You can change it.

보다 구체적으로, 제어부(130)는 도 20의 (a)에 도시된 것과 같이, 서브 디스플레이 영역(B)에 대한 기 설정된 방식의 사용자 입력에 연동하여, 도 20의 (b)에 도시된 것과 같이, 메인 디스플레이 영역(A) 상에서 서브 디스플레이 영역(B)의 크기를 확대할 수 있다. 이 때, 기 설정된 방식의 사용자 입력은, 서브 디스플레이 영역(B)의 크기를 확대하는 것에 대응되는 제스쳐(gesture)일 수 있다. More specifically, as shown in (a) of FIG. 20, the control unit 130 is linked to a preset user input for the sub-display area (B), as shown in (b) of FIG. 20. , the size of the sub-display area (B) on the main display area (A) can be enlarged. At this time, the preset user input may be a gesture corresponding to enlarging the size of the sub-display area (B).

또한, 비록 도시되지는 않았지만, 서브 디스플레이 영역(B)에 대한, 서브 디스플레이 영역(B)의 크기를 축소하는 것에 대응되는 기 설정된 방식의 사용자 입력(또는 제스쳐)에 연동하여, 제어부(130)는, 메인 디스플레이 영역(A) 상에서 서브 디스플레이 영역(B)의 크기를 축소할 수 있다.In addition, although not shown, in conjunction with a preset user input (or gesture) corresponding to reducing the size of the sub-display area (B), the control unit 130 , the size of the sub-display area (B) on the main display area (A) can be reduced.

나아가, 제어부(130)는 서브 디스플레이 영역(B)의 크기가 변경되면, 변경된 위치(ex: 변경된 크기에 대응되는 디스플레이부 상의 출력 좌표)를 저장부(120)에 저장할 수 있다. 그리고, 제어부(130)는, 이후에 사용자 단말기(200)의 디스플레이부가 PIP 모드로 활성화되는 경우, 변경된 크기에 따라 서브 디스플레이 영역(B)을 제공(표시 또는 출력) 할 수 있다.Furthermore, when the size of the sub-display area B is changed, the control unit 130 may store the changed position (ex: output coordinates on the display unit corresponding to the changed size) in the storage unit 120. Also, when the display unit of the user terminal 200 is later activated in PIP mode, the control unit 130 may provide (display or output) the sub-display area B according to the changed size.

이와 달리, 제어부(130)는, 서브 디스플레이 영역(B)의 크기가 변경되었더라도, 이후에 사용자 단말기(200)의 디스플레이부가 PIP 모드로 활성화되는 경우, 미리 설정되어 있는 크기(기본 위치)에 따라 서브 디스플레이 영역(B)을 제공(표시 또는 출력) 할 수 있다. In contrast, even if the size of the sub-display area (B) is changed, the control unit 130 controls the sub-display area (B) according to the preset size (default position) when the display unit of the user terminal 200 is later activated in PIP mode. The display area (B) can be provided (displayed or output).

이러한 서브 디스플레이 영역(B)의 크기 변경 후 서브 디스플레이 영역(B)이 제공(출력 또는 표시)되는 크기의 변경 여부는, 사용자 및 시스템 관리자 중 어느 하나에 의해 설정될 수 있다.After changing the size of the sub-display area B, whether to change the size of the sub-display area B provided (output or displayed) can be set by either the user or the system administrator.

한편, 제어부(130)는, 메인 디스플레이 영역(A)과 서브 디스플레이 영역(B) 중 적어도 하나에 대한 사용자 입력에 수신되고, 이에 따른 제어가 수행되고 있는 동안에도, 방송 영상을 제공과 관련된 제1 데이터 처리를 계속적으로 수행하면서, 증강 현실 서비스 제공과 관련된 제2 데이터 처리를 수행할 수 있다. Meanwhile, the control unit 130 receives a user input for at least one of the main display area (A) and the sub-display area (B), and even while the corresponding control is being performed, the control unit 130 provides a first display related to providing a broadcast image. While data processing is continuously performed, secondary data processing related to provision of augmented reality service may be performed.

한편, 비록 도시되지는 않았지만, 서브 디스플레이 영역(B)에는, 상기 서브 디스플레이 영역(B)의 크기를 변경하는 크기 변경 기능에 매칭된 기능 아이콘이 포함되어 있을 수 있다.Meanwhile, although not shown, the sub-display area B may include a function icon matching a size change function for changing the size of the sub-display area B.

제어부(130)는, 메인 디스플레이 영역(A) 상에 서브 디스플레이 영역(B)이 중첩되어 있는 상태에서, 상기 서브 디스플레이 영역(B)의 크기를 변경하는 크기 변경 기능에 매칭된 기능 아이콘에 대한 사용자 선택을 수신할 수 있다.In a state where the sub-display area (B) is overlapped on the main display area (A), the control unit 130 controls the user to select a function icon matching the size change function for changing the size of the sub-display area (B). You can receive selection.

제어부(130)는, 상기 서브 디스플레이 영역(B)의 크기를 변경하는 크기 변경 기능에 대한 사용자 선택을 수신하는 것에 근거하여, 서브 디스플레이 영역(B)의 크기를 기 설정된 크기로 축소할 수 있다. 이러한 기 설정된 크기는 시스템 관리자에 의해 다양하게 설정될 수 있다. The control unit 130 may reduce the size of the sub-display area B to a preset size based on receiving a user selection for a size change function that changes the size of the sub-display area B. This preset size can be set in various ways by the system administrator.

제어부(130)는, 상기 서브 디스플레이 영역(B)의 크기를 기 설정된 크기로 축소하는 것에 연동하여, 축소되는 서브 디스플레이 영역(B’) 상에 방송 영상(10)에 해당하는 시각적인 정보의 출력을 제한할 수 있다. The control unit 130 outputs visual information corresponding to the broadcast image 10 on the reduced sub-display area (B') in conjunction with reducing the size of the sub-display area (B) to a preset size. can be limited.

일 예로, 제어부(130)는, 기 설정된 크기로 축소된 서브 디스플레이 영역(B’) 상에, 방송 영상(10)을 대신하여, 라이브 방송의 썸네일(Thumbnail)을 제공(출력 또는 표시)할 수 있다. As an example, the control unit 130 may provide (output or display) a thumbnail of a live broadcast instead of the broadcast image 10 on the sub-display area (B') reduced to a preset size. there is.

다른 예로, 제어부(130)는, 기 설정된 크기로 축소된 서브 디스플레이 영역(B’) 상에, 방송 영상(10)을 대신하여, 방송 영상(10)의 시각적 정보가 제한됨을 알리는 정보를 제공(출력 또는 표시)할 수 있다. 상기 정보는 예를 들어,”LIVE”, “On Air”, “방송중”과 같은 문구 또는 상기 문구에 대응되는 그래픽 객체를 포함할 수 있다. As another example, the control unit 130 provides information indicating that the visual information of the broadcast image 10 is limited, instead of the broadcast image 10, on the sub-display area (B') reduced to a preset size ( output or display). The information may include, for example, phrases such as “LIVE,” “On Air,” or “On Air,” or graphic objects corresponding to the phrases.

나아가, 제어부(130)는 축소되는 서브 디스플레이 영역(B’) 상에 방송 영상(10)에 해당하는 시각적인 정보의 출력이 제한되더라도, 방송 영상(10)의 청각적인 정보의 출력은 계속되도록 제어할 수 있다. 즉, 제어부(130)는 방송 화면은 사용자 단말기(200)의 디스플레이부를 통해 출력되지 않더라도, 사용자 단말기(200)의 출력부를 제어하여 방송 사운드(sound)는 계속 출력할 수 있다. 사용자는, 서브 디스플레이 영역(B)을 잠시 최소화시키고 라이브 방송의 사운드만을 청취하면서, 증강 현실 기능을 제공받을 수 있다. Furthermore, the control unit 130 controls the output of visual information corresponding to the broadcast image 10 to continue even if the output of visual information corresponding to the broadcast image 10 is limited on the reduced sub-display area B'. can do. That is, even if the broadcast screen is not output through the display unit of the user terminal 200, the control unit 130 can control the output unit of the user terminal 200 to continue outputting broadcast sound. The user can be provided with the augmented reality function while temporarily minimizing the sub-display area (B) and only listening to the sound of the live broadcast.

한편, 본 발명에서는 도 21의 (b)에 도시된 것과 같이, 사용자 단말기(200)의 디스플레이부의 전체 영역을 2분할하여, 디스플레이부 상에 서로 중첩되지 않은 제1 분할 디스플레이 영역(C) 및 제2 분할 디스플레이 영역(D)을 제공할 수 있다. Meanwhile, in the present invention, as shown in (b) of FIG. 21, the entire area of the display unit of the user terminal 200 is divided into two, and a first divided display area C and a second division display area C that do not overlap each other are formed on the display unit. Two split display areas (D) can be provided.

사용자 단말기(200)의 디스플레이부의 2분할은, 도 21의 (b)에 도시된 것과 같이, 제1 분할 디스플레이 영역(C) 및 제2 분할 디스플레이 영역(D)이 상하로 배치되도록 분할될 수 있으나, 이는 일 예시에 불과하고, 사용자 또는 시스템 관리자의 설정에 근거하여 다양하게 이루어질 수 있다. 예를 들어, 사용자 단말기(200)의 디스플레이부는 제1 분할 디스플레이 영역(C) 및 제2 분할 디스플레이 영역(D)이 좌우로 배치되도록 분할될 수 있으며, 디스플레이부의 대각선을 기준으로 분할될 수 있다. The display unit of the user terminal 200 may be divided into two, as shown in (b) of FIG. 21, so that the first divided display area (C) and the second divided display area (D) are arranged vertically. , This is just an example and can be done in various ways based on the settings of the user or system administrator. For example, the display unit of the user terminal 200 may be divided so that the first divided display area C and the second divided display area D are arranged left and right, and may be divided based on the diagonal line of the display unit.

제어부(130)는, 도 21의 (a)에 도시된 것과 같이, 사용자 단말기(200)를 통해 디스플레이부 상에, 메인 디스플레이 영역(A) 및 서브 디스플레이 영역(B)이 제공되고 있는 상태에서, 사용자 단말기(200)로부터 디스플레이부 영역 분할에 대한 요청을 수신할 수 있다. As shown in (a) of FIG. 21, the control unit 130 operates in a state where the main display area (A) and the sub display area (B) are provided on the display unit through the user terminal 200, A request for dividing the display area may be received from the user terminal 200.

디스플레이부 분할에 대한 요청은, 다양한 사용자 입력에 근거하여 수신될 수 있다.A request for division of the display unit may be received based on various user inputs.

예를 들어, 도 21의 (a)에 도시된 것과 같이, 서브 디스플레이 영역(B)에 대한 기 설정된 사용자 방식의 입력에 근거하여 서브 디스플레이 영역(B)의 크기가, 기 설정된 최대 크기가 되는 경우, 제어부(130)는 디스플레이부 영역 분할에 대한 사용자 요청이 있는 것을 데이터 처리할 수 있다. For example, as shown in (a) of FIG. 21, when the size of the sub-display area (B) becomes the preset maximum size based on a preset user input to the sub-display area (B) , the control unit 130 can process data indicating a user request for division of the display area.

다른 예로, 비록 도시되지는 않았지만, 디스플레이부 영역 분할 기능에 매칭(또는 링크)된 기능 아이콘이 선택되는 것에 근거하여, 제어부(130)는 디스플레이부 영역 분할에 대한 사용자 요청이 있는 것을 데이터 처리할 수 있다. As another example, although not shown, based on the function icon matching (or linked to) the display area division function being selected, the control unit 130 may process data indicating that there is a user request for display area division. there is.

제어부(130)는 사용자 단말기(200)로부터 디스플레이부 영역 분할 요청을 수신하는 것에 근거하여, 도 21의 (b)에 도시된 것과 같이, 사용자 단말기(200)의 디스플레이부 전체 영역을, 서로 중첩되지 않는 제1 분할 디스플레이 영역(C) 및 제2 분할 디스플레이 영역(D)으로 분할할 수 있다. Based on receiving a request to divide the display area from the user terminal 200, the control unit 130 divides the entire display area of the user terminal 200 so that they do not overlap each other, as shown in (b) of FIG. 21. It can be divided into a first divided display area (C) and a second divided display area (D).

나아가, 제어부(130)는, 메인 디스플레이 영역(A) 및 서브 디스플레이 영역(B) 각각에 출력되고 있었던 그래픽 처리가 수행된 카메라 영상(20) 및 방송 영상(10)이 출력 영역을 변경할 수 있다. 그리고, 제어부(130)는, 변경된 출력 영역 상에 그래픽 처리가 수행된 카메라 영상(20) 및 방송 영상(10)을 계속해서 제공할 수 있다. Furthermore, the control unit 130 can change the output area of the camera image 20 and the broadcast image 10 on which graphic processing was performed, which were being output to each of the main display area (A) and the sub-display area (B). Additionally, the control unit 130 may continue to provide the camera image 20 and the broadcast image 10 on which graphic processing has been performed on the changed output area.

이 때, 제어부(130)는, 메인 디스플레이 영역(A) 및 서브 디스플레이 영역(B) 각각에 매칭된 분할 디스플레이 영역이 어느 영역인지에 근거하여, 카메라 영상(20) 및 방송 영상(10)의 출력 영역 각각을, 제1 분할 디스플레이 영역(C) 및 제2 디스플레이 영역(D) 중 어느 하나의 영역으로 변경할 수 있다. At this time, the control unit 130 outputs the camera image 20 and the broadcast image 10 based on which division display area is matched to each of the main display area (A) and the sub display area (B). Each area can be changed to one of the first divided display area (C) and the second display area (D).

예를 들어, 제어부(130)는, 메인 디스플레이 영역(A)에 제1 분할 디스플레이 영역(C)에 매칭되어 있는 것에 근거하여, 메인 디스플레이 영역(A)에서 제공되고 있던 그래픽 처리가 수행된 카메라 영상(20)의 출력 영역을, 제1 분할 디스플레이 영역(C)으로 변경할 수 있다. 그리고, 제어부(130)는 도 21의 (b)에 도시된 것과 같이, 제1 분할 디스플레이 영역(C) 상에 그래픽 처리가 수행된 카메라 영상(20)을 계속해서 제공할 수 있다. For example, the control unit 130 controls the camera image on which graphics processing has been performed provided in the main display area (A) based on the fact that the main display area (A) is matched to the first divided display area (C). The output area of (20) can be changed to the first divided display area (C). Additionally, the control unit 130 may continue to provide the camera image 20 on which graphic processing has been performed on the first divided display area C, as shown in (b) of FIG. 21 .

한편, 비록 도시되지는 않았지만, 도 21의 (b)에 도시된 것과 같이, 사용자 단말기(200)의 제1 분할 디스플레이 영역(C) 및 제2 분할 디스플레이 영역(D) 각각에서 그래픽 처리가 수행된 카메라 영상(20) 및 방송 영상(10) 이 출력되고 있는 상태에서, 사용자 단말기(200)로부터 디스플레이부 병합 요청을 수신하는 것에 근거하여, 도 21의 (a)에 도시된 것과 같이, 사용자 단말기(200)의 메인 디스플레이 영역(A) 및 서브 디스플레이 영역(B) 상에 그래픽 처리가 수행된 카메라 영상(20) 및 방송 영상(10)이 제공되도록 제어할 수 있다. Meanwhile, although not shown, as shown in (b) of FIG. 21, graphics processing is performed in each of the first divided display area (C) and the second divided display area (D) of the user terminal 200. In a state where the camera image 20 and the broadcast image 10 are being output, based on receiving a display unit merging request from the user terminal 200, as shown in (a) of FIG. 21, the user terminal ( The camera image 20 and the broadcast image 10 on which graphic processing has been performed can be controlled to be provided on the main display area (A) and sub-display area (B) of 200).

한편, 사용자는 자신의 사용자 단말기(200)에서 촬영된 카메라 영상(10) 뿐만 아니라, 라이브 방송의 방송 영상(10)을 이용하여, 특정 아이템에 대한 체험을 제공받고자 하는 니즈가 존재할 수 있다.Meanwhile, the user may have a need to receive an experience for a specific item using not only the camera image 10 captured in the user terminal 200 but also the broadcast image 10 of a live broadcast.

예를 들어, 특장 아이템이, 입술에 대한 메이크업 아이템인 경우를 가정하자. 사용자는 자신의 얼굴에 입술에 대한 메이크업을 테스트하고 싶을 수 있으며, 라이브 진행자(또는 판매자)의 얼굴에 입술에 대한 메이크업 테스트를 하고 싶을 수 있다. 이에, 앞서 도 15와 함께 상술한 것과 같이, 본 발명에서는, 방송 영상(10)에 특정 아이템과 관련된 그래픽 처리를 수행하여 제공할 수 있다. For example, assume that the special feature item is a makeup item for lips. The user may want to test the makeup on the lips on their own face, and they may want to test the makeup on the lips on the face of the live host (or seller). Accordingly, as previously described with reference to FIG. 15 , in the present invention, the broadcast video 10 can be provided by performing graphic processing related to a specific item.

나아가, 본 발명에서는 도 22에 도시된 것과 같이, 사용자 단말기(200)의 디스플레이부가 복수의 영역으로 분할된 상태(ex: 2분할 된 상태)에서, 특정 아이템과 관련된 증강 현실 그래픽 처리가 수행된 카메라 영상(20) 및 방송 영상(20)을 동시에 제공할 수 있다. Furthermore, in the present invention, as shown in FIG. 22, in a state where the display unit of the user terminal 200 is divided into a plurality of areas (ex: divided into two states), a camera on which augmented reality graphic processing related to a specific item is performed Video 20 and broadcast video 20 can be provided simultaneously.

제어부(130)는, 사용자 단말기(200)로부터 디스플레이부 영역 분할 요청을 수신하는 것에 근거하여, 도 22의 (a)에 도시된 것과 같이, 사용자 단말기(200)의 제1 분할 디스플레이 영역(C)에는 증강 현실 그래픽 처리가 수행된 카메라 영상(20)을 제공(출력 또는 표시하고), 제2 분할 디스플레이 영역(D)에는 증강 현실 그래픽 처리가 수행된 방송 영상(10)을 제공(출력 또는 표시하고)할 수 있다. Based on receiving a display unit division request from the user terminal 200, the control unit 130 divides the first divided display area C of the user terminal 200, as shown in (a) of FIG. 22. Provides (outputs or displays) a camera image 20 on which augmented reality graphics processing has been performed, and provides (outputs or displays) a broadcast image 10 on which augmented reality graphics processing has been performed in the second split display area (D). )can do.

한편, 비록 도시되지는 않았지만, 제어부(130)는 사용자 단말기(200)의 제1 분할 디스플레이 영역(C)에 증강 현실 그래픽 처리가 수행된 방송 영상(10)을 제공(출력 또는 표시하고), 제2 분할 디스플레이 영역(D)에는 증강 현실 그래픽 처리가 수행된 카메라 영상(20)을 제공(출력 또는 표시하고)할 수 있음은 당연하다. Meanwhile, although not shown, the control unit 130 provides (outputs or displays) a broadcast image 10 on which augmented reality graphic processing has been performed to the first divided display area C of the user terminal 200, and It is natural that the camera image 20 on which augmented reality graphic processing has been performed can be provided (output or displayed) in the two-split display area D.

제어부(130)는, 제1 분할 디스플레이 영역(C) 및 제2 분할 디스플레이 영역(D) 각각의 일 영역 상에, 특정 라이브 방송과 연계된 아이템(또는 증강 현실 기능에 연계된 아이템)에 설정된 옵션에 대응되는 그래픽 객체(예를 들어, 도면부호 2211, 2212, 2221, 2222)를 출력시킬 수 있다.The control unit 130 sets an option to an item associated with a specific live broadcast (or an item associated with an augmented reality function) on one region of each of the first divided display area C and the second divided display area D. Graphic objects (for example, reference numerals 2211, 2212, 2221, and 2222) corresponding to can be output.

이 경우, 카메라 영상(20) 및 방송 영상(10) 각각은, 상기 아이템에 대응되는 복수의 옵션에 각각 해당하는 색상 정보 중 어느 하나(2211, 2221)에 대응되도록 증강 현실그래픽 처리가 수행된 카메라 영상(20) 및 방송 영상(10)일 수 있다. In this case, each of the camera image 20 and the broadcast image 10 is a camera on which augmented reality graphics processing has been performed to correspond to one of the color information (2211, 2221) corresponding to a plurality of options corresponding to the item. It may be video 20 and broadcast video 10.

예를 들어, 카메라 영상(20)은, 상기 제1 분할 디스플레이 영역(C) 중 특정 일부 영역(2210)에 포함된 그래픽 객체(2211)에 대응되는 색상 정보에 대응되도록 색상 변환이 이루어진 카메라 영상(20)에 해당될 수 있다. 예를 들어, 카메라 영상(20)은, 사용자 얼굴 중 입술 부분에 대응되는 영역(2200a)이, 상기 제1 분할 디스플레이 영역(C)의 특정 일부 영역(2210)에 포함된 그래픽 객체(2211)에 대응되는 색상 정보로 색 변환이 이루어져 있을 수 있다. For example, the camera image 20 is a camera image whose color has been converted to correspond to color information corresponding to the graphic object 2211 included in a specific partial area 2210 of the first divided display area C ( 20) may apply. For example, in the camera image 20, the area 2200a corresponding to the lip portion of the user's face is displayed on the graphic object 2211 included in the specific partial area 2210 of the first divided display area C. Color conversion may be performed using corresponding color information.

또한, 예를 들어, 방송 영상(10)은, 상기 제2 분할 디스플레이 영역(D) 중 특정 일부 영역(2220)에 포함된 그래픽 객체(2221)에 대응되는 색상 정보에 대응되도록 색상 변환이 이루어진 방송 영상(10)에 해당될 수 있다. 예를 들어, 방송 영상(10)은, 사용자 얼굴 중 입술 부분에 대응되는 영역(2200b)이, 상기 제2 분할 디스플레이 영역(D) 특정 일부 영역(2220)에 포함된 그래픽 객체(2221)에 대응되는 색상 정보로 색 변환이 이루어져 있을 수 있다. In addition, for example, the broadcast image 10 is a broadcast image in which the color has been converted to correspond to the color information corresponding to the graphic object 2221 included in the specific partial area 2220 of the second divided display area D. This may correspond to video 10. For example, in the broadcast image 10, the area 2200b corresponding to the lip part of the user's face corresponds to the graphic object 2221 included in the specific partial area 2220 of the second divided display area D. Color conversion may be performed using color information.

나아가, 제어부(130)는, 사용자 단말기(200)의 제1 분할 디스플레이 영역(C) 상에는 카메라 영상(20)이 표시되고, 제2 분할 디스플레이 영역(D) 상에는 방송 영상(10)이 표시되고 있는 상태에서, 제1 분할 디스플레이 영역(C)에 가해진 기 설정된 사용자 입력을 수신하는 것에 근거하여, 상기 제1 분할 디스플레이 영역(C) 상에는 카메라 영상(20)에 대한 증강 현실 그래픽 처리를 변경할 수 있다. Furthermore, the control unit 130 displays the camera image 20 on the first divided display area (C) of the user terminal 200, and the broadcast image 10 is displayed on the second divided display area (D). In this state, based on receiving a preset user input applied to the first divided display area C, augmented reality graphic processing for the camera image 20 may be changed on the first divided display area C.

이 경우, 제어부(130) 상기 제2 분할 디스플레이 영역(D) 상에서 표시되는 방송 영상(10)에 대한 증강 현실 그래픽 처리는 변경하지 않을 수 있다. In this case, the controller 130 may not change the augmented reality graphic processing for the broadcast image 10 displayed on the second divided display area D.

즉, 제어부(130)는, 카메라 영상(20)에 대해서만 색 변경 또는 색 보정을 수행하여, 카메라 영상(20)에 포함된 사용자의 얼굴 이미지에 대해서만 화장을 수정한 것과 같은 효과를 제공할 수 인다. That is, the control unit 130 can perform color change or color correction only on the camera image 20, providing an effect equivalent to modifying makeup only on the user's face image included in the camera image 20. .

반면에, 제어부(130)는, 사용자 단말기(200)의 제1 분할 디스플레이 영역(C) 상에는 카메라 영상(20)이 표시되고, 제2 분할 디스플레이 영역(D) 상에는 방송 영상(10)이 표시되고 있는 상태에서, 제2 분할 디스플레이 영역(D)에 가해진 기 설정된 사용자 입력을 수신하는 것에 근거하여, 상기 제2 분할 디스플레이 영역(C) 상에는 방송 영상(10)에 대한 증강 현실 그래픽 처리를 변경할 수 있다. On the other hand, the control unit 130 displays the camera image 20 on the first divided display area (C) of the user terminal 200, and displays the broadcast image 10 on the second divided display area (D). In this state, based on receiving a preset user input applied to the second divided display area (D), the augmented reality graphic processing for the broadcast image 10 can be changed on the second divided display area (C). .

이 경우, 제어부(130) 상기 제1 분할 디스플레이 영역(C) 상에서 표시되는 카메라 영상(10)에 대한 증강 현실 그래픽 처리는 변경하지 않을 수 있다. In this case, the controller 130 may not change the augmented reality graphic processing of the camera image 10 displayed on the first divided display area C.

즉, 제어부(130)는, 방송 영상(10)에 대해서만 색 변경 또는 색 보정을 수행하여, 방송 영상(10)에 포함된 방송 진행자(또는 판매자)의 얼굴 이미지에 대해서만 화장을 수정한 것과 같은 효과를 제공할 수 인다. In other words, the control unit 130 performs color change or color correction only on the broadcast video 10, resulting in the same effect as modifying makeup only for the face image of the broadcast host (or seller) included in the broadcast video 10. can provide.

보다 구체적으로, 제어부(130)는, 제2 분할 디스플레이 영역(D) 상에, 특정 아이템의 제1 옵션에 해당하는 색상 정보에 대응되는 그래픽 처리가 수행된 방송 영상(10)이 표시되고 있는 상태에서, 제2 분할 디스플레이 영역(D) 상에 가해진 기 설정된 사용자 입력에 의해 상기 제1 옵션과는 다른 제2 옵션의 색상 정보에 대응되는 그래픽 객체(2222)가 선택되는 것에 근거하여, 상기 제2 분할 디스플레이 영역(D) 상에 표시된 방송 영상(10)에 대해 상기 제2 옵션의 색상 정보에 따른 그래픽 처리를 수행할 수 있다. More specifically, the control unit 130 is displaying a broadcast image 10 on which graphic processing has been performed corresponding to color information corresponding to the first option of a specific item on the second divided display area D. In, based on the graphic object 2222 corresponding to the color information of the second option different from the first option being selected by a preset user input applied to the second divided display area D, the second Graphics processing according to the color information of the second option can be performed on the broadcast image 10 displayed on the split display area D.

일 예로, 도 22의 (a)에 도시된 것과 같이, 상기 제2 분할 디스플레이 영역(D)의 특정 일부 영역(2200)에 제1 옵션의 색상 정보에 대응되는 그래픽 객체(2221)가 표시되고 있는 상태에서, 사용자 단말기(200)로부터 제2 옵션의 색상 정보에 대응되는 그래픽 객체(2222)가 선택된 경우, 제어부(130)는 상기 제2의 색상 정보에 대응되는 그래픽 객체(2222)가 선택된 것으로 처리할 수 있다.For example, as shown in (a) of FIG. 22, a graphic object 2221 corresponding to color information of the first option is displayed in a specific partial area 2200 of the second divided display area D. In this state, when the graphic object 2222 corresponding to the color information of the second option is selected from the user terminal 200, the control unit 130 processes the graphic object 2222 corresponding to the second color information as selected. can do.

제어부(130)는 상기 제2의 색상 정보에 대응되는 그래픽 객체(2222)가 선택된 것에 연동하여, 도 22의 (b)에 도시된 것과 같이, 상기 특정 일부 영역(2200)에 제2 옵션의 색상 정보에 대응되는 그래픽 객체(2222)를 표시할 수 있다. The control unit 130 displays the color of the second option in the specific partial area 2200, as shown in (b) of FIG. 22, in conjunction with the selection of the graphic object 2222 corresponding to the second color information. A graphic object 2222 corresponding to information may be displayed.

그리고, 제어부(130)는 상기 제2 분할 디스플레이 영역(D)에 표시된 방송 영상(10)에 대해서만 상기 제2 옵션의 색상 정보를 이용하여 증강 현실 그래픽 처리를 수행할 수 있다. Additionally, the control unit 130 may perform augmented reality graphic processing using the color information of the second option only for the broadcast image 10 displayed in the second divided display area D.

다른 예로, 상기 제2 분할 디스플레이 영역(D)의 특정 일부 영역(2200)에 제1 옵션의 색상 정보에 대응되는 그래픽 객체(2221)가 표시되고 있는 상태에서, 상기 제2 분할 디스플레이 영역(D)에 대한 기 설정된 방식의 사용자 입력(ex: 스와이프(swipe) 입력)에 연동하여, 상기 특정 일부 영역(2200)에 제2 옵션의 색상 정보에 대응되는 그래픽 객체(2222)가 표시되는 것으로, 제2 옵션의 색상 정보에 대응되는 그래픽 객체(612)가 선택될 수 있다.As another example, in a state in which a graphic object 2221 corresponding to color information of the first option is displayed in a specific partial area 2200 of the second divided display area D, the second divided display area D In conjunction with a preset user input (ex: swipe input), a graphic object 2222 corresponding to the color information of the second option is displayed in the specific partial area 2200. The graphic object 612 corresponding to the color information of option 2 may be selected.

그리고, 제어부(130)는 상기 제2 분할 디스플레이 영역(D)에 표시된 방송 영상(10)에 대해서만 상기 제2 옵션의 색상 정보를 이용하여 증강 현실 그래픽 처리를 수행할 수 있다. Additionally, the control unit 130 may perform augmented reality graphic processing using the color information of the second option only for the broadcast image 10 displayed in the second divided display area D.

제어부(130)는, 제1 분할 디스플레이 영역(C)에 가해진 기 설정된 사용자 입력을 수신하는 것에 근거하여, 상기 제1 분할 디스플레이 영역(C) 상에 표시된 카메라 영상(20)에 대해서만 대한 증강 현실 그래픽 처리를 변경할 수 있으며, 상술한 방법과 동일할 수 있다. The control unit 130 displays augmented reality graphics only for the camera image 20 displayed on the first divided display area C based on receiving a preset user input applied to the first divided display area C. The processing can be changed and may be the same as the method described above.

한편, 본 발명에서는 라이브 방송에 연계된 아이템이 변경될 수 있다. 예를 들어, 라이브 방송(또는 특정 라이브 방송)에서 제1 아이템(ex: 입술 메이크업에 대한 아이템, 이하 립스틱)을 판매(또는 소개)한 후 이어서 제1 아이템과는 다른 제2 아이템(볼터치 메이크업에 대한 아이템, 이하 “블러셔(blusher)”)을 판매(또는 소개)하는 경우, 라이브 방송에 연계된 아이템이 변경될 수 있다. Meanwhile, in the present invention, items linked to live broadcasting can be changed. For example, in a live broadcast (or a specific live broadcast), a first item (ex: lip makeup item, hereinafter lipstick) is sold (or introduced), and then a second item (cheek makeup) that is different from the first item is sold (or introduced). When selling (or introducing) an item (hereinafter “blusher”), the item linked to the live broadcast may change.

본 발명에서는, 라이브 방송에 연계된 아이템이 변경된 것에 근거하여, 사용자 단말기(200)의 디스플레이부 상에 제공하는 정보(또는 시각적 외관)을 변경할 수 있다. In the present invention, information (or visual appearance) provided on the display unit of the user terminal 200 can be changed based on a change in an item related to a live broadcast.

도 23의 (a)에 도시된 것과 같이, 사용자 단말기(200)의 메인 디스플레이 영역(A)의 일 영역(2300) 상에, 제1 아이템에 대응되는 아이템 정보(ex: “리라 파우더 매트립”, 2300a)가 표시되고 있는 상태에서, 라이브 방송에 연계된 아이템이 제1 아이템(립스틱)에서 제2 아이템(블러셔)으로 변경될 수 있다. 제어부(130)는, 라이브 방송에 연계된 아이템이 제1 아이템(립스틱)에서 제2 아이템(블러셔)으로 변경되는 것에 근거하여, 도 23의 (b)에 도시된 것과 같이, 사용자 단말기(200)의 메인 디스플레이 영역(A)의 일 영역(2300) 상에, 제1 아이템에 대응되는 아이템 정보(ex: “리라 파우더 매트립”, 2300a)가 사라지고 제2 아이템 대응되는 아이템 정보(ex: “리라 블루밍 크림 블러쉬”,2300b)가 표시되도록 제어할 수 있다. As shown in (a) of FIG. 23, on one area 2300 of the main display area A of the user terminal 200, item information (ex: “Lira powder matte lip”) corresponding to the first item is displayed. , 2300a), the item associated with the live broadcast may be changed from the first item (lipstick) to the second item (blusher). The control unit 130 controls the user terminal 200, as shown in (b) of FIG. 23, based on the item linked to the live broadcast changing from the first item (lipstick) to the second item (blusher). On one area 2300 of the main display area A of You can control the display of “Blooming Cream Blush”, 2300b).

나아가, 도 23의 (a)에 도시된 것과 같이, 사용자 단말기(200)의 서브 디스플레이 영역(B)상에, 제1 아이템과 관련된 그래픽 처리가 수행된 카메라 영상(20a)에 표시되고 있는 상태에서, 라이브 방송에 연계된 아이템이 제1 아이템(립스틱)에서 제2 아이템(블러셔)으로 변경될 수 있다. 제어부(130)는, 라이브 방송에 연계된 아이템이 제1 아이템(립스틱)에서 제2 아이템(블러셔)으로 변경되는 것에 근거하여, 도 23의 (b)에 도시된 것과 같이, 사용자 단말기(200)의 서브 디스플레이 영역(B) 상에, 제1 아이템(립스틱)과 관련된 카메라 영상(“립스틱 화장 효과를 가지는 영상”, 20a)이 사라지고) 제2 아이템(ex: 블려서)과 관련된 그래픽 처리가 수행된 카메라 영상(“블러셔(볼터치) 화장 효과를 가지는 영상”20b)이 표시되도록 제어할 수 있다. Furthermore, as shown in (a) of FIG. 23, the camera image 20a on which graphic processing related to the first item has been performed is displayed on the sub-display area B of the user terminal 200. , the item linked to the live broadcast may change from the first item (lipstick) to the second item (blusher). The control unit 130 controls the user terminal 200, as shown in (b) of FIG. 23, based on the item linked to the live broadcast changing from the first item (lipstick) to the second item (blusher). On the sub-display area (B) of the camera image (“image with lipstick makeup effect”, 20a) related to the first item (lipstick) disappears) and graphics processing related to the second item (ex: blur) is performed. You can control the display of the camera image (“Video with blusher (cheek touch) makeup effect” 20b).

사용자는, 라이브 방송에서 판매(또는 소개)하는 상품에 대응되는 정보를 제공받고 증강 현실을 체험함으로써, 라이브 방송에서 판매(또는 소개)하는 상품에 대한 실시간 판단을 수행할 수 있다. Users can make real-time judgments about products sold (or introduced) in live broadcasts by being provided with information corresponding to the products sold (or introduced) in live broadcasts and experiencing augmented reality.

이상에서 살펴본 것과 같이, 본 발명에 따른 라이브 방송 제공 방법 및 시스템은, 증강현실 기능을 활용하여, 사용자가 라이브 방송을 시청하면서, 라이브 방송에서 소개되는 상품을 체험할 수 있는 사용자 경험을 제공할 수 있다. As seen above, the method and system for providing live broadcasting according to the present invention can utilize the augmented reality function to provide a user experience that allows users to experience products introduced in the live broadcast while watching the live broadcast. there is.

이와 같은, 본 발명에 따른 라이브 방송 제공 방법 및 시스템에 의하면, 소비자는, 직접 매장을 방문하지 않더라도, 상품에 대한 체험을 할 수 있어, 매장을 방문하는 시간을 절약함은 물론, 상품의 구매를 보다 신중하게 할 수 있다.According to the method and system for providing live broadcasting according to the present invention, consumers can experience products even without directly visiting the store, saving time on visiting the store and purchasing products. You can do it more carefully.

나아가, 본 발명에 따른 라이브 방송 제공 방법 및 시스템에 의하면, 판매자는, 소비자들에게 상품을 다양하게 체험할 수 있는 기회를 제공함으로써, 소비자들의 보다 적극적인 상품 구매를 유도할 수 있다. 나아가, 판매자는 직접 매장을 운영하지 않더라도 라이브 방송을 통하여 다양한 소비자를 만나고, 상품을 체험시킴으로써, 매장을 운영하는 운영비를 절약함은 물론, 상품 판매의 기회를 다양하게 가질 수 있다.Furthermore, according to the method and system for providing live broadcasting according to the present invention, sellers can induce consumers to more actively purchase products by providing consumers with opportunities to experience products in a variety of ways. Furthermore, even if sellers do not directly operate a store, they can meet various consumers and experience products through live broadcasts, thereby saving on the operating costs of running a store and having various opportunities to sell products.

한편, 본 발명에 따른 라이브 방송 제공 방법 및 시스템은, 라이브 방송의 제공, 상품에 대한 체험, 상품에 대한 구매 프로세스 제공을, 라이브 방송이 진행중인 상황에서 일원화하여 제공할 수 있다. 이를 통해, 소비자는 본 발명에 따른 라이브 방송을 시청하는 것 만으로도, 상품에 대한 체험과 구매를 보다 편리하게 수행할 수 있다. 한편, 위에서 살펴본 본 발명은, 컴퓨터에서 하나 이상의 프로세스에 의하여 실행되며, 이러한 컴퓨터로 판독될 수 있는 매체에 저장 가능한 프로그램으로서 구현될 수 있다.Meanwhile, the method and system for providing live broadcasting according to the present invention can provide the provision of live broadcasting, product experience, and product purchase process in a unified manner while live broadcasting is in progress. Through this, consumers can experience and purchase products more conveniently just by watching the live broadcast according to the present invention. Meanwhile, the present invention discussed above can be implemented as a program that is executed by one or more processes on a computer and can be stored in a medium that can be read by such a computer.

나아가, 위에서 살펴본 본 발명은, 프로그램이 기록된 매체에 컴퓨터가 읽을 수 있는 코드 또는 명령어로서 구현하는 것이 가능하다. 즉, 본 발명에 따른 다양한 제어방법은 통합하여 또는 개별적으로 프로그램의 형태로 제공될 수 있다. Furthermore, the present invention discussed above can be implemented as computer-readable codes or instructions on a program-recorded medium. That is, various control methods according to the present invention may be provided in the form of programs, either integrated or individually.

한편, 컴퓨터가 읽을 수 있는 매체는, 컴퓨터 시스템에 의하여 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록장치를 포함한다. 컴퓨터가 읽을 수 있는 매체의 예로는, HDD(Hard Disk Drive), SSD(Solid State Disk), SDD(Silicon Disk Drive), ROM, RAM, CD-ROM, 자기 테이프, 플로피 디스크, 광 데이터 저장 장치 등이 있다. Meanwhile, computer-readable media includes all types of recording devices that store data that can be read by a computer system. Examples of computer-readable media include HDD (Hard Disk Drive), SSD (Solid State Disk), SDD (Silicon Disk Drive), ROM, RAM, CD-ROM, magnetic tape, floppy disk, optical data storage device, etc. There is.

나아가, 컴퓨터가 읽을 수 있는 매체는, 저장소를 포함하며 전자기기가 통신을 통하여 접근할 수 있는 서버 또는 클라우드 저장소일 수 있다. 이 경우, 컴퓨터는 유선 또는 무선 통신을 통하여, 서버 또는 클라우드 저장소로부터 본 발명에 따른 프로그램을 다운로드 받을 수 있다.Furthermore, the computer-readable medium may be a server or cloud storage that includes storage and can be accessed by electronic devices through communication. In this case, the computer can download the program according to the present invention from a server or cloud storage through wired or wireless communication.

나아가, 본 발명에서는 위에서 설명한 컴퓨터는 프로세서, 즉 CPU(Central Processing Unit, 중앙처리장치)가 탑재된 전자기기로서, 그 종류에 대하여 특별한 한정을 두지 않는다.Furthermore, in the present invention, the computer described above is an electronic device equipped with a processor, that is, a CPU (Central Processing Unit), and there is no particular limitation on its type.

한편, 상기의 상세한 설명은 모든 면에서 제한적으로 해석되어서는 아니되고 예시적인 것으로 고려되어야 한다. 본 발명의 범위는 첨부된 청구항의 합리적 해석에 의해 결정되어야 하고, 본 발명의 등가적 범위 내에서의 모든 변경은 본 발명의 범위에 포함된다.Meanwhile, the above detailed description should not be construed as restrictive in all respects and should be considered illustrative. The scope of the present invention should be determined by reasonable interpretation of the appended claims, and all changes within the equivalent scope of the present invention are included in the scope of the present invention.

Claims (18)

라이브 방송 서버로부터, 라이브 방송의 방송 영상을 수신하는 단계;
상기 수신에 근거하여, 사용자 단말기의 디스플레이부의 메인 디스플레이 영역 상에 상기 방송 영상을 제공하는 제1 데이터 처리를 수행하는 단계;
상기 제1 데이터 처리에 따라 상기 메인 디스플레이 영역 상에 상기 방송 영상이 제공되고 있는 상태에서, 상기 사용자 단말기로부터 상기 라이브 방송과 관련된 증강 현실 기능에 대한 활성화 요청을 수신하는 단계;
상기 제1 데이터 처리가 수행되고 있는 상태에서, 상기 증강 현실 기능에 대한 활성화 요청이 수신되면, 상기 활성화 요청에 응답하여 상기 사용자 단말기에 구비된 카메라를 활성화하고, 상기 활성화된 카메라로부터 수신되는 카메라 영상에 대해, 상기 라이브 방송에 연계된 아이템과 관련된 증강 현실 그래픽 처리가 이루어지도록 제2 데이터 처리를 수행하는 단계; 및
상기 제1 데이터 처리 및 상기 제2 데이터 처리에 근거하여, 상기 사용자 단말기에서 상기 방송 영상을 수신하고 있는 상태에서, 상기 증강 현실 그래픽 처리가 수행된 상기 카메라 영상을 상기 메인 디스플레이 영역 상에 표시하는 단계를 포함하고,
상기 방송 영상은,
상기 메인 디스플레이 영역 상에, 상기 제2 데이터 처리가 수행된 카메라 영상이 제공되는 동안 상기 디스플레이부 상에 위치하는 서브 디스플레이 영역을 통해 상기 사용자 단말기에 제공되는 것을 특징으로 하는 라이브 방송 제공 방법.
Receiving broadcast video of a live broadcast from a live broadcast server;
Based on the reception, performing first data processing to provide the broadcast image on the main display area of the display unit of the user terminal;
Receiving an activation request for an augmented reality function related to the live broadcast from the user terminal while the broadcast image is being provided on the main display area according to the first data processing;
While the first data processing is being performed, when an activation request for the augmented reality function is received, a camera provided in the user terminal is activated in response to the activation request, and a camera image is received from the activated camera. For this, performing second data processing so that augmented reality graphic processing related to the item linked to the live broadcast occurs; and
Based on the first data processing and the second data processing, displaying the camera image on which the augmented reality graphic processing has been performed on the main display area while the user terminal is receiving the broadcast image. Including,
The broadcast video is,
A method of providing a live broadcast, characterized in that while the camera image on which the second data processing is performed is provided on the main display area, it is provided to the user terminal through a sub-display area located on the display unit.
제1항에 있어서,
상기 활성화 요청에 응답하여, 상기 디스플레이부 상에 상기 서브 디스플레이 영역을 제공하는 단계; 및
상기 서브 디스플레이 영역의 제공에 응답하여, 상기 메인 디스플레이 영역에서 제공되고 있었던 상기 방송 영상의 제공 영역을, 상기 서브 디스플레이 영역으로 변경하는 단계를 더 포함하는 것을 특징으로 하는 라이브 방송 제공 방법.
According to paragraph 1,
In response to the activation request, providing the sub-display area on the display unit; and
In response to provision of the sub-display area, the method further comprising changing the provision area of the broadcast image provided in the main display area to the sub-display area.
제2항에 있어서,
상기 사용자 단말기에 상에 상기 방송 영상과 상기 증강 현실 그래픽 처리된 카메라 영상이 함께 제공되도록,
상기 서브 디스플레이 영역은 상기 메인 디스플레이 영역의 적어도 일 영역에 중첩되도록 위치하는 것을 특징으로 하는 라이브 방송 제공 방법.
According to paragraph 2,
So that the broadcast image and the augmented reality graphic-processed camera image are provided together on the user terminal,
A method of providing live broadcasting, wherein the sub-display area is positioned to overlap at least one area of the main display area.
제2항에 있어서,
상기 사용자 단말기로부터 상기 증강 현실 기능에 대한 비활성화 요청을 수신하는 단계; 및
상기 비활성화 요청에 따라 상기 증강 현실 기능이 비활성화되는 것에 근거하여, 상기 서브 디스플레이 영역의 제공을 종료하는 단계를 더 포함하고,
상기 서브 디스플레이 영역의 제공이 종료되는 경우, 상기 서브 디스플레이 영역에서 제공되고 있었던 상기 방송 영상은, 상기 메인 디스플레이 영역에서 계속하여 제공되는 것을 특징으로 하는 라이브 방송 제공 방법.
According to paragraph 2,
Receiving a deactivation request for the augmented reality function from the user terminal; and
Further comprising terminating provision of the sub-display area based on the augmented reality function being deactivated according to the deactivation request,
A method of providing a live broadcast, characterized in that when provision of the sub-display area is terminated, the broadcast image provided in the sub-display area continues to be provided in the main display area.
제4항에 있어서,
상기 증강 현실 기능의 활성화에 근거하여 상기 메인 디스플레이 영역 상에서 제공되고 있었던 상기 증강 현실 그래픽 처리된 카메라 영상은,
상기 증강 현실 기능이 비활성화되는 것에 근거하여, 상기 메인 디스플레이 영역에서의 제공이 종료되는 것을 특징으로 하는 라이브 방송 제공 방법.
According to clause 4,
The augmented reality graphic-processed camera image that was provided on the main display area based on activation of the augmented reality function,
A method of providing a live broadcast, characterized in that provision in the main display area is terminated based on the augmented reality function being deactivated.
제5항에 있어서,
상기 비활성화 요청에 따라 상기 증강 현실 기능이 비활성화되는 것에 연동하여 상기 카메라 영상이 더 이상 수신되지 않도록 상기 카메라를 비활성화시키는 단계를 더 포함하는 것을 특징으로 하는 라이브 방송 제공 방법.
According to clause 5,
A method for providing a live broadcast, further comprising deactivating the camera so that the camera image is no longer received in conjunction with the augmented reality function being deactivated according to the deactivation request.
제6항에 있어서,
상기 메인 디스플레이 영역에는, 상기 비활성화 요청에 링크된 기능 아이콘이 포함되고,
상기 증강 현실 기능에 대한 비활성화는, 상기 기능 아이콘이 선택되는 것에 근거하여 이루어지는 것을 특징으로 하는 라이브 방송 제공 방법.
According to clause 6,
The main display area includes a function icon linked to the deactivation request,
A method of providing a live broadcast, characterized in that deactivation of the augmented reality function is performed based on the function icon being selected.
제4항에 있어서,
상기 서브 디스플레이 영역에는,
상기 메인 디스플레이 영역 및 상기 서브 디스플레이 영역에서 각각 제공되고 있는 정보의 제공위치를 변경하는 기능에 매칭된 기능 아이콘이 포함되고, (전환)
상기 메인 디스플레이 영역 상에 상기 증강 현실 그래픽 처리된 카메라 영상이 제공되고 상기 서브 디스플레이 영역 상에 상기 방송 영상이 각각 제공되고 있는 상태에서, 상기 사용자 단말을 통해 상기 기능 아이콘이 선택되는 경우,
상기 증강 현실 그래픽 처리된 카메라 영상 및 상기 방송 영상의 제공 위치가 서로 변경되는 것을 특징으로 하는 라이브 방송 제공 방법.
According to clause 4,
In the sub-display area,
A function icon matching the function for changing the location of information provided in each of the main display area and the sub-display area is included, (switching)
When the function icon is selected through the user terminal while the augmented reality graphic-processed camera image is provided on the main display area and the broadcast image is provided on the sub-display area,
A method of providing a live broadcast, characterized in that the provision positions of the augmented reality graphic-processed camera image and the broadcast image are changed.
제4항에 있어서,
상기 서브 디스플레이 영역에는,
상기 서브 디스플레이 영역에서 제공되고 있는 상기 방송 영상의 제공을 종료하는 종료 기능에 매칭된 기능 아이콘이 포함되고,
상기 사용자 단말기를 통해 상기 기능 아이콘이 선택되는 경우,
상기 사용자 단말기 상에 상기 방송 영상이 더 이상 제공되지 않도록 상기 서브 디스플레이 영역의 제공을 상기 디스플레이부로부터 종료시키고,
상기 기능 아이콘이 선택되어 상기 서브 디스플레이 영역의 제공이 종료되더라도, 상기 메인 디스플레이 영역에는 상기 증강 현실 그래픽 처리된 카메라 영상이 계속하여 제공되는 것을 특징으로 하는 라이브 방송 제공 방법.
According to clause 4,
In the sub-display area,
A function icon matched to a termination function that terminates provision of the broadcast video provided in the sub-display area is included,
When the function icon is selected through the user terminal,
Terminating provision of the sub-display area from the display unit so that the broadcast image is no longer provided on the user terminal,
A method of providing a live broadcast, wherein even if the function icon is selected and provision of the sub-display area ends, the augmented reality graphic-processed camera image is continuously provided in the main display area.
제4항에 있어서,
상기 서브 디스플레이 영역에는,
상기 서브 디스플레이 영역의 크기를 변경하는 크기 변경 기능에 매칭된 기능 아이콘이 포함되고,
상기 사용자 단말기를 통해 상기 기능 아이콘이 선택되는 경우,
상기 서브 디스플레이 영역의 크기는 기 설정된 크기 축소되고, 축소된 상기 서브 디스플레이 영역에서는 상기 방송 영상에 해당하는 시각적인 정보의 출력이 제한되는 것을 특징으로 하는 라이브 방송 제공 방법.
According to clause 4,
In the sub-display area,
A function icon matching the size change function for changing the size of the sub-display area is included,
When the function icon is selected through the user terminal,
A method for providing a live broadcast, characterized in that the size of the sub-display area is reduced to a preset size, and output of visual information corresponding to the broadcast image is limited in the reduced sub-display area.
제3항에 있어서,
상기 서브 디스플레이 영역의 출력 위치는,
상기 사용자 단말기를 통해 인가되는 상기 서브 디스플레이 영역에 대한 기 설정된 방식의 사용자 입력에 근거하여, 상기 메인 디스플레이 영역 상에서 변경되는 것을 특징으로 하는 라이브 방송 제공 방법.
According to paragraph 3,
The output location of the sub-display area is,
A method of providing live broadcasting, wherein the main display area is changed based on a preset user input to the sub-display area applied through the user terminal.
제3항에 있어서,
상기 서브 디스플레이 영역의 출력 크기는,
상기 사용자 단말기를 통해 인가되는 상기 서브 디스플레이 영역에 대한 기 설정된 방식의 사용자 입력에 근거하여, 변경되는 것을 특징으로 하는 라이브 방송 제공 방법.
According to clause 3,
The output size of the sub-display area is,
A method of providing a live broadcast, characterized in that the sub-display area is changed based on a preset user input applied through the user terminal.
제1항에 있어서,
상기 메인 디스플레이부 영역 상에 상기 방송 영상이 제공되고 있는 상태에서, 상기 메인 디스플레이 영역의 일 영역에는, 상기 증강 현실 기능에 링크된 아이콘이 표시되고,
상기 증강 현실 기능에 대한 상기 활성화 요청은, 상기 사용자 단말로부터 상기 아이콘이 선택되는 것에 근거하여 수신되는 것을 특징으로 하는 라이브 방송 제공 방법.
According to paragraph 1,
While the broadcast image is being provided on the main display area, an icon linked to the augmented reality function is displayed in one area of the main display area,
A method for providing a live broadcast, wherein the activation request for the augmented reality function is received based on the icon being selected from the user terminal.
제13항에 있어서,
상기 증강 현실 기능에 링크된 아이콘은, 상기 아이템이 증강 현실 기능에 매칭되어 있는지 여부에 근거하여, 상기 메인 디스플레이부 영역상에 표시되는 것을 특징으로 하는 라이브 방송 제공 방법.
According to clause 13,
A method of providing a live broadcast, characterized in that the icon linked to the augmented reality function is displayed on the main display area based on whether the item is matched to the augmented reality function.
제1항에 있어서,
상기 아이템에는, 적어도 하나의 색상 정보가 매칭되어 존재하고,
상기 증강 현실 그래픽 처리를 수행하는 단계에서는,
상기 카메라 영상에 상기 색상 정보에 대응되는 색상이 보여지도록, 상기 카메라 영상의 적어도 일부분의 색상을 변환하는 것을 특징으로 하는 라이브 방송 제공 방법.
According to paragraph 1,
In the item, at least one color information is matched,
In the step of performing the augmented reality graphics processing,
A method for providing live broadcasting, characterized in that the color of at least a portion of the camera image is converted so that the color corresponding to the color information is displayed in the camera image.
제15항에 있어서,
상기 증강 현실 그래픽 처리를 수행하는 단계에서는,
상기 아이템의 종류에 근거하여, 상기 카메라 영상에서 색상을 변환할 특정 부분을 특정하고,
상기 카메라 영상의 상기 특정 부분의 색상을 상기 색상 정보에 대응되도록 변환하는 것을 특징으로 하는 라이브 방송 제공 방법.
According to clause 15,
In the step of performing the augmented reality graphics processing,
Based on the type of the item, specify a specific part to change color in the camera image,
A method for providing live broadcasting, characterized in that the color of the specific part of the camera image is converted to correspond to the color information.
카메라 및 디스플레이부를 포함하는 사용자 단말기와 연동하는 라이브 방송 제공 시스템에 있어서,
라이브 방송 서버로부터, 라이브 방송의 방송 영상을 수신하는 통신부; 및
상기 수신에 근거하여, 사용자 단말기의 디스플레이부의 메인 디스플레이 영역 상에 상기 방송 영상 제공과 관련된 제1 데이터 처리를 수행하는 제어부를 포함하고.
상기 제어부는,
상기 제1 데이터 처리에 따라 상기 메인 디스플레이 영역 상에 상기 방송 영상이 제공되고 있는 상태에서, 상기 사용자 단말기로부터 상기 라이브 방송과 관련된 증강 현실 기능에 대한 활성화 요청을 수신하고,
상기 제1 데이터 처리가 수행되고 있는 상태에서, 상기 증강 현실 기능에 대한 활성화 요청이 수신되면, 상기 활성화 요청에 응답하여 상기 사용자 단말기에 구비된 카메라를 활성화하고, 상기 활성화된 카메라로부터 수신되는 카메라 영상에 대해, 상기 라이브 방송에 연계된 아이템과 관련된 증강 현실 그래픽 처리가 이루어지도록 제2 데이터 처리를 수행하며,
상기 제1 데이터 처리 및 상기 제2 데이터 처리에 근거하여, 상기 사용자 단말기에서 상기 방송 영상을 수신하고 있는 상태에서, 상기 증강 현실 그래픽 처리가 수행된 상기 카메라 영상을 상기 메인 디스플레이 영역 상에 표시하고,
상기 방송 영상은,
상기 메인 디스플레이 영역 상에, 상기 제2 데이터 처리가 수행된 카메라 영상이 제공되는 동안 상기 디스플레이부 상에 위치하는 서브 디스플레이 영역을 통해 상기 사용자 단말기에 제공되는 것을 특징으로 하는 라이브 방송 제공 시스템.
In a live broadcasting provision system linked to a user terminal including a camera and a display unit,
a communication unit that receives broadcast images of a live broadcast from a live broadcast server; and
and a control unit that performs first data processing related to providing the broadcast image on the main display area of the display unit of the user terminal, based on the reception.
The control unit,
While the broadcast image is being provided on the main display area according to the first data processing, a request for activation of an augmented reality function related to the live broadcast is received from the user terminal,
While the first data processing is being performed, when an activation request for the augmented reality function is received, a camera provided in the user terminal is activated in response to the activation request, and a camera image is received from the activated camera. For this, second data processing is performed so that augmented reality graphic processing related to the item linked to the live broadcast is performed,
Based on the first data processing and the second data processing, while the user terminal is receiving the broadcast image, the camera image on which the augmented reality graphic processing has been performed is displayed on the main display area,
The broadcast video is,
A live broadcasting providing system, characterized in that while the camera image on which the second data processing is performed is provided on the main display area, it is provided to the user terminal through a sub-display area located on the display unit.
전자기기에서 하나 이상의 프로세스에 의하여 실행되며, 컴퓨터로 판독될 수 있는 기록매체에 저장된 프로그램으로서,
상기 프로그램은,
상기 수신에 근거하여, 사용자 단말기의 디스플레이부의 메인 디스플레이 영역 상에 상기 방송 영상을 제공하는 제1 데이터 처리를 수행하는 단계;
상기 제1 데이터 처리에 따라 상기 메인 디스플레이 영역 상에 상기 방송 영상이 제공되고 있는 상태에서, 상기 사용자 단말기로부터 상기 라이브 방송과 관련된 증강 현실 기능에 대한 활성화 요청을 수신하는 단계;
상기 제1 데이터 처리가 수행되고 있는 상태에서, 상기 증강 현실 기능에 대한 활성화 요청이 수신되면, 상기 활성화 요청에 응답하여 상기 사용자 단말기에 구비된 카메라를 활성화하고, 상기 활성화된 카메라로부터 수신되는 카메라 영상에 대해, 상기 라이브 방송에 연계된 아이템과 관련된 증강 현실 그래픽 처리가 이루어지도록 제2 데이터 처리를 수행하는 단계; 및
상기 제1 데이터 처리 및 상기 제2 데이터 처리에 근거하여, 상기 사용자 단말기에서 상기 방송 영상을 수신하고 있는 상태에서, 상기 증강 현실 그래픽 처리가 수행된 상기 카메라 영상을 상기 메인 디스플레이 영역 상에 표시하는 단계를 수행하는 명령어들을 포함하고,
상기 방송 영상은,
상기 메인 디스플레이 영역 상에, 상기 제2 데이터 처리가 수행된 카메라 영상이 제공되는 동안 상기 디스플레이부 상에 위치하는 서브 디스플레이 영역을 통해 상기 사용자 단말기에 제공되는 것을 특징으로 하는 컴퓨터로 판독될 수 있는 기록매체에 저장된 프로그램.
A program that is executed by one or more processes in an electronic device and stored on a computer-readable recording medium,
The above program is,
Based on the reception, performing first data processing to provide the broadcast image on the main display area of the display unit of the user terminal;
Receiving an activation request for an augmented reality function related to the live broadcast from the user terminal while the broadcast image is being provided on the main display area according to the first data processing;
While the first data processing is being performed, when an activation request for the augmented reality function is received, a camera provided in the user terminal is activated in response to the activation request, and a camera image is received from the activated camera. For this, performing second data processing so that augmented reality graphic processing related to the item linked to the live broadcast occurs; and
Based on the first data processing and the second data processing, displaying the camera image on which the augmented reality graphic processing has been performed on the main display area while the user terminal is receiving the broadcast image. Contains instructions that perform,
The broadcast video is,
A record that can be read by a computer, characterized in that it is provided to the user terminal through a sub-display area located on the display unit while the camera image on which the second data processing has been performed is provided on the main display area. Program stored on media.
KR1020220078545A 2022-06-27 2022-06-27 Method and system for providing live broadcasting KR102659456B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020220078545A KR102659456B1 (en) 2022-06-27 2022-06-27 Method and system for providing live broadcasting

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020220078545A KR102659456B1 (en) 2022-06-27 2022-06-27 Method and system for providing live broadcasting

Publications (2)

Publication Number Publication Date
KR20240001632A KR20240001632A (en) 2024-01-03
KR102659456B1 true KR102659456B1 (en) 2024-04-19

Family

ID=89539153

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020220078545A KR102659456B1 (en) 2022-06-27 2022-06-27 Method and system for providing live broadcasting

Country Status (1)

Country Link
KR (1) KR102659456B1 (en)

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101228319B1 (en) * 2007-09-04 2013-01-31 삼성테크윈 주식회사 Appratus and mthod for overlay of images in video presenting system having embedded operationg system and there of driving method

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20160096546A (en) * 2015-02-05 2016-08-16 김가임 Augmented reality experience system and method for shopping
KR20200109219A (en) * 2019-03-12 2020-09-22 주식회사 케이티 Device and server for proving augmented reality service

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101228319B1 (en) * 2007-09-04 2013-01-31 삼성테크윈 주식회사 Appratus and mthod for overlay of images in video presenting system having embedded operationg system and there of driving method

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
Perfect Corp: Beauty Tech AI & AR, "Beauty Tech: AR Beauty Live Casting on Web | Virtual Makeup Try On | Beauty Trends", 2021.07.27.*

Also Published As

Publication number Publication date
KR20240001632A (en) 2024-01-03

Similar Documents

Publication Publication Date Title
US8311915B2 (en) Detail-in-context lenses for interacting with objects in digital image presentations
AU2017203641B2 (en) Interactive virtual reality platforms
US11140324B2 (en) Method of displaying wide-angle image, image display system, and information processing apparatus
US10089680B2 (en) Automatically fitting a wearable object
CA2794110C (en) System, method and apparatus for providing an application carousel
US7542050B2 (en) System for delivering and enabling interactivity with images
US20190250699A1 (en) Information processing apparatus, image generation method, and computer program
US20070165050A1 (en) Method and system for geographically-based and time-based online advertising
TW201631531A (en) Method and system for management of switching virtual-reality mode and augmented-reality mode
JP2021002288A (en) Image processor, content processing system, and image processing method
KR20170026274A (en) Apparatus and method for editing contents
TW201814486A (en) Method and simulation system for providing demonstration information in simulation environment
US11816800B2 (en) Guided consumer experience
US10424009B1 (en) Shopping experience using multiple computing devices
JP2023530607A (en) Technology for virtually trying on items
US11087390B1 (en) Method and system for displaying items provided by a merchant
US20190149873A1 (en) Handheld controller gestures for virtual reality video playback
KR102659456B1 (en) Method and system for providing live broadcasting
KR102638455B1 (en) Method and system for providing live broadcasting
KR102632812B1 (en) Method and system for providing live broadcasting
KR102659455B1 (en) Method and system for providing live broadcasting
US12008216B1 (en) Displaying a volumetric representation within a tab
KR101700525B1 (en) Online Mobile Terminal Sales Method and System using the Remote Experience System for Mobile Terminal
JP6831027B1 (en) Distribution system, video generator, and video generation method
US11403709B1 (en) Visualizing investment changes using augmented reality

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant