KR102659455B1 - Method and system for providing live broadcasting - Google Patents

Method and system for providing live broadcasting Download PDF

Info

Publication number
KR102659455B1
KR102659455B1 KR1020220078546A KR20220078546A KR102659455B1 KR 102659455 B1 KR102659455 B1 KR 102659455B1 KR 1020220078546 A KR1020220078546 A KR 1020220078546A KR 20220078546 A KR20220078546 A KR 20220078546A KR 102659455 B1 KR102659455 B1 KR 102659455B1
Authority
KR
South Korea
Prior art keywords
information
augmented reality
user terminal
broadcast
option
Prior art date
Application number
KR1020220078546A
Other languages
Korean (ko)
Other versions
KR20240001633A (en
Inventor
송재훈
이철균
가이슬
이누리
박은수
박은지
김지혜
오윤석
진동규
이선
현순미
김효진
Original Assignee
네이버 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 네이버 주식회사 filed Critical 네이버 주식회사
Priority to KR1020220078546A priority Critical patent/KR102659455B1/en
Publication of KR20240001633A publication Critical patent/KR20240001633A/en
Application granted granted Critical
Publication of KR102659455B1 publication Critical patent/KR102659455B1/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/21Server components or server architectures
    • H04N21/218Source of audio or video content, e.g. local disk arrays
    • H04N21/2187Live feed
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/418External card to be used in combination with the client device, e.g. for conditional access
    • H04N21/4185External card to be used in combination with the client device, e.g. for conditional access for payment
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/431Generation of visual interfaces for content selection or interaction; Content or additional data rendering
    • H04N21/4312Generation of visual interfaces for content selection or interaction; Content or additional data rendering involving specific graphical features, e.g. screen layout, special fonts or colors, blinking icons, highlights or animations
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/478Supplemental services, e.g. displaying phone caller identification, shopping application
    • H04N21/47815Electronic shopping
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/81Monomedia components thereof
    • H04N21/816Monomedia components thereof involving special video data, e.g 3D video
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/265Mixing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/272Means for inserting a foreground image in a background image, i.e. inlay, outlay
    • H04N2005/2726Means for inserting a foreground image in a background image, i.e. inlay, outlay for simulating a person's appearance, e.g. hair style, glasses, clothes

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Databases & Information Systems (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Circuits Of Receivers In General (AREA)

Abstract

본 발명은 라이브 커머스에서, 상품에 대한 정보를 보다 효과적으로 제공하기 위한 라이브 방송 제공 방법 및 시스템에 관한 것이다. 본 발명에 따른 라이브 방송 제공 방법은, 라이브 방송 서버로부터, 라이브 방송의 방송 영상을 수신하는 단계, 상기 수신에 근거하여, 사용자 단말기의 디스플레이부 상에 상기 방송 영상을 제공하는 단계, 상기 디스플레이부 상에 상기 방송 영상이 제공되고 있는 상태에서, 상기 사용자 단말기로부터 상기 라이브 방송과 관련된 증강 현실 기능에 대한 활성화 요청을 수신하는 단계, 상기 활성화 요청에 응답하여, 상기 사용자 단말기에 구비된 카메라로부터 수신되는 카메라 영상에 대해, 상기 라이브 방송에 연계된 상품과 관련된 증강 현실 그래픽 처리를 수행하는 단계 및 상기 사용자 단말기에서 상기 방송 영상을 수신하고 있는 상태에서, 증강 현실 그래픽 처리된 카메라 영상과 함께, 상기 상품과 관련된 옵션 정보를 상기 디스플레이부 상에 표시하는 단계를 포함할 수 있다. The present invention relates to a method and system for providing live broadcasting to more effectively provide information about products in live commerce. A method of providing a live broadcast according to the present invention includes the steps of receiving a broadcast image of a live broadcast from a live broadcast server, providing the broadcast image on a display unit of a user terminal based on the reception, and providing the broadcast image on the display unit. In a state where the broadcast image is being provided, receiving an activation request for an augmented reality function related to the live broadcast from the user terminal, in response to the activation request, a camera received from a camera provided in the user terminal For the video, performing augmented reality graphic processing related to a product linked to the live broadcast, and in a state of receiving the broadcast video at the user terminal, together with the augmented reality graphic processed camera image, related to the product It may include displaying option information on the display unit.

Figure R1020220078546
Figure R1020220078546

Description

라이브 방송 제공 방법 및 시스템{METHOD AND SYSTEM FOR PROVIDING LIVE BROADCASTING}Method and system for providing live broadcasting {METHOD AND SYSTEM FOR PROVIDING LIVE BROADCASTING}

본 발명은 라이브 커머스에서, 상품에 대한 정보를 보다 효과적으로 제공하기 위한 라이브 방송 제공 방법 및 시스템에 관한 것이다.The present invention relates to a method and system for providing live broadcasting to more effectively provide information about products in live commerce.

기술이 발전함에 따라, 전자기기(예를 들어, 스마트폰, 태블릿 PC, 자동화 기기 등)의 보급이 대중화되었으며, 이에 따라 일상생활의 많은 부분에서 전자기기에 대한 의존도가 점차적으로 높아지고 있다. As technology develops, the spread of electronic devices (e.g., smartphones, tablet PCs, automated devices, etc.) has become popular, and as a result, dependence on electronic devices is gradually increasing in many aspects of daily life.

나아가, 전자기기의 대중화는 인터넷을 기반으로 한 서비스의 발전을 촉진시켰으며, 이를 통해, 종래 오프라인에 대한 의존도가 높았던 소비패턴은, 점차적으로 온라인(on-line)으로 옮겨가고 있는 실정이다.Furthermore, the popularization of electronic devices has promoted the development of Internet-based services, and through this, consumption patterns that were previously highly dependent on offline are gradually moving to online.

이러한 트렌드의 변화에 맞추어, 상품 판매와 같은 서비스의 특성상 오프라인(off-line)에 기반을 둔 산업 분야 역시, 온라인을 통한 다양한 마케팅을 통하여 고객을 유치하는 것이 보편화되고 있다. In line with this change in trend, it is becoming common for industrial fields, which are based off-line due to the nature of services such as product sales, to attract customers through various online marketing.

이에, 최근에는, 온라인을 통한 다양한 상품 판매 서비스가 제공되고 있으며, 그 활용도 또한 매우 높아지고 있다. 그러나, 이러한 온라인을 통한 상품 판매 서비스는, 미리 업로드 된 상품 정보만을 제공하는 것으로서, 소비자는 여전히 상품에 대한 다양한 정보를 제공받고 싶어 한다. Accordingly, in recent years, various product sales services have been provided online, and their utilization is also greatly increasing. However, these online product sales services only provide pre-uploaded product information, and consumers still want to be provided with various information about products.

이러한 니즈를 해결하고자, 라이브(Live) 방송을 이용한 상품을 판매하는 방법이 도입되고 있다. 실시간 쌍방향 영상을 이용한 온라인 상품 판매 방법(참조특허, 대한민국 공개특허 10-2009-0001838호)은, 온라인 라이브 방송을 이용하여 실시간으로 소비자와 소통함으로써, 소비자가 얻고 싶은 상품 정보를 즉각적으로 제공할 수 있게 되었다. To address these needs, a method of selling products using live broadcasts is being introduced. The online product selling method using real-time interactive video (reference patent, Korean Patent Publication No. 10-2009-0001838) can immediately provide product information that consumers want by communicating with consumers in real time using online live broadcasting. It came to be.

그러나, 이러한 라이브 방송을 이용한 상품 판매 방법 역시, 소비자가 상품을 직접 사용해볼 수 없다는 아쉬움이 존재한다. 이에, 고객이 소지한 전자기기만으로도, 상품을 테스트할 수 있는 서비스에 대한 니즈가 여전히 존재한다. However, this method of selling products using live broadcasts also has the disadvantage of not allowing consumers to try the products themselves. Accordingly, there is still a need for a service that allows customers to test products using only the electronic devices they own.

본 발명에 따른 라이브 방송 제공 방법 및 시스템은, 라이브 방송을 시청하는 사용자에게 상품에 대한 정보를 보다 효과적으로 제공할 수 있는 사용자 경험을 제공하기 위한 것이다.The method and system for providing live broadcasting according to the present invention are intended to provide a user experience that can more effectively provide information about products to users watching live broadcasting.

더 나아가, 본 발명에 따른 라이브 방송 제공 방법 및 시스템은, 라이브 방송을 시청하는 사용자가, 라이브 방송을 통해 판매되는 상품을 체험 또는 테스트할 수 있는 서비스를 제공하기 위한 것이다. Furthermore, the method and system for providing live broadcasting according to the present invention are intended to provide a service that allows users watching live broadcasting to experience or test products sold through live broadcasting.

특히, 본 발명에 따른 라이브 방송 제공 방법 및 시스템은, 시청 중이던 라이브 방송을 중단하지 않고도, 라이브 방송을 통해 판매되는 상품을 체험 또는 테스트할 수 있는 서비스를 제공하기 위한 것이다. In particular, the method and system for providing live broadcasting according to the present invention are intended to provide a service that allows users to experience or test products sold through live broadcasting without stopping the live broadcast being watched.

나아가, 본 발명에 따른 라이브 방송 제공 방법 및 시스템은, 라이브 방송을 시청하는 사용자에게, 라이브 방송을 통해 판매되는 상품의 다양한 정보를 다각적으로 제공할 수 있는 서비스를 제공하기 위한 것이다. Furthermore, the method and system for providing live broadcasting according to the present invention are intended to provide a service that can provide various information about products sold through live broadcasting to users who watch live broadcasting.

나아가, 본 발명에 따른 라이브 방송 제공 방법 및 시스템은, 라이브 방송을 시청하는 사용자 또는 상품을 체험하는 사용자가 상품을 간편하게 구매할 수 있는 서비스를 제공하기 위한 것이다. Furthermore, the method and system for providing live broadcasting according to the present invention are intended to provide a service where users watching live broadcasting or users experiencing products can easily purchase products.

본 발명에 따른 라이브 방송 제공 방법은, 라이브 방송 서버로부터, 라이브 방송의 방송 영상을 수신하는 단계, 상기 수신에 근거하여, 사용자 단말기의 디스플레이부 상에 상기 방송 영상을 제공하는 단계, 상기 디스플레이부 상에 상기 방송 영상이 제공되고 있는 상태에서, 상기 사용자 단말기로부터 상기 라이브 방송과 관련된 증강 현실 기능에 대한 활성화 요청을 수신하는 단계, 상기 활성화 요청에 응답하여, 상기 사용자 단말기에 구비된 카메라로부터 수신되는 카메라 영상에 대해, 상기 라이브 방송에 연계된 상품과 관련된 증강 현실 그래픽 처리를 수행하는 단계; 및 상기 사용자 단말기에서 상기 방송 영상을 수신하고 있는 상태에서, 증강 현실 그래픽 처리된 카메라 영상과 함께, 상기 상품과 관련된 옵션 정보를 상기 디스플레이부 상에 표시하는 단계를 포함할 수 있다. A method of providing a live broadcast according to the present invention includes the steps of receiving a broadcast image of a live broadcast from a live broadcast server, providing the broadcast image on a display unit of a user terminal based on the reception, and providing the broadcast image on the display unit. In a state where the broadcast image is being provided, receiving an activation request for an augmented reality function related to the live broadcast from the user terminal, in response to the activation request, a camera received from a camera provided in the user terminal Performing augmented reality graphic processing related to a product linked to the live broadcast on the video; And while the user terminal is receiving the broadcast image, it may include displaying option information related to the product on the display unit along with the augmented reality graphic-processed camera image.

나아가, 본 발명에 따른 라이브 방송 제공 시스템은, 통신부, 카메라 및 디스플레이부를 포함하는 사용자 단말기와 연동하는 라이브 방송 제공 시스템으로서, 상기 통신부를 통해, 라이브 방송 서버로부터, 라이브 방송의 방송 영상을 수신하여, 사용자 단말기의 디스플레이부 상에 상기 방송 영상을 제공하는 제어부를 포함하고, 상기 제어부는, 상기 디스플레이부 상에 상기 방송 영상이 제공되고 있는 상태에서, 상기 사용자 단말기로부터 상기 라이브 방송과 관련된 증강 현실 기능에 대한 활성화 요청을 수신하고, 상기 활성화 요청에 응답하여, 상기 사용자 단말기에 구비된 카메라로부터 수신되는 카메라 영상에 대해, 상기 라이브 방송에 연계된 상품과 관련된 증강 현실 그래픽 처리를 수행하며, 상기 사용자 단말기에서 상기 방송 영상을 수신하고 있는 상태에서, 증강 현실 그래픽 처리된 카메라 영상과 함께, 상기 상품과 관련된 옵션 정보를 상기 디스플레이부 상에 표시할 수 있다. Furthermore, the live broadcasting providing system according to the present invention is a live broadcasting providing system that works in conjunction with a user terminal including a communication unit, a camera, and a display unit, and receives a broadcast image of a live broadcast from a live broadcasting server through the communication unit, and a control unit providing the broadcast image on a display unit of a user terminal, wherein the control unit controls an augmented reality function related to the live broadcast from the user terminal while the broadcast image is being provided on the display unit. Receiving an activation request for, and in response to the activation request, performing augmented reality graphic processing related to a product linked to the live broadcast on a camera image received from a camera provided in the user terminal, While receiving the broadcast video, optional information related to the product can be displayed on the display unit along with the camera image processed with augmented reality graphics.

나아가, 본 발명에 따른, 전자기기에서 하나 이상의 프로세스에 의하여 실행되며, 컴퓨터로 판독될 수 있는 기록매체에 저장된 프로그램은, 라이브 방송 서버로부터, 라이브 방송의 방송 영상을 수신하는 단계, 상기 수신에 근거하여, 사용자 단말기의 디스플레이부 상에 상기 방송 영상을 제공하는 단계, 상기 디스플레이부 상에 상기 방송 영상이 제공되고 있는 상태에서, 상기 사용자 단말기로부터 상기 라이브 방송과 관련된 증강 현실 기능에 대한 활성화 요청을 수신하는 단계, 상기 활성화 요청에 응답하여, 상기 사용자 단말기에 구비된 카메라로부터 수신되는 카메라 영상에 대해, 상기 라이브 방송에 연계된 상품과 관련된 증강 현실 그래픽 처리를 수행하는 단계 및 상기 사용자 단말기에서 상기 방송 영상을 수신하고 있는 상태에서, 증강 현실 그래픽 처리된 카메라 영상과 함께, 상기 상품과 관련된 옵션 정보를 상기 디스플레이부 상에 표시하는 단계를 수행하는 명령어들을 할 수 있다. Furthermore, according to the present invention, a program executed by one or more processes in an electronic device and stored in a computer-readable recording medium includes the steps of receiving a broadcast image of a live broadcast from a live broadcast server, based on the reception. Thus, providing the broadcast image on the display unit of the user terminal, while the broadcast image is being provided on the display unit, receiving a request to activate an augmented reality function related to the live broadcast from the user terminal. In response to the activation request, performing augmented reality graphic processing related to a product linked to the live broadcast on a camera image received from a camera provided in the user terminal, and performing augmented reality graphic processing related to a product linked to the live broadcast, and the broadcast image in the user terminal While receiving, commands for displaying optional information related to the product on the display unit along with an augmented reality graphic-processed camera image can be issued.

본 발명에 따른 라이브 방송 제공 방법 및 시스템은, 증강현실 기능을 활용하여, 사용자가 라이브 방송을 시청하면서, 라이브 방송에서 소개되는 상품을 체험할 수 있는 사용자 경험을 제공할 수 있다. The method and system for providing live broadcasting according to the present invention can utilize an augmented reality function to provide a user experience that allows users to experience products introduced in the live broadcast while watching the live broadcast.

이와 같은, 본 발명에 따른 라이브 방송 제공 방법 및 시스템에 의하면, 소비자는, 직접 매장을 방문하지 않더라도, 상품에 대한 체험을 할 수 있어, 매장을 방문하는 시간을 절약함은 물론, 상품의 구매를 보다 신중하게 할 수 있다.According to the method and system for providing live broadcasting according to the present invention, consumers can experience products even without directly visiting the store, saving time on visiting the store and purchasing products. You can do it more carefully.

나아가, 본 발명에 따른 라이브 방송 제공 방법 및 시스템에 의하면, 판매자는, 소비자들에게 상품을 다양하게 체험할 수 있는 기회를 제공함으로써, 소비자들의 보다 적극적인 상품 구매를 유도할 수 있다. 나아가, 판매자는 직접 매장을 운영하지 않더라도 라이브 방송을 통하여 다양한 소비자를 만나고, 상품을 체험시킴으로써, 매장을 운영하는 운영비를 절약함은 물론, 상품 판매의 기회를 다양하게 가질 수 있다.Furthermore, according to the method and system for providing live broadcasting according to the present invention, sellers can induce consumers to more actively purchase products by providing consumers with opportunities to experience products in a variety of ways. Furthermore, even if sellers do not directly operate a store, they can meet various consumers and experience products through live broadcasts, thereby saving on the operating costs of running a store and having various opportunities to sell products.

한편, 본 발명에 따른 라이브 방송 제공 방법 및 시스템은, 라이브 방송의 제공, 상품에 대한 체험, 상품에 대한 구매 프로세스 제공을, 라이브 방송이 진행중인 상황에서 일원화하여 제공할 수 있다. 이를 통해, 소비자는 본 발명에 따른 라이브 방송을 시청하는 것 만으로도, 상품에 대한 체험과 구매를 보다 편리하게 수행할 수 있다.Meanwhile, the method and system for providing live broadcasting according to the present invention can provide the provision of live broadcasting, product experience, and product purchase process in a unified manner while live broadcasting is in progress. Through this, consumers can experience and purchase products more conveniently just by watching the live broadcast according to the present invention.

도 1은 본 발명에 따른 라이브 방송을 설명하기 위한 개념도이다.
도 2는 본 발명에 따른 라이브 방송 제공 시스템을 설명하기 위한 개념도이다.
도 3은 본 발명에 따른 라이브 방송 제공 방법을 설명하기 위한 흐름도이다.
도 4a 및 도 4b는 본 발명에 따른 라이브 방송 제공 방법에서, 증강 현실 기능의 활성화를 설명하기 위한 개념도이다.
도 5는 본 발명에 따른 라이브 방송을 통해 제공되는 방송 영상을 설명하기 위한 개념도이다.
도 6은 본 발명에서 증강 현실 기능을 통해 제공되는 카메라 영상을 설명하기 위한 개념도이다.
도 7은 본 발명에 따른 DB를 설명하기 위한 개념도이다.
도 8, 도 9 및 도 10은 본 발명에서 판매자 단말기에 제공되는 사용자 환경을 설명하기 위한 개념도들이다.
도 11 및 도 12는 본 발명에서 추가 아이템 정보를 제공하는 방법을 설명하기 위한 개념도들이다.
도 13 내지 도 15는 본 발명과 관련된 증강 현실 서비스를 설명하기 위한 개념도들이다.
도 16은, 본 발명에서, 라이브 방송과 연계된 상품의 옵션 정보를 제공하는 방법 설명하기 위한 흐름도이다,
도 17, 도 18, 도 19, 도 20, 도 21, 도 22, 도 23a, 도 23b, 도 24a, 도 24b, 도 25, 도 26a 및 도 26b는, 본 발명에 따른 옵션 정보와 연계된 서비스를 제공하는 사용자 환경을 설명하기 위한 개념도들이다.
1 is a conceptual diagram for explaining live broadcasting according to the present invention.
Figure 2 is a conceptual diagram for explaining a live broadcasting provision system according to the present invention.
Figure 3 is a flowchart illustrating a method for providing live broadcasting according to the present invention.
FIGS. 4A and 4B are conceptual diagrams illustrating activation of an augmented reality function in a method for providing live broadcasting according to the present invention.
Figure 5 is a conceptual diagram for explaining a broadcast video provided through live broadcasting according to the present invention.
Figure 6 is a conceptual diagram for explaining the camera image provided through the augmented reality function in the present invention.
Figure 7 is a conceptual diagram for explaining the DB according to the present invention.
Figures 8, 9, and 10 are conceptual diagrams to explain the user environment provided to the seller's terminal in the present invention.
11 and 12 are conceptual diagrams for explaining a method of providing additional item information in the present invention.
13 to 15 are conceptual diagrams for explaining an augmented reality service related to the present invention.
Figure 16 is a flowchart for explaining a method of providing option information for products linked to live broadcasting in the present invention.
17, 18, 19, 20, 21, 22, 23a, 23b, 24a, 24b, 25, 26a and 26b show services linked to option information according to the present invention. These are conceptual diagrams to explain the user environment that provides.

이하, 첨부된 도면을 참조하여 본 명세서에 개시된 실시 예를 상세히 설명하되, 도면 부호에 관계없이 동일하거나 유사한 구성요소에는 동일한 참조 번호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다. 이하의 설명에서 사용되는 구성요소에 대한 접미사 "모듈" 및 "부"는 명세서 작성의 용이함만이 고려되어 부여되거나 혼용되는 것으로서, 그 자체로 서로 구별되는 의미 또는 역할을 갖는 것은 아니다. 또한, 본 명세서에 개시된 실시 예를 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 본 명세서에 개시된 실시 예의 요지를 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다. 또한, 첨부된 도면은 본 명세서에 개시된 실시 예를 쉽게 이해할 수 있도록 하기 위한 것일 뿐, 첨부된 도면에 의해 본 명세서에 개시된 기술적 사상이 제한되지 않으며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다. Hereinafter, embodiments disclosed in the present specification will be described in detail with reference to the accompanying drawings. However, identical or similar components will be assigned the same reference numbers regardless of drawing symbols, and duplicate descriptions thereof will be omitted. The suffixes “module” and “part” for components used in the following description are given or used interchangeably only for the ease of preparing the specification, and do not have distinct meanings or roles in themselves. Additionally, in describing the embodiments disclosed in this specification, if it is determined that detailed descriptions of related known technologies may obscure the gist of the embodiments disclosed in this specification, the detailed descriptions will be omitted. In addition, the attached drawings are only for easy understanding of the embodiments disclosed in this specification, and the technical idea disclosed in this specification is not limited by the attached drawings, and all changes included in the spirit and technical scope of the present invention are not limited. , should be understood to include equivalents or substitutes.

제1, 제2 등과 같이 서수를 포함하는 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되지는 않는다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다.Terms containing ordinal numbers, such as first, second, etc., may be used to describe various components, but the components are not limited by the terms. The above terms are used only for the purpose of distinguishing one component from another.

어떤 구성요소가 다른 구성요소에 "연결되어" 있다거나 "접속되어" 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소가 다른 구성요소에 "직접 연결되어" 있다거나 "직접 접속되어" 있다고 언급된 때에는, 중간에 다른 구성요소가 존재하지 않는 것으로 이해되어야 할 것이다.When a component is said to be "connected" or "connected" to another component, it is understood that it may be directly connected to or connected to the other component, but that other components may exist in between. It should be. On the other hand, when it is mentioned that a component is “directly connected” or “directly connected” to another component, it should be understood that there are no other components in between.

단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. Singular expressions include plural expressions unless the context clearly dictates otherwise.

본 출원에서, "포함한다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.In this application, terms such as “comprise” or “have” are intended to designate the presence of features, numbers, steps, operations, components, parts, or combinations thereof described in the specification, but are not intended to indicate the presence of one or more other features. It should be understood that this does not exclude in advance the possibility of the existence or addition of elements, numbers, steps, operations, components, parts, or combinations thereof.

본 발명은, 라이브 방송을 제공하는 방법에 관한 것으로, 특히, 라이브(Live) 방송의 제공과 함께 증강 현실 서비스를 제공함으로써, 사용자가 라이브 방송을 시청함과 동시에 라이브 방송에서 판매하는 상품(商品)을 체험(경험) 또는 테스트(Test) 할 수 있는 서비스를 제공하는 것이다. The present invention relates to a method of providing a live broadcast, and in particular, by providing an augmented reality service along with the provision of a live broadcast, so that a user can watch the live broadcast and at the same time sell products on the live broadcast. It provides a service that allows you to experience or test.

여기에서, 라이브 방송은, 온라인(On-line) 상에서 소비자와 실시간으로 소통하면서 상품을 소개하는 스트리밍(streaming) 방송으로, 스트리밍 방송, 라이브 커머스(Live Commerce), 쇼핑 라이브(Shopping Live) 로도 명명될 수 있다. Here, live broadcasting is a streaming broadcast that introduces products while communicating with consumers in real time online, and can also be called streaming broadcasting, live commerce, or shopping live. You can.

여기에서 증강 현실(Augmented Reality)이란, 현실의 이미지나 배경에 가상 이미지를 겹쳐서 하나의 영상으로 보여주는 기술로, 현실의 이미지에 가상의 이미지를 겹치는 방식으로 영상을 합성하거나, 현실의 이미지의 적어도 일부를 변형하는 것을 의미할 수 있다. 여기에서, 현실의 이미지는 사용자 단말기에 구비된 카메라를 통해 수신되는 카메라 영상을 의미할 수 있다.Here, Augmented Reality is a technology that displays a single image by overlapping a virtual image on a real image or background. It synthesizes images by overlapping a virtual image on a real image, or at least part of a real image. It may mean transforming . Here, the real image may mean a camera image received through a camera provided in the user terminal.

본 발명에서는, 카메라 영상(20)에 아이템(특정 아이템) 또는 상품과 관련된 정보를 합성하거나, 아이템(특정 아이템) 또는 상품과 관련된 정보를 반영하기 위하여 카메라 영상(20)의 적어도 일부를 변경하는 것을 통해, 증강 현실 그래픽 처리를 수행할 수 있다.In the present invention, combining information related to an item (specific item) or product to the camera image 20, or changing at least part of the camera image 20 to reflect information related to the item (specific item) or product. Through this, augmented reality graphics processing can be performed.

본 발명에서는, 사용자 단말기에서 라이브 방송의 방송 영상이 제공되고 있는 상태에서, 카메라로부터 수신된 카메라 영상에, 라이브 방송에서 판매하는 상품과 관련된 증강 현실 그래픽 처리를 수행하여, 증강 현실 그래픽 처리된 카메라 영상을 제공함으로써, 라이브 방송 시청과 상품 체험(테스트)이 동시에 가능한 라이브 방송 제공 방법을 제공할 수 있다. In the present invention, while a broadcast image of a live broadcast is being provided to a user terminal, augmented reality graphics processing related to products sold in the live broadcast is performed on the camera image received from the camera, and the camera image is processed with augmented reality graphics. By providing, it is possible to provide a method of providing live broadcasting that allows viewing live broadcasting and product experience (testing) at the same time.

여기에서, “카메라 영상(20)”은, 카메라를 통해 촬영된 사진(또는 이미지), 동영상 및 프리뷰(preview) 화면 중 적어도 하나를 포함할 수 있다. 즉, 본 발명에서는 카메라를 통해 수신된 사진(또는 이미지), 동영상 및 프리뷰 화면 중 적어도 하나에 증강 현실 그래픽 처리를 수행할 수 있다. 다만, 이하에서는 이들을 구분하지 않고 모두 카메라 영상(20)으로 표현하여 설명하도록 한다. 도 1은 본 발명에 따른 라이브 방송을 설명하기 위한 개념도이다. Here, the “camera image 20” may include at least one of a photo (or image), a video, and a preview screen captured through a camera. That is, in the present invention, augmented reality graphic processing can be performed on at least one of a photo (or image), video, and preview screen received through a camera. However, in the following, they will not be distinguished and all will be explained by expressing them as camera images 20. 1 is a conceptual diagram for explaining live broadcasting according to the present invention.

도 1에 도시된 것과 같이, 본 발명에 따른 라이브 방송 제공 시스템(100)은, 사용자 단말기(200)의 디스플레이부 상에 라이브 방송의 방송 영상(10)을 제공할 수 있다. As shown in FIG. 1, the live broadcast providing system 100 according to the present invention can provide a broadcast image 10 of a live broadcast on the display unit of the user terminal 200.

이러한 라이브 방송의 방송 영상(10)은, 상품 판매와 관련된 판매자(또는 판매자에 해당하는 사용자) 측의 사용자 단말기를 통해 촬영되어, 상품 구매와 관련된 소비자(또는 소비자에 해당하는 사용자) 측의 사용자 단말기에 제공(또는 출력)될 수 있다. The broadcast video 10 of this live broadcast is filmed through the user terminal of the seller (or user corresponding to the seller) involved in selling the product, and is transmitted through the user terminal of the consumer (or user corresponding to the consumer) involved in purchasing the product. It can be provided (or output) to .

본 발명에서는 용어의 혼동을 피하기 위하여, 상품 판매와 관련된 사용자를 “판매자” 또는 “(라이브 방송)진행자”로 명명하고, 판매자 측에서 사용되는 사용자 단말기를, “판매자 단말기(또는 판매자 측 단말기)”, “진행자 단말기”, “라이브 방송 진행 단말기”, “라이브 커머스 진행 단말기”, “판매 관련 단말기” 등으로 명명할 수 있다. In the present invention, in order to avoid confusion in terminology, the user involved in product sales is named “seller” or “(live broadcast) host”, and the user terminal used by the seller is called “seller terminal (or seller’s terminal).” , “Host terminal”, “Live broadcasting progress terminal”, “Live commerce progress terminal”, “Sales related terminal”, etc.

또한, 상품 구매와 관련된 사용자를 “소비자”, “구매자” 또는 “시청자”로 명명하고, 소비자 측에서 사용되는 사용자 단말기를, “소비자 단말기(또는 소비자 측 단말기)”, “구매자 단말기”, “시청자 단말기” 등으로 명명할 수 있다.In addition, users involved in purchasing products are named “consumers,” “buyers,” or “viewers,” and user terminals used on the consumer side are called “consumer terminals (or consumer terminals),” “buyer terminals,” and “viewers.” It can be named “Terminal”, etc.

계속해서 도 1에 도시된 것과 같이, 방송 영상(10)은, 상기 방송 영상(10) 과 연계된 다양한 연관 정보 및 연관 그래픽 객체(11a 내지 11f)와 함께 사용자 단말기(200)의 디스플레이부 상에 제공(또는 출력)될 수 있다. As shown in FIG. 1, the broadcast image 10 is displayed on the display unit of the user terminal 200 along with various related information and related graphic objects 11a to 11f associated with the broadcast image 10. It may be provided (or printed).

본 발명에서, 방송 영상(10)과 연관 정보 및 연관 그래픽 객체(11a 내지 11f)가 함께 제공(또는 출력)된다는 것은, 방송 영상(10)의 적어도 일 영역에 연관 정보 및 연관 그래픽 객체(11a 내지 11f)가 오버랩(overlap) 또는 중첩되어 제공(또는 출력)되는 것으로 이해될 수 있다. In the present invention, providing (or outputting) the broadcast video 10 and the related information and the related graphic objects 11a to 11f together means that the related information and the related graphic objects 11a to 11f are provided in at least one area of the broadcast video 10. 11f) may be understood as being overlapped or provided (or output) in an overlapping manner.

방송 영상(10)에 오버랩되는 연관 정보 및 연관 그래픽 객체(11a 내지 11f)는, i) 판매자에 의해 미리 입력된 정보(ex: 라이브 방송 타이틀(title) 정보(11a), 상품 정보(11b), 증강 현실 서비스를 위한 증강 현실 기능 아이콘(또는 그래픽 객체, 11c), ii) 라이브 방송과 관련된 다양한 아이콘(11d, 11e), ii) 판매자 및 소비자(또는 복수의 소비자) 중 적어도 하나에 의해 입력된 채팅(Chatting) 정보(11f) 중 적어도 하나를 포함할 수 있다. The related information and related graphic objects 11a to 11f overlapping with the broadcast video 10 include i) information pre-entered by the seller (ex: live broadcast title information 11a, product information 11b, Augmented reality function icon (or graphic object, 11c) for augmented reality service, ii) various icons (11d, 11e) related to live broadcast, ii) chat input by at least one of the seller and the consumer (or a plurality of consumers) (Chatting) may include at least one of the information (11f).

한편, 본 발명에 따른, 라이브 방송 제공 방법은, 애플리케이션(application) 또는 소프트웨어(software)의 형태로 구현되는 시스템에 의하여 일련의 과정이 수행될 수 있다(이하에서는, 애플리케이션과 소프트웨어의 용어를 구분하지 않고, 통일하여 애플리케이션이라고 명명한다). 즉, 본 발명에 따른, 라이브 방송 제공 시스템(100)은, “라이브 방송 제공 애플리케이션”, “라이브 커머스 애플리케이션”, “쇼핑 라이브(Shopping Live) 애플리케이션” 이라고도 명명될 수 있다. Meanwhile, in the method of providing live broadcasting according to the present invention, a series of processes may be performed by a system implemented in the form of an application or software (hereinafter, the terms application and software will not be distinguished). (unified and named application). That is, the live broadcast providing system 100 according to the present invention may also be called a “live broadcast providing application,” “live commerce application,” or “shopping live application.”

이하에서는, 첨부된 도면과 함께, 본발명에 따른 라이브 방송 제공 시스템에 대하여, 보다 구체적으로 살펴본다. 도 2는 본 발명에 따른 라이브 방송 제공 시스템을 설명하기 위한 개념도이다. Below, we will look at the live broadcasting provision system according to the present invention in more detail along with the attached drawings. Figure 2 is a conceptual diagram for explaining a live broadcasting provision system according to the present invention.

도 2에 도시된 것과 같이, 본 발명에 따른 라이브 방송 제공 시스템(100)은, 라이브 방송 서버(300)로부터 방송 영상을 수신하고, 이를 사용자 단말기(200) 상에 제공할 수 있다. 나아가, 라이브 방송 영상은, 판매자 단말기에서 다이렉트로 사용자 단말기(200)로 제공되는 것 또한 가능하다.As shown in FIG. 2, the live broadcasting providing system 100 according to the present invention can receive broadcasting video from the live broadcasting server 300 and provide it on the user terminal 200. Furthermore, it is also possible for the live broadcast video to be provided directly from the seller terminal to the user terminal 200.

라이브 방송 서버(300)는, 라이브 방송 스트리밍(streaming) 서비스를 제공하는 서버로, 특정 사용자 단말기로부터 방송 영상을 수신하고, 수신한 방송 영상을 본 발명에 따른 라이브 방송 시스템(100)에 제공할 수 있다. The live broadcast server 300 is a server that provides a live broadcast streaming service, and can receive broadcast video from a specific user terminal and provide the received broadcast video to the live broadcast system 100 according to the present invention. there is.

특히, 본 발명에 따른 라이브 방송 서버(300)는, 쇼핑 서비스와 연계되어 라이브 방송 스트리밍 서비스를 제공할 수 있다. 이 경우, 특정 사용자 단말기는 판매자 단말기에 해당하고, 라이브 방송 제공 시스템(100)은, 소비자 단말기에서 구현되는 라이브 방송 제공 애플리케이션일 수 있다. In particular, the live broadcast server 300 according to the present invention can provide a live broadcast streaming service in conjunction with a shopping service. In this case, the specific user terminal corresponds to the seller terminal, and the live broadcast providing system 100 may be a live broadcast providing application implemented in the consumer terminal.

이에, 본 발명에 따른 라이브 방송 서버(300)는, “서버”, “방송 서버”, “라이브 서버”, “라이브 커머스 서버”, “커머스 서버” 등으로 혼용되어 명명될 수 있다. Accordingly, the live broadcast server 300 according to the present invention may be interchangeably named as “server”, “broadcast server”, “live server”, “live commerce server”, “commerce server”, etc.

나아가, 라이브 방송 서버(300)는, 방송 영상과 관련된 i) 방송 정보, ii) 아이템 정보, iii) 채팅 정보 및 vi) 기능 아이콘(또는 그래픽 객체) 중 적어도 하나를 본 발명에 라이브 방송 제공 시스템(100)에 제공할 수 있다. Furthermore, the live broadcast server 300 provides at least one of i) broadcast information, ii) item information, iii) chat information, and vi) function icons (or graphic objects) related to the broadcast video. The live broadcast providing system according to the present invention ( 100).

여기에서, 아이템 정보는 아이템에 대한 정보로서, 아이템은, 라이브 방송을 통해 판매 또는 광고(홍보)의 대상이 되는 상품을 의미할 수 있다. Here, item information is information about an item, and an item may mean a product that is subject to sale or advertisement (promotion) through live broadcasting.

방송 정보는, 특정 방송 영상과 관련된 다양한 정보일 수 있다. 예를 들어, 방송 정보는, 특정 방송 영상의 타이틀(title) 정보(ex: “월간선물샵 8회: 블랙프라이데이 특집”), 진행자 정보(“바비 코스메틱”), 시청자 정보(ex: “331,425 시청중”), 방송 타입 정보(ex: 라이브) 등을 포함할 수 있다. Broadcast information may be various information related to a specific broadcast video. For example, broadcast information includes title information of a specific broadcast video (ex: “Monthly Gift Shop Episode 8: Black Friday Special”), host information (“Barbie Cosmetics”), viewer information (ex: “331,425 views”) may include broadcast type information (ex: live), etc.

아이템 정보는, 특정 방송과 연계된 적어도 하나의 아이템과 관련된 다양한 정보일 수 있다. 예를 들어, 아이템 정보는, 특정 방송 영상의 라이브 방송에서 판매 또는 소개하는 아이템의 썸네일 이미지, 아이템 명칭 정보, 아이템의 상세 정보, 아이템 가격 정보 등을 포함할 수 있다. Item information may be various information related to at least one item associated with a specific broadcast. For example, item information may include a thumbnail image of an item sold or introduced in a live broadcast of a specific broadcast video, item name information, detailed item information, item price information, etc.

채팅 정보는, 판매자 단말기 및 다수의 소비자 단말기에 의해, 특정 방송 영상의 라이브 방송과 실시간으로 교환되는 메시지로 이해될 수 있다. Chat information can be understood as messages exchanged in real time with the live broadcast of a specific broadcast video by a seller terminal and a plurality of consumer terminals.

기능 아이콘(또는 그래픽 객체)는, 특정 방송 영상 및 쇼핑 서비스와 관련된 다양한 기능과 연계된 아이콘(그래픽 객체)일 수 있다. A function icon (or graphic object) may be an icon (graphic object) associated with various functions related to a specific broadcast video or shopping service.

상기 방송 정보, 아이템 정보, 채팅 정보 및 기능 아이콘(또는 그래픽 객체)는, 특정 방송 영상과 관련된 판매자 단말기로부터 수신된 정보 및 라이브 방송 서버(300)의 저장된 정보 중 적어도 하나에 근거하여, 본 발명에 따른 라이브 제공 시스템(100)에 제공될 수 있다. The broadcast information, item information, chat information, and function icons (or graphic objects) are based on the present invention based on at least one of information received from a seller terminal related to a specific broadcast video and information stored in the live broadcast server 300. It may be provided to the live provision system 100 according to the following.

라이브 방송 서버(300)에 저장된 정보는, 라이브 방송 서버(300)의 관리자에 의해 입력된 정보일 수 있다.Information stored in the live broadcasting server 300 may be information input by an administrator of the live broadcasting server 300.

이처럼, 본 발명에 따른 라이브 방송 서버(300)는, 쇼핑 서비스와 연계된 라이브 방송 스트리밍 서비스를 제공하기 위하여, 라이브 방송의 방송 영상과 관련된 다양한 정보를 함께 제공할 수 있다. In this way, the live broadcast server 300 according to the present invention can provide various information related to the broadcast video of the live broadcast in order to provide a live broadcast streaming service linked to a shopping service.

한편, 본 발명에 라이브 방송 제공 시스템(100)은, 도 2에 도시된 것과 같이, 애플리케이션의 형태로 사용자 단말기(200)에 설치되어, 라이브 방송의 방송 영상과 함께 증강 현실 서비스를 제공하는 과정을 수행할 수 있다. 이러한, 애플리케이션은, 사용자 단말기(200)상에서의 사용자의 요청에 의하여 사용자 단말기(200) 상에 설치될 수 있으며, 또는 사용자 단말기(200) 출고 당시, 사용자 단말기(200)에 설치되어 존재할 수 있다. 이와 같은, 라이브 방송 제공 시스템을 구현하는 애플리케이션은, 데이터 통신을 통하여, 외부 데이터(data) 저장소(또는 외부 서버(server))로부터 다운로드(download)되어, 사용자 단말기(200) 상에 설치될 수 있다. 그리고, 사용자 단말기(200) 상에서, 본 발명에 따른 라이브 방송 제공 시스템이 구현된 애플리케이션이 실행되는 경우, 라이브 방송의 방송 영상과 함께 증강 현실 서비스를 제공하기 위한 일련의 과정이 진행될 수 있다. Meanwhile, in the present invention, the live broadcast providing system 100 is installed in the user terminal 200 in the form of an application, as shown in FIG. 2, and performs a process of providing an augmented reality service along with broadcast images of a live broadcast. It can be done. This application may be installed on the user terminal 200 at the request of the user on the user terminal 200, or may exist installed on the user terminal 200 at the time the user terminal 200 is shipped. An application implementing such a live broadcasting provision system may be downloaded from an external data storage (or external server) through data communication and installed on the user terminal 200. . And, when an application implementing the live broadcast providing system according to the present invention is executed on the user terminal 200, a series of processes for providing an augmented reality service along with broadcast images of the live broadcast may proceed.

본 발명에서 언급되는 사용자 단말기(200)는, 본 발명에 따른 라이브 방송 제공 시스템(100)이 동작가능한 전자기기이면 되며, 그 종류에 특별한 제한을 두지 않는다. 예를 들어, 사용자 단말기(200)는, 휴대폰, 스마트 폰(smart phone), 노트북 컴퓨터(notebook computer), 휴대용 컴퓨터(laptop computer), 슬레이트 PC(slate PC), 태블릿 PC(tablet PC), 울트라북(ultrabook), 데스크톱 컴퓨터(desktop computer), 디지털방송용 단말기, PDA(personal digital assistants), PMP(portable multimedia player), 네비게이션, 웨어러블 디바이스(wearable device, 예를 들어, 워치형 단말기 (smartwatch), 글래스형 단말기 (smart glass), HMD(head mounted display)) 등이 포함될 수 있다. The user terminal 200 referred to in the present invention may be any electronic device capable of operating the live broadcasting provision system 100 according to the present invention, and there is no particular limitation on its type. For example, the user terminal 200 is a mobile phone, a smart phone, a laptop computer, a laptop computer, a slate PC, a tablet PC, and an ultrabook. (ultrabook), desktop computer, digital broadcasting terminal, PDA (personal digital assistants), PMP (portable multimedia player), navigation, wearable device (e.g., smartwatch), glass type Terminals (smart glass), HMD (head mounted display), etc. may be included.

한편, 이와 같이, 애플리케이션의 형태로 구현될 수 있는 본 발명에 따른 라이브 방송 제공 시스템(100)은, 통신부(110), 저장부(120) 및 제어부(130) 중 적어도 하나를 포함할 수 있다. 위의 구성요소들은, 소프트웨어적인 구성요소로서, 사용자 단말기(200)의 하드웨어적인 구성요소와 연동하여 기능을 수행할 수 있다.Meanwhile, the live broadcast providing system 100 according to the present invention, which can be implemented in the form of an application, may include at least one of a communication unit 110, a storage unit 120, and a control unit 130. The above components are software components and can perform functions in conjunction with hardware components of the user terminal 200.

예를 들어, 통신부(110)는, 사용자 단말기(200)에 구비된 통신 모듈(예를 들어, 이동통신 모듈, 근거리 통신 모듈, 무선 인터넷 모듈, 위치정보 모듈, 방송 수신 모듈 등)의 구성을 이용하여, 본 발명과 관련된 정보(또는 데이터)를 적어도 하나의 외부기기(또는 라이브 방송 서버, 100 a)와 송수신 하는 역할을 수행할 수 있다.For example, the communication unit 110 uses the configuration of communication modules (e.g., mobile communication module, short-range communication module, wireless Internet module, location information module, broadcast reception module, etc.) provided in the user terminal 200. Thus, it can perform the role of transmitting and receiving information (or data) related to the present invention with at least one external device (or live broadcast server, 100a).

또한, 저장부(120)는 사용자 단말기(200)에 구비된 메모리 및 외부 저장소(또는 외부 서버,100a) 중 적어도 하나를 이용하여, 라이브 방송 제공 및 증강 현실 서비스 제공과 관련된 정보를 저장하거나, 시스템과 관련된 정보, 또는 명령들을 저장할 수 있다. In addition, the storage unit 120 uses at least one of the memory provided in the user terminal 200 and an external storage (or external server 100a) to store information related to providing live broadcasting and augmented reality services, or to store information related to providing live broadcasting and augmented reality services. Information or commands related to can be stored.

본 발명에서 저장부(120)에 “저장된다”고 함은, 물리적으로는, 사용자 단말기(200)의 메모리 또는 외부 저장소(또는 외부 서버, 100a)에 정보가 저장됨을 의미할 수 있다. In the present invention, “stored” in the storage unit 120 may mean that information is physically stored in the memory of the user terminal 200 or in an external storage (or external server, 100a).

한편, 본 발명에 대응되는 애플리케이션이 사용자 단말기(200)에서 삭제되는 경우, 저장부(120)에 저장된 정보 또한, 사용자 단말기(200)에서 삭제될 수 있다. 또한, 외부 저장소(100a)는, 클라우드(cloud) 방식의 저장소일 수 있다.Meanwhile, when the application corresponding to the present invention is deleted from the user terminal 200, information stored in the storage unit 120 may also be deleted from the user terminal 200. Additionally, the external storage 100a may be a cloud-type storage.

본 발명에서는 사용자 단말기(200)의 메모리와 외부 저장소(또는 외부 서버, 100a)를 구분하지 않고, 모두 저장부(120)를 표현하여 설명하도록 한다. In the present invention, the memory of the user terminal 200 and the external storage (or external server, 100a) are not distinguished, and both are described by referring to the storage unit 120.

한편, 제어부(130)는 사용자 단말기(200)에 구비된 CPU(Central Processing Unit)를 이용하여, 본 발명을 수행하기 위한 전반적인 제어를 수행할 수 있다. 위에서 살펴본 구성요소들은 제어부(130)의 제어 하에 동작할 수 있으며, 제어부(130)는 사용자 단말기(200)의 물리적인 구성요소들에 대한 제어를 수행할 수 있음은 물론이다.Meanwhile, the control unit 130 can perform overall control for carrying out the present invention using a CPU (Central Processing Unit) provided in the user terminal 200. The components examined above can operate under the control of the control unit 130, and of course, the control unit 130 can control the physical components of the user terminal 200.

예를 들어, 제어부(130)는, 사용자 단말기(200)에 구비된 디스플레이부(210)를 통해 라이브 방송의 방송 영상이 출력되도록 제어를 수행할 수 있다. 또한, 제어부(130)는, 사용자 단말기(200)에 구비된 카메라(220)를 통해, 영상 또는 사진(또는 이미지, image)의 촬영을 제어를 수행할 수 있다. 또한, 제어부(130)는, 사용자 단말기(200)의 입력부(미도시)를 통해 사용자로부터 정보를 입력 받을 수 있다. For example, the control unit 130 may control the broadcast image of a live broadcast to be output through the display unit 210 provided in the user terminal 200. Additionally, the control unit 130 may control the taking of a video or photo (or image) through the camera 220 provided in the user terminal 200. Additionally, the control unit 130 may receive information from the user through an input unit (not shown) of the user terminal 200.

사용자 단말기(200)에 구비된 디스플레이부(210), 카메라(220) 및 입력부(미도시)의 그 종류에는 특별한 제한이 없다. 예를 들어, 입력부(미도시)는 기계식 (mechanical) 입력수단(또는, 메커니컬 키, 예를 들어, 마우스(mouse), 조이스틱(joy stic), 물리적인 버튼, 돔 스위치 (dome switch), 조그 휠, 조그 스위치 등) 및 터치식 입력수단 중 적어도 하나를 포함할 수 있다. 일 예로서, 터치식 입력수단은, 소프트웨어적인 처리를 통해 터치스크린에 표시되는 가상 키(virtual key), 소프트 키(soft key) 또는 비주얼 키(visual key)로 이루어지거나, 터치스크린 이외의 부분에 배치되는 터치 키(touch key)로 이루어질 수 있다.There is no particular limitation on the types of display unit 210, camera 220, and input unit (not shown) provided in the user terminal 200. For example, the input unit (not shown) may be a mechanical input means (or mechanical key, for example, mouse, joystick, physical button, dome switch, jog wheel). , jog switch, etc.) and a touch input means. As an example, the touch input means consists of a virtual key, soft key, or visual key displayed on the touch screen through software processing, or on a part other than the touch screen. It can be done with a touch key placed.

한편, 상기 가상키 또는 비주얼 키는, 다양한 형태를 가지면서 터치스크린 상에 표시되는 것이 가능하며, 예를 들어, 그래픽(graphic), 텍스트(text), 아이콘(icon), 비디오(video) 또는 이들의 조합으로 이루어질 수 있다. 이때, 입력부(미도시)가 터치 스크린을 포함하는 경우, 사용자 단말기(200)의 디스플레이부(110)는 터치 스크린으로 이루어 질 수 있으며, 정보를 출력하는 역할과, 정보를 입력받는 역할을 모두 수행할 수 있다.Meanwhile, the virtual key or visual key can be displayed on the touch screen in various forms, for example, graphic, text, icon, video or these. It can be made up of a combination of . At this time, when the input unit (not shown) includes a touch screen, the display unit 110 of the user terminal 200 may be made of a touch screen and performs both the role of outputting information and the role of receiving information. can do.

나아가, 제어부(130)는, 사용자 단말기의 디스플레이부(210)를 통해 라이브 방송의 방송 영상을 제공하고 있는 상태에서, 사용자로부터 라이브 방송과 관련된 증강 현실 기능에 대한 활성화 요청을 수신할 수 있다. 사용자의 증강 현실 기능에 대한 활성화 요청에 응답하여, 제어부(130)는 사용자 단말기에 구비된 카메라(220)로부터 수신되는 카메라 영상(20)에 대해, 라이브 방송에 연계된 아이템과 관련된 그래픽 처리를 수행할 수 있다. 그리고, 제어부(130)는, 방송 영상과 함께 증강 현실 그래픽 처리가 수행된 카메라 영상(20)을 사용자 단말기의 디스플레이부(210)에 표시할 수 있다. 이를 통해, 사용자는 라이브 방송의 방송 영상을 시청하면서, 동시에 라이브 방송에서 판매하는 아이템을 체험(또는 경험, 테스트)할 수 있다. 이하에서는, 사용자가 라이브 방송의 방송 영상을 시청하면서, 라이브 방송에 연계된 아이템을 체험 또는 테스트할 수 있도록, 본 발명에 따른 라이브 방송 제공 시스템(100a)에서, 라이브 방송 서비스 및 증강 현실 서비스를 동시에 제공하는 방법에 대해 보다 구체적으로 설명하도록 한다. Furthermore, the control unit 130 may receive a request for activation of an augmented reality function related to the live broadcast from the user while the broadcast image of the live broadcast is being provided through the display unit 210 of the user terminal. In response to the user's request to activate the augmented reality function, the control unit 130 performs graphics processing related to items related to the live broadcast on the camera image 20 received from the camera 220 provided in the user terminal. can do. Additionally, the control unit 130 may display the camera image 20 on which augmented reality graphic processing has been performed along with the broadcast image on the display unit 210 of the user terminal. Through this, users can watch the broadcast video of the live broadcast and at the same time experience (or experience, test) the items sold in the live broadcast. Hereinafter, the live broadcast service and the augmented reality service are simultaneously provided in the live broadcast providing system 100a according to the present invention so that the user can experience or test items related to the live broadcast while watching the broadcast video of the live broadcast. Let us explain in more detail how to provide it.

도 3은 본 발명에 따른 라이브 방송 제공 방법을 설명하기 위한 흐름도이고, 도 4a및 도 4b는 본 발명에 따른 라이브 방송 제공 방법에서, 증강 현실 기능의 활성화를 설명하기 위한 개념도이다. 나아가, 도 5는 본 발명에 따른 라이브 방송을 통해 제공되는 방송 영상을 설명하기 위한 개념도이며, 도 6은 본 발명에서 증강 현실 기능을 통해 제공되는 카메라 영상을 설명하기 위한 개념도이다. FIG. 3 is a flowchart for explaining a method for providing live broadcasting according to the present invention, and FIGS. 4A and 4B are conceptual diagrams for explaining activation of an augmented reality function in the method for providing live broadcasting according to the present invention. Furthermore, FIG. 5 is a conceptual diagram for explaining a broadcast image provided through a live broadcast according to the present invention, and FIG. 6 is a conceptual diagram for explaining a camera image provided through an augmented reality function in the present invention.

나아가, 도 7은 본 발명에 따른 상품 DB를 설명하기 위한 개념도이고, 도 8, 도 9 및 도 10은 본 발명에서 판매자 단말기에 제공되는 사용자 환경을 설명하기 위한 개념도들이다. 도 11 및 도 12는 본 발명에서 추가 아이템 정보를 제공하는 방법을 설명하기 위한 개념도들이고, 도 13 내지 도 15는 본 발명과 관련된 증강 현실 서비스를 설명하기 위한 개념도들이다.Furthermore, Figure 7 is a conceptual diagram for explaining the product DB according to the present invention, and Figures 8, 9, and 10 are conceptual diagrams for explaining the user environment provided to the seller terminal in the present invention. FIGS. 11 and 12 are conceptual diagrams for explaining a method of providing additional item information in the present invention, and FIGS. 13 to 15 are conceptual diagrams for explaining an augmented reality service related to the present invention.

본 발명에 따른 라이브 방송 제공 방법에서는, 라이브 방송 서버(300)로부터, 라이브 방송의 방송 영상을 수신하는 과정이 진행될 수 있다(S310, 도 3 참조).In the method for providing live broadcasting according to the present invention, a process of receiving broadcast video of a live broadcast may be performed from the live broadcast server 300 (S310, see FIG. 3).

라이브 방송의 방송 영상의 수신은, 사용자 단말기(200)에서 이루어질 수 있다.Reception of broadcast video of a live broadcast may be performed in the user terminal 200.

앞서 설명한 것과 같이, 라이브 방송 서버(300)는, 판매자 단말기로부터 라이브 방송의 방송 영상을 수신하고, 이를 본 발명에 따른 라이브 방송 제공 시스템(100)에 제공할 수 있다. As described above, the live broadcast server 300 can receive broadcast video of a live broadcast from a seller terminal and provide it to the live broadcast providing system 100 according to the present invention.

통신부(110)는, 라이브 방송 제공 서버(300)에서 실시간으로 진행하는 라이브 방송의 방송 영상을, 라이브 방송 제공 서버(300)로부터 스트리밍(Streaming) 기법으로 수신할 수 있다. The communication unit 110 may receive broadcast video of a live broadcast conducted in real time from the live broadcast providing server 300 using a streaming technique.

즉, 제어부(130)는, 통신부(110)가 라이브 방송이 진행되는 동안에, 방송 영상을 계속해서 수신하도록 통신부(110)를 제어할 수 있다. That is, the control unit 130 can control the communication unit 110 so that the communication unit 110 continues to receive broadcast images while a live broadcast is in progress.

다음으로, 본 발명에 따른 라이브 방송 제공 방법에서는, 라이브 방송 서버(300)로부터 방송 영상을 수신한 것에 근거하여, 사용자 단말기(200)의 디스플레이부(210) 상에 수신한 방송 영상(10)을 제공할 수 있다(S320, 도 3 참조).Next, in the method for providing live broadcasting according to the present invention, based on receiving the broadcast image from the live broadcast server 300, the received broadcast image 10 is displayed on the display unit 210 of the user terminal 200. It can be provided (S320, see FIG. 3).

도 4a의 (a)에 도시된 것과 같이, 제어부(130)는, 수신한 방송 영상(10)이 사용자 단말기(200)의 디스플레이부를 통해 제공(재생 또는 출력 또는 표시)되도록, 디스플레이부(210)를 제어할 수 있다. As shown in (a) of FIG. 4A, the control unit 130 operates the display unit 210 so that the received broadcast video 10 is provided (played, output, or displayed) through the display unit of the user terminal 200. can be controlled.

이와 같이, 제어부(130)는 방송 영상(10)이 사용자 단말기(200)의 디스플레이부를 통해 제공(재생 또는 출력 또는 표시)되도록, 사용자 단말기(200)의 디스플레이부를 제어하는 제1 데이터 처리를 수행할 수 있다. 이러한 제1 데이터 처리는, 후술하는 증강 현실 서비스와 관련된 제2 데이터 처리와 동시에 수행될 수 있다. In this way, the control unit 130 performs first data processing to control the display unit of the user terminal 200 so that the broadcast image 10 is provided (played, output, or displayed) through the display unit of the user terminal 200. You can. This first data processing may be performed simultaneously with second data processing related to the augmented reality service described later.

한편, 디스플레이부에서 제공되는 방송 영상(10)는 사용자가 선택한 방송 채널에 해당하는 방송 영상(10)일 수 있다. Meanwhile, the broadcast image 10 provided from the display unit may be a broadcast image 10 corresponding to a broadcast channel selected by the user.

다음으로, 본 발명에 따른 라이브 방송 제공 방법에서는, 사용자 단말기(200)의 디스플레이부 상에 방송 영상(10)이 제공되고 있는 상태에서, 사용자 단말기(200)로부터 라이브 방송과 관련된 증강 현실 기능에 대한 활성화 요청을 수신하는 과정이 진행될 수 있다(S330, 도 3 참조).Next, in the method for providing live broadcasting according to the present invention, while the broadcast image 10 is being provided on the display unit of the user terminal 200, the augmented reality function related to the live broadcast is received from the user terminal 200. The process of receiving an activation request may proceed (S330, see FIG. 3).

증강 현실 기능에 대한 활성화 요청은, 앞서 살펴본 것과 같이, 사용자 단말기(200)로부터 아이콘(410)이 선택되는 것에 근거하여 수신될 수 있다. As discussed above, a request to activate the augmented reality function may be received based on the icon 410 being selected from the user terminal 200.

상기 아이콘(410)이 선택되면, 제어부(130)는, 방송 영상의 라이브 방송에서 판매하는 아이템과 연계된 증강 현실 기능에 대한 활성화 기능 요청이 있는 것으로 판단할 수 있다. When the icon 410 is selected, the control unit 130 may determine that there is a request for an activation function for an augmented reality function associated with an item sold in a live broadcast of a broadcast video.

도 4a의 (a)에 도시된 것과 같이, 제어부(130)는, 사용자 단말기(200)의 디스플레이부 상에 방송 영상(10)이 제공되고 있는 상태에서, 디스플레이부의 일 영역에, 증강 현실 기능에 링크된 아이콘(410)이 표시되도록 제어할 수 있다. As shown in (a) of FIG. 4A, the control unit 130 activates the augmented reality function in one area of the display unit while the broadcast image 10 is being provided on the display unit of the user terminal 200. The linked icon 410 can be controlled to be displayed.

제어부(130)는, 실시간으로 재생되는 방송 영상(10) 상에, 증강 현실 기능에 링크된 아이콘(410)이 오버랩(overlab)되어 표시되도록, 사용자 단말기(200)의 디스플레이부를 제어할 수 있다. The control unit 130 may control the display unit of the user terminal 200 so that the icon 410 linked to the augmented reality function is displayed in an overlapping manner on the broadcast video 10 played in real time.

상기 아이콘(410)은, 상기 아이콘(410)과 함께 제공되는 방송 영상의 라이브 방송에서 판매(또는 소개)하는 아이템에 연계된 증강 현실 기능에 링크되어 있을 수 있다. The icon 410 may be linked to an augmented reality function linked to an item sold (or introduced) in a live broadcast of a broadcast video provided with the icon 410.

상기 아이콘(410)이 선택되면, 사용자 단말기에는, 현재 방송 영상에서 소개되고 있는 아이템에 대한 증강 현실 기능이 제공될 수 있다. When the icon 410 is selected, an augmented reality function for the item currently being introduced in the broadcast video may be provided to the user terminal.

본 발명에서, 증강 현실 기능은, 방송 영상에서 소개되고 있는 아이템에 따라, 해당 아이템에 연계되는 증강 현실 기능을 제공할 수 있다.In the present invention, the augmented reality function can provide an augmented reality function linked to the item according to the item being introduced in the broadcast video.

일 예로, 라이브 방송에서 제1 아이템(ex: “립스틱”)을 판매하는 경우, 방송 영상에는 제1 아이템의 아이템 정보(또는 상품 정보)가 제공될 수 있고, 이 경우, 제1 아이템을 판매하는 라이브 방송의 방송 영상과 함께 표시되는 아이콘(410)에는, 제1 아이템에 연계된 증강 현실 기능이 링크되어 있을 수 있다. As an example, when selling the first item (ex: “lipstick”) in a live broadcast, item information (or product information) of the first item may be provided in the broadcast video, and in this case, the person selling the first item The icon 410 displayed together with the broadcast image of the live broadcast may be linked to an augmented reality function linked to the first item.

방송 영상에서 소개되고 있는 아이템의 특정은, 도 4a에 도시된 것과 같이, 방송 영상(10)과 함께 표시되고 있는 아이템 정보(430)에 근거하여 이루어질 수 있다.Specification of the item being introduced in the broadcast video can be made based on item information 430 displayed together with the broadcast video 10, as shown in FIG. 4A.

즉, 제어부(130)는 방송 영상(10)에서 제공되는 아이템 정보(430)에 따라, 아이템 정보(430)에 대응되는 증강 현실 기능을 제공할 수 있다. 예를 들어, 라이브 방송에서 제2 아이템(ex: “파운데이션”)을 판매하는 경우, 제1 아이템의 아이템 정보(또는 상품 정보)가 제공될 수 있고, 이 경우 제2 아이템을 판매하는 라이브 방송의 방송 영상(10)과 함께 표시되는 아이콘(410)에는, 제2 아이템에 연계된 증강 현실 기능이 링크되어 있을 수 있다. That is, the control unit 130 may provide an augmented reality function corresponding to the item information 430 according to the item information 430 provided in the broadcast video 10. For example, when selling a second item (ex: “foundation”) in a live broadcast, item information (or product information) of the first item may be provided, and in this case, the live broadcast selling the second item may be provided. The icon 410 displayed together with the broadcast image 10 may be linked to an augmented reality function linked to the second item.

한편, 방송 영상(10)에는 상기 아이템 정보(430)가 제공되는 영역이 특정되어 존재하며, 상기 아이템 정보(430)가 제공되기로 특정된 특정 영역에, 어느 아이템에 대한 아이템 정보가 제공되었는지에 따라, 서로 다른 증강 현실 그래픽 처리를 수행할 수 있다. 이와 같이, 제어부(130)는, 사용자 단말기(200)의 디스플레이부 상에 제공되는 방송 영상(10)이, 제1 아이템을 판매하는 방송 영상에서 제2 아이템을 판매하는 방송 영상을 변경되는 것에 근거하여, 사용자 단말기(200)의 디스플레이부 상의 아이콘(410)이 선택되었을 때, 제2 아이템에 연계된 증강 현실 그래픽 처리를 수행할 수 있다.Meanwhile, in the broadcast video 10, there is a specified area where the item information 430 is provided, and the item information for which item is provided in the specific area where the item information 430 is specified to be provided. Accordingly, different augmented reality graphics processing can be performed. In this way, the control unit 130 is based on the fact that the broadcast image 10 provided on the display unit of the user terminal 200 changes from a broadcast image selling the first item to a broadcast image selling the second item. Thus, when the icon 410 on the display unit of the user terminal 200 is selected, augmented reality graphic processing linked to the second item can be performed.

즉, 제어부(130)는 제1 아이템을 판매하는 방송 영상이 출력되고 있는 동안에 상기 아이콘(410)이 선택된 경우, 카메라 영상(20)에 대해 제1 아이템에 연계된 증강 현실 그래픽 처리를 수행하고, 제어부(130)는 제2 아이템을 판매하는 방송 영상이 출력되고 있는 동안에 상기 아이콘(410)이 선택된 경우, 카메라 영상(20)에 대해 제2 아이템에 연계된 증강 현실 그래픽 처리를 수행할 수 있다.That is, when the icon 410 is selected while a broadcast image selling the first item is being output, the control unit 130 performs augmented reality graphic processing linked to the first item on the camera image 20, If the icon 410 is selected while a broadcast image selling the second item is being output, the control unit 130 may perform augmented reality graphic processing linked to the second item on the camera image 20.

한편, 방송 영상에서 어느 아이템에 대한 방송 영상을 출력하고 있는지에 대한 특정은, 방송 영상에 함께 제공되는 아이템 정보가, 어느 아이템에 대한 것인지에 근거하여 결정될 수 있다.Meanwhile, the specification of which item in the broadcast video is being output can be determined based on which item the item information provided with the broadcast video is for.

즉, 앞서 설명한 것과 같이, 아이템 정보가 출력되는 특정 영역에, 어느 아이템에 대한 아이템 정보가 출력되었는지에 따라, 제어부(130)는 카메라 영상에 대해, 상기 특정 영역에서 출력되고 있는 아이템 정보에 대응되는 증강 현실 그래픽 처리를 수행할 수 있다.That is, as described above, depending on which item the item information is output to in the specific area where the item information is output, the control unit 130 determines the camera image corresponding to the item information being output in the specific area. Augmented reality graphics processing can be performed.

한편, 특정 영역에서 출력되고 있는 아이템 정보(430)에 따른 아이템에, 증강 현실 기능이 연계되어 있지 않은 경우, 증강 현실 기능을 활성화하기 위한 상기 아이콘(410)은 출력되지 않을 수 있다.Meanwhile, if the augmented reality function is not linked to the item according to the item information 430 being output in a specific area, the icon 410 for activating the augmented reality function may not be output.

즉, 본 발명에서는, 아이템 마다 증강 현실 기능의 적용 여부가 다를 수 있으며, 제어부(130)는 증강 현실 기능이 연계된 아이템이 방송 영상에서 소개되고 있는 경우에 한하여, 증강 현실 기능 아이콘을 방송 영상에 제공할 수 있다.That is, in the present invention, whether or not the augmented reality function is applied may differ for each item, and the control unit 130 displays an augmented reality function icon in the broadcast video only when an item linked to the augmented reality function is introduced in the broadcast video. can be provided.

이하에서 설명되는 “증강 현실 기능에 대한 활성화 요청”은, 사용자 단말기(200)의 디스플레이부를 통해 제공되는 방송 영상의 라이브 방송에서 판매하는 상품과 관련된 증강 현실 기능에 대한 활성화 요청으로 이해될 수 있다. The “request to activate an augmented reality function” described below can be understood as a request to activate an augmented reality function related to a product sold in a live broadcast of a broadcast video provided through the display unit of the user terminal 200.

또한, 이하에서 설명되는 “증강 현실 기능”은, 사용자 단말기(200)의 디스플레이부를 통해 제공되는 방송 영상의 라이브 방송에서 판매하는 상품과 관련된 증강 현실 기능으로 이해될 수 있다. Additionally, the “augmented reality function” described below can be understood as an augmented reality function related to products sold in a live broadcast of a broadcast video provided through the display unit of the user terminal 200.

한편, 본 발명에 따른 라이브 방송 제공 시스템(100)은, 웹 정보를 화면에 표시하는 소프트웨어(ex: 웹 브라우저(wep-browser), 모바일 브라우저(mobile browser))를 통해, 라이브 방송 서버(300)에서 수신한 방송 영상(10)을 사용자 단말기(200)의 디스플레이부에 제공할 수 있다. Meanwhile, the live broadcasting providing system 100 according to the present invention is a live broadcasting server 300 through software (ex: web browser (wep-browser), mobile browser) that displays web information on the screen. The broadcast video 10 received from can be provided to the display unit of the user terminal 200.

제어부(130)는, 웹 정보를 화면에 표시하는 소프트웨어를 통해 사용자 단말기 (200)의 디스플레이부 상에 방송 영상(10)이 표시되고 있는 상태에서, 사용자 단말기 (200)로부터 라이브 방송과 관련된 증강 현실 기능에 대한 활성화 요청을 수신할 수 있다. The control unit 130 controls the augmented reality related to the live broadcast from the user terminal 200 while the broadcast image 10 is displayed on the display unit of the user terminal 200 through software that displays web information on the screen. You may receive activation requests for features.

이 경우, 도 4b의 (a)에 도시된 것과 같이, 제어부(130)는, 증강 현실 기능에 대한 활성화 요청을 수신한 것에 근거하여, 증강 현실 기능을 제공하는 애플리케이션 또는 소프트웨어(이하, 증강 현실 애플리케이션)의 실행을 안내하는 안내 문구(ex: “AR 메이크업 미리보기를 위해 쇼핑 라이브 앱으로 이동하시겠습니까?”)를 포함하는 팝업 윈도(Pop up Window)를 사용자 단말기(200)의 디스플레이부 상에 표시할 수 있다. In this case, as shown in (a) of FIG. 4B, the control unit 130 is an application or software that provides an augmented reality function (hereinafter referred to as an augmented reality application) based on receiving an activation request for the augmented reality function. ) to display on the display unit of the user terminal 200 a pop-up window containing a guidance phrase (ex: “Do you want to go to the shopping live app to preview AR makeup?”). You can.

제어부(130)는, 상기 안내 문구(440)가 사용자 단말기(200)에 표시되고 있는 상태에서, 사용자 단말기(200)로부터 증강 현실 기능 애플리케이션 실행 요청을 수신하는 것에 근거하여, 증강 현실 기능 애플리케이션을 실행할 수 있다. The control unit 130 executes the augmented reality function application based on receiving an augmented reality function application execution request from the user terminal 200 while the guide text 440 is displayed on the user terminal 200. You can.

또한, 제어부(130)는, 사용자 단말기(200)에 상기 증강 현실 기능 애플리케이션이 설치되어 있지 않는 경우, 상기 증강 현실 기능 애플리케이션의 설치를 유도하기 위하여, 상기 증강 현실 애플리케이션을 설치와 관련된 페이지를 사용자 단말기(200) 상에 제공할 수 있다.In addition, if the augmented reality function application is not installed in the user terminal 200, the control unit 130 displays a page related to installing the augmented reality application to the user terminal to induce installation of the augmented reality function application. (200) can be provided.

다음으로, 본 발명에 따른 라이브 방송 제공 방법에서는, 증강 현실 기능에 대한 활성화 요청에 응답하여, 사용자 단말기(200)에 구비된 카메라로부터 수신되는 카메라 영상(20)에 대해, 라이브 방송에 연계된 아이템과 관련된 증강 현실 그래픽 처리를 수행하는 과정이 진행될 수 있다(S340, 도 3 참조).Next, in the method for providing live broadcasting according to the present invention, in response to a request for activation of the augmented reality function, an item linked to the live broadcast is selected for the camera image 20 received from the camera provided in the user terminal 200. A process of performing augmented reality graphic processing related to may proceed (S340, see FIG. 3).

제어부(130)는, 증강 현실 기능에 대한 활성화 요청이 있는 경우에도, 방송 영상을 제공과 관련된 제1 데이터 처리를 계속적으로 수행하면서, 증강 현실 서비스 제공과 관련된 제2 데이터 처리를 수행할 수 있다. Even when there is a request to activate the augmented reality function, the control unit 130 may continue to perform first data processing related to providing broadcast images and perform second data processing related to providing augmented reality services.

여기에서, 증강 현실 서비스 제공과 관련된 제2 데이터 처리는, 사용자 단말기(200)에 카메라를 활성화하고, 활성화된 카메라로부터 수신한 카메라 영상(20)에 대해 증강 현실 그래픽 처리를 수행하는 것으로 이해될 수 있다. Here, the second data processing related to providing augmented reality service can be understood as activating a camera in the user terminal 200 and performing augmented reality graphic processing on the camera image 20 received from the activated camera. there is.

이때, 제어부(130)는 사용자 단말기(200)에 구비된 카메라에 대한 접근 권한에 근거하여, 사용자 단말기(200)에 구비된 카메라에 대한 접근을 수행할 수 있다.At this time, the control unit 130 may access the camera provided in the user terminal 200 based on the access authority to the camera provided in the user terminal 200.

제어부(130)는, 사용자 단말기(200)에 구비된 카메라의 활성화와 관련된 제어를 수행할 수 있다. 제어부(130)는 카메라 활성화와 관련된 제어를 수행하기 위하여, 본 발명에 따른 라이브 제공 시스템(100)에서 사용자 단말기(200)에 구비된 카메라에 대한 접근 권한을 확인할 수 있다. The control unit 130 may perform control related to activation of a camera provided in the user terminal 200. The control unit 130 may check access rights to the camera provided in the user terminal 200 in the live provision system 100 according to the present invention in order to perform control related to camera activation.

확인 결과, 사용자 단말기(200)에 구비된 카메라에 대한 접근 권한이 존재하지 않는 경우, 제어부(130)는 사용자 단말기(200)에 구비된 카메라에 대한 접근 권한을 획득하기 위하여, 도 4b의 (b)에 도시된 것과 같이, 사용자 단말기(200)의 디스플레이부의 일 영역 상에 접근 권한 획득과 관련된 정보를 출력할 수 있다. 예를 들어, 제어부(130)는 접근 권한 획득과 관련된 팝업(pop up) 또는 모달 윈도(또는 모들 윈도, Modal Window)를 출력할 수 있다.As a result of confirmation, if there is no access right to the camera provided in the user terminal 200, the control unit 130 uses (b) in FIG. 4B to obtain access right to the camera provided in the user terminal 200. ), information related to obtaining access rights may be output on one area of the display unit of the user terminal 200. For example, the control unit 130 may output a pop-up or modal window (or modal window) related to obtaining access rights.

상기 팝업(pop up) 또는 모달 윈도(Modal Window)에는, 접근 권한 획득과 관련된 안내 문구(ex: ”실시간 가상 메이크업 미리보기 촬영 기능을 이용하시려면 카메라 접근 허용이 필요합니다”)를 포함할 수 있다. The pop-up or modal window may include information related to obtaining access rights (ex: “Camera access is required to use the real-time virtual makeup preview shooting function”).

제어부(130)는 상기 팝업(pop up) 또는 모달 윈도(Modal Window)의 일 영역에 대한 사용자 입력에 근거하여, 사용자 단말기(200)에 구비된 카메라에 대한 접근 권한을 획득할 수 있다. The control unit 130 may obtain access rights to the camera provided in the user terminal 200 based on user input to one area of the pop-up or modal window.

이러한, 팝업(pop up) 또는 모달 윈도(Modal Window)는, 증강 현실 기능에 대한 최초의 활성화 요청이 있는 경우에 한하여 최초 1회만 노출될 수 있다. Such a pop up or modal window may be exposed only once when there is a first activation request for the augmented reality function.

제어부(130)는 사용자 단말기(200)에 구비된 카메라에 대한 접근 권한을 1회 획득한 이후에는, 증강 현실 기능에 대한 활성화 요청이 있더라도, 상기 팝업(pop up) 또는 모들 윈도(Modal Window)가 사용자 단말기(200)의 디스플레이부 상에 출력되지 않도록 제어할 수 있다. After gaining access to the camera provided in the user terminal 200 once, the control unit 130 displays the pop-up or modal window even if there is a request to activate the augmented reality function. It can be controlled not to be output on the display unit of the user terminal 200.

한편, 확인 결과, 사용자 단말기(200)에 구비된 카메라에 대한 접근 권한이 존재하는 경우, 제어부(130)는 사용자 단말기(200)에 구비된 카메라가 활성화되도록 제어할 수 있다. 즉, 제어부(130)는 사용자 단말기(200)에 구비된 카메라를 실행시킬 수 있다. Meanwhile, as a result of confirmation, if access rights to the camera provided in the user terminal 200 exist, the control unit 130 may control the camera provided in the user terminal 200 to be activated. That is, the control unit 130 can run the camera provided in the user terminal 200.

이 경우, 제어부(130)는, 사용자 단말기(200)의 전면에 구비된 제1 타입의 카메라 및 후면에 구비된 제2 타입의 카메라 중 어느 하나의 타입의 카메라가 활성화되도록 제어할 수 있다. 예를 들어, 제어부(130)는 제1 타입의 카메라가 제2 타입의 카메라보다 우선하여 활성화되도록 사용자 단말기(200)를 제어할 수 있다. In this case, the control unit 130 may control activation of either a first type camera provided on the front of the user terminal 200 or a second type camera provided on the back. For example, the control unit 130 may control the user terminal 200 so that the first type of camera is activated in priority over the second type of camera.

제어부(130)는 증강 현실 기능에 대한 활성화 요청에 근거하여, 사용자 단말기(200)의 전면에 구비된 제1 타입의 카메라가 활성화되는 것을 기본 값(또는 디폴트(Default value)으로 설정할 수 있다. The control unit 130 may set the default value (or default value) to activate the first type of camera provided on the front of the user terminal 200 based on an activation request for the augmented reality function.

이와 같이, 제어부(130)는 증강 현실 기능에 대한 활성화 요청에 근거하여, 사용자 단말기(200)의 카메라로부터 카메라 영상이 수신되도록, 상기 증강 현실 기능의 활성화에 연동하여 상기 사용자 단말기의 카메라가 활성화할 수 있다. In this way, based on a request for activation of the augmented reality function, the control unit 130 activates the camera of the user terminal in conjunction with the activation of the augmented reality function so that a camera image is received from the camera of the user terminal 200. You can.

나아가, 제어부(130)는, 활성화된 사용자 단말기(200)의 카메라로부터 카메라 영상(20)을 수신할 수 있다. Furthermore, the control unit 130 may receive the camera image 20 from the camera of the activated user terminal 200.

여기에서, “카메라 영상(20)”은, 카메라를 통해 촬영된 사진(또는 이미지), 동영상 및 프리뷰(preview) 화면 중 적어도 하나를 포함할 수 있다. 즉, 본 발명에서는 카메라를 통해 수신된 사진(또는 이미지), 동영상 및 프리뷰 화면 중 적어도 하나에 증강 현실 그래픽 처리를 수행할 수 있다. 다만, 이하에서는 이들을 구분하지 않고 모두 카메라 영상(20)으로 표현하여 설명하도록 한다. Here, the “camera image 20” may include at least one of a photo (or image), a video, and a preview screen captured through a camera. That is, in the present invention, augmented reality graphic processing can be performed on at least one of a photo (or image), video, and preview screen received through a camera. However, in the following, they will not be distinguished and all will be explained by expressing them as camera images 20.

제어부(130)는, 사용자 단말기(200)에 구비된 카메라로부터 카메라 영상(20)이 수신되는 것에 근거하여, 카메라 영상(20)에 증강 현실 그래픽 처리를 수행할 수 있다. The control unit 130 may perform augmented reality graphics processing on the camera image 20 based on the camera image 20 being received from the camera provided in the user terminal 200.

본 발명에서, 그래픽 처리를 수행한다고 함은, 라이브 방송에서 판매하는 아이템에 매칭되어 존재하는 상품 정보에 근거하여, 카메라 영상(20)의 적어도 일부분에 대한 시각적인 변형 또는 카메라 영상(20)에 시각적인 정보를 합성하는 것을 의미할 수 있다. In the present invention, performing graphic processing means visual modification of at least a portion of the camera image 20 or visual modification of the camera image 20 based on product information that exists in matching with an item sold in a live broadcast. It may mean synthesizing information.

도 7에 도시된 것과 같이, 기 특정된 DB(database)에는, 특정 라이브 방송(700)과 연계된 아이템 각각 마다의 상품 정보(또는 아이템 정보, 621, 622)를 포함하는 맵핑 정보(720)가 존재할 수 있다. 이러한 맵핑 정보(720)에 포함된 특정 아이템(ex: 제1 아이템)의 상품 정보(621)에는, 상기 특정 아이템과 관련된 증강 현실 기능에서 수행되는 그래픽 처리에 대한 그래픽 정보(721c)가 포함되어 있을 수 있다. 특정 아이템(ex: 제1 아이템)의 그래픽 정보(621c)에는, 카메라 영상(20)에서 시각적 변형이 이루어져야 하는 피사체의 일 부분을 특정하는 “피사체 정보”가 포함될 수 있다. 이러한 피사체 정보는, 아이템의 종류에 근거하여 설정되어질 수 있다.As shown in FIG. 7, in a pre-specified DB (database), mapping information 720 including product information (or item information, 621, 622) for each item associated with a specific live broadcast 700 is provided. It can exist. Product information 621 of a specific item (ex: first item) included in this mapping information 720 may include graphic information 721c about graphics processing performed in the augmented reality function related to the specific item. You can. The graphic information 621c of a specific item (ex: first item) may include “subject information” that specifies a part of the subject that needs to be visually transformed in the camera image 20. This subject information can be set based on the type of item.

일 예로, 아이템이 입술(lip) 메이크업(makeup)에 대한 상품인 경우, 피사체 정보에는, 사용자 얼굴 중 입술 부분을 특정하는 정보를 포함하고, 아이템이 눈(eye) 메이크업에 대한 상품인 경우, 피사체 정보는, 사용자 얼굴 중 눈 부분을 특정하는 정보를 포함할 수 있다.For example, if the item is a product for lip makeup, the subject information includes information specifying the lip portion of the user's face, and if the item is a product for eye makeup, the subject information includes information specifying the lip portion of the user's face. The information may include information specifying the eye portion of the user's face.

다른 예로, 아이템이 귀(ear) 액세서리(accessory)에 대한 상품인 경우, 피사체 정보에는 사용자 얼굴 중 귀 부분을 특정하는 정보를 포함하고, 아이템이 손(hand) 액세서리에 대한 상품인 경우, 피사체 정보에는 사용자 신체 중 손 부분을 특정하는 정보를 포함할 수 있다. As another example, if the item is a product for an ear accessory, the subject information includes information specifying the ear part of the user's face, and if the item is a product for a hand accessory, the subject information may include information specifying the hand part of the user's body.

또 다른 예로, 아이템이 상의(上衣, 신체의 상반부에 착용하는 의복)에 대한 상품인 경우, 피사체 정보에는, 사용자 신체 중 상반부(또는 상체) 부분을 특정하는 정보를 포함하고, 아이템이 하의(下衣, 신체의 하반부에 착용하는 의복)에 대한 상품인 경우, 피사체 정보에는, 사용자 신체 중 하반부(또는 하체) 부분을 특정하는 정보를 포함할 수 있다. As another example, if the item is a product for tops (clothing worn on the upper half of the body), the subject information includes information specifying the upper half (or upper body) of the user's body, and the item is for bottoms (lower body). In the case of a product for clothing (clothing worn on the lower half of the body), the subject information may include information specifying the lower half (or lower body) of the user's body.

제어부(130)는 피사체 정보를 이용하여, 카메라 영상에서, 피사체 정보에 대응되는 부분을 특정하고, 특정된 부분을 중심으로 증강 현실 그래픽 처리를 수행할 수 있다.The control unit 130 may use the subject information to specify a part corresponding to the subject information in the camera image and perform augmented reality graphic processing focusing on the specified part.

한편, 관련된 증강 현실 기능에서 수행되는 그래픽 처리에 대한 그래픽 정보에는 피사체 정보가 포함되지 않는 것 또한 가능하다. 이 경우, 제어부(130)는 이미지 인식 기술을 이용하여, 카메라 영상에서 피사체를 인식하고, 인식된 피사체에서 아이템의 종류에 근거하여, 증강 현실 그래픽 처리의 대상이 되는 부분을 특정할 수 있다. 이 경우, 제어부(130)는 인공지능 기술을 기반으로, 아이템의 종류에 대응되는 부분을 카메라 영상에서 특정할 수 있다.Meanwhile, it is also possible that graphic information for graphics processing performed in a related augmented reality function does not include subject information. In this case, the control unit 130 can use image recognition technology to recognize a subject in a camera image and specify a part that is the target of augmented reality graphic processing based on the type of item in the recognized subject. In this case, the control unit 130 can specify a part in the camera image that corresponds to the type of item based on artificial intelligence technology.

나아가, 특정 아이템(ex: 제1 아이템)의 그래픽 정보(621c)에는, 카메라 영상(20)의 시각적 변형을 위한 그래픽 처리 타입에 대한 “타입 정보”가 포함될 수 있다. 이러한 그래픽 타입 정보는, 판매자 단말로부터 수신된 정보에 근거하여 설정될 수 있다. Furthermore, the graphic information 621c of a specific item (ex: first item) may include “type information” about the type of graphic processing for visual transformation of the camera image 20. This graphic type information can be set based on information received from the seller terminal.

여기에서, 시각적 변형을 위한 그래픽 처리 타입의 예는 매우 다양하며, 예를 들어, i) 카메라 영상(20)에 대한 색상 변환(또는 색 보정(calibration))을 수행하는 그래픽 처리 타입, ii) 카메라 영상(20)의 밝기, 대비, 선명도, 색 변환값 중 적어도 하나를 조절하는 그래픽 처리 타입, iii) 카메라 영상(20)에 대해 텍스트, 정적인 이미지, 또는 동적인 영상과 같은 그래픽 객체를 삽입(또는 합성)하는 그래픽 처리 타입 등이 존재할 수 있다. 제어부(130)는 위에서 살펴본 다양한 그래픽 처리 타입 중 어느 하나의 타입 또는 복수의 타입에 따른 그래픽 처리를 카메라 영상에 대해 수행할 수 있다.Here, examples of graphic processing types for visual transformation are very diverse, for example, i) a graphic processing type that performs color conversion (or color calibration) on the camera image 20, ii) camera A graphic processing type that adjusts at least one of the brightness, contrast, sharpness, and color conversion values of the image 20, iii) inserting a graphic object such as text, a static image, or a dynamic image into the camera image 20 ( or compositing) graphics processing types may exist. The control unit 130 may perform graphics processing on the camera image according to one type or a plurality of types among the various graphics processing types described above.

나아가, 특정 아이템(ex: 제1 아이템)의 그래픽 정보(621c)에는, 카메라 영상(20)의 시각적 변형에 의해 피사체의 일 부분에 대응되는 영역에서 표현되어야 하는 색상에 대한 “색상 정보”가 포함될 수 있다. 예를 들어, 아이템이 입술(lip) 메이크업(makeup)에 대한 상품인 경우, 색상 정보에는, 입술 부분에 대응되는 영역에서 표현되어야 하는 색상(ex: “컬러 코드 B46143” 또는 “AR 세팅 코드 AR123”) 정보를 포함할 수 있다. Furthermore, the graphic information 621c of a specific item (ex: first item) includes “color information” about the color that should be expressed in the area corresponding to a part of the subject by visual transformation of the camera image 20. You can. For example, if the item is a lip makeup product, the color information includes the color that should be expressed in the area corresponding to the lip area (ex: “Color code B46143” or “AR setting code AR123”) ) information may be included.

나아가, 특정 아이템(ex: 제1 아이템)의 그래픽 정보(621c)에, 카메라 영상(20)의 시각적 변형에 의해 피사체의 일 부분에 대응되는 영역에 합성(또는 삽입) 되어야 하는 그래픽 객체에 대한 모양 정보가 포함될 수 있다. 예를 들어, 아이템이 귀(ear) 액세서리(accessory)에 대한 상품인 경우, 모양 정보에는, 귀(ear) 액세서리 모양의 그래픽 객체에 대한 정보를 포함할 수 있다. Furthermore, the shape of a graphic object that must be synthesized (or inserted) into the graphic information 621c of a specific item (ex: first item) in an area corresponding to a part of the subject by visual transformation of the camera image 20. Information may be included. For example, if the item is a product for an ear accessory, the shape information may include information about a graphic object in the shape of an ear accessory.

한편, 제어부(130)는, 위에서 살펴본 그래픽 정보에 근거하여, 카메라 영상(20)에서, 시각적 변형이 이루어져야 하는 피사체의 일 부분을 포함되어 있는지를 확인할 수 있다. Meanwhile, the control unit 130 can check whether the camera image 20 includes a part of the subject that needs to be visually transformed, based on the graphic information discussed above.

확인 결과, 카메라 영상(20)에, 시각적 변형이 이루어져야 하는 피사체의 일 부분이 포함되어 있으면, 제어부(130)는 상기 피사체의 일부분에 대응되는 카메라 영상(20)의 특정 부분(또는 특정 영역)을 특정할 수 있다. As a result of confirmation, if the camera image 20 includes a part of the subject that needs to be visually transformed, the control unit 130 selects a specific part (or specific area) of the camera image 20 corresponding to the part of the subject. It can be specified.

일 예로, 특정 아이템(ex: 제1 아이템)의 그래픽 정보(621c)에, 사용자 얼굴 중 “입술 부분”을 시각적 변형이 이루어져야 하는 부분으로 특정하는 정보가 포함되어 있는 경우, 제어부(130)는 카메라 영상(20)에서 사용자 얼굴을 인식할 수 있다. 그리고 도 4a의 (b)에 도시된 것과 같이, 제어부(130)는 카메라 영상(20)에서, 사용자 얼굴 중 입술 부분에 대응되는 특정 부분(또는 특정 영역, 420)을 특정할 수 있다. For example, if the graphic information 621c of a specific item (ex: first item) includes information specifying the “lip part” of the user's face as the part that needs to be visually transformed, the control unit 130 uses the camera The user's face can be recognized in the video 20. And as shown in (b) of FIG. 4A, the control unit 130 can specify a specific part (or specific area, 420) corresponding to the lips of the user's face in the camera image 20.

다른 예로, 특정 아이템(ex: 제1 아이템)의 그래픽 정보(621c)에, 사용자 얼굴 중 눈 부분을 시각적 변형이 이루어져야 하는 부분으로 특정하는 정보가 포함되어 있는 경우, 제어부(130)는 카메라 영상(20)에서, 사용자 얼굴 중 눈 부분에 대응되는 특정 부분(또는 특정 영역)을 특정할 수 있다. As another example, if the graphic information 621c of a specific item (ex: first item) includes information specifying the eye part of the user's face as a part that needs to be visually transformed, the control unit 130 may control the camera image ( In 20), a specific part (or specific area) corresponding to the eyes of the user's face can be specified.

나아가, 제어부(130)는 카메라 영상(20)의 특정 부분(또는 특정 영역, 420)에 대해 매칭된 매칭 정보에 따른 그래픽 처리 타입으로 그래픽 처리를 수행할 수 있다. Furthermore, the control unit 130 may perform graphics processing using a graphics processing type according to matching information matched to a specific portion (or specific area, 420) of the camera image 20.

상기 특정 부분에 대해 매칭된 그래픽 처리 타입이, 카메라 영상(20)에 대한 색상 변환(또는 색 보정(calibration))을 수행하는 타입인 경우, 제어부(130)는 특정 부분(또는 특정 영역)의 색상을 색상 정보에 대응되도록 변경할 수 있다. If the graphics processing type matched to the specific part is a type that performs color conversion (or color calibration) on the camera image 20, the control unit 130 controls the color of the specific part (or specific area). can be changed to correspond to color information.

예를 들어, 도 4a의 (b)에 도시된 것과 같이, 사용자 얼굴 중 입술 부분에 대응되는 카메라 영상(20)의 특정 부분(또는 특정 영역, 420)은, 색상 정보에 대응되는 색상이 보이도록 색상이 변경될 수 있다. For example, as shown in (b) of FIG. 4A, a specific part (or specific area, 420) of the camera image 20 corresponding to the lip portion of the user's face is displayed so that the color corresponding to the color information is visible. Colors may change.

이러한 색상 변경 또는 색 보정을 통해, 사용자는 카메라 영상에 포함된 자신의 얼굴 이미지에 화장을 한 것과 같은 효과를 경험할 수 있다.Through this color change or color correction, users can experience the same effect as applying makeup to their face image included in the camera video.

다른 예로서, 그래픽 처리 타입이, 카메라 영상(20)에 대해 그래픽 객체를 삽입(또는 합성)하는 타입인 경우, 제어부(130)는 특정 부분(또는 특정 영역)에 모양 정보에 대응되는 그래픽 객체를 삽입(또는 합성)할 수 있다. As another example, when the graphics processing type is a type that inserts (or combines) a graphic object into the camera image 20, the control unit 130 inserts a graphic object corresponding to shape information in a specific part (or specific area). Can be inserted (or synthesized).

예를 들어, 제어부(130)는, 사용자 얼굴 중 귀 부분에 대응되는 카메라 영상(20)의 특정 부분(또는 특정 영역)에, 모양 정보에 대응되는 귀 액세서리(ex: 귀걸이)의 그래픽 객체를 삽입(또는 합성)할 수 있다. For example, the control unit 130 inserts a graphic object of an ear accessory (ex: earring) corresponding to shape information into a specific part (or specific area) of the camera image 20 corresponding to the ear part of the user's face. (or can be synthesized).

이러한 그래픽 객체 삽입을 통해, 사용자는 카메라 영상에 포함된 자신의 모습에 액세서리를 착용해보는 것과 같은 효과를 경험할 수 있다.By inserting these graphic objects, users can experience the same effect as wearing an accessory on their own image included in the camera image.

이처럼, 제어부(130)는 사용자 단말기(200)로부터 증강 현실 기능에 대한 활성화 요청에 응답하여, 카메라 영상(20)에 대한 그래픽 처리를 수행할 수 있다. In this way, the control unit 130 may perform graphics processing on the camera image 20 in response to a request to activate the augmented reality function from the user terminal 200.

한편, 증강 현실 기능이 연계되지 않은 아이템의 상품정보에는 그래픽 정보가 포함되지 않을 수 있다. Meanwhile, product information for items that are not linked to the augmented reality function may not include graphic information.

나아가, 위에서 살펴본 기 특정된 DB는 라이브 방송 서버 또는 라이브 방송 서버에 연계된 외부 서버에 저장되어 존재할 수 있다.Furthermore, the specified DB discussed above may exist and be stored on a live broadcast server or an external server linked to the live broadcast server.

한편, 위에서 살펴본 제1 및 제2 아이템의 상품 정보와 같은 아이템의 상품 정보들은, 라이브 방송 서버의 아이템 DB에 저장되어 존재할 수 있다. 나아가, 이러한 아이템 DB는 특정 판매자 계정에 연계되어 분류되는 것이 가능하다. 즉, 특정 판매자 계정에서 판매되는 아이템의 아이템 정보가, 각각 특정 판매자 계정을 기준으로 구분되어 아이템 DB를 형성할 수 있다.Meanwhile, product information of items such as the product information of the first and second items discussed above may exist and be stored in the item DB of the live broadcast server. Furthermore, this item DB can be classified in connection with a specific seller account. That is, item information on items sold by a specific seller account can be divided based on each specific seller account to form an item DB.

한편, 기 특정된 DB에 포함된 상품 정보는 이러한 아이템 DB로부터 판매자 또는 라이브 방송 서버로부터 선택되어, 기 특정된 DB에 포함되는 것이 가능하다.Meanwhile, product information included in the pre-specified DB can be selected from the seller or live broadcast server from this item DB and included in the pre-specified DB.

다음으로, 본 발명에 따른 라이브 방송 제공 방법에서는, 사용자 단말기(200)에서 방송 영상(10)을 수신하고 있는 상태에서, 증강 현실 그래픽 처리가 수행된 카메라 영상(20)을, 사용자 단말기(200)의 디스플레이부 상에 표시하는 과정이 진행될 수 있다(S350, 도 3 참조).Next, in the method for providing live broadcasting according to the present invention, while the broadcast image 10 is being received at the user terminal 200, the camera image 20 on which augmented reality graphic processing has been performed is sent to the user terminal 200. The process of displaying on the display unit may proceed (S350, see FIG. 3).

앞서 설명한 것과 같이, 제어부(130)는, 증강 현실 기능에 대한 활성화 요청이 있더라도, 방송 영상(10) 제공과 관련된 제1 데이터 처리 및 증강 현실 서비스 제공과 관련된 제2 데이터 처리를 동시에 수행할 수 있다. 즉, 제어부(130)는 제1 데이터 처리를 중단하지 않고, 제1 데이터 처리 및 제2 데이터 처리가 병렬적으로 수행되도록 사용자 단말기(200)를 제어할 수 있다. As described above, the control unit 130 may simultaneously perform first data processing related to providing the broadcast image 10 and second data processing related to providing the augmented reality service even if there is a request to activate the augmented reality function. . That is, the control unit 130 can control the user terminal 200 so that the first data processing and the second data processing are performed in parallel without stopping the first data processing.

도 4a의 (b)에 도시된 것과 같이, 제어부(130)는, 사용자 단말기(200)의 디스플레이부 상에, 방송 영상(10)과 함께 증강 현실 그래픽 처리가 수행된 카메라 영상(20)이 표시되도록 제어할 수 있으며, 이를 본 발명에서는, “PIP(Picture In Picture) 모드”로 명명할 수 있다. As shown in (b) of FIG. 4A, the control unit 130 displays the camera image 20 on which augmented reality graphic processing has been performed along with the broadcast image 10 on the display unit of the user terminal 200. This can be controlled as much as possible, and in the present invention, this can be called “PIP (Picture In Picture) mode”.

제어부(130)는, 증강 현실 기능에 대한 활성화 요청에 응답하여, 사용자 단말기(200)의 디스플레이부를 PIP 모드로 제어함으로써, 방송 영상(10) 및 증강 현실 그래픽 처리가 수행된 카메라 영상(20)을 함께 제공할 수 있다. In response to a request to activate the augmented reality function, the control unit 130 controls the display unit of the user terminal 200 in PIP mode to display the broadcast image 10 and the camera image 20 on which augmented reality graphic processing has been performed. Can be provided together.

이와 같이, 본 발명에서는, 제1 데이터 처리 및 제2 데이터 처리를 병렬적으로 수행하여 PIP 모드를 통해, 방송 영상(10) 및 증강 현실 그래픽 처리가 수행된 카메라 영상(20)을 동시에 제공할 수 있다. 이를 통해, 사용자는 라이브 방송의 시청을 중단하지 않고도, 증강 현실을 통해 라이브 방송에서 판매하는 상품을 체험 또는 테스트할 수 있다. As such, in the present invention, the broadcast image 10 and the camera image 20 on which augmented reality graphic processing has been performed can be simultaneously provided through the PIP mode by performing the first data processing and the second data processing in parallel. there is. Through this, users can experience or test products sold in the live broadcast through augmented reality without stopping watching the live broadcast.

한편, 본 발명에 따른 라이브 제공 시스템(100)에서는, 라이브 방송에 대한 사용자의 관심(또는 흥미)을 향상시키고, 사용자에게 라이브 방송을 통해 판매하는 상품에 대한 정보를 직관적으로 제공하고, 사용자가 보다 편리하게 증강 현실 서비스를 이용할 수 있도록 하는 다양한 사용자 환경을 제공할 수 있다. 이하에서는 본 발명에 따른 라이브 방송 제공 시스템(100)에서 제공하는 다양한 사용자 환경에 대해 구체적으로 설명하도록 한다. Meanwhile, the live provision system 100 according to the present invention improves the user's interest (or interest) in the live broadcast, intuitively provides the user with information about products sold through the live broadcast, and allows the user to It can provide a variety of user environments that allow users to conveniently use augmented reality services. Hereinafter, various user environments provided by the live broadcasting provision system 100 according to the present invention will be described in detail.

도 4a의 (b)에 도시된 것과 같이, 사용자 단말기(200)의 디스플레이부는, 메인 디스플레이 영역(A) 및 서브 디스플레이 영역(B) 중 적어도 하나를 포함할 수 있다. As shown in (b) of FIG. 4A, the display unit of the user terminal 200 may include at least one of a main display area (A) and a sub-display area (B).

서브 디스플레이 영역(B)은 상기 메인 디스플레이 영역(A) 중 적어도 일부에 오버랩되어 표시될 수 있다.The sub-display area (B) may be displayed overlapping at least a portion of the main display area (A).

서브 디스플레이 영역(B)이 메인 디스플레이 영역(A)에서 오버랩되는 위치는, 시스템 관리자에 의하여 설정되거나 사용자 입력에 근거하여 변경될 수 있다. 나아가, 메인 디스플레이 영역(A) 및 서브 디스플레이 영역(B) 중 적어도 하나의 출력 크기 또한 시스템 관리자 및 사용자 입력에 근거하여 설정 및 변경될 수 있음은 물론이다. The position where the sub-display area (B) overlaps with the main display area (A) can be set by the system administrator or changed based on user input. Furthermore, of course, the output size of at least one of the main display area (A) and the sub-display area (B) can also be set and changed based on system administrator and user input.

위의 예에서는, 서브 디스플레이 영역(B)이 메인 디스플레이 영역(A)상에 오버랩 되는 경우에 대하여 살펴보았으나, 본 발명은 위의 예에 한정되지 않는다. 예를 들어, 사용자 단말기(200)의 디스플레이부는 복수의 디스플레이 영역으로 분할될 수 있으며, 이 중 어느 하나는 메인 디스플레이 영역(A)으로, 다른 하나는 서브 디스플레이 영역(B)이 될 수 있다. 이때, 메인 디스플레이 영역(A) 및 서브 디스플레이 영역(B)은 서로 중첩되지 않거나, 적어도 일부만 중첩될 수 있다. In the above example, the case where the sub-display area (B) overlaps the main display area (A) was examined, but the present invention is not limited to the above example. For example, the display unit of the user terminal 200 may be divided into a plurality of display areas, one of which may be the main display area (A) and the other may be the sub-display area (B). At this time, the main display area (A) and the sub-display area (B) may not overlap each other, or may only partially overlap.

한편, 제어부(130)는 증강 현실 기능의 활성화 여부에 근거하여, 메인 디스플레이 영역(A) 및 서브 디스플레이부 영역(B) 중 적어도 하나에 방송 영상(10)이 표시되도록 제어할 수 있다. Meanwhile, the control unit 130 may control the broadcast image 10 to be displayed in at least one of the main display area (A) and the sub-display area (B) based on whether the augmented reality function is activated.

도 4a의 (a)에 도시된 것과 같이, 증강 현실 기능의 비활성화 상태에서는, 제어부(130)는, 방송 영상(10)이 메인 디스플레이 영역(A) 상에 표시되도록 제어할 수 있다. As shown in (a) of FIG. 4A, when the augmented reality function is deactivated, the control unit 130 can control the broadcast image 10 to be displayed on the main display area (A).

반면에, 도 4a의 (b)에 도시된 것과 같이, 증강 현실 기능의 활성화 상태에서는, 제어부(130)는, 방송 영상(10)은, 서브 디스플레이 영역(B)에 표시되고, 카메라 영상(또는 그래픽 처리가 수행된 카메라 영상, 20)은, 메인 디스플레이 영역(A)에 표시될 수 있다. 이하에서는 설명의 편의를 위하여, 카메라 영상(20)과 그래픽 처리가 수행된 카메라 영상(20)을 혼용하여 사용하도록 한다. On the other hand, as shown in (b) of FIG. 4A, in the activated state of the augmented reality function, the control unit 130 displays the broadcast image 10 in the sub-display area (B) and displays the camera image (or The camera image 20) on which graphic processing has been performed may be displayed in the main display area (A). Hereinafter, for convenience of explanation, the camera image 20 and the camera image 20 on which graphic processing has been performed will be used interchangeably.

제어부(130)는, 증강 현실 기능이 비활성화 상태에서 활성화 상태로 전환되는 것에 근거하여, 메인 디스플레이 영역(A)에서는 방송 영상(10)이 사라지고 카메라 영상(20)이 표시되도록 디스플레이부(210)를 제어할 수 있다. 그리고, 제어부(130)는 서브 디스플레이 영역(B)에서는 방송 영상(10)이 표시되도록 디스플레이부(210)를 제어할 수 있다. 즉, 제어부(130)는, 증강 현실 기능이 비활성화 상태에서 활성화 상태로 전환되더라도, 메인 디스플레이 영역(A)에서 표시되던 방송 영상(10)이 서브 디스플레이 영역(B)을 통해 계속해서 표시되도록 디스플레이부(210)를 제어할 수 있다. 이를 통해, 사용자는 증강 현실 서비스를 제공받으면서 시청 중이던 방송 영상(10)을 끊기지 않고 계속해서 시청할 수 있다. Based on the augmented reality function being switched from the deactivated state to the activated state, the control unit 130 operates the display unit 210 so that the broadcast image 10 disappears from the main display area (A) and the camera image 20 is displayed. You can control it. Additionally, the control unit 130 may control the display unit 210 to display the broadcast image 10 in the sub-display area (B). That is, the control unit 130 operates the display unit so that the broadcast image 10 displayed in the main display area (A) continues to be displayed through the sub-display area (B) even if the augmented reality function is switched from the deactivated state to the activated state. (210) can be controlled. Through this, the user can continue to watch the broadcast video 10 being watched without interruption while receiving the augmented reality service.

한편, 도 5의 (a)에 도시된 것과 같이, 제어부(130)는, 사용자 단말기(200)의 디스플레이부 상(또는 메인 디스플레이 영역(A))에 방송 영상(10)이 제공되는 있는 상태에서, 사용자 단말기(200)의 디스플레이부의 적어도 일 영역에, 방송 영상(10)과 관련된 다양한 정보가 표시되도록 제어할 수 있다.Meanwhile, as shown in (a) of FIG. 5, the control unit 130 operates in a state where the broadcast image 10 is provided on the display unit (or main display area A) of the user terminal 200. , it can be controlled so that various information related to the broadcast image 10 is displayed in at least one area of the display unit of the user terminal 200.

제어부(130)는, 기 특정된 DB에 특정 라이브 방송과 매칭되어 존재하는 다양한 정보에 근거하여, 특정 라이브 방송의 방송 영상(10)과 함께 다양한 정보가 표시되도록 제어할 수 있다. The control unit 130 may control various information to be displayed together with the broadcast video 10 of a specific live broadcast, based on various information that matches the specific live broadcast in a pre-specified DB.

본 발명에서, 도 5의 (a)에 도시된 것과 같이, 방송 영상(10)과 함께 다양한 정보가 사용자 단말기(200)의 디스플레이부를 통해 표시되는 것을, “방송 영상(10)의 적어도 일 영역에 정보를 표시(또는 출력 또는 제공)한다”, “다양한 정보가 포함된 방송 영상(10)을 표시(또는 출력 또는 제공) 한다”고 표현할 수 있다. In the present invention, as shown in (a) of FIG. 5, various information along with the broadcast image 10 are displayed through the display unit of the user terminal 200 by “at least one area of the broadcast image 10.” It can be expressed as “displaying (or outputting or providing) information” or “displaying (or outputting or providing) a broadcast video (10) containing various information.”

앞서 살펴본 것과 같이, 기 특정된 DB에는, 특정 라이브 방송(700)과 관련된 채널 정보(710) 및 맵핑 정보(720)가 매칭되어 존재할 수 있다. As seen above, in a pre-specified DB, channel information 710 and mapping information 720 related to a specific live broadcast 700 may be matched and exist.

특정 라이브 방송(700)과 관련된 채널 정보(710)에는, 특정 라이브 방송(700)을 진행 및 시청하는데 활용되는 정보가 포함될 수 있다. 예를 들어, 채널 정보(710)에는, i) 특정 라이브 방송(700)의 타이틀(title) 정보(711), ii) 특정 라이브 방송을 시청하는 시청자 정보(ex: 시청자 수, 712), iii) 특정 라이브 방송을 진행하는 진행자 정보(713) 등에 포함될 수 있다.Channel information 710 related to a specific live broadcast 700 may include information used to proceed and watch the specific live broadcast 700. For example, the channel information 710 includes i) title information 711 of a specific live broadcast 700, ii) viewer information watching a specific live broadcast (ex: number of viewers, 712), iii) It may be included in the host information 713 conducting a specific live broadcast.

상기 채널 정보(710)에서, i) 타이틀 정보(711) 및 iii) 진행자 정보(713)는 판매자 단말기로부터 수신된 정보에 근거하여 설정될 수 있다. 반면에, 상기 채널 정보(710)에서, ii) 시청자 정보(712)는, 라이브 방송 서버(300)에 의해, 특정 라이브 방송(700)을 시청하는 시청자 수를 집계하여 생성(또는 설정)될 수 있다. In the channel information 710, i) title information 711 and iii) host information 713 may be set based on information received from the seller terminal. On the other hand, in the channel information 710, ii) viewer information 712 may be generated (or set) by counting the number of viewers watching a specific live broadcast 700 by the live broadcast server 300. there is.

제어부(130)는, 특정 라이브 방송(700)과 관련된 채널 정보(710)에 근거하여, 5a의 (a)에 도시된 것과 같이, 특정 라이브 방송(700)의 방송 영상(10)이 표시되는 사용자 단말기(200)의 디스플레이부의 적어도 일 영역에, 상기 채널 정보(710)를 표시할 수 있다. 이 때, 제어부(130)는 상기 채널 정보(710)를 텍스트(text), 그래픽 객체 또는 아이콘 등으로 디스플레이부에 표시할 수 있다. The control unit 130 controls the user for which the broadcast video 10 of the specific live broadcast 700 is displayed, as shown in (a) of 5a, based on the channel information 710 related to the specific live broadcast 700. The channel information 710 may be displayed in at least one area of the display unit of the terminal 200. At this time, the control unit 130 may display the channel information 710 on the display unit as text, a graphic object, or an icon.

예를 들어, 5a의 (a)에 도시된 것과 같이, 방송 영상(10)이 표시되는 사용자 단말기(200)의 디스플레이부의 제1 영역(510)에는, 특정 라이브 방송(700)의 타이틀 정보(ex: “월간선물샵 8회: 블랙프라이데이 특집”), 특정 라이브 방송(700)을 시청하는 시청자 정보(ex: “시청자 수 331, 425명”)가 표시될 수 있다. 특정 라이브 방송을 시청하는 사용자는 디스플레이부를 보는 것 만으로, 시청중인 라이브 방송에 대한 정보를 직관적으로 인식할 수 있다. For example, as shown in (a) of 5a, the first area 510 of the display unit 510 of the user terminal 200 where the broadcast video 10 is displayed includes title information (ex. : “Monthly Gift Shop Episode 8: Black Friday Special”), viewer information (ex: “Number of viewers: 331, 425”) watching a specific live broadcast (700) may be displayed. A user watching a specific live broadcast can intuitively recognize information about the live broadcast being watched just by looking at the display unit.

나아가, 도 7에 도시된 것과 같이, 특정 라이브 방송(700)과 관련된 맵핑 정보(720)에는, 특정 라이브 방송과 연계된 적어도 하나의 아이템 각각과 관련된 상품 정보(721, 722)를 포함할 수 있다. 특정 아이템(ex: 제1 아이템)을 예로 들어, 특정 아이템과 관련된 상품 정보(721)를 설명하면, 상품 정보(721)에는, i) 특정 아이템이 증강 현실 기능에 연계되었음을 나타내는 연계 정보(721a), ii) 특정 아이템의 쇼핑 서비스에 활용 가능한 아이템 정보(ex: 특정 아이템의 상품명, 특정 아이템의 가격 정보, 특정 아이템을 설명하는 용도로 활용되는 특정 아이템의 상세 정보, 721b), iii) 특정 아이템과 관련된 그래픽 처리를 수행하는데 활용되는 그래픽 정보(ex: 색상 정보, 721c), vi) 특정 아이템의 체험 또는 구매를 유도하는 타겟 정보(721d) 중 적어도 하나를 포함할 수 있다. 상기 상품 정보(721)는, 판매자 단말기로부터 수신된 정보에 근거하여 설정될 수 있다.Furthermore, as shown in FIG. 7, the mapping information 720 related to a specific live broadcast 700 may include product information 721 and 722 related to each of at least one item associated with the specific live broadcast. . Taking a specific item (ex: first item) as an example and describing the product information 721 related to the specific item, the product information 721 includes i) linkage information 721a indicating that the specific item is linked to the augmented reality function; , ii) Item information that can be used for the shopping service of a specific item (ex: product name of a specific item, price information of a specific item, detailed information of a specific item used to describe a specific item, 721b), iii) Specific item and It may include at least one of graphic information (ex: color information, 721c) used to perform related graphic processing, and vi) target information (721d) that induces the experience or purchase of a specific item. The product information 721 may be set based on information received from the seller terminal.

제어부(130)는, 특정 라이브 방송(700)과 관련된 맵핑 정보(720)에 근거하여, 5의 (a)에 도시된 것과 같이, 특정 라이브 방송(700)의 방송 영상(10)이 표시되는 사용자 단말기(200)의 디스플레이부의 적어도 일 영역에, 상기 맵핑 정보(720)를 표시할 수 있다. 이 때, 제어부(130)는 상기 맵핑 정보(710)를 텍스트(text), 그래픽 객체 또는 아이콘 등으로 디스플레이부에 표시할 수 있다. The control unit 130 controls the user for whom the broadcast video 10 of the specific live broadcast 700 is displayed, as shown in (a) of 5, based on the mapping information 720 related to the specific live broadcast 700. The mapping information 720 may be displayed in at least one area of the display unit of the terminal 200. At this time, the control unit 130 may display the mapping information 710 on the display unit as text, a graphic object, or an icon.

도 5의 (a)에 도시된 것과 같이, 방송 영상(10)이 표시되는 사용자 단말기(200)의 디스플레이부의 제2 영역(510)에는, 특정 라이브 방송(700)과 연계된 아이템과 관련된 증강 현실 기능을 제공하기 위한 기능 아이콘(410)이 표시될 수 있다. 상기 기능 아이콘(410)에는, 특정 라이브 방송(700)과 연계된 적어도 하나의 아이템에 대한 증강 현실 기능이 링크되어 있을 수 있다. As shown in (a) of FIG. 5, in the second area 510 of the display unit 510 of the user terminal 200 where the broadcast image 10 is displayed, an augmented reality display related to an item associated with a specific live broadcast 700 is displayed. A function icon 410 may be displayed to provide a function. The function icon 410 may be linked to an augmented reality function for at least one item associated with a specific live broadcast 700.

이러한, 증강 현실 기능에 링크된 아이콘(410)은, 라이브 방송에 연계된 아이템이 증강 현실 기능에 매칭되어 있는지 여부에 근거하여, 사용자 단말기(200)의 디스플레이부 상에, 방송 영상(10)과 함께 표시될 수 있다. The icon 410 linked to the augmented reality function displays the broadcast image 10 and the broadcast image 10 on the display unit of the user terminal 200, based on whether the item linked to the live broadcast is matched to the augmented reality function. can be displayed together.

제어부(130)는, 라이브 방송에 연계된 아이템이 증강 현실 기능에 매칭되어 있는 경우, 방송 영상(10)이 표시되는 사용자 단말기(200)의 디스플레이부의 제1 영역(520)에, 상기 증강 현실 기능에 링크된 아이콘(410)을 표시할 수 있다. When an item linked to a live broadcast is matched to the augmented reality function, the control unit 130 displays the augmented reality function in the first area 520 of the display unit 520 of the user terminal 200 where the broadcast image 10 is displayed. An icon 410 linked to can be displayed.

보다 구체적으로, 제어부(130)는, 특정 라이브 방송(700)의 맵핑 정보(720)에, 특정 라이브 방송(700)과 관련된 적어도 하나의 아이템이 증강 현실 기능에 연계되었음을 나타내는 증강 현실 기능 연계 정보(721a)가 포함되어 있는 것에 근거하여, 상기 제2 영역(520)에 증강 현실 기능에 링크된 아이콘(410)을 표시할 수 있다. More specifically, the control unit 130 includes augmented reality function linkage information indicating that at least one item related to the specific live broadcast 700 is linked to the augmented reality function in the mapping information 720 of the specific live broadcast 700. Based on the inclusion of 721a), an icon 410 linked to the augmented reality function can be displayed in the second area 520.

이와 달리, 제어부(130)는, 라이브 방송에 연계된 아이템이 증강 현실 기능에 매칭되어 있지 않은 경우, 도 5의 (b)에 도시된 것과 같이, 방송 영상(10)이 표시되는 사용자 단말기(200)의 디스플레이부의 제1 영역(520)에, 상기 증강 현실 기능에 링크된 아이콘이 표시되는 것을 제한할 수 있다. On the other hand, if the item linked to the live broadcast is not matched to the augmented reality function, the control unit 130 controls the user terminal 200 on which the broadcast image 10 is displayed, as shown in (b) of FIG. 5. ) may be restricted from displaying icons linked to the augmented reality function in the first area 520 of the display unit.

보다 구체적으로, 제어부(130)는, 특정 라이브 방송(700)의 맵핑 정보(720)에, 증강 현실 기능에 연계되었음을 나타내는 증강 현실 기능 연계 정보가 포함되어 있지 않는 것에 근거하여, 상기 제2 영역(520)에 증강 현실 기능에 링크된 아이콘(410)이 표시되는 것을 제한할 수 있다.More specifically, the control unit 130 operates the second area ( Display of the icon 410 linked to the augmented reality function in 520 may be restricted.

나아가, 도 5의 (a)에 도시된 것과 같이, 사용자 단말기(200)의 디스플레이부 상에서, 상기 증강 현실 기능에 링크된 아이콘(410) 주변에는, 상기 증강 현실 기능의 활성화를 유도하는 안내 메시지(ex: “AR 메이크업 미리보기로 컬러를 체험해 보세요”530)가 표시될 수 있다. Furthermore, as shown in (a) of FIG. 5, on the display unit of the user terminal 200, around the icon 410 linked to the augmented reality function, a guidance message to induce activation of the augmented reality function ( ex: “Experience the color with AR makeup preview”530) may be displayed.

이러한 안내 메시지(530)는, 증강 현실 기능이 연계된 아이템의 상품 정보가 방송 영상에 출력된 후, 기 설정된 시간 동안에만, 디스플레이부(210)상에 출력될 수 있다.This guidance message 530 may be output on the display unit 210 only for a preset time after the product information of the item linked to the augmented reality function is output on the broadcast video.

나아가, 이러한 안내 메시지(530)는, 증강 현실 기능이 연계된 아이템의 상품 정보가 방송 영상에 출력되는 동안, 기 설정된 시간을 주기로 디스플레이부(210)상에 출력되었다가 사라질 수 있다.Furthermore, this guidance message 530 may be output on the display unit 210 at preset time intervals and then disappear while product information of an item linked to the augmented reality function is output on a broadcast video.

나아가, 이러한 안내 메시지(530)는 사용자 단말기에서 증강 현실 기능이 한번도 활성화되지 않은 경우, 또는 현재 라이브 방송을 시청하는 중에 증강 현실 기능이 한번도 사용자 단말기에서 활성화되지 않은 경우에 한하여, 디스플레이부(210)상에 출력될 수 있다. 한편, 사용자는, 안내 메시지(530)를 통해, 증강 현실 기능에 링크된 아이콘(410)을 통해, 현재 시청 중인 특정 라이브 방송(700)에서 판매하는 상품(또는 아이템)을 체험 또는 테스트하는 서비스를 이용할 수 있음을 직관적으로 인식할 수 있다. Furthermore, this information message 530 is displayed on the display unit 210 only when the augmented reality function has never been activated on the user terminal, or when the augmented reality function has never been activated on the user terminal while watching a live broadcast. It can be printed on the screen. Meanwhile, the user can use a service to experience or test a product (or item) sold in a specific live broadcast 700 that is currently being watched through an information message 530 or an icon 410 linked to the augmented reality function. You can intuitively recognize that it can be used.

계속해서, 도 5의 (a)에 도시된 것과 같이, 방송 영상(10)이 표시되는 사용자 단말기(200)의 디스플레이부의 제3 영역(530)에는, 특정 라이브 방송(700)과 연계된 적어도 하나의 상품(또는 아이템)에 대한 다양한 아이템 정보가 표시될 수 있다. 앞서 살펴본 것과 같이, 증강 현실 기능에 연계된 아이콘(520)은, 상기 제3 영역(530)에 출력된 아이템 정보에 따른 아이템이 증강 현실 기능이 연계된 경우에 한하여, 제2 영역(520)에 출력될 수 있다.Subsequently, as shown in (a) of FIG. 5, in the third area 530 of the display unit 530 of the user terminal 200 where the broadcast image 10 is displayed, there is at least one image associated with a specific live broadcast 700. Various item information about the product (or item) may be displayed. As seen above, the icon 520 linked to the augmented reality function is displayed in the second area 520 only when the item according to the item information output in the third area 530 is linked to the augmented reality function. can be printed.

한편, 제3 영역(530)에 출력되는 상품 정보는 라이브 방송에서 소개되는, 아이템의 상품명(ex: “리라 파우더 매트립”), 아이템의 가격 정보(ex: “40,000원”) 및 아이템의 설명 정보 중 적어도 하나를 포함할 수 있다. Meanwhile, the product information displayed in the third area 530 includes the product name of the item introduced in the live broadcast (ex: “Lira Powder Matte Lip”), the price information of the item (ex: “40,000 won”), and the description of the item. It may contain at least one piece of information.

계속해서, 도 5의 (a)에 도시된 것과 같이, 방송 영상(10)이 표시되는 사용자 단말기(200)의 디스플레이부의 제4 영역(540)에는, 특정 라이브 방송(700)과 관련된 채팅(chatting) 정보가 표시될 수 있다. 채팅 정보는, 특정 라이브 방송(700) 진행 중에, 판매자 단말기 또는 복수의 소비자 단말기로부터 수신된 메시지를 포함될 수 있다. 제어부(130)는 판매자 단말기 또는 복수의 소비자 단말기로부터 실시간으로 수신되는 메시지를, 디스플레이부의 제4 영역(540)을 통해 표시할 수 있다. Continuing, as shown in (a) of FIG. 5, in the fourth area 540 of the display unit of the user terminal 200 where the broadcast video 10 is displayed, chatting related to a specific live broadcast 700 is displayed. ) information can be displayed. Chat information may include messages received from a seller terminal or a plurality of consumer terminals while a specific live broadcast 700 is in progress. The control unit 130 may display messages received in real time from a seller terminal or a plurality of consumer terminals through the fourth area 540 of the display unit.

이와 같이, 제어부(130)는 사용자 단말기(200)의 디스플레이부 상에 특정 라이브 방송의 방송 영상(10)이 표시되고 있는 상태에서, 상기 디스플레이부 상에 특정 라이브 방송과 관련된 다양한 정보를 함께 제공함으로써, 사용자가 하나의 디스플레이부를 통해 특정 라이브 방송과 관련된 다양한 정보를 한번에 인식하도록 할 수 있다. In this way, while the broadcast image 10 of a specific live broadcast is displayed on the display unit of the user terminal 200, the control unit 130 provides various information related to the specific live broadcast on the display unit. , users can recognize various information related to a specific live broadcast at once through one display unit.

한편, 본 발명에서는 카메라 영상(20)과 함께, 증강 현실 기능과 연계된 다양한 정보를 사용자 단말기(200)의 디스플레이부(또는 메인 디스플레이 영역(A))에 제공함으로써, 사용자가 증강 현실을 통한 아이템 체험 서비스를 보다 편리하고 직관적으로 이용하도록 할 수 있다. Meanwhile, in the present invention, various information related to the augmented reality function is provided along with the camera image 20 to the display unit (or main display area (A)) of the user terminal 200, so that the user can view items through augmented reality. Experience services can be used more conveniently and intuitively.

도 6에 도시된 것과 같이, 제어부(130)는, 사용자 단말기(200)의 디스플레이부 상에 카메라 영상(20)이 제공되는 있는 상태에서, 사용자 단말기(200)의 디스플레이부의 적어도 일 영역에, 증강 현실 기능과 관련된 다양한 정보가 표시되도록 제어할 수 있다. As shown in FIG. 6, the control unit 130 performs augmentation on at least one area of the display unit of the user terminal 200 while the camera image 20 is provided on the display unit of the user terminal 200. You can control the display of various information related to reality functions.

도 6에 도시된 것과 같이, 카메라 영상(20)과 함께 증강 현실 기능과 연계된 다양한 정보가, 사용자 단말기(200)의 디스플레이부를 통해 표시되는 것을, “카메라 영상(20)의 적어도 일 영역에 정보를 표시(또는 출력 또는 제공)한다”, “다양한 정보가 포함된 카메라 영상(10)을 표시(또는 출력 또는 제공) 한다”고 표현할 수 있다. 이 때, 카메라 영상(20)의 증강 현실 그래픽 처리가 수행된 카메라 영상(20)일 수 있다. 증강 현실 기능과 연계된 다양한 정보 역시, 기 특정된 DB에 특정 라이브 방송과 매칭되어 존재하는 다양한 정보에 근거하여, 디스플레이부에 표시될 수 있다. As shown in FIG. 6, various information associated with the augmented reality function along with the camera image 20 are displayed through the display unit of the user terminal 200, which means “information in at least one area of the camera image 20.” It can be expressed as “display (or output or provide)” or “display (or output or provide) a camera image 10 containing various information.” At this time, the camera image 20 may be a camera image 20 on which augmented reality graphic processing has been performed. Various information associated with the augmented reality function may also be displayed on the display unit based on various information that exists in a pre-specified DB in matching with a specific live broadcast.

도 7에 도시된 것과 같이, 기 특정된 DB에는, 특정 라이브 방송(700)과 연계된 아이템 각각 마다의 상품 정보(721, 722)를 포함하는 맵핑 정보(720)가 존재할 수 있다. 복수의 아이템(ex: 제1 아이템 및 제2 아이템)의 각각의 상품 정보(721, 722)에는, 상기 복수의 아이템 각각과 관련된 증강 현실 기능에서 수행되는 그래픽 처리에 대한 그래픽 정보(721c, 722c)가 포함되어 있을 수 있다. As shown in FIG. 7, mapping information 720 including product information 721 and 722 for each item associated with a specific live broadcast 700 may exist in the pre-specified DB. Each product information 721, 722 of a plurality of items (ex: first item and second item) includes graphic information 721c, 722c about graphics processing performed in an augmented reality function related to each of the plurality of items. may be included.

앞서 설명한 것과 같이, 특정 아이템의 그래픽 정보(721c, 722c)는, i) 특정 아이템과 관련하여, 카메라 영상(20)의 시각적 변형이 이루어져야 하는 피사체의 일 부분을 특정하는 “피사체 정보”, ii) 특정 아이템과 관련하여, 카메라 영상(20)의 시각적 변형을 위한 그래픽 처리 타입에 대한 “타입 정보”, iii) 특정 아이템과 관련하여, 카메라 영상(20)의 시각적 변형에 의해 피사체의 일 부분에 대응되는 영역에서 표현되어야 하는 색상에 대한 “색상 정보” 및 vi) 특정 아이템과 관련하여, 카메라 영상(20)의 시각적 변형에 의해 피사체의 일 부분에 대응되는 영역에 합성(또는 삽입) 되어야 하는 그래픽 객체에 대한 “모양 정보” 중 적어도 하나가 포함될 수 있다. As described above, the graphic information 721c and 722c of a specific item includes i) “subject information” that specifies a portion of the subject for which visual transformation of the camera image 20 is to be performed in relation to the specific item, ii) In relation to a specific item, “type information” about the type of graphics processing for visual transformation of the camera image 20, iii) in relation to a specific item, corresponding to a part of the subject by visual transformation of the camera image 20 “Color information” about the color that must be expressed in the area, and vi) in relation to a specific item, a graphic object that must be synthesized (or inserted) in the area corresponding to a part of the subject by visual transformation of the camera image 20 At least one of the “shape information” may be included.

제어부(130)는, 특정 라이브 방송(700) 연계된 복수의 아이템 각각의 그래픽 정보(721c, 721c)에 근거하여, 도 5의 (b)에 도시된 것과 같이, 카메라 영상(20)이 표시되는 사용자 단말기(200)의 디스플레이부의 적어도 일 영역에, 상기 그래픽 정보(721c, 722c)를 표시할 수 있다. 이 때, 제어부(130)는 상기 그래픽 정보(721c, 722c)를 텍스트(text), 그래픽 객체 또는 아이콘 등으로 디스플레이부에 표시할 수 있다. The control unit 130 displays the camera image 20, as shown in (b) of FIG. 5, based on the graphic information 721c and 721c of each of the plurality of items associated with the specific live broadcast 700. The graphic information 721c and 722c may be displayed in at least one area of the display unit of the user terminal 200. At this time, the control unit 130 may display the graphic information 721c and 722c as text, a graphic object, or an icon on the display unit.

이러한 그래픽 정보(721c, 722c)는, 아이템에 설정된 복수의 옵션에 각각 대응될 수 있다. 여기에서, 옵션은, 아이템을 구매시, 구매하고자 하는 아이템을 특정하기 위한 선택 정보로서, 아이템이 입술(lip) 메이크업(makeup)에 해당하는 상품(ex: 립스틱)인 경우, 옵션은 립스팁의 색상 정보일 수 있다.These graphic information 721c and 722c may each correspond to a plurality of options set for the item. Here, the option is selection information for specifying the item you want to purchase when purchasing an item. If the item is a product corresponding to lip makeup (ex: lipstick), the option is the color of the lip tip. It could be information.

이하에서는 설명의 편의를 위하여, 특정 라이브 방송(700)과 연계된 아이템이 입술(lip) 메이크업(makeup)에 대한 상품인 경우를 예를 들어 설명하도록 한다. Hereinafter, for convenience of explanation, an example will be given where the item associated with a specific live broadcast 700 is a lip makeup product.

도 6에 도시된 것과 같이, 카메라 영상(20)이 표시되는 사용자 단말기(200)의 디스플레이부의 제1 영역(610)에는, 특정 라이브 방송(700)과 연계된 아이템(또는 증강 현실 기능에 연계된 아이템)에 설정된 옵션에 대응되는 그래픽 객체(예를 들어, 도면부호 611, 612)가 출력될 수 있다. 이러한 옵션에 대응되는 그래픽 객체는, 옵션 각각에 대응되는 색상 정보에 대응되는 그래픽 객체일 수 있다.As shown in FIG. 6, in the first area 610 of the display unit of the user terminal 200 where the camera image 20 is displayed, an item associated with a specific live broadcast 700 (or an item associated with an augmented reality function) is displayed. A graphic object (for example, reference numerals 611 and 612) corresponding to an option set in an item may be output. The graphic object corresponding to these options may be a graphic object corresponding to color information corresponding to each option.

이 경우, 상기 카메라 영상(20)은, 상기 아이템에 대응되는 복수의 옵션에 각각 해당하는 색상 정보 중 어느 하나(611)에 의한 그래픽 처리가 수행된 카메라 영상(20)일 수 있다. 예를 들어, 카메라 영상(20)은, 상기 제1 영역(610) 중 특정 일부 영역(610a)에 포함된 그래픽 객체(611)에 대응되는 색상 정보에 대응되도록 색상 변환이 이루어진 카메라 영상(20)에 해당될 수 있다. 예를 들어, 카메라 영상(20)은, 사용자 얼굴 중 입술 부분에 대응되는 영역(420)이, 상기 특정 일부 영역(610a)에 포함된 그래픽 객체(611)에 대응되는 색상 정보로 색 변환이 이루어져 있을 수 있다. In this case, the camera image 20 may be a camera image 20 on which graphic processing has been performed using any one 611 of color information corresponding to a plurality of options corresponding to the item. For example, the camera image 20 is a camera image 20 that has been color converted to correspond to color information corresponding to the graphic object 611 included in a specific partial area 610a of the first area 610. may apply. For example, in the camera image 20, the area 420 corresponding to the lip portion of the user's face is color converted into color information corresponding to the graphic object 611 included in the specific partial area 610a. There may be.

나아가, 제어부(130)는, 사용자 단말기(200)의 디스플레이부 상에, 카메라 영상(20)이 표시되고 있는 상태에서, 제1 영역(610)에 가해진 기 설정된 사용자 입력을 수신하는 것에 근거하여, 상기 카메라 영상(20)에 대한 증강 현실 그래픽 처리를 변경할 수 있다. Furthermore, the control unit 130, based on receiving a preset user input applied to the first area 610 while the camera image 20 is displayed on the display unit of the user terminal 200, Augmented reality graphic processing for the camera image 20 can be changed.

보다 구체적으로, 제어부(130)는, 사용자 단말기(200)의 디스플레이부 상에, 특정 아이템의 제1 옵션에 해당하는 색상 정보에 대응되는 그래픽 처리가 수행된 카메라 영상(20)이 표시되고 있는 상태에서, 제1 영역(610)에 가해진 기 설정된 사용자 입력에 의해 상기 제1 옵션과는 다른 제2 옵션의 색상 정보에 대응되는 그래픽 객체(612)가 선택되는 것에 근거하여, 상기 카메라 영상(20)에 대해 상기 제2 옵션의 색상 정보에 따른 그래픽 처리를 수행할 수 있다. More specifically, the control unit 130 is displaying a camera image 20 on which graphic processing has been performed corresponding to color information corresponding to the first option of a specific item on the display unit of the user terminal 200. In, based on the graphic object 612 corresponding to the color information of the second option different from the first option being selected by a preset user input applied to the first area 610, the camera image 20 Graphics processing according to the color information of the second option may be performed.

일 예로, 상기 특정 일부 영역(610a)에 제1 옵션의 색상 정보에 대응되는 그래픽 객체(611)가 표시되고 있는 상태에서, 제1 영역(610)에 대한 스와이프(swipe) 입력에 연동하여 상기 특정 일부 영역(610a)에 제2 옵션의 색상 정보에 대응되는 그래픽 객체(612)가 표시되는 것으로, 제2 옵션의 색상 정보에 대응되는 그래픽 객체(612)가 선택될 수 있다. For example, in a state where a graphic object 611 corresponding to the color information of the first option is displayed in the specific partial area 610a, the Since the graphic object 612 corresponding to the color information of the second option is displayed in the specific partial area 610a, the graphic object 612 corresponding to the color information of the second option may be selected.

즉, 제어부(130)는 기 설정된 사용자 입력(예를 들어, 드래그, 스와이프 입력)에 근거하여, 상기 제2 옵션의 색상 정보에 대응되는 그래픽 객체(612)가 상기 특정 일부 영역(610a)으로 이동하는 경우, 상기 제2 옵션의 색상 정보에 대응되는 그래픽 객체(612)가 선택된 것으로 처리할 수 있다. 이 경우, 제어부(130)는 카메라 영상에 대해 상기 제2 옵션의 색상 정보를 이용하여 증강 현실 그래픽 처리를 수행할 수 있다.That is, the control unit 130 moves the graphic object 612 corresponding to the color information of the second option to the specific partial area 610a based on a preset user input (e.g., drag or swipe input). When moving, the graphic object 612 corresponding to the color information of the second option may be processed as selected. In this case, the control unit 130 may perform augmented reality graphic processing on the camera image using the color information of the second option.

다른 예로, 상기 특정 일부 영역(610a)에 제1 옵션의 색상 정보에 대응되는 그래픽 객체(611)가 표시되고 있는 상태에서, 사용자 단말기(200)로부터 제2 옵션의 색상 정보에 대응되는 그래픽 객체(612)가 선택된 경우, 제어부(130)는 상기 제2 의 색상 정보에 대응되는 그래픽 객체(612)가 선택된 것으로 처리할 수 있다.As another example, while the graphic object 611 corresponding to the color information of the first option is displayed in the specific partial area 610a, a graphic object corresponding to the color information of the second option is sent from the user terminal 200 ( When 612) is selected, the control unit 130 may process the graphic object 612 corresponding to the second color information as being selected.

이 경우, 제어부(130)는 카메라 영상에 대해 상기 제2 옵션의 색상 정보를 이용하여 증강 현실 그래픽 처리를 수행할 수 있다.In this case, the control unit 130 may perform augmented reality graphic processing on the camera image using the color information of the second option.

한편, 상기 특정 일부 영역(610a)에는, 상기 제1 옵션의 색상 정보에 대응되는 그래픽 객체(611) 대신 상기 제2 옵션의 색상 정보에 대응되는 그래픽 객체(612)가 위치할 수 있다. 이와 같이, 사용자는, 제1 영역(610)에 표시된 복수의 그래픽 객체(611, 612) 중 어느 하나를 선택하여, 다양한 아이템을 체험해볼 수 있다. Meanwhile, in the specific partial area 610a, a graphic object 612 corresponding to the color information of the second option may be located instead of the graphic object 611 corresponding to the color information of the first option. In this way, the user can select one of the plurality of graphic objects 611 and 612 displayed in the first area 610 and experience various items.

한편, 제어부(130)는 상기 특정 일부 영역(610a)에 위치한 그래픽 객체가 사용자 단말기(200)로부터 선택되는 경우, 증강 현실 그래픽 처리된 카메라 영상에 대한 촬영을 수행할 수 있다. 이 경우, 증강 현실 그래픽 처리된 카메라 영상은 사용자 단말기의 저장부 또는 외부 서버(라이브 방송 서버 또는 클라우드 서버 등)에 저장될 수 있다.Meanwhile, when a graphic object located in the specific partial area 610a is selected from the user terminal 200, the control unit 130 may capture a camera image processed with augmented reality graphics. In this case, the camera image processed with augmented reality graphics may be stored in the storage of the user terminal or an external server (live broadcast server or cloud server, etc.).

한편, 도 6에 도시된 것과 같이, 카메라 영상(20)이 표시되는 사용자 단말기(200)의 디스플레이부에서, 상기 특정 일부 영역(610a)의 주변의 제2 영역(620)에는, 상기 특정 일부 영역(610a)에 포함된 그래픽 객체(611)에 대응되는 옵션을 설명하는 설명 문구(ex: “301 스프링데이트”) 및 상기 옵션에 해당하는 아이템을 추천하는 추천 문구(ex: “인기 컬러”) 중 적어도 하나가 표시될 수 있다. Meanwhile, as shown in FIG. 6, in the display unit of the user terminal 200 on which the camera image 20 is displayed, in the second area 620 around the specific partial area 610a, the specific partial area 610a is displayed. Among the descriptive text (ex: “301 Spring Date”) that describes the option corresponding to the graphic object 611 included in (610a) and the recommendation text that recommends the item corresponding to the option (ex: “Popular Color”) At least one may be displayed.

이러한 설명 문구 및 안내 문구 역시, 위에서 살펴본 기 특정된 상품 DB 상에, 상기 아이템과 매칭되어 존재할 수 있다. 예를 들어, 상기 설명 문구 및 안내 문구는, 상기 아이템의 체험 또는 구매를 유도하는 타겟 정보(621d)에 포함될 수 있다. These explanatory phrases and guidance phrases may also exist in matching with the item in the previously specified product DB discussed above. For example, the explanatory text and guidance text may be included in target information 621d that induces experience or purchase of the item.

계속해서, 도 6에 도시된 것과 같이, 카메라 영상(20)이 표시되는 사용자 단말기(200)의 디스플레이부의 제3 영역(630)에는, 특정 라이브 방송(700)과 연계된 적어도 하나의 상품(또는 아이템)에 대한 다양한 아이템 정보가 표시되어, 아이템의 상품명(ex: “리라 파우더 매트립”)으로서 활용되거나, 아이템의 가격 정보(ex: “40,000원”)로서 활용되거나, 아이템을 설명하는 용도로 다양하게 활용될 수 있다. Continuing, as shown in FIG. 6, in the third area 630 of the display unit of the user terminal 200 where the camera image 20 is displayed, at least one product (or Various item information about the item is displayed, and can be used as the product name of the item (ex: “Lira Powder Matte Lip”), used as price information of the item (ex: “40,000 won”), or used to describe the item. It can be used in various ways.

이 때, 상기 제3 영역(630)에는, 카메라 영상(20)에 그래픽 처리가 수행된 특정 아이템에 대응되는 옵션 정보가 포함될 수 있다. 제어부(130)는, 사용자 단말기(200)의 디스플레이부에, 제1 옵션의 색상 정보에 따라 그래픽 처리가 수행된 카메라 영상(20)이 표시되고 있는 상태에서는, 상기 제3 영역(630)에는 상기 아이템에 대응되는 제1 옵션 정보가 표시되도록 제어할 수 있다. 그리고, 제어부(130)는 상기 제1 영역(610)에 대한 기 설정된 사용자 입력에 근거하여, 상기 카메라 영상(20)에 제2 옵션의 색상 정보에 따른 그래픽 처리를 수행하는 것과 연동하여, 상기 제3 영역(630) 상에 상기 제2 옵션에 대응되는 정보가 표시되도록 제어할 수 있다. At this time, the third area 630 may include option information corresponding to a specific item on which graphic processing has been performed on the camera image 20. The control unit 130 is configured to display the camera image 20 on which graphic processing has been performed according to the color information of the first option on the display unit of the user terminal 200, in the third area 630. It is possible to control the display of the first option information corresponding to the item. In addition, the control unit 130 performs graphic processing according to the color information of the second option on the camera image 20 based on a preset user input for the first area 610, and performs graphic processing according to the color information of the second option. 3 It can be controlled to display information corresponding to the second option on area 630.

한편, 앞서 설명한 것과 같이, 증강 현실 기능이 비활성화 된 상태에서는, 사용자 단말기(200)의 메인 디스플레이 영역(A)에 방송 영상(10)이 표시되고(도 4a의 (a) 참조), 증강 현실 기능이 활성화된 상태에서는, 사용자 단말기(200)의 메인 디스플레이 영역(A)에 카메라 영상(20)이 표시될 수 있다(도 4a의 (b) 참조).Meanwhile, as described above, when the augmented reality function is deactivated, the broadcast image 10 is displayed in the main display area (A) of the user terminal 200 (see (a) in FIG. 4A), and the augmented reality function is activated. In this activated state, the camera image 20 may be displayed on the main display area (A) of the user terminal 200 (see (b) in FIG. 4A).

제어부(130)는, 도 4a에 도시된 것과 같이, 사용자 단말기(200)의 메인 디스플레이 영역(A) 상의 적어도 일 영역에는, 증강 현실 기능의 활성화 여부와 독립적으로, 라이브 방송에 연계된 아이템과 관련된 아이템 정보가 계속해서 표시되도록 제어할 수 있다. As shown in FIG. 4A, the control unit 130 displays, independently of whether the augmented reality function is activated, an item related to the live broadcast in at least one area on the main display area (A) of the user terminal 200. You can control item information to be displayed continuously.

보다 구체적으로, 제어부(130)는, 증강 현실 활성화 기능을 비활성화 상태에서 활성화 상태로 전환하는 것에 근거하여 사용자 단말기(200)의 메인 디스플레이 영역(A) 상에, 방송 영상(10)에서 카메라 영상(20)이 표시되더라도, 방송 영상(10)과 함께 표시되던 아이템 정보(430)가 카메라 영상(20)과 함께 계속해서 표시되도록 제어할 수 있다. More specifically, the control unit 130 displays a camera image ( Even if 20) is displayed, the item information 430 displayed together with the broadcast image 10 can be controlled to continue to be displayed together with the camera image 20.

이를 통해, 사용자는, 증강 현실 기능이 활성화된 상태에서도, 증강 현실을 통해 체험하고 있는 아이템이 무엇인지를 계속해서 확인할 수 있다. Through this, the user can continue to check what item is being experienced through augmented reality even when the augmented reality function is activated.

한편, 앞서 설명한 것과 같이, 본 발명에 따른 라이브 방송 제공 시스템(100)은, 기 특정된 DB에 근거하여, 사용자 단말기(200)의 디스플레이부에 다양한 정보를 표시할 수 있을 뿐만 아니라, 라이브 방송에서 진행하는 상품에 대한 증강 현실 기능을 제공할지 여부를 결정할 수 있다. Meanwhile, as described above, the live broadcast providing system 100 according to the present invention not only can display various information on the display unit of the user terminal 200, based on a pre-specified DB, but also can display various information in the live broadcast. You can decide whether to provide augmented reality features for your product.

본 발명에 따른 기 특정된 상품 DB는, 판매자 단말기로부터 수신한 정보에 근거하여 구축될 수 있으며, 본 발명에 따른 라이브 방송 제공 시스템(100)에서 다양한 정보 및 증강 현실 기능을 제공하는 근거가 될 수 있다. 즉, 본 발명에서는, 판매자 단말기로부터 수신한 정보에 근거하여 기 특정된 상품 DB를 구축하고, 구축된 기 특정된 상품 DB에 근거하여 라이브 방송 제공 서비스 및 증강 현실 기능 제공 서비스를 수행할 수 있다. The pre-specified product DB according to the present invention can be constructed based on information received from the seller terminal, and can be the basis for providing various information and augmented reality functions in the live broadcast providing system 100 according to the present invention. there is. That is, in the present invention, a pre-specified product DB can be constructed based on information received from the seller terminal, and a live broadcast provision service and an augmented reality function provision service can be performed based on the constructed pre-specified product DB.

이러한 기 특정된 상품 DB는, 라이브 방송 서버(300)에 의해 구축되거나, 본 발명에 따른 라이브 방송 제공 시스템(100)과 연계된 별도의 외부 서버(100a)에 의해 구축될 수 있다. 이하에서는 라이브 방송 서버(300) 및 본 발명에 따른 라이브 방송 제공 시스템(100)과 연계된 별도의 외부 서버(100a)를 구분하지 않고, 라이브 방송 서버(300)에 의해, 기 특정된 상품 DB를 구축하는 것으로 설명하도록 한다. This pre-specified product DB can be built by the live broadcast server 300 or by a separate external server 100a linked to the live broadcast providing system 100 according to the present invention. Hereinafter, the live broadcast server 300 and the separate external server 100a linked to the live broadcast providing system 100 according to the present invention are not distinguished, and the pre-specified product DB is stored by the live broadcast server 300. Let's explain it by constructing it.

라이브 방송 서버(300)에서는, 판매자 단말기로부터, 수신한 정보를 활용하여 기 특정된 상품 DB를 구축하고, 본 발명에 따른 라이브 제공 시스템(100)의 요청에 응답하여, 기 특정된 상품 DB에 포함된 다양한 정보(또는 데이터)를 본 발명에 따른 라이브 제공 시스템(100)에 제공할 수 있다. The live broadcast server 300 builds a pre-specified product DB using the information received from the seller terminal, and includes it in the pre-specified product DB in response to a request from the live provision system 100 according to the present invention. Various information (or data) can be provided to the live provision system 100 according to the present invention.

라이브 방송 서버(300)는, 판매자 단말기로부터 라이브 방송과 관련된 정보, 라이브 방송에서 판매하는 상품에 대한 정보 및 상품의 증강 현실 기능과 관련된 정보 중 적어도 하나를 제공받기 위하여, 도 8, 도 9 및 도 10에 도시된 것과 같이, 판매자 페이지(800, 900, 1000)를 판매자 단말기에 제공할 수 있다.The live broadcast server 300, in order to receive at least one of information related to the live broadcast, information about the product sold in the live broadcast, and information related to the augmented reality function of the product, from the seller terminal, as shown in FIGS. 8, 9, and As shown in Figure 10, seller pages 800, 900, and 1000 can be provided to the seller terminal.

여기에서, 판매자 페이지(800, 900, 1000)는, 라이브 방송을 통해 상품을 판매하려는 판매자가, i) 라이브 방송과 관련된 정보(ex: 방송 타이틀 정보, 방송 진행자 정보 등), ii) 판매 상품과 관련된 정보(ex: 아이템 종류 정보, 아이템 명칭 정보, 아이템 가격 정보, 아이템 제조원 정보, 아이템을 추천하기 위한 추천 정보, 아이템의 판매 통계 정보 등) 및 ii) 증강 현실 기능과 관련된 다양한 정보를 입력 및 설정할 수 있도록 하는 기능을 제공하는 페이지(또는 화면)로 이해될 수 있다.Here, the seller pages (800, 900, 1000) allow sellers who want to sell products through live broadcasting to provide i) information related to the live broadcast (ex: broadcast title information, broadcast host information, etc.), ii) products for sale, and Enter and set related information (ex: item type information, item name information, item price information, item manufacturer information, recommendation information for recommending an item, item sales statistics information, etc.) and ii) various information related to the augmented reality function. It can be understood as a page (or screen) that provides functions that allow

특히, 라이브 방송 서버(300)는, 판매자 페이지(800, 900, 1000)를 통해, 아이템에 대한 증강 현실 기능을 매칭하기 위한 다양한 정보를 입력받는 기능을 제공할 수 있다. In particular, the live broadcast server 300 can provide a function to receive various information for matching augmented reality functions to items through the seller pages 800, 900, and 1000.

도 8에 도시된 것과 같이, 판매자 페이지(800)에는, 특정 아이템에 대한 증강 현실 기능 매칭 여부를 설정할 수 있는 기능 아이콘(810)을 포함할 수 있다. As shown in FIG. 8, the seller page 800 may include a function icon 810 that can set whether or not the augmented reality function matches for a specific item.

클라우드 서버는, 상기 기능 아이콘(810)에 대한 사용자 입력을 수신하는 것에 근거하여, 판매자 페이지(800)의 일 영역에 증강 현실 기능 매칭을 위한 페이지로 연동되는 화면(ex: 팝업(pop-up), 820)을 표시할 수 있다. Based on receiving a user input for the function icon 810, the cloud server displays a screen (ex: pop-up) linked to a page for matching augmented reality functions in one area of the seller page 800. , 820) can be displayed.

라이브 방송 서버(300)는, 상기 화면(820)을 통해, 증강 현실 기능 매칭을 위한 페이지에 대한 요청(ex: “설정” 선택, 821)을 수신하는 것에 응답하여, 도 9에 도시된 것과 같이, 특정 아이템에 대한 증강 현실 기능 매칭을 위한 판매자 페이지(800)를 제공할 수 있다. The live broadcast server 300 responds to receiving a request for a page for augmented reality function matching (ex: “Settings” selection, 821) through the screen 820, as shown in FIG. 9. , A seller page 800 can be provided for matching augmented reality functions for a specific item.

특정 아이템에 대한 증강 현실 기능 매칭을 위한 판매자 페이지(900)는, i) 증강 현실 기능에 매칭되는 특정 아이템 정보(ex: “상품번호”)를 등록하는 영역(910), ii) 상기 특정 아이템의 이미지를 등록하는 영역(920), iii) 특정 아이템과 관련된 옵션명(ex: 아이템 명칭 또는 아이템 넘버)을 등록하는 영역(930), vi) 상기 특정 아이템과 관련된 그래픽 정보(ex: 색상 정보)를 입력하는 영역(940, 950) 및 v) 상기 특정 아이템을 추천 또는 설명하는데 활용되는 정보를 입력하는 영역(960) 중 적어도 하나를 포함할 수 있다. The seller page 900 for matching the augmented reality function for a specific item includes i) an area 910 for registering specific item information (ex: “product number”) matching the augmented reality function, ii) the specific item’s Area 920 for registering an image, iii) Area 930 for registering an option name (ex: item name or item number) related to a specific item, vi) inputting graphic information (ex: color information) related to the specific item It may include at least one of areas 940 and 950 and v) an area 960 where information used to recommend or explain the specific item is input.

라이브 방송 서버(300)는 상기 판매자 페이지(900)를 통해 입력(또는 수신)된 정보에 근거하여, 특정 아이템에 대해 증강 현실 기능을 매칭하고, 특정 아이템과 증강 현실 기능과 관련된 다양한 정보를 연계하여 기 특정된 상품 DB를 구축할 수 있다. The live broadcast server 300 matches the augmented reality function to a specific item based on the information input (or received) through the seller page 900, and links various information related to the specific item and the augmented reality function. A DB for already specified products can be built.

나아가, 도 10에 도시된 것과 같이, 판매자 페이지(1000)에는, 증강 현실 기능에 기 매칭된 특정 아이템에 대한 수정 기능을 제공하는 아이콘(1010), 삭제 기능을 제공하는 아이콘(1020) 및 히스토리 정보 제공에 매칭된 아이콘(1030) 중 적어도 하나를 포함할 수 있다. Furthermore, as shown in FIG. 10, on the seller page 1000, an icon 1010 that provides a modification function for a specific item previously matched to the augmented reality function, an icon 1020 that provides a delete function, and history information It may include at least one of the icons 1030 matched to the provision.

사용자는, 도 10에 도시된 판매자 페이지(1000)에서, 수정 기능을 제공하는 아이콘(1010)함으로써, 증강 현실 기능에 기 매칭된 특정 아이템에 대한 정보(ex: 색상 정보)를 수정하거나 추가할 수 있다. 또한, 사용자는 삭제 기능을 제공하는 아이콘(1020)을 선택하여 특정 아이템이 더 이상 증강 현실 기능에 매칭되지 않도록 할 수 있다. The user can edit or add information (ex: color information) about a specific item already matched to the augmented reality function by using the icon 1010 that provides the editing function on the seller page 1000 shown in FIG. 10. there is. Additionally, the user can select the icon 1020 that provides a delete function so that a specific item is no longer matched to the augmented reality function.

나아가, 라이브 방송 서버(300)는, 히스토리 정보 제공에 매칭된 아이콘(1030)에 대한 사용자 입력에 응답하여, 판매자 페이지(1000)의 일 영역 상에, 특정 아이템에 대한 증간 현실 기능의 설정 히스토리 정보(1040)를 제공할 수 있다. Furthermore, the live broadcast server 300, in response to a user input for the icon 1030 matched to provide history information, provides setting history information of the augmented reality function for a specific item on one area of the seller page 1000. (1040) can be provided.

이처럼, 본 발명에서는 판매자(또는 진행자)가 증강 현실 기능 제공 여부 및 증강 현실 기능을 통해 제공하는 상품 체험에 대한 설정을 직접 수행할 수 있는 서비스를 제공할 수 있으며, 판매자(또는 진행자)의 설정에 근거하여 특정 아이템에 대한 증강 현실 기능을 제공할 수 있다. As such, in the present invention, a service can be provided that allows the seller (or host) to directly set the settings for whether or not to provide the augmented reality function and the product experience provided through the augmented reality function, and the seller (or host)'s settings can be adjusted. Based on this, augmented reality functions can be provided for specific items.

이에, 판매자는 판매자 페이지를 통해, 정보를 입력하는 과정만으로 소비자들에게 손쉽게 자신의 판매 상품을 체험할 수 있는 기회를 제공할 수 있다. Accordingly, sellers can provide consumers with the opportunity to easily experience their products through the seller page by simply entering information.

한편, 앞서 설명한 것과 같이, 사용자 단말기(200)의 디스플레이부에는, 증강 현실 기능의 활성화 여부와 독립적으로 라이브 방송과 연계된 아이템과 관련된 아이템 정보가 계속해서 표시될 수 있다. Meanwhile, as described above, item information related to items associated with a live broadcast may be continuously displayed on the display unit of the user terminal 200, regardless of whether the augmented reality function is activated.

상기 아이템 정보에는, 라이브 방송과 연계된 복수의 아이템 중 어느 하나와 관련된 아이템 정보(ex: 특정 아이템 명, 가격 등)을 포함할 수 있다. 사용자는, 상기 아이템 정보를 통해 특정 아이템에 대한 정보를 제공받을 수 있다. 나아가 사용자는 특정 아이템의 아이템 정보 외에 보다 더 다양한 아이템에 대한 아이템 정보를 추가로 제공받고 싶어할 수 있다. The item information may include item information (ex: specific item name, price, etc.) related to one of a plurality of items associated with the live broadcast. The user can receive information about a specific item through the item information. Furthermore, the user may wish to receive additional item information about a wider variety of items in addition to item information about a specific item.

이에, 본 발명에서는, 증강 현실 기능의 활성화 여부와는 독립적으로, 사용자 단말기(200)의 디스플레이부 상에 라이브 방송에 연계된 추가 아이템의 아이템 정보를 제공할 수 있다.Accordingly, in the present invention, item information of additional items linked to the live broadcast can be provided on the display unit of the user terminal 200, independently of whether the augmented reality function is activated.

여기에서, “추가 아이템”은, 다양하게 설정될 수 있다. 라이브 방송에 연계된 복수의 아이템 중 방송 영상(10)과 함께 표시된 아이템 정보의 아이템 외에 다른 아이템으로 이해될 수 있다. 예를 들어, 라이브 방송과 연계된 제1 입술 메이크업 대한 아이템 및 제2 입술 메이크업 대한 아이템 중 제1 입술 메이크업에 대한 아이템의 아이템 정보가 방송 영상(10)과 함께 표시되었다고 가정하자. 이 경우, 추가 아이템은 제2 입술 메이크업에 대한 아이템으로 이해될 수 있다. Here, “additional items” can be set in various ways. Among the plurality of items linked to the live broadcast, it may be understood as an item other than the item of item information displayed together with the broadcast video 10. For example, assume that item information of the first lip makeup item among the first lip makeup items and second lip makeup items associated with the live broadcast is displayed together with the broadcast video 10. In this case, the additional item can be understood as an item for the second lip makeup.

나아가, “추가 아이템”은, 라이브 방송에 연계된 아이템과 관련된 아이템으로 이해될 수 있다. 예를 들어, 라이브 방송에 연계된 아이템이 입술 메이크업에 대한 아이템이라고 가정하자. 이 경우, 추가 아이템은 아이 메이크업에 대한 아이템에 해당될 수 있다. Furthermore, “additional items” can be understood as items related to items linked to the live broadcast. For example, let's assume that the item linked to the live broadcast is an item about lip makeup. In this case, the additional item may correspond to an item for eye makeup.

본 발명에서는, 사용자 단말기(200)의 디스플레이부 상에 특정 아이템의 아이템 정보를 표시하고 있는 상태에서, 추가 아이템의 아이템 정보에 대한 사용자 요청에 응답하여, 추가 아이템의 아이템 정보를 제공할 수 있다. In the present invention, while item information of a specific item is being displayed on the display unit of the user terminal 200, item information of an additional item may be provided in response to a user request for item information of an additional item.

도 11의(a)에 도시된 것과 같이, 제어부(130)는 사용자 단말기(200)의 메인 디스플레이 영역(A)에 방송 영상(10)이 표시되고 있는 상태에서, 추가 아이템 목록에 링크된 그래픽 객체(ex: “더보기”, 1140)에 대한 사용자 선택을 수신할 수 있다. As shown in (a) of FIG. 11, the control unit 130 displays a graphic object linked to the additional item list while the broadcast image 10 is displayed on the main display area A of the user terminal 200. User selection for (ex: “See more”, 1140) can be received.

그리고, 도 11의(b)에 도시된 것과 같이, 상기 사용자 선택에 응답하여, 제어부(130)는 메인 디스플레이 영역(A)의 적어도 일 영역에, 복수의 추가 아이템 정보 항목(1110, 1120, 1130)을 포함하는 추가 아이템 정보 목록(1100)을 표시할 수 있다. And, as shown in FIG. 11(b), in response to the user selection, the control unit 130 displays a plurality of additional item information items 1110, 1120, and 1130 in at least one area of the main display area A. ) can display an additional item information list 1100 including.

추가 아이템 정보 목록(1100)에 포함된 복수의 아이템 각각의 아이템 정보 항목(1110, 1120, 1130)에는, 각 항목에 대응되는 아이템의 썸네일 이미지, 아이템 명(ex: “리라 스파이시 볼륨 매트”), 가격 정보(ex: “39,000원”), 이벤트 정보 중 적어도 하나를 포함할 수 있다. Each item information item (1110, 1120, 1130) of a plurality of items included in the additional item information list (1100) includes a thumbnail image of the item corresponding to each item, an item name (ex: “Lira Spicy Volume Mat”), It may include at least one of price information (ex: “39,000 won”) and event information.

나아가, 추가 아이템 정보 목록(1100)에 포함된 복수의 아이템 중 특정 아이템에 증강 현실 기능이 매칭되어 있는 것에 근거하여, 특정 아이템의 아이템 항목의 일 영역(1120a)에는, 상기 특정 아이템과 관련된 증강 현실 기능에 링크된 아이콘(1120b)이 포함되어 있을 수 있다. Furthermore, based on the fact that the augmented reality function is matched to a specific item among the plurality of items included in the additional item information list 1100, an augmented reality function related to the specific item is displayed in one area 1120a of the item item of the specific item. An icon 1120b linked to the function may be included.

한편, 제어부(130)는, 증강 현실 기능이 활성화된 상태에서도, 추가 아이템의 아이템 정보에 대한 사용자 요청에 응답하여, 추가 아이템의 아이템 정보를 제공할 수 있다. Meanwhile, even when the augmented reality function is activated, the control unit 130 may provide item information about additional items in response to a user request for item information about additional items.

도 12의 (a)에 도시된 것과 같이, 제어부(130)는 사용자 단말기(200)의 메인 디스플레이 영역(A)에 카메라 영상(20)이 표시되고 있는 상태에서, 추가 아이템 목록에 링크된 그래픽 객체(1240)에 대한 사용자 선택을 수신할 수 있다. As shown in (a) of FIG. 12, the control unit 130 displays a graphic object linked to the additional item list while the camera image 20 is displayed on the main display area A of the user terminal 200. User selection for 1240 may be received.

그리고, 도 12(b)에 도시된 것과 같이, 상기 사용자 선택에 응답하여, 제어부(130)는 메인 디스플레이 영역(A)의 적어도 일 영역에, 복수의 추가 아이템 정보 항목(1210, 1220, 1230)을 포함하는 추가 아이템 정보 목록(1200)을 표시할 수 있다. And, as shown in FIG. 12(b), in response to the user selection, the control unit 130 displays a plurality of additional item information items 1210, 1220, and 1230 in at least one area of the main display area A. An additional item information list 1200 including can be displayed.

추가 아이템 정보 목록(1200)에 포함된 복수의 아이템 각각의 아이템 정보 항목(1210, 1220, 1230)에는, 각 항목에 대응되는 아이템의 썸네일 이미지, 아이템 명(ex: “리라 스파이시 볼륨 매트”), 가격 정보(ex: “39,000원”), 이벤트 정보 중 적어도 하나를 포함할 수 있다. The item information items 1210, 1220, and 1230 of each of the plurality of items included in the additional item information list 1200 include a thumbnail image of the item corresponding to each item, an item name (ex: “Lira Spicy Volume Mat”), It may include at least one of price information (ex: “39,000 won”) and event information.

나아가, 추가 아이템 정보 목록(1200)에 포함된 복수의 아이템 중 특정 아이템에 증강 현실 기능이 매칭되어 있는 것에 근거하여, 특정 아이템의 아이템 항목의 일 영역(1220a)에는, 상기 특정 아이템과 관련된 증강 현실 기능에 링크된 아이콘(1240)이 포함되어 있을 수 있다. Furthermore, based on the fact that the augmented reality function is matched to a specific item among the plurality of items included in the additional item information list 1200, an augmented reality function related to the specific item is displayed in one area 1220a of the item item of the specific item. An icon 1240 linked to the function may be included.

이와 같이, 사용자는, 방송 영상(10)이 표시되는 사용자 단말기(200)의 디스플레이부에 함께 표시된 증강 현실 기능에 링크된 아이콘(410)을 통해 특정 아이템에 대한 증강 현실 기능을 제공받을 수 있다. 그리고, 사용자는, 추가 아이템 목록(1100, 1200)에 포함된 증강 현실 기능에 링크된 아이콘(1120b, 1220b)을 통해서도 추가 아이템에 대한 증강 현실 기능을 제공받을 수 있다. In this way, the user can be provided with the augmented reality function for a specific item through the icon 410 linked to the augmented reality function displayed on the display unit of the user terminal 200 where the broadcast video 10 is displayed. Additionally, the user can be provided with the augmented reality function for the additional item through the icons 1120b and 1220b linked to the augmented reality function included in the additional item list 1100 and 1200.

제어부(130)는 다양한 상황에서 노출되는 증강 현실 기능에 링크된 아이콘이, 사용자 단말기(200)로부터 선택되기만 하면, 사용자 단말기의 카메라를 활성화시킬 수 있다. 그리고, 제어부(130)는 활성화된 카메라를 통해 수신되는 카메라 영상에, 증강 현실 그래픽 처리를 수행하여, 사용자에게, 아이템에 대한 체험을 제공할 수 있다.The control unit 130 can activate the camera of the user terminal as long as the icon linked to the augmented reality function exposed in various situations is selected from the user terminal 200. Additionally, the control unit 130 may perform augmented reality graphic processing on the camera image received through the activated camera to provide the user with an experience of the item.

한편, 본 발명에서는, 증강 현실 기능이 활성화 상태에서 비활성화 상태로 전환하는 것에 근거하여, PIP(Picture In Picture) 모드 종료와 관련된 데이터 처리를 수행할 수 있다.Meanwhile, in the present invention, data processing related to ending Picture In Picture (PIP) mode can be performed based on the augmented reality function switching from an activated state to a deactivated state.

제어부(130)는, 사용자 단말기(200)로부터 증강 현실 기능에 대한 비활성화 요청을 수신하는 것에 응답하여, 증강 현실 기능을 활성화 상태에서 비활성화 상태로 전환할 수 있다. The control unit 130 may switch the augmented reality function from the activated state to the deactivated state in response to receiving a deactivation request for the augmented reality function from the user terminal 200.

도 13의 (a)에 도시된 것과 같이, 상기 증강 현실 기능에 대한 비활성화 요청은, 사용자 단말기(200)로부터 증강 현실 기능 비활성화 기능에 매칭된 그래픽 객체(또는 아이콘, 1300)가 선택되는 것에 근거하여 수신될 수 있다. As shown in (a) of FIG. 13, the request for deactivation of the augmented reality function is based on selection of a graphic object (or icon, 1300) matched to the deactivation function of the augmented reality function from the user terminal 200. can be received.

보다 구체적으로, 메인 디스플레이 영역(A)에는 카메라 영상(20)을 표시하고, 서브 디스플레이 영역(B)에는 방송 영상(10)이 표시되어 있는 상태에서, 메인 디스플레이 영역(A)의 일 영역에 위치하는 상기 그래픽 객체(1300)가 선택되는 것에 근거하여, 제어부(130)는 증강 현실 기능에 대한 비활성화 요청을 수신할 수 있다. More specifically, with the camera image 20 displayed in the main display area (A) and the broadcast image 10 displayed in the sub-display area (B), it is located in one area of the main display area (A). Based on the graphic object 1300 being selected, the control unit 130 may receive a deactivation request for the augmented reality function.

이러한 증강 현실 기능 비활성화 기능에 매칭된 그래픽 객체(1300)는, “증강 현실 기능 종료 버튼”, “PIP 모드 종료 버튼”, “방송 영상으로 되돌아 가기 버튼” 등으로 다양하게 명명될 수 있다.The graphic object 1300 matched to this augmented reality function deactivation function may be variously named “augmented reality function end button”, “PIP mode end button”, “return to broadcast video button”, etc.

도 13의 (b)에 도시된 것과 같이, 제어부(130)는, 증강 현실 기능에 대한 비활성화 요청을 수신한 것에 응답하여, 사용자 단말기(200)의 디스플레이부 상에서 서브 디스플레이 영역(B)이 사라지도록 제어할 수 있다. 그리고, 제어부(130)는, 사용자 단말기(200)의 디스플레이부에 메인 디스플레이 영역(A)만이 포함되도록 제어할 수 있다. As shown in (b) of FIG. 13, in response to receiving a deactivation request for the augmented reality function, the control unit 130 causes the sub-display area B to disappear on the display unit of the user terminal 200. You can control it. Also, the control unit 130 can control the display part of the user terminal 200 to include only the main display area (A).

나아가, 제어부(130)는, 카메라 영상(20)이 표시되던 메인 디스플레이 영역(A)에, 방송 영상(10)이 표시되도록 제어할 수 있다. 그리고, 제어부(130)는 사용자 단말기(200)의 디스플레이부에 카메라 영상(20)의 표시는 제한할 수 있다.Furthermore, the control unit 130 can control the broadcast image 10 to be displayed in the main display area A where the camera image 20 was displayed. Additionally, the control unit 130 may restrict the display of the camera image 20 on the display of the user terminal 200.

이 경우, 메인 디스플레이 영역(A)에 표시되는 방송 영상(10)은, 서브 디스플레이 영역(B)에서 표시되던 방송 영상(10)일 수 있다. In this case, the broadcast image 10 displayed in the main display area (A) may be the broadcast image 10 displayed in the sub-display area (B).

즉, 증강 현실 기능이 활성화 상태에서 비활성화 상태로 전환되면, 제어부(130)는 서브 디스플레이 영역(B)에서 표시되던 방송 영상(10)이 계속해서 메인 디스플레이 영역(A)에 표시되도록 제어할 수 있다. That is, when the augmented reality function is switched from the activated state to the deactivated state, the control unit 130 can control the broadcast image 10 displayed in the sub-display area (B) to continue to be displayed in the main display area (A). .

사용자는, 증강 현실 기능이 활성화된 상태에서는, 시청 중이던 라이브 방송을 계속해서 시청하면서, 동시에 증강 현실 그래픽 처리가 수행된 카메라 영상(20)을 통해 특정 라이브 방송에서 판매하는 상품을 체험할 수 있다. 나아가, 증강 현실 기능이 비활성화된 상태에서는, 시청 중이던 라이브 방송만을 계속해서 시청할 수 있다. When the augmented reality function is activated, the user can continue to watch the live broadcast he was watching and at the same time experience products sold in a specific live broadcast through the camera image 20 on which augmented reality graphic processing has been performed. Furthermore, when the augmented reality function is disabled, you can continue to watch only the live broadcast you were watching.

한편, 본 발명에서는, 라이브 방송을 시청하는 사용자가, 라이브 방송을 통해 판매하는 상품을 구매할 수 있도록, 상품을 구매하기 위한 상품 구매 페이지를 사용자 단말기(200)에 제공할 수 있다. Meanwhile, in the present invention, a product purchase page for purchasing products can be provided to the user terminal 200 so that users watching a live broadcast can purchase products sold through the live broadcast.

제어부(130)는, 사용자 단말기(200)의 디스플레이부에 방송 영상(10) 및 카메라 영상(20) 중 적어도 하나가 표시되고 있는 상태에서, 사용자 단말기(200)로부터 특정 아이템 정보에 대한 기 설정된 입력을 수신할 수 있다.The control unit 130 receives a preset input for specific item information from the user terminal 200 while at least one of the broadcast image 10 and the camera image 20 is displayed on the display unit of the user terminal 200. can receive.

도 14의 (a)에 도시된 것과 같이, 상기 특정 아이템 정보에 대한 기 설정된 입력을 수신하는 것은, 사용자 단말기(200)로부터 특정 아이템의 아이템 정보(ex: 특정 아이템의 대표 이미지 또는 썸네일, 1410)가 표시되는 영역에 대한 기 설정된 입력이 가해지는 것에 근거하여 수신될 수 있다. 상기 특정 아이템의 아이템 정보에는, 도 14의 (b)에 도시된 것과 같이, 특정 아이템을 판매하는 상품 구매 페이지(1400)가 링크되어 있을 수 있다. As shown in (a) of FIG. 14, receiving a preset input for the specific item information includes item information (ex: representative image or thumbnail of the specific item, 1410) of the specific item from the user terminal 200. may be received based on a preset input being applied to the displayed area. The item information of the specific item may be linked to a product purchase page 1400 selling the specific item, as shown in (b) of FIG. 14 .

도 14의 (b)에 도시된 것과 같이, 제어부(130)는, 사용자 단말기(200)로부터 특정 아이템의 아이템 정보(1410)에 대한 기 설정된 입력을 수신한 것에 근거하여, 상기 특정 아이템에 대응되는 상품을 구매하기 위한 상품 구매 페이지(1400)를, 사용자 단말기(200) 상에 제공할 수 있다. 이 때, 상품 구매 페이지(1400)는, 사용자 단말기(200)의 디스플레이부의 일 영역에 모달 윈도(Modal Window) 방식으로 제공될 수 있다.As shown in (b) of FIG. 14, the control unit 130, based on receiving a preset input for item information 1410 of a specific item from the user terminal 200, A product purchase page 1400 for purchasing a product may be provided on the user terminal 200. At this time, the product purchase page 1400 may be provided in a modal window in one area of the display unit of the user terminal 200.

한편, 상품 구매 페이지(1400)는, 증강 현실 기능이 비활성화 된 상태에서는 방송 영상(10)에 오버랩되어 표시되어 있는 아이템 정보에 링크되어 있을 수 있다.Meanwhile, the product purchase page 1400 may be linked to item information displayed overlapping the broadcast image 10 when the augmented reality function is deactivated.

나아가, 상품 구매 페이지(1400)는 증강 현실 기능이 활성화된 상태에서는 카메라 영상(20)에 오버랩 되어 표시되어 있는 아이템 정보에 링크되어 있을 수 있다. 즉, 본 발명에서 사용자 단말기 (200)의 디스플레이부 상에 표시되는 특정 아이템 정보에는, 상기 특정 아이템 정보에 대응되는 상품을 구매할 수 있는 상품 구매 페이지(1400)가 링크되어 있을 수 있다. Furthermore, the product purchase page 1400 may be linked to item information displayed overlapping the camera image 20 when the augmented reality function is activated. That is, in the present invention, specific item information displayed on the display unit of the user terminal 200 may be linked to a product purchase page 1400 where a product corresponding to the specific item information can be purchased.

한편, 도 14의 (b)에 도시된 것과 같이, 상기 상품 구매 페이지(1400)는, 사용자 단말기(200)에서 라이브 방송의 방송 영상(10)을 수신하고 있는 상태에서 사용자 단말기 (200)의 디스플레이부 상에 제공될 수 있다. Meanwhile, as shown in (b) of FIG. 14, the product purchase page 1400 is displayed on the user terminal 200 while the user terminal 200 is receiving the broadcast video 10 of a live broadcast. It may be provided on the side.

상기 상품 구매 페이지(1400)를 포함한 모달 윈도(Modal Window)의 백그라운드(Background) 영역(또는 화면)에서는 상기 라이브 방송의 방송 영상(10)이 계속해서 표시될 수 있다. The broadcast image 10 of the live broadcast may be continuously displayed in the background area (or screen) of the modal window including the product purchase page 1400.

상기 모달 윈도(Modal Window)에 의해 상기 방송 영상(10)이 가려지는 경우에는, 제어부(130)는 방송 영상(10)에서 제공하는 방송 사운드가, 사용자 단말기(200)을 통해 계속해서 출력되도록 제어할 수 있다. When the broadcast image 10 is obscured by the modal window, the control unit 130 controls the broadcast sound provided by the broadcast image 10 to be continuously output through the user terminal 200. can do.

나아가, 제어부(130)는 상품 구매 페이지(1400)를 통한 사용자 단말기(200)로부터 결제 요청이 수신되는 것에 근거하여, 상품 판매 페이지에서 판매하는 특정 아이템에 대응되는 상품 결제 프로세스가 진행되도록 제어할 수 있다. Furthermore, the control unit 130 can control the product payment process corresponding to a specific item sold on the product sales page to proceed based on a payment request being received from the user terminal 200 through the product purchase page 1400. there is.

이러한 결제 프로세스의 수행은 본 발명에 따른 전자 결제 시스템에 의해서 이루어질 수 있다. 제어부(130)는 통신부(110)가 금융 기관(은행 또는 신용카드)서버와 통신을 수행하도록 통신부(110)를 제어할 수 있다. 제어부(130)는 통신부(110)를 통하여 금융 기관에 사용자 계정과 연계된 계좌로부터 특정 아이템에 대응되는 결제 대상 금액을 요청할 수 있다. 다만, 상술한 절차는 실시예에 불과하며, 전자 결제 프로세스를 위해 처음 수행되는 절차는 이에 제한되지 않는다. This payment process can be performed by the electronic payment system according to the present invention. The control unit 130 may control the communication unit 110 so that the communication unit 110 communicates with a financial institution (bank or credit card) server. The control unit 130 may request a payment amount corresponding to a specific item from an account associated with the user account to the financial institution through the communication unit 110. However, the above-described procedure is only an example, and the procedure initially performed for the electronic payment process is not limited thereto.

한편, 사용자는 사용자 단말기(200)의 카메라를 활성화할 수 없거나, 자신의 사용자 단말기(200)에 구비된 카메라로부터 수신한 카메라 영상(20)이 아닌, 방송 영상(10)을 이용하여, 특정 아이템에 대한 체험을 제공받고자 하는 니즈가 존재할 수 있다. 예를 들어, 사용자는 자신의 얼굴이 아닌 판매자의 얼굴에 입술 메이크업에 대한 아이템을 적용하여 아이템을 체험하고 싶을 수 있다. 또한, 라이브 방송을 진행하는 진행자 역시, 자신의 얼굴에 입술 메이크업에 대한 아이템을 적용하여 소비자들에게 아이템을 소개할 수 있다. Meanwhile, the user cannot activate the camera of the user terminal 200 or uses the broadcast video 10 rather than the camera video 20 received from the camera provided in the user terminal 200 to select a specific item. There may be a need to receive experience about . For example, a user may want to experience an item by applying lip makeup to the seller's face rather than to the user's own face. Additionally, the host of the live broadcast can also apply lip makeup items to his or her face and introduce the items to consumers.

이에, 본 발명에서는 방송 영상(10)에 증강 현실 그래픽 처리를 수행하는 증간 현실 기능을 제공할 수 있다. Accordingly, the present invention can provide an augmented reality function that performs augmented reality graphic processing on the broadcast video 10.

도 15의 (a)에 도시된 것과 같이, 제어부(130)는, 사용자 단말기(200)의 디스플레이부 상에 방송 영상(10)이 제공되고 있는 상태에서, 사용자 단말기(200)로부터 방송 영상(10)을 이용한 증강 현실 기능에 대한 활성화 요청을 수신할 수 있다. As shown in (a) of FIG. 15, the control unit 130 controls the broadcast image 10 from the user terminal 200 while the broadcast image 10 is being provided on the display unit of the user terminal 200. ) can receive a request for activation of the augmented reality function.

방송 영상(10)을 이용한 증강 현실 기능에 대한 활성화 요청은, 사용자 단말기(200)로부터 방송 영상(10)을 이용한 증강 현실 기능에 링크된 아이콘(1500)이 선택되는 것에 근거하여 수신될 수 있다. A request to activate the augmented reality function using the broadcast image 10 may be received from the user terminal 200 based on selection of the icon 1500 linked to the augmented reality function using the broadcast image 10.

도 15의 (b)에 도시된 것과 같이, 제어부(130)는 방송 영상(10)을 이용한 증강 현실 기능에 대한 활성화 요청에 근거하여, 라이브 방송 서버(300)로부터 수신하는 방송 영상(20)에 대한 증강 현실 그래픽 처리를 수행할 수 있다. As shown in (b) of FIG. 15, the control unit 130 activates the broadcast image 20 received from the live broadcast server 300 based on a request for activation of the augmented reality function using the broadcast image 10. Augmented reality graphics processing can be performed.

그래픽 처리가 수행된 방송 영상(10)은, 증강 현실 기능에 대한 활성화 요청에 있더라도, 계속해서 메인 디스플레이 영역(A)을 통해 제공될 수 있다. 또한, 이 경우, 사용자 단말기(200) 상에 서브 디스플레이 영역(B)은 표시되지 않을 수 있다. The broadcast image 10 on which graphic processing has been performed may continue to be provided through the main display area A even if there is a request for activation of the augmented reality function. Additionally, in this case, the sub-display area B may not be displayed on the user terminal 200.

한편, 비록 도시되지는 않았지만, 사용자 단말기(200)의 디스플레이부 상에는, 증강 현실 기능에 링크된 제1 아이콘 및 제2 아이콘이 표시될 수 있다. 제1 아이콘은, 사용자 단말기(200)의 카메라로부터 수신되는 카메라 영상(20)을 이용한 증강 현실 기능에 링크되어 있는 아이콘(410, 도 4a의 (a) 참조)이고, 제2 아이콘은, 방송 영상(20)을 이용한 증강 현실 기능에 링크되어 있는 아이콘(1610, 도 16의 (a) 참조)일 수 있다. Meanwhile, although not shown, a first icon and a second icon linked to the augmented reality function may be displayed on the display unit of the user terminal 200. The first icon is an icon (410, see (a) in FIG. 4A) linked to the augmented reality function using the camera image 20 received from the camera of the user terminal 200, and the second icon is a broadcast image. It may be an icon 1610 (see (a) of FIG. 16) linked to an augmented reality function using (20).

제어부(130)는 제1 아이콘(410) 및 제2 아이콘(1610) 중 상기 제2 아이콘(1610)이 선택되어, 증강 현실 기능에 대한 활성화 요청을 수신한 근거하여, 카메라 영상(20)에 대해 증강 현실 그래픽 처리를 수행할 수 있다. The control unit 130 selects the second icon 1610 among the first icon 410 and the second icon 1610 and sends the camera image 20 based on receiving a request for activation of the augmented reality function. Augmented reality graphics processing can be performed.

또한, 비록 도시되지는 않았지만, 제어부(130)는, 사용자 단말기(200)로부터 방송 영상(10)을 이용한 증강 현실 기능에 링크된 아이콘이 선택되는 것에 근거하여 증강 현실 기능에 대한 활성화 요청을 수신하면, 방송 영상(10) 및 카메라 영상(20) 중 어느 하나의 영상을 선택할 수 있는 화면(예를 들어, 방송 영상에 대응되는 제1 그래픽 객체 및 카메라 영상에 대응되는 제2 그래픽 객체를 포함하는 화면)을 제공할 수 있다. In addition, although not shown, when the control unit 130 receives a request to activate the augmented reality function based on the icon linked to the augmented reality function using the broadcast image 10 from the user terminal 200 is selected. , a screen for selecting any one of the broadcast image 10 and the camera image 20 (e.g., a screen including a first graphic object corresponding to the broadcast image and a second graphic object corresponding to the camera image) ) can be provided.

제어부(130)는 사용자 단말기(200)로부터 방송 영상(10) 및 카메라 영상(20) 중 어느 하나가 선택되는 것에 근거하여, 선택된 영상에 대해 증간 현실 그래픽 처리를 수행할 수 있다. Based on whether one of the broadcast image 10 and the camera image 20 is selected from the user terminal 200, the control unit 130 may perform augmented reality graphics processing on the selected image.

또한, 비록 도시되지는 않았지만, 제어부(130)는, 판매자의 사용자 단말기(또는 판매자 단말기)에서 방송 영상(10)에 대해 증강 현실 그래픽 처리가 수행된 경우, 소비자의 사용자 단말기(200)에, 증강 현실 그래픽 처리가 수행된 방송 영상(10)을 제공할 수 있다. In addition, although not shown, the control unit 130 provides augmented reality graphics processing to the consumer's user terminal 200 when augmented reality graphics processing is performed on the broadcast image 10 in the seller's user terminal (or seller's terminal). A broadcast image 10 on which realistic graphics processing has been performed can be provided.

또한, 비록 도시되지는 않았지만. 라이브 방송의 방송 영상(10)이 제1 사용자 단말기 및 제2 사용자 단말기 상에 각각 표시되고 있는 상태에서, 제1 사용자 단말기로부터 방송 영상(10)을 이용한 증강 현실 기능에 대한 활성화 요청을 수신하였다고 가정하자. 제어부(130)는 상기 증강 현실 기능에 대한 활성화 요청에 근거하여, 상기 제1 사용자 단말기 상에는 그래픽 처리가 수행된 방송 영상(10)을 표시할 수 있다. 이와 달리, 제2 사용자 단말기 상에는 그래픽 처리가 수행된 카메라 영상이 표시되는 것을 제한할 수 있다. Also, although not shown. Assume that a request to activate an augmented reality function using the broadcast video 10 is received from the first user terminal while the broadcast video 10 of a live broadcast is displayed on the first user terminal and the second user terminal, respectively. let's do it. The control unit 130 may display the broadcast image 10 on which graphic processing has been performed on the first user terminal based on a request to activate the augmented reality function. In contrast, the display of camera images on which graphic processing has been performed may be restricted from being displayed on the second user terminal.

즉, 본 발명에서는 판매자 단말기로부터 방송 영상(10)을 이용한 증강 현실 기능에 대한 활성화 요청을 수신한 경우, 라이브 방송을 시청하는 제1 사용자 단말기 및 제2 사용자 단말기에 각각 그래픽 처리가 수행된 방송 영상(10)을 표시할 수 있다. That is, in the present invention, when a request for activation of the augmented reality function using the broadcast image 10 is received from the seller terminal, the broadcast image on which graphics processing is performed on each of the first user terminal and the second user terminal watching the live broadcast (10) can be displayed.

반면에, 라이브 방송을 시청하는 제1 사용자 단말기로부터 방송 영상(10)을 이용한 증강 현실 기능에 대한 활성화 요청을 수신한 경우, 제1 사용자 단말기에는 그래픽 처리가 수행된 방송 영상(10)을 표시하고, 제2 사용자 단말기에는 그래픽 처리가 수행된 방송 영상(20)의 표시를 제한할 수 있다. On the other hand, when a request for activation of the augmented reality function using the broadcast image 10 is received from the first user terminal watching the live broadcast, the first user terminal displays the broadcast image 10 on which graphic processing has been performed, and , display of the broadcast image 20 on which graphic processing has been performed may be restricted in the second user terminal.

또한, 비록 도시되지는 않았지만, 사용자 단말기(200)의 메인 디스플레이 영역(A)에, 그래픽 처리가 수행된 방송 영상(10)이 표시되고 있는 상태에서, 사용자 단말기(200)로부터 증강 현실 기능에 대한 활성화 요청을 수신할 수 있다. 이 경우, 상기 증강 현실 기능에 대한 활성화 요청은, 사용자 단말기(200)의 카메라 영상을 이용한 증강 현실 기능에 대한 활성화 요청일 수 있다. In addition, although not shown, while the broadcast image 10 on which graphic processing has been performed is displayed on the main display area A of the user terminal 200, the augmented reality function is received from the user terminal 200. An activation request may be received. In this case, the request to activate the augmented reality function may be a request to activate the augmented reality function using the camera image of the user terminal 200.

제어부(130)는, 상기 증강 현실 기능에 대한 활성화 요청에 근거하여, 사용자 단말기(200)의 메인 디스플레이 영역(A)에는, 증강 현실 그래픽 처리가 수행된 카메라 영상(20)을 표시하고, 서브 디스플레이 영역(B)에는 증강 현실 그래픽 처리가 수행된 방송 영상(10)을 표시할 수 있다. Based on the request to activate the augmented reality function, the control unit 130 displays the camera image 20 on which augmented reality graphic processing has been performed in the main display area (A) of the user terminal 200, and displays the camera image 20 on which augmented reality graphic processing has been performed. In area B, a broadcast image 10 on which augmented reality graphic processing has been performed can be displayed.

예를 들어, 메인 디스플레이 영역(A)에는, 사용자의 얼굴에 메이크업이 된 카메라 영상이 표시되고, 서브 디스플레이 영역(B)에는, 라이브 방송 진행자의 얼굴에 메이크업이 된 카메라 영상이 표시될 수 있다. For example, in the main display area (A), a camera image with makeup applied to the user's face may be displayed, and in the sub-display area (B), a camera image with makeup applied to the live broadcast host's face may be displayed.

한편, 위에서 설명되는 라이브 방송의 방송 영상은, 실시간 스트리밍되는 영상일 수 있고, 라이브 방송이 종료되어 라이브 방송 서버(200)에 저장된 방송 영상일 수 있다. 이러한 방송 영상은 녹화 방송 영상이라고도 표현될 수 있다. 본 발명에서는 녹화 방송 영상이 사용자 단말기(200) 상에서 제공되고 있는 상태에서도, 증강 현실 기능에 링크된 아이콘을 녹화 방송 영상과 함께 제공할 수 있다. 이 경우, 제어부(130)는 상기 아이콘이 선택되는 것에 근거하여, 위에서 살펴본 방법과 마찬가지로, 사용자 단말기에 구비된 카메라의 카메라 영상을 이용하여 증강 현실 그래픽 처리된 카메라 영상을 제공할 수 있다. 이에, 녹화 방송 영상에 대하여 증강 현실 관련 기능을 제공하는 방법은, 위에서 살펴본 설명으로 대체하도록 한다.Meanwhile, the broadcast image of the live broadcast described above may be a real-time streaming image or may be a broadcast image stored in the live broadcast server 200 after the live broadcast has ended. Such broadcast video may also be expressed as recorded broadcast video. In the present invention, even when a recorded broadcast video is provided on the user terminal 200, an icon linked to the augmented reality function can be provided along with the recorded broadcast video. In this case, based on the icon being selected, the control unit 130 may provide a camera image processed with augmented reality graphics using a camera image from a camera provided in the user terminal, similar to the method discussed above. Accordingly, the method of providing augmented reality-related functions to recorded broadcasting images will be replaced with the explanation discussed above.

한편, 앞서 설명한 것과 같이, 본 발명에 따른 상품(또는 아이템)에는 적어도 하나의 옵션 정보가 포함되어 있을 수 있다. 본 발명에서는, 사용자가 상품의 옵션 별 증강 현실 체험 또는 상품 구매를 손쉽게 할 수 있도록, 옵션과 연계된 다양한 서비스를 제공할 수 있다. 한편, 본 발명에서, 상품과 아이템은 혼용하여 사용될 수 있다. Meanwhile, as described above, a product (or item) according to the present invention may include at least one option information. In the present invention, various services linked to options can be provided so that users can easily experience augmented reality for each product option or purchase the product. Meanwhile, in the present invention, products and items can be used interchangeably.

여기에서, “옵션”은, 아이템을 구매시, 구매하고자 하는 아이템을 특정하기 위한 선택 정보로서, 아이템이 입술(lip) 메이크업(makeup)에 해당하는 상품(ex: 립스틱)인 경우, 옵션은 립스팁의 색상 정보일 수 있다.Here, “option” is selection information for specifying the item you want to purchase when purchasing an item. If the item is a product corresponding to lip makeup (ex: lipstick), the option is a lip tip. It may be color information of .

이하에서는, 첨부된 도면과 함께, 본 발명에 따른 옵션 정보와 연계된 라이브 방송 제공 방법을 설명하도록 한다. 도 16은, 본 발명에서, 라이브 방송 및 라이브 방송과 연계된 상품의 옵션 정보를 제공하는 방법 설명하기 위한 흐름도이고 도 17, 도 18, 도 19, 도 20, 도 21, 도 22, 도 23a, 도 23b, 도 24a, 도 24b, 도 25, 도 26a 및 도 26b는, 본 발명에 따른 옵션 정보와 연계된 서비스를 제공하는 사용자 환경을 설명하기 위한 개념도들이다. Hereinafter, a method of providing live broadcasting linked to option information according to the present invention will be described along with the attached drawings. Figure 16 is a flowchart for explaining a method of providing option information for live broadcasts and products linked to live broadcasts in the present invention, and includes Figures 17, 18, 19, 20, 21, 22, and 23a. Figures 23b, 24a, 24b, 25, 26a, and 26b are conceptual diagrams for explaining a user environment that provides services linked to option information according to the present invention.

본 발명에 따른 라이브 방송 제공 방법에서는, 라이브 방송 서버(100)로부터, 라이브 방송의 방송 영상(10)을 수신하는 과정이 진행될 수 있다(S1610, 도 16 참조). 상기 방송 영상(10)은, 라이브 방송 제공 서버(300)로부터 스트리밍(Streaming) 기법으로 수신될 수 있다.In the method for providing live broadcasting according to the present invention, a process of receiving broadcast video 10 of a live broadcast may be performed from the live broadcasting server 100 (S1610, see FIG. 16). The broadcast video 10 may be received from the live broadcast providing server 300 using a streaming technique.

본 발명에 따른 라이브 방송 제공 방법에서는, 상기 방송 영상(10)의 수신에 근거하여, 사용자 단말기(200)의 디스플레이부의 메인 디스플레이 영역(A) 상에 방송 영상(10)을 제공하는 과정이 진행될 수 있다(S1620, 도 16 참조). In the method of providing live broadcasting according to the present invention, based on the reception of the broadcast image 10, a process of providing the broadcast image 10 on the main display area (A) of the display unit of the user terminal 200 may be performed. There is (S1620, see FIG. 16).

앞서 설명한 것과 같이, 본 발명에서 사용자 단말기(200)의 디스플레이부는, 메인 디스플레이 영역(A) 및 서브 디스플레이 영역(B) 중 어느 하나를 포함할 수 있다. As described above, in the present invention, the display unit of the user terminal 200 may include either a main display area (A) or a sub-display area (B).

앞서 살펴본 도 4a의 (b)에 도시된 것과 같이, 서브 디스플레이 영역(B)은, 메인 디스플레이 영역(A) 중 적어도 일부에 오버랩(또는 중첩)되어 표시될 수 있다. As shown in (b) of FIG. 4A discussed above, the sub-display area (B) may be displayed overlapping (or overlapping) at least a portion of the main display area (A).

본 발명에서, 디스플레이부가 하나의 디스플레이 영역을 포함하는 상태에서는, 상기 하나의 디스플레이 영역을 메인 디스플레이 영역(A)으로 이해할 수 있다. 이를 본 발명에서는, “사용자 단말기(200)의 디스플레이부의 PIP 모드가 비활성화 상태” 인 것으로 설명할 수 있다. In the present invention, when the display unit includes one display area, the one display area can be understood as the main display area (A). In the present invention, this can be explained as “the PIP mode of the display unit of the user terminal 200 is in a deactivated state.”

한편, 본 발명에서는 메인 디스플레이 영역(A)은, “메인 영역”, “제1 디스플레이 영역”등으로 명명 가능하며, 서브 디스플레이 영역(B)은, “서브 영역”, “제2 디스플레이 영역”등으로 명명 가능하다. Meanwhile, in the present invention, the main display area (A) can be named “main area”, “first display area”, etc., and the sub display area (B) can be named “sub area”, “second display area”, etc. It can be named as

다음으로, 본 발명에 따른 라이브 방송 제공 방법에서는, 메인 디스플레이 영역(A) 상에 방송 영상(10)이 제공되고 있는 상태에서, 사용자 단말기(200)로부터 라이브 방송과 관련된 증강 현실 기능에 대한 활성화 요청을 수신하는 과정이 진행될 수 있다(S1630, 도 16 참조).Next, in the method for providing live broadcasting according to the present invention, while the broadcast image 10 is being provided on the main display area (A), a request is made to activate an augmented reality function related to the live broadcast from the user terminal 200. The process of receiving may proceed (S1630, see FIG. 16).

앞서 설명한 것과 같이, 제어부(130)는, 사용자 단말기(200)로부터 증강 현실 기능에 링크된 아이콘(410)이 선택되는 것에 근거하여, 증강 현실 기능에 대한 활성화 요청을 수신할 수 있다(도 4a의 (a) 참조). As described above, the control unit 130 may receive an activation request for the augmented reality function based on the icon 410 linked to the augmented reality function being selected from the user terminal 200 (see Figure 4a). (see (a)).

제어부(130)는, 상기 증강 현실 기능에 대한 활성화 요청을 수신한 것에 근거하여, 증강 현실 기능의 상태를 비활성화 상태에서 활성화 상태로 전환(또는 변경)할 수 있다. The control unit 130 may switch (or change) the state of the augmented reality function from a deactivated state to an activated state based on receiving a request to activate the augmented reality function.

나아가, 제어부(130)는 증강 현실 기능이 활성화되는 것에 연동하여, 사용자 단말기(200)의 카메라가 활성화되도록 제어할 수 있다. Furthermore, the control unit 130 may control the camera of the user terminal 200 to be activated in conjunction with the augmented reality function being activated.

여기에서, “카메라 활성화”는, 카메라로부터 카메라 영상(20)을 수신할 수 있도록, 카메라가 실행시키는 것으로 이해할 수 있다. Here, “camera activation” can be understood as enabling the camera to receive the camera image 20 from the camera.

그리고, 제어부(130)는, 사용자 단말기(200)의 카메라를 활성화시켜, 카메라로부터 카메라 영상(20)을 수신할 수 있다. Additionally, the control unit 130 may activate the camera of the user terminal 200 and receive the camera image 20 from the camera.

여기에서, 카메라 영상(20)은, 카메라에 의해 인식되는 영역에 대한 프리뷰(prewiew) 화면(또는 영상) 및 카메라의 의해 촬영된 촬영 영상(이미지 또는 동영상)을 중 적어도 하나로 이해될 수 있다. Here, the camera image 20 can be understood as at least one of a preview screen (or video) of an area recognized by the camera and a captured video (image or video) captured by the camera.

다음으로, 본 발명에 따른 라이브 방송 제공 방법에서는, 상기 활성화 요청에 따라 증강 현실 기능이 활성화되는 것에 응답하여, 사용자 단말기(200)에 구비된 카메라로부터 수신되는 카메라 영상에 대해, 라이브 방송에 연계된 아이템과 관련된 증강 현실 그래픽 처리를 수행하는 과정이 진행될 수 있다(S1640, 도 16 참조). Next, in the method for providing live broadcasting according to the present invention, in response to the augmented reality function being activated according to the activation request, the camera image received from the camera provided in the user terminal 200 is linked to the live broadcast. A process of performing augmented reality graphic processing related to the item may proceed (S1640, see FIG. 16).

예를 들어, 제어부(130)는, 라이브 방송에 연계된 아이템에 매칭된 색상 정보에 근거하여, 사용자 얼굴 중 입술에 대응되는 카메라 영상(20)의 영역(420)의 색상을 변경할 수 있다(도 4a의 (b)참조). 즉, 제어부(130)는, 카메라 영상(20)에 대한 색 변경 또는 색 보정을 통해, 카메라 영상(20)에 포함된 사용자의 얼굴 이미지에 화장을 한 것과 같은 효과를 제공할 수 있다. For example, the control unit 130 may change the color of the area 420 of the camera image 20 corresponding to the lips of the user's face based on color information matched to an item associated with a live broadcast (Figure (see (b) of 4a). That is, the control unit 130 can provide an effect as if makeup was applied to the user's face image included in the camera image 20 by changing the color or correcting the color of the camera image 20.

다음으로, 본 발명에 따른 라이브 방송 제공 방법에서는, 사용자 단말기(200)에서 방송 영상(10)을 수신하고 있는 상태에서, 증강 현실 그래픽 처리된 카메라 영상(20)과 함께, 상품과 관련된 옵션 정보를 사용자 단말기(200)의 디스플레이부 상에 표시하는 과정이 진행될 수 있다(S1650, 도 16 참조).Next, in the method of providing live broadcasting according to the present invention, while receiving the broadcast image 10 at the user terminal 200, option information related to the product is provided along with the augmented reality graphic-processed camera image 20. A display process on the display unit of the user terminal 200 may proceed (S1650, see FIG. 16).

제어부(130)는, 증강 현실 기능이 활성화되는 것에 응답하여, 방송 영상(10)이 출력되던 메인 디스플레이 영역(A) 상에, 그래픽 처리가 수행된 카메라 영상(20)과 함께, 상품과 관련된 옵션 정보를 출력할 수 있다. In response to the augmented reality function being activated, the control unit 130 displays product-related options along with the camera image 20 on which graphic processing has been performed on the main display area A where the broadcast image 10 was output. Information can be printed.

사용자는, 옵션 정보를 통해 상품에 설정된 옵션의 종류를 직관적으로 인식하고, 상품 옵션 별 증강 현실을 체험함으로써, 상품 구매에 도움을 얻을 수 있다. 이하에서는, 상품과 관련된 다양한 옵션 정보를, 그래픽 처리가 수행된 카메라 영상(20)과 함께 제공하는 방법에 대해 보다 구체적으로 설명하도록 한다. Users can intuitively recognize the types of options set for a product through option information and experience augmented reality for each product option, which helps them purchase the product. Hereinafter, a method of providing various option information related to a product together with the camera image 20 on which graphic processing has been performed will be described in more detail.

본 발명에 따른 라이브 방송 서버(300)에는, 도 17에 도시된 것과 같이, 기 특정된 상품 데이터베이스(1700)가 존재할 수 있다. As shown in FIG. 17, a pre-specified product database 1700 may exist in the live broadcast server 300 according to the present invention.

상품 데이터베이스(1700)에는, 상품에 설정된 적어도 하나의 옵션 각각에 연계된 옵션 정보가, 옵션 각각에 매칭되어 존재할 수 있다. In the product database 1700, option information associated with each of at least one option set for a product may exist in matching with each option.

이러한 옵션 정보에는, 상품에 설정된 적어도 하나의 옵션의 속성(ex: 시각적 속성)을 특정할 수 있는 속성 정보가 존재할 수 있다. 예를 들어, 상품이 입술에 대한 메이크업 상품인 경우, 옵션에 매칭된 속성 정보에는, 옵션에 대응되는 상품에 대한 색상 정보(또는 컬러 코드, 1710)를 포함할 수 있다. In such option information, there may be attribute information that can specify the attribute (ex: visual attribute) of at least one option set for the product. For example, if the product is a makeup product for lips, the attribute information matched to the option may include color information (or color code, 1710) for the product corresponding to the option.

나아가, 옵션 정보에는, 옵션에 대응되는 상품을 특정할 수 있는 옵션 특정 정보가 포함되어 있을 수 있다. 옵션 특정 정보에는 옵션에 대응되는 상품의 옵션명 및 고유 번호 중 적어도 하나(ex: “301 스프링 데이터”, 1720)를 포함할 수 있다. Furthermore, the option information may include option specific information that can specify a product corresponding to the option. Option-specific information may include at least one of the option name and unique number of the product corresponding to the option (ex: “301 Spring Data”, 1720).

나아가, 옵션 정보에는, 옵션에 대응되는 상품을 추천하기 위한 추천 정보(또는 제안 문구)가 포함되어 있을 수 있다. 이러한, 옵션 추천 정보는, 옵션에 대응되는 상품을 추천받는 고객(또는 추천 대상)에 대한 정보를 포함하여 이루어질 수 있다. 예를 들어, 옵션 정보에는, 상품을 추천 받는 고객(또는 추천 대상)의 피부 타입(ex: 웜톤, 쿨톤), 연령, 성별을 포함한 추천 문구(또는 제안 문구, “웜톤 추천 드려요”, 1740)을 포함할 수 있다. Furthermore, the option information may include recommendation information (or suggestion phrases) for recommending a product corresponding to the option. Such option recommendation information may include information about the customer (or recommendation target) for whom a product corresponding to the option is recommended. For example, the option information includes a recommendation phrase (or suggestion phrase, “I recommend a warm tone”, 1740) including the skin type (ex: warm tone, cool tone), age, and gender of the customer for whom the product is recommended (or the person being recommended). It can be included.

나아가, 옵션 정보에는, 옵션과 관련된 적어도 하나의 상황에 대한 상황 정보가 존재할 수 있다. Furthermore, the option information may include situational information about at least one situation related to the option.

옵션의 상황 정보는, 상품과 관련된 다양한 정보에 근거하여 생성될 수 있다. 보다 구체적으로, i) 옵션의 상황 정보는, 옵션에 대응되는 상품과 관련된 타겟 고객(또는 타겟 고객층), ii) 옵션에 대응되는 상품을 구매한 구매 고객 및 iii) 옵션에 대응되는 상품의 매출(또는 판매량) 중 적어도 하나와 관련되어 생성된 정보일 수 있다.Option situation information may be generated based on various information related to the product. More specifically, i) the context information of the option includes target customers (or target customer base) related to the product corresponding to the option, ii) purchasers who purchased the product corresponding to the option, and iii) sales of the product corresponding to the option ( It may be information generated in relation to at least one of (or sales volume).

예를 들어, 옵션의 상황 정보에는, 옵션에 대응되는 상품의 매출 정보(또는 판매량 정보)를 포함하는 문구(“인기 컬러”, “스테디셀러”, “품절 예상”, 1730, 1760)를 포함할 수 있다. For example, the context information of an option may include phrases (“popular color”, “steady seller”, “expected to sell out”, 1730, 1760) that include sales information (or sales volume information) of the product corresponding to the option. there is.

다른 예로, 옵션의 상황 정보는, 옵션에 대응되는 상품의 주요 구매 고객에 대한 정보(ex: 연령, 성별), 주요 구매 고객의 피부 타입 정보를 포함하는 문구(또는 “인기 정보”, “10대에게 인기에요”, 1750)을 포함할 수 있다. As another example, the context information of an option includes information about the main purchaser of the product corresponding to the option (ex: age, gender), a phrase containing the skin type information of the main purchaser (or “popular information”, “teenagers”) It is popular among people”, 1750).

한편, 상기 상품 데이터베이스(1700)에 존재하는 옵션 정보 중 적어도 일부는, 판매자 단말기로부터 수신된 정보에 근거하여 미리 설정(등록 또는 저장)되어 있을 수 있다. 예를 들어, 사용자는 앞서 설명한 판매자 페이지(도 8 내지 도 10의 도면부호 800, 900, 1000 참조)를 통해 상품의 옵션 별 옵션 정보(ex: 색상 정보, 옵션명, 고유넘버, 추천 정보)를 입력하여, 상품 데이터베이스(1700) 상에 미리 설정(등록 또는 저장)할 수 있다. Meanwhile, at least some of the option information existing in the product database 1700 may be preset (registered or stored) based on information received from the seller terminal. For example, the user enters option information (ex: color information, option name, unique number, recommendation information) for each product option through the seller page described above (see reference numerals 800, 900, and 1000 in FIGS. 8 to 10). Thus, it can be set (registered or stored) in advance on the product database 1700.

또한, 상기 상품 데이터베이스(1700)에 존재하는 옵션 정보 중 적어도 일부는, 상품을 판매(또는 소개)하는 라이브 방송이 진행되는 동안 상품과 관련되어 실시간으로 수집되는 정보에 근거하여 실시간으로 생성 및 업데이트 되어 상품의 옵션 각각에 매칭되어 설정(등록 또는 저장)될 수 있다. In addition, at least some of the option information existing in the product database 1700 is created and updated in real time based on information collected in real time related to the product while a live broadcast selling (or introducing) the product is in progress. It can be set (registered or saved) by matching each product option.

예를 들어, 라이브 방송 서버(300)는, 라이브 방송이 진행되는 동안, 라이브 방송을 통해 판매(또는 소개)하는 상품의 옵션 별 판매 정보(ex: 수량 정보), 구매 고객 정보(ex: 연령, 성별, 지역, 피부 타입 등)을 수집하고, 수집된 정보를 분석 및 통계하여 실시간 매출 집계 정보를 상품 데이터베이스(1700)에 업데이트할 수 있다. For example, while the live broadcast is in progress, the live broadcast server 300 provides sales information (ex: quantity information) for each option of the product sold (or introduced) through the live broadcast, purchase customer information (ex: age, gender, region, skin type, etc.), analyze and statistics the collected information, and update real-time sales aggregate information in the product database 1700.

이처럼, 본 발명에서는 상품에 설정된 적어도 하나의 옵션 별로 판매 현황이나 특화된 정보를 포함하는 상품 데이터베이스(1700)를 포함하고 있으며, 이러한 상품 데이터베이스(1700)에 근거하여, 사용자가, 옵션 정보를 쉽게 인지할 수 있도록, 옵션 정보를 다양한 시각적 외관을 가지는 그래픽 객체, 툴팁(tooltip), 말풍선 등의 그래픽 인터페이스를 제공할 수 있다. As such, the present invention includes a product database 1700 that includes sales status or specialized information for at least one option set for a product, and based on this product database 1700, the user can easily recognize option information. In order to provide optional information, a graphical interface such as graphic objects, tooltips, and speech bubbles with various visual appearances can be provided.

도 18에 도시된 것과 같이, 제어부(130)는, 사용자 단말기(200)의 디스플레이부 상에, 그래픽 처리가 수행된 카메라 영상(20)과 함께 상품과 관련된 옵션 정보를 표시(출력 또는 제공)할 수 있다. As shown in FIG. 18, the control unit 130 displays (outputs or provides) optional information related to the product along with the camera image 20 on which graphic processing has been performed on the display unit of the user terminal 200. You can.

상기 옵션 정보는, 상품에 연계되어 등록된 옵션에 대응되는 그래픽 객체(1811)를 포함할 수 있으며, 상기 그래픽 객체(1811)의 시각적 외관은 그래픽 객체에 대응되는 옵션의 속성에 근거하여 결정될 수 있다.The option information may include a graphic object 1811 corresponding to an option registered in connection with a product, and the visual appearance of the graphic object 1811 may be determined based on the properties of the option corresponding to the graphic object. .

그래픽 객체의 시각적 외관은, 그래픽 객체에 대응되는 옵션의 속성 정보에 따라 다양하게 이루어질 수 있다. 일 예로, 옵션의 속성 정보가 특정 색상에 대한 정보이면, 그래픽 객체의 시각적 외관은, 특정 색상으로 이루어질 수 있다. 다른 예로, 옵션의 속성 정보가 특정 질감에 대한 정보이면, 그래픽 객체의 시각적 외관은, 특정 질감으로 이루어질 수 있다. The visual appearance of a graphic object may vary depending on attribute information of options corresponding to the graphic object. For example, if the attribute information of an option is information about a specific color, the visual appearance of the graphic object may be made of a specific color. As another example, if the attribute information of the option is information about a specific texture, the visual appearance of the graphic object may be made of a specific texture.

제어부(130)는, 상품에 연계되어 등록된 옵션에, 옵션에 대응되는 색상에 대한 색상 정보(또는 컬러 코드, 도 17의 도면부호 1710 참조)이 포함되어 있는 것에 근거하여, 옵션에 대응되는 그래픽 객체(1811)를, 옵션에 대응되는 색상 정보에 대응되는 시각적 외관으로 사용자 단말기(200)의 디스플레이부에 표시(출력 또는 제공)할 수 있다.The control unit 130 creates a graphic corresponding to the option based on the fact that the option registered in connection with the product includes color information (or color code, see reference numeral 1710 in FIG. 17) for the color corresponding to the option. The object 1811 may be displayed (output or provided) on the display unit of the user terminal 200 with a visual appearance corresponding to color information corresponding to the option.

사용자는, 사용자 단말기(200)의 디스플레이부에 표시된 그래픽 객체를 보는 것 만으로, 그래픽 객체에 대응되는 옵션의 속성(ex: 색상)을 직관적으로 인식할 수 있다. The user can intuitively recognize the attribute (ex: color) of an option corresponding to the graphic object simply by looking at the graphic object displayed on the display unit of the user terminal 200.

계속해서 도 18에 도시된 것과 같이, 상품에 연계되어 등록된 옵션이 복수개인 경우, 옵션 정보(에는, 복수의 옵션에 각각 대응되는 복수의 그래픽 객체(1811, 1812)를 포함할 수 있다. 상기 복수의 그래픽 객체(1811, 1812)의 시각적 외관은, 복수의 옵션 각각의 속성이 서로 다른 것에 근거하여, 서로 다른 시각적 외관으로 이루어질 수 있다. As shown in FIG. 18, when there are multiple options registered in connection with a product, the option information may include a plurality of graphic objects 1811 and 1812 respectively corresponding to the plurality of options. The visual appearances of the plurality of graphic objects 1811 and 1812 may have different visual appearances based on different properties of each of the plurality of options.

제어부(130)는, 제1 그래픽 객체(1811)를, 제1 옵션의 색상 정보에 대응되는 색상으로 사용자 단말기(200)의 디스플레이부 상에 표시(출력 또는 제공)하고, 제2 그래픽 객체(1812)를, 제2 옵션의 색상 정보에 대응되는 색상으로 사용자 단말기(200)의 디스플레이부 상에 표시(출력 또는 제공)할 수 있다. The control unit 130 displays (outputs or provides) the first graphic object 1811 on the display unit of the user terminal 200 in a color corresponding to the color information of the first option, and the second graphic object 1812 ) can be displayed (output or provided) on the display unit of the user terminal 200 in a color corresponding to the color information of the second option.

나아가, 제어부(130)는, 사용자 단말기(200)의 디스플레이부 상에, 상기 복수의 그래픽 객체(1811, 1812)를, 일 방향을 따라 나란하게 배치할 수 있다. Furthermore, the control unit 130 may arrange the plurality of graphic objects 1811 and 1812 side by side along one direction on the display unit of the user terminal 200.

예를 들어, 도 18의 (a)에 도시된 것과 같이, 제어부(130)는, 사용자 단말기(200)의 디스플레이부에서, X 축 방향(즉, X1에서 X2 방향)으로 제1 그래픽 객체(1811) 및 제2 그래픽 객체(1812)를 나란히 배치할 수 있다. For example, as shown in (a) of FIG. 18, the control unit 130 displays the first graphic object 1811 in the X-axis direction (i.e., from X1 to ) and the second graphic object 1812 can be placed side by side.

한편, 본 발명에서는, 상품에 설정된 복수의 옵션 중 어느 하나에 기본 값(디폴트 값)이 설정되어 있을 수 있다. 이하에서는 기본 값이 설정되어 있는 옵션을 기 특정된 제1 옵션(또는 기본 옵션)으로 명명하도록 한다. Meanwhile, in the present invention, a basic value (default value) may be set to one of a plurality of options set for a product. Hereinafter, the option with the default value set will be referred to as the pre-specified first option (or default option).

제어부(130)는, 사용자 단말기(200)로부터, 라이브 방송에 연계된 상품에 대한 증강 현실 활성화 요청을 수신하는 것에 응답하여, 상기 상품에 설정된 복수의 옵션 중 기 특정된 제1 옵션의 속성이 증강 현실 그래픽 처리된 카메라 영상(20)에 나타나도록, 카메라 영상(20)에 대한 증강 현실 그래픽 처리를 수행할 수 있다. In response to receiving an augmented reality activation request for a product linked to a live broadcast from the user terminal 200, the control unit 130 augments the properties of a pre-specified first option among a plurality of options set for the product. Augmented reality graphics processing may be performed on the camera image 20 so that it appears in the real graphics processed camera image 20.

카메라 영상(20)에 대한 증강 현실 그래픽 처리를 수행한다는 것은, 앞서 설명한 것과 같이, 카메라 영상(20)의 적어도 일 부분을 변형, 색 보정, 일 부분에 그래픽 객체를 합성(또는 삽입)하는 것을 의미할 수 있다. Performing augmented reality graphics processing on the camera image 20 means transforming, color correcting, and compositing (or inserting) a graphic object into at least a portion of the camera image 20, as described above. can do.

제어부(130)는, 라이브 방송에 연계된 상품이 입술에 대한 메이크업 상품인 경우, 제어부(130)는, 상기 상품에 설정된 복수의 옵션 중 기 특정된 제1 옵션의 색상 정보에 근거하여, 카메라 영상(20)에서, 적어도 일부의 영역(사용자 얼굴의 입술에 대응되는 영역(1800, 도 18의 (a) 참조))이, 상기 기 특정된 제1 옵션의 색상 정보에 대응되는 색상으로 보여지도록, 카메라 영상(20)에 대한 그래픽 처리를 수행할 수 있다. If the product linked to the live broadcast is a makeup product for lips, the control unit 130 determines the camera image based on the color information of the first option specified among the plurality of options set for the product. In (20), at least some areas (area 1800 corresponding to the lips of the user's face (see (a) of FIG. 18)) are displayed in a color corresponding to the color information of the pre-specified first option, Graphics processing can be performed on the camera image 20.

한편, 도 18의 (a)에 도시된 것과 같이, 상기 기 특정된 제1 옵션의 속성에 대응되는 제1 그래픽 객체(1811)는, 사용자 단말기(200)의 디스플레이부 상에서, 복수의 옵션에 각각 대응되는 복수의 그래픽 객체 중 중앙(또는 중앙 영역, 1820)에 위치할 수 있다. Meanwhile, as shown in (a) of FIG. 18, the first graphic object 1811 corresponding to the attribute of the pre-specified first option is displayed in a plurality of options, respectively, on the display unit of the user terminal 200. It may be located in the center (or center area, 1820) among a plurality of corresponding graphic objects.

제어부(130)는, 사용자 단말기(200)로부터, 라이브 방송에 연계된 상품에 대한 증강 현실 활성화 요청을 수신하는 것에 응답하여, 기 특정된 제1 옵션에 대응되는 제1 그래픽 객체(1811)는, 복수의 그래픽 객체 중 중앙(또는 중앙 영역, 1820)에 배치하여 표시(출력 또는 제공)하고, 카메라 영상(20)은, 기 특정된 제1 옵션에 근거하여 그래픽 처리를 수행하여 제공할 수 있다. In response to receiving an augmented reality activation request for a product linked to a live broadcast from the user terminal 200, the control unit 130 generates the first graphic object 1811 corresponding to the pre-specified first option, Among the plurality of graphic objects, they may be displayed (output or provided) by placing them in the center (or center area 1820), and the camera image 20 may be provided by performing graphics processing based on a pre-specified first option.

즉, 제어부(130)는, 카메라 영상(20)이, 사용자 단말기(200)의 디스플레이부에서 중앙(1820)에 위치한 제1 그래픽 객체(1811)에 대응되는 옵션의 속성에 대응되는 시각적 외관을 갖도록, 카메라 영상(20)에 대한 증강 현실 그래픽 처리를 수행할 수 있다. That is, the control unit 130 sets the camera image 20 to have a visual appearance corresponding to the attribute of the option corresponding to the first graphic object 1811 located at the center 1820 of the display unit 200. , Augmented reality graphic processing can be performed on the camera image 20.

이처럼, 본 발명에서는 사용자 단말기(200)로부터 증강 현실 기능에 대한 활성화 요청에 근거하여, 기 특정된 제1 옵션에 따른 데이터 처리를 수행한 카메라 영상(20) 및 기 특정된 제1 옵션의 속성 정보에 따른 시각적 외관을 가지는 그래픽 객체(1811)를 상호 연계하여, 사용자 단말기(200)의 디스플레이부 상에 제공할 수 있다. 이를 통해, 사용자는 카메라 영상(20)에, 증강 현실 그래픽 처리가 수행된 제1 기 설정된 옵션의 속성을 직관적으로 인식할 수 있다. As such, in the present invention, based on a request for activation of the augmented reality function from the user terminal 200, the camera image 20 that has performed data processing according to a pre-specified first option and attribute information of the pre-specified first option Graphic objects 1811 having visual appearances according to can be provided on the display unit of the user terminal 200 by linking them with each other. Through this, the user can intuitively recognize the properties of the first preset option on which augmented reality graphic processing has been performed on the camera image 20.

한편, 사용자는, 기 특정된 제1 옵션에 따른 그래픽 처리가 수행된 카메라 영상(20)을 제공 받고 있는 상태에서, 제1 옵션과 는 다른 제2 옵션에 따른 그래픽 객체(1812)를 선택하여, 제1 옵션에 따른 그래픽 처리가 수행된 카메라 영상(20)을 통해 상품 체험을 확장할 수 있다. Meanwhile, while being provided with a camera image 20 on which graphics processing has been performed according to a pre-specified first option, the user selects a graphic object 1812 according to a second option different from the first option, The product experience can be expanded through the camera image 20 on which graphics processing has been performed according to the first option.

제어부(130)는, 사용자 단말기(200)로부터, 복수의 옵션에 각각 대응되는 복수의 그래픽 객체(1811, 1812) 중 기 특정된 제1 옵션과 다른 제2 옵션에 대응되는 그래픽 객체(1812)에 대한 선택을 수신할 수 있다. The control unit 130 receives from the user terminal 200 a graphic object 1812 corresponding to a second option different from the pre-specified first option among a plurality of graphic objects 1811 and 1812 respectively corresponding to a plurality of options. You can receive your selection.

제2 옵션에 대응되는 그래픽 객체(1812)에 대한 선택은 다양한 사용자 입력에 근거하여 이루어질 수 있다. Selection of the graphic object 1812 corresponding to the second option may be made based on various user inputs.

예를 들어, 도 18의 (a)에 도시된 것과 같이, 제2 옵션에 대응되는 그래픽 객체(1812)에 대한 사용자 입력(ex: 터치)에 근거하여, 제2 옵션에 대응되는 그래픽 객체(1812)에 대한 선택이 이루어질 수 있다. For example, as shown in (a) of FIG. 18, based on a user input (ex: touch) on the graphic object 1812 corresponding to the second option, the graphic object 1812 corresponding to the second option ) can be selected.

다른 예로, 사용자 단말기(200)의 디스플레이부 상에서, 복수의 그래픽 객체(1811, 1812)는 사용자 단말기(200)부터 수신되는 기 설정된 방식의 사용자 입력(ex: 스와이프, swipe)에 근거하여 디스플레이부 상에서 상기 일 방향을 따라 이동하도록 이루어질 수 있다. As another example, on the display unit of the user terminal 200, a plurality of graphic objects 1811 and 1812 are displayed on the display unit based on a preset user input (ex: swipe) received from the user terminal 200. It can be made to move along the one direction.

상기 기 설정된 방식의 사용자 입력에 근거하여 상기 복수의 그래픽 객체(1811, 18212)를 이동시킨 결과, 도 18의 (b)에 도시된 것과 같이, 상기 복수의 그래픽 객체의 중앙(또는 중앙 영역, 1820)에, 상기 제1 그래픽 객체(1811)와 다른 제2 그래픽 객체(1811)가 위치하는 것에 근거하여, 제2 옵션에 대응되는 그래픽 객체(1812)에 대한 선택이 이루어질 수 있다. As a result of moving the plurality of graphic objects 1811 and 18212 based on the user input in the preset method, as shown in (b) of FIG. 18, the center (or central area, 1820) of the plurality of graphic objects ), the graphic object 1812 corresponding to the second option may be selected based on the location of the second graphic object 1811, which is different from the first graphic object 1811.

제어부(130)는, 제2 옵션에 대응되는 그래픽 객체(1812)에 대한 선택에 응답하여, 제1 옵션에 대응되는 속성 정보에 따른 그래픽 처리가 수행된 카메라 영상(20)이, 상기 제1 옵션이 아닌 제2 옵션에 대응되는 속성 정보에 따른 그래픽 처리가 수행되어 지도록 그래픽 처리를 변경할 수 있다. In response to the selection of the graphic object 1812 corresponding to the second option, the control unit 130 selects the camera image 20 on which graphic processing has been performed according to attribute information corresponding to the first option. Instead of this, graphics processing can be changed so that graphics processing is performed according to attribute information corresponding to the second option.

보다 구체적으로, 상품이 입술 메이크업에 대한 상품인 경우, 제어부(130)는, 카메라 영상(20)에서 제1 옵션에 대응되는 색상 정보와 다른 제2 옵션에 대응되는 색상 정보의 색상이 보여지도록, 카메라 영상(20)에 대한 증강 현실 그래픽 처리를 변경할 수 있다. More specifically, when the product is a lip makeup product, the control unit 130 displays the color of the color information corresponding to the second option that is different from the color information corresponding to the first option in the camera image 20, Augmented reality graphic processing for the camera image 20 can be changed.

한편, 제어부(130)는, 카메라 영상(20)에 그래픽 처리가 수행된 특정 옵션의 속성 정보에 대응되는 그래픽 객체를, 복수의 그래픽 객체의 중앙(또는 중앙 영역, 1820)에 위치시킬 수 있다. Meanwhile, the control unit 130 may position a graphic object corresponding to attribute information of a specific option on which graphic processing has been performed on the camera image 20 at the center (or center area, 1820) of a plurality of graphic objects.

즉, 제어부(130)는, 카메라 영상(20)에 그래픽 처리가 수행된 특정 옵션의 속성 정보와, 복수의 그래픽 객체의 중앙(또는 중앙 영역, 1820)에 위치하는 그래픽 객체의 속성이 연동되도록 제어할 수 있다. That is, the control unit 130 controls the attribute information of a specific option on which graphic processing has been performed on the camera image 20 and the attributes of a graphic object located in the center (or center area, 1820) of a plurality of graphic objects to be linked. can do.

보다 구체적으로, 제어부(130)는, 복수의 그래픽 객체의 중앙(또는 중앙 영역, 1820)에, 제1 옵션에 대응되는 그래픽 객체(1811)에서 제2 옵션에 대응되는 그래픽 객체(1812)가 위치하는 것에 연동하여, 카메라 영상(20)에 대한 그래픽 처리가 제1 옵션에 따른 속성에서 제2 옵션에 따른 속성으로 변경되도록 제어할 수 있다. More specifically, the control unit 130 positions a graphic object 1811 corresponding to the first option to a graphic object 1812 corresponding to the second option in the center (or central area 1820) of the plurality of graphic objects. In conjunction with this, graphic processing for the camera image 20 can be controlled to change from the attributes according to the first option to the attributes according to the second option.

도 18의 (b)에 도시된 것과 같이, 카메라 영상(20) 중 적어도 일부의 영역(ex: 사용자 얼굴의 입술에 대응되는 영역(1800, 도 18의 (a) 참조))이, 상기 기 특정된 제1 옵션의 색상 정보에 대응되는 색상으로 보여지도록, 카메라 영상(20)에 대한 그래픽 처리를 수행할 수 있다.As shown in (b) of FIG. 18, at least a portion of the area (ex: the area corresponding to the lips of the user's face (1800, see (a) of FIG. 18)) of the camera image 20 is Graphics processing may be performed on the camera image 20 so that it is displayed in a color corresponding to the color information of the first option.

이처럼, 본 발명에서는 사용자 단말기(200)의 디스플레이부 상에, 특정 속성에 대응되는 그래픽 객체와, 특정 속성에 따른 그래픽 처리가 수행된 카메라 영상(20)을 연동하여 제공함으로써, 사용자는, 카메라 영상(20)에 대한 그래픽 처리를 손쉽게 변경할 수 있을 뿐만 아니라, 카메라 영상(20)에 수행된 그래픽 처리가 어떠한 옵션에 따른 속성에 근거하여 이루어졌는지를 직관적으로 인식할 수 있다. In this way, in the present invention, a graphic object corresponding to a specific attribute and a camera image 20 on which graphic processing has been performed according to a specific attribute are provided in conjunction on the display unit of the user terminal 200, so that the user can view the camera image. Not only can the graphics processing for (20) be easily changed, but it is also possible to intuitively recognize which option properties the graphics processing performed on the camera image (20) was based on.

한편, 사용자는, 증강 현실 그래픽 처리가 수행된 카메라 영상(20)을 소장하고 싶어하는 경우가 발생할 수 있다. 예를 들어, 사용자는 입술 메이크업에 대한 상품과 관련된 증강 현실 그래픽 처리가 수행된 카메라 영상(20)이 마음에 드는 경우, 이를 소장하고 싶어할 수 있다. Meanwhile, there may be a case where the user wants to keep the camera image 20 on which augmented reality graphic processing has been performed. For example, if the user likes the camera image 20 on which augmented reality graphic processing has been performed related to a lip makeup product, he or she may want to keep it.

이에, 본 발명에서는 증강 현실 그래픽 처리가 수행된 카메라 영상(20)을 촬영하여 저장부(120)에 저장하는 서비스를 제공할 수 있다. Accordingly, the present invention can provide a service that captures the camera image 20 on which augmented reality graphic processing has been performed and stores it in the storage unit 120.

도 18의 (a)에 도시된 것과 같이, 사용자 단말기(200)의 디스플레이부 상에 제공(표시 또는 출력)되는 복수의 그래픽 객체(1811, 1812) 중 어느 하나의 그래픽 객체(1811)는, 카메라에 대한 촬영 기능에 연계되어 있을 수 있다. As shown in (a) of FIG. 18, one graphic object 1811 among a plurality of graphic objects 1811 and 1812 provided (displayed or output) on the display unit of the user terminal 200 is a camera. It may be linked to the shooting function for .

제어부(130)는, 사용자 단말기(200)의 디스플레이부 상에서, 특정 영역(1820)에 위치(또는 배치)된 그래픽 객체를 카메라 촬영 기능과 연계되도록 제어할 수 있다. The control unit 130 may control a graphic object located (or arranged) in a specific area 1820 on the display unit of the user terminal 200 to be linked to the camera shooting function.

여기에서, “카메라 촬영 기능과 연계된다”는 것은, 그래픽 객체에 대한 선택에 응답하여, 카메라의 촬영 기능이 수행되도록 이루어지는 것으로 이해될 수 있다. Here, “linked to the camera shooting function” can be understood as allowing the camera’s shooting function to be performed in response to the selection of a graphic object.

제어부(130)는, 특정 영역(1820)에 제1 그래픽 객체(1811)가 위치(또는 배치)한 상태에서, 특정 영역(1820)에 제2 그래픽 객체(1812) 위치되도록 변경되는 것에 근거하여, 카메라 촬영 기능이 제1 그래픽 객체(1812)에서 제2 그래픽 객체(1822)에 연계되도록 제어할 수 있다. Based on the fact that the first graphic object 1811 is positioned (or placed) in a specific area 1820, the control unit 130 is changed to position the second graphic object 1812 in the specific area 1820, The camera shooting function can be controlled to be linked from the first graphic object 1812 to the second graphic object 1822.

즉, 특정 영역(1820)에 제1 그래픽 객체(1811)가 위치(또는 배치)한 상태에서, 특정 영역(1820)에 제2 그래픽 객체(1812) 위치되도록 변경되는 경우, 카메라 촬영 기능이 연계된 그래픽 객체는, 제1 그래픽 객체(1811)에서 제2 그래픽 개체(1812)로 변경될 수 있다. That is, when the first graphic object 1811 is located (or placed) in a specific area 1820 and the second graphic object 1812 is changed to be located in the specific area 1820, the camera shooting function is linked. The graphic object may be changed from the first graphic object 1811 to the second graphic object 1812.

나아가, 제어부(130)는, 복수의 그래픽 객체(1811, 1812) 중 상기 카메라 촬영 기능에 연계된 어느 하나의 그래픽 객체(1811)가 선택되는 경우, 증강 현실 그래픽 처리가 수행된 카메라 영상(20)을 촬영하여 저장부(120) 또는 서버(ex: 클라우드 서버) 중 적어도 하나에 저장할 수 있다. Furthermore, when one graphic object 1811 associated with the camera shooting function is selected among the plurality of graphic objects 1811 and 1812, the control unit 130 displays the camera image 20 on which augmented reality graphic processing has been performed. can be photographed and stored in at least one of the storage unit 120 or a server (ex: cloud server).

예를 들어, 도 18의 (a)에서는, 제1 그래픽 객체(1811)에 대응되는 제1 옵션의 속성 정보에 따라 그래픽 처리가 수행된 카메라 영상(20)이 촬영되어 저장될 수 있다. 또한, 도 18의 (b)에서는, 제2 그래픽 객체(1812)에 대응되는 제2 옵션의 속성 정보에 따라 그래픽 처리가 수행된 카메라 영상(20)이 촬영되어 저장될 수 있다. For example, in (a) of FIG. 18 , a camera image 20 on which graphic processing has been performed according to attribute information of the first option corresponding to the first graphic object 1811 may be captured and stored. Additionally, in (b) of FIG. 18 , the camera image 20 on which graphic processing has been performed according to attribute information of the second option corresponding to the second graphic object 1812 may be captured and stored.

한편, 본 발명에서는 상품 DB(1700, 도 17 참조)에 근거하여, 사용자가 상품에 설정된 복수의 옵션에 대한 다양한 정보를 쉽게 확인할 수 있도록, 옵션에 대응되는 그래픽 객체에 옵션의 주변에, 말풍선 또는 툴팁(Tooltip)을 제공할 수 있다. Meanwhile, in the present invention, based on the product DB (1700, see FIG. 17), a speech bubble or speech bubble is added to the graphic object corresponding to the option around the option so that the user can easily check various information about a plurality of options set for the product. A tooltip can be provided.

이러한 말풍선 또는 툴팁은, 그래픽 객체에 대응되는 옵션과 관련된 옵션 정보를 포함할 수 있다. These speech bubbles or tooltips may include option information related to options corresponding to the graphic object.

앞서 설명한 것과 같이, 이러한 옵션 정보에는, i) 상품에 설정된 적어도 하나의 옵션의 속성(ex: 시각적 속성)을 특정할 수 있는 속성 정보, ii) 옵션에 대응되는 상품을 특정할 수 있는 옵션 특정 정보, iii) 옵션에 대응되는 상품을 추천하기 위한 추천 정보 및 iv) 옵션과 관련된 적어도 하나의 상황에 대한 상황 정보 중 적어도 하나가 포함되어 있을 수 있다. As described above, such option information includes i) attribute information that can specify the attribute (ex: visual attribute) of at least one option set for the product, ii) option specific information that can specify the product corresponding to the option , iii) recommendation information for recommending a product corresponding to the option, and iv) situational information about at least one situation related to the option.

한편, 상기 속성 정보, 옵션 특정 정보, 추천 정보 및 상황 정보는 정보의 종류 및 속성에 따라 서로 혼용되어 명명될 수 있다. 예를 들어, 옵션에 대응하는 상품을 특정하는 옵션명은 옵션 특정 정보라고도 명명될 수 있으며, 속성 정보라고도 명명될 수 있다. Meanwhile, the attribute information, option specific information, recommendation information, and situation information may be interchangeably named depending on the type and attribute of the information. For example, an option name that specifies a product corresponding to an option may be referred to as option specific information and may also be referred to as attribute information.

도 19의 (a)에 도시된 것과 같이, 제어부(130)는, 사용자 단말기(200) 상에 표시(출력 또는 제공)되는 복수의 그래픽 객체(1811, 1812) 중 특정 그래픽 객체(1811) 중 어느 하나에 대응되는 옵션의 옵션 정보(“301 스프링 데이트 -인기컬러”, 1910)를, 상기 특정 그래픽 객체(1811)의 주변에 제공할 수 있다. As shown in (a) of FIG. 19, the control unit 130 selects one of the specific graphic objects 1811 among the plurality of graphic objects 1811 and 1812 displayed (output or provided) on the user terminal 200. Optional information (“301 Spring Date - Popular Color”, 1910) corresponding to one option may be provided around the specific graphic object 1811.

상기 옵션 정보(1910)는, 사용자 단말기(200)의 디스플레이부 상에서, 일 방향을 따라 나란히 배치된 복수의 그래픽 객체(1811, 1812) 중 중앙에 위치한 그래픽 객체(1811)에 대응되는 옵션의 옵션 정보일 수 있다. 또한, 상기 옵션 정보(1910)은, 사용자 단말기(200)의 디스플레이부 상에서, 특정 영영(복수의 그래픽 객체의 중앙에 대응되는 중앙 영역, 1820)에 위치하는 그래픽 객체(1811)에 대응되는 옵션의 옵션 정보일 수 있다. 또한, 상기 옵션 정보(1910)은, 카메라 촬영 기능에 연계된 그래픽 객체에 대응되는 옵션의 옵션 정보일 수 있다. 이하에서는 설명의 편의를 위하여, 옵션 정보(1910)는, 특정 영역(1810)에 위치한 그래픽 객체의 옵션의 옵션 정보인 것을 예시로 들어 설명하도록 한다. The option information 1910 is option information of an option corresponding to the graphic object 1811 located in the center among a plurality of graphic objects 1811 and 1812 arranged side by side along one direction on the display unit of the user terminal 200. It can be. In addition, the option information 1910 is an option corresponding to the graphic object 1811 located in a specific area (central area 1820 corresponding to the center of a plurality of graphic objects) on the display unit of the user terminal 200. This may be optional information. Additionally, the option information 1910 may be option information of an option corresponding to a graphic object linked to the camera shooting function. Hereinafter, for convenience of explanation, the option information 1910 will be described as an example of the option information of a graphic object located in a specific area 1810.

제어부(130)는, 특정 영역(1820)에 위치한 그래픽 객체가, 제1 그래픽 객체(1811)에서 제2 그래픽 객체(1812)로 변경되는 것에 연동하여, 도 19의 (b)에 도시된 것과 같이, 제2 그래픽 객체(1812)에 대응되는 옵션의 옵션 정보(“333 클로저-반응좋아요”)가 제2 그래픽 객체(1812) 주변에 표시되도록 제어할 수 있다. The control unit 130 is linked to the change of the graphic object located in the specific area 1820 from the first graphic object 1811 to the second graphic object 1812, as shown in (b) of FIG. 19. , Option information (“333 Closure-Reaction Like”) of the option corresponding to the second graphic object 1812 can be controlled to be displayed around the second graphic object 1812.

일 예로, 복수의 그래픽 객체(1811, 1821)를 일 방향으로 이동 시키는 사용자 입력(예를 들어 스와이프 또는 드래그 입력)이 사용자 단말기(200)로부터 수신되는 경우, 제어부(130)는 사용자 입력에 연동하여 특정 영역(1820)에 위치한 그래픽 객체의 옵션 정보를 사용자 단말기(200)의 디스플레이부를 통해 제공할 수 있다. 사용자는, 복수의 그래픽 객체를 이동시키는 동작만으로, 상품에 대한 복수의 아이템에 대한 옵션 정보를 확인할 수 있다. 이때, 앞서 살펴본 것과 같이, 카메라 영상(20)에 대한 증강현실 그래픽 처리 또한 제2 그래픽 객체(1812)에 연동된 옵션에 대응되도록 변경될 수 있다. For example, when a user input (for example, a swipe or drag input) that moves a plurality of graphic objects 1811 and 1821 in one direction is received from the user terminal 200, the control unit 130 is linked to the user input. Thus, option information on graphic objects located in the specific area 1820 can be provided through the display unit of the user terminal 200. A user can check option information about a plurality of items for a product simply by moving a plurality of graphic objects. At this time, as seen above, augmented reality graphic processing for the camera image 20 may also be changed to correspond to the option linked to the second graphic object 1812.

한편, 그래픽 객체 주변에 표시되는 옵션 정보는, 특정 영역(1820)에 위치하는 그래픽 객체에 대응되는 옵션의 옵션 정보에 근거하여 생성(결정)될 수 있다. 이러한 옵션 정보는 앞서 설명한 것과 같이, 라이브 방송 서버(300)에 상품 데이터베이스(1700)에 저장(또는 포함)되어 존재할 수 있다(도 17 참조). Meanwhile, option information displayed around a graphic object may be generated (determined) based on the option information of the option corresponding to the graphic object located in the specific area 1820. As described above, such option information may be stored (or included) in the product database 1700 of the live broadcast server 300 (see FIG. 17).

한편, 도 20에 도시된 것과 같이, 본 발명에서는 카메라 영상(20)에 포함된 사용자의 얼굴 이미지에 근거하여, 추천 옵션 정보를 제공할 수 있다. Meanwhile, as shown in FIG. 20, the present invention can provide recommended option information based on the user's face image included in the camera image 20.

제어부(130)는 카메라 영상(20)에 포함된 사용자의 얼굴 이미지를 인식하여, 인식된 사용자의 얼굴에 적절한 아이템의 옵션을 추천할 수 있다, 예를 들어, 아이템이 피부 화장과 관련된 경우, 제어부(130)는 카메라 영상(20)으로부터 사용자의 피부 타입(또는 피부 색상)에 대한 정보를 추출할 수 있다. 피부 타입에 대한 정보를 추출하는 방법은, 다양한 방식의 영상 분석 기법을 이용하여 이루어질 수 있다. The control unit 130 may recognize the user's face image included in the camera image 20 and recommend item options appropriate for the recognized user's face. For example, if the item is related to skin makeup, the control unit 130 130 may extract information about the user's skin type (or skin color) from the camera image 20. A method of extracting information about skin type can be accomplished using various image analysis techniques.

제어부(130)는, 카메라 영상(20)으로부터 추출된 사용자의 피부 타입이 서로 다른 것에 근거하여, 사용자 단말기(200)의 디스플레이부 상에 서로 다른 옵션 정보를 표시(출력 또는 제공)할 수 있다. The control unit 130 may display (output or provide) different option information on the display unit of the user terminal 200 based on the different skin types of users extracted from the camera image 20.

보다 구체적으로, 상품 데이터베이스에는, 서로 다른 옵션 각각에 서로 다른 피부 타입에 대한 정보가 매칭되어 있을 수 있다. 예를 들어, 제1 옵션에는 제1 피부 타입(ex: 쿨톤)이 매칭되어 있고, 제2 옵션에는 제2 피부 타입(ex: 웜톤)이 매칭되어 있을 수 있다. More specifically, in the product database, information about different skin types may be matched to each of the different options. For example, a first skin type (ex: cool tone) may be matched to the first option, and a second skin type (ex: warm tone) may be matched to the second option.

제어부(130)는 아이템과 관련된 복수의 옵션 중 카메라 영상(20)으로부터 인식된 사용자의 피부 타입에 대응되는 옵션을, 다른 옵션보다 우선하여 사용자에게 제공할 수 있다, 예를 들어, 제어부(130)는 아이템과 관련된 복수의 옵션 중 사용자의 피부 타입에 대응되는 특정 옵션에 대응되는 증강현실 그래픽 처리를 다른 옵션보다 우선하여 제공할 수 있다. The control unit 130 may provide the user with an option corresponding to the user's skin type recognized from the camera image 20 among a plurality of options related to the item, with priority over other options. For example, the control unit 130 may provide augmented reality graphic processing corresponding to a specific option corresponding to the user's skin type among a plurality of options related to the item, with priority over other options.

예를 들어, 도 20의 (a)에 도시된 것과 같이, 제어부(130)는 카메라 영상(20)을 분석한 결과, 사용자의 피부 타입이 제1 피부 타입(ex: 웜톤)인 경우, 카메라 영상(20)에 대해, 제1 피부 타입에 대응되는 제1 옵션의 색상 정보를 이용하여 증강 현실 그래픽 처리를 수행할 수 있다, 이 경우, 제1 옵션에 대응되는 제1 그래픽 객체(1811) 주변에는, 사용자에게 상기 제1 옵션을 추천하는 추천 정보(2010)를 제공할 수 있다.For example, as shown in (a) of FIG. 20, the control unit 130 analyzes the camera image 20 and, when the user's skin type is the first skin type (ex: warm tone), the camera image For (20), augmented reality graphics processing can be performed using color information of the first option corresponding to the first skin type. In this case, around the first graphic object 1811 corresponding to the first option , recommendation information 2010 recommending the first option may be provided to the user.

다른 예를 들어, 도 20의 (b)에 도시된 것과 같이, 제어부(130)는 카메라 영상(20)을 분석한 결과, 사용자의 피부 타입이 제2 피부 타입(ex: 쿨톤)인 경우, 카메라 영상(20)에 대해, 제2 피부 타입에 대응되는 제2 옵션의 색상 정보를 이용하여 증강 현실 그래픽 처리를 수행할 수 있다, 이 경우, 제2 옵션에 대응되는 제1 그래픽 객체(1812) 주변에는, 사용자에게 상기 제2 옵션을 추천하는 추천 정보(2020)를 제공할 수 있다.For another example, as shown in (b) of FIG. 20, as a result of analyzing the camera image 20, the control unit 130 determines that if the user's skin type is the second skin type (ex: cool tone), the camera Augmented reality graphic processing may be performed on the image 20 using color information of the second option corresponding to the second skin type. In this case, the area around the first graphic object 1812 corresponding to the second option In , recommendation information 2020 recommending the second option may be provided to the user.

이와 같이, 제어부(130)는 사용자에게 어울리는 카메라 영상(20)에서 사용자의 정보를 분석하여, 아이템과 관련된 복수의 옵션 중 사용자에게 어울리는 옵션을 특정할 수 있다. 그리고, 카메라 영상(20)에 대해, 상기 특정된 옵션에 대응되는 증강 현실 그래픽 처리가 우선하여 수행되도록 일련의 제어를 수행할 수 있다. In this way, the control unit 130 can analyze the user's information in the camera image 20 that suits the user and specify an option that suits the user among a plurality of options related to the item. Additionally, a series of controls may be performed on the camera image 20 so that augmented reality graphic processing corresponding to the specified option is performed with priority.

다른 예를 들어, 제어부(130)는, 카메라 영상(20)에 대한 분석을 수행하지 않더라도, 각각의 옵션에 기 설정된 추천 정보에 기반하여, 현재 선택된 옵션과 관련된 추천 정보(제안 정보)를 제공할 수 있다. 도 20의 (a)에 도시된 것과 같이, 사용자 단말기로부터 제1 옵션에 대응되는 그래픽 객체(1811)가 선택되면, 제1 그래픽 객체(1811)의 주변에, 제1 옵션에 매칭되는 옵션 정보(또는 추천 정보, 제안 문구)를 표시할 수 있다. 예를 들어, 도 20의 (a)에 도시된 것과 같이, 카메라 영상(20)에 포함된 사용자 얼굴 중 입술에 대응되는 영역(2000a)에 제1 옵션과 관련된 그래픽 처리를 수행하고, 제어부(130)는 제1 그래픽 객체(1811)의 주변에 제1 옵션에 대응되는 상품의 옵션과 관련된 추천 정보(ex: “웜톤 추천 드려요”, 2010)을 표시할 수 있다.For another example, the control unit 130 may provide recommendation information (suggestion information) related to the currently selected option based on recommendation information preset for each option, even if the camera image 20 is not analyzed. You can. As shown in (a) of FIG. 20, when the graphic object 1811 corresponding to the first option is selected from the user terminal, option information matching the first option is displayed around the first graphic object 1811 ( Alternatively, recommended information or suggested phrases) may be displayed. For example, as shown in (a) of FIG. 20, graphic processing related to the first option is performed on the area 2000a corresponding to the lips of the user's face included in the camera image 20, and the control unit 130 ) may display recommendation information (ex: “I recommend warm tones”, 2010) related to product options corresponding to the first option around the first graphic object 1811.

다른 예를 들어, 도 20의 (b)에 도시된 것과 같이, 사용자 단말기(200)로부터 제2 옵션에 대응되는 그래픽 객체(1812)가 선택되면, 제2 그래픽 객체(1812)의 주변에, 제2 옵션에 매칭되는 옵션 정보(또는 추천 정보, 제안 문구)를 표시할 수 있다. 예를 들어, 도 20의 (b)에 도시된 것과 같이, 카메라 영상(20)에 포함된 사용자 얼굴 중 입술에 대응되는 영역(2000b)에 제2 옵션과 관련된 그래픽 처리를 수행하고, 제어부(130)는 제2 그래픽 객체(1812)의 주변에 제2 옵션에 대응되는 상품의 옵션과 관련된 추천 정보(ex: “쿨톤 어떨까요?”, 2020)을 표시할 수 있다.For another example, as shown in (b) of FIG. 20, when the graphic object 1812 corresponding to the second option is selected from the user terminal 200, a second graphic object 1812 is displayed around the second graphic object 1812. 2 Option information (or recommended information, suggested text) matching the option can be displayed. For example, as shown in (b) of FIG. 20, graphics processing related to the second option is performed on the area 2000b corresponding to the lips of the user's face included in the camera image 20, and the control unit 130 ) may display recommended information (ex: “What about cool tone?”, 2020) related to the option of the product corresponding to the second option around the second graphic object 1812.

한편, 도 21에 도시된 것과 같이, 제어부(130)는 그래픽 객체의 주변에, 그래픽 객체에 대응되는 옵션과 관련된 상황 정보가 출력(표시 또는 제공)되도록 제어할 수 있다. Meanwhile, as shown in FIG. 21 , the control unit 130 may control context information related to options corresponding to the graphic object to be output (displayed or provided) around the graphic object.

여기에서, “상황 정보”는, 옵션에 대응되는 상품과 관련된 다양한 상황에 근거하여 이루어질 수 있다. 보다 구체적으로, 상황 정보는, i) 옵션에 대응되는 상품과 관련된 타겟 고객(또는 타겟 고객층), ii) 옵션에 대응되는 상품을 구매한 구매 고객 및 iii) 옵션에 대응되는 상품의 매출 중 적어도 하나와 관련되어 생성된 정보일 수 있다.Here, “situational information” may be based on various situations related to the product corresponding to the option. More specifically, the situation information is at least one of i) target customers (or target customer base) related to the product corresponding to the option, ii) purchasers who purchased the product corresponding to the option, and iii) sales of the product corresponding to the option. It may be information generated in relation to .

상기 상황 정보는, 라이브 방송이 진행되는 동안, 상품과 관련되어 수집되는 정보에 근거하여, 실시간으로 생성되는 정보일 수 있다. The situation information may be information generated in real time based on information collected related to the product while the live broadcast is in progress.

라이브 방송 서버(300)는 상품을 구매한 사용자들의 연령대 및 사용자들이 선택한 옵션의 정보를 수집할 수 있다. 이러한 정보의 수집은, 라이브 방송이 진행되는 동안, 라이브 방송과 연계되어 판매되는 상품의 정보로부터 수집되거나, 상기 라이브 방송이 시작되기 전, 다양한 판매 채널을 통한 상기 상품의 판매 이력에 기반하여 수집될 수 있다.The live broadcast server 300 may collect information on the age range of users who purchased the product and the options selected by the users. The collection of this information may be collected from information on products sold in connection with the live broadcast while the live broadcast is in progress, or based on the sales history of the product through various sales channels before the live broadcast begins. You can.

라이브 방송 서버(300)는 다양한 방식으로 수집되는 상품의 옵션 별 상품 구매 연령대의 정보를 포함하는 상황 정보를, 사용자 단말기(200)에 전송할 수 있다. 제어부(130)는, 라이브 방송 서버(300)로부터 상기 상황 정보를 수신 받아, 상황 정보에 대응되는 옵션에 매칭된 그래픽 객체 주변에, 상황 정보를 제공할 수 있다. 예를 들어, 도 21의 (a)에 도시된 것과 같이, 제1 옵션에 해당하는 상품이 20대들이 많이 구매한 경우, 제1 옵션에 대응되는 그래픽 객체(1811) 주변에, 상황 정보(ex: “20대들이 많이 선택했어요”, 2110)를 제공할 수 있다. 또 다른 예를 들어, 도 21의 (b)에 도시된 것과 같이, 제2 옵션에 해당하는 상품이 10대들이 많이 구매한 경우, 제2 옵션에 대응되는 그래픽 객체(1812) 주변에, 상황 정보(ex: “10대에게 인기에요”, 2120)를 제공할 수 있다.The live broadcast server 300 may transmit to the user terminal 200 situation information including information on the product purchase age group for each product option collected in various ways. The control unit 130 may receive the context information from the live broadcast server 300 and provide the context information around the graphic object matched to the option corresponding to the context information. For example, as shown in (a) of FIG. 21, when a product corresponding to the first option is purchased by many people in their 20s, situation information (ex. : “Many people in their 20s chose it”, 2110) can be provided. For another example, as shown in (b) of FIG. 21, when a product corresponding to the second option is purchased by many teenagers, situation information is displayed around the graphic object 1812 corresponding to the second option. (ex: “It’s popular among teenagers”, 2120) can be provided.

한편, 라이브 방송 서버(300)는, 라이브 방송이 진행 중인 상태에서, 라이브 방송을 통해 판매되는 상품에 대한 판매량 정보를 수집할 수 있다. 그리고, 라이브 방송 서버(300)는 수집되는 판매량 정보(매출 정보)를 사용자 단말기(200)에 제공할 수 있다. 제어부(130)는, 라이브 방송 서버(300)로부터 매출 또는 판매량 정보를 포함하는 상황 정보를 수신 받아, 상황 정보에 대응되는 옵션에 매칭된 그래픽 객체 주변에, 상황 정보를 제공할 수 있다.예를 들어, 제1 옵션에 대응되는 상품의 품절이 예상되는 경우, 도 22의 (a)에 도시된 것과 같이, 제1 옵션에 대응되는 그래픽 객체(1811)의 주변에는, 품절 예상과 관련된 상황 정보(“품절이 예상됩니다.”, 2210)가 표시될 수 있다. 다른 예로, 도 22의 (b)에 도시된 것과 같이, 제2 옵션에 대응되는 그래픽 객체(1812)의 주변에는, 제2 옵션에 대응되는 상품의 판매 수량과 관련된 상황 정보(“현재까지 누적 판매 3503개 입니다”, 2220)가 표시될 수 있다. Meanwhile, the live broadcast server 300 may collect sales volume information about products sold through live broadcast while the live broadcast is in progress. Additionally, the live broadcast server 300 may provide the collected sales volume information (sales information) to the user terminal 200. The control unit 130 may receive context information including sales or sales volume information from the live broadcast server 300 and provide context information around graphic objects matched to options corresponding to the context information. For example, For example, when the product corresponding to the first option is expected to be sold out, as shown in (a) of FIG. 22, around the graphic object 1811 corresponding to the first option, situation information related to the expected sold out ( “Expected to be out of stock.”, 2210) may be displayed. As another example, as shown in (b) of FIG. 22, around the graphic object 1812 corresponding to the second option, situation information related to the sales quantity of the product corresponding to the second option (“cumulative sales to date”) “There are 3503”, 2220) may be displayed.

이처럼, 본 발명에서는, 라이브 방송에서 판매하는 상품의 판매 현황이나 특화된 정보를 툴팁 형식으로 제공함으로써, 사용자는 라이브 방송과 관련된 실시간 상황을 즉각적으로 인식할 수 있다. As such, in the present invention, by providing the sales status or specialized information of products sold in a live broadcast in the form of a tooltip, the user can immediately recognize the real-time situation related to the live broadcast.

한편, 사용자는, 상품에 설정된 복수의 옵션 각각의 속성 정보에 따라 그래픽 처리가 수행된 복수의 카메라 영상을 제공받고 싶은 경우가 발생할 수 있다. 예를 들어, 사용자는 서로 다른 색상을 가지는 입술에 대한 메이크업 상품 중 어느 색상이 자신에게 가장 어울리는지를 확인하기 위하여, 서로 다른 색상으로 메이크업된 자신의 얼굴을 보고 싶을 수 있다. 이에 본 발명에서는, 복수의 옵션 각각의 속성 정보에 따라 증강 현실 그래픽 처리가 수행된 복수의 카메라 영상을 제공할 수 있다. Meanwhile, a user may want to be provided with a plurality of camera images on which graphic processing has been performed according to attribute information for each of a plurality of options set for a product. For example, a user may want to see their face made up in different colors in order to check which of the makeup products for lips with different colors suits them best. Accordingly, in the present invention, a plurality of camera images on which augmented reality graphic processing has been performed according to the attribute information of each of the plurality of options can be provided.

도 23a에 도시된 것과 같이, 사용자 단말기(200)에, 상품에 설정된 복수의 옵션 중 제1 옵션의 속성 정보에 따라 증강현실 그래픽 처리가 수행된 카메라 영상(20)이 제공되고 있는 상태에서, 사용자 단말기(200)로부터, 복수의 옵션이 각각 적용된 카메라 영상을 요청(이하, “미리보기 영상 요청”이라 명명함)에 대응되는 사용자 입력을 수신할 수 있다.As shown in FIG. 23A, while the camera image 20 on which augmented reality graphics processing has been performed according to the attribute information of the first option among the plurality of options set for the product is provided to the user terminal 200, the user From the terminal 200, a user input corresponding to a request for a camera image to which a plurality of options are respectively applied (hereinafter referred to as a “preview image request”) may be received.

예를 들어, 제어부(130)는, 사용자 단말기(200) 상에서, 특정 영역(1820)에 대한 기 설정된 사용자 입력(ex: 길게 누르기 입력(또는 롱터치))이 수신되면, 미리 보기 영상 요청의 수신이 이루어진 것으로 처리할 수 있다. 한편, 앞서 설명한 것과 같이, 특정 영역(1820)에 대한 기 설정된 사용자 입력(ex: 짧게 누르기 입력(또는 숏터치))이 수신되면, 제어부(130)는 현재 선택된 옵션에 대한 증강 현실 그래픽 처리가 이루어진 카메라 영상의 촬영을 요청이 이루어진 것으로 처리할 수 있다.For example, when a preset user input (ex: long press input (or long touch)) for a specific area 1820 is received on the user terminal 200, the control unit 130 receives a preview image request. This can be treated as accomplished. Meanwhile, as described above, when a preset user input (ex: short press input (or short touch)) for a specific area 1820 is received, the control unit 130 performs augmented reality graphic processing for the currently selected option. Capturing of camera images can be processed as if a request has been made.

제어부(130)는 사용자 단말기(200)로부터 미리 보기 영상 요청을 수신하는 것에 응답하여, 도 23b의 (a)에 도시된 것과 같이, 사용자 단말기(200)의 디스플레이부의 일 영역(2300) 상에, 아이템에 연계된 옵션 각각에 대응되는 미리 보기 영상(ex: 2300a, 2300b 등)을 표시(출력 또는 제공)할 수 있다. In response to receiving a preview image request from the user terminal 200, the control unit 130 displays an area 2300 of the display unit 2300 of the user terminal 200, as shown in (a) of FIG. 23B, You can display (print or provide) a preview image (ex: 2300a, 2300b, etc.) corresponding to each option associated with the item.

아이템에 연계된 옵션이 복수인 경우, 일 영역(2300)에는 복수의 미리 보기 영상(ex: 2300a, 2300b 등))이 포함될 수 있다.When there are multiple options associated with an item, one area 2300 may include multiple preview images (ex: 2300a, 2300b, etc.).

일 영역(2300)에는 복수의 미리 보기 영상(ex: 2300a, 2300b 등) 각각은, 상품에 설정된 복수의 옵션 각각과 관련하여 증강 현실 그래픽 처리가 수행된 카메라 영상(20)으로 이해될 수 있다. 즉, 복수의 미리 보기 영상(2300a, 2300b) 중 제1 미리 보기 영상(2300a)는, 제1 옵션과 관련하여 증강 현실 그래픽 처리가 수행된 카메라 영상이고, 제2 미리보기 영상(2300b)는 제2 옵션과 관련하여 증강 현실 그래픽 처리가 수행된 카메라 영상일 수 있다. Each of the plurality of preview images (ex: 2300a, 2300b, etc.) in one area 2300 may be understood as a camera image 20 on which augmented reality graphic processing has been performed in relation to each of the plurality of options set for the product. That is, among the plurality of preview images 2300a and 2300b, the first preview image 2300a is a camera image on which augmented reality graphics processing has been performed in relation to the first option, and the second preview image 2300b is the first preview image 2300b. Regarding option 2, it may be a camera image on which augmented reality graphics processing has been performed.

한편, 제어부(130)는, 도 23b의 (a)에 도시된 것과 같이, 사용자 단말기(200)의 디스플레이부 상에, 복수의 미리보기 영상(2300a, 2300b)이 표시되고 있는 상태에서, 사용자 단말기(200)에 대한 사용자 선택에 근거하여, 어느 하나의 미리보기 영상(2300b)에 대한 선택을 수신할 수 있다. Meanwhile, as shown in (a) of FIG. 23B, the control unit 130 controls the user terminal 200 while a plurality of preview images 2300a and 2300b are displayed on the display unit of the user terminal 200. Based on the user's selection for 200, a selection for one preview image 2300b may be received.

제어부(130)는 어느 하나의 미리보기 영상(2300b)에 대한 선택을 수신한 것에 응답하여, 선택된 미리보기 영상(2300b)을 사용자 단말기(200)의 디스플레이부 상에 큰 화면(또는 메인 화면)으로 제공할 수 있다. 즉, 제어부(130)는, 사용자 단말기(200)의 디스플레이부 상에, 선택된 미리보기 영상(2300b)에 대응되는 옵션과 관련된 그래픽 처리가 수행된 카메라 영상(20)을 메인 디스플레이 영역 상에 제공할 수 있다. In response to receiving the selection of one preview image 2300b, the control unit 130 displays the selected preview image 2300b as a large screen (or main screen) on the display unit of the user terminal 200. can be provided. That is, the control unit 130 provides the camera image 20 on which graphic processing related to the option corresponding to the selected preview image 2300b has been performed on the main display area of the user terminal 200. You can.

사용자는, 복수의 미리보기 영상(2300a, 2300b) 중 보다 큰 화면으로 보길 희망하는 미리보기 영상을 선택하여, 미리 보기 영상을 큰 화면으로서 제공받을 수 있다. The user can select a preview image that he or she wishes to view on a larger screen among the plurality of preview images (2300a, 2300b) and receive the preview image on a larger screen.

한편, 위에서 살펴본 일 영역(2300) 상에 제공되는 복수의 영상들(2300a, 2300b)들은, 사용자 단말기(200) 상에서 증강 현실 그래픽 처리된 영상이 촬영되어, 저장부(120)에 저장된 영상들일 수 있다. 즉, 제어부(130)는 사용자의 요청에 근거하여, 증강 현실 그래픽 처리된 영상이 촬영된 경우, 촬영된 영상들을 모아서, 디스플레이부 상에 제공할 수 있다. 이를 통해, 사용자는 자신이 체험해본 상품에 대한 정보를, 비교하는 것이 가능하다.Meanwhile, the plurality of images 2300a and 2300b provided on one area 2300 as seen above may be images that are images processed with augmented reality graphics captured on the user terminal 200 and stored in the storage unit 120. there is. That is, when an augmented reality graphic-processed image is captured based on the user's request, the control unit 130 can collect the captured images and provide them on the display unit. Through this, users can compare information about products they have experienced.

한편, 앞서 도 14와 함께, 사용자 단말기(200)의 디스플레이부 상에, 그래픽 처리가 수행된 카메라 영상(20)이 표시된 상태에서 상품을 구매하기 위한 상품 구매 페이지(1400)를 사용자 단말기(200)에 제공하는 방법에 대해서 설명하였다. Meanwhile, as shown in FIG. 14, the product purchase page 1400 for purchasing a product is displayed on the display unit of the user terminal 200 while the camera image 20 on which graphic processing has been performed is displayed. The method of providing it was explained.

이하에서는, 사용자 단말기(200)의 디스플레이부 상에 복수의 미리보기 영상(2300a, 2300b)이 표시되어 잇는 상태에서, 상품을 구매하기 위한 상품 구매 페이지를 사용자 단말기(200)에 제공하는 방법에 대해서 설명하도록 한다. Hereinafter, a method of providing a product purchase page for purchasing a product to the user terminal 200 while a plurality of preview images 2300a and 2300b are displayed on the display unit of the user terminal 200 will be described. Let me explain.

제어부(130)는 도 24a의 (a)에 도시된 것과 같이, 사용자 단말기(200)로부터 미리 보기 영상 요청을 수신하는 것에 응답하여(ex: 촬영 기능 아이콘(1830)에 대한 롱 터치 입력), 도 24a의 (b)에 도시된 것과 같이, 사용자 단말기(200)의 디스플레이부의 일 영역(2400) 상에, 아이템에 연계된 옵션 각각에 대응되는 미리 보기 영상(ex: 2400a, 2400b 등)을 표시(출력 또는 제공)할 수 있다. As shown in (a) of FIG. 24A, the control unit 130 responds to receiving a preview image request from the user terminal 200 (ex: long touch input on the shooting function icon 1830), As shown in (b) of 24a, a preview image (ex: 2400a, 2400b, etc.) corresponding to each option associated with the item is displayed on one area 2400 of the display unit of the user terminal 200 ( print or provide).

본 발명에서, 복수의 미리 보기 영상(2400a, 2400b) 각각에는, 미리 보기 영상 각각과 관련된 옵션에 대응되는 상품의 구매 페이지가 링크되어 있을 수 있다. 보다 구체적으로, 제1 미리 보기 영상(2400a)에는, 제1 옵션에 대응되는 상품의 구매 페이지가 링크되어 있을 수 있다. 또한, 제2 미리 보기 영상(2400b)에는, 제2 옵션에 대응되는 상품의 구매 페이지가 링크되어 있을 수 있다. In the present invention, each of the plurality of preview images 2400a and 2400b may be linked to a product purchase page corresponding to an option related to each preview image. More specifically, the first preview image 2400a may be linked to a purchase page for a product corresponding to the first option. Additionally, the second preview image 2400b may be linked to a purchase page for a product corresponding to the second option.

제어부(130)는, 사용자 단말기(200)의 디스플레이부 상에, 복수의 미리 보기 영상(2400a, 2400b)이 표시되고 있는 상태에서, 복수의 미리 보기 영상(2400a, 2400b) 중 어느 하나(2400b)에 대한 사용자 선택을 수신할 수 있다. In a state where a plurality of preview images 2400a and 2400b are displayed on the display unit of the user terminal 200, the control unit 130 selects one of the plurality of preview images 2400a and 2400b (2400b). You can receive user selection for .

제어부(130)는, 사용자 선택에 근거하여, 도 24b에 도시된 것 같이, 선택된 미리 보기 영상(2400b)과 관련된 옵션에 대응되는 상품 구매 페이지(2410)를, 사용자 단말기(200)의 디스플레이부 상에 제공할 수 있다. 이 때, 상품 구매 페이지(2410)는, 사용자 단말기(200)의 디스플레이부의 일 영역에 모달 윈도(Modal Window) 방식으로 제공될 수 있다.Based on the user selection, the control unit 130 displays the product purchase page 2410 corresponding to the option related to the selected preview image 2400b on the display unit 200, as shown in FIG. 24b. can be provided. At this time, the product purchase page 2410 may be provided in a modal window in one area of the display unit of the user terminal 200.

제어부(130)는 라이브 방송을 사용자 단말기(200)에 제공하고 있는 상태 및 증강 현실 기능이 활성화되어 있는 상태에서, 상품 구매를 위한 결제 프로세스 또한 동시에 제공할 수 있다.The control unit 130 may simultaneously provide a payment process for purchasing a product while providing a live broadcast to the user terminal 200 and the augmented reality function is activated.

따라서, 사용자는, 라이브 방소의 시청, 증강 현실 기능을 통한 상품 체험 및 상품의 결제를 일원화하여 제공받을 수 있다.Accordingly, users can receive unified viewing of live broadcasts, product experience through augmented reality functions, and product payment.

한편, 사용자는, 옵션에 대응되는 색상 정보에 따라 그래픽 처리가 수행된 카메라 영상(20)에서, 색상 정보의 농도, 음영, 채도 및 밝기(이하, 음영으로 설명하도록 함) 중 적어도 하나를 변경하고 싶어할 경우가 발생할 수 있다. 예를 들어, 라이브 방송에서 판매(또는 소개)하고 있는 상품이 입술 메이크업에 대한 상품인 경우를 가정하자. 사용자는, 입술 메이크업에 대한 상품을 연한 색상으로 체험(또는 테스트)하거나 진한 색상으로 체험(또는 테스트)하고 싶어할 경우가 발생할 수 있다. 이에, 본 발명에서는 색상 정보에 근거하여 그래픽 처리가 수행된 카메라 영상(20)에서, 색상 정보의 음영을 변경할 수 있는 서비스를 제공할 수 있다. Meanwhile, the user changes at least one of the density, shading, saturation, and brightness (hereinafter described as shading) of the color information in the camera image 20 on which graphic processing has been performed according to the color information corresponding to the option. There may be cases where you want to do so. For example, let's assume that the product being sold (or introduced) in a live broadcast is a lip makeup product. There may be cases where a user wants to experience (or test) a lip makeup product in a light color or in a dark color. Accordingly, the present invention can provide a service that can change the shade of color information in the camera image 20 on which graphic processing has been performed based on color information.

도 25의 (a)에 도시된 것과 같이, 사용자 단말기(200)의 디스플레이부의 특정 영역(ex: 사용자 입술에 대응되는 영역, 2500)에, 특정 색상 정보와 관련된 증강 현실 그래픽 처리가 수행된 카메라 영상(20)이 표시되고 있는 상태에서, 제어부(130)는 사용자 단말기(200)의 디스플레이부의 일 영역 상에, 증강 현실 그래픽 처리의 정도를 변경하기 위한 그래픽 객체(2510)를 표시할 수 있다. 이러한 그래픽 객체(2510)는 프로그레스 바(progress bar) 형식으로 제공될 수 있다. 이러한 그래픽 객체(2510)에 대한 사용자 입력에 근거하여, 제어부(130)는 증강 현실 그래픽 처리의 정도를 변경할 수 있다. 예를 들어, 상기 그래픽 객체(2510)에는 현재 카메라 영상(20)에 적용된 옵션에 대응되는 특정 색상 정보의 음영 변경에 연동되어 있을 수 있다. 제어부(130)는 사용자 단말기(200)를 통해, 상기 그래픽 객체(2510)에 인가되는 사용자 입력을 통해, 카메라 영상(20)에 처리되는 그래픽 처리의 정도를 달리 할 수 있다. 보다 구체적으로, 증강 현실 그래픽 처리의 대상이 되는 특정 영역(2500)에 대한 음영이 변경될 수 있다.As shown in (a) of FIG. 25, a camera image on which augmented reality graphic processing related to specific color information has been performed on a specific area (ex: area corresponding to the user's lips, 2500) of the display unit of the user terminal 200 In a state where (20) is displayed, the control unit 130 may display a graphic object 2510 for changing the degree of augmented reality graphic processing on one area of the display unit of the user terminal 200. This graphic object 2510 may be provided in the form of a progress bar. Based on the user input for the graphic object 2510, the control unit 130 can change the degree of augmented reality graphic processing. For example, the graphic object 2510 may be linked to a change in shade of specific color information corresponding to an option applied to the current camera image 20. The control unit 130 may vary the degree of graphic processing performed on the camera image 20 through user input applied to the graphic object 2510 through the user terminal 200. More specifically, the shading for a specific area 2500 that is the target of augmented reality graphic processing may be changed.

그래픽 객체(2510)의 서로 다른 위치에는, 서로 다른 음영 정보가 매칭되어 있을 수 있다. 예를 들어, 그래픽 객체의 제1 특정 위치에는, 색상 정보의 10%에 대응하는 음영 정보가 매칭되어 있고, 그래픽 객체의 제2 특정 위치에는 색상 정보에 150%에 대응하는 음영 정보가 매칭되어 있을 수 있다.Different shading information may be matched to different positions of the graphic object 2510. For example, shading information corresponding to 10% of the color information is matched to the first specific position of the graphic object, and shading information corresponding to 150% of the color information is matched to the second specific position of the graphic object. You can.

제어부(130)는 사용자 단말기(200)로부터, 그래픽 객체의 특정 위치를 선택하는 사용자 입력을 수신하는 것에 근거하여, 카메라 영상(20)에 대해, 상기 특정 위치에 매칭되어 있는 음영 정보가 반영되도록, 카메라 영상(20)의 그래픽 처리를 변경할 수 있다. Based on receiving a user input for selecting a specific location of a graphic object from the user terminal 200, the control unit 130 reflects shading information matching the specific location on the camera image 20, The graphic processing of the camera image 20 can be changed.

예를 들어, 제어부(130)는 사용자 단말기(200)로부터, 색상 정보의 150%에 해당하는 음영 정보에 대응되는 그래픽 객체의 위치 정보를 수신하였다고 가정하자. 제어부(130)는 도 25의 (b)에 도시된 것과 같이, 사용자 단말기(200)의 디스플레이부 상의 특정 영역(ex: 사용자 입술에 대응되는 영역, 2500)에, 150%의 음영 정보가 반영된 색상 정보와 관련된 그래픽 처리가 수행된 카메라 영상(20)을 제공할 수 있다. For example, assume that the control unit 130 has received location information of a graphic object corresponding to shade information corresponding to 150% of the color information from the user terminal 200. As shown in (b) of FIG. 25, the control unit 130 sets a color in which 150% of the shading information is reflected in a specific area (ex: area corresponding to the user's lips, 2500) on the display unit of the user terminal 200. A camera image 20 on which information-related graphics processing has been performed may be provided.

이와 같이, 제어부(130)는 그래픽 객체(2510)를 활용하여, 증강 현실이 적용되는 정도를 달리 함으로써, 실제로 상품을 체험하는 것과 같은 다양한 경험을 사용자에게 제공할 수 있다.In this way, the control unit 130 can use the graphic object 2510 to vary the degree to which augmented reality is applied, thereby providing the user with a variety of experiences, such as actually experiencing a product.

한편, 사용자는, 복수의 상품을 동시에 체험하고자 하는 니즈가 존재할 수 있다. 예를 들어, 사용자는, 입술 메이크업에 대한 상품 및 아이 메이크업에 대한 상품을 동시에 자신의 얼굴 이미지를 포함한 카메라 영상(20)에 적용하여, 입술 화장 및 눈 화장을 동시에 한 것과 같은 효과를 체험하고 싶어할 수 있다. Meanwhile, a user may have a need to experience multiple products simultaneously. For example, the user wants to experience the same effect as applying lip makeup and eye makeup at the same time by simultaneously applying a product for lip makeup and a product for eye makeup to the camera image 20 including the image of his or her face. can do.

이에 본 발명에서는, 하나의 카메라 영상(20)에 서로 다른 복수의 상품과 관련된 그래픽 처리를 수행하여 사용자 단말기(200)의 디스플레이부 상에 제공할 수 있다. Accordingly, in the present invention, graphic processing related to a plurality of different products can be performed on one camera image 20 and displayed on the display unit of the user terminal 200.

도 26a의 (a)에 도시된 것과 같이, 제어부(130)는, 사용자 단말기(200)의 디스플레이부 상에, 증강 현실 그래픽 처리를 수행한 추가 상품에 대한 선택을 입력 받기 위한, 추가 상품 리스트(2610)를 제공할 수 있다. As shown in (a) of FIG. 26A, the control unit 130 displays an additional product list on the display unit of the user terminal 200 ( 2610) can be provided.

추가 상품 리스트(2610)를 통해 제공되는 상품은, 라이브 방송에 연계되어 있는 상품일 수 있다. 나아가, 추가 상품 리스트(2610)를 통해 제공되는 상품은, 증강 현실 기능을 제공하는 상품일 수 있다.Products provided through the additional product list 2610 may be products linked to live broadcasting. Furthermore, products provided through the additional product list 2610 may be products that provide an augmented reality function.

추가 상품 리스트(2610)에는, 증강 현실 그래픽 처리가 수행된 카메라 영상(20)과 관련된 상품과는 다른 상품에 대한 추가 상품 항목을 포함할 수 있다. 예를 들어, 라이브 방송과 연계된 제1 입술 메이크업 대한 상품 및 제2 입술 메이크업 대한 상품 중 제1 입술 메이크업에 대한 상품과 관련하여 카메라 영상(20)에 그래픽 처리가 수행되었다고 가정하자. 이 경우, 추가 상품은 제2 입술 메이크업에 대한 상품으로 이해될 수 있다. The additional product list 2610 may include additional product items for products different from the product related to the camera image 20 on which augmented reality graphic processing was performed. For example, assume that graphic processing is performed on the camera image 20 in relation to the first lip makeup product among the first lip makeup products and second lip makeup products associated with the live broadcast. In this case, the additional product can be understood as a product for the second lip makeup.

본 발명에서는, 사용자 단말기(200)의 디스플레이부 상에 추가 상품 리스트(2610)가 표시되고 있는 상태에서, 추가적인 증강 현실 그래픽 처리를 수행할 상품에 대응되는 추가 상품 항목에 대한 사용자 선택을 수신할 수 있다. In the present invention, while the additional product list 2610 is displayed on the display unit of the user terminal 200, a user selection of an additional product item corresponding to a product to perform additional augmented reality graphic processing can be received. there is.

제어부(130)는, 추가적인 증강 현실 그래픽 처리를 수행할 추가 상품에 대한 사용자 선택을 수신한 것에 근거하여, 도 26a의 (b)에 도시된 것과 같이, 추가 상품에 설정된 복수의 옵션에 대응되는 그래픽 객체(2630, 2640, 2560)를 사용자 단말기(200)의 디스플레이부 상에 제공할 수 있다. Based on receiving the user's selection for an additional product to perform additional augmented reality graphic processing, the control unit 130 selects graphics corresponding to a plurality of options set for the additional product, as shown in (b) of FIG. 26A. Objects 2630, 2640, and 2560 may be provided on the display unit of the user terminal 200.

보다 구체적으로, 제어부(130)는, 사용자 단말기(200)의 디스플레이부 상에, i) 제1 상품(ex: 아이 메이크업 대한 상품)에 설정된 복수의 옵션 각각에 대응되는 복수의 그래픽 객체(2631, 2632), ii) 제2 상품(ex: 입술 메이크업에 대응되는 상품)에 설정된 복수의 옵션 각각에 대응되는 복수의 그래픽 객체(2641, 2642), iii) 제3 상품(ex: 블러셔 메이크업에 대응되는 상품)에 설정된 복수의 옵션 각각에 대응되는 복수의 그래픽 객체(2651, 2652)를 표시할 수 있다. More specifically, the control unit 130, on the display unit of the user terminal 200, i) a plurality of graphic objects 2631, each corresponding to a plurality of options set for the first product (ex: eye makeup product) 2632), ii) a plurality of graphic objects (2641, 2642) corresponding to each of a plurality of options set in the second product (ex: product corresponding to lip makeup), iii) a third product (ex: product corresponding to blusher makeup) A plurality of graphic objects (2651, 2652) corresponding to each of the plurality of options set for the product can be displayed.

사용자는, 카메라 영상(20)에 포함된 자신의 얼굴 이미지에서, 눈 화장 효과를 변경하고 싶은 경우에는, 제1 상품(ex: 아이 메이크업 대한 상품)에 설정된 복수의 옵션 각각에 대응되는 복수의 그래픽 객체(2631, 2632) 중 어느 하나를 선택할 수 있다. When the user wants to change the eye makeup effect in his/her face image included in the camera image 20, a plurality of graphics corresponding to each of a plurality of options set in the first product (ex: product for eye makeup) are displayed. Any one of objects 2631 and 2632 can be selected.

또한, 사용자는, 카메라 영상(20)에 포함된 자신의 얼굴 이미지에서, 입술 화장 효과를 변경하고 싶은 경우에는, 제2 상품(ex: 입술 메이크업 대한 상품)에 설정된 복수의 옵션 각각에 대응되는 복수의 그래픽 객체(2641, 2642) 중 어느 하나를 선택할 수 있다. In addition, when the user wants to change the lip makeup effect in his/her face image included in the camera image 20, the user selects multiple options corresponding to each of a plurality of options set in the second product (ex: product for lip makeup). You can select any one of the graphic objects 2641 and 2642.

한편, 사용자 단말기(200)의 디스플레이부 상에는, 복수의 상품을 모두 구매할 수 있는 상품 구매 페이지(2660, 도 26b 참조)가 링크된 기능 아이콘(2670)이 포함되어 있을 수 있다. Meanwhile, the display unit of the user terminal 200 may include a function icon 2670 linked to a product purchase page 2660 (see FIG. 26B) where multiple products can be purchased.

제어부(130)는, 사용자 단말기(200)의 디스플레이부 상에, 복수의 상품 각각에 설정된 옵션 정보에 대한 그래픽 객체(2630, 2640, 2650)와 함께, 상기 복수의 상품을 모두 구매할 수 있는 상품 구매 페이지(2660)가 링크된 기능 아이콘(2670)을 함께 표시할 수 있다. The control unit 130 displays graphic objects 2630, 2640, and 2650 for option information set for each of the plurality of products on the display unit of the user terminal 200, and provides a product purchase function that allows all of the plurality of products to be purchased. The page 2660 may also display a linked function icon 2670.

제어부(130)는 상기 복수의 상품을 모두 구매할 수 있는 상품 구매 페이지(2660, 도 26b 참조)가 링크된 기능 아이콘(2670)에 대한 사용자 선택을 수신하는 것에 근거하여, 도 26b에 도시된 것과 같이, 상기 복수의 상품을 모두 구매할 수 있는 상품 구매 페이지(2660)를 사용자 단말기(200)의 디스플레이부 상에 제공할 수 있다. Based on receiving the user's selection of the function icon 2670 to which the product purchase page 2660 (see FIG. 26B), where all of the plurality of products can be purchased, is linked, the control unit 130 selects the product as shown in FIG. 26B. , a product purchase page 2660 where all of the plurality of products can be purchased can be provided on the display unit of the user terminal 200.

사용자는, 복수의 상품 각각을 판매하는 상품 구매 페이지에서, 상품을 개별적으로 구매하는 번거로움 없이, 상기 상품 구매 페이지(2660)을 통해 복수의 상품을 일괄적으로 구매할 수 있다. The user can purchase multiple products in bulk through the product purchase page 2660 without the hassle of purchasing the products individually on the product purchase page that sells each of the multiple products.

이상에서 살펴본 것과 같이, 본 발명에 따른 라이브 방송 제공 방법 및 시스템은, 증강현실 기능을 활용하여, 사용자가 라이브 방송을 시청하면서, 라이브 방송에서 소개되는 상품을 체험할 수 있는 사용자 경험을 제공할 수 있다. As seen above, the method and system for providing live broadcasting according to the present invention can utilize the augmented reality function to provide a user experience that allows users to experience products introduced in the live broadcast while watching the live broadcast. there is.

이와 같은, 본 발명에 따른 라이브 방송 제공 방법 및 시스템에 의하면, 소비자는, 직접 매장을 방문하지 않더라도, 상품에 대한 체험을 할 수 있어, 매장을 방문하는 시간을 절약함은 물론, 상품의 구매를 보다 신중하게 할 수 있다.According to the method and system for providing live broadcasting according to the present invention, consumers can experience products even without directly visiting the store, saving time on visiting the store and purchasing products. You can do it more carefully.

나아가, 본 발명에 따른 라이브 방송 제공 방법 및 시스템에 의하면, 판매자는, 소비자들에게 상품을 다양하게 체험할 수 있는 기회를 제공함으로써, 소비자들의 보다 적극적인 상품 구매를 유도할 수 있다. 나아가, 판매자는 직접 매장을 운영하지 않더라도 라이브 방송을 통하여 다양한 소비자를 만나고, 상품을 체험시킴으로써, 매장을 운영하는 운영비를 절약함은 물론, 상품 판매의 기회를 다양하게 가질 수 있다.Furthermore, according to the method and system for providing live broadcasting according to the present invention, sellers can induce consumers to more actively purchase products by providing consumers with opportunities to experience products in a variety of ways. Furthermore, even if sellers do not directly operate a store, they can meet various consumers and experience products through live broadcasts, thereby saving on the operating costs of running a store and having various opportunities to sell products.

한편, 본 발명에 따른 라이브 방송 제공 방법 및 시스템은, 라이브 방송의 제공, 상품에 대한 체험, 상품에 대한 구매 프로세스 제공을, 라이브 방송이 진행중인 상황에서 일원화하여 제공할 수 있다. 이를 통해, 소비자는 본 발명에 따른 라이브 방송을 시청하는 것 만으로도, 상품에 대한 체험과 구매를 보다 편리하게 수행할 수 있다. 한편, 위에서 살펴본 본 발명은, 컴퓨터에서 하나 이상의 프로세스에 의하여 실행되며, 이러한 컴퓨터로 판독될 수 있는 매체에 저장 가능한 프로그램으로서 구현될 수 있다.Meanwhile, the method and system for providing live broadcasting according to the present invention can provide the provision of live broadcasting, product experience, and product purchase process in a unified manner while live broadcasting is in progress. Through this, consumers can experience and purchase products more conveniently just by watching the live broadcast according to the present invention. Meanwhile, the present invention discussed above can be implemented as a program that is executed by one or more processes on a computer and can be stored in a medium that can be read by such a computer.

나아가, 위에서 살펴본 본 발명은, 프로그램이 기록된 매체에 컴퓨터가 읽을 수 있는 코드 또는 명령어로서 구현하는 것이 가능하다. 즉, 본 발명에 따른 다양한 제어방법은 통합하여 또는 개별적으로 프로그램의 형태로 제공될 수 있다. Furthermore, the present invention discussed above can be implemented as computer-readable codes or instructions on a program-recorded medium. That is, various control methods according to the present invention may be provided in the form of programs, either integrated or individually.

한편, 컴퓨터가 읽을 수 있는 매체는, 컴퓨터 시스템에 의하여 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록장치를 포함한다. 컴퓨터가 읽을 수 있는 매체의 예로는, HDD(Hard Disk Drive), SSD(Solid State Disk), SDD(Silicon Disk Drive), ROM, RAM, CD-ROM, 자기 테이프, 플로피 디스크, 광 데이터 저장 장치 등이 있다. Meanwhile, computer-readable media includes all types of recording devices that store data that can be read by a computer system. Examples of computer-readable media include HDD (Hard Disk Drive), SSD (Solid State Disk), SDD (Silicon Disk Drive), ROM, RAM, CD-ROM, magnetic tape, floppy disk, optical data storage device, etc. There is.

나아가, 컴퓨터가 읽을 수 있는 매체는, 저장소를 포함하며 전자기기가 통신을 통하여 접근할 수 있는 서버 또는 클라우드 저장소일 수 있다. 이 경우, 컴퓨터는 유선 또는 무선 통신을 통하여, 서버 또는 클라우드 저장소로부터 본 발명에 따른 프로그램을 다운로드 받을 수 있다.Furthermore, the computer-readable medium may be a server or cloud storage that includes storage and can be accessed by electronic devices through communication. In this case, the computer can download the program according to the present invention from a server or cloud storage through wired or wireless communication.

나아가, 본 발명에서는 위에서 설명한 컴퓨터는 프로세서, 즉 CPU(Central Processing Unit, 중앙처리장치)가 탑재된 전자기기로서, 그 종류에 대하여 특별한 한정을 두지 않는다.Furthermore, in the present invention, the computer described above is an electronic device equipped with a processor, that is, a CPU (Central Processing Unit), and there is no particular limitation on its type.

한편, 상기의 상세한 설명은 모든 면에서 제한적으로 해석되어서는 아니되고 예시적인 것으로 고려되어야 한다. 본 발명의 범위는 첨부된 청구항의 합리적 해석에 의해 결정되어야 하고, 본 발명의 등가적 범위 내에서의 모든 변경은 본 발명의 범위에 포함된다.Meanwhile, the above detailed description should not be construed as restrictive in all respects and should be considered illustrative. The scope of the present invention should be determined by reasonable interpretation of the appended claims, and all changes within the equivalent scope of the present invention are included in the scope of the present invention.

Claims (18)

라이브 방송 서버로부터, 라이브 방송의 방송 영상을 수신하는 단계;
상기 수신에 근거하여, 사용자 단말기의 디스플레이부 상에 상기 방송 영상을 제공하는 제1 데이터 처리를 수행하는 단계;
상기 제1 데이터 처리에 따라 상기 디스플레이부 상에 상기 방송 영상이 제공되고 있는 상태에서, 상기 사용자 단말기로부터 상기 라이브 방송과 관련된 증강 현실 기능에 대한 활성화 요청을 수신하는 단계;
상기 제1 데이터 처리가 수행되고 있는 상태에서, 상기 증강 현실 기능에 대한 활성화 요청이 수신되면, 상기 활성화 요청에 응답하여 상기 사용자 단말기에 구비된 카메라를 활성화하고, 상기 활성화된 카메라로부터 수신되는 카메라 영상에 대해, 상기 라이브 방송에 연계된 상품과 관련된 증강 현실 그래픽 처리가 이루어지도록 제2 데이터 처리를 수행하는 단계; 및
상기 제1 데이터 처리 및 상기 제2 데이터 처리에 근거하여, 상기 사용자 단말기에서 상기 방송 영상을 수신하고 있는 상태에서, 상기 증강 현실 그래픽 처리가 수행된 카메라 영상과 함께, 상기 상품과 관련된 옵션 정보를 상기 디스플레이부 상에 표시하는 단계를 포함하는 것을 특징으로 하는 라이브 방송 제공 방법.
Receiving broadcast video of a live broadcast from a live broadcast server;
Based on the reception, performing first data processing to provide the broadcast image on a display unit of a user terminal;
Receiving an activation request for an augmented reality function related to the live broadcast from the user terminal while the broadcast image is being provided on the display unit according to the first data processing;
While the first data processing is being performed, when an activation request for the augmented reality function is received, a camera provided in the user terminal is activated in response to the activation request, and a camera image is received from the activated camera. Regarding, performing second data processing so that augmented reality graphic processing related to the product linked to the live broadcast is performed; and
Based on the first data processing and the second data processing, while the user terminal is receiving the broadcast image, the option information related to the product is displayed along with the camera image on which the augmented reality graphic processing has been performed. A method of providing live broadcasting, comprising the step of displaying on a display unit.
제1항에 있어서,
상기 상품과 관련된 옵션 정보는,
상기 상품에 연계되어 등록된 옵션에 대응되는 그래픽 객체를 포함하고,
상기 그래픽 객체의 시각적 외관은, 상기 그래픽 객체에 대응되는 옵션의 속성에 근거하여 결정되는 것을 특징으로 하는 라이브 방송 제공 방법.
According to paragraph 1,
Optional information related to the above product,
Contains a graphic object corresponding to an option registered in connection with the product,
A method for providing live broadcasting, wherein the visual appearance of the graphic object is determined based on properties of options corresponding to the graphic object.
제2항에 있어서,
상기 상품에 연계되어 등록된 옵션이 복수인 경우, 상기 그래픽 객체는, 상기 복수의 옵션에 각각 대응되는 복수의 그래픽 객체를 포함하는 것을 특징으로 하는 라이브 방송 제공 방법.
According to paragraph 2,
When there are a plurality of options registered in connection with the product, the graphic object includes a plurality of graphic objects respectively corresponding to the plurality of options.
제3항에 있어서,
상기 증강 현실 그래픽 처리를 수행하는 단계에서는,
상기 복수의 옵션 중 기 특정된 제1 옵션의 속성이 상기 증강 현실 그래픽 처리된 카메라 영상에 나타나도록, 상기 카메라 영상을 이용하여 상기 증강 현실 그래픽 처리를 수행하는 것을 특징으로 하는 라이브 방송 제공 방법.
According to paragraph 3,
In the step of performing the augmented reality graphics processing,
A method for providing a live broadcast, characterized in that the augmented reality graphics processing is performed using the camera image so that an attribute of a pre-specified first option among the plurality of options appears in the augmented reality graphics processed camera image.
제4항에 있어서,
상기 복수의 옵션 각각의 속성은, 서로 다른 색상 정보에 각각 대응되고,
상기 증강 현실 그래픽 처리를 수행하는 단계에서는,
상기 카메라 영상에서 상기 기 특정된 제1 옵션에 대응되는 색상 정보의 색상이 보여지도록, 상기 카메라 영상의 적어도 일부분의 색상을 변환하여 상기 증강 현실 그래픽 처리된 카메라 영상을 생성하는 것을 특징으로 하는 라이브 방송 제공 방법.
According to clause 4,
The properties of each of the plurality of options correspond to different color information, respectively,
In the step of performing the augmented reality graphics processing,
Live broadcasting, characterized in that the augmented reality graphic-processed camera image is generated by converting the color of at least a portion of the camera image so that the color of color information corresponding to the predetermined first option is shown in the camera image. How to provide.
제5항에 있어서,
상기 사용자 단말기부터 상기 복수의 옵션에 각각 대응되는 상기 복수의 그래픽 객체 중 상기 기 특정된 제1 옵션과 다른 제2 옵션에 대응되는 그래픽 객체가 선택되는 단계; 및
상기 제2 옵션에 대응되는 그래픽 객체의 선택에 응답하여, 상기 카메라 영상에서 상기 제1 옵션에 대응되는 색상정보와 다른 상기 제2 옵션에 대응되는 색상 정보의 색상이 보여지도록, 상기 카메라 영상에 대한 증강 현실 그래픽 처리를 변경하는 단계를 더 포함하는 것을 특징으로 하는 라이브 방송 제공 방법.
According to clause 5,
selecting, from the user terminal, a graphic object corresponding to a second option different from the pre-specified first option among the plurality of graphic objects corresponding to each of the plurality of options; and
In response to selection of a graphic object corresponding to the second option, the color of the color information corresponding to the second option that is different from the color information corresponding to the first option is displayed in the camera image. A method of providing a live broadcast, further comprising the step of changing augmented reality graphics processing.
제3항에 있어서,
상기 디스플레이부 상에 상기 방송 영상이 제공되고 있는 상태에서, 상기 디스플레이부의 일 영역에는, 상기 증강 현실 기능에 링크된 아이콘이 표시되고,
상기 증강 현실 기능에 대한 활성화 요청은, 상기 사용자 단말기부터 상기 아이콘이 선택되는 것에 근거하여 수신되며,
상기 복수의 그래픽 객체 중 어느 하나의 그래픽 객체는, 상기 카메라에 대한 촬영 기능에 연계되는 것을 특징으로 하는 라이브 방송 제공 방법.
According to paragraph 3,
While the broadcast image is being provided on the display unit, an icon linked to the augmented reality function is displayed in one area of the display unit,
A request for activation of the augmented reality function is received from the user terminal based on the icon being selected,
A method for providing a live broadcast, wherein one graphic object among the plurality of graphic objects is linked to a shooting function for the camera.
제7항에 있어서,
상기 복수의 그래픽 객체는, 일 방향을 따라 나란하게 배치되도록 이루어지고,
상기 카메라에 대한 촬영 기능은,
나란하게 배치된 상기 복수의 그래픽 객체 중 중앙에 위치한 제1 그래픽 객체에 연계되도록 이루어지는 것을 특징으로 하는 라이브 방송 제공 방법.
In clause 7,
The plurality of graphic objects are arranged side by side along one direction,
The shooting function for the camera is,
A method of providing a live broadcast, characterized in that it is linked to a first graphic object located in the center among the plurality of graphic objects arranged side by side.
제8항에 있어서,
상기 증강 현실 그래픽 처리된 카메라 영상은, 상기 중앙에 위치한 상기 제1 그래픽 객체에 대응되는 옵션의 속성에 대응되는 시각적 외관을 갖도록 증강 현실 그래픽 처리된 것을 특징으로 하는 라이브 방송 제공 방법.
According to clause 8,
A method for providing a live broadcast, wherein the camera image processed with augmented reality graphics is processed with augmented reality graphics to have a visual appearance corresponding to an attribute of an option corresponding to the first graphic object located at the center.
제9항에 있어서,
상기 복수의 그래픽 객체는 상기 사용자 단말기부터 수신되는 기 설정된 방식의 사용자 입력에 근거하여 상기 디스플레이 상에서 상기 일 방향을 따라 이동하도록 이루어지고,
상기 기 설정된 방식의 사용자 입력에 근거하여 상기 복수의 그래픽 객체를 이동시킨 결과, 상기 복수의 그래픽 객체의 중앙에, 상기 제1 그래픽 객체와 다른 제2 그래픽 객체가 위치하는 경우,
상기 카메라에 대한 촬영 기능은 상기 제2 그래픽 객체에 연계되고,
상기 카메라 영상에 상기 제2 그래픽 객체에 대응되는 옵션의 속성에 대응되는 시각적 외관이 반영되도록, 상기 카메라 영상에 대한 증강 현실 그래픽 처리를 업데이트하는 것을 특징으로 하는 라이브 방송 제공 방법.
According to clause 9,
The plurality of graphic objects are configured to move along the one direction on the display based on a preset user input received from the user terminal,
As a result of moving the plurality of graphic objects based on the user input in the preset method, when a second graphic object different from the first graphic object is located in the center of the plurality of graphic objects,
The shooting function for the camera is linked to the second graphic object,
A method for providing a live broadcast, characterized in that updating augmented reality graphic processing for the camera image so that the camera image reflects the visual appearance corresponding to the attribute of the option corresponding to the second graphic object.
제7항에 있어서,
상기 복수의 그래픽 객체 중 상기 카메라 촬영 기능에 연계된 어느 하나의 그래픽 객체가 선택되는 경우,
상기 증강 현실 그래픽 처리된 카메라 영상을 촬영하여 저장부에 저장하는 단계를 더 포함하고,
상기 증강 현실 그래픽 처리된 카메라 영상은, 상기 어느 하나의 그래픽 객체에 대응되는 옵션의 속성에 대응되는 시각적 외관을 갖도록 증강 현실 그래픽 처리된 것을 특징으로 하는 라이브 방송 제공 방법.
In clause 7,
When one graphic object associated with the camera shooting function is selected among the plurality of graphic objects,
Further comprising capturing the augmented reality graphic-processed camera image and storing it in a storage unit,
A method for providing a live broadcast, wherein the camera image processed with augmented reality graphics is processed with augmented reality graphics to have a visual appearance corresponding to an attribute of an option corresponding to the one graphic object.
제2항에 있어서,
상기 그래픽 객체 주변에는, 상기 그래픽 객체에 대응되는 옵션과 관련된 옵션 정보가 출력되는 것을 특징으로 하는 라이브 방송 제공 방법.
According to paragraph 2,
A method of providing a live broadcast, characterized in that option information related to options corresponding to the graphic object is output around the graphic object.
제9항에 있어서,
상기 옵션 정보는, 상기 상품에 연계되어 등록된 옵션과 연계하여 데이터베이스 상에 저장되어 존재하는 것을 특징으로 하는 라이브 방송 제공 방법.
According to clause 9,
A method of providing live broadcasting, characterized in that the option information is stored and exists in a database in connection with options registered in connection with the product.
제13항에 있어서,
상기 그래픽 객체 주변에는, 상기 그래픽 객체에 대응되는 옵션과 관련된 상황 정보가 출력되고,
상기 상황 정보는,
상기 옵션에 대응되는 상품과 관련된 타겟 고객, 구매 고객 및 매출 중 적어도 하나와 관련된 것을 특징으로 하는 라이브 방송 제공 방법.
According to clause 13,
Context information related to options corresponding to the graphic object is output around the graphic object,
The above situation information is,
A method of providing live broadcasting, characterized in that it is related to at least one of target customers, purchasing customers, and sales related to the product corresponding to the option.
제14항에 있어서,
상기 상황 정보는,
상기 라이브 방송이 진행되는 동안, 상기 상품과 관련되어 수집되는 것을 특징으로 하는 라이브 방송 제공 방법.
According to clause 14,
The above situation information is,
A method of providing a live broadcast, characterized in that collection related to the product is collected while the live broadcast is in progress.
제15항에 있어서,
상기 상황 정보는,
상기 라이브 방송이 진행되는 동안 수집되는 정보에 근거하여, 실시간으로 업데이트되는 것을 특징으로 하는 라이브 방송 제공 방법.
According to clause 15,
The above situation information is,
A method of providing a live broadcast, characterized in that it is updated in real time based on information collected while the live broadcast is in progress.
통신부, 카메라 및 디스플레이부를 포함하는 사용자 단말기와 연동하는 라이브 방송 제공 시스템에 있어서,
상기 통신부를 통해, 라이브 방송 서버로부터, 라이브 방송의 방송 영상을 수신하는 제어부를 포함하고,
상기 제어부는,
상기 수신에 근거하여, 사용자 단말기의 디스플레이부 상에 상기 방송 영상을 제공하는 제1 데이터 처리를 수행하고,
상기 제1 데이터 처리에 따라 상기 디스플레이부 상에 상기 방송 영상이 제공되고 있는 상태에서, 상기 사용자 단말기로부터 상기 라이브 방송과 관련된 증강 현실 기능에 대한 활성화 요청을 수신하고,
상기 제1 데이터 처리가 수행되고 있는 상태에서, 상기 증강 현실 기능에 대한 활성화 요청이 수신되면, 상기 활성화 요청에 응답하여 상기 사용자 단말기에 구비된 카메라를 활성화하고, 상기 활성화된 카메라로부터 수신되는 카메라 영상에 대해, 상기 라이브 방송에 연계된 상품과 관련된 증강 현실 그래픽 처리가 이루어지도록 제2 데이터 처리를 수행하며,
상기 제1 데이터 처리 및 상기 제2 데이터 처리에 근거하여, 상기 사용자 단말기에서 상기 방송 영상을 수신하고 있는 상태에서, 상기 증강 현실 그래픽 처리가 수행된 카메라 영상과 함께, 상기 상품과 관련된 옵션 정보를 상기 디스플레이부 상에 표시하는 것을 특징으로 하는 라이브 방송 제공 시스템.
In a live broadcasting provision system linked to a user terminal including a communication unit, a camera, and a display unit,
A control unit that receives broadcast video of a live broadcast from a live broadcast server through the communication unit,
The control unit,
Based on the reception, perform first data processing to provide the broadcast image on a display unit of the user terminal,
While the broadcast image is being provided on the display unit according to the first data processing, a request for activation of an augmented reality function related to the live broadcast is received from the user terminal,
While the first data processing is being performed, when an activation request for the augmented reality function is received, a camera provided in the user terminal is activated in response to the activation request, and a camera image is received from the activated camera. For this, second data processing is performed so that augmented reality graphic processing related to the product linked to the live broadcast is performed,
Based on the first data processing and the second data processing, while the user terminal is receiving the broadcast image, the option information related to the product is displayed along with the camera image on which the augmented reality graphic processing has been performed. A live broadcasting provision system characterized by displaying on a display unit.
전자기기에서 하나 이상의 프로세스에 의하여 실행되며, 컴퓨터로 판독될 수 있는 기록매체에 저장된 프로그램으로서,
상기 프로그램은,
라이브 방송 서버로부터, 라이브 방송의 방송 영상을 수신하는 단계;
상기 수신에 근거하여, 사용자 단말기의 디스플레이부 상에 상기 방송 영상을 제공하는 제1 데이터 처리를 수행하는 단계;
상기 제1 데이터 처리에 따라 상기 디스플레이부 상에 상기 방송 영상이 제공되고 있는 상태에서, 상기 사용자 단말기로부터 상기 라이브 방송과 관련된 증강 현실 기능에 대한 활성화 요청을 수신하는 단계;
상기 제1 데이터 처리가 수행되고 있는 상태에서, 상기 증강 현실 기능에 대한 활성화 요청이 수신되면, 상기 활성화 요청에 응답하여 상기 사용자 단말기에 구비된 카메라를 활성화하고, 상기 활성화된 카메라로부터 수신되는 카메라 영상에 대해, 상기 라이브 방송에 연계된 상품과 관련된 증강 현실 그래픽 처리가 이루어지도록 제2 데이터 처리를 수행하는 단계; 및
상기 제1 데이터 처리 및 상기 제2 데이터 처리에 근거하여, 상기 사용자 단말기에서 상기 방송 영상을 수신하고 있는 상태에서, 상기 증강 현실 그래픽 처리가 수행된 카메라 영상과 함께, 상기 상품과 관련된 옵션 정보를 상기 디스플레이부 상에 표시하는 단계를 수행하는 명령어들을 포함하는 것을 특징으로 하는 컴퓨터로 판독될 수 있는 기록매체에 저장된 프로그램.
A program that is executed by one or more processes in an electronic device and stored on a computer-readable recording medium,
The above program is,
Receiving broadcast video of a live broadcast from a live broadcast server;
Based on the reception, performing first data processing to provide the broadcast image on a display unit of a user terminal;
Receiving an activation request for an augmented reality function related to the live broadcast from the user terminal while the broadcast image is being provided on the display unit according to the first data processing;
While the first data processing is being performed, when an activation request for the augmented reality function is received, a camera provided in the user terminal is activated in response to the activation request, and a camera image is received from the activated camera. Regarding, performing second data processing so that augmented reality graphic processing related to the product linked to the live broadcast is performed; and
Based on the first data processing and the second data processing, while the user terminal is receiving the broadcast image, the option information related to the product is displayed along with the camera image on which the augmented reality graphic processing has been performed. A program stored in a computer-readable recording medium comprising instructions for performing display steps on a display unit.
KR1020220078546A 2022-06-27 2022-06-27 Method and system for providing live broadcasting KR102659455B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020220078546A KR102659455B1 (en) 2022-06-27 2022-06-27 Method and system for providing live broadcasting

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020220078546A KR102659455B1 (en) 2022-06-27 2022-06-27 Method and system for providing live broadcasting

Publications (2)

Publication Number Publication Date
KR20240001633A KR20240001633A (en) 2024-01-03
KR102659455B1 true KR102659455B1 (en) 2024-04-19

Family

ID=89539078

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020220078546A KR102659455B1 (en) 2022-06-27 2022-06-27 Method and system for providing live broadcasting

Country Status (1)

Country Link
KR (1) KR102659455B1 (en)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101895001B1 (en) * 2017-07-13 2018-09-05 (주)블루오션소프트 Full duplex live broadcast commerce service platform based on smart phone
US20220198551A1 (en) * 2020-12-22 2022-06-23 Naver Corporation Method and device for controlling live content streaming service

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20160096546A (en) * 2015-02-05 2016-08-16 김가임 Augmented reality experience system and method for shopping
KR102697126B1 (en) * 2019-03-12 2024-08-22 주식회사 케이티 Device and server for proving augmented reality service

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101895001B1 (en) * 2017-07-13 2018-09-05 (주)블루오션소프트 Full duplex live broadcast commerce service platform based on smart phone
US20220198551A1 (en) * 2020-12-22 2022-06-23 Naver Corporation Method and device for controlling live content streaming service

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
Perfect Corp: Beauty Tech AI & AR, "Beauty Tech: AR Beauty Live Casting on Web | Virtual Makeup Try On | Beauty Trends", 2021.07.27.*

Also Published As

Publication number Publication date
KR20240001633A (en) 2024-01-03

Similar Documents

Publication Publication Date Title
US10895961B2 (en) Progressive information panels in a graphical user interface
US11461808B2 (en) Three dimensional proximity recommendation system
US10089680B2 (en) Automatically fitting a wearable object
US9535945B2 (en) Intent based search results associated with a modular search object framework
Barlow et al. Developments in information and communication technologies for retail marketing channels
US8311915B2 (en) Detail-in-context lenses for interacting with objects in digital image presentations
US9830388B2 (en) Modular search object framework
EP2940607A1 (en) Enhanced search results associated with a modular search object framework
KR20160067373A (en) System of giving clothes wearing information with AVATA and operating method thereof
US10282904B1 (en) Providing augmented reality view of objects
US11087390B1 (en) Method and system for displaying items provided by a merchant
KR20200139934A (en) Clothes Wearing Service Apparatus and Method using Augmented Reality
JP2013069106A (en) Electronic content providing system, electronic content providing server, electronic content browsing terminal device, and program
US20200226668A1 (en) Shopping system with virtual reality technology
KR102659455B1 (en) Method and system for providing live broadcasting
KR102638455B1 (en) Method and system for providing live broadcasting
GB2567644A (en) Method and system for supplying commodities
KR102632812B1 (en) Method and system for providing live broadcasting
KR102659456B1 (en) Method and system for providing live broadcasting
KR20090000600A (en) Shopping mall system and web shopping service method using the same
JP2023065322A (en) Method for providing online shopping information, computer program and user terminal
Dou et al. Show something: intelligent shopping assistant supporting quick scene understanding and immersive preview
Patel et al. Immersive Interior Design: Exploring Enhanced Visualization Through Augmented Reality Technologies
Hsieh et al. A Virtual Interactive System for Merchandising Stores
Yang An experiment on the effect of augmented reality on user experience in digitized shopping

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant